Futur de l’informatique épisode 1 – Histoire de l’informatique

Une nouvelle décennie

Voilà, ça c'est fait. Voici déjà 10 ans que nous avons fêté en grande pompe le passage à l'an 2000 !

L'an 2000 était le symbole du futur pour tous les gens du 20ème siècle. En l'an 2000, il y aura des voitures volantes !

Imprimerie du XVe siècle

De nombreuses prédictions futuristes ont été faites, certaines ce sont réalisées et d'autres pas. Une des révolutions de la dernière décenie (et un peu plus) qui n'avait pas tellement été cernées, est cette massive accélération de l'utilisation des technologies de l'information. Le téléphone mobile, l'utilisation quotidienne du web. Ce sont des changements majeurs de l'évolution de notre société et d'après moi, ça ne fait que commencer.

Cette décenie, nous avons assisté à une révolution technologique et maintenant nous allons assister à une révolution de l'organisation de notre société qui est induite par cette révolution technologique.

Nous sommes encore en phase de transition. Ceux que l'on appelle les Digitals natives, ceux qui sont nés à l'ère du web et qui n'ont jamais vécu une époque non connectée, arrivent gentiment à l'age de prendre leur autonomie et de participer activement à l'évolution de notre société.

La dernière révolution dans le domaine des technologies de l'information c'était il y a 500 ans. C'était l'invention de l'imprimerie. La diffusion massive de bible a entrainé la réforme. La fin de la ma mise toute puissante de l'église catholique.

Que va changer l'utilisation massive du web ?

Il y  a un intéressant travail de pronostique à faire à ce niveau là. Comme c'est assez difficile, tout d'abord nous allons refaire l'histoire du web, de son évolution et tenter de dégager dans quelle direction il va évoluer.

Pour éviter de balancer d'un coup un texte énorme avec de nombreuses chose à comprendre. Je vais échelonner toute ma réflexions en une dizaine d'épisodes dont voici le premier.

Futur de l'informatique - épisode 1: Histoire de l'informatique

Le web étant tout de même un outil informatique, il n'est pas inutile d'avoir un bref aperçu de l'histoire de l'informatique.

Pour rappel, l'informatique est donc la science du traitement automatique de l'information. Donc tout notre propos ici va être en rapport avec le traitement de l'information. Nous allons commencer notre histoire dans les années 1950-1960

Le temps des mastodontes

Dans les première heure de l'informatique, un ordinateur était principalement une machine à calculer. Par exemple, si l'on devait faire un calcul statistique, on préparait le calcul, on le convertissait en langage compréhensible pour une machine, puis on demandait à l'ordinateur de faire le calcul et enfin on récupérait le résultat pour l'analyser. Le tout prenait plusieurs jours. L'interactivité était quasi nulle.

Le terminal

Puis, les ordinateurs sont devenus plus courants, il y avait un ordinateur par université ou par grande entreprise. Pour optimiser le partage de l'ordinateur auquel on avait accès, on a inventé le terminal.
Le terminal est une bête console qui permet d'envoyer des commandes textuelles à l'ordinateur au travers d'un réseau informatique.

C'est le début des réseaux informatiques. On a donc commencé à inventer quelques services en réseau. Comme la messagerie. Il est ainsi devenu possible de laisser un message pour un autre utilisateur du même ordinateur. (1969)

Puis on a commencé à interconnecter les ordinateurs entre eux. C'est ainsi que la messagerie s'est développée, il est devenu possible de laisser un message à un utilisateur d'un autre ordinateur, c'est ainsi que l'on a utilisé le caractère @, maintenant très connu, pour délimiter le nom de l'utilisateur et le nom de l'ordinateur sur lequel trouver l'utilisateur: nomUtilisateur@serveur.com. Le e-mail était né !

La micro-informatique

Le coût de fabrication des ordinateurs étant de plus en plus faible, vers la fin des années 1970, on a vu apparaître des ordinateurs plus petits, destinés a une seule personne, des micro-ordinateurs.

Souvent on trouvait ces ordinateurs en kit à fabriquer par des passionnés. A l'époque, il fallait savoir bricoler et programmer pour utiliser un ordinateur. On disait qu'à l'avenir, tout le monde allait apprendre à programmer!

C'est à cette époque que se sont créés les géants de l'informatique comme Apple et Microsoft.


Apple a démocratisé l'ordinateur en créant un ordinateur complet et simple a utiliser. Fini les kits à bricoler pour les geek. Apple fourni un ordinateur complet avec des programmes tout fait et simple d'utilisation. Personne n'a besoin de savoir programmer pour utiliser un ordinateur.

Microsoft de son côté a aussi repris l'idée qu'un ordinateur peut être utilisé par tout le monde si on fourni déjà le logiciel qui va avec. C'est ainsi que Bill Gates a entourloupé les gens de chez IBM en leur fournissant un système d'exploitation pour la nouvelle machine d'IBM. Le Personnal Computer: PC. Les gens de l'époque, chez IBM, n'ont pas réalisé que le logiciel allait prendre plus d'importance que le matériel.

C'est ainsi que l'on ouvre l'ère de l'informatique chez monsieur et madame tout le monde. L'ordinateur permet de faire de nombreuses choses que l'on ne pensait pas auparavant. C'est à cette époque qu'une véritable révolution apparaît dans l'informatique.

Le métier de typographe a été le premier à subir la révolution numérique. L'arrivée du Mac capable de faire de la mise en page a tué la profession. Le traitement de texte informatisé s'est généralisé pour tous les textes, de la simple lettre au roman.

cinéma en 3d

Cinéma en 3D

Les technologies

Actuellement (début 2010), il y a 3 technologies qui s'affrontent.

  • reald: avec des images polarisées
  • dolby 3d: avec des couleurs de base rouge, vert et bleu différentes pour chaque oeil.
  • 3D Xpand: avec des lunettes actives qui masque pour chaque oeil l'image qui ne lui est pas destinée.

Le système 3D Xpand n'est pas très pratique pour des salles de cinéma. Avec 400 places, il faut 400 paires de lunettes ! Il faut les nettoyer. Il y aura facillement des pannes. Ce n'est pas la bonne technologie pour des cinémas. En revanche c'est probablement la plus simple pour la maison. On y reviendra.

Pour les cinéma, la technologies Dolby 3D semble être sympa, mais elle requiert des filtres assez complexes pour filtrer par interférence les longeurs d'onde des couleurs qui sont destinées à l'autre oeil. Le filtre est un mille-feuille de 50 couches et il atténue pas mal la lumière. Moi j'étais au premier rang, je n'ai pas remarqué, mais il semble que si l'on est loin de l'écran, la luminosité n'est pas terrible. Surtout que le projecteur numérique a déjà moins de luminosité qu'un projecteur pour film argentique.

Le système qui semble le plus populaire pour les cinémas, c'est le système de reald qui fonctionne avec une lumière polarisée. Chaque oeil recoit l'image qui lui est destinée par l'intermédiaire d'une paire de lunette avec des verres polarisés. Les lunettes sont moins complexes et donc moins chères.

La subtilité de la lumière polarisée, c'est que dès qu'elle est réfléchie, elle risque de changer de polarisation. Ce qui n'est pas du tout ce que l'on veut si l'on projette l'image sur un écran !

Donc l'écran doit être spécial pour utiliser un système reald. Il est fait avec de l'argent ou de l'aluminium pour réfléchir la lumière sans changer sa polarisation. (de toute façon avec un projecteur numérique qui émet moins de lumière il faut changer l'écran)

Tous les détails sur le site web:

http://tpe3d.e-monsite.com/accueil.html

 

A neuchâtel

A l'occasion du film avatar, deux salles à Neuchâtel et à la Chaux-de-fonds ont été équipée de projecteurs 3D.

Le 16 décembre 2009, la première projection 3D publique a eu lieu. Cependant j'avais déjà vu des films en 3D à Neuchâtel, notamment The revenge of the shogun women lors du NIFF. Mais ce film ne fonctionnait pas du tout sur le même principe. D'ailleurs il était nul ! C'est pour ça qu'il était présenté ! Le producteur à mis tout son budget sur la 3D et quasi rien sur l'histoire. Bref, la 3D c'était pas top. Avec Avatar, c'est une autre dimension qui s'ouvre.

J'ai vu Avatar le 21 décembre 2009. Le système utilisé était celui de Dolby 3D avec des couleurs. Le 29 décembre un ami est retourné au même endroit et il a eu droit à des lunettes polarisée pour le système reald ! Il semble que c'était le premier jour après le changement !

Pourquoi avoir changé de système 2 semaines après la sortie du premier ?? C'était un système de remplacement en attendant le système définitif ?

A la maison

Est ce que l'on peut aussi regarder des films en 3D à la maison ?

Enfin, depuis de nombreuses années, les cinémas on repris une longueur d'avance sur les home cinéma. Il était devenu tellement facile de se faire un cinéma de meilleure qualité à la maison avec un bon beamer. C'était le comble, avec une majorité de cinéma encore équipés de projecteurs argentiques, le cinéma numérique de la maison était meilleur.

Maintenant l'innovation est là. ça relance la course ! Bien !

Donc que peut on faire à la maison ?

Avec le matériel courant, pas grand chose !  Quelques vieux anaglyphes. (rouge et vert)

Sinon, il faut se rééquiper, mais avec quoi ? Il y a plusieurs possibilités:

  • Le projecteur 3D
  • Les lunettes à obturation. Nvidia propose des lunette de ce type avec une cartegraphique qui décode les films 3d
  • Un écran polarisé et des lunettes polarisées simples. (mais pas la même polarisation que pour le cinéma !  circulaire et non linéaire) Dans le genre, il existe l'écran Zalman Trimon.
  • L'écran autostéréoscopique (genre Alioscopy). Il n'y a pas besoin de lunette pour le regarder !

Tous les détails sur ce site:

http://tpe3d.e-monsite.com/rubrique,les-lunettes-a-obturateur,505574.html

Conclusions

Le cinéma en 3D est là. Pour éviter le piratage l'industrie du cinéma va tout sortir en 3D ces prochaines année. C'est finalement la 3D et pas la qualité d'image qui a poussé les cinémas à s'équiper de projecteurs numériques. Ce qui confirme ma théorie qui dit que les gens ne se bougent pas pour la qualité, mais pour la quantité.

Avec du numériques, les cinémas pourront se lancer dans d'autres événements que les projections de film. Il pourront profiter de faire des retransmissions numériques en direct comme des concerts ou du sport. Est ce que lors des multiples événements sportifs de 2010 on verra ce genre de chose ? (JO, coupe du monde de foot et coupe de l'américa)

La 3D à la maison ça va venir. Dans les premières année, il me semble que les lunettes à obturation pourront avoir facilement du succès, vu qu'il suffit d'un équipement qui synchronise l'obturation avec le film. Pas besoin de changer d'écran !

Peut être que de plus nombreux constructeurs vont se lancer dans les écrans 3D ?

Quand la technologies sera vraiment au point et pas chère. On verra des écrans autostéréoscopiques partout. C'est le plus agréable. Il n'y a pas besoin de lunette.

D'ici là il faudra se mettre d'accord sur les formats de film en 3D.

Sur ce site, on trouve déjà quelques infos sur les player et format de vidéos 3D:

http://www.berezin.com/3D/sp_features.htm

Quelques liens:

L’informatique orientée services…

A l'origine de l'informatique, un ordinateur n'était qu'une grosse machine à calculer capable de faire très vite des calculs simples.

A chaque utilisation de la machine, on écrivait le logiciel qui allait avec.

La philosophie était simple: Pour utiliser un ordinateur, il fallait savoir programmer !

Il y avait très peu d'ordinateur pour beaucoup de monde.

Puis, le système d'exploitation est arrivé. Un programme qui reste toujours sur la machine est chargé de gérer les entrées/sorties de donnée, les périphériques, la mémoire etc… En bref, c'est un programme qui permet à l'utilisateur de ne plus avoir à se préoccuper de la machine, il ne doit plus se préoccuper que de son propre programme.

Ensuite, on a perfectionné le système d'exploitation pour lui permettre de faire croire à l'utilisateur que plusieurs programmes peuvent être utilisés en même temps.

Par manque d'ordinateurs, on a aussi permis au système d'exploitation de gérer plusieurs utilisateurs.

Nous avons donc plusieurs utilisateurs qui utilisent plusieurs programmes sur une seule machine.

Ensuite, la micro-informatique est née.

Le prix des ordinateurs a chuté, un ordinateur est devenu une machine abordable pour un particulier.

Le système d'exploitation capable de gérer plusieurs utilisateurs est tombé dans la désuétude. l'ère de l'ordinateur personnel est arrivée, l'ère du PC (Personal Computer).

Les systèmes d'exploitation habituels ont été abandonnés au profit d'autres.

Un certain Bill Gates à très bien compris la chose et a réussi à imposer "son" système comme système de référence.

Il avait compris que le logiciel allait prendre le dessus sur le matériel. Fait auquel les gens de chez IBM ne croyaient pas.

Dans les années suivantes, les systèmes d'exploitation destinés à des ordinateurs personnels, n'ont fait que de grandir et d'intégrer de plus en plus de fonctions.

Maintenant, pour être un utilisateur, il n'est de loin plus nécessaire de savoir programmer.

Puis, est arrivé le World Wide Web. Premier service internet à dépasser le cercle des initiés aux réseaux informatiques.

De l'information en provenance du monde entier est disponible dans le foyer de chacun via un navigateur Web.

Les systèmes d'exploitations ré-intégrent les fonctionnalités réseaux qui avaient été abandonnées avec l'arrivée du PC.

Les applications en réseau deviennent de plus en plus nombreuse, les gens se "connectent".

Une refonte des systèmes d'exploitation de PC est observée.

De fonctionnalité annexe en option, les piles de protocoles réseau deviennent des fonctions de base intégrées dans les noyaux.

Le concept de multi-utilisateurs revient. Cependant, il n'est plus utilisé pour partager une même machine. Il est plutôt utilisé pour partager des données réparties sur plusieurs machines.

Le web est devenu plus qu'une source d'information statique. Le web, (ou plutôt le couple HTML navigateur web) est devenu le premier système d'interface graphique universel.

Le commerce électronique est lancé, toutes les entreprises utilisent des portails web pour partager les données et faire leur gestion d'entreprise.

En plus de sa mission de mise à disposition d'informations, le web est bricolé pour fournir des services.

Parallèlement à toute cette évolution de l'informatique, la téléphonie à aussi évoluée. On est passé de l'ère du téléphone fixe à l'ère du téléphone mobile.

Téléphoner, ce qui ne se faisait que depuis un endroit précis est fait depuis partout. Les gens sont mobiles. Il communiquent plus. Ils sont en réseau.

La téléphonique est en voie d'être fusionnée avec le monde des réseaux informatique. Les mêmes services sont proposés via une plateforme ou l'autre.

La parole n'est plus le seul service proposé par les opérateurs de téléphonie. le transfert de données prend de l'ampleur. Le téléphone se rapproche de l'ordinateur.

Au début de l'informatique nous avons donc une seule machine partagée pour beaucoup de monde.

Ensuite, nous avons le boum de l'informatique avec le PC. Nous avons une machine par personne.

Puis le nombre de machine augmente encore, chaque appareil ménager a son microprocesseur. Les fonctionnalités réseau se développent de plus en plus.

Et nous passons du présent à une projection dans l'avenir…

Dans l'avenir, il se pourrait que le nombre de machine dépassent le nombre d'utilisateurs. Mais que paradoxalement, le nombre d'utilisateurs par machine augmente aussi énormément !

L'avenir est à l'informatique des services. Chaque machine propose un service à une énorme communauté d'utilisateurs.

Chaque utilisateur compose son application comme il l'entend avec des services qui lui sont disponibles via un réseau informatique.

Actuellement, les applications sont figées, elle fonctionnent sur une seule machine. Eventuellement, elles utilisent une connexion réseau pour aller chercher des informations ailleurs. Tout au plus, une application est capable de se mettre à jour via un réseau.

A l'avenir, une application sera dynamique. Une application sera un assemblage de diverses fonctions. Une application pourra mettre ensemble et faire des corrélations entre des fonctions qui n'aurons pas du tout été prévues pour être reliées. Les possibilités de créer d'autres macro-fonctions sont colossales.

Un service peut non seulement être une "brique" informatique et faire du traitement d'information comme c'est le propre de l'informatique. Mais un service, peut également être un objet; Un objet tel qu'une télévision, un frigo, une lampe, un chauffage, une radio, un store, un aspirateur, une caméra, etc …

Un service/objet est donc également une entité physique qui a un état et qui est capable de réaliser des actions.

Dans le modèle classique de l'informatique, un ordinateur ne communique qu'avec très peu d'objets physiques. Ce sont en général ce que l'on appel des périphériques et qui sont l'écran (quoi que presque assimilé à l'ordinateur), l'imprimante, le scanner, l'appareil photo, etc … Et j'ai fait le tour des plus courants. Dans la philosophie chère à Apple fabriquant de matériel et logiciel, un Mac est selon leur slogan "un hub numérique…".

Cela signifie que pour les gens de chez Apple, un ordinateur est la pièce maîtresse du puzzle. Que c'est la seule pièces capable de faire communiquer toutes les autres ensemble. l'appareil photo ne peu communiquer avec l'imprimante, que si un ordinateur est présent !

Dans le modèle de l'informatique des services, il n'y a pas de service "maître". Nous avons affaire à une véritable démocratie de l'informatique.

Il y a une foule de services en tout genre qui communique directement entre eux.

Ce modèle permet de créer des programmes/services qui sont très simples, fiables et que l'on peu tester de manière efficace. Au contraire d'un programme qui est sensé savoir tout faire et qui est de par ce fait très complexe, difficile à tester et donc peu fiable !

Le modèle de l'informatique des services permet un niveau d'abstraction supplémentaire du modèle objet.

Avec un système d'exploitation, on à fait abstraction du matériel. Avec un réseau informatique on fait abstraction de la localisation d'une ressource.

Avec un modèle de service, on fait abstraction du système d'exploitation et du réseau. Donc la seule préoccupation de l'utilisateur est de mettre ensemble les bons services pour arriver à ses fins.

Le défi actuel des programmeurs est donc de concevoir l'architecture informatique capable de rechercher et d'utiliser des services.

On appel ce genre d'architecture des SDUS, des Services de Découverte et d'Utilisation de Service.

Actuellement il en existe quelques protocoles et architectures qui vont dans ce sens. Il y a entre autre UPNP qui fait partie de Windows XP et qui est donc en position de force. Mais l'architecture qui va le plus dans le sens de l'informatique des services est JINI basée sur le langage Java.

Cette architecture repose entre autres services, sur un service d'un type particulier, c'est le service de recherche. c'est la porte d'entrée d'une fédération de services. c'est l'équivalent du moteur de recherche web qui nous permet de trouver la page web qui nous intéresse. Sans moteur de recherche, le web ne serait pas autant attractif pour faire des recherches d'information.

Le service de recherche jini est donc le moteur de recherche de services. Ce service peut être localisé à une adresse internet connue, ou être recherché par le client via une requête multicast.

Il est donc possible de penser pouvoir utiliser des services de manière contextuelle lorsqu'ils sont dans un environnement proche. Ou alors, il est possible d'utiliser des services très lointains, mais dont on connait l'adresse du service de recherche dans lequel ils sont enregistrés.

Par exemple, les services permettant de télécommander votre TV, ou d'allumer la lampe du salon, sont des services utiles principalement lorsque l'utilisateur est dans l'environnement proche de l'objet physique. Ce sont des services contextuels.

En revanche, donner à manger aux poissons lorsque l'on est en vacances, ou allumer le chauffage à distance dans son chalet de montagne sont des services distants enregistrés dans un service de recherche qui n'est probablement pas physiquement le service le plus proche de l'utilisateur.

L'utilisateur, indiquera donc probablement l'adresse du service de recherche de sa maison ou de sons chalet.

Mais ne fera pas le recherche du service de recherche le plus proche.

La recherche et la normalisation du service étant prise en compte par l'architecture, il reste au programmeur de concevoir une méthode, ou une sorte de navigateur de service (à l'instar su navigateur web) pour utiliser des services et éventuellement les assembler pour en faire des macro-services.

En bref, il faut concevoir une sorte de "système d'exploitation" de services pour faire croire à l'utilisateur que son application n'est qu'un seul bloc, alors que c'est une multitude de blocs disséminés dans les endroits les plus divers de quatre coins de la terre.

Navigation au sein des articles

1 2 3 9 10 11 12 13
Remonter