Futur de l’informatique épisode 7 – Organisation des données

Organisation des données

Un ordinateur n’est qu’un outil de gestion d’information. L’information est quelque chose de peu palpable, de flou, de mouvant, de polymorphe. Pour la traiter de manière unique et identique sous toutes ses formes on a tenté de la formatter, de l’organiser. On a créer le fichier.

Ce paquet d’information n’est tout d’abord représenté que par un nom dans les interface-homme machine à ligne de commande. Puis au nom, on a ajouté une petite image (une icône) que l’on peut glisser et déposer sur un bureau d’une interface homme-machine graphique.

Devant la croissance du nombre de fichier on a tenté de les organiser. Des barbus dans les années 1960 ont imaginé un système de fichier à arborescence.

Il est devenu possible de créer des fichiers avec le même nom tant qu’ils ne sont pas dans le même niveau de l’arbre de fichier. Avec une arborescence de fichiers et de dossiers on a inventé le chemin d’accès. Ce même chemin d’accès qui avec l’arrivée du web est devenu un complément de l’URL, de l’adresse unique permettant de désigner une ressource.

Exemple d’un arbre, ayant 1 comme racine, {2,4,5,7} comme nœuds internes et {3,6,8,9,10,11,12} comme feuilles.

Tous les systèmes d’exploitation courants utilisent des systèmes de fichiers arborescents pour classer des fichiers. C’est le moyen le plus courant que l’on trouve pour organiser et classer des données. Mais est ce le meilleur ?

Non, ce n’est pas le meilleur. Une arborescence a des limites. Un fichier ne peut pas être à plusieurs endroits de l’arbre en même temps. Par exemple, si je veux faire un dossier de photos contenant toutes les photos du petit dernier de la famille, et en même temps un dossier des photos du dernier Noël en famille. Que faire des photos du petit dernier de la famille lors de la fête de Noël ?

Je trie selon un critère ou selon l’autre ? Je duplique le fichier ?

Cette question est souvent résolue par les informaticiens en proposant une nouvelle application qui est un gestionnaire de photos. (iPhoto, picasa, etc..) Ce gestionnaire est capable de créer des albums à partir de sa photothèque de base. On crée des vues différentes des mêmes données.

C’est un emplâtre sur une solution boiteuse. On préfère fournir une nouvelle application avec de nouvelles règles d’utilisation plutôt que de remettre en cause les habitudes.

Pourtant la solution existe, elle est simple et efficace, c’est la généralisation du principe de l’arbre, en informatique on dit que c’est un graphe et sur le web on présente des tags et concrètement ce sont des groupes. Vous avez déjà certainement vu des nuages de tags!

6n-graph2.svg

Futur de l’informatique épisode 6 – Remise en cause de la métaphore interface homme machine du bureau

Remise en cause de la métaphore interface homme-machine traditionnelle

Cela fait une vingtaine d’années que l’on utilise les mêmes métaphores pour faire l’interface entre l’homme et la machine, mais existe-il d’autres pistes ?

Interface homme-machine

Ce que l’on entend par interface homme-machine c’est le moyen que l’on utilise pour que l’humain puisse communiquer avec un outil comme un ordinateur.

L’humain est un des rares animaux à utiliser des outils. Jusqu’à l’arrivée des humains, l’évolution a plutôt adapté les espèces pour qu’elles soient dotées des fonctions dont elles ont besoin. Avec l’humain, c’est une rupture dans ce modèle: l’humain utilise des outils et il fait évoluer ses outils plutôt que lui même. Ce qui est beaucoup plus rapide.

Utiliser un marteau ou un couteau est une révolution en terme de l’évolution, mais c’est facile pour une humain actuel. Utiliser un fer à repasser est déjà plus, complexe, il faut une planche, il faut de l’eau, de l’électricité et il y a un savoir faire pour ne pas endommager les habits. Utiliser un ordinateur, c’est complexe, il y a une infinité de possibilités. Un humain seul ne peut pas connaître le fonctionnement exact et complet d’un ordinateur. On va donc créer une couche d’abstraction qui permet à cet humain de se servir de l’outil ordinateur.

Beaucoup de moyens ont existés pour communiquer avec des ordinateurs. A une époque le standard était la carte perforée en entrée et l’imprimante en sortie. Puis on a eu le terminal avec des lignes de commande, et ensuite l’interface graphique.

L’arrivée de l’interface graphique a été une révolution. Elle a permis de démocratiser l’utilisation d’un ordinateur en proposant une métaphore simple pour utiliser un outil complexe.

L’environnement KDE 4 avec le nouveau navigateur Dolphin et de nombreux nouveaux widgets

Pour ce faire, on a adapté l’ordinateur aux habitudes des gens et non le contraire. Ainsi on limite la formation des gens pour utiliser l’outil.

C’est alors que l’on a choisi la métaphore du bureau. Votre ordinateur est comme votre bureau. Votre disque dur est comme un tiroir dans lequel on range des dossiers. Dans les dossiers on place des fichiers.

Pour utiliser un fichier, on l’ouvre avec une application. Tout ces concepts sont représentés graphiquement à l’aide de fenêtres (munie d’ascenseur) et d’icônes.

Au fil des années, tout un vocabulaire été détourné pour devenir un terme informatique. Avez vous déjà vu un ascenseur horizontal sur une fenêtre ailleurs que sur un ordinateur ?

La métaphore utilisée à la base pour simplifier la manipulation de données en donnant des noms connus à des concepts informatiques est en train de se compliquer. On va plus loin que la métaphore avec les termes informatiques et finalement le terme ne veut plus rien dire dans le monde réel.

Mais les utilisateurs d’ordinateur se sont habitués, ils ne s’étonnent pas que depuis que les souris communiquent avec des dents bleues ont doivent leur changer les piles. (souris sans fil bluetooth)

Les utilisateurs d’ordinateur ne doivent pas voir beaucoup dehors à force de toujours coller plein de fichiers sur leurs fenêtres!

La métaphore a ses limites. A l’origine elle était une aide en faisant un lien avec le monde réel plus connu des utilisateurs. Mais actuellement c’est l’inverse, les jeunes apprennent qu’une icône est une peinture religieuse après avoir associé ce nom avec les pictogrammes qui sont partout sur leurs écrans.

Actuellement, pour les jeunes, fichier et dossier sont essentiellement des termes d’informatique avant d’être des bouts de papier ou de carton. Signe du temps, les beaux bureaux en bois comportent de moins en moins de tiroirs, il se limitent même bien souvent à une simple planche sur laquelle on va poser son ordinateur !

Le monde réel s’est adapté, la métaphore du bureau a transformé les habitudes de travail au point de se rendre elle même incohérente.

Si dans le monde réel on n’utilise plus de fichier et de dossier, pourquoi est ce qu’on le fait toujours sur nos ordinateurs ?

 

Futur de l’informatique épisode 5 – Convergence web et informatique

Convergence web et informatique

La reprise de l’innovation dans le monde du web à conduit à dépasser le modèle originel du web: le web des documents, pour l’étendre au web des applications, ce que l’on appelle souvent le web 2.0.

Ainsi, avec le web 2.0, le web devient donc une nouvelle plateforme applicative. Les applications de bureau traditionnelles sont de plus en plus migrées vers le web.

Le navigateur web prend de plus en plus d’importance, il devient l’unique application nécessaire sur le système d’exploitation d’un ordinateur.

Le web est donc en train de conquérir le domaine des applications de bureau. (Est ce pour protéger windows et son écosystème que microsoft à tout fait pour torpiller le web?)

Les applications web sont donc en train de remettre en cause tout un modèle d’habitudes de fonctionnement de l’informatique.


Google pousse l’idée encore plus loin avec Chrome OS: un système d’exploitation complet qui est basé sur des application web. Est ce que l’idée va prendre ?

Chrome OS screenshot sdres 0001 App-Menu.png

Une application sur Chrome OS n’est qu’un site web encapsulé dans un navigateur web qui n’affiche qu’une seule page.

Le concept n’est pas nouveau. C’est aussi ce que propose la fondation Mozilla avec Prisme qui n’est qu’une version allégée de firefox pour encapsuler un site web dans quelque chose qui ressemble aux applications natives actuelles.

De son côté, Apple propose ce concept dans les widgets dashboard. Des mini applications pour Mac OS X.

Avec l’arrivée de la nouvelle norme du format web, HTML5. Il existe des mécanismes de stockage et de synchronisation qui directement dans les navigateurs web leur permettent de faire fonctionner une application web, même si aucune connexion réseau n’est disponible.

Ainsi on voit clairement que l’avenir sera encore plus aux applications web.

Il reste juste une inconnue: l’énorme succès des applications natives pour iPhone. (et bientôt pour iPad) Bien souvent il aurait été possible de faire une application web à la place, mais qu’est ce qui pousse les gens à développer plutôt une application native ?

Parfois c’est uniquement pour avoir le droit d’accéder à l’accéléromètre de l’iPhone. Ce que ne font pas les applications web. Ou plutôt ne faisaient pas. Car depuis le 21 janvier 2010. Firefox 3.6 est sorti avec le support de l’accès à l’accéléromètre !  ….. mais pas pour iPhone… vu que la license de ces bestioles n’autorise pas les applications pouvant interpréter du code, et donc un navigateur web interprétant du javascript…. donc pas de firefox sur iPhone ! Dommage !

Futur de l’informatique épisode 4 – Le web, croissance, amélioration et stagnation

Le web, croissance, amélioration et stagnation

WorldWideWeb, le premier navigateur

Le web conçu pour des besoins assez précis d’affichage d’article de physique est maintenant utilisé à toutes les sauces. Au fil des années on a amélioré le format HTML pour lui faire comprendre, les tableaux, les images, etc.. De plus on a séparé ce qui est purement de l’information du type des données (paragraphe, titre, etc…), de ce qui est de l’information purement affichage des données (bordure noire, texte bleu, etc..).

Ainsi, actuellement, on utilise le format xhtml pour indiquer la structure des données, (x indique que l’html est maintenant de la famille des formats XML. Ce qui le rend plus strict et cohérent.) et le format css pour décrire l’affichage de ces données.

Avec toutes ces améliorations dans les formats, il faut des programmes toujours plus complexes pour interpréter ces formats toujours plus complexes. Ce programme est un navigateur web.

Le navigateur web est un élément indispensable de toute l’architecture web. Le navigateur a été l’objet, vers la fin des années 1990 de ce que l’on a appelé la guerre des navigateurs.

Microsoft très en retard sur la nouvelle vague du surf sur le web a tenté de rattraper son retard en imposant son navigateur en utilisant de sa position de monopole.

Bilan: en 2001, c’est gagné pour Microsoft, Internet explorer a tué son principal rival Netscape; Internet Explorer a le monopole et microsoft dissout l’équipe de développement dInternet Explorer !

Le phoenix renaît de ses cendres

Dès le moment où Internet Explorer devient le seul navigateur du marché et qu’en plus le développement de celui-ci est abandonné. Le web n’évolue plus. De nombreuses fonctionnalités décrites dans les spécifications des versions de xhtml et css ne sont jamais mises en places.

Heureusement pour le web, au moment de mourir, terrassé par l’adversaire, Netscape ouvre et distribue le code source de son navigateur web. En quelques années, tout se réorganise en un projet open source géré par la Fondation Mozilla auquel contribuent tous les gens intéressés.

Un jour arrive le bien nommé Phoenix, enfin un navigateur qui tente de reprendre l’innovation du web là où on l’avait laissée. Après quelques temps, Phoenix change de nom et devient Firebird, et puis ensuite Firefox, nom qui est actuellement beaucoup plus connu.

En quelques années, la fondation Mozilla a réussi à recréer un navigateur capable de rivaliser avec celui en place, et même de le dépasser largement. Mais pas seulement, la fondation a aussi relancé l’innovation dans le web en incitant d’autres grands acteurs  (Apple et Google) à créer leur navigateurs web respectueux des standards. La diversité est là tout en assurant un fonctionnement correct et identique sur tous les navigateurs web.

C’est ainsi que le web est à nouveau en plein développement. L’initiative de Mozilla a eu pour effet que microsoft à reformé son équipe de développement d’internet explorer pour ne pas rester à la traîne.

Futur de l’informatique épisode 3 – Histoire du web

Histoire du web

Le web n’est pas internet !

Le web et internet sont souvent la même chose pour bon nombre de personnes. Pourtant ce n’est pas pareil. Le web est un service utilisant internet. (pire, il y a les gens qui pensent qu’internet est un e bleu !!)

Quand on pense web, on pense site web. Un site web est à l’internet ce qu’une maison est à une route. L’internet est la route qui permet d’accéder à la maison et de la visiter. Ce n’est pas pour rien que l’on surnome l’Internet l’autoroute de l’information.

L’internet existait déjà des années avant le web. (internet: 1969, le web: 1989) Le web a été LE service tellement apprécié qu’il en a popularisé l’internet.

Genèse du web chez les physiciens

Le NeXT Cube utilisé par Tim Berners-Lee au CERN pour inventer le World Wide Web.

Le web est un service qui a été développé au tout début des années 1990, au CERN, pour les besoins des physiciens qui voulaient échanger facilement des documents. (Des articles de physique)

Tim Berners Lee, en charge du projet world wide web a donc conçu une architecture répondant à la demande des physiciens.

Le web est tout d’abord un format de document, le HTML, mais aussi un protocole d’échange le HTTP qui est dérivé de SMTP, le protocole que l’on utilise pour envoyer des e-mail.

Là, rien de très révolutionnaire, des formats de document il en existe des centaines et des protocoles d’échange aussi.

La grande invention du web est certainement la manière d’obtenir une ressource. C’est l’URL: chaque ressources est accessible par une adresse unique. Il est ainsi possible de créer des liens et de naviguer de page en page.

La combinaison de l’hypertexte avec des adresses web est l’invention majeure du web.

Ce qui a changé la donne dans la diffusion des technologies web, c’est leur ouverture. Le fait que n’importe qui puisse utiliser les formats et protocoles. Ceci combiné à une simplicité de mise en place. Le succès est vite arrivé.

Faisons un peu d’archéologie. Voici l’adresse (URL) de la plus ancienne page web (mais plus accessible):

  • http://nxoc01.cern.ch/hypertext/WWW/TheProject.html

Et voici l’adresse de la plus ancienne page web encore accessible:

Cette page date du 3 novembre 1992 elle est quasi similaire à la première page web. Elle décrit ce qu’est le projet Word Wide Web.

Pour quelques information supplémentaire sur l’origine du web, la suite continue sur le plus vieux site web du monde, le site du CERN…

http://info.cern.ch/default-fr.html

Futur de l’informatique épisode 2 – Le retour du réseau

Le retour du réseau

Visualisation des multiples chemins à travers une portion d’Internet.

Dans les années 1970, le réseau informatique était indispensable pour que les utilisateurs puissent se partager le même ordinateur. Dans les années 1980 l’ordinateur devient personnel. Plus besoin de réseau puisque chacun peut avoir son ordinateur.
Dans les années 1990, le réseau fait son retour sur les ordinateurs personnels, afin de pouvoir échanger les créations numériques plus facilement.

Les systèmes d’exploitation datant des années 1980 sont gentiment refait à la fin des années 1990 pour reprendre les concepts multi-utilisateurs et réseau qui existaient dans les années 1970.

Dans les années 2000, c’est la généralisation de l’utilisation d’internet et surtout du web. Les sites web fleurissent un peu partout et les gens s’envoient des e-mails pour tout et n’importe quoi. Le spam est devenu un gros problème.

Les applications web

Au début de l’informatique, on programmait l’ordinateur pour faire l’opération dont on avait besoin, dans les années 1970, on partageait les programmes d’un même ordinateur pour faire principalement du calcul. Dans les années 1980, on nous fournit un ordinateur personnel avec un système d’exploitation graphique intuitif. On installe facilement des applications qui permettent de créer des documents.

Dans les années 1990, on échange de plus en plus des documents numériques pour en composer des nouveaux. Dans les années 2000 on commence à transformer le web. D’un web capable uniquement d’afficher des documents, on le transforme en web capable d’être une application, de traiter et stocker lui même les données. C’est la révolution web2.0.

Le blog

Il y a énormément de définition du web 2.0. Certains parlent même de design web 2.0. Mais la véritable évolution que l’on cache sous le terme de web 2.0. C’est bel et bien une évolution du web des documents vers un web des applications.

Ainsi on démocratise le web de la même manière que l’on a démocratisé les ordinateurs au début des années 1980. On fournit des applications web toutes faites, clé en main, qui permettent aux non spécialiste d’utiliser l’outils web.

Le blog est certainement l’exemple le plus parlant de l’application qui a transformé le web.

Hormis le côté simple du blog qui permet de démocratiser la publication sur le web. La notion de commentaire a poussé plus loin que jamais la notion d’interactivité autour d’un texte.

Futur de l’informatique épisode 1 – Histoire de l’informatique

Une nouvelle décennie

Voilà, ça c’est fait. Voici déjà 10 ans que nous avons fêté en grande pompe le passage à l’an 2000 !

L’an 2000 était le symbole du futur pour tous les gens du 20ème siècle. En l’an 2000, il y aura des voitures volantes !

Imprimerie du XVe siècle

De nombreuses prédictions futuristes ont été faites, certaines ce sont réalisées et d’autres pas. Une des révolutions de la dernière décenie (et un peu plus) qui n’avait pas tellement été cernées, est cette massive accélération de l’utilisation des technologies de l’information. Le téléphone mobile, l’utilisation quotidienne du web. Ce sont des changements majeurs de l’évolution de notre société et d’après moi, ça ne fait que commencer.

Cette décenie, nous avons assisté à une révolution technologique et maintenant nous allons assister à une révolution de l’organisation de notre société qui est induite par cette révolution technologique.

Nous sommes encore en phase de transition. Ceux que l’on appelle les Digitals natives, ceux qui sont nés à l’ère du web et qui n’ont jamais vécu une époque non connectée, arrivent gentiment à l’age de prendre leur autonomie et de participer activement à l’évolution de notre société.

La dernière révolution dans le domaine des technologies de l’information c’était il y a 500 ans. C’était l’invention de l’imprimerie. La diffusion massive de bible a entrainé la réforme. La fin de la ma mise toute puissante de l’église catholique.

Que va changer l’utilisation massive du web ?

Il y  a un intéressant travail de pronostique à faire à ce niveau là. Comme c’est assez difficile, tout d’abord nous allons refaire l’histoire du web, de son évolution et tenter de dégager dans quelle direction il va évoluer.

Pour éviter de balancer d’un coup un texte énorme avec de nombreuses chose à comprendre. Je vais échelonner toute ma réflexions en une dizaine d’épisodes dont voici le premier.

Futur de l’informatique – épisode 1: Histoire de l’informatique

Le web étant tout de même un outil informatique, il n’est pas inutile d’avoir un bref aperçu de l’histoire de l’informatique.

Pour rappel, l’informatique est donc la science du traitement automatique de l’information. Donc tout notre propos ici va être en rapport avec le traitement de l’information. Nous allons commencer notre histoire dans les années 1950-1960

Le temps des mastodontes

Dans les première heure de l’informatique, un ordinateur était principalement une machine à calculer. Par exemple, si l’on devait faire un calcul statistique, on préparait le calcul, on le convertissait en langage compréhensible pour une machine, puis on demandait à l’ordinateur de faire le calcul et enfin on récupérait le résultat pour l’analyser. Le tout prenait plusieurs jours. L’interactivité était quasi nulle.

Le terminal

Puis, les ordinateurs sont devenus plus courants, il y avait un ordinateur par université ou par grande entreprise. Pour optimiser le partage de l’ordinateur auquel on avait accès, on a inventé le terminal.
Le terminal est une bête console qui permet d’envoyer des commandes textuelles à l’ordinateur au travers d’un réseau informatique.

C’est le début des réseaux informatiques. On a donc commencé à inventer quelques services en réseau. Comme la messagerie. Il est ainsi devenu possible de laisser un message pour un autre utilisateur du même ordinateur. (1969)

Puis on a commencé à interconnecter les ordinateurs entre eux. C’est ainsi que la messagerie s’est développée, il est devenu possible de laisser un message à un utilisateur d’un autre ordinateur, c’est ainsi que l’on a utilisé le caractère @, maintenant très connu, pour délimiter le nom de l’utilisateur et le nom de l’ordinateur sur lequel trouver l’utilisateur: . Le e-mail était né !

La micro-informatique

Le coût de fabrication des ordinateurs étant de plus en plus faible, vers la fin des années 1970, on a vu apparaître des ordinateurs plus petits, destinés a une seule personne, des micro-ordinateurs.

Souvent on trouvait ces ordinateurs en kit à fabriquer par des passionnés. A l’époque, il fallait savoir bricoler et programmer pour utiliser un ordinateur. On disait qu’à l’avenir, tout le monde allait apprendre à programmer!

C’est à cette époque que se sont créés les géants de l’informatique comme Apple et Microsoft.


Apple a démocratisé l’ordinateur en créant un ordinateur complet et simple a utiliser. Fini les kits à bricoler pour les geek. Apple fourni un ordinateur complet avec des programmes tout fait et simple d’utilisation. Personne n’a besoin de savoir programmer pour utiliser un ordinateur.

Microsoft de son côté a aussi repris l’idée qu’un ordinateur peut être utilisé par tout le monde si on fourni déjà le logiciel qui va avec. C’est ainsi que Bill Gates a entourloupé les gens de chez IBM en leur fournissant un système d’exploitation pour la nouvelle machine d’IBM. Le Personnal Computer: PC. Les gens de l’époque, chez IBM, n’ont pas réalisé que le logiciel allait prendre plus d’importance que le matériel.

C’est ainsi que l’on ouvre l’ère de l’informatique chez monsieur et madame tout le monde. L’ordinateur permet de faire de nombreuses choses que l’on ne pensait pas auparavant. C’est à cette époque qu’une véritable révolution apparaît dans l’informatique.

Le métier de typographe a été le premier à subir la révolution numérique. L’arrivée du Mac capable de faire de la mise en page a tué la profession. Le traitement de texte informatisé s’est généralisé pour tous les textes, de la simple lettre au roman.

cinéma en 3d

Cinéma en 3D

Les technologies

Actuellement (début 2010), il y a 3 technologies qui s’affrontent.

  • reald: avec des images polarisées
  • dolby 3d: avec des couleurs de base rouge, vert et bleu différentes pour chaque oeil.
  • 3D Xpand: avec des lunettes actives qui masque pour chaque oeil l’image qui ne lui est pas destinée.

Le système 3D Xpand n’est pas très pratique pour des salles de cinéma. Avec 400 places, il faut 400 paires de lunettes ! Il faut les nettoyer. Il y aura facillement des pannes. Ce n’est pas la bonne technologie pour des cinémas. En revanche c’est probablement la plus simple pour la maison. On y reviendra.

Pour les cinéma, la technologies Dolby 3D semble être sympa, mais elle requiert des filtres assez complexes pour filtrer par interférence les longeurs d’onde des couleurs qui sont destinées à l’autre oeil. Le filtre est un mille-feuille de 50 couches et il atténue pas mal la lumière. Moi j’étais au premier rang, je n’ai pas remarqué, mais il semble que si l’on est loin de l’écran, la luminosité n’est pas terrible. Surtout que le projecteur numérique a déjà moins de luminosité qu’un projecteur pour film argentique.

Le système qui semble le plus populaire pour les cinémas, c’est le système de reald qui fonctionne avec une lumière polarisée. Chaque oeil recoit l’image qui lui est destinée par l’intermédiaire d’une paire de lunette avec des verres polarisés. Les lunettes sont moins complexes et donc moins chères.

La subtilité de la lumière polarisée, c’est que dès qu’elle est réfléchie, elle risque de changer de polarisation. Ce qui n’est pas du tout ce que l’on veut si l’on projette l’image sur un écran !

Donc l’écran doit être spécial pour utiliser un système reald. Il est fait avec de l’argent ou de l’aluminium pour réfléchir la lumière sans changer sa polarisation. (de toute façon avec un projecteur numérique qui émet moins de lumière il faut changer l’écran)

Tous les détails sur le site web:

http://tpe3d.e-monsite.com/accueil.html

 

A neuchâtel

A l’occasion du film avatar, deux salles à Neuchâtel et à la Chaux-de-fonds ont été équipée de projecteurs 3D.

Le 16 décembre 2009, la première projection 3D publique a eu lieu. Cependant j’avais déjà vu des films en 3D à Neuchâtel, notamment The revenge of the shogun women lors du NIFF. Mais ce film ne fonctionnait pas du tout sur le même principe. D’ailleurs il était nul ! C’est pour ça qu’il était présenté ! Le producteur à mis tout son budget sur la 3D et quasi rien sur l’histoire. Bref, la 3D c’était pas top. Avec Avatar, c’est une autre dimension qui s’ouvre.

J’ai vu Avatar le 21 décembre 2009. Le système utilisé était celui de Dolby 3D avec des couleurs. Le 29 décembre un ami est retourné au même endroit et il a eu droit à des lunettes polarisée pour le système reald ! Il semble que c’était le premier jour après le changement !

Pourquoi avoir changé de système 2 semaines après la sortie du premier ?? C’était un système de remplacement en attendant le système définitif ?

A la maison

Est ce que l’on peut aussi regarder des films en 3D à la maison ?

Enfin, depuis de nombreuses années, les cinémas on repris une longueur d’avance sur les home cinéma. Il était devenu tellement facile de se faire un cinéma de meilleure qualité à la maison avec un bon beamer. C’était le comble, avec une majorité de cinéma encore équipés de projecteurs argentiques, le cinéma numérique de la maison était meilleur.

Maintenant l’innovation est là. ça relance la course ! Bien !

Donc que peut on faire à la maison ?

Avec le matériel courant, pas grand chose !  Quelques vieux anaglyphes. (rouge et vert)

Sinon, il faut se rééquiper, mais avec quoi ? Il y a plusieurs possibilités:

  • Le projecteur 3D
  • Les lunettes à obturation. Nvidia propose des lunette de ce type avec une cartegraphique qui décode les films 3d
  • Un écran polarisé et des lunettes polarisées simples. (mais pas la même polarisation que pour le cinéma !  circulaire et non linéaire) Dans le genre, il existe l’écran Zalman Trimon.
  • L’écran autostéréoscopique (genre Alioscopy). Il n’y a pas besoin de lunette pour le regarder !

Tous les détails sur ce site:

http://tpe3d.e-monsite.com/rubrique,les-lunettes-a-obturateur,505574.html

Conclusions

Le cinéma en 3D est là. Pour éviter le piratage l’industrie du cinéma va tout sortir en 3D ces prochaines année. C’est finalement la 3D et pas la qualité d’image qui a poussé les cinémas à s’équiper de projecteurs numériques. Ce qui confirme ma théorie qui dit que les gens ne se bougent pas pour la qualité, mais pour la quantité.

Avec du numériques, les cinémas pourront se lancer dans d’autres événements que les projections de film. Il pourront profiter de faire des retransmissions numériques en direct comme des concerts ou du sport. Est ce que lors des multiples événements sportifs de 2010 on verra ce genre de chose ? (JO, coupe du monde de foot et coupe de l’américa)

La 3D à la maison ça va venir. Dans les premières année, il me semble que les lunettes à obturation pourront avoir facilement du succès, vu qu’il suffit d’un équipement qui synchronise l’obturation avec le film. Pas besoin de changer d’écran !

Peut être que de plus nombreux constructeurs vont se lancer dans les écrans 3D ?

Quand la technologies sera vraiment au point et pas chère. On verra des écrans autostéréoscopiques partout. C’est le plus agréable. Il n’y a pas besoin de lunette.

D’ici là il faudra se mettre d’accord sur les formats de film en 3D.

Sur ce site, on trouve déjà quelques infos sur les player et format de vidéos 3D:

http://www.berezin.com/3D/sp_features.htm

Quelques liens:

Vote électronique

Réflexions à propos du vote électronique

edit: mars 2019, j’ai écrit tout un article à propos de l’état du vote électronique en Suisse, les failles découvertes, les piratages et le grave problème de la centralisation des urnes…

Texte proposé pour le courrier des lecteurs de l’express

Il y a une règle de base pour la conception de tout système de cryptographie qui dit que la sécurité ne doit reposer que sur le secret de la clé et en aucun cas sur le secret du système. Cela signifie que tout le monde doit pouvoir vérifier que le système utilisé ne comporte pas un dysfonctionnement ou qu’il n’est pas infiltré. Le système de vote ne doit pas être une boite noire. Dans le jargon informatique, on parle de logiciel Open Source: le code source est publié.
Si cette condition est remplie il n’y a aucune raison que le système puisse être piraté et on peut lui faire confiance.
Un autre problème du vote électronique se situe dans le fait qu’il est centralisé. Si il y a un problème, c’est tout les résultats qui sont remis en cause. Le système actuel est décentralisé ce qui limite les erreurs et la corruption. Pour fait bien. C’est aussi sur un modèle décentralisé que l’on devrait concevoir le vote électronique.

version plus courte

La règle de base pour la conception d’un système cryptographique dit que la sécurité ne doit reposer que sur le secret de la clé et en aucun cas sur le secret du système. Tout le monde doit pouvoir vérifier que le système utilisé ne comporte pas un dysfonctionnement ou qu’il n’est pas infiltré. Donc le système de vote doit être connu de tous.
Dans le jargon informatique, on parle de logiciel Open Source: le code source est publié.
Si cette condition est remplie il n’y a aucune raison que le système puisse être piraté et on peut lui faire confiance.
Un autre problème du vote électronique se situe dans le fait qu’il est centralisé. Si il y a un problème, c’est tous les résultats qui sont remis en cause. Le système actuel est décentralisé ce qui limite les erreurs et la corruption. C’est aussi sur un modèle décentralisé qu’un bon système de vote électronique devrait être conçu.

Version acceptée sur le site…. maximum 500 signes… c’est rien !!

La règle de base pour la conception d’un système cryptographique dit que la sécurité ne doit reposer que sur le secret de la clé et non sur le secret du système. Tout le monde doit pouvoir vérifier que le système ne comporte pas un dysfonctionnement ou qu’il n’est pas infiltré. Donc le système doit être connu de tous. Dans le jargon informatique, on parle de logiciel Open Source: le code source est publié. Si cette condition est remplie, on peut faire confiance au vote électronique.

la question..

Bouquin électronique

Bouquin électronique

lecture sur un bouquin électronique iliad.jpgLe terme de bouquin électronique est le terme générique que j’utilise pour désigner les appareils destiné à lire des documents sur du papier électronique. Il n’y a pas vraiment encore de consensus sur le terme utilisé. On rencontre souvent le terme de reader, de lecteur, de liseuse, de livrel, de e-book etc….

Personellement, après m’y être intéressé aux progrès de cette technologie pendant plusieurs année, c’est en décembre 2006 que j’ai fait l’acquisition du premier bouquin électronique commercialisé en europe. L’iLiad de iRex technologies.

Après mes premiers pas avec mon iLiad en 2006, je l’utilise toujours autant en 2009, et je n’ai pas encore eu l’occasion de rencontrer une autre utilisateur de bouquin électronique !

Avantages

Pourquoi utiliser un bouquin électronique ?

En ce qui me concerne, je suis un grand baroudeur sur internet et un grand lecteur de tout et n’importe quoi. Il m’arrive donc fréquemment de télécharger des centaines de pages de documents en tous genres. L’acquisition d’un bouquin électronique m’a permis de pouvoir lire facilement tous ces documents un peu partout et dans de bonnes conditions.

Ainsi, maintenant je peux lire ce genre de documents dans les transports publics ou confortablement installé dans une chaise longue en plein soleil.

N’étant plus obligé de passer de longues heures à lire sur l’écran de mon ordinateur ou imprimer de nombreuses pages avec une petite imprimante, ma bibliothèque de document à lire a commencé à enfin diminuer un peu.

Un autre avantage du bouquin électronique est le faible encombrement pour prendre en voyage sa bibliothèque entière.

De plus, un avantage non négligeable, c’est que lire sur du papier électronique est la manière la plus écologique de lire!
Oui oui, c’est vrai, j’entend ceux qui me disent que les appareils électroniques ne sont pas très écologiques en général! Et bien finalement, d’après une étude suédoise, le gagnant de l’écologie, c’est le papier électronique. Un livre papier émet quatre fois plus de gaz à effet de serre qu’un bouquin électronique!

Il ne faut pas oublier, qu’en moyenne le tiers des livres imprimés ne sont pas vendu et sont jetés par les editeurs! (on recycle peu dans le monde de l’édition, seul 5% du papier est du papier recyclé !)

La consommation de papier est en forte augmentation depuis les années 1970, alors cessons ce gaspillage et en avant pour l’utilisation de papier électronique.

Inconvénients

Ci-dessus j’ai présenté le bouquin électronique comme étant avantageux pour transporter sa bibliothèque entière, mais le bouquin électronique n’est pas non plus la panacée pour transporter un seul livre. En effet, un bouquin électronique est plus fragile et plus encombrant qu’un livre de poche. C’est pour cette raison que lorsque je pars à l’armée j’utilise toujours des livres de poche que je glisse dans mes grandes poche de pantalon militaire. Ainsi je peux faire des roulade dans la boue sans que ce soit trop dommage!

Un des inconvénient du bouquin électronique, est quand même le fait qu’il faut recharger ces accus. Bon le papier électronique consomme vraiment très très peu d’énergie. (que lorsque l’image change) Donc certains bouquins annoncent une autonomie en nombre de page, ce qui est assez inhabituel pour des appareils électroniques. (8000-10000 pages)

Par contre l’iLiad dispose d’une fonction d’écriture au stylet, ce qui en fait un vrai papier sur lequel on peut lire mais aussi écrire. Cette fonction est vraiment bien faite, mais elle a l’inconvénient de consommer de l’énergie en continu pour pas grande chose. Ainsi l’autonomie est limitée à une douzaine d’heures.

Bon, en lisant dans les transports publiques quelques dizaines de minutes par jour, finalement je n’ai besoin de recharger les accus que toutes les quelques semaines. C’est tellement peu souvent, (par rapport à un téléphone par exemple) que j’en arrive parfois à oublier de recharger mon iLiad et de me faire avoir par une coupure en pleine lecture!

Un des inconvénients est actuellement la lecture de romans. En effet, il est quasiment impossible de trouver du contenu récent sous forme électronique. On peut dire qu’il n’existe, pour l’instant aucun marché!

Le contenu

lecture de papier électronique au soleil sur iLiad.jpgPour en revenir au contenu, il n’existe donc, à mon avis actuellement, aucun marché du livre électronique. Depuis plus de deux ans que je suis propriétaire d’un bouquin électronique, j’ai observé le développement de nombreuses solutions mais pour l’instant aucune n’arrive vraiment à être autant diverse et facile d’accès que ce que l’on trouve quand on entre dans une librairie.

Le contenu dans le domaine public

La plupart des sites qui propose le téléchargement de livres sont finalement souvent des sites qui piochent tous dans la même bibliothèque de ressources des ouvrages tombés dans le domaine public.

Les deux principales sources de données sont le projet Gutemberg qui depuis trente ans archive sous forme numérique et dans des formats ouverts (et donc dignes de pouvoir être lu dans longtemps), les livres du domaine public.

L’autre source de donnée importante en langue française est la bibliothèque nationale de France. Il m’est donc arrivé de lire des livre du 17ème siècle sur du papier électronique. C’est toujours assez surprennant!

Il existe une foule d’autres sites qui reprennent en général les mêmes sources de bases, mais les agrémentent, les mettent en pages et les adaptent à la taille et au format utilisé par les téléphones, PDA et bouquin électronique.

Le contenu payant

En quelques années, le marché du livre commence quand même à se créer. On commence à trouver des librairies numériques dont l’assortiment commence à devenir intéressant.

On trouve des exemples comme la librairie Eons et surtout la librairie numérique qui semble être la référence actuellement: mobipocket.

Mobipocket est à la base une entreprise française fondée en 2000 qui a été rachetée en 2005 par le géant américain Amazon. C’est certainement ainsi que le contenu disponible sur mobipocket a grandit ces dernières années.

Amazon est certainement l’entreprise qui dispose de la plus grande bibliothèque numérique. Cependant la plupart de son contenu numérique est réservé aux utilisateur de son bouquin électronique, le kindle.

Une grande partie du succès du kindle est le fait que l’on dispose facilement de 230 000 titres. Par contre ce système est très fermé, il est difficile pour un utilisateur de lire du contenu créé par lui même. Heureusement que l’on peut utiliser le kindle pour aller se balader sur wikipedia.

Le contenu « piraté »

Dans le monde de la musique ou du cinéma, il n’est pas dur de trouver plus facilement du contenu par des moyens à la limite de la légalité que d’aller les acheter en magasin. C’est bien par ce que le piratage est plus facile d’utilisation que d’aller dans un magasin ou d’acheter en ligne du contenu bridé et mal foutu, que le piratage se développe.

Dans le cas du livre, on remarque que numériser un livre est beaucoup plus compliqué que de numériser une chanson. Car on peut dire que le marché du livre piraté est quasi inexistant.

Dans le monde francophone, quelques individus connu sous le nom de tarilenwe, ont numérisé une soixantaines de livres populaires et les diffusent sur les réseaux de peer to peer. On trouve dans cette archives des livres, comme ceux de Albert Camus, Bernard Werber, Beigbeder, Paulo Coelho, Ray Bradbury, Aldous Huxley, Franz Kafka, Stefen King, Boris Vian, Amélie Nothomb, Tolkien, Orwell et quelques autres auteurs très connus.

En suisse, il est tout à fait légal de télécharger ce genre de contenu lorsqu’on le trouve, par contre il est strictement interdit de le mettre à disposition c’est pourquoi j’en parle, mais ne les fourni pas.

Le problème c’est que le principe même de fonctionnement d’un réseau p2p est justement de partager entre utilisateur. Donc pour obtenir ces livres on passe très vite dans l’illégal. Personnellement, j’avais trouvé un site web (disparu depuis) qui proposait cette archive en téléchargement, donc j’ai pu rester dans la légalité.

Le livre piraté le plus célèbre reste tout de même le dernier tome des aventures d’Harry Potter. Le jour de  sa sortie, le 21 juillet 2007, l’annuaire de tracker bittorent: The Pirate Bay avait refait son design pour l’occasion. C’est l’unique fois où un livre était mise en avant plan par rapport à tous les films ou la musique qui est proposée.

Avant la publication de ce livre, il avait été demandé à J.K Rowling de faire une version numérique de son roman. Elle a toujours refusé en prétextant qu’il y avait un risque trop grande de piratage.

Peu importe son choix, deux jours avant la sortie officielle, un exemplaire papier a été numérisé et retravaillé par de nombreuses personnes pour en faire une version électronique disponible au téléchargement le même jour que la sortie officielle du livre dans toute  les librairies du monde.

Ainsi, en 5 minutes, j’ai pu trouver et commencer de lire les aventures d’Harry Potter sans avoir besoin de faire 20km de chemin et la file dans les magasins. Ainsi Mme Rowling s’est privée de mon obole que j’aurai certainement payé, mais pas pour me trimballer un pavé de 600 pages alors que j’ai à disposition un bouquin électronique. (Pourtant elle devrait connaitre le papier électronique c’est comme le Daily prophet, les photos peuvent bouger!  C’est d’ailleurs la technologie e-ink qui a été utilisée pour réaliser le daily prophet dans les films des aventures d’Harry Potter)

Le piège des DRM

Le monde des bouquins électroniques évolue vite et va plus vite que le changement d’habitudes des éditeurs. Tout dernièrement Fujitsu a commencé de commercialiser le premier bouquin électronique en couleur.

L’impression que me donnent les éditeurs est qu’ils ont peur de changer leur modèle commercial, et qu’ils ont peur de voir leur marché du livre canibalisé par le piratage comme l’est le marché de la musique ou des films. Pour cette raison ils ne bougent pas et attendent. Mais en fait, c’est ainsi qu’ils sont en train de perdre leur marché futur.

En préparant le futur, c’est certainement Amazon qui est en passe de devenir l’acteur principal dans le monde du livre de demain.

Le laisser aller des éditeurs est en train de massacrer le monde du livre. En effet, il y a de nombreux pièges qui sont en train de se mettre en place contre les utilisateurs.

Un des principaux piège est ce que l’on appelle les DRM. C’est l’accronyme de Digital Right Management c’est un système de gestion numérique de droits.

En gros, le marché du livre papier, c’est surtout vendre du papier. On arrive à produire une quantité plus ou moins, grande de livre, donc on peut proposer une offfre. En fonction de la demande et du diagramme de l’offre et la demande on calcule un prix. Il y a une économie de marché.

Quand on vend un livre numérique, il n’y a plus de papier, plus de production, un livre se copie à l’infini. L’offre est infinie. Là, le diagramme de l’offre et de la demande se casse la gueule. On ne peut plus l’utiliser.

Pour vendre un bien immatériel il faut totalement repenser son modèle économique. Bien souvent  cette réflexion n’est pas faite, et les gens retombent dans un schéma connu. Ils tentent de rendre unique chaque copie en leur accrochant un numéro de série et un programme de gestion numérique des droits. (DRM)

On nous parle de solution de cryptage et de sécurité, mais ceci ne vaut rien, car les grands principes à respecter pour utiliser une solution efficace de cryptage sont baffoués par le principe même des DRM.

En gros, protéger un contenu par DRM, c’est mettre le contenu dans une enveloppe que l’on ferme avec un cadenas et ensuite on colle la clé du cadenas derrière l’enveloppe avec un ruban adhésif !

Alors effectivement, le cadenas est un bon cadenas cryptographique. Mais donner la clé à un pirate et lui dire de ne pas l’utiliser c’est totalement ridicule!

Pourtant c’est bien ce que l’on fait et ce que propose de nombreuses industries de distribution de contenu.

Ce qui est dangereux pour l’utilisateur c’est le dommage collatéral de l’utilisation de DRM.

Pour aller décoller la clé, il faut savoir le faire. En général, c’est une technique qui est gardée secrète (mais qu’il faut changer chaque fois qu’un pirate découvre la méthode).

Donc pour utiliser un contenu protégé par DRM, il faut un programme qui est conçu pour. Il faut que ce programme connaisse la méthode secrète pour trouver la clé. Donc souvent c’est un programme qui est conçu par les gens qui font le contenu aussi.

On en arrive au point que chaque distributeur utilise son propre format de DRM et donc son propre programme. Le contenu est formaté pour un programme de lecture en particulier, mais pas pour les autres. Donc ce qu’il se passe, c’est qu’une chanson acheté sur l’iTunes store est lisible sur un iPod par ce que le distributeur est le même que le constructeur des lecteurs. (Apple) Par contre une chanson acheté à la fnac n’est pas lisible sur un iPod, car ce ne sont pas les mêmes DRM qui sont utilisées.

Cette situation est la cause principale de l’encouragment au piratage. En achetant légalement une chanson on a beaucoup plus de risque d’être embêté et de ne pas réussir à lire son contenu que si l’on télécharge illégalement une chanson sur un réseau p2p. De plus en regardant un film piraté, on est pas obligé de voir les multiples avertissement antipiratage qui sont mis sur les DVD.

La situation est en train de changer dans le monde de la musique. L’industrie du disque est en train de comprendre que pour vendre ses solutions elle doit proposer une méthode plus simple et conviviale que le piratage.

Ainsi suite à des tractations entre Steve Jobs, le partron d’Apple et donc du plus grand distributeur de musique en ligne, et les majors de l’industrie du disque, il vient d’être décidé de supprimer totalement les DRM sur la musique!

Depuis les ventes en ligne se portent mieux!

Dans le monde du livre, j’observe une tendance à faire avec quelques années de décalage les mêmes erreurs que dans l’industrie de la musique. C’est à dire que mobipocket, le leader du marché propose ses DRM partout.

Ils font pression pour inclure leur programme de lecture dans tous les bouquins électroniques. C’est ainsi qu’à contre coeur, iRex a ajouté le lecteur de DRM de mobipocket dans l’iLiad. iRex à cédé sous la pression des utilisateurs qui avaient envie de pouvoir lire le contenu de mobipocket qui est le seul à proposer un contenu un peu varié.

Format

Pour pouvoir lire un livre, un bouquin électronique doit pouvoir comprendre le format dans lequel le livre est distribué.

Actuellement, c’est un peu la jungle, chacun tente d’imposer son propre format qui l’arrange sur son lecteur. Le choix du format est souvent fait par ce qu’il est capable d’intégrer un type ou un autre de DRM. DRM qui comme on l’a vu est une saleté.

Dans les formats que l’on trouve, il y a des « anciens » formats qui sont les formats de documents courants dans le monde de l’informatique (pdf, html, txt, rtf, etc..) De plus, il y a des nouveaux formats dédiés à la lecture de livres électroniques. Ici on retrouve des formats qui sont souvent liés à un distributeur ou un lecteurs. Ainsi on retrouve le .prc de mobipocket, le .azw du Kindle de Amazon, le .pdb de Palm, le .lrf du Sony e-reader et encore bien d’autres. Pour un petit aperçu, allez voir la page dédiée aux formats supportés par l’application stanza.

Le format qui actuellement est souvent le plus utilisé par ce qu’il fonctionne bien partout c’est le format PDF. (d’où le fait que bien souvent on explique que PDF est l’acronyme de Portable Document File). Ce format de document est très bien, mais dans le cas des bouquins électroniques il a quelques inconvénients.

Revenons déjà sur l’acronyme PDF, en fait, contrairement à ce que j’ai écris ci-dessus, et comme on le voit souvent, PDF ne veut pas dire Portable Document File. En effet, PDF à la base est l’acronyme de Postscript Display File. Le PDF est en fait une évolution du langage Postscript. Ce dernier est une language, qui à la base a été conçu pour décrire des formes vectorielles à une imprimante. C’est un langage qui est dédié à l’impression.

Le PDF est un format qui reprend une partie du langage postscript mais qui ne garde que les routines d’affichage, d’où le terme Display, de l’acronyme PDF.

Le PDF n’est pas non plus un postscript amputé. C’est une véritable évolution, car il est conçu pour être un conteneur de formats. Le PDF est capable d’intégrer en lui même d’autres formats comme les formats d’images, les fontes, etc… De plus, pour en faire un format moderne et facile de traitement, le PDF a une architecture conçu en XML.

Tout ceci c’est bien, mais où sont les inconvénients ?

Comme décrit ci-dessus, le PDF est issu du postscript. C’est donc héréditairement un format conçu pour de l’impression sur papier! Un document PDF est conçu pour une taille de papier fixe.

A l’heure actuelle, nous avons une prolifération de périphériques et donc d’écrans; et surtout de taille d’écran. Il est possible de lire le même document au format PDF sur un ordinateur muni d’un double écran 24″, où alors sur un téléphone portable avec un écran 4″ ! La différence est de taille, et c’est le cas de le dire.

Même avec le meilleur zoom du monde, il est très pénible de lire un document PDF conçu pour une grande taille sur un écran de petite taille.

La solution, c’est l’utilisation d’un format qui s’adapte à la taille du périphérique de lecture. Ce format existe et il est même très utilisé. Il s’agit du format du web: le xhtml (couplé au langage css pour définir le visuel).

En effet, il est possible d’utiliser un navigateur avec une taille de fenêtre variable. Le format xhtml-css est capable de s’adapter.

Cependant, le xhtml-css a été conçu pour être utilisé sur un serveur web via un navigateur web. Le document choisi est indiqué au moyen d’une adresse. Une page web est composée de nombreux fichiers dans des formats bien différents que le navigateur web regroupes pour les afficher ensembles. Une page web est donc un ensemble de fichiers. Si l’on veut lire une page web sur un bouquin électronique, il faut placer tous ces fichiers sur le bouquin électronique aux bons endroits. C’est possible mais ce n’est pas très pratique.

La solution est donc de procéder comme pour le passage du postscript au PDF. Il faut créer un format conteneur d’autres formats. C’est ce qui a été fait avec le format epub. (aussi appelé Open Book).

Nous avons donc là un format ouvert qui est libre d’utilisation par tous, qui est lisible avec des écrans de toutes tailles et qui est facilement distribuable. Tout va bien. Reste plus qu’à faire la promotion de ce format pour qu’il deviennent autant répandu que son grand frère le xhtml.

L’idéal

A quoi ressemble mon avenir idéal pour le monde du livre. C’est un monde ouvert, varié et simple.

J’aimerai pouvoir entendre parler d’un livre par un ami et directement aller le télécharger, soit via mon ordinateur, soit directement depuis le bouquin électronique, à l’image de ce qui se fait avec le kindle, ou avec l’iLiad si il est configuré pour.

J’aimerai pouvoir lire facilement n’importe quel livre qu’il vienne de n’importe quel magasin et pouvoir le lire sur n’importe quel lecteur. Je suis vraiment opposé au système de DRM. Dans la brève histoire de ce genre de système, on a déjà de nombreux exemples chez google, microsoft, virgin et sony, de magasin de contenu numérique muni de DRM qui est maintenant ilisible car le magasin d’origine à fermé ses portes!

C’est une réalité, un système de DRM n’assure pas la lecture à long terme et donc l’archivage. Dès le moment où j’achète un livre je m’attend à pouvoir le mettre dans ma bibliothèque et pouvoir le garder indéfiniment. Je n’ai pas envie de recevoir 1 an après mon achat un mail de google qui me dit que le contenu ne sera plus lisible et qu’on me rembourse en bon d’achat google !!!

Par conscéquent, comme je l’ai fait avec la musique jusqu’à présent, je n’achéterai pas de contenu soumis à un système de DRM. C’est trop compliqué à maintenir et dangereux pour le contenu.

En ce qui concerne la diversité d’un magasin en ligne, je pense qu’elle peut être beaucoup plus grande que dans une librairie classique qui a une surface limitée. Ceci permet de trouver des ouvrages qui sont rares sans devoir patienter plusieurs semaines que l’on commande mon ouvrage. Avec cette optique, déjà actuellement, je commande sur amazon, j’attend autant de temps, c’est moins cher, et au moins je l’ai direct à la maison.

Ce principe est ce que l’on appelle le principe de la longue queue en référence à la forme de la courbe d’un graphe qui classe les livres par nombre d’exemplaires vendus. Très peu de livre sont des best sellers et beaucoup de livres ne sont vendus à ou deux exemplaire s par année. En ayant une librairie, si il faut remplir les rayonnages, on mettra beaucoup plus de bestseller que de livre qui ne sont peu vendu. La place coûte trop cher pour la gaspilller. Avec une bibliothèque numérique la place physique prise par un livre est tellement derisoire qu’il ne coûte pas grand chose de vendre un titre seulement une fois par année. On le propose aussi. Même si il est vendu qu’une seule fois, c’est déjà mieux que pas vendu du tout !

En généralisant ce principe, la vente de titre peu populaires commence à compter pour beaucoup. Le volume est potentiellement plus grand que de vendre 2-3 best sellers !

Voici un des avantages non négligeable d’une librairie en ligne.

Un autre avantage d’une édition numérique est qu’il est possible de faire facilement des mises à jour de livre, de corriger des erreurs et même de vendre des livres qui ne sont pas encore fini !

Etrange, mais ça existe déjà. Les éditions O’Reilly qui sont spécialisées dans les livres informatiques propose parfois des premières éditions de livre pas encore totallement terminée et puis les mises à jour arrivent par la suite quand elles sont prêtes.

Pourquoi ces pratiques? C’est souvent par ce que l’informatique avance tellement vite qu’il est parfois utile d’avoir un livre à disposition même si il n’est pas totalement terminé.

Voilà après toutes ces réflexions, l’avenir nous dira comment le domaine aura évolué. Dans le bon sens espérons !

Posts navigation

1 2 3 4 5
Scroll to top