La bière

Brasser de la bière

Comment fait ont pour faire sa propre bière ? Voici une foule d'information utile pour y arriver.

Avant de commencer, on va déjà étudier ce qu'est la bière, comment on la déguste et puis on passera à la fabrication et ou trouver le matériel et les ingrédients nécessaires.

Qu'est ce que la bière ?

La bière est une boisson fermentée à l'image d'autres comme le vin et le cidre.

Une boisson fermentée est une boisson qui a subit une fermentation. Une fermentation est une réaction biochimique qui transforme (dans notre cas) du sucre en alcool.

Pour déclencher une fermentation on utilise des levures. (Saccharomyces Cerevisiae) Les levures vont se nourrir de sucre et faire de l'étanol. Donc:

  • avec du jus de raisin et de la levure, on fait du vin.
  • avec du jus de pommes et de la levure, on fait du cidre.

.. Donc avec de l'orge et de la levure on fait de la bière ??

Et bien non !

Le raisin et les pommes contienent naturellement suffisemment de sucre pour faire une fermentation. Mais l'orge ne contient pas de sucre. Donc on ne peut pas le faire fermenter !

Il faut tout d'abord faire des transformations pour transformer l'orge brut en moût sucré que l'on pourra faire fermenter. Donc:

  • avec du moût d'orge et de la levure, on fait de la bière.

Etapes de fabrication de la bière

La bière est donc une boisson fermentée du moût d'orge. Il va donc falloir faire du moût d'orge avant de faire de la bière. Les étapes de fabrication de la bière sont les suivantes:

  • Le maltage
  • Le brassage
  • La fermentation

Pour retrouver et décrire toutes ces étapes nous allons commencer par la fin.

La bière est le résultat de la fermentation alcoolique du moût d'orge. Il faut donc du moût comme matière première et des levures comme ouvrières. C'est l'étape de fermentation.

Comment avoir du moût sucré ?

Nous avons de la chance, l'orge, comme toutes les céréales contient de l'amidon, qui n'est qu'une réserve de sucre. Il faut donc transformer cet amidon en sucre.

C'est ce qui va se passer pendant l'étape de brassage. Mais comment ?

Nous avons de l'orge comme matière première, mais il nous faut des ouvrières. Ce sont des enzymes. Et d'où viennent elles ?
C'est justement le but de l'opération de maltage que de créer ces enzymes.

Le maltage consiste à faire germer les grains d'orge dans un milieu humide, puis d'arrêter cette germination en chauffant les grains d'orges. C'est la température de chauffe des grains qui va déterminer sa couleur et donc le type de bière. (blonde, ambrée, brune)

 

Dégustation de la bière

La bouteille de bière est stocké verticalement, sauf pour celles qui ont un vrai bouchon de liège.

Température

Pour bien réveler les arômes d'une bière, la température de service se fait (en général) entre 6°C et 16°C.

La température de service se fait en fonction de la couleur. Plus la bière est claire, plus elle est servie fraiche.

Types de bière

La bière est faite avec du malt.

Le malt est de l'orge germé et chauffé. Plus on chauffe l'orge plus il prend une couleur foncée.  Les différents type de bière sont en fait le reflet de la couleur de l'orge qui a été utilisé. Une bière blonde est faite avec de l'orge peu chauffé alors qu'une brune est faite avec de l'orge chauffé plus longtemps.

  • blonde
  • ambrée
  • brune
  • lambic: fermentation spontanée
  • blanche: faite avec du malt de blé

La fermentation peut être haute ou basse. Ceci désigne la température. Une fermentation haute est faite à température ambiante. (~20° C). Les bières courantes sont faites en fermentation basse et les élaborée en fermentation haute.

Les verres

Pour mieux révéler les arômes des divers types de bière, on utilise des verres de types différents.

  • des verres hauts et fins pour les Pils et les lambics
  • des verres ballons ou tulipes pour les blondes et les ambrées.
  • des calices pour les trappistes.

La mousse est plus abondante pour les bières blondes. La mousse sert de protection contre l'oxydation par l'oxygène de l'air.

Etapes de la dégustion

  1. vue: couleur, brillance, mousse
  2. odorat
  3. goût: force, texture

La longueur en bouche est bon signe.

Quelques liens

 

web et informatique du futur

Web du futur

Petite réflexion sur ce qui peut nous attendre dans le web du futur. Quel sont les tendances, et surtout quelles sont nos envies !

Histoire de l'informatique

Le web étant tout de même un outil informatique, il n'est pas utile d'avoir un bref aperçu de l'historique.

Pour rappel, l'informatique est donc la "science" du traitement automatique de l'information. Donc tout notre propos ici va être en rapport avec le traitement de l'information.

Mastodontes

Dans les première heure de l'informatique, un ordinateur était principalement une machine à calculer. Par exemple, si l'on devait faire un calcul statistique, on préparait le calcul, on le convertissait en langage compréhensible pour une machine, puis on demandait à l'ordinateur de faire le calcul et enfin on récupérait le résultat pour l'analyser. Le tout prenait plusieurs jours. L'interactivité était quasi nulle.

Le terminal

Puis, les ordinateurs sont devenus plus courants, il y avait un ordinateur par université ou par grande entreprise. Pour optimiser le partage de l'ordinateur auquel on avait accès, on a inventé le terminal.
Le terminal est une bête console qui permet d'envoyer des commande textuelle à l'ordinateur au travers d'un réseau informatique.

C'est le début des réseaux informatique. On a donc commencé à inventer quelques service en réseau. Comme la messagerie. Il est ainsi devenu possible de laisser un message pour un autre utilisateur du même ordinateur.

Puis on a commencé à interconnecter les ordinateurs entre eux. C'est ainsi que la messagerie s'est développée, il est devenu possible de laisser un message à un utilisateur d'un autre ordinateur, c'est ainsi que l'on a utilisé le caractère @, maintenant très connu, pour délimiter le nom de l'utilisateur et le nom de l'ordinateur sur lequel trouver l'utilisateur.

La micro-informatique

Le coût de fabrication des ordinateurs étant de plus en plus faible, vers la fin des années 1970, on a vu apparaître des ordinateurs plus petits, destinés a une seule personne, des micro-ordinateurs.

Souvent on trouvait ces ordinateurs en kit à fabriquer par des passionnés. A l'époque, il fallait savoir bricoler et programmer pour utiliser un ordinateur. On disait qu'à l'avenir, tout le monde allait apprendre à programmer.

C'est à cette époque que se sont créés les géants de l'informatique comme Apple et Microsoft.

Apple à démocratisé l'ordinateur en créant un ordinateur complet et simple a utiliser. Plus de kit à bricoler et des programmes déjà tout faits. Personne n'a besoin de savoir programmer pour utiliser un ordinateur.

Microsoft de son côté a aussi repris l'idée qu'un ordinateur peut être utilisé par tout le monde si on fourni déjà le logiciel qui va avec. C'est ainsi que Bill Gates a eu les gens de chez IBM en leur fournissant un système d'exploitation pour la nouvelle machine d'IBM. Le Personnal Computer: PC. Les gens de l'époque, chez IBM, n'ont pas réalisé que le logiciel allait prendre plus d'importance que le matériel.

C'est ainsi que l'on ouvre l'ère de l'informatique chez monsieur et madame tout le monde. L'ordinateur permet de faire de nombreuses chose que l'on ne pensait pas auparavant. C'est à cette époque qu'une véritable révolution apparaît dans l'informatique.

Les typographes ont vu leur profession être bouleversée et disparaître avec l'arrivée du Mac pour faire de la mise en page. Le traitement de texte informatisé s'est généralisé pour tous les textes, de la simple lettre au roman.

Le retour du réseau

Dans les années 1970, le réseau informatique était indispensable pour que les utilisateurs puissent se partager le même ordinateur. Dans les années 1980 l'ordinateur devient personnel. Plus besoin de réseau puisque chacun peut avoir son ordinateur.
Dans les années 1990, le réseau fait son retour sur les ordinateurs personnels, afin de de pouvoir échanger les créations numériques plus facilement.

Les systèmes d'exploitation datant des années 1980 sont gentiment refait à la fin des années 1990 pour reprendre les concepts multi-utilisateurs et réseau qui existaient dans les années 1970.

Dans les années 2000, c'est la généralisation de l'utilisation d'internet et surtout du web. Les sites web fleurissent un peu partout et les gens s'envoie des e-mails pour tout et n'importe quoi. Le spam est devenu un gros problème.

Les applications web

Au début de l'informatique, on programmait l'ordinateur pour faire l'opération dont on avait besoin, dans les années 1970, on partageait les programmes d'un même ordinateur pour faire principalement du calcul, dans les années 1980, on nous fourni un ordinateur personnel avec un système d'exploitation graphique intuitif. On installe facilement des applications qui permettent de créer des documents.

Dans les années 1990, on échange de plus en plus des documents numériques pour en composer des nouveaux, dans les années 2000 on commence à transformer le web, capable uniquement d'afficher des documents, en web capable d'être une application, de traiter et stocker lui même les données. C'est la révolution web2.0.

Histoire du web

Le web n'est pas internet

Le web et internet sont souvent la même chose pour bon nombre de personnes. Pourtant ce n'est pas pareil. Le web est un service utilisant internet.

Quand on pense web, on pense site web. Un site web est à l'internet ce qu'une maison est à une route. L'internet est la route qui permet d'accéder à la maison et de la visiter.

L'internet existait déjà des années avant le web. Le web a été LE service tellement apprécié qu'il en a popularisé l'internet.

Genèse du web chez les physiciens

Le web est un service qui a été développé au tout début des années 1990, au CERN, pour les besoins des physiciens qui voulaient échanger facilement des documents. (Des articles de physique)

Tim Berners Lee, en charge du projet à donc conçu une architecture répondant à la demande des physiciens.

Le web est tout d'abord un format de document, le HTML, mais aussi un protocole d'échange le HTTP qui est dérivé de SMTP, le protocole que l'on utilise pour envoyer des e-mail.

Là, rien de très révolutionnaire, des formats de document il en existe des centaines et des protocoles d'échange aussi.

La grande invention du web est certainement la manière d'obtenir une ressource. C'est l'URL. Chaque ressources est accessible par une adresse unique. Il est ainsi possible de créer des liens et de naviguer de page en pages.

Ce qui a changé la donne, dans la diffusion des technologies web, c'est leur ouverture. Le fait que n'importe qui puisse utiliser les formats et protocoles. Ceci combiné à une simplicité de mise en place. Le succès est vite arrivé.

Url de plus ancienne page web (mais plus accessible): http://nxoc01.cern.ch/hypertext/WWW/TheProject.html
La plus ancienne page web encore accessible: http://www.w3.org/History/19921103-hypertext/hypertext/WWW/Link.html

Croissance et amélioration et stagnation

Le web conçu pour des besoins assez précis d'affichage d'article de physique est maintenant utilisé à toutes les sauces. Au fil des années on a amélioré le format HTML pour lui faire comprendre, les tableaux, les images, etc.. De plus on a séparé ce qui est purement de l'information du type des données (paragraphe, titre, etc...), de ce qui est de l'information purement affichage des données (bordure noire, texte bleu, etc..).

Ainsi, actuellement on utilise le format xhtml pour indiquer la structure des données, (x indique que l'html est maintenant de la famille des formats xml. Ce qui le rend plus strict et cohérent.) et le format css pour décrire l'affichage de ces données.

Avec toutes ces améliorations dans les formats, il faut des programmes toujours plus complexes pour interpréter ces formats toujours plus complexes. Ce programme est un navigateur web.

Le navigateur web est un élément indispensable de toute l'architecture web. Le navigateur a été l'objet, vers la fin des années 1990 de ce que l'on a appelé la guerre des navigateurs.

Microsoft très en retard sur la nouvelle vague du surf sur le web a tenté de rattraper son retard en imposant son navigateur en utilisant de sa position de monopole. Bilan: en 2001, c'est gagné pour Microsoft, Internet explorer a tué son principal rival Netscape; Internet Explorer a le monopole et microsoft dissout l'équipe de développement d'Internet Explorer !

Le phoenix renaît de ses cendres

Dès le moment où Internet Explorer devient le seul navigateur du marché et qu'en plus le développement de celui-ci est abandonné. Le web n'évolue plus. De nombreuses fonctionnalités décrites dans les spécifications des versions de xhtml et css ne sont jamais mises en places.

Heureusement pour le web, au moment de mourir, terrassé par l'adversaire, Netscape ouvre et distribue le code source de son navigateur web. En quelques années, tout se réorganise en un projet open source gérer par la fondation Mozilla auquel contribuent tous les gens intéressés.

Un jour voit arrivé le bien nommé Phoenix, enfin un navigateur qui tente de reprendre l'innovation du web là où on l'avait laissé. Après quelques temps, Phoenix devient Firebird, et puis ensuite Firefox, nom qui est actuellement beaucoup plus connu.

En quelques années donc, la fondation Mozilla a réussi à recréer un navigateur capable de rivaliser avec celui en place, et même de le dépasser largement. Mais pas seulement, la fondation a aussi relancé l'innovation dans le web en incitant d'autres grands acteurs à créer leur navigateurs web respectueux des standards. La diversité est là tout en assurant un fonctionnement correct et identique sur tous les navigateurs web.

C'est ainsi que le web est à nouveau en plein développement. L'initiative de Mozilla a eu pour effet que microsoft à reformé son équipe de développement d'internet explorer pour ne pas rester à la traîne.

Convergence web et informatique

La reprise de l'innovation dans le monde du web à conduit à dépasser le modèle originel du web: le web des documents, pour l'étendre au web des applications, ce que l'on appelle souvent le web 2.0.

Ainsi, avec le web 2.0, le web devient donc une nouvelle plateforme applicative. Les applications de bureau traditionnelles sont de plus en plus migrées vers le web.

Le navigateur web prend de plus en plus d'importance, il devient l'unique application nécessaire sur le système d'exploitation d'un ordinateur.

Le web est donc en train de conquérir le domaine des applications de bureau. (Est ce pour protéger windows et son écosystème que que microsoft à tout fait pour torpiller le web?)

Les applications web sont donc en train de remettre en cause tout un modèle d'habitude de fonctionnement de l'informatique.

Remise en cause de la métaphore interface homme-machine traditionnelle

Cela fait une vingtaine d'années que l'on utilise les mêmes métaphores pour faire l'interface entre l'homme et la machine, mais existe d'autres pistes ?

Interface homme-machine

Ce que l'on entend par interface homme-machine c'est le moyen que l'on utilise pour que l'humain puisse communiquer avec un outil comme un ordinateur.

L'humain est un des rares animaux à utiliser des outils. Jusqu'à l'arrivée des humains, l'évolution a plutôt adapté les espèces pour qu'elles soient dotées des fonctions dont elles ont besoin. Avec l'humain, c'est une rupture dans ce modèle: l'humain utilise des outils et il fait évoluer ses outils plutôt que lui même. Ce qui est beaucoup plus rapide.

Utiliser un marteau ou un couteau est une révolution en terme de l'évolution, mais c'est facile pour une humain actuel. Utiliser un fer à repasser est déjà plus, complexe, il faut une planche, il faut de l'eau, de l'électricité et il y a un savoir faire pour ne pas endommager les habits. Utiliser un ordinateur, c'est complexe, il y a une infinité de possibilités. Un humain seul ne peut pas connaître le fonctionnement exact et complet d'un ordinateur. On va donc créer une couche d'abstraction qui permet à cet humain de se servir de l'outil ordinateur.

Beaucoup de moyens ont existé pour communiquer avec des ordinateurs. A une époque le standard était la carte perforée en entrée et l'imprimante en sortie. Puis on a eu le terminal avec des lignes de commande, et ensuite l'interface graphique.

L'arrivée de l'interface graphique a été une révolution. Elle a permis de démocratiser l'utilisation d'un ordinateur en proposant une métaphore simple pour utiliser un outil complexe.

Pour ce faire, on a adapté l'ordinateur aux habitudes des gens et non le contraire. Ainsi on limite la formation des gens pour utiliser l'outil.

C'est alors que l'on a choisi la métaphore du bureau. Votre ordinateur est comme votre bureau. Votre disque dur est comme un tiroir dans lequel on range des dossiers. Dans les dossiers on place des fichiers.

Pour utiliser un fichier, on l'ouvre avec une application. Tout ces concepts sont représentés graphiquement à l'aide de fenêtres (munie d'ascenseur) et d'icônes.

Au fil des années, tout un vocabulaire été détourné pour devenir un terme informatique. Avez vous déjà vu un ascenseur horizontal sur une fenêtre ailleurs que sur un ordinateur ?

La métaphore utilisée à la base pour simplifier la manipulation de donnée en donnant des noms connus à des concepts informatiques est en train de se compliquer. On va plus loin que la métaphore avec les termes informatiques et finalement le terme ne veut plus rien dire dans le monde réel.

Mais les utilisateurs d'ordinateur se sont habitués, ils ne s'étonnent pas que depuis que les souris communiquent avec des dents bleues ont doivent leur changer les piles. (souris sans fil bluetooth)

Les utilisateurs d'ordinateur ne doivent pas voir beaucoup dehors à force de toujours coller plein de fichiers sur leurs fenêtres!

La métaphore a ses limites. A l'origine elle était une aide en faisant un lien avec le monde réel plus connu des utilisateurs. Mais actuellement c'est l'inverse, les jeunes apprennent qu'une icône est une peinture religieuse après avoir associé ce nom avec les pictogrammes qui sont partout sur leurs écrans.

Actuellement, pour les jeunes, fichier et dossier sont essentiellement des termes d'informatique avant d'être des bouts de papier ou de carton. Signe du temps, les beaux bureaux en bois comportent de moins en moins de tiroirs, il se limitent même bien souvent à une simple planche sur laquelle on va poser son ordinateur !

Le monde réel s'est adapté, la métaphore du bureau a transformé les habitudes de travail au point de se rendre elle même incohérente.

Si dans le monde réel on n'utilise plus de fichier et de dossier, pourquoi est ce qu'on le fait toujours sur nos ordinateurs ?

Organisation des données

Un ordinateur n'est qu'un outil de gestion d'information. L'information est quelque chose de peu palpable, de flou, de mouvant, de polymorphe. Pour la traiter de manière unique et identique sous toutes ses formes on a tenté de la formatter, de l'organiser. On a créer le fichier.

Ce paquet d'information n'est tout d'abord représenté que par un nom dans les interface-homme machine à ligne de commande. Puis au nom, on a ajouté une petite image (une icône) que l'on peut glisser et déposer sur un bureau d'une interface homme-machine graphique.

Devant la croissance du nombre de fichier on a tenté de les organiser. Des barbus dans les années 1960 ont imaginé un système de fichier à arborescence.

Il est devenu possible de créer des fichiers avec le même nom tant qu'ils ne sont pas dans le même niveau de l'arbre de fichier. Avec une arborescence de fichiers et de dossiers on a inventé le chemin d'accès. Ce même chemin d'accès qui avec l'arrivée du web est devenu un complément de l'URL, de l'adresse unique permettant de désigner une ressource.

Tous les systèmes d'exploitation courants utilisent des systèmes de fichiers arborescents pour classer des fichiers. C'est le moyen le plus courant que l'on trouve pour organiser et classer des données. Mais est ce le meilleur ?

Non, ce n'est pas le meilleur. Une arborescence a des limites. Un fichier ne peut pas être à plusieurs endroits de l'arbre en même temps. Par exemple, si je veux faire un dossier de photos contenant toute les photos du petit dernier de la famille, et en même temps un dossier des photos du dernier Noël en famille. Que faire des photos du petit dernier de la famille lors de la fête de Noël ?

Je trie selon un critère ou selon l'autre ? Je duplique le fichier ?

Cette question est souvent résolue par les informaticiens en proposant une nouvelle application qui est un gestionnaire de photos. (iPhoto, picasa, etc..) Ce gestionnaire est capable de créer des albums à partir de sa photothèque de base. On crée des vues différentes des mêmes données.

C'est un emplâtre sur une solution boiteuse. On préfère fournir une nouvelle application avec de nouvelles règles d'utilisation plutôt que de remettre en cause les habitudes.

Pourtant la solution existe, elle est simple et efficace, c'est la généralisation du principe de l'arbre, en informatique on dit que c'est un graphe et sur le web on présente des tags et concrètement ce sont des groupes.

Les tags

Le système de catégorisation par tags est a été popularisé surtout par le service de galerie de photos en ligne: Flickr.

Ce n'est pas étonnant d'avoir vu émerger ce principe sur un service de photos en ligne. En effet, ce système est bien adapté aux photos.

Si l'on reprend notre exemple précédent des albums photos, on peut le résoudre en taguant les photos du petit dernier avec son prénom, et les photos de noël avec un tag du genre Noel2009. Pour les photos faisant partie des deux ensembles, on leur attribue les deux tags.

La même ressource peut se retrouver simultanément dans plusieurs groupes. Ici c'est bien le terme de ressource qui est utilisé et non plus le terme de fichier. C'est pourtant aussi un paquet d'information. Le terme de ressource est celui qui est utilisé dans la terminologie du web. C'est le R de URL. C'est la ressource qui est pointée par ce système d'adresse.

Si l'on admet que la métaphore du bureau a vécu. Il est donc plus juste d'utiliser le terme de ressource pour désigner ce paquet d'information que l'on veut organiser.

Un système de catégorisation par tag permet de résoudre certains problèmes comme le fait de pouvoir mettre une ressource dans plusieurs groupes en même temps. Mais il en pause aussi d'autres. Vu que l'on peut associer autant de tags que l'on veut à une ressource, le nombre de tag est très souvent plus élevé que le nombre de niveau de dossier que l'on créerait pour faire un équivalent avec une arborescence.

Petit rappel important, le graphe étant la généralisation de l'arbre, il est toujours possible de représenter une arborescence à l'aide d'un système de tag. L'inverse n'est pas vrai.

Moteur de recherche

Dans la pratique, on propose rarement une vue par dossier et sous dossier pour naviguer dans un système de tags. On privilégie souvent le nuage de mot. Dans le nuage, la taille des tags est proportionnelle au nombre d'utilisation de celui-ci. On peut aussi dire qu'il représente la taille du groupe de ressource qu'il forme.

Le nuage de mot est utile pour avoir un aperçu global du contenu que l'on a à disposition. Mais pour retrouver concrètement une ressource on privilégie le moteur de recherche.

Le moteur de recherche est une ligne de commande dans laquelle on indique le type de ressource que l'on veut ainsi que les tags qui permettent de déterminer le sous ensemble que l'on recherche.

Ainsi, par cette fonction de moteur de recherche c'est le grand retour de la ligne de commande qui se profile. Mais au fil du temps elle s'est améliorée. La ligne de commande est devenue plus intelligente. Un des meilleurs exemple est probablement google. Il est possible d'utiliser le champ texte de requête pour non seulement faire une requête, mais aussi pour demander à google de faire un calcul, de convertir des unités, d'afficher le cours de la bourse ou de convertir des monnaies au change actuel.

La ligne de commande moderne connaît de plus en plus la syntaxe du language humain. Une fois de plus, on voit que la métaphore du bureau n'est plus utile si l'on peut parler directement avec son ordinateur !

Mais on en est pas encore exactement au point de pouvoir philosopher avec sa machine. En l'état actuelle des choses, la ligne de commande la plus répandue est certainement la barre d'adresse de son navigateur web. Elle permet de faire toutes les requêtes que l'on veut si l'application web qu'elle pointe est bien conçue.

De plus, quand cette barre d'adresse est celle de Firefox 3, c'est encore mieux. En effet, cette barre porte le nom de awesome bar. Ce qui indique que ce n'est pas un bête champ de texte. Non, cette barre est une ligne de commande intelligente. Elle est capable de compléter une adresse déjà connue à partir de quelques bribes de mots.

Ainsi, si je connais un service web dont l'adresse est bien conçue, il m'est presque possible de converser avec lui dans un language proche du language humain.

Voici un exemple concret avec l'ajout d'un document:
L'URL suivante doit être utilisée pour ajouter un document: http://example.com/document/?new

Dans la awesome bar, il me suffit de taper: new document example et l'adresse ci-dessus m'est proposée. La seule limitation est le fait que l'adresse doit déjà avoir été utilisée pour être proposée.

Voici un autre exemple qui montre comment demander un document avec des tags. Ma demande est la suivante:

document example réflexion web

La awesome bar me propose l'adresse: http://example.com/document/réflexion/web/  qui me permet de lister les tous les documents sur example.com qui correspondent à l'union des groupes réflexion et web.

Comme on le voit dans cette exemple, il est possible d'utiliser le même mécanisme d'adresse web pour obtenir une ressource classée avec des tags qu'une ressource placée dans une arborescence. L'unique différence se situe dans le fait que les tags peuvent être mis dans une ordre quelconque alors que pour une arborescence l'ordre à son importance.

On remarque donc ici, que la forme des URL proposées pour piloter les applications web a une grande importance. Si l'url n'est pas bien formée il peut être impossible de l'utiliser avec une barre d'adresse intelligente.

La fondation Mozilla est donc déjà en avance dans le domaine de la ligne de commande moderne. Et ce n'est pas fini, dans les laboratoires de Mozilla on trouve l'extension Ubiquity qui est une interface par ligne de commande dont le but est d'être le plus proche possible du language humain.

L'interface homme machine du futur

Après ces quelques exemples de futurologie déjà bien ancré dans le présent, (les exemples ci-dessus sont des exemples bien réels qui sont utilisés quotidiennement) le but est maintenant de tenter d'imaginer l'interface utilisateur du futur.

On a déjà dit que la métaphore du bureau est totalement dépassée. Donc que vais-je voir sur mon écran d'ordinateur si il n'y a plus de bureau, de dossier et de fichier ?

Comme nous l'avons vu ci-dessus, l'interface utilisateur du futur comportera certainement une ligne de commande intelligente capable de comprendre de requête proche du language humain. La notion de fichier sera remplacée par la notion de ressource. Une ressource peut être une image, un document, une personne, un lieu, etc...

Pour utiliser une ressource, il n'y aura pas besoin de disposer d'une application. La notion actuelle d'ouvrir un fichier avec une application va disparaître. A l'avenir il faudra juste demander d'éditer la ressource. La ressource porte en elle même toute la machinerie qui permet l'éditer. Ainsi, plus de problème de mise à jour des applications ou de compatibilité des formats. La ressource est auto-gérable au travers du navigateur web.

Les mondes du web et de l'informatique vont totalement fusionner. L'ordinateur ne sera qu'un terminal d'accès à des ressources web.

Les ressources crées ne seront plus cantonnées au disque dur de son propre ordinateur, elle seront directement posée sur le web. Physiquement, elle seront sur un serveur web quelque part, le mieux étant directement sur le serveur web de sa maison. Cette approche permet d'avoir des ressources qui sont disponibles pour soi évidemment, mais également pour tout ceux qui ont le droit d'y accéder. Il devient ainsi beaucoup plus facile de partager des ressources vu qu'elle sont en permanence en ligne.

Seul bémol, la connexion réseau est alors indispensable pour tout ordinateur! Cependant, on peut assouplir cette dépendance en utilisant un mode déconnecté qui permet le travail en local sur son ordinateur, et qui ensuite synchronise les ressources locales et distantes dès qu'une connexion réseau est retrouvée.

Et mon bureau alors qu'est ce qu'il devient ?

Cette question devrait plutôt être posée sous la forme suivante: Quel est mon point de départ quand j'allume mon ordinateur ?

Dans l'interface graphique de la métaphore du bureau, le point de départ est le bureau, une surface sur laquelle on peut déposer ce que l'on utilise souvent, une surface qui peut être personnalisée. Le fond d'écran est un bon exemple pour montrer que c'est une surface que les gens aiment personnaliser.

Dans les dernières évolutions des interfaces utilisateurs graphiques, la métaphore du bureau a tout de même beaucoup perdu en importance. C'est surtout depuis que l'on a réintroduit les systèmes d'exploitation multi-utilisateurs. Le but était de disposer à nouveau de fonctionnalités réseau de bas niveau. On a donc ressorti et modernisé les anciens systèmes d'avant la métaphore du bureau (unix).

Ces systèmes étaient tous basés sur la notion de point de départ propre à chaque utilisateur. On l'appelle souvent le dossier home. La maison. En remettant au gout du jour ces systèmes, on a également induit une modification dans la manière de concevoir le point de départ de l'utilisation d'un ordinateur.

Dans un système comme MacOSX, il y a clairement une rupture par rapport au passé. Il y a un changement profond du paradigme de fonctionnement: le bureau n'est plus qu'un dossier posé dans le point de départ. Ce n'est plus la base sur lequel on trouve le disque dur!

MacOSX introduit également une autre nouveauté. Le Dock. Cette barre est un espace à disposition de l'utilisateur pour mettre des raccourcis vers des documents ou des applications qu'il utilise fréquemment. Il vole un peu le rôle que jouais le bureau.

L'interface du futur va donc certainement être centrée sur l'utilisateur. L'utilisateur débute son activité sur son ordinateur dans sa maison, dans son point de départ. Ce lieu, est un lieu que chaque utilisateur peut personnaliser à souhait. C'est également le lieu où il est notifié de nombreuses sources d'information et de l'activité de ses amis. On retrouve cette idée dans l'interface utilisateur du XO et surtout sur les réseaux sociaux tel que facebook.

L'idée que l'on trouve dans cette nouvelle interface utilisateur est donc que le point de départ comporte également une sort de Dock dans lequel on peut placer des raccourcis sur des ressources que l'on veut garder à proximité.

Pour le reste des ressources, l'idée d'une interface utilisateur telle que celle du projet Aurora est probablement une piste importante.
Aurora utilise une classification de ressource par groupe et permet de concrètement voir les groupes et les intersections entre les groupes. L'interface graphique d'Aurora présente une foule de ressources diverses et variées qui sont une multitude d'icônes flottantes.

La dimension temporelle est importante dans l'interface d'Aurora. Les ressources récentes sont en avant plan, et moins une ressource est utilisée, plus elle s'enfonce dans le lointain jusqu'à disparaître. Si l'on veut retrouver un ancien document, il est possible d'utiliser le zoom pour remonter dans le temps et retrouver la ressource désirée.

Messagerie

Dans ce nouveau modèle d'interface utilisateur, la messagerie e-mail n'existe plus. Le e-mail est un système conçu au tout début de l'ère des réseaux et n'est pas adapté à une utilisation moderne.

Mais alors comment allons nous communiquer ?
Un message n'est finalement rien d'autre qu'un document. Il suffit donc de produire le document voulu sur son espace web. Puis de restreindre l'accès au destinataire uniquement (et à soi). Et enfin, il faut notifier le destinataire de la présence d'un document à son attention.

La notification peut se faire via un flux atom par lequel un le destinataire reçoit les notifications de notre propre activité.

Pour communiquer, actuellement, on voit beaucoup de gens qui utilisent une application de traitement de texte pour composer un document. (souvent word) Puis se document est enregistré sous la forme d'un fichier dans un dossier sur son disque dur. Ensuite, il faut composer un e-mail avec une application de messagerie et ce e-mail se résume souvent à une phrase du genre: voir la pièce jointe en annexe. Pièce jointe qu'il ne faut pas oublier d'ajouter !
L'application de messagerie va donc permettre à l'expéditeur de choisir le fichier préparé précédemment dans le bon dossier sur son disque dur et de l'ajouter au message e-mail. Puis, enfin, l'envoi se fait.

C'est compliqué non ?

Dans notre nouvelle interface web, il suffit de demander à son ordinateur de créer un nouveau document. Puis, une fois celui-ci terminé, il faut le taguer avec le mot-clé qui est prévu pour les documents faisant partie du flux de notification de son destinataire. Cette phrase barbare signifie que si je veux envoyer un message à toto, je vais taguer mon document avec un tag du genre pourToto.

Et si j'ai fait une erreur, ce n'est pas grave, vu que le document est sur le web, il me suffit de modifier mon document et Toto va toujours télécharger la version à jour du document.

Domaines de recherche et services contextuels

Lorsque nous avons abordé la question du moteur de recherche, nous avons omis de parler des domaines de recherche. Qu'est ce que l'on entend par là ?

Le domaine de recherche est en quelque sorte le lieu dans lequel on cherche. En effet, il y a plusieurs types de recherche. On peut rechercher:

  • Dans ses propres documents (spotlight)
  • Dans les documents que l'on a déjà visité. (awesome bar, del.icio.us)
  • Sur le web complet. (ce que fait google)

Il y a donc plusieurs lieux de recherche qu'il faut préciser.

A cela, s'ajoutent les services contextuels.

Une fois l'informatique et le web totalement fusionné, il est possible de concevoir que n'importe quel appareil communiquant puisse être accessible depuis n'importe quel terminal web.

Si l'on intègre des moyens de communication dans tous les appareils, il devient ainsi possible de trouver, par exemple, une machine à café dont l'interface de commande est un service web.

Grâce à ma ligne de commande, je peux demander: nouveau café sucre, et la machine à café la plus proche de moi va me faire un café et ajouter du sucre.

Avec cet exemple, on remarque que le web peut devenir une interface homme machine universelle. Tout appareil peut être commandé avec la même ligne de commande.

Il ne suffit plus que de connaître le service et les options qu'il propose. C'est là qu'intervient la notion de service contextuel. Un service contextuel est un service qui se propose spontanément à l'utilisateur, car il sait qu'il est dans voisinage proche.

Si l'on reprend l'exemple de la machine à café, il ne m'est pas très utile de me préparer un café sur une machine à l'autre bout du monde. Par contre, étant à mon bureau, j'aimerai bien me préparer un café sur la machine de la cuisine.

Donc sur mon point de départ, en plus de mes ressources favories, et mes notification diverses, je dispose également d'un aperçu de services locaux qui sont disponibles.

Je pourrais ainsi découvrir que sur mon réseau local, j'ai une machine à café, mais également une télévision, la commande des lumières, la commande du chauffage, et les informations de la station météo locale.

Ce genre de service est déjà disponible. Par exemple, dans le navigateur web Safari, dans les bookmarks il y a l'onglet Bonjour qui indique les services se signalant sur le réseau local via le protocole Bonjour. (zeroconf)

Moelleux au chocolat

Après bien des promesses et une longue attente.... enfin... j'ai pu goûter au moelleux au chocolat !! mmm smile rire

Recette de Carine

Ingrédients pour 4 personnes

  • 100g de chocolat noir + 8 carrés
  • 3 oeufs entiers
  • 80g de sucre en poudre
  • 50g de beurre
  • 1 c à soupe de farine
  • beurre et farine pour les moules.

on y va...

  • Faire fondre les 100g de chocolat noir au bain-marie ... en fait non... on s'en fou du bain... il faut juste pas brûler le chocolat sinon c'est foutu !
  • Incorporer le beurre coupé en petites parcelles tout en remuant à l'aide d'une cuillère en bois.
  • Dans un saladier, mélanger les oeufs entiers avec le sucre en poudre et la farine.
  • Incorporer le chocolat noir fondu et mélanger intimement !
  • Verser 1/3 de la préparation au chocolat dans quatre ramequins préalablement beurrés et farinée. Y déposer 2 carrés de chocolat noir.
  • Recouvrir avec le reste de la préparation au chocolat...
  • Mettre les ramequins au four, préchauffé à 260°C pendant 10 minutes environ.
  • Démouler les moelleux au chocolat.

... de plus il est possible de mettre de la crème fouettée dessus... mmh..

Puis dégustation...

2007_07_26_19_43_IMG_2757.jpg


2007_07_26_19_45_IMG_2758.jpg

2007_07_26_19_44_IMG_2760.jpg

 


 

Navigation au sein des articles

1 2 3 211 212 213 214 215 216 217 227 228 229
Remonter