documentation sur Nintendo et les sons des vieux jeux vidéos

Infos à propos de Nintendo et sons de vieux jeux vidéos

Sources intéressantes..

Musiques et sons:

sons de Mario Bros selon les archives sons que l’on trouve par ici:

Le site d’archives de sons de jeux vidéos http://www.zophar.net/music.html

La musique es au format spc ou nsf. Il faut lire ces fichiers avec un lecteur de fichier spc ou nsf pour mac on peut trouver ça par ici:  http://mac.wareseeker.com/Games/game-music-box-0.5.2b3.zip/322800

Voici les sons typiques de Mario Bros que tout le monde reconnaitra tout de suite.

  • Thème de mario => archive NES => Super Mario Bros => piste 1 (le must !)
  • Thème de mario sombres tunnels => archive NES => Super Mario Bros => piste 2
  • Thème de mario rapide stress peur=> archive NES => Super Mario Bros => piste 4 et 16 plus rapide
  • Thème de mario rapide invincible=> archive NES => Super Mario Bros => piste 5 et 17 encore plus rapide
  • Musique fin de niveau => archive NES => Super Mario Bros => piste 6
  • game over => archive NES => Super Mario Bros => piste 8
  • Thème de mario 2 => archive NES => Super Mario Bros 2 => piste 6 (moins bien)
  • Pièce de monnaie => archive NES => Super Mario Bros 2 => piste 27
  • Pièce de monnaie => archive NES => Mario Bros => piste 11
  • Descente dans le tube => archive NES => Super Mario Bros 2 => piste 31
  • Descente dans le tube => archive NES => Mario Bros => piste 11 (moins bien)
  • décompatage infini du nb de points => archive NES => Mario Bros => piste 5
  • champignons qui fait grandir => archive NES => Super Mario Bros 2 => piste 32
  • champignons qui fait grandir => archive NES => Mario Bros => piste 10 (moins bien)
  • saut loin => archive NES => Mario Bros => piste 13
  • saut près => archive NES => Mario Bros => piste 14

Les sons de tetris:

  • thème tetris => archive gameboy => Tetris => piste 2
  • bruitage tetris rotation => archive NES => Tetris => piste 16
  • bruitage tetris déplacement => archive NES => Tetris => piste 14
  • bruitage tetris pose de pièce => archive NES => Tetris => piste 18
  • bruitage tetris pose rapide => archive NES => Tetris => piste 22
  • bruitage tetris suppresion de ligne => archive NES => Tetris => piste 21
  • bruitage tetris carambolage => archive NES => Tetris => piste 24 puis 25

(les différents bruitages du jeux sont encore à vérifier.. je ne suis pas certain de tout !)

La musique de tétris la plus connue est celle qui était conçue pour la game boy.

Dans l’archive NES « tengen tetris » il y à aussi des sons plus modernes et donc plus riches. (la rotation par ex.)

Il y aussi l’archive NES « Pac Mania » avec tous ses sons mythiques.

Sur youtube

 

Fichier:Mario-mushroom.svg

Mots-clés IPTC dans une photo

Mots-clés IPTC dans les photos

Une manière intéressante d’organiser ses photos est d’utiliser les mots-clés IPTC présents dans les métadonnées des photos.

Personnellement, j’attribue toujours à mes photos des mots-clés IPTC. Ainsi quand je fais une recherche sur mon mac spotlight est capable de me retrouver les photos.

Quelques mots-clés que j’utilise fréquement:

  • Portrait => pour les photos que l’on utiliserait pour présenter quelqu’un
  • couple => pour les photos que l’on utiliserait pour présenter quelqu’un, mais quand il y a 2 personnes.
  • Group => pour les bonnes photos de groupes. A partir de 3 personne
  • Landscape => les photos de paysage que je mettrai en fond d’écran
  • panorama => les photos panoramique
  • HDR => les photos HDR
  • sourire => les beaux sourire
  • rire => les gens qui rient aux éclat
  • grimace => les gens qui fond des grimaces
  • profile => les gens de profile
  • lunette => les lunettes ou gens à lunettes
  • chapeau => les chapeau ou gens à chapeau. (ou bonnet et casque que j’ajoute en plus)
  • château
  • lever de soleil
  • coucher de soleil
  • montagne
  • lac
  • lune
  • orage
  • arc-en-ciel
  • rivière
  • herbe
  • fleur
  • silhouette
  • reflet
  • arbre
  • neige
  • lumière => quand il y a une lumière particulière
  • affiche => pour ma collection d’affiche politique
  • fontaine
  • gargouille
  • statue
  • tour
  • feu

…. et beaucoup d’autres qui viennent sur le moment..

Mots-clés IPTC et php

Quand je fais une galerie de photo sur le web. Je vais piocher les mots-clés IPTC dans les métadonnées pour afficher des infos sur la photos ou même directement pour créer des albums.

Voici quelques fonctions php que j’utilise pour aller chercher les mots-clés IPTC dans les métadonnées d’une photo.

 

/* Retourne un tableau contenant les mots-clé IPTC contenu dans le fichier de la photos
*
* @return: array() un tableau de string contenant les mots-clé IPTC de la photos
* @param: $imagePath => le chemin d’accès sur le serveur de la photo. (ou une url)
*/
function getIptcKeywordsFromFile($imagePath){

$size = getimagesize ($imagePath, $info);
if(is_array($info)) {
if (isset($info[« APP13 »])) {
$iptc = iptcparse($info[« APP13 »]);
if (isset($iptc[‘2#025’])) {
return $iptc[‘2#025’];
}else{
return  »;
}
}else{
return  »;
}         
}
}

/* Retourne l’auteur de la photo selon le champ IPTC credit
*
* @return: la valeur du champ iptc credit
* @param: $imagePath => le chemin d’accès sur le serveur de la photo. (ou une url)
*/
function getIptcCreditFromFile($imagePath){

$size = getimagesize ($imagePath, $info);
if(is_array($info)) {   
$iptc = iptcparse($info[« APP13 »]);
return $iptc[‘2#110’][0];            
}
}

Photos verticales

Photos verticales

Cette page à pour but de noter un peu tout ce que je sais sur la gestion de photos verticales.

En effet, je n’ai pas encore tout compris, le comportement est parfois étrange.

En gros, depuis toujours on fait des photos qui ne sont pas carrées ! Donc suivant le sens dans lequel on tourne l’appareil photo, une photo est horizontale ou verticale.

Le plus souvent on fait des photos horizontale vu que notre vision humaine est panoramique. Donc la référence largeur hauteur est basée sur cette vision horizontale.

Donc on peut dire que:

  • une photo horizontale est une photo qui a une largeur plus grande que la hauteur. (l>h)
  • une photo verticale est une photo qui a une largeur plus petite que la hauteur. (l

Jusque là tout le monde est d’accord.

En argentique, on a une film qui dispose d’une surface sensible à la lumière. Cette surface est toujours orientée de la même manière. Il n’est possible de faire que des photos horizontales.

Au moment de développer et tirer les photos, on utilise le même papier et le même traitement de fait sur toutes les photos.

Au moment de regarder sa pile de photo sur papier, on retourne instinctivement chaque photo pour voir les verticales dans le bon sens. Pas de problème.

En numérique. Une photo c’est un assemblage de pixel qui correspondent à la lumière enregistrée par un capteur. Comme le film, le capteur est fixe. Il prend toujours les photos en horizontal.

Puis les photos sont transférée de la mémoire de l’appareil photo à la mémoire d’un ordinateur. Au moment de regarder les photo sur un ordinateur, les photos sont toute dans le même sens: horizontale. Donc pour regarder les photos, comme avec la pile de photo papier on retourne la photo.

Pour simplifier un visionnage ultérieur des photos, il est possible d’enregistrer le sens dans lequel est la photos. Pour ce faire, il y a 2 méthodes:

  • définitivement ré-ordonner les donnée de la photo pour qu’elle s’affiche avec des dimension différente et donc une orientation différente.
  • placer une information dans le fichier qui dit au logiciel de retourner la photo au moment de l’afficher.

Historiquement c’est la première méthode qui est la plus courante. Elle demande des ressources une fois et pas à chaque affichage pour retourner la photo. C’est la méthode traditionnelle. Elle a pour inconvénients de devoir réécrire un fichier existant, et cette manipulation est souvent source de problème de perte d’information.

En effet, actuellement, il y a de plus en plus de méta-données dans une photo et le risque de les perdre est grand suivant les logiciels utilisé pour réécrire les images. De plus, la qualité est souvent difficile à régler.

La seconde méthode tend à se répendre de plus en plus. En effet, nous avons des machines rapides qui arrivent facilement à retourner les photos à la volée au moment de l’affichage.

Mais surtout, ce sont les appareils photos numériques qui se sont perfectionnés. De plus en plus, ceux-ci sont équipés d’un capteur de position qui permet d’indiquer l’orientation d’une photo directement dans le fichier au moment de sa création. L’appareil photo est, par rapport à l’ordinateur qui va afficher l’image, un ordinateur lent. Il est donc plus facile pour l’appareil photo d’écrire une indication sur l’orientation de l’image que de ré-ordonner complètement les données de la photos pour la retourner.

Ainsi, il existe dans les photos, des méta-données, des données sur des données… Pour les caractéristiques techniques c’est la norme EXIF qui est utilisée. C’est un format dans lequel chaque appareil photo va enregistrer les réglages et les conditions dans lesquelles la photos est prise.

L’orientation de la photo est donc enregistrée dans un des champs de données exif le champ: orientation.

D’après les spécifications EXIF, le champ orientation contient une valeur numérique de 1 à 8. La signification explique suivant cette valeur, où se trouve visuellement dans l’image le début des donnée à la ligne 0 et colonne 0, donc le haut à gauche. Le cas horizontal normal correspond à la valeur 1.

  1. la ligne 0 est visuellement en haut de l’image, et la colonne 0 est visuellement à gauche de l’image.
  2. la ligne 0 est visuellement en haut de l’image, et la colonne 0 est visuellement à droite de l’image.
  3. la ligne 0 est visuellement en bas de l’image, et la colonne 0 est visuellement à droite de l’image.
  4. la ligne 0 est visuellement en bas de l’image, et la colonne 0 est visuellement à gauche de l’image.
  5. la ligne 0 est visuellement à gauche de l’image, et la colonne 0 est visuellement le haut de l’image.
  6. la ligne 0 est visuellement à droite de l’image, et la colonne 0 est visuellement le haut de l’image.
  7. la ligne 0 est visuellement à droite de l’image, et la colonne 0 est visuellement le bas de l’image.
  8. la ligne 0 est visuellement à gauche de l’image, et la colonne 0 est visuellement le bas de l’image.

Là ça devient difficile de comprendre le nombre de possibilité. Mais en fait, ça doit tout simplement être, j’ai mon appareil et je le tourne dans un sens avec 4 positions et dans l’autre sens avec 4 positions. Mais il me semble qu’il y a des positions qui sont équivalentes ? Là il me faudrait étudier plus en détail ce que représente les colonnes et lignes.

En simplifiant, ce qu’il faut retenir:

  • 1 = le coin référence ligne 0 colonne 0 est en haut à gauche de la photo. (c’est la position standard horizontale)
  • 8 = le coin référence ligne 0 colonne 0 est en bas à gauche de la photo. (il faut incliner la tête à droite pour voir la photo)
  • 6 = le coin référence ligne 0 colonne 0 est à droite en haut de la photo. (il faut incliner la tête à gauche pour voir la photo)

Les autres position n’arrive pas souvent… je tiens rarement mon appareil photo à l’envers.. et il y a même des positions que je ne comprends pas vraiment !

Donc on va s’en tenir à ce qui est le plus courant. Si je résume, mon logiciel quand il va lire les infos, il doit se dire: je lis la balise exif orientation, si je vois un 1, je ne fait rien de spécial, si je vois un 8 je fais une rotation dans le sens trigonométrique et si je vois un 6 je fais une rotation dans le sens des aiguilles d’une montre.

Détail de la signification des nombres

d’après.. http://owl.phy.queensu.ca/~phil/exiftool/TagNames/EXIF.html

  1. = Horizontal (normal)
  2. = Mirror horizontal
  3. = Rotate 180
  4. = Mirror vertical
  5. = Mirror horizontal and rotate 270 CW
  6. = Rotate 90 CW
  7. = Mirror horizontal and rotate 90 CW
  8. = Rotate 270 CW

Maintenant que la théorie est posée, comment se passe la réalité ?

Sur Mac OSX, les applications suivantes comprennent ces balises de rotation:

  • Aperçu
  • GraphicConverter
  • photoshop

Mais, le plus ennuyeux, quelles sont les applications qui ne comprennent pas:

  • Safari
  • Mail
  • Firefox
  • … en bref… les navigateurs web.
  • indesign

iPhoto, comme expliqué plus bas est un logiciel qui comprend cette balise, mais qui ne veut pas l’utiliser !!! En effet, chaque photo avec une indication exif de l’orientation qui est différente de 1 est réécrite dans une version nativement dans le bon sens.

Sur le web, certainement pour des raisons historiques, les photos sont interprétées de manière brut. On ne tient pas compte des balises.

Automator

Automator permet d’effectuer nombre d’opération en piochant par ci par là dans les applications installées.

GraphicConverter propose plusieurs fonctions. Donc la fameuse rotation jpg sans perte de qualité. En sélectionnant cette fonction, il y a un message qui apparaît: Dans la mesure ou la rotation sans perte réécrit les données EXIF de l’image, vous ne pourrez plus afficher des images ainsi modifiées sur un appareil photo numérique.

Ce message sous entend que ce sont principalement les donnée Exif qui sont modifiées… donc est-ce juste la modification de la balise orientation ??? Réponse après le test:

Réponse… le fichier est bel et bien retourné.. mais c’est une rotation effective des données qui est réalisée! Malgré le message, d’avertissement je n’ai vu aucune modification dans l’exif ! Ce sont les données qui ont été réécrites. Les Méta-données IPTC et exif sont inchangées. Les mots-clés sont gardés et avec les accents. Les ressources ont été vidée, l’aperçu n’est plus là !

Le comportement est quasi identique avec le module d’aperçu: pivoter des images . Le fichier est réécrit et la balise exif orientation n’est pas changée.

Aperçu

Comment se comporte aperçu lorsqu’on lui demande d’ouvrir un photo de lui faire faire une rotation et de sauver le fichier. Réponse:

Aperçu effectue des rotations qui sont une modification de la balise exif orientation. Cependant, au moment de sauver, il réécrit la photo avec des paramètres par défaut. L’IPTC et l’exif sont conservés, mais le fichier a été dans mon cas réécrit et les données sont passées de 1012ko à 720k, au moment de sauver, Aperçu n’est pas capable de sauver uniquement l’exif, il sauve et donc recompresse avec les réglages courants. Pourquoi réécrire toute la photo si seul un champ exif est modifié bouh !

GraphicConverter

Essai de rotation en mode standard, manuel. L’image de base se retourne en mode natif, la balise orientation n’est pas touché. La photos est sauvegardée aux paramètres courants. Le hic, c’est que les mots-clé iptc avec accents se sont fait écrasés, l’encodage n’est vraissemblablement pas le même ! C’est étrange, car le module de rotation sans perte de qualité de GC qui est dans automator ne massacre pas les mots-clés accentuées !!

Si l’on prend une photo qui comporte une orientation, et que je fais sauver sous, elle reste identique. rien ne change. Si je prend la même photos, que je bidouille avec des outils (juste la sélection pour ne rien toucher) et que je sauve la photo. GC la réécrit, et cette fois elle est réécrite verticalement. Les informations EXIF sont réécrite, le champ orientation passe de 8 à 1. Et le champ datetime est mis au temps courant. Il ne reste donc plus que original date time pour savoir le moment de prise de vue.

GC en mode gestionnaire: ce mode comporte des réglage qui peuvent être différents, et c’est le mode que j’utilise le plus, alors voyons comment il se comporte.

Pour une photo qui comporte une balise exif orientation égale à 6, si l’on veut la diffuser sur le web, il faut la redresser en faisant une rotation de 90° dans le sens des aiguilles d’une montre. En effectuant cette manipulation à l’aide du gestionnaire d’image de GC, l’image est véritable retournée en donnée et le champ exif orientation reste inchangé. Cette opération ajoute une incohérence. Les logiciels comprenant la rotation exif à la volée tourne inutilement la photo. Par contre sur le web, c’est tout bon. Les méta-données EXIF et IPTC ne sont pas touchée. Ceci par ce que le gestionnaire est configuré pour utiliser une rotation sans perte et ne pas toucher les champs exif. (fait étrange remarqué, dans le gestionnaire, la vignette est aussi retournée mais dans l’autre sens !?!)

Lors d’un second essai, mais avec un photo dans l’autre sens (et des mots-clés iptc accentués) l’image a aussi été tournée, mais pas la vignette !! Les mots-clés sont restés identique.

Maintenant, essai, avec la même photo source, mais dans les préférences l’option ne pas modifier l’exif n’est pas cochée. Le comportement est bien mais pas top ! L’image est véritablement retournée, l’exif est modifié (ou plutôt pollué.. je vois pas à quoi sert de le modifier, l’exif est surtout utile pour avoir les conditions du moment de prise de vue.) L’exif est modifié, mais pas le champ orientation !!! ce qui est un peu débile, car sinon, pourquoi avoir besoin de modifier l’exif !

En ce qui concerne l’option rotation sans perte de qualité je ne dois pas encore avoir tout compris. Moi je vois dans tout les cas que le fichier est réécrit ! Si le même fichier est retourné dans un sens puis dans l’autre, on retombe sur nos patte (?) mais sinon, la compression effectuée par l’appareil photo et celle refait diffèrent quelque peu !

L’ajout de mots-clés dans un fichier via le gestionnaire semble être bien fait, il ne modifie que les champs exif. Avec l’option ne pas modifier l’exif desactivé. (donc GC a le droit de modifier l’exif) Si j’ajoute 20 caractères comme mots-clés, je vois le fichier grossir de 28 octet. Ce qui restent dans le bon ordre de grandeur. Bien.

iPhoto

Comment ça fonctionne tous ça !!! Version 6.0.6 (ouais chez apple cette applications change beaucoup à chaque fois.) Dans mon cas, je prend mon dossier de photos d’essai que je glisse sur l’icon de iPhoto. A ce moment, iPhoto turbine et j’ai une nouvelle sélection dans la photothèque qui comprend mes photos. Par soucis de propreté, je crée un nouvel album, avec la sélection courante de mes dernières photo. Puis en allant explorer le dossier iPhoto Library, je remarque que les photos sont triées dans 3 dossiers, Data , Modified, et Originals. Data contient les vignettes des photos. Modified contient toutes les photos qui ont été modifiées, c’est à dire qu’une photo verticale qui contient juste le champs exif orientation est réécrite en mode vertical natif. La photo est donc modifiée et se retrouve dans ce dossier. Le plus grave dans l’histoire, c’est les dégâts collatéraux. L’exif est très réduit. Il ne reste que quelques rares champs, comme la date de prise de vue originale (heureusement) et l’IPTC est carrément shooté !. Originals contient des alias sur les photos originales. C’est également le seul liens qu’iphoto a avec les photos horizontales qui n’ont pas été modifiées. Donc, dans ce mode la photothèque est en partie en interne au dossier d’iphoto et en partie en externe !!

Le boulot de massacre des photos est assez bien fait, en effectuant une rotation effective des photos, iphoto ajoute une balise exif orientation. Mais s’il en existe déjà une, il ne la modifie pas, non… il ajoute. Ce qui fait que l’exif est endommagé, certains programmes n’arrivent plus le lire! (la fonction php read_exif_data par exemple) Donc, il y a 2 balises orientation. Génial pour tout compliquer.

De plus, le fichier réécrit est plus lourd que l’original. (1.6Mo passe à 2Mo)

Quand iphoto passe en mode édition, un nouveau fichier est créé dans le dossier modified, même quand ce n’est que de la visualisation en plein écran !!!

Lorsque les mots-clés IPTC des photos non modifiées existes, iPhoto est capable de les reprendre pour les utiliser dans sa propre base de données. Sinon, les mots-clés ne sont pas exporté hors de iphoto. Heureusement qu’un module spotlight permet de rechercher aussi dans iphoto, mais cette méthode rend captif l’utilisateur dans ce logiciel qui comme on vient de l’étudier n’est de loin pas parfait, et même plutôt destructeur d’image !

Malheureusement, aucune modification du côté de la version 7.1 de iPhoto ! … l’interface, s’améliore, mais le moteur n’a pas changé du tout !

PictureSync

PictureSync est un logiciel qui est conçu pour automatiser l’envoi de photo depuis iphoto, aperture, ou un dossier, vers le divers services de photo comme flickr, zoomr, ou en dossier etc….

Ce logiciel est capable de lire un grand nombre d’information exif. L’application est capable de faire des rotations. et surtout de voir le champs orientation et d’agir en conséquence. Lorsque PictureSync fait une rotation, il lit le champ orientation, effectue la rotation et modifie le champs orientation !!! C’est le seul logiciel que je connaisse qui prenne la peine de le faire ! Bien! (le seul bémol est une désaturation des couleurs lors de l’opération !)

PictureSync est conçu pour uploader des photo (sur un site ou dans un dossier) et est capable de faire la rotation et le redimensionnement des photo à la volée au moment de l’upload. Il semble que pour ma photo que j’avais déjà triturée (rotation), tout se passe bien. Pour les photos brut, c’est moins bien, le logiciel me signal une erreur de réécriture de l’exif ! (problème d’accès du dossier de destination ?) Suite à ce problème, j’ai perdu les métadonnées. Demande encore quelques essais !

Sinon, le logiciel permet d’éditer bon nombre de champs de méta-données, ce qui est très intéressant. Il y a également la possibilité de faire du géotagging avec google earth. Intéressant !

Créer une galerie web

Mon intérêt pour ce problème de rotation des photos viens surtout d’une application en particulier qui me pose problème. La création de galerie de photo pour le web.

En effet, j’ai développé une galerie de photo en php qui récupère les mots-clés IPTC dans le but de les afficher comme légende ou titre. De plus cette galerie permet de trier les photos en fonction de leur date de prise de vue qui se trouve dans les données EXIF.

Les photos que je dépose sur le web sont donc soumise à quelques contraintes:

  • l’exif doit être conservé
  • l’IPTC doit être conservé
  • les mots-clés IPTC doivent être encodé en UTF-8
  • les photos verticales doivent être nativement tournée. Le champ exif orientation n’est pas compris par les navigateurs web.

Pour afficher des photos sur le web, je ne les mets jamais en plein résolution, ce serait trop gros. J’ai donc besoin de réduire la taille des photos tout en ne perdant pas les méta-données. De plus, j’ai besoin de retourner en mode natif donnée les photos verticales qui ne comporte que l’indication du champ exif orientation.

Ceci parait simple, mais c’est finalement un casse tête! Et cela se complique encore plus, quand comme je le fais, la sélection de photo a traiter est une liste d’alias. (c’est ainsi que je me fais des albums, des sélections de différents fichier du lot de base.)

Questions…

Dans le cas d’un appareil photo qui n’a pas de capteur de position, est ce que la fonction rotation de l’image de l’application transfert d’image fait une rotation véritable ou est ce qu’elle renseigne la balise exif orientation?

Fonction php pour retourner une photo jpg en fonction du flag exif orientation

/* Retourne les données d’une photo jpg en fonction du flag exif orientation.
*
* Utilise jpgetran pour la rotation sans perte de la photo
* Utilise exiftool pour modifier le flag exif orientation après avoir effectué la rotation. http://www.sno.phy.queensu.ca/~phil/exiftool/
*
* Cette fonction effectue une rotation sans perte. Les données sont réarrangée, mais pas recompressée.
* Cette fonction conserve les métadonnées. (exif, iptc, commentaires, jffif, xmp, etc..)
* Cette fonction ne retourne PAS la vignette exif. Elle reste dans la position originale. Cela influence la vue des vignettes dans graphicConverter, l’aperçu en mode colonne du finder.
* Cette fonction recrée un fichier, donc elle modifie la date de création et modification du fichier. (c’est à cause de jpegtran. Exiftool est souple à ce niveau)
*
* Les commandes utilisées sont sur le principe:
* jpegtran -copy all -rotate 270 -verbose -outfile girafe2.jpg girafe.jpg
* exiftool -orientation=1 -n -overwrite_original_in_place girafe.jpg
*
* @return: rien de particulier.. 😛
* @param: $imagePath => le chemin d’accès de la photo sur le serveur. (pas une url)
*/
function rotateJpgFromExifOrientation($imagePath){

// lire le champ exif orientation
$exif = exif_read_data($imagePath);  // todo: bug quand exif n’est pas là… Warning: exif_read_data(dsc_1783.jpg) [exif_read_data]: Process tag(x0000=UndefinedTa): Illegal pointer offset(x4E20434F + x4E494B4F = x9C698E9E > x02C3) in /Users/mdespont/Sites/yopyop/include/manager/photoManager.php on line 468

if ($exif!=false) {

$orientation =  »; // pour tout les cas non prévu, ou la cas orientatio=1 qui ne demande pas de modification.
$orientation = $exif[‘Orientation’];

// si orientation = 8 => retourne de 270
if ($orientation==’8′) {
$angle = « 270 »;
// si le champ = 6 => retourne de 90
}elseif ($orientation==’6′) {
$angle = ’90’;
}else {
$angle =  »;
}

if (!empty($angle)) {

$nomDossier = dirname($imagePath);  // obtient le nom du dossier. Ex: images/photos/2006/toto/toto.jpg devient images/photos/2006/toto
$nomFichier = basename($imagePath);
$outpoutPath = $nomDossier. »/temp_ ».$nomFichier;

// retourne la photo
$commandeRotation = « /usr/local/bin/jpegtran -copy all -rotate « .$angle. » -outfile « .$outpoutPath. » « .$imagePath; // on suppose que jpegtran est dans le path

//    echo « 
commande rotation: « , $commandeRotation;

$output = array();
$return_var = 0;
exec($commandeRotation, $output, $return_var);

// print_r($output);
//         echo « statut: « ,$return_var;

// place le flag orientation à 1. Ce qui signifie que le flux de donnée est correct. Pas besoin de modifier l’orientation à la volée
// cette option ne sert à rien pour le site web en lui même, mais elle est utile si des gens téléchargent les photos depuis le site web pour les utiliser en local.

$commandeFlagExif = « /usr/bin/exiftool -orientation=1 -n -overwrite_original_in_place « .$outpoutPath;  // -overwrite_original_in_place permet de garder l’icon et les ressources Mac. Si on est sur linux, utiliser: overwrite_original qui est moins gourmand

//        echo « 
commande flag: « , $commandeFlagExif;

$output = array();
$return_var = 0;
exec($commandeFlagExif, $output, $return_var);

// print_r($output);
//         echo « statut: « ,$return_var;

// renommer le fichier temp_photo.jpg  en photo.jpg
rename($outpoutPath,$nomDossier. »/ ».$nomFichier);   
}
}
}

Convertisseur de coordonnées géographiques CH1903 WGS84

Conversion de coordonnées CH 1903 vers WGS84

Sur les cartes suisses on utilise le système de coordonnées CH 1903. De plus en plus en cartographie, on utilise des outils avec le système WGS84. Le système global utilisé par le GPS. Comment changer de système de coordonnées.

—— edit en 2019 —

Je vois que le monde a bien changé. En 2009, j’avais eu de la peine à trouver un code de conversion en php. J’ai fini par l’écrire moi même et le publier. En 2019 on en trouve plusieurs et je vois que les liens sont souvent cassé. Ainsi je les mets à jours.
Je profite également d’ajouter un calculateur de longueur du degré de méridien, c’est pas très courant. Le seul que je connais est sur un vieux site en voie de disparition. Ainsi j’ai refait une petite app.
(J’utilise ça pour montrer que le périmètre de la grande pyramide de Gizeh est bien lié à plein d’unité de mesures de la Terre…. )

————–

Programmes online

Swisstopo fourni sur son site plein de services intéressants:

Autres sources

La théorie de la conversion d’unité selon swisstopo

Conversion de coordonnées WGS84 de notation décimale à sexagésimale

Les coordonnées WGS84 peuvent être données dans plusieurs notation différente. Parfois en notation sexagésimale avec des latitude et longitude en degré, minutes et secondes. Parfois la notation est en degré décimale: tout est en degré et virgules de degré. La notation en degré décimale est celle utilisée par google maps. Ex: lat: 46.94952985143932 long: 6.834204196929932

cartographie topographie swisstopo convertisseur wgs84 ch1903

Code PHP de conversion WGS84 – CH1903

Parfois, il est utile de faire la conversion dans un bout de programme. Ainsi voici les fonctions php qui convertissent des coordonnées wgs84 en CH1903 et inversement.

Ces fonctions on été écrites selon les formules fournies par swisstopo. (dans la théorie ci-dessus)

/**
* converti les coordonnées lat long en wgs84 pour avoir des coordonnées ch1903 
* Ex: lat: 46.94952985143932 long: 6.834204196929932 => 553 986/200 005
*
* @return array()  y et x  les coordonnées au format CH1903
* @param latitude en degré décimal
* @param longitude en degré décimal
*/
function getCoordonneeCH1903($lat,$long){
// Les latitudes φ et les longitudes λ sont à convertir en secondes sexagesimales ["]

// Les grandeurs auxiliaires suivantes sont à calculer (les écarts en latitude et en longitude par rapport à
// Berne sont exprimés dans l'unité [10000"]) : 
// φ' = (φ – 169028.66 ")/10000 
//  λ' = (λ – 26782.5 ")/10000 
//
// 3. y [m] = 600072.37 
//  + 211455.93 * λ'   
//  - 10938.51 * λ' * φ' 
//  - 0.36 * λ' * φ'2 
//  - 44.54 * λ'3 
//
// x [m] = 200147.07 
//  + 308807.95 * φ' 
//  + 3745.25 * λ' 2 
//  + 76.63 * φ' 2 
//  - 194.56 * λ' 2 * φ' 
//  + 119.79 * φ' 3

// conversion degré décimal en seconde sexagétimale
// deg = 60 * minutes
// minutes = 60 * seconde
// =>deg = 3600 * seconde
$lat = $lat * 3600;
$long = $long * 3600;

// latitude:  φ =>lat  ( φ' =>lat2)
$lat2 = ($lat - 169028.66)/10000;

// longitude:  λ =>long  ( λ' =>long2)
$long2 = ($long - 26782.5)/10000;

$y = 600072.37 + (211455.93 * $long2) - (10938.51 * $long2 * $lat2) - (0.36 * $long2 * ($lat2*$lat2)) - (44.54 * ($long2*$long2*$long2));
$y = round($y);

$x = 200147.07 + (308807.95 * $lat2) + (3745.25 * $long2*$long2) + (76.63 * $lat2*$lat2) - (194.56 * $long2*$long2 * $lat2) + (119.79 * $lat2*$lat2*$lat2);
$x = round($x);

return array('y'=>$y,'x'=>$x);  // 600000,200000
}

/**
* converti les coordonnées ch1903 en latitude et longitude du système wgs84.
* Calcul selon: http://geomatics.ladetto.ch/swiss_projection_fr.pdf
* Pour des altitudes positives, les 2 systèmes sont équivalents au mètre près. Donc on n'en tient pas compte dans cette fonction.
* Ex: 553 986/200 005 => lat: 46.949532367683 long: 6.8342057996687
*
* @return array()  lat et long  les coordonnées au format wgs84 en notation degré décimale: 46.951081111111,7.4386372222222
* @param x (nord) à indiquer en m au format: 200000
* @param y (est) à indiquer en m au format: 600000
*/
function getCoordonneeWGS84($x,$y){

// 1. Les coordonnées en projection y (coordonnée est) et x (coordonnée nord) sont à convertir dans le 
// système civil (Berne = 0 / 0) et à exprimer dans l'unité [1000 km] : 
//  y' = (y – 600000 m)/1000000 
//  x' = (x – 200000 m)/1000000

// 2. La longitude et la latitude sont à calculer dans l'unité [10000"] : 
// λ'  = 2.6779094 
//  + 4.728982 * y' 
//  + 0.791484 * y' * x' 
//  + 0.1306 * y' * x'2 
//  - 0.0436 * y'3

// φ'  = 16.9023892 
//  + 3.238272 * x' 
//  - 0.270978 * y' 2 
//  - 0.002528 * x' 2 
//  - 0.0447 * y' 2 * x' 
//  - 0.0140 * x' 3

// h [m] = h' + 49.55 
// - 12.60 * y' 
// - 22.64 * x'

// 
// 3. La longitude et la latitude sont à convertir dans l'unité [°] : 
// λ = λ' * 100 / 36 
// φ = φ' *100 / 36

$y2 = ($y-600000)/1000000;
$x2 = ($x-200000)/1000000;

// longitude:  λ =>long  ( λ' =>long2)
$long2 = 2.6779094 + (4.728982 * $y2) + (0.791484 * $y2 * $x2) + (0.1306 * $y2 * $x2*$x2) - (0.0436 * $y2*$y2*$y2);

// latitude:  φ =>lat  ( φ' =>lat2)
$lat2 = 16.9023892 + (3.238272 * $x2) - (0.270978 * $y2*$y2) - (0.002528 * $x2*$x2) - (0.0447 * $y2*$y2 * $x2) - (0.0140 * $x2*$x2*$x2);   

// conversion en °
$long = $long2 *100/36;
$lat = $lat2 *100/36;

return array('lat'=>$lat,'long'=>$long);  //pour y=600000, x=200000 => 46.951081111111,7.4386372222222
}

Je vois qu’il y a également tout ce qu’il faut sur github pour avoir un code de conversion WGS84 to CH1903… ou plutôt LV3 maintenant !
Et ceci dans plein de langages comme C#, Java, php, python, R, SQL… 

Calculateur de degré de longueur de degré de méridien

Comme je l’ai annoncé plus haut. J’ai ajouté un nouvel outil.

Un calculateur de la longueur de l’arc d’un degré d’un méridien. Ce calculateur permet de calculer la longueur d’un arc de l’éllipsoïde de la terre pour 1° de longitude et/ou 1° de latitude et ceci en fonction de la latitude à laquelle on se trouve.

 

Pour ceux que la cartographie intéresse, je recommande de lire aussi tout ce que j’ai écrit à propos de l’outil de cartographie libre OpenStreetMap.
(j’y ai beaucoup contribué à ses débuts.. maintenant je suis plutôt en mode utilisation, notamment les cartes personnalisées sur openStreetMap :p.. donc mes outils d’il y a 10 ans ne sont peut être plus très pertinent.)

L’avenir est au cinéma 3D

….ça c’est fait… depuis la sortie du film Avatar il est quasi certain que l’avenir du cinéma passe par la 3D.

En effet, depuis quelques temps, l’industrie du cinéma cherche à enrayer la tendance au piratage qui diminue la fréquentation des cinémas et la vente de DVD.

La 3D est une aubaine pour faire retourner les gens au cinéma.

L’industrie du cinéma a enfin compris qu’il ne fallait pas se reposer sur ses lauriers, mais innover !

Le succès d’Avatar confirme ma théorie qui dit que les gens ne se bougent pas pour la qualité, mais pour la quantité ou la nouvauté .

Ou autrement dit, les gens sont plus motivés par la nouveauté que par l’amélioration de la qualité. Cela fait des années que presque toute l’industrie du cinéma est passée au numérique. Du tournage au montage et à la distribution en DVD.

Seule la projection dans les cinémas se faisait encore majoritairement en analogique. Cela fait des années que l’industrie du cinéma tente de convaincre les propriétaires de cinéma d’installer des projecteurs numériques en leur promettant une meilleure qualité d’image. Mais rien n’a bougé….. jusqu’à l’arrivée d’Avatar et la 3D.

Le public n’en a rien à faire de voir des différences de luminosité, des taches, des griffures et les fameuses brûlures de cigarette qui ont été popularisée par le film fight club. Le public supporte aisément tout ces petits défauts de la pellicule et n’est pas prêt à payer plus pour ne plus avoir ses désagréments.

Par contre le public est prêt à payer plus pour tester la nouveauté. Le cinéma 3D numérique.

Le cinéma 3D à la maison ?

home cinéma.jpgDonc l’industrie du cinéma se réjoui de pouvoir à nouveau faire déplacer les gens au cinéma grâce à la nouveauté de la 3D. Mais est ce que ça va durer longtemps ? Est ce que l’on pourra bientôt regarder des films en 3D à la maison ?

Moi je pense que oui. On va très prochainement voir les home cinema. Passer à la 3D. Comme la télévision noir et blanc est passée à la couleur. (mais c’est un petit peu plus compliqué)

Pour assurer une démocratisation de la technologie de cinéma 3D à la maison. Il y aura probablement quelques étapes technologiques à faire. Car il y a de nombreuses manières de projeter un film en 3D. Faisons donc un petit tour des technologies de cinéma 3D.

Les technologies de cinéma 3D

Le temps des anaglyphes (lunettes vertes et rouges) est terminé. On utilise des techniques un peu plus sophistiquées pour projeter des images 3D.

« Le Rêve », appareil stéréoscopique français, 1904

Le principe de base est toujours le même et il n’est pas nouveau. Pour voir en 3D, chaque oeil doit voir sa propre version du film. Donc au moment du tournage, il y a toujours deux caméras en parallèle qui filment la même scène mais avec un décalage horizontal de 6,5cm qui est la distance moyenne entre des pupilles humaines.

En soit le cinéma 3D n’est pas une nouveauté. Il y a quelques années j’avais même déjà vu des films en 3D à Neuchâtel, notamment The revenge of the shogun women lors du NIFF. Le producteur avait misé tout son budget sur la 3D et quasi rien sur l’histoire. Bref, la 3D c’était pas top. Avec Avatar, c’est une autre dimension qui s’ouvre. C’est l’ère du cinéma 3D numérique.

Avec l’ancienne technique on utilisait deux projecteurs en parallèle pour avoir une image pour chaque oeil. Avec le cinéma 3D numérique. On utilise une seul projecteur. Mais on alterne temporellement les images destinées à l’oeil droit ou à l’oeil gauche.

Pour un cinéma

Actuellement, on trouve plusieurs techniques de cinéma 3D qui s’affrontent:

  • realD: avec des images polarisées
  • dolby 3d: avec des couleurs de base rouge, vert et bleu différentes pour chaque oeil.
  • 3D Xpand: avec des lunettes actives qui masquent pour chaque oeil l’image qui ne lui est pas destinée.

XpanD shutter glasses

Le système 3D Xpand n’est pas très pratique pour des salles de cinéma. Avec 400 places, il faut 400 paires de lunettes ! Il faut les nettoyer. Ce sont des lunettes bourrées d’électronique. Il y aura facilement des pannes. Ce n’est pas la bonne technologie pour des cinémas. En revanche c’est probablement la plus simple pour la maison. On y reviendra.

Pour les cinémas, la technologies Dolby 3D semble être sympa, mais elle requiert des filtres assez complexes pour filtrer par interférence les longueurs d’onde des couleurs qui sont destinées à l’autre oeil. Le filtre est un mille-feuille de 50 couches et il atténue pas mal la lumière. Moi j’étais au premier rang, je n’ai pas remarqué, mais il semble que si l’on est loin de l’écran, la luminosité n’est pas terrible. Surtout que le projecteur numérique a déjà moins de luminosité qu’un projecteur pour film argentique.

RealD glasses.

Le système qui semble le plus populaire pour les cinémas, c’est le système de reald qui fonctionne avec une lumière polarisée. Chaque oeil reçoit l’image qui lui est destinée par l’intermédiaire d’une paire de lunette avec des verres polarisés. Les lunettes sont moins complexes et donc moins chères.

La subtilité de la lumière polarisée, c’est que dès qu’elle est réfléchie, elle risque de changer de polarisation. Ce qui n’est pas du tout ce que l’on veut si l’on projette l’image sur un écran !

Donc l’écran doit être spécial pour utiliser un système reald. Il est fait avec de l’argent ou de l’aluminium pour réfléchir la lumière sans changer sa polarisation. (de toute façon avec un projecteur numérique qui émet moins de lumière il faut changer l’écran)

Pour aller plus loin dans la technique: lire le pdf détaillé du fonctionnement du système 3D de RealID

Pour la maison

Si dans les cinémas, la 3D semble être à maturité, pour ce qui est des technologies utilisables à la maison. Rien n’est encore joué.

Ce qui est certain, c’est qu’il faudra se ré-équiper. Mais avec quoi ? Il y a plusieurs possibilités:

Dans un avenir très proche, le système qui va l’emporter est certainement celui pour lequel il y a le moins de matériel à changer. Donc c’est probablement un système de lunettes à obturation comme celui de Nvidia qui va se populariser.

Si dans un cinéma devoir gérer des centaines de paires de lunette active pose un problème, à la maison gérer juste quelques paire semble tout à fait possible.

L’étape suivante sera certainement l’écran LCD à lumière polarisée. Actuellement il n’existe que l’écran Zalman Trimon. Mais dans un proche avenir d’autres écrans de ce type vont arriver.

Ainsi seules de simples lunettes polarisées sont nécessaires pour regarder un film 3D.

Puis l’étape ultime sera l’écran autostéréoscopique comme celui d’ Alioscopy. Cependant on ne verra pas ce genre d’écran  pour le grand public avant 2015. Actuellement les prix sont prohibitifs. On ne trouve ce genre d’écran uniquement dans des aéroports chinois comme écrans publicitaires !

Les formats

Vu qu’il y a de nombreux systèmes, il y a aussi de nombreux formats de films 3D. ça va être de plus en plus la jungle pour convertir des formats et pouvoir les lire sur le bon lecteur dans le format approprié.

On trouve déjà des programmes qui permettent de convertir ou de lire différents formats de film 3D.

L’industrie du cinéma va aussi probablement utiliser l’argument de la 3D pour lancer le nouveau support de donnée BlueRay qui peine à décoller, la plupart des gens de voyant pas l’avantage par rapport au DVD. Comme pour les cinémas, c’est l’effet nouveauté qui va être mis en avant pour vendre des blueRay.

On verra si le BlueRay décolle. Si ce n’est pas le cas, c’est que l’ère des supports de données physique est révolue et que c’est le téléchargement via internet qui est le moyen le plus utilisé par l’utilisateur lambda. Mais ça ne me semble pas encore être le cas.

Rupture de stock de matériel pour cinéma 3D

Cela fait quelques temps que le cinéma numérique en 3D progresse gentiment, car il y a de plus en plus de films qui sont potentiellement visible en 3D. ( Coraline, L’age de glace 3, Là-haut, Numéro 9, Destination finale 4…)

Mais c’est seulement à l’occasion de la sortie de Avatar que la plupart des cinémas se sont équipés de système de projection 3D. Beaucoup de cinémas se sont donc équipés pour la 3D à l’occasion de la sortie d’Avatar qui s’est faite pratiquement le même jour partout dans le monde. (le 16 décembre 2009 à Neuchâtel)

La question que je me pose est: Est ce que cette soudaine demande en installation de cinéma 3D a posé des problèmes aux sociétés qui fournissent et installent les installations 3D ?

Est ce qu’il y a eu des ruptures de stock ? Des cinémas qui n’ont pas pu être équipé à temps d’un système 3D ?

Il semble qu’il y a eu des ruptures de stock de lunette 3D. Mais je n’ai eu aucune source m’indiquant qu’il y a eu une rupture de stock de projecteur.

Pourtant l’étrange expérience que j’ai faite à Neuchâtel me montre que c’est peut être le cas.

Changement de système de projection 3D à Neuchâtel

Le 21 décembre 2009, je suis allé à Neuchâtel au cinéma des Arcades pour voir Avatar. J’y ai vu le film avec des lunettes Dolby 3d. Des lunettes avec filtre de couleurs.

Quelques jours plus tard, en discutant avec mon ami kiki. Nous avons découvert qu’il est allé voir le film le 29 décembre au même endroit, mais qu’il n’a pas eu les mêmes lunettes !

Le système en place était le système de RealD avec des lunettes polarisées.

Pourquoi changer de système juste deux semaines après l’installation ?

Est ce que c’est par ce que le système Dolby 3D est jugé décevant par rapport au système RealD ?

Où est ce que c’est par ce qu’il n’y avait pas de système RealD disponible pour la sortie d’Avatar et qu’il a fallut installer temporairement un système Dolby 3D?

Vital Epelbaum.jpgPersonnellement je penche pour la seconde solution.

Simplement, par ce que dans le journal de la télévision régionale canal alpha du 15 décembre 2009, Vital Epelbaum, le propriétaire des cinémas de Neuchâtel déclare que l’on pourra acheter les lunettes. Mais seulement dans quelques jours !

En effet, lorsque je suis allé voir Avatar, je n’ai pas eu le choix d’acheter mes lunettes dolby 3d, alors que deux semaines plus tard il était possible d’acheter les lunettes polarisée RealD.

Cette petite phrase de Vital Epelbaum me fait penser qu’il savait que le système serait changé entre temps !

Si quelqu’un à des infos à ce sujet, je suis preneur.
En attendant, bon film…. en 3D.

Après Avatar, c’est certainement le très attendu Alice au pays des merveilles qui va encore plus populariser le cinéma 3D… on en reparle dans un mois !

Futur de l’informatique épisode 9 – Interface homme machine du futur

L’interface homme machine du futur

Après ces quelques exemples de futurologie déjà bien ancré dans le présent, (les exemples ci-dessus (tags) sont des exemples bien réels qui sont utilisés quotidiennement) le but est maintenant de tenter d’imaginer l’interface utilisateur du futur.

On a déjà dit que la métaphore du bureau est totalement dépassée. Donc que vais-je voir sur mon écran d’ordinateur si il n’y a plus de bureau, de dossier et de fichier ?

Comme nous l’avons vu ci-dessus, l’interface utilisateur du futur comportera certainement une ligne de commande intelligente capable de comprendre de requête proche du language humain. La notion de fichier sera remplacée par la notion de ressource. Une ressource peut être une image, un document, une personne, un lieu, etc…

Pour utiliser une ressource, il n’y aura pas besoin de disposer d’une application. La notion actuelle d’ouvrir un fichier avec une application va disparaître. A l’avenir il faudra juste demander d’éditer la ressource. La ressource porte en elle même toute la machinerie qui permet l’éditer. Ainsi, plus de problème de mise à jour des applications ou de compatibilité des formats. La ressource est auto-gérable au travers du navigateur web.

Les mondes du web et de l’informatique vont totalement fusionner. L’ordinateur ne sera qu’un terminal d’accès à des ressources web.

Les ressources créées ne seront plus cantonnées au disque dur de son propre ordinateur, elle seront directement posée sur le web. Physiquement, elle seront sur un serveur web quelque part, le mieux étant directement sur le serveur web de sa maison. Cette approche permet d’avoir des ressources qui sont disponibles pour soi évidemment, mais également pour tout ceux qui ont le droit d’y accéder. Il devient ainsi beaucoup plus facile de partager des ressources vu qu’elle sont en permanence en ligne.

Seul bémol, la connexion réseau est alors indispensable pour tout ordinateur! Cependant, on peut assouplir cette dépendance en utilisant un mode déconnecté qui permet le travail en local sur son ordinateur, et qui ensuite synchronise les ressources locales et distantes dès qu’une connexion réseau est retrouvée.

Et mon bureau alors qu’est ce qu’il devient ?

Cette question devrait plutôt être posée sous la forme suivante: Quel est mon point de départ quand j’allume mon ordinateur ?

Dans l’interface graphique de la métaphore du bureau, le point de départ est le bureau, une surface sur laquelle on peut déposer ce que l’on utilise souvent, une surface qui peut être personnalisée. Le fond d’écran est un bon exemple pour montrer que c’est une surface que les gens aiment personnaliser.

Dans les dernières évolutions des interfaces utilisateurs graphiques, la métaphore du bureau a tout de même beaucoup perdu en importance. C’est surtout depuis que l’on a réintroduit les systèmes d’exploitation multi-utilisateurs. Le but était de disposer à nouveau de fonctionnalités réseau de bas niveau. On a donc ressorti et modernisé les anciens systèmes d’avant la métaphore du bureau (unix).

Ces systèmes étaient tous basés sur la notion de point de départ propre à chaque utilisateur. On l’appelle souvent le dossier home. La maison. En remettant au gout du jour ces systèmes, on a également induit une modification dans la manière de concevoir le point de départ de l’utilisation d’un ordinateur.

Dans un système comme MacOSX, il y a clairement une rupture par rapport au passé. Entre mac OS 9 et Mac OS X, Ii y a un changement profond du paradigme de fonctionnement: le bureau n’est plus qu’un dossier posé dans le point de départ. Ce n’est plus la base sur lequel on trouve le disque dur!

MacOSX introduit également une autre nouveauté. Le Dock. Cette barre est un espace à disposition de l’utilisateur pour mettre des raccourcis vers des documents ou des applications qu’il utilise fréquemment. Il vole un peu le rôle que jouais le bureau.

Le prototype du XO en 2006

L‘interface du futur va donc certainement être centrée sur l’utilisateur. L’utilisateur débute son activité sur son ordinateur dans sa maison, dans son point de départ. Ce lieu, est un lieu que chaque utilisateur peut personnaliser à souhait. C’est également le lieu où il est notifié de nombreuses sources d’information et de l’activité de ses amis. On retrouve cette idée dans l’interface utilisateur du XO et surtout sur les réseaux sociaux tel que facebook.

L’idée que l’on trouve dans cette nouvelle interface utilisateur est donc que le point de départ comporte également une sort de Dock dans lequel on peut placer des raccourcis sur des ressources que l’on veut garder à proximité.

Pour le reste des ressources, l’idée d’une interface utilisateur telle que celle du projet Aurora est probablement une piste importante.
Aurora utilise une classification de ressource par groupe et permet de concrètement voir les groupes et les intersections entre les groupes. L’interface graphique d’Aurora présente une foule de ressources diverses et variées qui sont une multitude d’icônes flottantes.

Aurora (Part 1) from Adaptive Path on Vimeo.

La dimension temporelle est importante dans l’interface d’Aurora. Les ressources récentes sont en avant plan, et moins une ressource est utilisée, plus elle s’enfonce dans le lointain jusqu’à disparaître. Si l’on veut retrouver un ancien document, il est possible d’utiliser le zoom pour remonter dans le temps et retrouver la ressource désirée.

Il y a déjà des signes qui montrent l’importance grandissante de la notion temporelle de l’accès aux ressources. Dans l’interface graphique du mac. L’outils de sauvegarde Time Machine a fait son apparition pour retrouver des ressources dans l’état qu’avait son ordinateur à un moment donné.

De son côté, le moteur de recherche google a ajouté fin 2009 un nouvelle fonctionnalité qui permet de faire une recherche de ressources qui ont fait leur apparition dans une durée récente. Un effort a été fait pour intégrer dans le moteur de recherche toutes les conversations en temps réel qui se déroulent sur certain réseaux sociaux. (ex: twitter)

L’ère de la recherche par période temporelle est ouverte.

Futur de l’informatique épisode 8 – Les tags

Les tags

Le système de catégorisation par tags est a été popularisé surtout par le service de galerie de photos en ligne: Flickr.

Ce n’est pas étonnant d’avoir vu émerger ce principe sur un service de photos en ligne. En effet, ce système est bien adapté aux photos.

Si l’on reprend notre exemple précédent des albums photos, on peut le résoudre en taguant les photos du petit dernier avec son prénom, et les photos de noël avec un tag du genre Noel2009. Pour les photos faisant partie des deux ensembles, on leur attribue les deux tags.

La même ressource peut se retrouver simultanément dans plusieurs groupes. Ici c’est bien le terme de ressource qui est utilisé et non plus le terme de fichier. C’est pourtant aussi un paquet d’information. Le terme de ressource est celui qui est utilisé dans la terminologie du web. C’est le R de URL. C’est la ressource qui est pointée par ce système d’adresse.

Si l’on admet que la métaphore du bureau a vécu. Il est donc plus juste d’utiliser le terme de ressource pour désigner ce paquet d’information que l’on veut organiser.

Un système de catégorisation par tag permet de résoudre certains problèmes comme le fait de pouvoir mettre une ressource dans plusieurs groupes en même temps. Mais il en pause aussi d’autres. Vu que l’on peut associer autant de tags que l’on veut à une ressource, le nombre de tag est très souvent plus élevé que le nombre de niveau de dossier que l’on créerait pour faire un équivalent avec une arborescence.

Petit rappel important, le graphe étant la généralisation de l’arbre, il est toujours possible de représenter une arborescence à l’aide d’un système de tag. L’inverse n’est pas vrai.

Moteur de recherche

Nuage de mots-clefs anglais liés au Web 2.0

Dans la pratique, on propose rarement une vue par dossier et sous dossier pour naviguer dans un système de tags. On privilégie souvent le nuage de mot. Dans le nuage, la taille des tags est proportionnelle au nombre d’utilisation de celui-ci. On peut aussi dire qu’il représente la taille du groupe de ressource qu’il forme.

Le nuage de mot est utile pour avoir un aperçu global du contenu que l’on a à disposition. Mais pour retrouver concrètement une ressource on privilégie le moteur de recherche.

Le moteur de recherche est une ligne de commande dans laquelle on indique le type de ressource que l’on veut ainsi que les tags qui permettent de déterminer le sous ensemble que l’on recherche.

Ainsi, par cette fonction de moteur de recherche c’est le grand retour de la ligne de commande qui se profile. Mais au fil du temps elle s’est améliorée. La ligne de commande est devenue plus intelligente. Un des meilleurs exemple est probablement google. Il est possible d’utiliser le champ texte de requête pour non seulement faire une requête, mais aussi pour demander à google de faire un calcul, de convertir des unités, d’afficher le cours de la bourse ou de convertir des monnaies au change actuel.

La ligne de commande moderne reconnaît de plus en plus la syntaxe du language humain. Une fois de plus, on voit que la métaphore du bureau n’est plus utile si l’on peut parler directement avec son ordinateur !

Mais on en est pas encore exactement au point de pouvoir philosopher avec sa machine. En l’état actuelle des choses, la ligne de commande la plus répandue est certainement la barre d’adresse de son navigateur web. Elle permet de faire toutes les requêtes que l’on veut si l’application web qu’elle pointe est bien conçue.

De plus, quand cette barre d’adresse est celle de Firefox 3, c’est encore mieux. En effet, cette barre porte le nom de awesome bar. Ce qui indique que ce n’est pas un bête champ de texte. Non, cette barre est une ligne de commande intelligente. Elle est capable de compléter une adresse déjà connue à partir de quelques bribes de mots.

Ainsi, si je connais un service web dont l’adresse est bien conçue, il m’est presque possible de converser avec lui dans un language proche du language humain.

Voici un exemple concret avec l’ajout d’un document:
L’URL suivante doit être utilisée pour ajouter un document: http://exemple.com/document/?new

Dans la awesome bar, il me suffit de taper: new document example et l’adresse ci-dessus m’est proposée. La seule limitation est le fait que l’adresse doit déjà avoir été utilisée pour être proposée.

Voici un autre exemple qui montre comment demander un document avec des tags. Ma demande est la suivante:

document exemple réflexion web

La awesome bar me propose l’adresse: http://exemple.com/document/réflexion/web/ qui me permet de lister les tous les documents sur exemple.com qui correspondent à l’union des groupes réflexion et web.

Comme on le voit dans cette exemple, il est possible d’utiliser le même mécanisme d’adresse web pour obtenir une ressource classée avec des tags qu’une ressource placée dans une arborescence. L’unique différence se situe dans le fait que les tags peuvent être mis dans une ordre quelconque alors que pour une arborescence l’ordre à son importance.

On remarque donc ici, que la forme des URL proposées pour piloter les applications web a une grande importance. Si l’url n’est pas bien formée il peut être impossible de l’utiliser avec une barre d’adresse intelligente.

La fondation Mozilla est donc déjà en avance dans le domaine de la ligne de commande moderne. Et ce n’est pas fini, dans les laboratoires de Mozilla on trouve l’extension Ubiquity qui est une interface par ligne de commande dont le but est d’être le plus proche possible du language humain.

Bilan d’utilisation de google chrome

Bilan d’utilisation de Google chrome

Le 24 janvier 2010:

Ce que j’aime

  • skin bien géré. (même si il n’y a pas d’aperçu à la volée comme avec les personas de firefox)
  • l’interface prend peu de place elle disparait
  • l’affichage de l’adresse du lien pointé seulement quand il y a besoin. Excellent !
  • affichage de l’url de l’image pointée.
  • gestion des onglets ouvert en seconde position (firefox le fait aussi depuis la version 3.6)
  • affichage des occurrences d’une recherche dans l’ascenseur.
  • la barre d’adresse est autant bonne que l’awsome bar de firefox. Les mots d’une url peuvent être dans le désordre.
  • google sugest pour compléter une url. (ça m’arrive tellement souvent de ne plus savoir si c’est un .net ou .com)
  • la fusion entre la barre de recherche et la barre d’adresse. (on s’approche du concept ubiquity de firefox !)
  • la réactivité
  • la page de nouveau onglet
  • lorsque l’on glisse une photo d’une page sur le bureau elle prend comme nom le contenu de l’attribut alt.. donc dépend des sites.. faut pas oubier de les remplir.
  • greasmonkey est déjà installé !

Ce que j’aime pas

  • Pas de bouton flux atom automatique dans la barre d’adresse. => C’est dans le roadmap de chromium
  • Pas de zoom dans la page avec un agrandissement sur le trackpad. On est obligé d’aller dans le menu.
  • affichage des pdf dans le navigateur ?? à voir si il y a un plugin
  • pas de raccourcis clavier pour faire bold et italique dans tinymce.
  • pas de copier coller efficace pour tinymce (bref… mauvais support de tinymce ce qui n’est pas pratique pour ce site)
  • pas de recherche directe dans la page à la premier touche pressée
  • l’extension pour delicious est moins bien que celle de firefox.
  • J’arrive pas à glisser une url sur mon bureau pour en faire un bookmark !

Le 16 août 2011

Chrome s’est bien amélioré, et firefox… c’est dégradé dans mes utilisations.. au point d’avoir un bug qui fait mouliner mon mac régulièrement… j’ai donc migré sur chrome…

Voici ce que je reprochain à Chrome, mais qui s’est résolu:

  • Toujours pas de bouton flux atom.. mais firefox l’a enlevé !! … horreur.. donc on est à la même !
  • Le zoom est possible au trackpad 😀
  • les pdf s’affichent dans le navigateur 😀 (alors que mon plugin firefox ne le fait plus !!)
  • toujours pas de bon support tinymce pour ce site.. mais c’est surtout à cause de ma version.. à voir.
  • la rechercher directe n’est toujours pas là.. 🙁
  • l’extension delicious est finalement pas trop mal… celle de firefox étant devenue moins bien suite à la vente de delicious !
  • je peux glisser l’url pour en faire un book mark..

Bilan, Chrome est devenu très bien par rapport à firefox…  Le seul bémol que je vois, c’est la barre intelligente qui n’est pas aussi intelligente que celle de firefox..

Même avec l’option de lecture discontinue des mots activé dans les options à l’aide de l’adresse: about:flags

Futur de l’informatique épisode 1 – Histoire de l’informatique

Une nouvelle décennie

Voilà, ça c’est fait. Voici déjà 10 ans que nous avons fêté en grande pompe le passage à l’an 2000 !

L’an 2000 était le symbole du futur pour tous les gens du 20ème siècle. En l’an 2000, il y aura des voitures volantes !

Imprimerie du XVe siècle

De nombreuses prédictions futuristes ont été faites, certaines ce sont réalisées et d’autres pas. Une des révolutions de la dernière décenie (et un peu plus) qui n’avait pas tellement été cernées, est cette massive accélération de l’utilisation des technologies de l’information. Le téléphone mobile, l’utilisation quotidienne du web. Ce sont des changements majeurs de l’évolution de notre société et d’après moi, ça ne fait que commencer.

Cette décenie, nous avons assisté à une révolution technologique et maintenant nous allons assister à une révolution de l’organisation de notre société qui est induite par cette révolution technologique.

Nous sommes encore en phase de transition. Ceux que l’on appelle les Digitals natives, ceux qui sont nés à l’ère du web et qui n’ont jamais vécu une époque non connectée, arrivent gentiment à l’age de prendre leur autonomie et de participer activement à l’évolution de notre société.

La dernière révolution dans le domaine des technologies de l’information c’était il y a 500 ans. C’était l’invention de l’imprimerie. La diffusion massive de bible a entrainé la réforme. La fin de la ma mise toute puissante de l’église catholique.

Que va changer l’utilisation massive du web ?

Il y  a un intéressant travail de pronostique à faire à ce niveau là. Comme c’est assez difficile, tout d’abord nous allons refaire l’histoire du web, de son évolution et tenter de dégager dans quelle direction il va évoluer.

Pour éviter de balancer d’un coup un texte énorme avec de nombreuses chose à comprendre. Je vais échelonner toute ma réflexions en une dizaine d’épisodes dont voici le premier.

Futur de l’informatique – épisode 1: Histoire de l’informatique

Le web étant tout de même un outil informatique, il n’est pas inutile d’avoir un bref aperçu de l’histoire de l’informatique.

Pour rappel, l’informatique est donc la science du traitement automatique de l’information. Donc tout notre propos ici va être en rapport avec le traitement de l’information. Nous allons commencer notre histoire dans les années 1950-1960

Le temps des mastodontes

Dans les première heure de l’informatique, un ordinateur était principalement une machine à calculer. Par exemple, si l’on devait faire un calcul statistique, on préparait le calcul, on le convertissait en langage compréhensible pour une machine, puis on demandait à l’ordinateur de faire le calcul et enfin on récupérait le résultat pour l’analyser. Le tout prenait plusieurs jours. L’interactivité était quasi nulle.

Le terminal

Puis, les ordinateurs sont devenus plus courants, il y avait un ordinateur par université ou par grande entreprise. Pour optimiser le partage de l’ordinateur auquel on avait accès, on a inventé le terminal.
Le terminal est une bête console qui permet d’envoyer des commandes textuelles à l’ordinateur au travers d’un réseau informatique.

C’est le début des réseaux informatiques. On a donc commencé à inventer quelques services en réseau. Comme la messagerie. Il est ainsi devenu possible de laisser un message pour un autre utilisateur du même ordinateur. (1969)

Puis on a commencé à interconnecter les ordinateurs entre eux. C’est ainsi que la messagerie s’est développée, il est devenu possible de laisser un message à un utilisateur d’un autre ordinateur, c’est ainsi que l’on a utilisé le caractère @, maintenant très connu, pour délimiter le nom de l’utilisateur et le nom de l’ordinateur sur lequel trouver l’utilisateur: Le e-mail était né !

La micro-informatique

Le coût de fabrication des ordinateurs étant de plus en plus faible, vers la fin des années 1970, on a vu apparaître des ordinateurs plus petits, destinés a une seule personne, des micro-ordinateurs.

Souvent on trouvait ces ordinateurs en kit à fabriquer par des passionnés. A l’époque, il fallait savoir bricoler et programmer pour utiliser un ordinateur. On disait qu’à l’avenir, tout le monde allait apprendre à programmer!

C’est à cette époque que se sont créés les géants de l’informatique comme Apple et Microsoft.


Apple a démocratisé l’ordinateur en créant un ordinateur complet et simple a utiliser. Fini les kits à bricoler pour les geek. Apple fourni un ordinateur complet avec des programmes tout fait et simple d’utilisation. Personne n’a besoin de savoir programmer pour utiliser un ordinateur.

Microsoft de son côté a aussi repris l’idée qu’un ordinateur peut être utilisé par tout le monde si on fourni déjà le logiciel qui va avec. C’est ainsi que Bill Gates a entourloupé les gens de chez IBM en leur fournissant un système d’exploitation pour la nouvelle machine d’IBM. Le Personnal Computer: PC. Les gens de l’époque, chez IBM, n’ont pas réalisé que le logiciel allait prendre plus d’importance que le matériel.

C’est ainsi que l’on ouvre l’ère de l’informatique chez monsieur et madame tout le monde. L’ordinateur permet de faire de nombreuses choses que l’on ne pensait pas auparavant. C’est à cette époque qu’une véritable révolution apparaît dans l’informatique.

Le métier de typographe a été le premier à subir la révolution numérique. L’arrivée du Mac capable de faire de la mise en page a tué la profession. Le traitement de texte informatisé s’est généralisé pour tous les textes, de la simple lettre au roman.

cinéma en 3d

Cinéma en 3D

Les technologies

Actuellement (début 2010), il y a 3 technologies qui s’affrontent.

  • reald: avec des images polarisées
  • dolby 3d: avec des couleurs de base rouge, vert et bleu différentes pour chaque oeil.
  • 3D Xpand: avec des lunettes actives qui masque pour chaque oeil l’image qui ne lui est pas destinée.

Le système 3D Xpand n’est pas très pratique pour des salles de cinéma. Avec 400 places, il faut 400 paires de lunettes ! Il faut les nettoyer. Il y aura facillement des pannes. Ce n’est pas la bonne technologie pour des cinémas. En revanche c’est probablement la plus simple pour la maison. On y reviendra.

Pour les cinéma, la technologies Dolby 3D semble être sympa, mais elle requiert des filtres assez complexes pour filtrer par interférence les longeurs d’onde des couleurs qui sont destinées à l’autre oeil. Le filtre est un mille-feuille de 50 couches et il atténue pas mal la lumière. Moi j’étais au premier rang, je n’ai pas remarqué, mais il semble que si l’on est loin de l’écran, la luminosité n’est pas terrible. Surtout que le projecteur numérique a déjà moins de luminosité qu’un projecteur pour film argentique.

Le système qui semble le plus populaire pour les cinémas, c’est le système de reald qui fonctionne avec une lumière polarisée. Chaque oeil recoit l’image qui lui est destinée par l’intermédiaire d’une paire de lunette avec des verres polarisés. Les lunettes sont moins complexes et donc moins chères.

La subtilité de la lumière polarisée, c’est que dès qu’elle est réfléchie, elle risque de changer de polarisation. Ce qui n’est pas du tout ce que l’on veut si l’on projette l’image sur un écran !

Donc l’écran doit être spécial pour utiliser un système reald. Il est fait avec de l’argent ou de l’aluminium pour réfléchir la lumière sans changer sa polarisation. (de toute façon avec un projecteur numérique qui émet moins de lumière il faut changer l’écran)

Tous les détails sur le site web:

http://tpe3d.e-monsite.com/accueil.html

 

A neuchâtel

A l’occasion du film avatar, deux salles à Neuchâtel et à la Chaux-de-fonds ont été équipée de projecteurs 3D.

Le 16 décembre 2009, la première projection 3D publique a eu lieu. Cependant j’avais déjà vu des films en 3D à Neuchâtel, notamment The revenge of the shogun women lors du NIFF. Mais ce film ne fonctionnait pas du tout sur le même principe. D’ailleurs il était nul ! C’est pour ça qu’il était présenté ! Le producteur à mis tout son budget sur la 3D et quasi rien sur l’histoire. Bref, la 3D c’était pas top. Avec Avatar, c’est une autre dimension qui s’ouvre.

J’ai vu Avatar le 21 décembre 2009. Le système utilisé était celui de Dolby 3D avec des couleurs. Le 29 décembre un ami est retourné au même endroit et il a eu droit à des lunettes polarisée pour le système reald ! Il semble que c’était le premier jour après le changement !

Pourquoi avoir changé de système 2 semaines après la sortie du premier ?? C’était un système de remplacement en attendant le système définitif ?

A la maison

Est ce que l’on peut aussi regarder des films en 3D à la maison ?

Enfin, depuis de nombreuses années, les cinémas on repris une longueur d’avance sur les home cinéma. Il était devenu tellement facile de se faire un cinéma de meilleure qualité à la maison avec un bon beamer. C’était le comble, avec une majorité de cinéma encore équipés de projecteurs argentiques, le cinéma numérique de la maison était meilleur.

Maintenant l’innovation est là. ça relance la course ! Bien !

Donc que peut on faire à la maison ?

Avec le matériel courant, pas grand chose !  Quelques vieux anaglyphes. (rouge et vert)

Sinon, il faut se rééquiper, mais avec quoi ? Il y a plusieurs possibilités:

  • Le projecteur 3D
  • Les lunettes à obturation. Nvidia propose des lunette de ce type avec une cartegraphique qui décode les films 3d
  • Un écran polarisé et des lunettes polarisées simples. (mais pas la même polarisation que pour le cinéma !  circulaire et non linéaire) Dans le genre, il existe l’écran Zalman Trimon.
  • L’écran autostéréoscopique (genre Alioscopy). Il n’y a pas besoin de lunette pour le regarder !

Tous les détails sur ce site:

http://tpe3d.e-monsite.com/rubrique,les-lunettes-a-obturateur,505574.html

Conclusions

Le cinéma en 3D est là. Pour éviter le piratage l’industrie du cinéma va tout sortir en 3D ces prochaines année. C’est finalement la 3D et pas la qualité d’image qui a poussé les cinémas à s’équiper de projecteurs numériques. Ce qui confirme ma théorie qui dit que les gens ne se bougent pas pour la qualité, mais pour la quantité.

Avec du numériques, les cinémas pourront se lancer dans d’autres événements que les projections de film. Il pourront profiter de faire des retransmissions numériques en direct comme des concerts ou du sport. Est ce que lors des multiples événements sportifs de 2010 on verra ce genre de chose ? (JO, coupe du monde de foot et coupe de l’américa)

La 3D à la maison ça va venir. Dans les premières année, il me semble que les lunettes à obturation pourront avoir facilement du succès, vu qu’il suffit d’un équipement qui synchronise l’obturation avec le film. Pas besoin de changer d’écran !

Peut être que de plus nombreux constructeurs vont se lancer dans les écrans 3D ?

Quand la technologies sera vraiment au point et pas chère. On verra des écrans autostéréoscopiques partout. C’est le plus agréable. Il n’y a pas besoin de lunette.

D’ici là il faudra se mettre d’accord sur les formats de film en 3D.

Sur ce site, on trouve déjà quelques infos sur les player et format de vidéos 3D:

http://www.berezin.com/3D/sp_features.htm

Quelques liens:

Posts navigation

1 2 3 4 5 6 7
Scroll to top