холна секцияPranav Mistry, assistant de recherche du Groupe des interfaces fluides du Massachusetts Institute of Technology (MIT) a encore fait sensation avec son nouveau projet présenté par sa directrice de labo Pattie Maes, lors de la conférence TED de PalmSprings en février.
Pour mémoire, Pranav Mistry était l’auteur des post-it nouvelle génération nommés « Quickies » qui ont trouvé un large écho sur le web l’an passé.
Le projet au nom de code « WUW » a été rebaptisé « Sixthsense » pour sa sortie du labo. Cette fois, l’utilisateur n’est pas dans son bureau, il est invité à bénéficier des données disponibles sur internet dans leur quotidien, et ce, sans périphérique spécifique.
Le concept est presque simple, il allie une caméra visualisant à peu près la même chose que son porteur, un (nano) vidéoprojecteur et quatre marqueurs de quatre couleurs pour pouce et index.
La vraie innovation est de proposer une nouvelle alternative aux deux grandes façons de faire de la réalité augmentée :
• Porter des lunettes spécifiques qui sont en fait des écrans semi-transparents où sont affichées des formes ou informations. Cette (vielle) méthode ayant fâcheusement tendance à créer des maux de tête à force de demander aux yeux de faire la netteté à deux distance à la fois (le verre des lunettes très près des yeux et l’environnement plus éloigné).
• voir l’environnement réel à travers un écran qui diffuse la vidéo prise par la caméra, à laquelle s’ajoute les éléments virtuels. (Rappelez-vous du projet MARA de Nokia ou plus récemment du portage de l’API AR toolkit sur iPhone).
Cette fois, on ajoute des infos sur les objets de l’environnement eux-même ; bien sûr il faut des surfaces de projections adaptées (il vaut mieux avoir un ami avec un T-shirt blanc).
Les fonctions développées sont relativement classiques (celles que les adeptes de la réalité augmentée imaginent depuis longtemps) avec en plus des idées empruntées au monde des périphériques mobiles (avoir tous types d’informations partout tous le temps.)
Une petite vidéo vaut mieux qu’une grande description :
свети атанасUn utilisateur de tablette, smartphone ou autre terminal mobile à écran tactile a besoin de savoir si sa machine a bien comprit qu’il vient d’appuyer sur un bouton virtuel affiché à l’écran. Les concepteurs d’interfaces utilisent principalement deux méthodes (cumulables) pour donner ce retour d’information (feedback) : • Le retour d’effort : en faisant vibrer…
Il y a quelques années que je vous parlais ici même de l’émergence de projets de recherche utilisant le doigt sur une surface plane comme interface homme machine. Des travaux tactiles de Jeff Han (Multi-Touch Interaction dont je vous parlais ici) à ceux sans contact de Andy Wilson (Touch Light, présenté à Laval Virtual en…
En 2006, je travaillais pour la société Nautilus à Laval en tant que chef de projet – développeur. J’ai développé pour le conseil général de la Mayenne un simulateur de trot attelé qui était l’attraction phare de leur stand sur le salon Laval Virtual 2006. Graphisme du simulateur : Développement sous Virtools : Un joueur…
Simulateur immersif 3D réalisé en 2005 pour le pôle enfant de Cholet.Je faisais partie à l’époque d’une équipe d’étudiants du Master réalité virtuelle de Laval (MNRV), et nous avons travaillé avec des infographistes de l”Ecole Supérieure de Création Interactive Numérique (ESCIN). Le simulateur permettait, à l’aide d’un joystick, de se déplacer en vision 1er personne…
Lambda est un groupe de musique Rouennais à qui j’ai prêté main forte pour faire des photos studios et monter quelques mini-clips de promotion. Lambda avait la volonté de mêler leur musique électro-pop à un système multimédia-temps réel pour créer des installations scéniques originales. Voici quelques minis-clips :
Une chaîne YouTube a été créée pour accueillir quelques vidéos faites maison. Archives de travaux vidéos, prises de vue, prise en main de logiciels de montage ou d’effets spéciaux… je vous livrerai de temps à autre quelques clips. Si vous êtres curieux, vous y trouverez déjà quelques vidéos réalisés sous After-Effect avec de l’incrustation de rendus 3d et l’usage…
Réalisé en 2005 – 2006 dans le cadre d’un projet étudiant, la marionnette virtuelle « Dookie » avait pour but de mettre en relation un enfant hospitalisé et un psychologue via un personnage virtuel. Cet avatar, d’animé en temps réel par un psychologue à partir d’un poste de pilotage distant, permettait de discuter avec un enfant dans…
Un court article pour vous présenter cette petit vidéo qui parle d’elle même : Toutes les informations complémentaire et l’API correspondante disponible sur le site de Openni
Des dispositifs artistiques utilisant des flux vidéos temps réel naissent chaque jours à travers le monde. Voici un petit exemple en direct de l’Indiana (US), à la Purdue University de Lafayette. Plus d’infos