Les ami(e)s !
Ce midi je me posais une question à laquelle je ne sais pas vraiment répondre. Je vois de plus en plus de projets fabuleux et orientés utilisateurs qui font la part belle à la gestuelle, au mouvement, mais surtout à l’absence « d’interface physique », à l’absence de l’objet, au « touchless » comme on dit (même si le mot n’est pas exact). Ces interfaces m’interrogent… je m’explique. Vous avez sûrement tous entendu et vu les vidéos du projet Kinect (anciennement projet Natal), vous avez peut-être également vu SixthSense ou encore le travail d’Ishikawa Komuro qui imaginait de manipuler son téléphone sans le toucher.
Et voilà que ce matin, je découvre une souris sans souris qui fonctionne par reconnaissance de la matin et des doigts (mouseless). Ni une ni deux, je pose ma main à côté de ma souris d’ordinateur et simule le geste comme sur la vidéo. Et là, déception, je m’aperçois qu’il est nettement plus fatiguant et moins agréable de simuler le geste de la souris (faire semblant de l’avoir dans la main) que d’avoir la souris en vraie dans sa main. En effet, la main repose sur l’objet, l’objet a un certain poids ce qui me permet aussi d’avoir une certaine retenue dans mon geste, etc. Du confort donc.
J’ai ensuite imaginé me retrouver devant Kinect et faire du baseball… Et faire « semblant » d’avoir une batte de baseball. Où place-t-on réellement ses mains ? Doit-on garder ses mains semi-ouvertes ou les poings fermés ? Jusqu’où mon geste peut-il aller ? Pour m’être déjà servi d’une Wiimote, ces questions trouvaient réponse avec la limitation physique de l’objet, sa prise en main, son retour de force (par le poids par exemple).
Donc voilà, mon interrogation porte sur le réel intérêt de toutes ces interfaces sans objet, sans rien, juste avec ses gestes et son corps pour seul limite, est-ce que cette « révolution » ou « mode » annoncée va réellement prendre ?
Quelques exemples de ces interfaces « du vide » :
Toutes ces vidéos me font vraiment rêver, de la science-fiction réelle… Mais dans la pratique ?
Pour apporter un début de réponse, je dirais que là où cette utilisation est pertinente serait par exemple une fois installé dans mon canapé devant la télévision, il faudrait que je puisse faire « pause » sur mon film rapidement au moment où je me lève et que je sors de la pièce ou que je montre ma main en faisant le geste précis (ce qui est le cas avec Kinect je crois). Ou encore que je fasse le geste « chut » (le doigt sur la bouche) pour couper le son de ma chaîne hifi lorsque par exemple le téléphone sonne. En moins d’une seconde c’est réglé, l’objet devient vivant et me comprend.
Mais je me vois très mal faire le geste de « baisser le volume » (faire semblant de tourner un bouton), au lieu d’appuyer sur le bouton « Volume down » de ma télécommande, ou de taper au clavier dans le vide, ou encore de jouer à Counter Strike en mimant la prise en main d’un Dual Beretta 92F.
Je pense donc que toutes ces interfaces sans objet basées sur le geste et le mouvement ne trouveront leur réelle application que dans des cas assez particuliers et qu’elles trouveront leur force dans les « petits gestes » naturels, que ce soit avec la main ou le visage… Ce qui n’est pas chose facile !
Et vous, les interfaces « du vide » (de l’absence d’objet) sont-elles vraiment l’avenir des systèmes d’interaction ou est-ce que le minimum de mouvement pour le maximum d’efficacité reste ce qui fonctionne le mieux ? Enfin, que pensez-vous de tout ceci ?
[ edit : pensez à vous abonner aux commentaires, ils sont plutôt bien partis ;-) merci à toutes & tous]
Moi, je pense que tu as raison.
Depuis le début de la wii, on a pu voir les limites de ce genres d’interface.
Prenons par exemple les lapins crétins avec les mini jeux font appelle parfois a un effort physique intense (quand on veux battre ses adversaires 😉 ), on voit bien que ces ini-jeux ne dépasse pas la minute.
Le joueur fonctionne à l’objectif, il sait qu’il ya un temps limite, que ça va être court, mais qu’il va gagner quelque chose.
Transporter le moindre effort supplémentaire pour quelque chse qui n’est pas un jeu, de l’art, n’aura pas la chance de voir le jour dans le quotidien de tous.
Yep, je m’étais fait la même réflexion. Toutes ces interfaces font rêver (en regardant Iron Man par exemple :O), mais finalement, je trouve ça assez maladroit comme concept. Rien de ce avec quoi on interagit dans la vie n’est éthéré, on a des retours de force, du contact, etc…
C’est marrant d’ailleurs, au début de l’informatique, on a inventé le wysiwyg, pour rappeler l’environnement de l’utilisateur. Et maintenant, en tentant de plus en plus de faire oublier la machine, on fait disparaître cette métaphore de l’environnement et tout ce que ça a comme signification pour l’utilisateur.
Comme tu le dis, les interfaces sans objets à manipuler sont à la mode, mais sont encore trop limitées par ce qu’on pense être ergonomique. Il faudrait carrément faire abstraction de tous les objets existants, revenir à « l’état de nature » en quelque sorte (merci rousseau), être innocent devant un objet pour pouvoir redéfinir une interface « du vide » qui soit cohérente dans notre manière de l’appréhender.
Ouvrir, fermer la main, pointer du doigts, claquer de la langue, ou tout simplement donner des ordres, pousser ou décaler un hologramme… j’ai l’impression que c’est plus pertinent que la fausse batte de baseball de Kinect qui n’a aucun rendu haptique, et nous empêche de ressentir l’impact ou le retour de force de la balle, afin de nous améliorer.
Il me semble que la gène vient du fait qu’on mime des gestes qui se rapportent à des interfaces du passé, on tourne le bouton du volume parce que le bouton du volume existe, on fait semblant d’avoir une souris entre les mains parce qu’on est encore devant un ordinateur personnel.
Ce genre de problèmes ne se poseraient pas si un mur, l’eau d’une piscine ou un trottoir était notre interface comme dans 6th sense.
Qui aurait eu l’ide de secouer une salade dans une boite en plastique avant Mac Donalds? Les gestes s’apprennent et se désapprennent, alors peut être devrons nous en désapprendre quelques uns.
Le jour où nous simplifieront nos gestes comme le dit ARATTA, avoir une souris entre les mains nous apparaitra peut être aussi désuet que de taper un sms sur un téléphone à touches (rappelez vous: 1touche pour 3 lettres!) lorsque l’on a un Iphone.
J’en ai déjà parlé plusieurs fois à doite et à gauche et bien d’accord avec toi. Il y a toujours ce côté « bluff technique » qui fait que tout le monde s’emballe à la moindre interface Minority-Report-like, y compris dans les conférences de renommées mondiales. Mais au final, beaucoup de vent et de déjà vu pas grand chose. Non, regarder ses mails en projection sur la paroie d’un mérto en s’agitant dans tus les sans n’est pas plus pratique que de les regarder discrètement sur un simple iPhone avec 2-3 mouvements de doigts (CF. 6e sens).
À la rigueur, ce qui pourrait être intéressant avec un projet comme Kinect, ce serait de faire ce que ne fait pas la Wii : reconnaitre précisément les mouvements du corps (et pas simplement les accélérations de mouvements). Toujours aucun intérêt s’il faut sauter à la place d’appuyer sur un bouton pour interagir (ce que j’ai pourtant vu dans les 1res démos de jeu…) mais très intéressant par exemple, pour un jeu de ping-pong virtuel (avec des vrais effets, des vraies positions de raquettes et tout et tout, qui permettent de jouer vraiment).
Globalement, je pense qu’un mode d’interaction ne peux pas en remplacer un autre (même combat côté clavier-souris Vs. écran tactile) mais ils peuvent être complémentaires à condition de trouver les bonnes utilisations pour chaque mode. Arrêter de se lancer dans de la pseudo innovation sous couvert de marketing et d’esbroufe technologique pour attirer le buzz ou le chaland.
Je me souvient avoir eu beaucoup de mal à l’époque, à dompter ma première souris. C’était sous lotus 1-2-3: Le clic validait une entrée dans un menu linéaire et le mouvement permettait de ce déplacer dans celui-ci… C’était réellement inconfortable car toute une série de mouvements n’étaient pas gérés, la sensibilité n’était pas adaptée et la coordination n’était pas la. Puis j’ai connu quatro-pro avec un « vrai » pointeur de souris, suivit par les OS graphiques. Maintenant, le clavier me parait trop contraignant et j’ai (presque) toujours une main posée sur la souris.
La plus grosse différence entre maintenant et avant, c’est le passage d’ergonomistes et de développeurs qui ont trouvé un bon compromis entre la gestion de l’objet et son pilotage, ce qui m’amène à penser que les interfaces du vide suivront la même évolution et que d’ici 15 ans les souris auront rejoint aux oubliettes les lecteurs de disquette 5″ 1/4 et autres lecteurs écrans CGA.
Erfff… le futur des interfaces homme machine, quel grand chantier 🙂
Kinect, les écrans sans contacts et autres joyeusetées du même genre, ne doivent être pris que pour ce qu’ils sont : des étapes vers un interfaçage completement naturel (si tant est que cela signifie vraiment quelque chose). Dans les choses que je trouve intéressantes et qui sont annoncées pour Kinect (même si ce n’est pas au lancement, mais « un peu plus tard ») c’est la gestion du langage des signes américain par ce joujou… et donc la possibilité (du moins c’est ce que j’en deduis, ou plutôt ce que j’en espère) d’interagir différement avec la console.
On touche bien là dans ce qui pourrait être exceptionnel dans ces « nouvelles interfaces » : pouvoir faire abstraction des concepts « informatiques » (fenetres, boutons, etc) tels que définis par les recherches de Xerox/Palo Alto dans les annees 70/80 et passer sur d’autres façons d’interagir avec la machine.
Après tout, MacOsX, Windows, Ubuntu et autres ne font que ré-inventer, encore et encore, des concepts d’interactions qui datent de plus de 30 ans !
@mcarbenay: les notions d »interface » & de « complètement naturel » sont elles totalement envisageables ensemble ? En effet, nous utilisons toujours des interfaces wysiwyg vieilles des 30 ans car se sont des grands classiques intégrés à notre quotidien… mais aussi car ce sont des systèmes qui ont une grande efficacité. Pour travailler sur certains environnements, entre une souris et un écran tactile, il n’y a pas photo, la souris est nettement plus efficace. Je pense donc que ce sont des nouveaux usages (ou usages détournés) que viendront les modifications de nos interfaces et des systèmes d’interactions 🙂 À voir…
@Geoffrey Dorne: Euuuuh, oui, il est clair que pour un traitement de texte, un tableur, etc, le système clavier-souris-fenetre est l’une des meilleures métaphores que l’on puisse envisager, pas forcément parce qu’elle est bonne d’ailleurs, mais comme vous l’avez souligné parce qu’elle est maintenant intégrée à notre vie quotidienne.
En regardant de plus près, mis à part les cas où je suis installé à mon bureau et où je peux vouloir faire 15 choses en meme temps, toutes les autres interactions avec des ordinateurs (au sens large) pourraient se faire sans clavier/souris/fenetre :
1 – un clavier minimal ou virtuel sur mon téléphone portable
2 – pas de souris/fenetre et parfois pas de clavier (ou du moins un clavier super simplifié) dans les « kiosques » tels que D.A.B., guichets automatiques, etc
3 – pas de souris/fenetre sur ma télévision pilotée par media center, freebox, google-tv etc.
4 – pas de clavier/souris/fenetre dans les contrôles domotiques
Si je conviens aisément que 3 et 4 sont de « nouvelles utlisations » et ne concernent que peu de gens, les 1 et 2 sont des cas d’utilisation qui ont maintenant quelques années, les bornes tactiles à la SNCF datent, si je ne me trompe de 1993 avec la mise en place de socrate.
Oui 😎 c’est en effet des interfaces adaptées aux usages, tout simplement 🙂 Il faut donc arriver, je pense, à déceler et découvrir les usages dits « nouveaux » et concevoir les interfaces qui vont bien, une boule que l’on bouge, un geste de la main (voir ces conférences : https://graphism.fr/john-underkoffler-cest-bien-dale-herigstad-cest-mieux et https://graphism.fr/visionnez-la-conference-de-dale-herigstad-designer-d%E2%80%99interface-gestuelle-minority-report-mais-pas-que ), un mot prononcé, un stylet, un clavier (virtuel, je n’y crois pas trop 😉 ), un animal… Allez savoir 🙄
@mcarbenay: Je ne pense pas que l’hyperspécialisation soit une réponse non plus…
Pouvoir écrire des sms au clavier si le téléphone est à proximité du clavier (j’ai le clavier sur le bureau mon téléphone est dans ma poche), piloter ma télé avec un menu sur le téléphone, ou faire un shéma à la tablette graphique quand je suis en conférence skype via ma télé… je penche plutôt à une plus grande possibilité de combinaison d’interface qu’un trio interface/usage/objet figé. Surtout avec l’ajout du reste de la maison (chaine hi-fi connectée, smart grid, domotique, etc.) dans le nuage.
Super Topic.
Les interfaces qui ont de l’avenir sont celles qui reprennent, amplifient et/ou simplifient des gestes « ataviques » (pardon pour l’emprunt). En l’occurrence, pour le très magique Kinect :
– absolument grandiose pour un gamin de devenir Godzilla devant sa télé. Peut être pour un plus grand de faire du air guitar, pour peu que le gameplay du meme de Guitar hero tolère la dérision.
– franchement contestable de faire du skate sans une device ad hoc, voire sans feedback sensoriel.
Mais je suis un peu juge et parti, développant des IHM de réalité mixtes, ou tactiles… 💡
@Nicolas Géraud: Merci pour ce chouette commentaire, comme tu le dis, c’est fabuleux pour un enfant ou… un japonais ? > http://www.youtube.com/watch?v=RUG-Uvq-J-w
personnellement, je limiterais ma reflexion sur le jeu video …
et quand on pense a la wii et a kinect, on pense a casual gaming …
personnellement, je pense que la manette avec c 18 boutons (j’ai pas compté) peut faire peur
« la, je t’explique.. pour tirer, c telle gachette.. pour viser, c celle ci.. pour recharger, c celle la »
en simplifiant l’interface, on simplifie l’utilisation…
« la, tu fais comme une raquette, tu tapes »
mais on perd en precision
( c marrant 5 min mais un TPS/ FPS avec kinect, j’y crois pas trop)
cette simplification, pour moi, elle a commencer quand au niveau jeux video, on a transformer la manette en instrument de musique (je parle meme l’avant guitare hero) …
je compte pas le nombre de personnes que j’ai pu voir essayer a des jeux video via ce genre d’accessoire alors que la simple manette pouvait faire peur…
la wii a ete concu comme ca dans un sens: un objet dont notre grand mere pourrait se servir : que la manette puisse ressembler a un simple baton (ou une telecommande, au choix)
l’un des soucis de la wii (kinect/ ps move), c que c du vide … donc on fait un geste fort pour rien toucher, rien pour amortir ce geste plus ou moins brusque, ce qui peut faire mal apres quelques minutes/ heures.
et puis pour finir mon pavé, je dirais que bon, c marrant 5 min les kinects, mais ca doit etre penible d’avoir le film qui se met en pause car tout simplement on a fait un geste a la con comme ca
(ca me rappelle cette télé de sony, qui quand le telespectateur ne fait plus de geste, elle s’arrete… « pensez a bouger le bras, sinon ma télé s’arrete …. et merde, j’ai oublié la »)
Autant je suis d’accord avec le fait que la WiiMote et le PSMove sont des gadgets plus ou moins utiles, autant je ne suis pas du tout d’accord pour Kinect !
Oui, effectivement, pour l’instant on est obligé de faire d’assez grands gestes pour se faire comprendre par la bête, mais n’oublions pas qu’il s’agit du premier périphérique de ce genre qui soit ciblé grand public : ca promet tout de même de belles choses.
Imaginez quelque chose comme ça : http://blogs.msdn.com/b/jfgomez/archive/2011/02/28/vid-233-o-de-la-vitrine-pilot-233-e-par-kinect-online-software-ag.aspx avec un périphérique plus précis, qui ne demande pas d’exagérer vos gestes !