Nos dispositifs électroniques et informatiques sont de plus en plus petits, de plus en plus adaptés à nos besoins, et de plus en plus proches physiquement de nous. Des premiers ordinateurs lourds, fixes et complexes, nous sommes passés à des smartphones qui nous accompagnent dans nos moindres faits et gestes. À quelles innovations devons-nous maintenant nous attendre ? Éric Lecolinet, chercheur en interaction homme-machine à Télécom ParisTech, répond à nos questions sur ce domaine en pleine évolution.
Comment définit-on les interactions homme-machine ?
Éric Lecolinet : Les interactions homme-machine concernent toutes les interactions entre humains et dispositifs électroniques ou informatiques, et également les interactions entre humains via ces dispositifs. Cela concerne autant les ordinateurs de bureau ou les smartphones que les cockpits d’avion et les machines industrielles ! L’étude de ces interactions est très vaste, avec des applications dans quasiment tous les domaines. Il s’agit de mettre au point des machines capables de représenter des données que l’utilisateur puisse aisément interpréter, et de permettre à l’utilisateur d’interagir intuitivement avec ces données.
Dans les interactions homme-machine, on distingue les données de sortie, ce qui est envoyé par la machine vers l’humain, et les données d’entrée, ce qui va de l’humain à la machine. Les données de sortie sont en général visuelles, car diffusées via des écrans, mais elles peuvent aussi être auditives, ou même tactiles grâce aux vibrations par exemple. Quant aux données d’entrée, elles sont typiquement envoyées via un clavier et une souris… mais on peut également communiquer avec nos machines grâce à des gestes, à la voix, ou au toucher !
L’étude des interactions homme-machine est un champ multidisciplinaire. Elle concerne des disciplines informatiques (génie logiciel, machine learning, traitement du signal et des images), comme des disciplines de sciences sociales (psychologie cognitive, ergonomie, sociologie). Enfin, le design, les arts graphiques, le hardware, et les nouveaux matériaux, sont également des spécialités très importantes dans la mise au point de nouvelles interfaces.
Comment ont évolué les interactions homme-machine ?
EL : Retournons quelques années en arrière, dans les années 50… A l’époque, les dispositifs informatiques étaient des centres de calcul : des machines fixes, très encombrantes, délocalisées dans des laboratoires spécialisés. C’était les humains qui devaient s’adapter à ces ordinateurs : vous deviez apprendre leur langage et être un expert du domaine pour espérer interagir avec eux…
L’étape suivante a été l’ordinateur personnel, notamment le MacIntosh, en 1984, suite aux travaux du Xerox PARC dans les années 70. Cela a été un véritable choc ! L’ordinateur vous appartient, il est dans votre bureau, chez vous. On a d’abord développé ce PC de bureau, fixe, puis il y a eu ensuite le PC portable que l’on emmène partout avec soi : il y a cet aspect d’appropriation, de mobilité des machines qui s’est mis en place. Et enfin, ces premiers ordinateurs personnels étaient faits pour faciliter l’interaction. Ce n’est plus l’utilisateur qui doit apprendre le langage de la machine. C’est la machine elle-même qui facilite l’interaction, notamment grâce au modèle WIMP (Window Icon Menu Pointer), métaphore du bureau.
Si, depuis les années 2000, on constate une miniaturisation des machines, la véritable rupture arrive avec l’Iphone en 2007. C’est un nouveau paradigme, qui redéfinit en profondeur l’interface homme-machine, avec pour principal objectif de la rendre la plus adaptée possible à l’humain. Des décisions radicales sont prises : l’interface est entièrement tactile, sans clavier physique, avec un écran haute résolution multitouch, des capteurs de proximité éteignent l’écran lorsque le téléphone est porté à l’oreille, l’affichage est adaptatif en fonction de l’orientation du téléphone…
Les machines deviennent ainsi de plus en plus petites, de plus en plus mobiles, et de plus en plus proches du corps, comme les montres connectées et les dispositifs de biofeedback… Dans le futur, on pourrait imaginer des bijoux, des vêtements, des tatouages ! Et surtout, nos dispositifs sont de plus en plus intelligents, de plus en plus adaptés à nos besoins. Maintenant, ce n’est plus nous qui apprenons à utiliser les machines, ce sont elles qui s’adaptent à nous.
En ce moment, les médias parlent beaucoup des interfaces vocales, qui pourraient être la prochaine révolution des interfaces homme-machine.
EL : Ce sont des technologies très intéressantes, qui font beaucoup de progrès et qui deviendront de plus en plus utiles. Il y a certes beaucoup de travaux menés sur ces interfaces vocales, et de plus en plus de services sont disponibles, mais, pour moi, cela ne remplacera pas la souris et le clavier. Par exemple, ce n’est pas adapté pour faire du traitement de texte ou du dessin numérique ! C’est très bien pour certaines tâches précises, comme demander à son téléphone « trouve moi une séance de cinéma pour ce soir à 8 heures » en marchant ou en conduisant, ou pour les manutentionnaires qui doivent donner des instructions à des machines tout en ayant les mains prises. Mais la bande passante interactionnelle, soit la quantité d’informations que vous pouvez transmettre par cette modalité, reste limitée. Aussi, pour une utilisation quotidienne, des questions de confidentialité se posent : avez-vous envie de parler à voix haute à votre smartphone dans le métro ou au bureau ?
On entend aussi beaucoup parler des interfaces cerveau-machine…
EL : Ce sont des technologies prometteuses, notamment pour les personnes lourdement handicapées. Mais on est loin d’une utilisation grand public, pour du jeu vidéo par exemple, qui requiert une grande rapidité d’interaction… Ce sont des technologies lentes et contraignantes. À moins d’accepter de se voir implanter des électrodes dans le cerveau, il faut porter un filet d’électrodes sur la tête, qui doivent être calibrées pour ne pas bouger, et souvent les enduire de gel conducteur pour améliorer leur efficacité.
On peut faire face à un phénomène de bond technologique qui rendra possibles prochainement des applications à destination du grand public, mais je pense que beaucoup d’autres innovations seront sur le marché avant les interfaces cerveau-machine.
Vers quels champs d’innovation les interfaces homme-machine vont-elles
se tourner ?
EL : Il y a beaucoup de possibilités, les recherches actuellement menées sur le sujet sont très variées ! Les interactions gestuelles, par exemple, sont au centre de nombreux projets, et certains dispositifs sont déjà commercialisés. L’idée est d’utiliser des gestes 2D ou 3D, le type de toucher et la pression pour interagir avec son smartphone, son ordinateur, sa télévision… Au sein de Télécom ParisTech, nous avons par exemple développé un prototype de montre intelligente, Watch it, qui peut être contrôlé grâce à un vocabulaire de gestes. Cela permet d’interagir avec l’appareil sans même le regarder !
Ce projet nous a également permis d’explorer des possibilités pour interagir avec une montre connectée, un objet petit et difficile à contrôler avec nos doigts. Nous avons pensé à utiliser le bracelet comme interface tactile, pour faire défiler l’écran de la montre. Ces petits objets très proches du corps, que l’on porte sur nous, vont continuer à se développer. On pourrait voir apparaître des bijoux connectés par exemple ! Certains chercheurs travaillent par exemple sur des interfaces projetées directement sur la peau pour interagir avec ce genre de petits dispositifs.
Les interfaces tangibles sont aussi une piste importante. L’idée est que tous les objets du quotidien peuvent virtuellement devenir interactifs, avec des interactions propres à leur fonction : plus besoin de chercher dans des menus, l’objet correspond à une fonction précise. Ces objets peuvent aussi changer de forme (shape changing interfaces). Dans ce champ de recherche, nous avons développé Versapen : c’est un stylo augmenté modulable. Il est constitué de modules que l’utilisateur peut agencer pour créer de nouvelles fonctions à l’objet, et chaque module est programmable par l’utilisateur. On a donc une interface tangible totalement personnalisable !
Enfin, l’une des grandes révolutions dans les interfaces homme-machine, c’est la réalité augmentée. C’est une technologie récente, mais déjà fonctionnelle. Et les applications sont partout, dans le jeu vidéo comme dans de l’aide pendant des opérations de maintenance par exemple… A Télécom ParisTech, nous avons travaillé en collaboration avec EDF au développement de dispositifs de réalité augmentée. L’idée est de projeter des informations sur les commandes des tableaux de bord des centrales nucléaires, afin de guider les employés dans les opérations de maintenance.
Il est très probable que les réalités augmentées, virtuelles et mixtes, continuent à se développer dans les années qui viennent. Les GAFA (Google, Amazon, Facebook, Apple) investissent des sommes considérables dans ce domaine. Ces technologies ont déjà fait un bond énorme, et commencent réellement à se populariser… À mon sens, ce sera l’un des prochains sujets technologiques phares, au même titre que le big data ou l’intelligence artificielle le sont actuellement… Et en tant que chercheur spécialiste des interfaces homme-machine, cela me paraît important de se positionner sur cette thématique !
À lire également sur I’MTech : Quèsaco la réalité augmentée ? et Le futur des réalités virtuelle et augmentée, selon Marius Preda
Projet Social Touch : transmettre des émotions aux machines par le toucher
Tapoter, frotter, caresser … Nos gestes tactiles transmettent des informations sur nos émotions et nos relations sociales. Et si cela devenait également un moyen de communiquer avec les machines ? Le projet Social Touch, lancé en décembre 2017, a pour objectif le développement d’une interface homme-machine capable de transmettre des informations tactiles via des dispositifs connectés. Financé par l’ANR et la DGA, il est soutenu par le laboratoire LTCI de Télécom ParisTech, l’ISIR, le laboratoire Heudyasic et l’i3, une unité mixte de recherche du CNRS qui réunit Télécom ParisTech, Mines ParisTech et l’École Polytechnique. « On pourrait envoyer des messages tactiles à nos correspondants, des « emotitouch », qui transmettraient une humeur, un sentiment. » précise Éric Lecolinet, coordinateur du projet. « Mais cela peut être aussi utilisé pour du jeu vidéo ! Nous souhaitons développer un bracelet qui envoie de la chaleur, du froid, des projections d’air, des vibrations, des illusions tactiles, et via lequel l’utilisateur pourrait communiquer grâce au toucher avec un avatar dans un environnement en réalité virtuelle. »
3 comments
Pingback: Bientôt de nouvelles façons d’interagir avec les machines – Gadget review, video, best deals sharing
Pingback: Bientôt de nouvelles façons d’interagir avec les machines – LABNAUT
Pingback: Des sentiments humains aux émotions numériques - I'MTech