Des machines capables d’interpréter les émotions humaines offriraient un service sur mesure à leurs utilisateurs. Les possibilités sont notamment fécondes pour l’avenir de l’automobile.

Vers une intelligence artificielle émotionnelle ?

L’intelligence artificielle est aujourd’hui sur toutes les lèvres. Ce constat sort encore renforcé de la dernière édition de l'événement TechCrunch Disrupt, à San Francisco, où le sujet fut abordé au cours de la quasi-totalité des échanges. Le machine learning (ou apprentissage automatique), constitue un champs de l’intelligence artificielle particulièrement fécond. Selon Danny Lange, la meilleure manière de décrire ce concept, dont tout le monde parle sans savoir très bien le définir, est de voir en lui un changement de paradigme : « Nous assistons aujourd’hui à un changement profond. Nous passons d’une vision newtonienne, déterministe, cherchant à prévoir chaque éventualité, à une approche inspirée d’Heisenberg, où tout est affaire d’incertitude et de probabilités. Nous utilisons désormais les données pour construire des algorithmes qui apprennent en permanence, ce qui donne des modèles capables de s’adapter tout seuls pour rester en phase avec la réalité. » a-t-il expliqué sur scène à TechCrunch Disrupt

Le physicien allemand Werner Heisenberg.

L’intelligence artificielle n’étant pas un état de fait, mais plutôt un processus, on peut légitimement se demander quelle en sera la prochaine étape. Outre l’intelligence artificielle, une tendance de fond dans l’ère des nouvelles technologie est celle de la diversification et de l’authenticité croissante dans la manière d’interagir avec les machines. Là où l’on se contentait autrefois de taper sur un clavier, nous pouvons désormais interagir avec le toucher et la voix. Nos interactions avec les machines ressemblent de plus en plus à celles que nous entretenons avec nos semblables. Ces deux tendances vont-elles se combiner pour mener à une nouvelle ère dans la communication entre humains et machine ? C’est l’avis de Rana el Kaliouby. Cette entrepreneuse est la cofondatrice et CEO d’Affectiva, une start-up officiant dans le domaine de l’intelligence artificielle émotionnelle. L’entreprise développe une plate-forme utilisant la vision par ordinateur et le deep learning pour permettre aux machines de percevoir les émotions des utilisateurs à travers leurs expressions.

Danny Lange et Rana el Kaliouby à TechCrunch Disrupt SF.

Distinguer le sourire japonais du sourire brésilien

« Pour l’heure, l’intelligence artificielle est principalement cognitive, transactionnelle et concentrée sur une tâche spécifique. Nous voulons rajouter une composante émotionnelle. Les émotions conduisent chaque aspect de notre existence. De notre état émotionnel dépend notre bien-être, notre santé, nos relations aux autres et notre prise de décision. Les personnes dotées d’une haute intelligence émotionnelle construisent de meilleures relations, sont plus fiables et plus convaincantes. Cela s’applique aussi aux machines. Nous sommes entourés par toujours plus d’appareils, applications, chatbots, assistants virtuels, robots, et pour que nos relations avec eux soit optimale, il faut pouvoir communiquer des émotions. J’imagine un monde où chaque objet intelligent serait doté d’une puce le rendant capable de comprendre nos émotions en temps réel. » a-t-elle affirmé durant TechCrunch Disrupt. L’entreprise a analysé plus de cinq millions de vidéos afin de construire une solide base de données incorporant expressions faciales dynamiques, voix et gestes. Celle-ci vient ensuite nourrir un algorithme de machine learning capable de déduire un état émotionnel à partir d’une attitude physique. Et comme tous les individus n’expriment pas leurs émotions de la même manière, le logiciel est conçu pour s’adapter aux spécificités de chacun : « Un japonais et un brésilien ne manifestent pas leur joie de la même façon, tout comme les hommes et les femmes ont différentes manières d’exprimer leurs émotions. Nous avons sélectionné nos données pour embrasser tous les cas de figure. » a précisé Rana el Kaliouby.

Quoi de prévu au menu ?

Que pourrait, concrètement, apporter l’intelligence émotionnelle à l’expérience utilisateur, dans le cas d’Uber, par exemple ? Pour l’heure, l’entreprise fournit à ses clients des prestations à la demande : selon les requêtes, elle amène les individus à bon port où leur livre un repas. L’ajout d’une couche d’intelligence émotionnelle pourrait rendre la relation plus interactive : il serait par exemple possible d’analyser que tel client est stressé et souhaite simplement être conduit vers sa destination le plus rapidement possible, tandis que tel autre souhaite avant tout se relaxer et profiter d’une conduite détendue. Le client pourrait aussi être un touriste décontenancé en quête de conseils sur la ville… Le service UberEats serait de son côté capable d’analyser l’état émotionnel du client pour lui proposer une sélection de menus adaptés, du sandwich sur le pouce pour le client pressé au dîner convivial pour un individu d’humeur festive.

Entretiens avec une voiture

La technologie possède également un grand potentiel pour le véhicule autonome. Nous entrons tout juste dans la première phase de déploiement de ceux-ci. Des véhicules capables de se conduire tout seuls sont progressivement déployés sur les routes, avec pour impératif qu’un humain se trouve derrière le volant pour reprendre les commandes en cas de pépin. Or, il est difficile de maintenir son attention sur la durée lorsqu’on n’est pas soi-même contraint de conduire.

On pourrait ainsi très bien imaginer, un dispositif analysant l’état émotionnel du conducteur et lui envoyant un léger rappel pour qu’il reporte son attention sur la route lorsqu’il se trouve distrait. Un système incorporé aux premiers taxis autonomes d’Uber, déployés depuis le 14 septembre 2016 à Pittsburgh, permettrait en outre de repérer lorsqu’un passager est peu rassuré et de trouver un moyen de le détendre, que ce soit en diffusant de la musique relaxante ou en lui expliquant comment fonctionne le système. Autant de moyens de fluidifier la communication entre humains et machines pour une expérience optimale. Peu probable, en revanche, que nous voyions un jour des véhicules tombés amoureux, comme la coccinelle Herbie.

 
Rédigé par Guillaume Renouard