Le chercheur américain Selmer Bringsjord travaille à donner à ses robots une relative conscience de soi. Est-ce seulement possible, et enfin, bien raisonnable ? Entretien.

Prospective : les robots pourront-ils un jour avoir une conscience ?

C’était en juillet dernier. Un robot Nao donnait ses premiers signes d’humanité, ou du moins, des signes de conscience de soi. A l’origine de cette expérience étonnante, le professeur Selmer Bringsjord, du Rensselaer Polytechnic Institute.

Selmer Bringsjord a ainsi mis à l’épreuve trois de ses robots NAO programmés. Chaque robot avait, en soi, la capacité de parler mais deux d’entre eux avaient été programmés de sorte à rester silencieux. L’équipe de chercheurs Selmer Bringsjord a notifié aux trois robots que deux d’entre eux avaient été soumis à une « pilule de mutisme », avant de demander aux robots de deviner lesquels l’avaient reçue. Ne sachant pas, les robots ont alors tous trois tenté de répondre par un « je ne sais pas ». Deux sont restés muets, le troisième a articulé un « je ne sais pas », avant de saisir en entendant sa voix qu’il était bien « parlant ». Et de se reprendre d’un étonnant « désolé, je sais maintenant. J’ai été en mesure de prouver qu’on ne m’a donné la pilule de mutisme ».

Intrigué par cette notion de conscience du robot et échaudé par la lettre ouverte signée par Elon Musk, Stephen Hawking, Steve Wozniak et bien d’autres sur le danger potentiel des machines autonomes, nous avons échangé avec Selmer Bringsjord, sur le sujet. Avec cette interrogation principale, les robots auront-ils un jour une conscience, - allons plus loin, une « âme » ?

Entretien.

Pourrait-on dire que vous travaillez à donner une âme aux robots?

Oui, on peut dire que je travaille à donner aux robots les comportements qu’on rapproche ordinairement à ceux de l’âme. Typiquement, la « possession » d’une âme se manifeste par des comportements, des attitudes, qui peuvent être observés. Et j’ai mis au point un test capable de repérer ces comportements. Un test que j’ai fait passer à mes robots.

Et jusqu’où vos robots peuvent-ils être conscients d’eux-même ? Y’a-t-il une limite dans vos tests ?

Il existe deux niveaux de « conscience », et donc de conscience de soi.

Le premier est associé à une certaine structure et aux processus, liés à la prise de décision. C’est à cette décision qu’on voit que l’agent est conscient. Le second «niveau » relève d’une perception, de sensations intérieures. Si, par exemple, vous aimez skier rapidement, une fois chaussé sur vos skis, à dérouler la piste avec célérité, vous éprouvez, vous appréciez l’expérience. Vous appréhendez et maîtrisez la situation.  Ce type de sentiments, je ne pense pas que les robots puissent l’avoir, un jour. En revanche, nous pouvons programmer les robots, de telle sorte qu’ils puissent avoir des signes de conscience, ou de comportement relevant de la conscience de soi, voire de raisonnement. 

En philosophie, ce processus mécanique du sens de la conscience est appelé la « conscience d’accès ». Le second, la conscience phénoménale ou dite subjective.  Si on parle de la conscience d’accès, il n’y a certainement aucune limite dans ce que nous pouvons faire faire aux robots. Si vous regardez Blade Runner, qui est un peu l’ancêtre de tous ces films d’anticipation liés à l’intelligence artificielle, vous en voyez les prémices. Nous sommes en mesure aujourd’hui de concevoir des robots androïdes, qui seraient difficiles à distinguer des humains, sur la base de leur comportement, leurs réactions.

La littérature d’anticipation est-elle une inspiration dans votre travail ?

Oui, bien sûr. J’en parlais justement à un confrère, Jean-Gabriel Ganascia (NDLR, dont on publiera un entretien la semaine prochaine), de cette relation entre littérature, arts narratifs - cinéma compris, et l’intelligence artificielle. Il existe bel et bien des liens. La production cinématographique américaine de science fiction est, à cet égard, très riche et inspirante.

La littérature, en revanche, représente un vrai défi pour l’intelligence artificielle. Une machine pourrait-elle être créative, composer une oeuvre littéraire ?

La limite des robots ne serait-elle pas dans la capacité à être créatifs ? Même s’il existe aujourd’hui des expérimentations, autour de l’écriture d’articles par des robots.

Oui, j’en ai entendu parler. J’ai rencontré des chercheurs, qui effectivement, y travaillent, et pas seulement dans le domaine de la recherche universitaire, mais aussi en entreprise. J’ai d’ailleurs écrit sur ce sujet de la capacité ou l’incapacité des robots, à concevoir des histoires, de la fiction.

Les journalistes ont vocation à relater une vérité, des faits.

Je pense qu’il est impossible pour les machines d’écrire de la prose hautement créative, qu’elle soit de la fiction ou pas. En revanche, de la prose simple et factuelle, si. Et les machines vont certainement investir ce domaine là. Notamment sur les contenus gratuits. On pourrait imaginer, par exemple, les machines rédiger des compte-rendus d’évènements sportifs.

En somme, les robots seraient utiles sur les contenus basiques, ce qui est déjà le cas dans d’autres domaines. Les robots sont, aujourd’hui, particulièrement habiles dans les tâches de contrôle sommaires des voitures grâce à la reconnaissance vocale : démarrage, ouverture des fenêtres, réglage du volume, radio allumée, etc.

Ca paraît anodin mais cette incursion de l’intelligence artificielle dans le secteur automobile, s’étendra à tous secteurs, y compris le journalisme.

Que répondez-vous à l’idée que nous serions en train de creuser nos propres tombes ? Ne jouons-nous pas au docteur Frankenstein?

L’histoire du docteur Frankenstein a peu à voir avec l’intelligence artificielle. La technologie, évoquée dans le roman de Mary Shelley, relève de l’alchimie. Le docteur Frankenstein ne savait pas vraiment ce qu’il faisait, dans le roman. C’est assez loin de la démarche de programmation explicite, qui est de créer un programme pour obtenir quelque chose de bien précis, et ce, selon des principes.

En revanche, on peut rapprocher ce mythe de Frankenstein au machine learning. De nos jours, lorsque les gens étudient le machine learning, les résultats finaux ressemblent à une boîte noire. Ils ne sont pas bien sûrs du comment des résultats.

Si on parle machines autonomes, trois notions se dégagent et pourraient se rapprocher de Frankenstein. Premio, vous ne savez pas comment la machine opère, parce que celle-ci repose sur une approche dite « de boîte noire ». Deuzio, la machine a une certaine autonomie ; terzio, une certaine puissance, à l’instar de la créature de Frankenstein.   

Si le système est autonome, puissant et que nous ne sommes pas en mesure de comprendre le fonctionnement de son intelligence, oui, nous pourrions être dans une mauvaise posture.

Il y a eu, l’été dernier, un accident en Allemagne. Un ouvrier est mort à cause d’un défaut d’une machine. N’y a-t-il pas, avant tout, un besoin de rendre tous ces engins plus sûrs?

J’ai eu écho de cette nouvelle, terrible mais elle ne concernait pas un engin sophistiqué et autonome.

En revanche, ce que cet évènement pointe, est intéressant, en regard de l’accroissement de systèmes mobiles autonomes, tels que par exemple, les voitures autonomes.

Nous n’investissons pas assez dans le développement de systèmes sûrs. Le seul moyen de s’assurer que ce genre d’accidents n’arrive pas, est de vérifier de manière systématique. Et malheureusement, on ne finance pas suffisamment les travaux en cours, sur le sujet.

 

Rédigé par Lila Meghraoua
Journaliste/Productrice radio