Prospective

L'éthique de l'IA doit passer par l'éducation

  • 28 Juin
    2018
  • 2 min

Pour l'édition 2018 d'USI, des pointures de l'IA se sont réunies pour la première fois afin de mettre en lumière les défis et les opportunités que pourra apporter la technologie dans nos vies futures.

En matière d'IA, à peu près tout le monde a son mot à dire. Mais une chose est certaine, la technologie doit nécessairement faire émerger un questionnement sur sa régulation au nom de l'éthique. En effet, il n'est pas improbable d'imaginer, d'ici quelques années seulement, des robots tueurs utilisant nos données personnelles à des fins malveillantes. Si l'IA est conçue par l'homme, elle en devient alors nécessairement le miroir, avec ses forces et ses faiblesses. Aussi, 2018 marque définitivement l'année d'un consensus : celui de réguler les principaux fournisseurs d'intelligence artificielle et de les soumettre à des principes éthiques indérogeables. Pour autant, malgré l'ambition affichée en ce sens par les GAFA ayant souscrit au « Partnership on Artificial Intelligence to Benefit People and Society » l'an dernier, ou via les différentes rencontres politiques organisées au sommet de la Nation – le rapport Villani « AI For Humanity » notamment – ou par des organisations internationales telles que l'ONU, le chemin vers une régulation de l'IA reste toujours encore long. Or, il serait (très) dangereux de laisser aux seuls GAFA et autres BATX le monopole de cette régulation. Et c'est exactement là que l'Europe, selon le député Cédric Villani, a un rôle à jouer. C'est par l'éducation qu'il entend mener ce combat, notamment grâce à l'instauration d'un Institut interdisciplinaire d'IA qui « ferait collaborer universitaires et industriels ». Une sorte de MIT à la française qui allierait éducation, formation et sensibilisation à l'intelligence artificielle. Un avis que partage aussi Joëlle Pineau, chercheuse et professeure agrégée à l'École d'informatique de l'Université McGill et Directrice du Facebook AI Research Lab de Montréal, pour qui les principaux défis de l'IA restent ceux de la compréhension et de l'accessibilité. C'est pourquoi, selon elle, si un cadre international est évidemment souhaitable, des régulations sectorielles sont les plus à même d'aboutir à une véritable conscience globale. Car « réguler l'IA pour les voitures autonomes est très différent de réguler l'éthique d'un traitement automatisé de l'information ». Aussi, en partant de la somme réunie de ces régulations sectorielles, pour établir un cortège unifié d'éthique générale, il convient que tout les acteurs de la société collaborent. Par la recherche mais aussi et surtout, encore une fois, par l'éducation. Une position approuvée par Yann LeCun, directeur scientifique de l'Intelligence Artificielle d'un certain Facebook et professeur à la New York University pour qui « le frein principal à la dissémination de la technologie est que les gens prennent du temps à apprendre et à se servir des nouvelles technologies ». Oui, le chemin de la régulation est encore long puisque c'est le temps qu'impose une bonne éducation.

Rédigé par Théo Roux