Bien que le jour où nous serons entourés de robots au comportement humanoïde ne soit pas encore arrivé, l’Intelligence Artificielle a d’ores et déjà fait ses preuves, et ce de façon plus subtile.

Quand le Deep Learning change la face de l'Intelligence Artificielle

Les technologies développées par les grands groupes telles que la reconnaissance vocale Siri d’Apple, les suggestions de recherche Google, ou encore la publicité ciblée de Facebook, ont toutes en commun des algorithmes de machine-learning leur permettant de interéagir et de répondre en temps réel. Rédéfinir l’expérience digitale grâce à l’intelligence artificielle était l’un des nombreux thèmes de la conférence EmTech Digital à San Francisco, organisée le mois dernier.

L'un des conférenciers, Quoc Le, pionnier du machine learning , a eu le privilège de figurer la liste des 35 innovateurs de moins de 35 ans en 2014. Aujourd'hui, il œuvre en tant que responsable technique de Google Brain et c’est pourquoi il a choisi d’aborder le thème de la de robotique lors de la conférence Emtech. Selon Quoc, le plus grand défi pour construire des robots plus efficaces est la capacité de reconnaissance des objets ou des gens.

Mais comment améliorer une telle fonction chez des machines ? Dans le processus de reconnaissance d'un objet, il existe une phase appelée feature engineering, qui consiste à prendre des données et à les modéliser en une sorte de représentation utilisée ensuite pour apprendre à la machine à reconnaître l'objet. Un processus lourd qui exige des experts. Si la machine doit, par exemple, reconnaître un objet physique, Il est nécessaire de faire intervenir un expert pour définir l'objet. Même chose pour la reconnaissance vocale, qui nécessite un spécialiste de la reconnaissance de la parole. 

Existe-t-il un autre moyen d’améliorer les performances des robots sans faire intervenir des êtres humains ? La réponse à cette question réside dans le Deep Learning, l'objet des recherches de Quoc pour Google Brain.

L'autoapprentissage par Google Brain 

Le Deep Learning, ou encore « réseau de neurones », construit des couches d'extraction partant des images brutes pour aller vers de la détection de bords ou de coins et enfin jusqu'à l'identification claire de chats, de visages ou d'autres objets.  Un concept de très haut niveau qui n'exige aucune intervention humaine dans la programmation puisque le système mémorise ces représentations automatiquement. 

Deep learning

Même si les premiers retours sont très positifs, il existe encore des freins, comme la lenteur du système qui réduit l'efficacité lorsqu'il s'agit de résoudre des problèmes complexes. Une des solutions à ce problème serait d'intensifier le Deep Learning, soit en décomposant le réseau de neurones en différentes partitions, soit en scindant les données en séquences multiples. L'importance de l'intensification est substantielle dans la mesure où elle augmente le volume de données. À cet égard, le Deep Learning ne présente pas, au début, plus d’intérêt que le machine learning traditionnel, mais sa précision augmente sensiblement lorsque le volume de données croît. 

Le jeune innovateur s'est demandé comment il était possible que les humains aient été les premiers êtres vivants à s'être posés sur la lune alors qu'ils ne sont ni les plus rapides ni les plus forts. Et pourtant, les humains l'ont fait. Il en a donc conclu que c'était grâce à leur intelligence, ce qui, par conséquent, l’a poussé à créer une machine disposant d'un certain type d'intelligence susceptible d'aider les humains.

Trouver la réponse à des questions basiques sans l'aide des humains ? 

À l’occasion de la conférence, l’équipe du Google Brain a diffusé la vidéo d'un robot capable d'aller chercher une agrafeuse dans une pièce voisine et de la ramener à la personne qui en a fait la demande. Pour ce faire, une des premières expérimentations de Quoc et de son équipe a été de faire visionner des vidéos YouTube au Google Brain (près de 10 millions d'images) avec environ 16 000 machines connectées et un réseau de près de 1 milliard de synapses alimentant les neurones. À la fin du processus, un des neurones du réseau a détecté le concept d'un chat, sans qu'il ait été nécessaire le lui expliquer préalablement.

Une expérimentation qui a permis des améliorations significatives quant au taux d’erreur de la reconnaissance d'images, avec une baisse drastique de 38 % (2011) à 5 % aujourd'hui. Même cas pour la reconnaissance vocale, dont le taux d’erreur a fait une chute de 23 % (2011) à 8 %. Même s'il est encore trop tôt pour dire quand une telle évolution pourra être intégrée à des robots et quelle sera  l'impact de ces développements sur les personnes et sur les entreprises, Il est établi que l’obtention des données ne constituera pas un obstacle et que le Deep Learning finira par surpasser le machine learning pour permettre aux robots de devenir autodidactes.

Rédigé par Kathrin Helminger
Digital Analyst at L'Atelier North America BNP Paribas