Il y a encore pas si longtemps, le vacancier en quête de LA bonne adresse s’en remettait à son guide touristique, ou aux recommandations des locaux, obtenues en baragouinant quelques phrases dans l’idiome local. Aujourd’hui, il est plus vraisemblable qu’il dégaine son smartphone et pianote sur une application comme Yelp ou TripAdvisor pour débusquer les établissements alentour bénéficiant des meilleurs avis clients. Un jeu qui profite à la fois aux entreprises proposant un service de qualité, qui se voient ainsi mises en valeur, et aux clients qui s’orientent plus facilement parmi les options disponibles. Sauf que depuis quelques années les faux avis clients semblent fleurir sur la toile, que ce soit du côté d'entreprises souhaitant pénaliser la concurrence, que d'agences payées pour encenser une marque. 

1/3

de faux

avis clients en ligne

La Direction générale de la concurrence, de la consommation et de la répression des fraudes travaille depuis 2010 sur des normes pour bloquer ce type d'actions. 35% des avis seraient en effet des faux. Mais avec l'avancée des technologies, des chercheurs de l’Université de Chicago ont mis au point un algorithme d’intelligence artificielle capable de rédiger de faux commentaires plus vrais que nature. Dévoilé début novembre, lors de l’AMC Conference on Computer Communication and Security, celui-ci n'a évidemment pas été créé dans un but de fraudes mais pour alerter les professionnels de ce à quoi ces technologies pourrait servir. Sachant que des IA sont déjà utilisées par des sites de recommandations pour détecter les faux commentaires, nous sommes peut-être à l'aube d'un "combat" machine contre machine pour distinguer le vrai du faux.

L'IA est aux claviers

Robot typing

Shutterstock

Quand l’intelligence artificielle prend la plume

L'équipe de chercheurs s’est appuyée sur le deep learning pour créer leur algorithme. Cette branche de l’intelligence artificielle permet à un logiciel de s’améliorer tout seul avec le temps, en utilisant beaucoup de puissance informatique et une large quantité de données, en l'occurrence des millions de commentaires rédigés sur Yelp par des humains. Grâce à celui-ci, les chercheurs ont pu générer de fausses critiques, rédigées de A à Z par les machines. Et le moins que l’on puisse dire, c’est que le résultat s’avère convaincant. Les chercheurs ont dans un premier temps essayé de publier leurs commentaires artificiellement générés sur Yelp, où l’algorithme chargé de repérer les avis factices s’est laissé berner dans la majorité des cas.

L'IA COMMENTATRICE

IA comment

Tous les sites participatifs emploient en effet un logiciel de filtrage pour repérer les commentaires suspects. Ces derniers reposent également sur des techniques d’apprentissage machine. Certains analysent les métadonnées des commentaires, comme l’adresse IP où la fréquence à laquelle le compte associé publie, d’autres le contenu des messages en eux-mêmes, les répétitions de mots ou les phrases récupérées ailleurs sur la toile. Dans tous les cas, l’intelligence artificielle développée par les chercheurs a su déjouer celle de Yelp. Mais peut-elle pour autant abuser l’intelligence humaine ? Pour le savoir, les chercheurs ont présenté à des cobayes un mélange de commentaires authentiques, rédigés par de vrais utilisateurs de Yelp, et de répliques générées par ordinateur. Les humains se sont avérés incapables de distinguer l’original de la copie. Plus troublant encore : les chercheurs ont ensuite demandé aux individus d’évaluer chaque commentaire en le qualifiant d’utile ou d’inutile. Résultat : les commentaires générés par l’algorithme ont été estampillés « utiles » presque aussi souvent que leurs contreparties humaines. « Nous avons mis en relief le danger que représente l’usage d’une intelligence artificielle afin de créer de faux comptes suffisamment réalistes pour tromper les dispositifs actuels. » conclut Ben Zhao, l’un des chercheurs en informatique ayant conduit l’expérience.

la guerre des robots

Robot wars

Shutterstock

Lutter contre les fausses informations

ReviewsMeta, un site de défense du consommateur, a l’an passé analysé sept millions de commentaires utilisateurs publiés sur Amazon, et conclu que certaines marques proposaient de juteuses réductions à leurs clients contre la rédaction de commentaires positifs. Néanmoins, faire appel à des humains coûte cher (1 à 10 dollars pour un faux commentaire sur Yelp, selon Business Insider), d’autant plus que la technique doit être pratiquée à grande échelle pour être efficace. L’usage de l’intelligence artificielle pourrait donc donner au phénomène une tout autre ampleur. C’est pourquoi les chercheurs de l’Université de Chicago s’efforcent d’élaborer la riposte, sous la forme d’un autre algorithme d’apprentissage profond susceptible de repérer les faux commentaires conçus sur le même modèle que le leur. Les chercheurs ont en effet appris à connaître les faiblesses de leur algorithme. Ainsi, une intelligence artificielle entraînée pour rédiger des contenus à la grammaire et au vocabulaire impeccable (afin de sembler les plus authentiques possible), aura tendance à moins faire attention au choix de ses mots, et risque ainsi de réutiliser très fréquemment les mêmes termes. Une faille que des algorithmes défensifs peuvent apprendre à exploiter pour les repérer.

Robot VS ROBOT

robot war

Si, pour l’heure, les chercheurs n’ont pas constaté de pratiques faisant usage de l’intelligence artificielle pour trafiquer les notations de sites comme Amazon ou Yelp, ils indiquent que l’on risque bel et bien « une course à l’armement entre attaquants et défenseurs pour déterminer lequel sera capable de développer les algorithmes les plus sophistiqués, et les réseaux de neurones artificiels les plus performants, pour générer ou détecter de faux avis. »

Garantir la validité des notations est fondamental

notation

Shutterstock

La prochaine étape pourrait bien être la rédaction de faux articles journalistiques par des robots, afin de manipuler l’information, mettent en garde les chercheurs. D’autres techniques d’intelligence artificielle permettent déjà de réaliser de faux contenus audio (Lyrebird, WaveNet) et vidéo (voir les travaux de l’artiste allemand Mario Klingemann, ou encore ceux d’une équipe de chercheurs de l’University of Washington) d’un réalisme saisissant. Moins médiatisés que la Singularité ou le risque d’une apocalypse causée par les machines, les risques de manipulation de l’information sont, selon les chercheurs, bien plus urgents, car ils risquent d’inaugurer le règne du soupçon et du scepticisme généralisé, où la vérité risque de devenir toujours plus difficile à décerner.

Pas de panique, cependant, des solutions existent, dont certaines reposent sur les nouvelles technologies. La plateforme Publiq met ainsi la Blockchain au service de la fiabilité de l’information. Grâce à la technologie qui se trouve derrière le Bitcoin, chaque contenu journalistique devient traçable et immuable, et les contributeurs rédigeant des articles de qualité sont rémunérés par leurs pairs en crypto-monnaie. L’objectif étant de promouvoir l’information sourcée et de bonne qualité au détriment des informations basées sur de simples rumeurs ou fabriquées de toutes pièces, que ce soit par des humains ou des robots.

Rédigé par Guillaume Renouard