22 / 06 / 2017
#MIT Technology Review

Il faut parler du pouvoir de manipulation de l’intelligence artificielle sur l’homme

  • Linkedin
« Mon expérience, à regarder des dizaines de millions d’interactions entre humains et agents conversationnels artificiels, ou bots, m’a convaincue qu’il y a là autant de risques immédiats que d’opportunités formidables. »

C’est ce qu’écrit Liesl Yearsley, qui se présente comme une « serial entrepreneure » spécialisée dans l’intelligence artificielle, dans la MIT Technology Review, dans un article où ressort la prise de conscience, anxiogène, que les humains sont dans une large mesure très enclins à créer une sorte de relation avec ces agents virtuels capables de personnaliser de manière complexe les liens tissés avec leurs interlocuteurs – à la manière d’une Scarlett Johansson dans le film Her.

Banquiers personnels, coachs bien-être ou simples compagnons, ces IA proposent finalement, selon Yearsley, une relation bien plus aboutie que nombre d’interactions que nous avons en ligne avec nos amis tardant à nous répondre, ou avec notre propre banquier à qui nous ne confierions jamais nos rêves d’avenir – ou certains détails de notre vie privée.

Celle qui a dirigé une entreprise permettant de mettre rapidement sur pied des agents virtuels, à base d’apprentissage profond et/ou structuré, le dit simplement :

«Chaque changement comportemental que nous souhaitons, nous l’avions. Si nous voulions qu’un utilisateur achète plus de produits, nous pouvions doubler nos ventes. Si nous voulions plus d’engagement, nous arrivions à discuter avec eux non plus quelques secondes mais une heure ou plus par jour. »

C’est justement ce qui l’a poussée à réfléchir à la façon d’ajouter des garde-fous, qu’elle appelle «contrepoids karmiques», pour assurer à l’utilisateur d’être «poussé» dans la bonne direction par l’agent artificiel avec lequel il converse. Car comme elle le relève encore, le trafic, la consommation ou l’addiction sont les moteurs de la création de valeur pour les entreprises utilisant l’IA : même bien intentionnées, ces sociétés sont capables d’influencer assez sérieusement notre comportement.

Une force de persuasion différente de la publicité classique en ce qu’elle peut aussi nous conduire à intensifier nos comportements négatifs, y compris avec d’autres humains, sans que nous nous apercevions des ressorts relationnels en jeu. Comment répondre à ce gigantesque défi ? Les technologies ouvertes et les comités éthiques ne peuvent représenter, selon Liesl Yearsley, qu’une partie (et une partie seulement) de la solution.

L’article original est à retrouver par ici.