15 / 10 / 2018

AI for Good : quand l’intelligence artificielle répare le monde

  • Linkedin
AI for Good : quand l’intelligence artificielle répare le monde
Et si l’intelligence artificielle était ce dont le monde a besoin pour devenir plus juste ?

Un article de Philothée Gaymard, initialement publié sur Kiss My Frogs.

 

Début avril 2018, Elon Musk se livrait dans le documentaire « Do You Trust This Computer? » à une flippante prédiction : “Si une entreprise ou un petit groupe de personnes réussit à développer une superintelligence numérique similaire à un dieu, ils pourraient contrôler le monde. (…) Et on aurait un dictateur immortel auquel on ne pourrait jamais échapper.” En 2014, lors d’une intervention au MIT, il utilisait déjà un langage tout aussi théâtral : “avec l’intelligence artificielle, nous sommes en train de convoquer le démon.” Et si, à l’inverse, on imaginait une superintelligence bienveillante, qui travaillerait en continu à rectifier les erreurs et les déséquilibres induits par les humains ?

 

La hype de l’AI for Good

On n’en est pas encore là, mais de plus en plus de start-ups, entreprises et institutions travaillent à positionner l’IA comme une force qui peut être mise au service du bien commun. Et le sujet est un peu partout. Du 15 au 17 mai 2018, l’Union internationale des télécommunications (UIT), la branche NTIC des Nations Unies, organisera la seconde édition du AI for Good Global Summit. En juin, Village Capital et Autodesk Foundation seront aux manettes d’un forum baptisé “Automation for Good” pour soutenir les startups qui mettent l’automatisation, les robots et l’intelligence artificielle “au service de la société et des travailleurs”. Très bientôt, M12 (anciennement Microsoft Ventures), dans le cadre de la compétition Innovate.AI, remettra un prix “AI For Good” à une start-up distinguée pour un “travail sur l’IA qui emploie la technologie de manière responsable et dans un but positif, avec un impact sur la vie des gens et sur le monde”.

Reste à définir le “bien social” et les critères d’un impact positif “sur la vie des gens”, pour l’instant laissés à l’appréciation de ceux qui conçoivent ces intelligences artificielles. Il faut dire qu’elles opèrent dans une multitude de domaines. Adam Coccari, Senior Manager chez M12, explique à AI Business : “nous pensons que l’AI for Good peut exister sous différentes formes et dans une variété de secteurs. Nous voulons voir des entreprises qui innovent (…) pour aider à résoudre des problèmes liés à l’approvisionnement en nourriture, la santé, le changement climatique, la formation professionnelle et l’éducation.” De son côté, le sommet AI for Good se concentre sur des projets qui contribuent à l’atteinte des Objectifs de développement durable et qu’il divise en quatre thématiques : la lutte contre la pauvreté et les catastrophes naturelles, la santé, les smart cities et la confiance dans l’IA. On pourrait y ajouter l’éducation, le travail, l’environnement, l’inclusion des personnes en situation de handicap, etc. S’il faut définir de grandes verticales, disons que l’intelligence artificielle contribue déjà à résoudre d’importantes problématiques environnementales, sociales et sociétales. Débroussaillons.

 

“nous pensons que l’AI for Good peut exister sous différentes formes et dans une variété de secteurs. Nous voulons voir des entreprises qui innovent (…) pour aider à résoudre des problèmes liés à l’approvisionnement en nourriture, la santé, le changement climatique, la formation professionnelle et l’éducation.”

 

L’IA, meilleure amie de la nature

Sur le front de l’environnement et de l’agriculture, les principaux apports de la Data consistent à mieux cartographier les écosystèmes et anticiper les risques. Le AI for Good Global Summit se concentre sur deux grands types de projets : ceux qui utilisent l’imagerie satellite et aérienne pour observer la dégradation des forêts et mesurer les efforts de reforestation, et ceux qui ont recours à l’intelligence artificielle pour mieux comprendre les modèles agricoles, maximiser et sécuriser les revenus des petits agriculteurs et prévenir les famines. Les outils de ce genre ne sont pas nouveaux. Microsoft en a développé plusieurs sous la bannière “AI for Earth”, dont FarmBeats, qui aide les agriculteurs à savoir quand planter pour maximiser leur rendement, ainsi qu’une plateforme de cartographie pour mieux visualiser et protéger les écosystèmes qui recouvrent la surface de la Terre. Les startups ne sont pas en reste : parmi les 100 Top AI Startups identifiées fin 2017 par CB Insights, notons l’existence de Benson Hill Biosystems, qui combine la biologie des plantes, l’analyse des données et le cloud computing. L’idée est de “libérer la diversité génétique naturelle des plantes” et de concevoir des “systèmes de culture optimisés” pour augmenter les rendements sans recourir à des intrants chimiques. De son côté, l’israélienne Prospera offre aux agriculteurs une plateforme de “data-powered agronomy” pour optimiser les cultures en continu, prévoir et maximiser les rendements.

La startup Prospéra permet d'analyser et d'optimiser la production agricole grâce à l'IA / © Prospera

Santé pour tous et lutte contre la pauvreté

Ces modèles prédictifs servent aussi à prévenir les risques humains. L’organisation DataKind, qui met en relation des data scientists avec des ONG, a par exemple développé avec Amnesty International un outil pour prédire et empêcher les violations des droits humains. La start-up canadienne Element AI a récemment annoncé l’ouverture d’une branche londonienne qui se concentrera sur l’AI for Good : on en sait peu sur ce que cela recouvre, mais son directeur Dr Julian Cornebise, un ancien de DeepMind, a concédé à TechCrunch qu’il avait passé les deux dernières années à travailler pour Amnesty International sur la résolution de conflits et la définition d’algorithmes pour identifier les malversations à grande échelle.
Côté santé, Microsoft a créé un outil qui anticipe les épidémies de maladies infectieuses. Comme l’écrit l’IUT, “de plus en plus, les signes avant-coureurs d’une épidémie sont numériques, que ce soit via des recherches Google, les réseaux sociaux ou des mouvements de population qui peuvent être inférés des mouvements des téléphones portables.” L’IA peut aider à faire sens des montagnes de données dans lesquelles se cachent des indices d’un risque sanitaire. Au-delà de ces situations d’urgence, l’IUT veut croire que l’intelligence artificielle peut contribuer à atteindre l’objectif d’une couverture santé universelle, en aidant les personnels de santé à diagnostiquer plus efficacement des maladies infectieuses, à effectuer les premiers traitements, ou encore à détecter les populations à risque pour le diabète et les maladies cardio-vasculaires.
Enfin, le Big Data ouvre des pistes pour mieux cartographier la pauvreté, dans des pays où les données sont rares, difficilement accessibles ou utilisables. DataKind a ainsi développé des projets qui cherchent des corrélations entre la pauvreté et des indicateurs comme le taux d’utilisation des téléphones portables ou le niveau d’éclairage nocturne. Dans les pays développés, l’intelligence artificielle peut aussi être utilisée pour cartographier la pauvreté, ou pour identifier les populations à risque de se retrouver dans la rue et les services les plus utiles aux personnes qui le sont.

Dans le champ de l’éducation, DataKind travaille sur des projets qui utilisent des modèles prédictifs pour savoir si les élèves sont prêts pour entrer à l’université, comprendre les facteurs d’abandon des études et mieux les contrer, faciliter l’accès aux cours de soutien / ©Unsplash

L’IA pour l’égalité des chances

Enfin, l’AI for Good, c’est aussi la lutte pour plus d’inclusion et contre les discriminations. Dans le champ de l’éducation, DataKind travaille sur des projets qui utilisent des modèles prédictifs pour savoir si les élèves sont prêts pour entrer à l’université, comprendre les facteurs d’abandon des études et mieux les contrer, faciliter l’accès aux cours de soutien, etc. L’objectif global est de suivre, accompagner et comprendre les étudiants issus de milieux défavorisés pour s’assurer qu’ils terminent leur formation. Une fois arrivés sur le marché du travail, ces jeunes diplômés auront peut-être à faire face à des discriminations et des biais plus ou moins conscients de la part des employeurs : selon la start-up pymetrics, s’appuyer sur des CV représente un désavantage de 50 à 67% pour les femmes et les minorités. Changer les modes de recrutement peut aider à contourner ces biais : “L’intelligence artificielle peut apprendre les qualifications des employés qui réussissent à leur poste et appliquer ces connaissances pour filtrer, classer et noter les candidats qui correspondent à ces critères”, résume Somen Mondal, CEO d’Ideal, un assistant virtuel pour recruteurs. C’est aussi l’approche de pymetrics, donc, une entreprise fondée par deux neuroscientifiques de MIT et Harvard : les salariés jouent à des jeux qui permettent d’identifier les traits “à succès” pour les rechercher parmi les candidats, qui eux-mêmes jouent plutôt que d’envoyer le traditionnel CV et passer le classique entretien d’embauche. De son côté, Gap Jumpers fait passer des tests conçus par les employeurs et leur transmet les résultats de manière anonyme, et promet “10% de diversité en plus chaque trimestre, by design.”

Éthique partout

Après cet inventaire à la Prévert des applications de l’AI for Good, on serait donc tentés de se dire que l’intelligence artificielle est la dernière frontière à franchir pour enfin construire un monde juste, débarrassé à la fois de la pauvreté et des discriminations, capable de nous nourrir de manière durable et dans lequel on serait tous capables d’exprimer tout notre potentiel. Pour faire advenir ce monde idéal, il reste tout de même deux ou trois petits détails à régler.
D’abord, comme l’intelligence artificielle repose sur les données, il convient de s’assurer que les modes de collecte, d’analyse et de partage répondent à de fortes exigences éthiques. Car si certaines données peuvent être utilisées pour l’intérêt général, cela ne veut pas dire qu’elles doivent l’être, si cette utilisation représente une atteinte à la vie privée des utilisateurs, par exemple. Pour mettre l’IA au service du bien commun, il faut d’abord élaborer une gouvernance éthique des données, qui crée du lien social et de la confiance — l’une des thématiques du sommet AI for Good, soit rappelé en passant. L’autre grand sujet, c’est l’éthique de l’intelligence artificielle elle-même, ce qui recouvre à la fois l’éthique de ses concepteurs et celle dont l’outil final sera doté. Il s’agit de s’assurer que l’IA est développée avec l’intérêt général comme principe directeur, et de manière à ce qu’elle ne puisse pas évoluer pour prendre des décisions contraires à celui-ci. Comme le souligne Jean-Gabriel Ganascia, président du comité d’éthique du CNRS, dans une interview à RSLN, il faut “réfléchir aux valeurs humaines que l’on peut intégrer aux machines, afin que leurs actions ne soient pas uniquement décidées par des systèmes reprogrammables par apprentissage et, en conséquence, un peu imprévisibles.” D’après un article de McKinsey, il existe des tests pour s’assurer que les biais discriminants ne se retrouvent pas “par inadvertance” dans des algorithmes de machine learning. Mais là, il faudra paradoxalement encore compter sur les humains : “L’un des mythes les plus dangereux sur l’apprentissage machine est qu’il n’a pas besoin d’un suivi humain. (…) Les data scientists savent que (…) les réponses ne sont utiles que si on pose les bonnes questions.”