12 / 05 / 2017
#The Next Web

L’insoutenable complexité de l’intelligence artificielle

  • Linkedin
L’opacité des algorithmes derrière les agents intelligents pose un problème de plus en plus conséquent et insoluble à mesure que l’IA gagne en complexité, alerte The Next Web.

Maintenance prédictive, véhicules autonomes, diagnostics médicaux… Il n’est plus question d’en douter : l’intelligence artificielle sait résoudre maints problèmes de manière plus efficace que l’homme, affirme The Next Web. Mais, selon le média en ligne nord-américain, être plus efficace ne veut pas dire ne pas faire d’erreur. Et devant l’impossible surveillance des algorithmes propriétaires utilisés par les sociétés développant des agents intelligents, on risque de moins en moins de pouvoir tenir quelqu’un pour responsable de ces erreurs.

Un problème crucial, car l’IA agit dans des domaines à l’évidence critique : santé, transport, droit, etc… Et particulièrement vif pour les réseaux neuronaux profonds, utilisés en masse par les applications d’intelligence artificielle, mais qui fonctionnent comme une « black box », une boîte noire : leur décision est parfois inexplicable par les ingénieurs même qui les ont créés. Comme le dit un chercheur interrogé :

«Ce qu’il se passe à l’intérieur n’est pas toujours clair. On laisse le réseau s’organiser lui-même, mais ce réseau s’organise vraiment lui-même : il ne vous dit pas nécessairement comment il a fait.»

Cela pose à l’évidence le problème de la responsabilité, dès lors que la prise de décision est laissée totalement à une intelligence artificielle. Nous ne sommes en fait pas encore prêts à laisser l’IA prendre des décisions qui auraient des répercussions sociales, légales, économiques ou politiques, conclut The Next Web : tant que nous n’ouvrons pas la boîte noire, les algorithmes ne sont pour l’heure bons qu’à nous faire jouer ou choisir nos séries TV, voire à accompagner nos décisions… Des initiatives comme l’organisation Partnership on AI, dont Microsoft est membre, changeront-elles la donne ?

L’article de The Next Web est à lire par là.