18 / 11 / 2016
#Techcrunch

Comment lutter contre les biais algorithmiques ?

  • Linkedin
Les innovations liées à l’intelligence artificielle se multiplient. Mais quid de la neutralité des algorithmes qui rendent possible une telle technologie ? Décryptage avec Techcrunch.

Les moteurs de recherche, les logiciels de reconnaissance faciale, les assistants numériques… Pour développer de tels outils qui prennent de plus en plus de place dans notre quotidien, les chercheurs et les développeurs ont recours au machine learning, c’est-à-dire à des algorithmes qui analysent des données, en extraient des modèles, font des prédictions et prennent des décisions en conséquence.

Comme l’explique Techcrunch, plus l’algorithme est « nourri » par les données, plus il devient intelligent. Mais seulement à la hauteur des données dont il a été nourri… Des données qui peuvent contenir des biais, que l’on retrouve par conséquent dans l’algorithme en lui-même. Et ce sans compter les biais qu’ont, le plus souvent inconsciemment, véhiculé les développeurs en réalisant l’algorithme. C’est notamment ce qu’a démontré un chercheur de ProPublica, au sujet de l’algorithme de prédiction du crime utilisé en Floride.

Alors que faire ? Pour rendre les algorithmes impartiaux, la solution serait, toujours selon TechCrunch, de créer des bases de données partagées et réglementées, empêchant ainsi quiconque de manipuler les données.

« Un jour, les robots deviendront certainement assez intelligents pour expliquer leur propre comportement. Mais nous en sommes encore loin. D’ici là, c’est à nous, humains, d’éviter que ces derniers n’amplifient les orientations négatives des humains qui les ont développés», conclut TechCrunch.

C’est dans cette optique de transparence et de réflexion sur le futur de l’intelligence artificielle qu’Elon Musk a créé OpenAI, ou que Facebook, Amazon, Google, IBM et Microsoft ont noué un partenariat dans ce domaine.

Pour en savoir plus, c’est par ici.