17 / 05 / 2017
#Décryptage

Failles, biais, erreurs… faut-il croire tout ce que nous disent les algorithmes ?

share
Des biais des algorithmes à leur audit, tour d’horizon des enjeux autour de ces fameuses formules mathématiques en compagnie de quatre chercheurs dont c’est le terrain de jeux et que RSLN a pu interviewer ces derniers mois : Cathy O’Neil, Surya Mattu, danah boyd et Dominique Cardon.

Les algorithmes sont omniprésents dans nos vies, des smartphones aux moteurs de recherche en passant par les voitures autonomes. Pourtant, ils restent peu connus des Français, et les enjeux fondamentaux qu’ils représentent sont très peu explorés… voire, parfois, inquiètent.

72% des Français estiment ainsi que les algorithmes sont un enjeu de société, selon un sondage Ifop pour la Cnil. Mais seuls 1/3 des sondés voient précisément de quoi il s’agit. Et une courte majorité (53%) estime que ces algorithmes sont plutôt sources d’erreurs.

Mais qu’est-ce qu’un algorithme précisément ? Est-ce vraiment plus « fiable » ou impartial qu’un humain ? Quelle part de construction sociale dans l’élaboration de ces formules mathématiques et de ces lignes de code ?

Qu’ils servent à classer, lier, sélectionner ou encore prédire, les algorithmes (en informatique) sont des instructions aux machines prenant la forme de lignes de code. Ces algorithmes exécutables par des machines, à la complexité croissante, sont au cœur de la personnalisation du web et des développements de l’intelligence artificielle.

Mais qui dit ligne de code ne dit pas forcément objectivité et infaillibilité. Face aux dérives craintes ou observées, de la reproduction de discriminations à la création de « bulles cognitives », certains penseurs, chercheurs et codeurs questionnent la supposée toute-puissance des algorithmes. Tour d’horizon en compagnie de chercheurs qui se sont penchés sur le sujet.

L’algorithme est une construction sociale

Tout d’abord, et même si nous entendons parler des algorithmes principalement dans le domaine de l’informatique, un algorithme n’est pas systématiquement synonyme de machine.

Comme le rappelle John MacCormick, chercheur en informatique diplômé de l’Université d’Oxford, un algorithme n’est rien de plus qu’une « recette précise qui décrit la séquence exacte des étapes nécessaires à la résolution d’un problème ». Une simple addition, par exemple, est un algorithme. Tout comme les calculs complexes des services de recommandations du e-commerce.

Pour être défini comme un algorithme, une formule de calcul doit néanmoins avoir 2 caractéristiques essentielles :

  • un caractère mécanique, chacune des étapes devant être la plus précise et claire possible, tout en ne nécessitant aucune intuition humaine ou tâtonnement.
  • elle doit fonctionner dans tous les cas de figure, quelles que soient les données qu’elle traite.

Ces caractéristiques permettent aux algorithmes d’être exécutés facilement par des ordinateurs, ces derniers fonctionnant sur un système binaire (les fameux 1 et 0). Pour en créer les lignes de codes, de nombreux ingénieurs, informaticiens et mathématiciens travaillent à leur programmation.

Les algorithmes sont donc souvent parés d’une vertu mathématique, supposés infaillibles et impartiaux. Pourtant, selon la mathématicienne Cathy O’Neil, que nous avions interrogée en décembre 2016, il n’en est rien :

«Il ne faut jamais perdre de vue qu’une donnée est une construction sociale qui touche à des domaines bien plus larges que la seule programmation informatique, comme par exemple la sociologie ou la philosophie. »Cathy O’Neil rappelle qu’il ne faut pas oublier qu’un «data scientist n’est ni plus ni moins qu’un traducteur, qui traduit des décisions et les implémente dans un code. Je crois qu’il ne faut surtout pas oublier cela : les mathématiques n’éclipsent pas le contexte culturel dans lequel le code est rédigé ».

En effet, ce sont bel et bien des cerveaux humains qui élaborent les algorithmes, et qui déterminent avant cela à quels problèmes ils devront répondre. Une étape cruciale qui met en lumière le caractère très humain de ces constructions sociales, que l’on présente trop souvent comme purement mathématiques, tout en vantant leur neutralité supposée.

Les biais algorithmiques, ou l’importance du contexte culturel

Ce contexte culturel peut en lui-même induire des biais, amplifiés par les algorithmes. Surya Mattu ingénieur et chercheur chez ProPublica également interviewé par RSLN, explique ainsi qu’un algorithme pourra créer des discriminations «parce que le système est discriminant en lui-même». Le « système » peut comprendre aussi bien le jeu de données utilisé, la formule algorithmique appliquée ou l’analyse du résultat.

Quelles sont les sources de ces biais ? Surya Mattu cite plusieurs pistes, parmi lesquelles le manque de parité dans le milieu du code, le manque de diversité sociale et culturelle ou encore l’absence de certaines compétences: «L’informatique, en tant que discipline, n’a pas la même rigueur en termes d’éthique que les sciences sociales», précise-t-il.

Pour autant, Cathy O’Neil ne préconise pas de chercher à éviter les biais à tout prix, mais plutôt de «choisir celui qui est le plus approprié, culturellement parlant […] de façon à savoir si celui que l’on implémente est le biais que nous voulons ici, ou si ce dernier va mener à des décisions injustes ou discriminantes».

Politiser les algorithmes et responsabiliser les codeurs

Pour danah boyd, mathématicienne et chercheuse de Microsoft Research, les algorithmes et les services qui en découlent engendrent des conséquences rarement prises en compte par leurs concepteurs :

  • Un impact environnemental, via l’usage de data centers nécessitant d’importantes quantités d’eau et d’énergie pour fonctionner.
  • Un impact social, au travers des biais algorithmiques.

Au vu de l’importance de ces enjeux, danah boyd affirme que seule la volonté politique pourra en faire une priorité. Mais d’ici là, comme elle nous le rappelait en octobre 2016, elle appelle les codeurs à une plus grande responsabilité :

«Un bon codeur est celui qui est capable de penser de façon critique les conséquences fortuites engendrées par son code.»

Une vision que partage Surya Mattu, qui préconise également de porter une attention toute particulière au processus de conception même du code :

«Les algorithmes avec lesquels nous fonctionnons ont des frontières de plus en plus floues ; c’est pourquoi il ne serait pas inutile qu’un data scientist travaille en binôme avec, par exemple, un chercheur issu des sciences humaines.»

Cette politisation des algorithmes, Dominique Cardon l’appelle aussi de ses vœux. Et le sociologue d’encourager à «“ouvrir la boîte noire“ des algorithmes et ne pas se laisser intimider par la complexité de ces technologies, non pas pour en décoder les raffinements statistiques, mais pour comprendre le genre de monde qu’elles fabriquent».

En effet, selon selon l’auteur de « A quoi rêvent les algorithmes ? », ces derniers calculent avec 4 types d’intentions : mesurer la popularité, l’autorité, la réputation ou en vue d’une prédiction. Quatre familles qui représentent autant de façons différentes de voir le monde, que le sociologue encourage à questionner tout comme la désirabilité des univers qu’ils créent.

Vers un audit des algorithmes ?

Le manque de transparence des organisations développant des algorithmes (souvent pour des raisons de propriété intellectuelle et de concurrence) pose problème lorsque ces algorithmes mènent à des résultats biaisés ou discriminants.

Surya Mattu encourage ainsi tout un chacun à interroger la pertinence des algorithmes que nous utilisons. Ce qui semble plus facile à dire qu’à faire, selon le chercheur :

«Ce n’est pas tellement que les gens ont une confiance aveugle dans les algorithmes en tant que construction mathématique, mais plutôt qu’ils n’ont pas les moyens de les questionner.»

De son côté, Dominique Cardon enfonce le clou :

«Il est vrai que la complexité grandissante des calculs, notamment avec la généralisation des techniques d’apprentissage, rend de plus en plus incompréhensible (même pour ceux qui les fabriquent) les manières dont les algorithmes produisent leurs résultats.»

Pour y remédier, les deux chercheurs réclament un audit des algorithmes. En effet, Dominique Cardon explique que cette complexité «n’empêche pas de regarder les données en entrée du calcul et les objectifs donnés aux calculateurs, de vérifier aussi si ces calculs sont loyaux et respectent bien le principe qui est annoncé à l’utilisateur».

Mais quelle métrique utiliser ? Et qui s’en chargera ? Dans «un monde idéal, […] une instance composée de membres d’administrations et du secteur privé gèrerait l’audit des algorithmes », explique Surya Mattu. Une « mise sous surveillance » de certains algorithmes que danah boyd soutient également.

Autant d’éléments de réflexion, qui, s’ils ne répondent pas à tous les problèmes soulevés par les algorithmes, ont le mérite de poser le débat. A charge pour les responsables politiques et les citoyens de s’en saisir…