14 / 04 / 2017
#New Scientist

Des « humains synthétiques » pour apprendre aux ordinateurs à nous comprendre

  • Linkedin
Comment aider les ordinateurs à mieux comprendre comment nous nous comportons ? Alors que leur faire analyser des vidéos de « vrais » humains peut s’avérer fastidieux, des chercheurs allemands ont mis au point un procédé utilisant des « faux » humains, générés et animés en 3D comme dans un jeu vidéo. Les explications, avec New Scientist.

Observer les Super Models, les mannequins quasi-robotiques de l’artiste contemporaine Valérie Belin, ou les Geminoids, les robots-clones du professeur Ishiguro, revient à se demander en quoi nous sommes encore « 100% humains ». Une confusion savamment entretenue par le New Scientist, qui conclut, en évoquant ces « humains synthétiques » utilisés par le Max Planck Institute for Intelligent Systems, en Allemagne, pour entraîner les intelligences artificielles conduisant les voitures autonomes, à quel point « nous sommes des ordinateurs difficile à comprendre ».

Des images et vidéos de corps humains, générés par le logiciel de modélisation 3D Blender, sont donc utilisées par ces chercheurs afin, in fine, de mieux modéliser le comportement humain : leurs mouvements (marche, danse, course, mais aussi des mouvements plus inhabituels) sont réalistes, et leur principal d’intérêt est de ne pas avoir à cataloguer les milliers de pixels que composent les vidéos de (vrais) humains jusque-là utilisés pour entraîner les algorithmes.

Les « hommes synthétiques », puisqu’ils sont générés par ordinateur, sont en effet automatiquement catégorisés, chaque pixel de leur « corps » contenant les informations autorisant les algorithmes à une analyse «frame by frame». 6,5 millions de vues et 65 000 clips différents ont déjà été générés, les décors, la lumière et les points de vue étant choisis et accordés aléatoirement.

Ce procédé revient donc à apprendre aux ordinateurs à observer les humains et ce, sans leur montrer de « vrais » humains. Il peut finalement permettre aux systèmes informatiques, robots ou intelligences artificielles, de mieux évaluer les profondeurs (et ainsi de réussir à transmettre en douceur un objet à humain, sans le frapper à l’estomac) mais surtout de mieux anticiper les mouvements, en prévoyant par exemple, qu’un piéton est sur le point (ou non) de traverser.

Pour lire l’article de New Scientist, c’est par ici.