Malgré les progrès indéniables des machines ces dix dernières années, leurs capacités d’apprentissage demeurent limitées. Dans cet article, nous identifierons certaines de ces limites et mettrons en lumière les enjeux spécifiques à l’apprentissage des robots en tant que machines apprenantes.

Quelques échecs de robots qui font sourire :

Les limites de l’apprentissage des machines

Les biais artificiels d’origine humaine

Parce que les machines apprennent des humains et de ses données, elles reproduisent ses biais. Plusieurs évènements récents ont mis en lumière le fait que les intelligences artificielles reproduisaient les stéréotypes et les préjugés, notamment de genre et raciaux.

Par exemple, l’intelligence artificielle GloVe calcule des associations de mots (e.g. traduction) : pendant 7 ans, des chercheurs l’ont entraîné sur une grande base de données et se sont aperçus qu’elles se mettaient par exemple à associer des prénoms féminins avec des termes liés à la famille ou à classer négativement des données liées aux Noirs américains (en lire plus ici).

Aujourd’hui, la question des biais de l’intelligence artificielle est un sujet clé : si celle-ci est déjà amenée à analyser nos dossiers pour un crédit à la banque, à surveiller des individus ou encore à analyser des profils pour le recrutement, il est essentiel que les algorithmes puissent se détacher des biais humains automatiques, souvent inconscients.

C’est une vraie responsabilité pour les concepteurs à mesure que les intelligences artificielles deviennent des outils d’aide à la décision humaine : on parle depuis quelques années « d’ethic by design ».

Laurence Devilliers, chercheuse en intelligence artificielle donne des clés de lecture sur la question de l’intelligence artificielle et les discriminations sexistes : voir la vidéo ici

Apprendre sans comprendre n’est que ruine de l’intelligence ?

Dans cette même logique, on ne peut exiger des machines qu’elles soient conscientes de ce qu’elles font : elles apprennent « bêtement » ce qu’on leur demande d’apprendre. Autrement dit, elles apprennent en « surface » mais elles ne comprennent pas le sens de ce qu’elles apprennent, ni ne seraient capables d’expliquer pourquoi elles font ce qu’elles font.

C’est ainsi qu’une intelligence artificielle censée identifier des contenus pornographiques s’est mis à interdire des images de dunes de sable : elle reconnaît des formes qui lui apparaissent potentiellement comme des corps nus, mais privés d’une véritable compréhension des contenus elle se trompe d’interprétation. De la même manière, le chatbot Tay de Microsoft a suscité un véritable scandale en avril 2016 : cette intelligence artificielle, au profil d’adolescente, pouvait apprendre en interaction avec des internautes sur Twitter. Au bout d’à peine douze heures d’expérimentation, IBM dû la retirer du réseau social car des personnes s’amusaient à discuter avec elle autour de propos xénophobes et sexistes. Or, ces conversations se sont mis à engager de plus en plus les internautes malveillants renforçant ainsi les propos de Tay, programmée pour susciter de l’engagement. Autrement dit, ce que Tay codait comme un signe de réussite (i.e. le niveau d’engagement) n’était autre qu’un emballement de propos extrêmement violents : Tay n’était pas capable de comprendre le sens des échanges.

Capture d’écran prise le jour de la sortie de Tay.

« Les systèmes actuels d’intelligence artificielle ont la capacité d’extraire inconsciemment du sens des informations mais sans en avoir conscience » : dans une interview pour Sciences et Avenir, le célèbre chercheur en neuroscience Stanislas Dehaene expose les limites de la réflexivité de l’intelligence artificielle sur elle-même. Au contraire, nous sommes dotés d’une métacognition, c’est-à-dire une capacité à réfléchir sur le contenu de nos pensées et à réguler notre propre cognition : cette métacognition est un ingrédient clé dans l’apprentissage humain car c’est elle qui nous permet de savoir ce que l’on sait et de mettre au point les bonnes stratégies pour acquérir de nouvelles connaissances ou compétences.

« Une seule chose à la fois » : des intelligences monomaniaques

Lorsqu’on parle d’intelligence humaine, on parle d’un ensemble de dispositions générales qui font de nous des êtres capables d’aborder des tâches cognitives très variées et de manière souple.

Au contraire, les machines sont d’excellentes spécialistes : elles peuvent ingurgiter une quantité d’informations bien supérieure à nous, en un temps très réduit, mais elles se spécialiseront sur un seul type d’information. Un chatbot sera excellent pour décrypter une conversation en langage humain, mais incapable de reconnaître votre visage ou d’inventer une recette de cuisine. Cette dimension spécialiste ou « séquentielle » de l’apprentissage machine le distingue radicalement de la qualité de l’apprentissage pluriel humain : être un excellent conducteur, ne nous empêchera pas d’avoir une plume de maitre ni d’être un bon danseur ou encore un fin psychologue.

L’enjeu pour les robots : leur faire apprendre comme nous

En robotique, l’apprentissage des machines est d’autant plus délicat qu’à l’instar des ordinateurs, ils ne peuvent « apprendre » qu’à partir des données qu’ils captent dans leur environnement direct. Jusqu’à présent, les robots étaient très conditionnés à agir d’une certaine manière dans certaines situations ; ils avaient donc des comportements rigides, programmés à l’avance, qui ne leur permettaient pas nécessairement de s’adapter de manière subtile au contexte dans lequel ils étaient placés.

Aujourd’hui, en les intégrant dans des environnements où ils sont amenés à interagir avec les humains (e.g. accueil d’entreprise, salle de classe) il est nécessaire qu’ils puissent s’adapter à des situations complexes et parfois imprédictibles. Pour cela, ils doivent apprendre comme nous : en se développant dans un environnement et en apprenant des interactions avec celui-ci.

Exemple d’un robot qui apprend par lui-même à marcher : 

Ainsi, la start-up Hoomano, spécialiste des robots sociaux, développe en partenariat avec le CNRS des algorithmes qui doivent permettre aux machines d’apprendre de manière développementale en immersion dans des environnements sociaux. Cette approche développementale par l’expérience et l’exploration s’oppose à l’approche « par renforcement » traditionnelle dans laquelle le robot doit connaître l’environnement au préalable.

En savoir plus

Pour en savoir plus sur le concept d’ethic by design : https://www.lesechos.fr/04/04/2018/lesechos.fr/0301519788874_pour-une-intelligence-artificielle-ethique-des-sa-conception.htm 

Pour approfondir la notion d’apprentissage développemental : https://www.sciencesetavenir.fr/high-tech/robot/video-ce-robot-apprend-comme-un-bebe_110800 

Un autre exemple des limites d’une intelligence artificielle? Découvrez l’IA, jury de concours de beauté et ses erreurs: l’article à lire ici !