Depuis le début des années 2000, de nombreuses expérimentations – en particulier en Asie – ont été menées pour tester l’intégration de robots dans la salle de classe. Est-ce une bonne ou une mauvaise idée ? Vaste question que l’on peut aborder sous de nombreuses perspectives : s’intéresse-t-on à l’efficacité de l’apprentissage ? Aux enjeux plutôt éthiques ? Ou encore aux questions juridiques que cela soulève ?

Dans une revue synthétique de la littérature, Amanda J.C. Sharkey (2016) propose une analyse critique sur l’état de l’art de ces expérimentations en identifiant quatre scénarios d’usage possible des robots dans la salle de classe.

Les robots en classe : état de l’art des scénarios possibles

Scénario 1 : Le robot enseignant.

Le robot remplace entièrement l’enseignant sur une période donnée, c’est-à-dire que durant cette période il fait figure d’autorité (il régule) tout en étant une source légitime de connaissance pour les enfants.

Saya est un robot humanoïde doté de l’apparence d’une femme japonaise. Elle dispose, par exemple, de 27 muscles dans le visage qui lui permettent d’avoir des expressions faciales similaires aux nôtres.

https://www.youtube.com/watch?v=bE4DnQ5GlTc

Scénario 2 : Le robot compagnon.

Le robot opère de manière autonome dans la classe comme un compagnon qui vient apporter des connaissances mais de façon implicite et non-obligatoire.

Robovie en est un exemple : ce compagnon est utilisé en classe d’école primaire (Kanda et. al., 2004, 2007) pour suggérer des entraînements ludiques d’apprentissage de l’anglais sur des durées de 2 à 8 semaines tout en sociabilisant avec les enfants (e.g. il les appelle par leur prénom).

Scénario 3 : Le robot dont il faut s’occuper.

Le robot est conçu de sorte à faire des erreurs pour que l’enfant soit mis en position de lui apprendre des choses.

Ce robot a typiquement été utilisé dans l’apprentissage des langues et l’apprentissage de l’écriture manuscrite (Tanaka, 2012 et Hood et.al. 2015).  

Scénario 4 : Le robot en téléprésence.

Dans ce cas précis, le robot est contrôlé par une présence humaine, visible des élèves. Il permet à l’enseignant absent d’avoir une présence physique en classe, notamment en téléguidant le robot pour se déplacer dans la salle. Il est typiquement utilisé dans le cadre de cours de langue pour permettre à des étudiants d’échanger à l’international de manière plus engageante qu’une vidéo statique ou une communication écrite : ils échangent ainsi avec le robot dont le visage est celui de la personne humaine qui le contrôle.

Les résultats de ces expérimentations au regard de l’apprentissage

Globalement, ces études suggèrent que les enfants peuvent apprendre des robots, notamment lorsqu’il s’agit de l’apprentissage des langues (e.g. Kanda et. al. 2004, 2007 ; Tanaka et. al. 2012). Mais elles n’apportent pas de données suffisamment solides quant à l’efficacité de l’apprentissage car elles ne comparent pas l’enseignant-robot et l’enseignant-humain.  

Elles ne permettent pas non plus de savoir ce qui facilite l’acceptation des robots comme enseignant : est-ce l’apparence plus ou moins anthropomorphe ? ou la capacité à reproduire des comportements sociaux ?

Ainsi, en l’état, la recherche doit encore avancer pour que l’on puisse savoir comment concevoir des robots qui soient acceptés et légitimes pour des apprenants humains.

Or, si les robots ne sont pas plus efficaces que les humains en tant qu’enseignants, pourquoi les intègrerait-on dans une salle de classe ?

« Lorsqu’ils permettent quelque chose qui ne serait pas possible autrement » suggère l’auteure : autrement dit, lorsqu’ils enrichissent la situation d’apprentissage, qu’ils apportent quelque chose de nouveau. Nous en avons vu deux cas : la téléprésence qui permet à des enfants de pratiquer l’anglais de manière engageante avec d’autres enfants à l’étranger. Et le coaching individuel, en plus de l’enseignant, permis par les robots compagnons ou les robots qui recherchent de l’aide, encourageant ainsi les élèves à exercer leur compétence avec eux. Ces deux apports ne pourraient être permis autrement !

Mais les robots pourraient-il faire plus ? Dans quelles limites serait-il possible ou souhaitable de les intégrer dans la salle de classe ?

L’intégration du robot dans la salle de classe : défis pour les fondamentaux de la relation d’apprentissage humaine

L’auteure identifie trois considérations éthiques clés concernant les robots enseignants :

  1. le respect de la vie privée : quels types d’informations les robots captent-ils ? Qui y a accès si elles sont stockées ?
  2. les enjeux d’attachement / déception et de perte du contact humain : plus les robots s’humanisent, plus ils sont susceptibles de susciter de l’attachement de la part des enfants. Comment cet attachement peut-il impacter l’enfant dès lors qu’il se rendra compte qu’il est limité ? Procure-t-il la même sécurité affective qu’un enseignant humain ?
  3. les enjeux de responsabilité : si les robots font office d’autorité vis-à-vis des enfants, cela signifie qu’ils doivent être en mesure de prendre les bonnes décisions notamment en matière de punition et récompense. Les robots sont-ils aujourd’hui capables d’exercer un contrôle aussi complexe ? Peuvent-ils être tenus responsables de telles décisions ?  

Finalement, ces considérations éthiques renvoient à des piliers de la relation d’apprentissage, qui sont effectivement questionnés dès lors que le robot prend place dans cette équation humaine.

Pilier 1 : transparence et consentement

Les enjeux de respect de la vie privée sont soulevés par le caractère transparent et consenti de cette relation : admettons que les robots puissent un jour capter des données sur les comportements perturbateurs des enfants afin de les signaler au professeur. Ne faudrait-il pas que les enfants soient informés ? Leurs parents ? Dans quelles mesures l’enseignant pourrait-il légitimement se servir de ces données pour prendre des décisions, sans abus de confiance ?

Autre exemple : de plus en plus de dispositifs permettent de capter des données intimes sur les individus, notamment pour pouvoir monitorer leur niveau d’engagement. Ainsi, certains robots peuvent reconnaître les émotions faciales, d’autres peuvent capter la réponse électrodermale. Ces données physiologiques sont des indicateurs d’intérêt et d’attention, certains parlent même de « podomètre de l’engagement ». Mais doit-on rajouter un tel niveau de surveillance dans la relation d’apprentissage ? Doit-on pouvoir tracker la moindre chute d’attention ? Est-ce bien le rôle de l’enseignant ?

Pilier 2 : affection

Les enjeux d’attachement et déception, ou de perte du contact humain sont soulevés dans la dimension affective de la relation d’apprentissage :  en prenant un rôle social vis-à-vis de l’enfant le robot devient attachant. On sait aujourd’hui construire des robots de plus en plus performants dans les interactions sociales. Ils créent ainsi l’illusion de comprendre et d’interagir avec l’enfant ; adultes, il y a moins de risque de s’y tromper. En bref, en s’humanisant de plus en plus, les robots ne risqueraient-ils pas de créer des fausses attentes chez les enfants ? Cela pourrait-il affecter la manière dont un jeune enfant comprend et développe ses relations sociales ?

Enfin, la relation enfant-enseignant repose sur un lien affectif spécifique – différent du style parental – qui confère une sécurité émotionnelle essentielle à l’enfant pour explorer son environnement, se tromper, interagir avec ses camarades, etc. Le robot peut-il reproduire un tel lien affectif ? Aujourd’hui, cela ne semble pas possible : il est loin de pouvoir entrer en empathie, comprendre la complexité des émotions et les potentielles fragilités affectives d’un enfant…

Pilier 3 : responsabilité

Le dernier pilier fondamental qui est remis en question par l’intégration du robot dans la relation d’enseignement est celui de la responsabilité : face à un enfant, l’enseignant adulte est responsable, il doit pouvoir répondre de ses actes, prendre des décisions en connaissance de cause comme récompenser ou punir un enfant. Et c’est peut-être là une tâche encore plus complexe que de concevoir une bonne leçon de grammaire ou d’enseigner l’anglais.

À ce jour, un robot ne peut pas juger ou évaluer une situation aussi complexe que la salle de classe : il ne peut pas comprendre les intentions d’un enfant, anticiper ses comportements, développer des approches particulières en fonction de chaque cas particulier. Autrement dit, le sens moral du robot est extrêmement limité face à la diversité et la complexité des situations possibles dans une salle de classe. L’auteure est très ferme : « le manque de compréhension des comportements et des intentions des enfants est un obstacle majeur à la possibilité qu’un robot puisse remplacer un enseignant à moyen terme. »

Par ailleurs, admettons que le robot puisse développer un sens moral plus fin et se mette à prendre des décisions comme des punitions ou des récompenses : quel serait son répertoire d’action ? Pourrait-il devenir aussi juste, plus juste qu’un enseignant humain ? Et si un parent était en désaccord avec une décision prise, qui serait légalement responsable : le robot ? Son concepteur ? L’école ?

Finalement, à la question « est-ce une bonne ou une mauvaise idée d’intégrer des robots dans la salle de classe ? » il n’existe donc pas de réponse simple. Il s’agit bien d’une question de curseur qui se trouve quelque part entre ces différents piliers fondamentaux : à quel point le robot a t-il vocation à se substituer à l’autorité et à la connaissance de l’enseignant ? A t-il un rôle de complément pédagogique ? Ou doit-il prendre des décisions d’ordre moral tel que arbitrer un conflit entre des enfants ou récompenser l’entraide ?

Ce qu’il faut retenir

Acceptation versus efficacité

L’efficacité de l’apprentissage par un robot versus par un humain est loin d’avoir été prouvée : à ce jour, les expérimentations menées ont plutôt servi à tester l’acceptation des robots par les enfants mais n’ont pas permis d’évaluer l’efficacité réelle des robots en tant qu’enseignants.

Complémenter versus remplacer

Le remplacement complet d’un enseignant-humain par un enseignant-robot n’est pas envisageable : il n’est à la fois pas souhaitable pour un certain nombre de raisons éthiques, et n’est pas non plus possible au regard de la complexité d’une situation d’apprentissage « réussie » dans une salle de classe.

Cela ne signifie pas qu’il faille bannir les robots de la salle de classe : ceux-ci peuvent avoir des apports réels dans certains cas, limités dans le temps et dans leur rôle par rapport à l’enseignant-humain. Il existe en effet des usages par lesquels les robots peuvent enrichir la situation d’apprentissage.