Depuis quelques années, les machines apprennent de mieux en mieux : c’est ce qui leur a permis de développer des compétences cognitives spécifiques, qui peuvent parfois dépasser les nôtres.

Les algorithmes d’apprentissage de l’intelligence artificielle ressemblent de plus en plus au processus d’apprentissage humain. En s’alliant à la recherche en neurosciences, le domaine de l’intelligence artificielle s’est nourri de la compréhension de l’apprentissage chez l’humain pour concevoir des algorithmes plus performants. Concrètement, nous parlons ici d’une évolution clé : l’essor de l’apprentissage profond.

L’apprentissage profond (ou « deep learning »)

Pendant longtemps, l’intelligence artificielle ne pouvait apprendre qu’à partir de données préalablement étiquetées par l’homme. On l’exposait alors à une masse de données (e.g. des photos de chat) pendant des heures voire des jours, puis dans un deuxième temps, elle pouvait reconnaître par elle-même les données pertinentes. Autrement dit, pour qu’une intelligence artificielle puisse reconnaître une image de chat, il fallait d’abord la nourrir avec une grande quantité d’images de chat : c’est ce qu’on appelle l’apprentissage supervisé.

Le passage à l’apprentissage profond marque une nouvelle ère – celle d’AlphaGo et ses successeurs – où les algorithmes ont une architecture interne toute autre : ils sont semblables à des réseaux de neurones structurés en différentes couches, qui seront capables, de manière autonome, de reconnaître les caractéristiques des données à traiter et de les classifier sans étiquetage préalable. Ces algorithmes d’apprentissage sont inspirés du fonctionnement de l’apprentissage humain : plus les couches de neurones sont nombreuses, plus les intelligences artificielles seront capables d’apprendre des choses abstraites et complexes. (Pour plus de détails, lire un autre article de ce blog : Commet réfléchit une I.A.?)

C’est ainsi qu’en 2012, l’intelligence artificielle Google Brain, a été capable de « découvrir » par lui-même le concept de chat. L’an dernier, Apple a également annoncé des améliorations notables de Siri grâce à l’utilisation d’un réseau neuronal profond lui permettant d’analyser de manière plus précise la prosodie ou le contexte sémantique. Ainsi, en invoquant l’assistant par un simple “Hey Siri” sans même toucher au bouton d’accueil, l’assistant vocal s’active et est prêt à enregistrer la commande.

Voici l’exemple donné par le chercheur Yann Ollivier (CNRS) : « Comment reconnaître une image de chat ? Les points saillants sont les yeux et les oreilles. Comment reconnaître une oreille de chat ? L’angle est à peu près de 45°. Pour reconnaître la présence d’une ligne, la première couche de neurones va comparer la différence des pixels au-dessus et en dessous : cela donnera une caractéristique de niveau 1. La deuxième couche va travailler sur ces caractéristiques et les combiner entre elles. S’il y a deux lignes qui se rencontrent à 45°, elle va commencer à reconnaître le triangle de l’oreille de chat. Et ainsi de suite. »

Parce que les machines peuvent reconnaître et catégoriser des informations de plus en plus complexes, elles développent des compétences cognitives progressivement semblables aux nôtres. De plus, elles constituent des moteurs de traitement de données extrêmement performants, plus rapides et efficaces qu’un cerveau humain ; ce qui les rend “meilleures” que nous sur certaines tâches très spécifiques qui mobilisent des grandes quantitées de données.

 

Les compétences cognitives des intelligences artificielles

1/ Elles peuvent reconnaître des images

Grâce aux progrès de l’apprentissage machine, certaines intelligences artificielles sont maintenant spécialisées dans la reconnaissance des images et ce, de manière de plus en plus contextualisée.

Comment l’apprentissage machine permet d’enseigner la reconnaissance d’image ?

Cette capacité cognitive, la reconnaissance des images, peut s’appliquer dans de nombreux domaines : la navigation, l’identification d’objets dans un environnement ou encore la reconnaissance des visages pour permettre des interactions homme-machine.

Nous verrons néanmoins à travers le prochain article que l’intelligence artificielle a encore beaucoup de progrès à faire dans ce domaine !

2/ Elles peuvent communiquer avec le langage

Siri ou Alexa, les agents personnels respectifs d’Apple et Amazon, en sont la preuve même : ils sont capables à la fois d’entendre, reconnaître et produire du langage oral humain. C’est ce qu’on appelle la reconnaissance et synthèse vocale. Cette technologie s’applique aux nouveaux agents vocaux mais également, depuis longtemps, à des personnes handicapées de la parole… C’était notamment le cas de Stephen Hawking, le célèbre scientifique, qui a mis en libre accès le code source de la machine lui permettant de s’exprimer !

Un article sur le sujet qui présente la technologie d’Hawking à lire ici

Le traitement automatique du langage naturel, qu’on appelle également “chaîne TALN” dans le jargon scientifique, regroupe plusieurs techniques qui permettent à la machine de reproduire tout un tas d’autres fonctions langagières :

  • traduire un texte ;
  • discuter avec un interlocuteur (e.g. les célèbres chatbots sont les enfants de la TALN)
  • corriger automatiquement des fautes ;
  • reconnaitre une langue, etc.

Le défi de ce champ aujourd’hui est de permettre à l’intelligence artificielle de comprendre au mieux les nuances du langage naturel. C’est pourquoi sont très en vogue les outils syntaxiques qui permettent par exemple de détecter les “sentiments” (autrement appelée sentiment analysis) dans un texte ; le ton, les connotations, le registre. Ainsi les intelligences artificielles deviennent progressivement moins premier degré !

Le 6 novembre, une intelligence artificielle a pour la première fois écrit un livre entier : plus de détails à lire ici, sur Usbek & Rica

3/ Elles peuvent raisonner

AlphaGo n’aurait pas battu le champion du monde si cette intelligence artificielle n’avait pas été à même de raisonner, de résoudre des problèmes de manière indépendante. Le raisonnement automatisé est une dimension cognitive au coeur de nombreux développements récents de l’intelligence artificielle. Ces raisonnements sont de plus en plus complexes car ils intègrent toujours plus de variables à prendre en compte : c’est notamment le cas de la voiture autonome qui doit opérer des prédictions dans des environnements dynamiques difficiles, prendre des décisions délicates, etc.

Toutefois, nous verrons que l’intelligence artificielle peut elle aussi raisonner de manière imparfaite et qu’il existe encore de nombreux sujets sur lesquels elle n’est pas à même de raisonner. Par exemple ? Les dilemmes moraux qui sont des problèmes typiquement humains !

En savoir plus

Pour aller plus loin sur le deep learning : https://www.lemonde.fr/pixels/article/2015/07/24/comment-le-deep-learning-revolutionne-l-intelligence-artificielle_4695929_4408996.html