Les techniques d'« apprentissage profond » (« deep learning ») ont, en moins de 5 ans, complètement bouleversé le domaine de l'intelligence artificielle (IA), selon Yann LeCun qui dirige le nouveau laboratoire d'intelligence artificielle de Facebook à Paris.

L'apprentissage profond est utilisé, par exemple, par Siri, Cortana et Google Now pour la reconnaissance vocale, par Google Maps pour déchiffrer le texte présent dans les paysages (comme les numéros de rue) et par Facebook pour détecter les images contraires à ses conditions d'utilisation et pour reconnaître les utilisateurs présents sur les photos publiées (une fonctionnalité non disponible en Europe).

« Toutes les grandes entreprises tech s'y mettent : Google, IBM, Microsoft, Amazon, Adobe, Yandex ou encore Baidu y investissent des fortunes », rapportait la journaliste Morgane Tual dans Le Monde en juillet 2015.

L'apprentissage profond est basé sur ce qui a été appelé, analogiquement, des « réseaux de neurones artificiels », composés de milliers d'unités (les neurones) qui effectuent chacune de petits calculs simples. Les résultats des calculs d'une première couche de neurones servent d'entrée aux calculs d'une deuxième couche.

La journaliste cite Yann Ollivier, chercheur en IA au CNRS, qui explique : « Comment reconnaître une image de chat ? Les points saillants sont les yeux et les oreilles. Comment reconnaître une oreille de chat ? L'angle est à peu près de 45°. Pour reconnaître la présence d'une ligne, la première couche de neurones va comparer la différence des pixels au-dessus et en dessous : cela donnera une caractéristique de niveau 1. La deuxième couche va travailler sur ces caractéristiques et les combiner entre elles. S'il y a deux lignes qui se rencontrent à 45°, elle va commencer à reconnaître le triangle de l'oreille de chat. Et ainsi de suite. »

À chaque étape (couche), le réseau approfondit sa compréhension de l'image avec des concepts de plus en plus abstraits. C'est ce fonctionnement par « couches » qui est désigné par le terme « profond ».

« Une des réalisations les plus poussées et les plus spectaculaires du deep learning », rapporte la journaliste, a eu lieu en 2012, quand le programme Google Brain a été capable de « découvrir », par lui-même, le concept de chat. La machine a analysé, pendant trois jours, dix millions de captures d'écran issues de YouTube. À l'issue de cet entraînement, elle avait appris elle-même à détecter des têtes de chats et des corps humains. « Ce qui est remarquable, c'est que le système a découvert le concept de chat lui-même. Personne ne lui a jamais dit que c'était un chat. Ça a marqué un tournant dans le machine learning », a expliqué Andrew Ng, fondateur du projet Google Brains.

« Les idées de base du deep learning remontent à la fin des années 80, avec la naissance des premiers réseaux de neurones. Si la théorie était déjà en place, les moyens, eux, ne sont apparus que très récemment. La puissance des ordinateurs actuels, combinés à la masse de données désormais accessible, a multiplié l'efficacité du deep learning. »

Pour Yann Ollivier, « le deep learning va, dans une échéance de 5 à 10 ans, se généraliser “dans toute l'électronique de décision”, comme dans les voitures ou les avions. Il pense aussi à l'aide au diagnostic en médecine, citant certains réseaux de neurones qui se trompent moins qu'un médecin pour certains diagnostics, même si, souligne-t-il, “ce n'est pas encore rôdé”. Les robots seront eux aussi, selon lui, bientôt dotés de cette intelligence artificielle. »

Chez Facebook, Yann LeCun veut utiliser le deep learning « de façon plus systématique pour la représentation des pièces d'information », en clair, développer une IA capable de comprendre le contenu des textes, photos et vidéos publiées par les internautes. « Mais pour l'instant, on n'y est pas ».

Article complet dans Le Monde : Comment le « deep learning » révolutionne l'intelligence artificielle.

Psychomédia
Tous droits réservés