Yann LeCun, pionnier de l’apprentissage profond, dirigera le laboratoire d’intelligence artificielle de Facebook

Nouvelles 23.01.2014

Yann LeCun a un nouvel emploi – monter et superviser le nouveau laboratoire d’intelligence artificielle de Facebook. Boursier principal au sein du programme Calcul neuronal et perception adaptative de l’ICRA, LeCun est un pionnier de l’apprentissage profond, une technique qui fait appel à des réseaux neuronaux artificiels pour permettre aux machines à apprendre à reconnaître des formes dans des images, la langue parlée et l’écriture, entre autres. De concert avec d’autres membres du programme Apprentissage automatique, apprentissage biologique (anciennement connu sous le nom ‘Calcul neuronal et perception adaptative révolutionne’) (Geoffrey Hinton, directeur du programme, a récemment décroché un emploi similaire chez Google), LeCun est à l’avant-garde d’une résurgence de la recherche en intelligence artificielle. On doit beaucoup à l’ICRA à cet égard, dit-il.

Qu’allez-vous faire chez Facebook?

Je vais créer un laboratoire chez Facebook dont l’objectif est de réaliser des avancées importantes en intelligence artificielle. Des signes nous montrent que nous faisons déjà des progrès et cela ira en s’accélérant. Aujourd’hui, les grandes entreprises qui œuvrent en intelligence artificielle mettent l’accent sur l’apprentissage profond. Et au fond l’apprentissage profond a été une aventure financée par l’ICRA.

Il y a dix ans, Geoffrey Hinton, Yoshua Bengio et moi-même avons fait équipe et avons décidé de raviver l’intérêt, au sein des communautés de l’apprentissage automatique et de l’intelligence artificielle, pour l’apprentissage de représentations, un terme technique qui constitue le problème que tente de résoudre l’apprentissage profond.

Mais qu’est-ce que l’apprentissage profond?

Le cerveau des humains et des animaux est « profond », en ce sens que chaque action est le résultat d’une longue chaîne de communications synaptiques qui représentent plusieurs couches de traitement. L’apprentissage profond tente de faire quelque chose de similaire dans les machines. Nous créons des réseaux de neurones computationnels, à plusieurs couches de profondeur, qui peuvent apprendre à représenter des caractéristiques du monde, qu’il s’agisse de mots, d’images ou autres. Nous croyons qu’en comprenant l’apprentissage profond nous pourrons concevoir des machines plus intelligentes et mieux comprendre l’intelligence humaine.

Si je comprends bien, il s’agit d’un prolongement de la recherche sur les réseaux neuronaux qui se trouvait jadis dans une impasse. Comment l’apprentissage profond en est-il venu à connaître un tel succès?

Dans les années 1980, les gens ont commencé à s’intéresser à l’apprentissage de représentations internes d’objets ou du monde conceptuel. Mais à l’époque, c’était bien difficile. Nous n’avions pas de grands ensembles de données, ni d’ordinateurs rapides. Toutefois, cela n’a pas été un échec total. Mais il est vrai que la communauté de l’apprentissage automatique ne s’y intéressait plus.

C’est alors que le programme Calcul neuronal et perception adaptative de l’ICRA a commencé à jouer un rôle très important, il y a environ dix ans. Nous devions convaincre la communauté que ces recherches en valaient la chandelle. En 2005 ou 2006, un grand intérêt s’est manifesté pour des techniques de l’apprentissage profond appelées apprentissage non supervisé. Quelques personnes comme Andrew Ng et d’autres ont fait des contributions très intéressantes. Cela a de nouveau suscité l’intérêt de la communauté quant à l’apprentissage de représentations par apprentissage non supervisé.
Yann LeCun croit qu’en comprenant l’apprentissage profond nous pourrons concevoir des machines plus intelligentes et mieux comprendre l’intelligence humaine. (Photo: NYU)


Les gens s’intéressent-ils à l’apprentissage non supervisé, car on lui laisse le champ libre, on laisse au système le soin d’apprendre par lui-même, plutôt que de faire tout ce travail au préalable?

Oui. Si l’on songe à la façon dont les animaux et les bébés apprennent, ils apprennent par eux-mêmes la notion des objets, les propriétés des objets, sans qu’on leur explique spécifiquement la nature de ces objets. C’est plus tard seulement qu’on donne un nom aux objets. Conséquemment, le gros de l’apprentissage se fait de manière non supervisée. L’apprentissage supervisé vient plus tard quand on nomme les objets. Vous montrez un livre d’images à un enfant et l’enfant voit l’image d’un éléphant; l’enfant sait donc ce qu’est un éléphant après en avoir vu une seule image.

Il y a environ deux ans, Geoff a aidé plusieurs entreprises à utiliser l’apprentissage profond pour la reconnaissance de la parole et a détaché certains de ses étudiants et stagiaires à ces entreprises. Plus récemment, nous avons collaboré à la reconnaissance d’images. Et les méthodes qui semblent fonctionner sont les anciennes méthodes, les méthodes purement supervisées. Conséquemment, les méthodes que les gens utilisent aujourd’hui en industrie – Google, Microsoft, IBM – sont les réseaux à supervision pure qui sont très similaires à ceux d’il y a vingt ans. Mais maintenant ils fonctionnent, car ils sont beaucoup plus gros et rapides, et utilisent de gigantesques ensembles de données. Voilà pourquoi ils fonctionnent.

Mais il demeure tout de même des avantages à l’apprentissage profond en tant que tel, non?

L’apprentissage profond désigne les architectures qui font l’objet d’un entraînement. Dès qu’elles comptent plus de trois couches, on les qualifie de profondes; et le fait qu’elles soient formées à l’aide de techniques supervisées ou non supervisées est vraiment secondaire. Conséquemment, il y a quelques applications où un entraînement préalable non supervisé suivi d’un entraînement supervisé fonctionne très bien. Dans bien des cas, si vous avez de grands ensembles de données, l’entraînement supervisé fonctionne bien.

Nous savons qu’à long terme, l’apprentissage non supervisé constituera une part importante de la réponse. Mais nous n’avons pas encore de solution miracle pour percer ses secrets.

Pourquoi l’offre de Facebook est-elle si attirante?

Pour plusieurs raisons. Tout d’abord, il y a l’objectif ambitieux du laboratoire de réaliser des percées importantes en intelligence artificielle. Ensuite il y a le fait que cet exercice sera ouvert. Les gens publieront des articles, ils feront partie de la communauté de la recherche. Ce qui est intéressant avec une entreprise comme Facebook c’est que si l’on met au point une meilleure façon de comprendre le langage naturel ou la reconnaissance d’images, il est inutile de créer toute une entreprise connexe pour soutenir ces résultats. Il existe déjà un lien direct avec les applications de la recherche qui n’est pas présent dans toutes les entreprises. Il ne fait aucun doute que cela aura une incidence directe sur les activités. Et l’objectif est véritablement ambitieux et à long terme.

Il arrive rarement d’avoir l’occasion de créer un laboratoire d’intelligence artificielle à partir de zéro. Particulièrement quand le travail se fait pratiquement de l’autre côté de la rue de mon laboratoire à l’Université de New York. Il s’agit donc d’une occasion très emballante.

Laissez un commentaire

Votre adresse email ne sera pas publiée.

Vous pouvez utiliser ces HTML balises et attributs: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Related Idées

Cerveau, esprit et conscience | Article de fond

Au-delà des « niveaux » de la conscience

Pour élucider la conscience, les chercheurs doivent dépasser cette idée selon laquelle on peut mesurer la conscience à l’aide d’une...

Apprentissage automatique, apprentissage biologique | Nouvelles

Les ordinateurs reconnaissent des images mémorables

Pourquoi certaines images restent-elles gravées dans notre mémoire, alors que d’autres s’estompent rapidement? Pour trouver réponse à cette question, les...

Cerveau, esprit et conscience | Article de fond

Chez certains, ne pas aimer la musique pourrait être inscrit dans le cerveau

Environ deux pour cent de la population mondiale n’aime tout simplement pas la musique. Ce n’est pas qu’un certain genre...

Matériaux quantiques | Nouvelles

Découverte de nouvelles propriétés de la supraconductivité

Des boursiers et des collaborateurs de l’ICRA ont dirigé une équipe internationale qui a jeté de la lumière sur le...

Cerveau, esprit et conscience | Nouvelles

Où le cerveau fait-il des maths?

Le raisonnement mathématique supérieur est-il lié à la capacité linguistique chez l’humain? Ou cela dépend-il de régions cérébrales qui se...