L'essor de l'intelligence artificielle avec l'apprentissage profond | Yoshua Bengio | TEDxMontreal
-
0:18 - 0:21Notre monde se transforme
de multiples façons -
0:21 - 0:26et un des éléments qui auront
un impact important sur notre avenir -
0:26 - 0:29est l'intelligence artificielle, IA,
-
0:29 - 0:33à l'origine d'une nouvelle
révolution industrielle. -
0:34 - 0:40Les révolutions industrielles précédentes
ont rehaussé la force mécanique de l'homme -
0:40 - 0:46mais cette révolution-ci,
la deuxième ère de la machine, -
0:46 - 0:50va rehausser nos capacités cognitives,
-
0:50 - 0:52notre force mentale.
-
0:53 - 0:57Les ordinateurs ne vont plus se limiter
à remplacer le travail manuel, -
0:58 - 1:00ils vont aussi s'emparer
du travail intellectuel. -
1:00 - 1:03Où en sommes-nous aujourd'hui ?
-
1:04 - 1:08Vous avez probablement entendu
parler en mars dernier [2016] -
1:08 - 1:12du système d'apprentissage
automatique appelé AlphaGo -
1:12 - 1:18qui a utilisé l'apprentissage profond
pour vaincre le champion du monde de go. -
1:18 - 1:21Le go est un ancien jeu chinois
-
1:21 - 1:24bien plus complexe à maîtriser
pour un ordinateur -
1:24 - 1:26que les échecs.
-
1:27 - 1:32Comment cela fut-il possible maintenant,
après des décennies de recherche en IA ? -
1:33 - 1:37On a entraîné AlphaGo à jouer au go.
-
1:38 - 1:41D'abord, en observant encore et encore
-
1:42 - 1:47des dizaines de millions de mouvements
de joueurs humains très doués. -
1:48 - 1:52Ensuite, en le faisant jouer
des millions de parties contre lui-même. -
1:54 - 2:00L'apprentissage automatique est
une méthode d'apprentissage par l'exemple. -
2:00 - 2:03Les ordinateurs apprennent des données.
-
2:04 - 2:07L'apprentissage automatique
est devenu un élément clé -
2:07 - 2:12pour emmagasiner de la connaissance
dans les ordinateurs. -
2:12 - 2:14C'est fondamental
-
2:14 - 2:19car la connaissance
conduit à l'intelligence. -
2:20 - 2:23Intégrer la connaissance
dans les ordinateurs -
2:23 - 2:24s'est avéré être le défi
-
2:24 - 2:28dans les approches précédentes de l'IA.
-
2:28 - 2:29Pourquoi ?
-
2:29 - 2:34Il y a de nombreuses choses
que nous savons intuitivement. -
2:35 - 2:38Nous sommes donc incapables
de les communiquer verbalement. -
2:39 - 2:43Nous n'avons pas un accès conscient
à ce savoir intuitif. -
2:43 - 2:47Comment programmer un ordinateur
sans connaissance ? -
2:48 - 2:49Comment résoudre ça ?
-
2:49 - 2:55La solution est de faire apprendre
aux machines ce savoir par elles-mêmes, -
2:55 - 2:56comme nous le faisons.
-
2:56 - 3:03C'est important car la connaissance
conduit à l'intelligence. -
3:03 - 3:08Ma mission est de contribuer
à la découverte et à la compréhension -
3:08 - 3:13des principes qui soutiennent
l'intelligence par l'apprentissage. -
3:13 - 3:18Qu'il s'agisse de l'apprentissage
par l'animal, l'homme ou la machine. -
3:19 - 3:25Avec d'autres, je suis convaincu
qu'il y a quelques principes fondamentaux -
3:25 - 3:27comme les lois de la physique.
-
3:28 - 3:33Des principes simples capables
d'expliquer notre propre intelligence -
3:33 - 3:37et de nous aider à concevoir
des machines intelligentes. -
3:38 - 3:42Prenez par exemple
les lois de l'aérodynamique : -
3:42 - 3:48suffisamment générales pour expliquer
le vol des oiseaux et des avions. -
3:49 - 3:55Ne serait-ce pas incroyable de découvrir
des principes simples mais puissants -
3:56 - 3:59qui expliqueraient l'intelligence,
rien de moins ? -
4:01 - 4:03Nous avons fait des progrès.
-
4:04 - 4:11Mes collaborateurs et moi avons contribué
à révolutionner l'IA ces dernières années -
4:12 - 4:16avec nos recherches sur les réseaux
neuronaux et l'apprentissage profond, -
4:16 - 4:21une approche de l'apprentissage
automatique inspirée du cerveau. -
4:22 - 4:25Tout a commencé avec
la reconnaissance vocale -
4:25 - 4:30dans vos téléphones
avec les réseaux neuronaux depuis 2012. -
4:31 - 4:36Peu après, on a fait des avancées
dans la vision par ordinateur. -
4:37 - 4:43Les ordinateurs sont devenus assez bons
pour reconnaître le contenu d'images. -
4:44 - 4:50Ils sont même proches des performances
de l'homme depuis cinq ans environ. -
4:51 - 4:55Un ordinateur a atteint le niveau
de compréhension intuitif -
4:55 - 4:58de l’apparence visuelle d’un plateau de go
-
4:58 - 5:02comparable à celui
des meilleurs joueurs humains. -
5:02 - 5:03Plus récemment,
-
5:03 - 5:07et suite à des découvertes
réalisées dans mon labo, -
5:07 - 5:11l’apprentissage profond est exploité
pour traduire d’une langue vers une autre -
5:11 - 5:14et cela va bientôt apparaître
dans Google Traduction. -
5:15 - 5:18Ceci élargit les capacités des machines
-
5:18 - 5:23à comprendre et générer
un langage naturel. -
5:24 - 5:26Mais ne vous laissez pas aveugler !
-
5:26 - 5:30Nous sommes encore très loin d’une machine
-
5:30 - 5:34aussi capable qu’un être humain
-
5:34 - 5:38d’apprendre à maîtriser
les nombreux aspects de notre monde. -
5:39 - 5:41Prenons un exemple.
-
5:42 - 5:47Même un enfant de deux ans
est capable d’apprendre des choses -
5:47 - 5:51d’une manière que les ordinateurs
ne peuvent pas encore reproduire. -
5:52 - 5:56Un enfant de deux ans a une compréhension
intuitive de la physique. -
5:57 - 6:02Il sait qu’en lâchant une balle,
celle-ci va tomber. -
6:02 - 6:06Quand il renverse du liquide,
il s’attend au résultat final. -
6:07 - 6:10Ses parents n’ont pas besoin
de lui expliquer -
6:10 - 6:13la loi de Newton
ou les équations différentielles. -
6:14 - 6:20L’enfant apprend seul ces choses,
sans supervision. -
6:21 - 6:28L’apprentissage sans supervision
reste un des défis cruciaux de l’IA. -
6:28 - 6:33Ça pourrait requérir plusieurs décennies
de recherche fondamentale -
6:33 - 6:35pour dénouer ce nœud.
-
6:35 - 6:42L’apprentissage sans supervision cherche
à traduire des données en représentation. -
6:42 - 6:44Je vais illustrer cela pour vous.
-
6:44 - 6:49Imaginez regarder, avec vos yeux,
une page sur votre écran. -
6:49 - 6:54L’ordinateur voit ça comme
une image, un amas de pixels. -
6:55 - 7:00Pour répondre à une question
sur le contenu de cette image, -
7:01 - 7:05vous avez besoin de comprendre
sa signification de haut-niveau. -
7:06 - 7:11La signification de haut niveau
correspond au plus haut niveau cognitif -
7:11 - 7:12de représentation dans le cerveau.
-
7:13 - 7:18À un niveau bas, on a la signification
individuelle des mots -
7:19 - 7:24et plus bas encore, on a les signes
qui composent les mots. -
7:25 - 7:28Ces signes peuvent être représentés
de diverses manières, -
7:28 - 7:31avec des traits différents
qui les composent. -
7:32 - 7:35Ces traits sont composés par des arêtes
-
7:35 - 7:37et ces arêtes sont composées de pixels.
-
7:37 - 7:40Il s’agit donc de différents
niveaux de représentation. -
7:41 - 7:44Toutefois, les pixels seuls
ne sont pas suffisants -
7:44 - 7:47pour faire sens de l’image,
-
7:47 - 7:52pour répondre à la question
de haut niveau sur le contenu de la page. -
7:53 - 7:58Votre cerveau possède ces différents
niveaux de représentation -
7:58 - 8:02depuis les neurones
dans la zone visuelle du cortex, V1, -
8:02 - 8:05qui reconnaît les arêtes.
-
8:05 - 8:09Ensuite, les neurones dans la deuxième
région visuelle du cortex, V2, -
8:09 - 8:13reconnaissent les traits
et les petites formes. -
8:13 - 8:17Plus haut, des neurones détectent
les parts constitutives des objets -
8:17 - 8:20et ensuite les objets et un paysage
dans son intégralité. -
8:21 - 8:25Quand on entraîne les réseaux
neuronaux à reconnaître des images, -
8:25 - 8:29ils sont capables de découvrir
ces niveaux de représentation -
8:29 - 8:33d’une manière correspondant
à ce que nous observons dans le cerveau. -
8:34 - 8:39Les réseaux neuronaux biologiques,
qui existent dans notre cerveau, -
8:39 - 8:43et les réseaux neuronaux profonds,
que nous entraînons sur nos machines, -
8:43 - 8:48peuvent apprendre à transformer
un niveau de représentation en le suivant, -
8:48 - 8:53les niveaux les plus élevés correspondant
à des notions progressivement abstraites. -
8:53 - 8:58Prenons un exemple :
la notion abstraite de la lettre A -
8:58 - 9:01peut être rendue de diverses manières
aux niveaux les plus bas, -
9:01 - 9:04autant de manières que
de configurations différentes de pixels -
9:04 - 9:09selon leur position,
leur rotation ou leur police. -
9:10 - 9:16Comment apprenons-nous
ces hauts niveaux de représentation ? -
9:17 - 9:21Un des modes qui rencontrent
du succès jusqu'à présent -
9:21 - 9:23dans les applications
d'apprentissage profond -
9:23 - 9:26est un mode appelé
apprentissage supervisé. -
9:26 - 9:32Le principe de ce mode est que l'humain
prend l'ordinateur par la main -
9:32 - 9:35et lui donne les réponses
à un grand nombre de questions. -
9:35 - 9:41Par exemple, les hommes doivent dire
à la machine pour des millions d'images -
9:41 - 9:44que sur cette image-ci, on a un chat.
-
9:44 - 9:47Sur cette image-là, on a un chien.
-
9:47 - 9:50Et sur cette autre image, un ordinateur.
-
9:50 - 9:56Sur cette image, c'est un clavier,
et ainsi de suite, des millions de fois. -
9:56 - 10:01C'est un processus douloureux
et on a recours au crowdsourcing. -
10:01 - 10:03Même si ce mode est très puissant
-
10:03 - 10:06et nous permet de résoudre
de nombreux problèmes intéressants, -
10:06 - 10:08l'homme est bien plus fort
-
10:08 - 10:12et peut apprendre davantage
d'aspects différents du monde -
10:12 - 10:14de façon autonome,
-
10:14 - 10:18comme l'enfant qui a une compréhension
intuitive de la physique. -
10:18 - 10:24L'apprentissage non supervisé pourrait
aider à aborder la conduite autonome. -
10:25 - 10:26Je veux dire en fait
-
10:26 - 10:32que l'apprentissage non supervisé permet
aux machines de se projeter dans l'avenir -
10:32 - 10:37pour générer des futurs plausibles
conditionnés par la situation actuelle. -
10:38 - 10:43Ceci permet aux ordinateurs
de raisonner, anticiper et planifier. -
10:43 - 10:46Même pour des circonstances
-
10:46 - 10:48pour lesquelles
ils n'ont pas été entraînés. -
10:49 - 10:50C'est important
-
10:50 - 10:54car avec l'apprentissage supervisé,
nous devrons expliciter aux ordinateurs -
10:54 - 10:57toutes les circonstances dans lesquelles
peut se trouver un véhicule -
10:57 - 11:01et comment un humain réagirait
pour chacune d'elles. -
11:02 - 11:06Comment ai-je appris
à ne pas conduire dangereusement ? -
11:07 - 11:11Ai-je dû mourir mille fois
dans un accident ? -
11:11 - 11:12(Rires)
-
11:12 - 11:15C'est pourtant ainsi que nous entraînons
les machines actuellement. -
11:15 - 11:18Donc, elles ne vont pas voler
ou ne pas rouler. -
11:18 - 11:20(Rires)
-
11:21 - 11:26Nous devons donc entraîner nos modèles
-
11:26 - 11:31à devenir capables de générer des images
ou des futurs plausibles, à être créatifs. -
11:32 - 11:34On fait des progrès dans ce domaine.
-
11:34 - 11:37Nous entraînons ces réseaux
neuronaux profonds -
11:37 - 11:41à transiter d'une signification
de haut niveau vers le pixel -
11:41 - 11:43plutôt que l'inverse,
-
11:43 - 11:47de traverser les niveaux de représentation
dans l'autre direction. -
11:47 - 11:50Ainsi, l'ordinateur peut
générer des images -
11:51 - 11:55qui sont nouvelles et différentes
de ce qu'il a déjà vu auparavant -
11:55 - 11:56pendant son apprentissage,
-
11:57 - 12:00mais qui sont plausibles
et ressemblent à des images naturelles. -
12:02 - 12:06On peut également utiliser ces images
pour rêver des images étranges, -
12:06 - 12:09parfois même effrayantes,
-
12:09 - 12:12comme nos propres rêves et cauchemars.
-
12:13 - 12:17Voici quelques images synthétisées
par un ordinateur -
12:17 - 12:20en utilisant ces modèles
d'apprentissage profond. -
12:20 - 12:22Cela ressemble à des images naturelles
-
12:22 - 12:25mais un observateur attentif
décèlera qu'il s'agit d'autre chose -
12:25 - 12:29et qu'il manque à ces images
des détails importants -
12:29 - 12:31pour rendre ces illustrations
naturelles à nos yeux. -
12:32 - 12:34Il y a environ 10 ans,
-
12:34 - 12:39l'apprentissage non supervisé
a joué un rôle crucial dans l'avancée -
12:39 - 12:42que nous avons réalisée
dans l'apprentissage profond. -
12:44 - 12:48Seuls quelques rares laboratoires
s'y intéressaient, dont le mien, -
12:48 - 12:51à une époque où les réseaux neuronaux
n'étaient pas répandus. -
12:51 - 12:55La communauté scientifique
les avait presque abandonnés. -
12:56 - 12:59Mais les choses ont beaucoup changé.
-
12:59 - 13:01C'est devenu un domaine
très concurrentiel. -
13:02 - 13:06Des centaines d'étudiants
envoient leur candidature -
13:06 - 13:07pour continuer leurs études
-
13:07 - 13:10avec les collaborateurs
de mon laboratoire. -
13:11 - 13:17Aujourd'hui, Montréal attire
la plus grande concentration académique -
13:17 - 13:19de chercheurs dans l'apprentissage
profond dans le monde. -
13:20 - 13:26Nous venons d'obtenir un financement
de recherche de 94 millions de dollars -
13:26 - 13:30pour repousser les frontières de l'IA
et de la science des données -
13:30 - 13:33et pour transférer
vers l'industrie les technologies -
13:33 - 13:37issues de l'apprentissage profond
et de la science des données. -
13:37 - 13:40Des entrepreneurs y trouvent
une source d'émulation -
13:40 - 13:44et créent des start-ups
ou des laboratoires industriels -
13:44 - 13:47souvent proches des universités.
-
13:49 - 13:50Par exemple,
-
13:50 - 13:55nous venons d'annoncer il y a quelques
semaines le lancement d'une start-up -
13:55 - 13:57appelée : « Element AI »
-
13:57 - 14:00qui se concentre sur les applications
d'apprentissage profond. -
14:02 - 14:06Il n'y a pas assez de spécialistes
en apprentissage profond. -
14:06 - 14:11Les salaires sont extravagants,
-
14:11 - 14:17conduisant de nombreux anciens collègues
à accepter des offres généreuses -
14:17 - 14:21d'entreprises pour travailler
dans leurs laboratoires. -
14:21 - 14:25J'ai toutefois décidé
de rester à l'université, -
14:25 - 14:27de travailler pour le bien public,
-
14:27 - 14:29de travailler avec les étudiants,
-
14:29 - 14:31de rester indépendant
-
14:31 - 14:34et de montrer la voie à la nouvelle
génération de spécialistes -
14:34 - 14:35en apprentissage profond.
-
14:35 - 14:41Au-delà de la valeur commerciale de l'IA,
-
14:41 - 14:45nous réfléchissons
à ses implications sociales. -
14:47 - 14:50Nous sommes nombreux à nous intéresser
-
14:50 - 14:56aux applications qui créent
de la valeur sociale, comme la santé. -
14:56 - 14:59Nous pensons pouvoir utiliser
l'apprentissage profond -
14:59 - 15:03pour améliorer les traitements
et vraiment personnaliser la médecine. -
15:04 - 15:06Je suis convaincu qu'à l'avenir,
-
15:06 - 15:10la collecte de données sur des milliards
de personnes dans le monde -
15:10 - 15:14nous permettra d'offrir un conseil médical
-
15:14 - 15:18à des milliards de personnes qui n'ont pas
encore accès aux soins de santé. -
15:18 - 15:23On peut imaginer beaucoup d'autres
applications avec une valeur sociale. -
15:23 - 15:26Par exemple, notre laboratoire
va prochainement sortir un produit -
15:26 - 15:29lié à la compréhension du langage naturel
-
15:29 - 15:31qui offre une palette de services
-
15:31 - 15:35comme des services légaux,
à ceux qui ne peuvent pas se le permettre. -
15:35 - 15:37Nous nous intéressons aussi
-
15:37 - 15:41aux implications sociales de l'IA
dans ma communauté. -
15:42 - 15:45Mais cette question ne devrait pas
intéresser seulement les spécialistes. -
15:46 - 15:50En dépit des mathématiques et du jargon,
-
15:51 - 15:53les citoyens peuvent
suffisamment appréhender -
15:53 - 15:56ce qu'il se passe sous le capot
-
15:57 - 16:01pour participer
aux décisions fondamentales -
16:01 - 16:05qui seront prises prochainement
et dans les décennies à venir -
16:05 - 16:07au sujet de l'IA.
-
16:08 - 16:09Je vous invite donc
-
16:10 - 16:16à mettre de côté vos peurs et à ménager
un peu d'espace pour vous renseigner. -
16:18 - 16:23Avec mes collaborateurs, nous avons écrit
plusieurs articles d'introduction -
16:23 - 16:25et un livre intitulé :
« L'apprentissage profond » -
16:25 - 16:30pour inciter étudiants et ingénieurs
à s'engager dans ce domaine passionnant. -
16:31 - 16:36Il y a aussi de nombreuses ressources
en ligne : logiciels, tutoriels ou vidéos. -
16:36 - 16:41De nombreux étudiants étudient ce domaine
-
16:41 - 16:45de recherche sur l'apprentissage profond
de manière autodidacte -
16:45 - 16:48afin de rejoindre des laboratoires
comme le mien. -
16:49 - 16:55L'impact de l'IA sur notre société
sera important. -
16:57 - 17:02Il est donc crucial de se demander :
qu'allons-nous en faire ? -
17:03 - 17:08Des bénéfices incalculables peuvent
en émaner comme des impacts négatifs : -
17:08 - 17:10des applications militaires
-
17:11 - 17:15ou des changements disruptifs
sur le marché de l'emploi. -
17:16 - 17:22Pour nous assurer que les choix collectifs
qui seront pris au sujet de l'IA -
17:22 - 17:23dans les années à venir
-
17:23 - 17:25soient bénéfiques à tous,
-
17:25 - 17:29tous les citoyens doivent
devenir les protagonistes -
17:29 - 17:33pour définir comment l'IA
va modeler notre avenir. -
17:34 - 17:35Merci.
-
17:35 - 17:39(Applaudissements)
- Title:
- L'essor de l'intelligence artificielle avec l'apprentissage profond | Yoshua Bengio | TEDxMontreal
- Description:
-
Une révolution est en train de transformer l'intelligence artificielle grâce aux progrès réalisés dans l'apprentissage profond. À quelle distance nous trouvons-nous de l'objectif de créer une intelligence artificielle de niveau humain ? Quels sont les défis à surmonter ?
Yoshua Bengio est convaincu que tous les citoyens peuvent comprendre les principes de l'intelligence artificielle et que démocratiser ces sujets est crucial pour la société au moment de prendre des décisions collectives sur les transformations qu'apportent l'IA et s'assurer que ces changements seront bénéfiques pour tous.
Yoshua Bengio est un des pionniers de l'apprentissage profond. Il est directeur scientifique de l'Institut québécois d'intelligence artificielle (MILA). il est professeur à l'université de Montréal, membre de la conférence en intelligence artificielle et neurosciences computationnelles (NIPS) et cofondateur de élément AI. Docteur en science de l'Université de McGill (1991, science informatique), Bengio a réalisé un post-doc au MIT et à AT&T Bell Labs. Il est le titulaire de la chaire de recherche du Canada en algorithmes d'apprentissage statistique.
Bengio est membre de l'Institut canadien de recherches avancées où il est codirecteur du programme Apprentissage automatique. il est reconnu pour ses contributions sur l'apprentissage profond, les réseaux de neurones récurrents, les modèles de réseaux de neurones en traitement de la langue, algorithmes de traduction neurale et sur l'apprentissage profond d’inspiration biologique.
https://mila.umontreal.ca/en/
https://www.elementai.com/Plus d'informations : http://www.tedxmontreal.com
Cette présentation a été donnée lors d'un événement TEDx local utilisant le format des conférences TED mais organisé indépendamment. En savoir plus : http://ted.com/tedx
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDxTalks
- Duration:
- 17:54