< Return to Video

L'essor de l'intelligence artificielle avec l'apprentissage profond | Yoshua Bengio | TEDxMontreal

  • 0:18 - 0:21
    Notre monde se transforme
    de multiples façons
  • 0:21 - 0:26
    et un des éléments qui auront
    un impact important sur notre avenir
  • 0:26 - 0:29
    est l'intelligence artificielle, IA,
  • 0:29 - 0:33
    à l'origine d'une nouvelle
    révolution industrielle.
  • 0:34 - 0:40
    Les révolutions industrielles précédentes
    ont rehaussé la force mécanique de l'homme
  • 0:40 - 0:46
    mais cette révolution-ci,
    la deuxième ère de la machine,
  • 0:46 - 0:50
    va rehausser nos capacités cognitives,
  • 0:50 - 0:52
    notre force mentale.
  • 0:53 - 0:57
    Les ordinateurs ne vont plus se limiter
    à remplacer le travail manuel,
  • 0:58 - 1:00
    ils vont aussi s'emparer
    du travail intellectuel.
  • 1:00 - 1:03
    Où en sommes-nous aujourd'hui ?
  • 1:04 - 1:08
    Vous avez probablement entendu
    parler en mars dernier [2016]
  • 1:08 - 1:12
    du système d'apprentissage
    automatique appelé AlphaGo
  • 1:12 - 1:18
    qui a utilisé l'apprentissage profond
    pour vaincre le champion du monde de go.
  • 1:18 - 1:21
    Le go est un ancien jeu chinois
  • 1:21 - 1:24
    bien plus complexe à maîtriser
    pour un ordinateur
  • 1:24 - 1:26
    que les échecs.
  • 1:27 - 1:32
    Comment cela fut-il possible maintenant,
    après des décennies de recherche en IA ?
  • 1:33 - 1:37
    On a entraîné AlphaGo à jouer au go.
  • 1:38 - 1:41
    D'abord, en observant encore et encore
  • 1:42 - 1:47
    des dizaines de millions de mouvements
    de joueurs humains très doués.
  • 1:48 - 1:52
    Ensuite, en le faisant jouer
    des millions de parties contre lui-même.
  • 1:54 - 2:00
    L'apprentissage automatique est
    une méthode d'apprentissage par l'exemple.
  • 2:00 - 2:03
    Les ordinateurs apprennent des données.
  • 2:04 - 2:07
    L'apprentissage automatique
    est devenu un élément clé
  • 2:07 - 2:12
    pour emmagasiner de la connaissance
    dans les ordinateurs.
  • 2:12 - 2:14
    C'est fondamental
  • 2:14 - 2:19
    car la connaissance
    conduit à l'intelligence.
  • 2:20 - 2:23
    Intégrer la connaissance
    dans les ordinateurs
  • 2:23 - 2:24
    s'est avéré être le défi
  • 2:24 - 2:28
    dans les approches précédentes de l'IA.
  • 2:28 - 2:29
    Pourquoi ?
  • 2:29 - 2:34
    Il y a de nombreuses choses
    que nous savons intuitivement.
  • 2:35 - 2:38
    Nous sommes donc incapables
    de les communiquer verbalement.
  • 2:39 - 2:43
    Nous n'avons pas un accès conscient
    à ce savoir intuitif.
  • 2:43 - 2:47
    Comment programmer un ordinateur
    sans connaissance ?
  • 2:48 - 2:49
    Comment résoudre ça ?
  • 2:49 - 2:55
    La solution est de faire apprendre
    aux machines ce savoir par elles-mêmes,
  • 2:55 - 2:56
    comme nous le faisons.
  • 2:56 - 3:03
    C'est important car la connaissance
    conduit à l'intelligence.
  • 3:03 - 3:08
    Ma mission est de contribuer
    à la découverte et à la compréhension
  • 3:08 - 3:13
    des principes qui soutiennent
    l'intelligence par l'apprentissage.
  • 3:13 - 3:18
    Qu'il s'agisse de l'apprentissage
    par l'animal, l'homme ou la machine.
  • 3:19 - 3:25
    Avec d'autres, je suis convaincu
    qu'il y a quelques principes fondamentaux
  • 3:25 - 3:27
    comme les lois de la physique.
  • 3:28 - 3:33
    Des principes simples capables
    d'expliquer notre propre intelligence
  • 3:33 - 3:37
    et de nous aider à concevoir
    des machines intelligentes.
  • 3:38 - 3:42
    Prenez par exemple
    les lois de l'aérodynamique :
  • 3:42 - 3:48
    suffisamment générales pour expliquer
    le vol des oiseaux et des avions.
  • 3:49 - 3:55
    Ne serait-ce pas incroyable de découvrir
    des principes simples mais puissants
  • 3:56 - 3:59
    qui expliqueraient l'intelligence,
    rien de moins ?
  • 4:01 - 4:03
    Nous avons fait des progrès.
  • 4:04 - 4:11
    Mes collaborateurs et moi avons contribué
    à révolutionner l'IA ces dernières années
  • 4:12 - 4:16
    avec nos recherches sur les réseaux
    neuronaux et l'apprentissage profond,
  • 4:16 - 4:21
    une approche de l'apprentissage
    automatique inspirée du cerveau.
  • 4:22 - 4:25
    Tout a commencé avec
    la reconnaissance vocale
  • 4:25 - 4:30
    dans vos téléphones
    avec les réseaux neuronaux depuis 2012.
  • 4:31 - 4:36
    Peu après, on a fait des avancées
    dans la vision par ordinateur.
  • 4:37 - 4:43
    Les ordinateurs sont devenus assez bons
    pour reconnaître le contenu d'images.
  • 4:44 - 4:50
    Ils sont même proches des performances
    de l'homme depuis cinq ans environ.
  • 4:51 - 4:55
    Un ordinateur a atteint le niveau
    de compréhension intuitif
  • 4:55 - 4:58
    de l’apparence visuelle d’un plateau de go
  • 4:58 - 5:02
    comparable à celui
    des meilleurs joueurs humains.
  • 5:02 - 5:03
    Plus récemment,
  • 5:03 - 5:07
    et suite à des découvertes
    réalisées dans mon labo,
  • 5:07 - 5:11
    l’apprentissage profond est exploité
    pour traduire d’une langue vers une autre
  • 5:11 - 5:14
    et cela va bientôt apparaître
    dans Google Traduction.
  • 5:15 - 5:18
    Ceci élargit les capacités des machines
  • 5:18 - 5:23
    à comprendre et générer
    un langage naturel.
  • 5:24 - 5:26
    Mais ne vous laissez pas aveugler !
  • 5:26 - 5:30
    Nous sommes encore très loin d’une machine
  • 5:30 - 5:34
    aussi capable qu’un être humain
  • 5:34 - 5:38
    d’apprendre à maîtriser
    les nombreux aspects de notre monde.
  • 5:39 - 5:41
    Prenons un exemple.
  • 5:42 - 5:47
    Même un enfant de deux ans
    est capable d’apprendre des choses
  • 5:47 - 5:51
    d’une manière que les ordinateurs
    ne peuvent pas encore reproduire.
  • 5:52 - 5:56
    Un enfant de deux ans a une compréhension
    intuitive de la physique.
  • 5:57 - 6:02
    Il sait qu’en lâchant une balle,
    celle-ci va tomber.
  • 6:02 - 6:06
    Quand il renverse du liquide,
    il s’attend au résultat final.
  • 6:07 - 6:10
    Ses parents n’ont pas besoin
    de lui expliquer
  • 6:10 - 6:13
    la loi de Newton
    ou les équations différentielles.
  • 6:14 - 6:20
    L’enfant apprend seul ces choses,
    sans supervision.
  • 6:21 - 6:28
    L’apprentissage sans supervision
    reste un des défis cruciaux de l’IA.
  • 6:28 - 6:33
    Ça pourrait requérir plusieurs décennies
    de recherche fondamentale
  • 6:33 - 6:35
    pour dénouer ce nœud.
  • 6:35 - 6:42
    L’apprentissage sans supervision cherche
    à traduire des données en représentation.
  • 6:42 - 6:44
    Je vais illustrer cela pour vous.
  • 6:44 - 6:49
    Imaginez regarder, avec vos yeux,
    une page sur votre écran.
  • 6:49 - 6:54
    L’ordinateur voit ça comme
    une image, un amas de pixels.
  • 6:55 - 7:00
    Pour répondre à une question
    sur le contenu de cette image,
  • 7:01 - 7:05
    vous avez besoin de comprendre
    sa signification de haut-niveau.
  • 7:06 - 7:11
    La signification de haut niveau
    correspond au plus haut niveau cognitif
  • 7:11 - 7:12
    de représentation dans le cerveau.
  • 7:13 - 7:18
    À un niveau bas, on a la signification
    individuelle des mots
  • 7:19 - 7:24
    et plus bas encore, on a les signes
    qui composent les mots.
  • 7:25 - 7:28
    Ces signes peuvent être représentés
    de diverses manières,
  • 7:28 - 7:31
    avec des traits différents
    qui les composent.
  • 7:32 - 7:35
    Ces traits sont composés par des arêtes
  • 7:35 - 7:37
    et ces arêtes sont composées de pixels.
  • 7:37 - 7:40
    Il s’agit donc de différents
    niveaux de représentation.
  • 7:41 - 7:44
    Toutefois, les pixels seuls
    ne sont pas suffisants
  • 7:44 - 7:47
    pour faire sens de l’image,
  • 7:47 - 7:52
    pour répondre à la question
    de haut niveau sur le contenu de la page.
  • 7:53 - 7:58
    Votre cerveau possède ces différents
    niveaux de représentation
  • 7:58 - 8:02
    depuis les neurones
    dans la zone visuelle du cortex, V1,
  • 8:02 - 8:05
    qui reconnaît les arêtes.
  • 8:05 - 8:09
    Ensuite, les neurones dans la deuxième
    région visuelle du cortex, V2,
  • 8:09 - 8:13
    reconnaissent les traits
    et les petites formes.
  • 8:13 - 8:17
    Plus haut, des neurones détectent
    les parts constitutives des objets
  • 8:17 - 8:20
    et ensuite les objets et un paysage
    dans son intégralité.
  • 8:21 - 8:25
    Quand on entraîne les réseaux
    neuronaux à reconnaître des images,
  • 8:25 - 8:29
    ils sont capables de découvrir
    ces niveaux de représentation
  • 8:29 - 8:33
    d’une manière correspondant
    à ce que nous observons dans le cerveau.
  • 8:34 - 8:39
    Les réseaux neuronaux biologiques,
    qui existent dans notre cerveau,
  • 8:39 - 8:43
    et les réseaux neuronaux profonds,
    que nous entraînons sur nos machines,
  • 8:43 - 8:48
    peuvent apprendre à transformer
    un niveau de représentation en le suivant,
  • 8:48 - 8:53
    les niveaux les plus élevés correspondant
    à des notions progressivement abstraites.
  • 8:53 - 8:58
    Prenons un exemple :
    la notion abstraite de la lettre A
  • 8:58 - 9:01
    peut être rendue de diverses manières
    aux niveaux les plus bas,
  • 9:01 - 9:04
    autant de manières que
    de configurations différentes de pixels
  • 9:04 - 9:09
    selon leur position,
    leur rotation ou leur police.
  • 9:10 - 9:16
    Comment apprenons-nous
    ces hauts niveaux de représentation ?
  • 9:17 - 9:21
    Un des modes qui rencontrent
    du succès jusqu'à présent
  • 9:21 - 9:23
    dans les applications
    d'apprentissage profond
  • 9:23 - 9:26
    est un mode appelé
    apprentissage supervisé.
  • 9:26 - 9:32
    Le principe de ce mode est que l'humain
    prend l'ordinateur par la main
  • 9:32 - 9:35
    et lui donne les réponses
    à un grand nombre de questions.
  • 9:35 - 9:41
    Par exemple, les hommes doivent dire
    à la machine pour des millions d'images
  • 9:41 - 9:44
    que sur cette image-ci, on a un chat.
  • 9:44 - 9:47
    Sur cette image-là, on a un chien.
  • 9:47 - 9:50
    Et sur cette autre image, un ordinateur.
  • 9:50 - 9:56
    Sur cette image, c'est un clavier,
    et ainsi de suite, des millions de fois.
  • 9:56 - 10:01
    C'est un processus douloureux
    et on a recours au crowdsourcing.
  • 10:01 - 10:03
    Même si ce mode est très puissant
  • 10:03 - 10:06
    et nous permet de résoudre
    de nombreux problèmes intéressants,
  • 10:06 - 10:08
    l'homme est bien plus fort
  • 10:08 - 10:12
    et peut apprendre davantage
    d'aspects différents du monde
  • 10:12 - 10:14
    de façon autonome,
  • 10:14 - 10:18
    comme l'enfant qui a une compréhension
    intuitive de la physique.
  • 10:18 - 10:24
    L'apprentissage non supervisé pourrait
    aider à aborder la conduite autonome.
  • 10:25 - 10:26
    Je veux dire en fait
  • 10:26 - 10:32
    que l'apprentissage non supervisé permet
    aux machines de se projeter dans l'avenir
  • 10:32 - 10:37
    pour générer des futurs plausibles
    conditionnés par la situation actuelle.
  • 10:38 - 10:43
    Ceci permet aux ordinateurs
    de raisonner, anticiper et planifier.
  • 10:43 - 10:46
    Même pour des circonstances
  • 10:46 - 10:48
    pour lesquelles
    ils n'ont pas été entraînés.
  • 10:49 - 10:50
    C'est important
  • 10:50 - 10:54
    car avec l'apprentissage supervisé,
    nous devrons expliciter aux ordinateurs
  • 10:54 - 10:57
    toutes les circonstances dans lesquelles
    peut se trouver un véhicule
  • 10:57 - 11:01
    et comment un humain réagirait
    pour chacune d'elles.
  • 11:02 - 11:06
    Comment ai-je appris
    à ne pas conduire dangereusement ?
  • 11:07 - 11:11
    Ai-je dû mourir mille fois
    dans un accident ?
  • 11:11 - 11:12
    (Rires)
  • 11:12 - 11:15
    C'est pourtant ainsi que nous entraînons
    les machines actuellement.
  • 11:15 - 11:18
    Donc, elles ne vont pas voler
    ou ne pas rouler.
  • 11:18 - 11:20
    (Rires)
  • 11:21 - 11:26
    Nous devons donc entraîner nos modèles
  • 11:26 - 11:31
    à devenir capables de générer des images
    ou des futurs plausibles, à être créatifs.
  • 11:32 - 11:34
    On fait des progrès dans ce domaine.
  • 11:34 - 11:37
    Nous entraînons ces réseaux
    neuronaux profonds
  • 11:37 - 11:41
    à transiter d'une signification
    de haut niveau vers le pixel
  • 11:41 - 11:43
    plutôt que l'inverse,
  • 11:43 - 11:47
    de traverser les niveaux de représentation
    dans l'autre direction.
  • 11:47 - 11:50
    Ainsi, l'ordinateur peut
    générer des images
  • 11:51 - 11:55
    qui sont nouvelles et différentes
    de ce qu'il a déjà vu auparavant
  • 11:55 - 11:56
    pendant son apprentissage,
  • 11:57 - 12:00
    mais qui sont plausibles
    et ressemblent à des images naturelles.
  • 12:02 - 12:06
    On peut également utiliser ces images
    pour rêver des images étranges,
  • 12:06 - 12:09
    parfois même effrayantes,
  • 12:09 - 12:12
    comme nos propres rêves et cauchemars.
  • 12:13 - 12:17
    Voici quelques images synthétisées
    par un ordinateur
  • 12:17 - 12:20
    en utilisant ces modèles
    d'apprentissage profond.
  • 12:20 - 12:22
    Cela ressemble à des images naturelles
  • 12:22 - 12:25
    mais un observateur attentif
    décèlera qu'il s'agit d'autre chose
  • 12:25 - 12:29
    et qu'il manque à ces images
    des détails importants
  • 12:29 - 12:31
    pour rendre ces illustrations
    naturelles à nos yeux.
  • 12:32 - 12:34
    Il y a environ 10 ans,
  • 12:34 - 12:39
    l'apprentissage non supervisé
    a joué un rôle crucial dans l'avancée
  • 12:39 - 12:42
    que nous avons réalisée
    dans l'apprentissage profond.
  • 12:44 - 12:48
    Seuls quelques rares laboratoires
    s'y intéressaient, dont le mien,
  • 12:48 - 12:51
    à une époque où les réseaux neuronaux
    n'étaient pas répandus.
  • 12:51 - 12:55
    La communauté scientifique
    les avait presque abandonnés.
  • 12:56 - 12:59
    Mais les choses ont beaucoup changé.
  • 12:59 - 13:01
    C'est devenu un domaine
    très concurrentiel.
  • 13:02 - 13:06
    Des centaines d'étudiants
    envoient leur candidature
  • 13:06 - 13:07
    pour continuer leurs études
  • 13:07 - 13:10
    avec les collaborateurs
    de mon laboratoire.
  • 13:11 - 13:17
    Aujourd'hui, Montréal attire
    la plus grande concentration académique
  • 13:17 - 13:19
    de chercheurs dans l'apprentissage
    profond dans le monde.
  • 13:20 - 13:26
    Nous venons d'obtenir un financement
    de recherche de 94 millions de dollars
  • 13:26 - 13:30
    pour repousser les frontières de l'IA
    et de la science des données
  • 13:30 - 13:33
    et pour transférer
    vers l'industrie les technologies
  • 13:33 - 13:37
    issues de l'apprentissage profond
    et de la science des données.
  • 13:37 - 13:40
    Des entrepreneurs y trouvent
    une source d'émulation
  • 13:40 - 13:44
    et créent des start-ups
    ou des laboratoires industriels
  • 13:44 - 13:47
    souvent proches des universités.
  • 13:49 - 13:50
    Par exemple,
  • 13:50 - 13:55
    nous venons d'annoncer il y a quelques
    semaines le lancement d'une start-up
  • 13:55 - 13:57
    appelée : « Element AI »
  • 13:57 - 14:00
    qui se concentre sur les applications
    d'apprentissage profond.
  • 14:02 - 14:06
    Il n'y a pas assez de spécialistes
    en apprentissage profond.
  • 14:06 - 14:11
    Les salaires sont extravagants,
  • 14:11 - 14:17
    conduisant de nombreux anciens collègues
    à accepter des offres généreuses
  • 14:17 - 14:21
    d'entreprises pour travailler
    dans leurs laboratoires.
  • 14:21 - 14:25
    J'ai toutefois décidé
    de rester à l'université,
  • 14:25 - 14:27
    de travailler pour le bien public,
  • 14:27 - 14:29
    de travailler avec les étudiants,
  • 14:29 - 14:31
    de rester indépendant
  • 14:31 - 14:34
    et de montrer la voie à la nouvelle
    génération de spécialistes
  • 14:34 - 14:35
    en apprentissage profond.
  • 14:35 - 14:41
    Au-delà de la valeur commerciale de l'IA,
  • 14:41 - 14:45
    nous réfléchissons
    à ses implications sociales.
  • 14:47 - 14:50
    Nous sommes nombreux à nous intéresser
  • 14:50 - 14:56
    aux applications qui créent
    de la valeur sociale, comme la santé.
  • 14:56 - 14:59
    Nous pensons pouvoir utiliser
    l'apprentissage profond
  • 14:59 - 15:03
    pour améliorer les traitements
    et vraiment personnaliser la médecine.
  • 15:04 - 15:06
    Je suis convaincu qu'à l'avenir,
  • 15:06 - 15:10
    la collecte de données sur des milliards
    de personnes dans le monde
  • 15:10 - 15:14
    nous permettra d'offrir un conseil médical
  • 15:14 - 15:18
    à des milliards de personnes qui n'ont pas
    encore accès aux soins de santé.
  • 15:18 - 15:23
    On peut imaginer beaucoup d'autres
    applications avec une valeur sociale.
  • 15:23 - 15:26
    Par exemple, notre laboratoire
    va prochainement sortir un produit
  • 15:26 - 15:29
    lié à la compréhension du langage naturel
  • 15:29 - 15:31
    qui offre une palette de services
  • 15:31 - 15:35
    comme des services légaux,
    à ceux qui ne peuvent pas se le permettre.
  • 15:35 - 15:37
    Nous nous intéressons aussi
  • 15:37 - 15:41
    aux implications sociales de l'IA
    dans ma communauté.
  • 15:42 - 15:45
    Mais cette question ne devrait pas
    intéresser seulement les spécialistes.
  • 15:46 - 15:50
    En dépit des mathématiques et du jargon,
  • 15:51 - 15:53
    les citoyens peuvent
    suffisamment appréhender
  • 15:53 - 15:56
    ce qu'il se passe sous le capot
  • 15:57 - 16:01
    pour participer
    aux décisions fondamentales
  • 16:01 - 16:05
    qui seront prises prochainement
    et dans les décennies à venir
  • 16:05 - 16:07
    au sujet de l'IA.
  • 16:08 - 16:09
    Je vous invite donc
  • 16:10 - 16:16
    à mettre de côté vos peurs et à ménager
    un peu d'espace pour vous renseigner.
  • 16:18 - 16:23
    Avec mes collaborateurs, nous avons écrit
    plusieurs articles d'introduction
  • 16:23 - 16:25
    et un livre intitulé :
    « L'apprentissage profond »
  • 16:25 - 16:30
    pour inciter étudiants et ingénieurs
    à s'engager dans ce domaine passionnant.
  • 16:31 - 16:36
    Il y a aussi de nombreuses ressources
    en ligne : logiciels, tutoriels ou vidéos.
  • 16:36 - 16:41
    De nombreux étudiants étudient ce domaine
  • 16:41 - 16:45
    de recherche sur l'apprentissage profond
    de manière autodidacte
  • 16:45 - 16:48
    afin de rejoindre des laboratoires
    comme le mien.
  • 16:49 - 16:55
    L'impact de l'IA sur notre société
    sera important.
  • 16:57 - 17:02
    Il est donc crucial de se demander :
    qu'allons-nous en faire ?
  • 17:03 - 17:08
    Des bénéfices incalculables peuvent
    en émaner comme des impacts négatifs :
  • 17:08 - 17:10
    des applications militaires
  • 17:11 - 17:15
    ou des changements disruptifs
    sur le marché de l'emploi.
  • 17:16 - 17:22
    Pour nous assurer que les choix collectifs
    qui seront pris au sujet de l'IA
  • 17:22 - 17:23
    dans les années à venir
  • 17:23 - 17:25
    soient bénéfiques à tous,
  • 17:25 - 17:29
    tous les citoyens doivent
    devenir les protagonistes
  • 17:29 - 17:33
    pour définir comment l'IA
    va modeler notre avenir.
  • 17:34 - 17:35
    Merci.
  • 17:35 - 17:39
    (Applaudissements)
Title:
L'essor de l'intelligence artificielle avec l'apprentissage profond | Yoshua Bengio | TEDxMontreal
Description:

Une révolution est en train de transformer l'intelligence artificielle grâce aux progrès réalisés dans l'apprentissage profond. À quelle distance nous trouvons-nous de l'objectif de créer une intelligence artificielle de niveau humain ? Quels sont les défis à surmonter ?

Yoshua Bengio est convaincu que tous les citoyens peuvent comprendre les principes de l'intelligence artificielle et que démocratiser ces sujets est crucial pour la société au moment de prendre des décisions collectives sur les transformations qu'apportent l'IA et s'assurer que ces changements seront bénéfiques pour tous.

Yoshua Bengio est un des pionniers de l'apprentissage profond. Il est directeur scientifique de l'Institut québécois d'intelligence artificielle (MILA). il est professeur à l'université de Montréal, membre de la conférence en intelligence artificielle et neurosciences computationnelles (NIPS) et cofondateur de élément AI. Docteur en science de l'Université de McGill (1991, science informatique), Bengio a réalisé un post-doc au MIT et à AT&T Bell Labs. Il est le titulaire de la chaire de recherche du Canada en algorithmes d'apprentissage statistique.

Bengio est membre de l'Institut canadien de recherches avancées où il est codirecteur du programme Apprentissage automatique. il est reconnu pour ses contributions sur l'apprentissage profond, les réseaux de neurones récurrents, les modèles de réseaux de neurones en traitement de la langue, algorithmes de traduction neurale et sur l'apprentissage profond d’inspiration biologique.

https://mila.umontreal.ca/en/
https://www.elementai.com/

Plus d'informations : http://www.tedxmontreal.com

Cette présentation a été donnée lors d'un événement TEDx local utilisant le format des conférences TED mais organisé indépendamment. En savoir plus : http://ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
17:54

French subtitles

Revisions