Return to Video

Les conséquences à la fois merveilleuses et effrayantes des machines qui apprennent.

  • 0:01 - 0:05
    Avant, si vous vouliez qu'un ordinateur
    fasse quelque chose de nouveau,
  • 0:05 - 0:06
    vous deviez le programmer.
  • 0:06 - 0:10
    La programmation, pour ceux
    d'entre vous qui n'en ont jamais fait,
  • 0:10 - 0:13
    nécessite de décrire,
    à un niveau de détail effrayant,
  • 0:13 - 0:17
    chaque étape que vous voulez
    que l'ordinateur fasse
  • 0:17 - 0:19
    pour atteindre votre but.
  • 0:19 - 0:23
    Mais si ce que vous voulez,
    vous ne savez pas le faire vous-même,
  • 0:23 - 0:25
    la programmation devient un immense défi.
  • 0:25 - 0:28
    C'est à ce défi que se confronta
    cet homme, Arthur Samuel.
  • 0:28 - 0:32
    En 1956, il voulut que cet ordinateur
  • 0:32 - 0:35
    soit capable de le battre au jeu de dames.
  • 0:35 - 0:37
    Comment écrire un programme,
  • 0:37 - 0:40
    décrire, en d'effrayants détails, comment
    être meilleur que vous aux dames ?
  • 0:40 - 0:42
    Il eut une idée :
  • 0:42 - 0:46
    faire jouer l'ordinateur contre
    lui-même des milliers de fois
  • 0:46 - 0:48
    et lui faire apprendre à jouer aux dames.
  • 0:48 - 0:52
    Ça a si bien fonctionné que dès 1962
  • 0:52 - 0:56
    l'ordinateur avait battu
    le champion du Connecticut.
  • 0:56 - 0:59
    Arthur Samuel est le père
    de la machine apprenante,
  • 0:59 - 1:00
    et j'ai une grande dette envers lui,
  • 1:00 - 1:03
    parce que je travaille dans ce secteur.
  • 1:03 - 1:04
    J'ai été président de Kaggle,
  • 1:04 - 1:08
    une communauté de 200 000 praticiens
    de l'apprentissage automatique.
  • 1:08 - 1:10
    Kaggle met en place des compétitions
  • 1:10 - 1:14
    pour les amener à résoudre
    des problèmes jusque là non résolus,
  • 1:14 - 1:17
    et ça a été un succès
    des centaines de fois.
  • 1:17 - 1:20
    De ce point de vue privilégié,
    j'ai pu découvrir
  • 1:20 - 1:24
    beaucoup sur ce que l'apprentissage
    automatique pouvait et peut faire,
  • 1:24 - 1:26
    et sur ce qu'il pourra faire demain.
  • 1:26 - 1:31
    Le premier grand succès commercial,
    c'est peut-être Google.
  • 1:31 - 1:34
    Google a montré qu'il était possible
    de trouver des informations
  • 1:34 - 1:36
    en utilisant un algorithme,
  • 1:36 - 1:38
    et cet algorithme est basé
    sur l'apprentissage automatique.
  • 1:38 - 1:42
    L'apprentissage automatique a depuis connu
    beaucoup d'autres succès commerciaux
  • 1:42 - 1:44
    Des sociétés comme Amazon ou Netflix
  • 1:44 - 1:48
    l'utilisent pour suggérer des produits
    que vous pourriez vouloir acheter,
  • 1:48 - 1:50
    des films que vous pourriez aimer voir.
  • 1:50 - 1:52
    Parfois, c'en est presque effrayant.
  • 1:52 - 1:54
    Des entreprises comme LinkedIn et Facebook
  • 1:54 - 1:56
    vous disent parfois qui
    pourraient être vos amis
  • 1:56 - 1:58
    et vous ne savez pas comment elles font,
  • 1:58 - 2:01
    car elles utilisent le pouvoir
    de l'apprentissage automatique.
  • 2:01 - 2:04
    Ces algorithmes ont appris à le faire
    à partir de données
  • 2:04 - 2:07
    plutôt que d'être programmés manuellement.
  • 2:07 - 2:10
    De la même manière,
    IBM a pu faire en sorte
  • 2:10 - 2:14
    que Watson batte les champions du monde
    de « Jeopardy »,
  • 2:14 - 2:17
    en répondant à des questions
    très difficiles comme :
  • 2:17 - 2:20
    « Le "Lion de Nimrud" a disparu
    en 2003 du musée de cette ville »
  • 2:20 - 2:23
    C'est aussi pourquoi nous voyons
    les premières voitures autonomes.
  • 2:23 - 2:26
    Être capable de faire
    la différence entre, disons,
  • 2:26 - 2:28
    un arbre et un piéton,
    est plutôt important.
  • 2:28 - 2:31
    Nous ne savons pas écrire
    de tels programmes manuellement,
  • 2:31 - 2:34
    mais l'apprentissage automatique
    rend la chose possible.
  • 2:34 - 2:37
    Cette voiture a roulé
    plus de 1,6 millions de km
  • 2:37 - 2:40
    sur des routes ordinaires,
    sans le moindre accident.
  • 2:40 - 2:44
    Nous savons maintenant que les ordinateurs
    peuvent apprendre,
  • 2:44 - 2:46
    et apprendre à faire des choses
  • 2:46 - 2:49
    que nous ne savons pas
    toujours faire nous-mêmes,
  • 2:49 - 2:52
    ou qu'ils peuvent peut-être
    faire mieux que nous.
  • 2:52 - 2:56
    Un des cas les plus étonnants
    d'apprentissage automatique que j'ai vu
  • 2:56 - 2:58
    s'est produit lors d'un projet de Kaggle,
  • 2:58 - 3:02
    où une équipe dirigée par Geoffrey Hinton,
  • 3:02 - 3:03
    de l'Université de Toronto,
  • 3:03 - 3:06
    a gagné un concours de
    découverte de la drogue.
  • 3:06 - 3:09
    Ce qui est extraordinaire n'est
    pas juste qu'ils aient battu
  • 3:09 - 3:13
    tous les algorithmes de Merck ou de la
    communauté universitaire internationale,
  • 3:13 - 3:18
    mais que personne de l'équipe n'ait de
    formation en chimie ou biologie,
  • 3:18 - 3:20
    et qu'ils l'aient fait en deux semaines.
  • 3:20 - 3:22
    Comment ont-ils fait ?
  • 3:22 - 3:25
    Avec un algorithme génial
    appelé apprentissage profond.
  • 3:25 - 3:28
    Ça a été si important
    que leur succès donna lieu
  • 3:28 - 3:31
    à un article en une du New York Times
    quelques semaines plus tard.
  • 3:31 - 3:34
    Il s'agit de Geoffrey Hinton,
    là, à gauche, sur l'écran.
  • 3:34 - 3:38
    L'apprentissage profond s'inspire
    du fonctionnement du cerveau :
  • 3:38 - 3:44
    c'est un algorithme qui n'a donc
    aucune limite théorique.
  • 3:44 - 3:47
    Plus vous lui donnez de données,
    et de temps de calcul,
  • 3:47 - 3:48
    plus il devient meilleur.
  • 3:48 - 3:51
    Le New York Times montra
    aussi dans son article
  • 3:51 - 3:53
    un autre résultat inouï
    de l'apprentissage profond,
  • 3:53 - 3:56
    que je vais maintenant vous montrer.
  • 3:56 - 4:01
    Il montre que les ordinateurs
    sont capables d'écouter et comprendre.
  • 4:01 - 4:03
    (Vidéo) Richard Rashid:
    La dernière étape
  • 4:03 - 4:06
    que je voudrais pouvoir atteindre,
  • 4:06 - 4:11
    c'est de vous parler en chinois.
  • 4:11 - 4:14
    L'élément-clé ici, c'est
  • 4:14 - 4:19
    que nous avons pu collecter beaucoup
    de données auprès de nombreux sinophones
  • 4:19 - 4:21
    et produire un système de vocalisation
  • 4:21 - 4:26
    qui convertit du texte chinois
    en parole chinoise,
  • 4:26 - 4:30
    puis nous avons pris environ une heure
    d'enregistrement de ma propre voix,
  • 4:30 - 4:32
    et nous l'avons utilisé pour moduler
  • 4:32 - 4:36
    le système de vocalisation,
    afin que la voix ressemble à la mienne.
  • 4:36 - 4:39
    Le résultat n'est pas parfait.
  • 4:39 - 4:42
    Il y a un certain nombre d'erreurs.
  • 4:42 - 4:44
    (En chinois)
  • 4:44 - 4:49
    (Applaudissements)
  • 4:49 - 4:53
    Il y a encore beaucoup de travail à faire
  • 4:53 - 4:57
    (En chinois)
  • 4:57 - 5:01
    (Applaudissements)
  • 5:01 - 5:05
    J. H. : C'était une conférence en
    Chine sur l'apprentissage automatique.
  • 5:05 - 5:07
    Il est rare,
    lors de conférences universitaires,
  • 5:07 - 5:10
    d'entendre des applaudissements spontanés,
  • 5:10 - 5:13
    quoique cela arrive parfois aux
    conférences TEDx. N'hésitez pas.
  • 5:13 - 5:15
    L'apprentissage profond était
    derrière tout ça.
  • 5:15 - 5:17
    (Applaudissements)
    Merci.
  • 5:17 - 5:20
    La transcription en anglais,
  • 5:20 - 5:23
    la traduction en chinois
  • 5:23 - 5:26
    et la construction de la voix étaient
    tous de l'apprentissage profond.
  • 5:26 - 5:29
    L'apprentissage profond est
    cette chose extraordinaire.
  • 5:29 - 5:32
    C'est un seul algorithme qui semble
    pouvoir presque tout faire,
  • 5:32 - 5:35
    et j'ai découvert qu'un an plus tôt,
    il avait aussi appris à voir.
  • 5:35 - 5:38
    Dans une obscure compétition en Allemagne,
  • 5:38 - 5:40
    le « Test de Reconnaissance
    de Panneaux Routiers »,
  • 5:40 - 5:44
    l'apprentissage profond a appris à
    reconnaître des panneaux,
  • 5:44 - 5:47
    non seulement mieux
    que tous les autres algorithmes,
  • 5:47 - 5:50
    mais également mieux
    que les humains -
  • 5:50 - 5:52
    environ deux fois mieux :
  • 5:52 - 5:54
    dès 2011, nous avions un exemple
  • 5:54 - 5:57
    d'ordinateurs pouvant voir
    mieux qu'un être humain.
  • 5:57 - 5:59
    Depuis, beaucoup de choses
    se sont passées.
  • 5:59 - 6:03
    En 2012, Google a annoncé qu'un
    algorithme d'apprentissage profond,
  • 6:03 - 6:04
    regardant des vidéos YouTube
  • 6:04 - 6:08
    et analysant les données sur
    16 000 ordinateurs pendant un mois,
  • 6:08 - 6:12
    a pu apprendre, de lui-même, les concepts
    de « chat » ou encore d'« être humain »,
  • 6:12 - 6:14
    juste en regardant ces vidéos.
  • 6:14 - 6:16
    Les êtres humains apprennent
    de la même manière :
  • 6:16 - 6:19
    on n'apprend pas une chose
    par explication,
  • 6:19 - 6:22
    mais on l'apprend par
    les perceptions individuelles.
  • 6:22 - 6:26
    En 2012 également, Geoffrey Hinton,
    dont nous avons déjà parlé,
  • 6:26 - 6:29
    a gagné le très réputé
    concours « ImageNet »,
  • 6:29 - 6:33
    où il s'agit d'identifier,
    au sein d'un million et demi d'images,
  • 6:33 - 6:34
    les images en question.
  • 6:34 - 6:38
    En 2014, nous sommes tombés
    à un taux d'erreur de 6%
  • 6:38 - 6:39
    en reconnaissance visuelle.
  • 6:39 - 6:41
    C'est, de nouveau,
    mieux qu'un être humain.
  • 6:41 - 6:45
    Les machines font vraiment
    ici un travail extraordinaire,
  • 6:45 - 6:47
    avec, désormais, des
    applications industrielles.
  • 6:47 - 6:50
    Par exemple, Google a annoncé l'an dernier
  • 6:50 - 6:55
    qu'ils avaient cartographié l'ensemble
    des lieux de France en deux heures,
  • 6:55 - 6:58
    en fournissant des images
    de Street View
  • 6:58 - 7:03
    à un algorithme d'apprentissage profond,
    pour qu'il reconnaisse les numéros de rue.
  • 7:03 - 7:05
    Imaginez le temps
    qu'il aurait fallu avant :
  • 7:05 - 7:08
    des dizaines de personnes,
    plusieurs années.
  • 7:08 - 7:10
    C'est la même histoire en Chine.
  • 7:10 - 7:14
    Baidu est, on peut dire,
    une sorte de Google chinois.
  • 7:14 - 7:17
    Ce que vous voyez en haut à gauche,
  • 7:17 - 7:20
    est une photo que j'ai chargée sur le
    système d'apprentissage profond de Baidu,
  • 7:20 - 7:24
    et, dessous, vous voyez que le système
    a compris ce qui était sur la photo,
  • 7:24 - 7:26
    et trouvé des images similaires.
  • 7:26 - 7:29
    Les images similaires ont le
    même arrière-plan,
  • 7:29 - 7:31
    la tête dans le même sens,
  • 7:31 - 7:33
    certaines même avec la langue sortie.
  • 7:33 - 7:36
    Ce n'est pas une recherche
    sur le texte d'une page web.
  • 7:36 - 7:37
    Je n'ai chargé qu'une image.
  • 7:37 - 7:41
    Les ordinateurs peuvent donc désormais
    vraiment comprendre ce qu'ils voient,
  • 7:41 - 7:43
    et consulter une base de données
  • 7:43 - 7:46
    de centaines de millions d'images
    en temps réel.
  • 7:46 - 7:50
    Quelles conséquences, maintenant que
    les ordinateurs peuvent voir ?
  • 7:50 - 7:52
    Les machines ne savent pas seulement voir.
  • 7:52 - 7:54
    L'apprentissage profond va plus loin.
  • 7:54 - 7:57
    Une phrase complexe et
    nuancée comme celle-ci,
  • 7:57 - 7:59
    est maintenant compréhensible
    par ces algorithmes.
  • 7:59 - 8:01
    Comme vous pouvez le voir,
  • 8:01 - 8:03
    ce système de Stanford,
    avec le point rouge en haut,
  • 8:03 - 8:07
    a compris que la phrase
    comportait un jugement négatif.
  • 8:07 - 8:11
    L'apprentissage profond est désormais
    proche des performances humaines
  • 8:11 - 8:16
    pour comprendre le sujet d'une phrase,
    et le jugement qui y est exprimé.
  • 8:16 - 8:19
    Il a aussi été utilisé
    pour lire le chinois,
  • 8:19 - 8:22
    à un niveau proche de
    celui d'un locuteur natif.
  • 8:22 - 8:24
    Cet algorithme a été développé en Suisse
  • 8:24 - 8:27
    par des personnes dont aucune ne parlait
    ni ne comprenait le chinois.
  • 8:27 - 8:29
    Utiliser l'apprentissage profond
  • 8:29 - 8:32
    constitue le meilleur système
    dans ce cas,
  • 8:32 - 8:37
    même comparé
    à la compréhension humaine.
  • 8:37 - 8:40
    Il s'agit ici d'un système
    mis en place dans mon entreprise,
  • 8:40 - 8:42
    qui regroupe tout ça.
  • 8:42 - 8:44
    Ce sont des images qui ne sont
    pas liées à du texte,
  • 8:44 - 8:47
    et, alors que j'écris ici des phrases,
  • 8:47 - 8:50
    en temps réel, le système comprend
    les images,
  • 8:50 - 8:51
    identifie leur sujet,
  • 8:51 - 8:54
    et trouve des images correspondant au
    texte que j'écris.
  • 8:54 - 8:57
    Il comprend véritablement mes phrases,
  • 8:57 - 8:59
    et comprend véritablement ces images.
  • 8:59 - 9:02
    Je sais que vous voyez
    ça sur Google,
  • 9:02 - 9:05
    où l'on peut trouver des images
    en tapant un texte,
  • 9:05 - 9:08
    mais ce n'est qu'une recherche
    dans le texte de la page web.
  • 9:08 - 9:11
    C'est très différent de comprendre
    vraiment les images.
  • 9:11 - 9:14
    C'est quelque chose que
    les ordinateurs n'ont pu faire
  • 9:14 - 9:17
    pour la première fois
    que très récemment.
  • 9:17 - 9:21
    Les ordinateurs peuvent donc
    non seulement voir, mais aussi lire,
  • 9:21 - 9:25
    et, bien sûr, nous avons montré qu'ils
    peuvent comprendre ce qu'ils entendent.
  • 9:25 - 9:28
    Pas très surprenant si je vous
    dis maintenant qu'ils peuvent écrire.
  • 9:28 - 9:33
    A partir d'un algorithme d'apprentissage
    profond, j'ai généré ce texte hier.
  • 9:33 - 9:37
    Ici, ce sont des textes générés par un
    algorithme de Stanford.
  • 9:37 - 9:39
    Chacune de ces phrases a été générée
  • 9:39 - 9:43
    par un algorithme d'apprentissage profond
    décrivant l'image au-dessus.
  • 9:43 - 9:48
    Cet algorithme n'avait jamais vu un homme
    habillé en noir jouant de la guitare.
  • 9:48 - 9:50
    Il avait vu déjà vu un homme,
    déjà vu du noir,
  • 9:50 - 9:51
    déjà vu une guitare,
  • 9:51 - 9:56
    mais a généré de manière autonome
    cette nouvelle description de cette photo.
  • 9:56 - 9:59
    Nous n'atteignons pas encore
    les performances humaines, mais presque.
  • 9:59 - 10:03
    Dans les tests réalisés, les personnes
    préfèrent la légende de l'ordinateur
  • 10:03 - 10:05
    une fois sur quatre.
  • 10:05 - 10:07
    Ce système n'a que deux semaines,
  • 10:07 - 10:09
    et l'on peut supposer que d'ici un an,
  • 10:09 - 10:12
    l'algorithme aurait surpassé
    les performances humaines
  • 10:12 - 10:13
    - au rythme où ça va.
  • 10:13 - 10:16
    Les ordinateurs peuvent donc aussi écrire.
  • 10:16 - 10:20
    Si l'on rassemble tout ça, les
    perspectives deviennent prometteuses.
  • 10:20 - 10:21
    Par exemple, en médecine,
  • 10:21 - 10:24
    une équipe de Boston a annoncé
    qu'elle avait découvert
  • 10:24 - 10:27
    des dizaines de nouveaux signes cliniques
  • 10:27 - 10:31
    de tumeurs, qui aident les docteurs
    à diagnostiquer un cancer.
  • 10:32 - 10:35
    De façon très proche, à Stanford,
  • 10:35 - 10:38
    une équipe a annoncé qu'en
    observant des tissus au microscope,
  • 10:38 - 10:41
    ils ont développé un système
    de machine apprenante
  • 10:41 - 10:43
    qui est vraiment meilleur
    qu'un pathologiste
  • 10:43 - 10:48
    pour prédire les taux de survie
    de personnes atteintes de cancer.
  • 10:48 - 10:51
    Dans ces deux cas, non seulement
    les prévisions étaient meilleures,
  • 10:51 - 10:53
    mais elles ont aussi permis
    des découvertes majeures.
  • 10:53 - 10:55
    Dans l'exemple en radiologie,
  • 10:55 - 10:58
    de nouveaux signes cliniques
    compréhensibles par l'homme.
  • 10:58 - 11:00
    Dans l'exemple en pathologie,
  • 11:00 - 11:04
    le système informatique a découvert
    que les cellules autour du cancer
  • 11:04 - 11:08
    étaient aussi importantes que les cellules
    cancéreuses elles-mêmes
  • 11:08 - 11:09
    pour porter un diagnostic,
  • 11:09 - 11:15
    à rebours de ce qui a été enseigné
    aux pathologistes pendant des décennies.
  • 11:15 - 11:18
    Dans ces deux cas, les systèmes
    ont été développés
  • 11:18 - 11:22
    en associant experts médicaux et
    experts de l'apprentissage automatique,
  • 11:22 - 11:24
    mais, depuis l'an dernier,
    un nouveau cap a été franchi.
  • 11:24 - 11:28
    Il s'agit ici d'un exemple
    d'identification de zones cancéreuses
  • 11:28 - 11:30
    d'un tissu humain au microscope.
  • 11:30 - 11:35
    Ce système peut identifier ces zones
    avec plus de précisions,
  • 11:35 - 11:38
    ou, du moins, avec autant de précision
    qu'un pathologiste,
  • 11:38 - 11:41
    mais a été entièrement créé par
    l'apprentissage profond créé
  • 11:41 - 11:44
    par des personnes n'ayant
    pas de formation médicale.
  • 11:45 - 11:47
    De même, pour cette
    classification de neurones.
  • 11:47 - 11:51
    On peut désormais classer les neurones
    avec autant de précisions qu'un humain,
  • 11:51 - 11:54
    et ce système a été créé
    avec l'apprentissage profond,
  • 11:54 - 11:57
    par des gens n'ayant pas de
    connaissance médicale antérieure.
  • 11:57 - 12:00
    Moi-même, sans connaissance
    médicale antérieure,
  • 12:00 - 12:04
    je semble être pleinement qualifié
    pour créer une entreprise dans la santé
  • 12:04 - 12:06
    - ce que j'ai fait.
  • 12:06 - 12:08
    J'étais terrifié à cette idée,
  • 12:08 - 12:11
    mais, la théorie suggérait
    qu'il devait être possible
  • 12:11 - 12:16
    d'être utile dans ce secteur en ne maniant
    que ces moyens d'analyse de données.
  • 12:16 - 12:19
    Et, heureusement, les retours
    ont été fabuleux,
  • 12:19 - 12:21
    ceux des médias,
    mais aussi ceux du corps médical,
  • 12:21 - 12:23
    qui a été d'un grand soutien.
  • 12:23 - 12:27
    La théorie, c'est que l'on peut isoler
    la partie centrale du processus médical,
  • 12:27 - 12:30
    pour procéder, autant que possible,
    à des analyses de données,
  • 12:30 - 12:33
    et laisser les médecins se consacrer
    sur leurs forces.
  • 12:33 - 12:35
    Je veux vous donner un exemple.
  • 12:35 - 12:40
    Il nous faut désormais environ 15 minutes
    pour faire un nouveau diagnostic médical,
  • 12:40 - 12:42
    et je vais vous le montrer en temps réel,
  • 12:42 - 12:45
    même si je l'ai réduit à trois minutes
    en supprimant certaines parties.
  • 12:45 - 12:48
    Plutôt que de vous montrer la création
    d'un diagnostic médical,
  • 12:48 - 12:52
    je vais vous montrer un diagnostic
    d'images de voitures :
  • 12:52 - 12:54
    c'est quelque chose que
    tout le monde comprend.
  • 12:54 - 12:57
    Nous commençons avec environ
    1,5 million d'images de voitures,
  • 12:57 - 13:00
    et ce que je veux, c'est les organiser
    selon l'angle selon lequel
  • 13:00 - 13:03
    la photo a été prise.
  • 13:03 - 13:07
    Ces images ne sont pas cataloguées :
    je dois partir de zéro.
  • 13:07 - 13:08
    Notre algorithme
    d'apprentissage profond
  • 13:08 - 13:12
    permet d'identifier les structures
    dans ces images.
  • 13:12 - 13:16
    L'être humain et l'ordinateur peuvent
    maintenant travailler ensemble.
  • 13:16 - 13:18
    L'être humain, comme vous le voyez ici,
  • 13:18 - 13:21
    indique à la machine
    les zones d'intérêt,
  • 13:21 - 13:25
    celles à lesquelles il veut qu'elle
    s'intéresse pour améliorer son algorithme.
  • 13:25 - 13:30
    Les systèmes d'apprentissage profond sont
    des espaces à 16 000 dimensions [sic],
  • 13:30 - 13:33
    et vous pouvez voir ici l'ordinateur qui
    pivote au sein de cet espace,
  • 13:33 - 13:35
    pour trouver de nouvelles structures.
  • 13:35 - 13:37
    Quand il y arrive,
  • 13:37 - 13:41
    l'être humain peut ensuite lui signaler
    les zones intéressantes.
  • 13:41 - 13:43
    Ici, l'ordinateur a pu trouver
    une zone avec,
  • 13:43 - 13:46
    par exemple, des angles.
  • 13:46 - 13:47
    Au fur et à mesure,
  • 13:47 - 13:50
    nous en disons de plus en plus
    à l'ordinateur
  • 13:50 - 13:52
    sur le type de structures
    que l'on recherche.
  • 13:52 - 13:54
    Imaginez un diagnostic médical,
  • 13:54 - 13:57
    par exemple un pathologiste identifiant
    des zones malades,
  • 13:57 - 14:02
    ou un radiologue montrant
    des nodules potentiellement inquiétants.
  • 14:02 - 14:05
    Parfois, cela devient difficile
    pour l'algorithme.
  • 14:05 - 14:07
    Ici, il s'est un peu emmêlé les pinceaux.
  • 14:07 - 14:09
    L'avant et l'arrière des voitures
    sont mêlés.
  • 14:09 - 14:11
    Nous devons faire
    un peu plus attention,
  • 14:11 - 14:15
    et dissocier manuellement les avants
    des arrières,
  • 14:15 - 14:22
    puis dire à l'ordinateur que
    cette classification nous importe.
  • 14:22 - 14:24
    Nous continuons comme ça,
    et, un peu plus tard,
  • 14:24 - 14:26
    nous allons former l'algorithme
  • 14:26 - 14:28
    sur la base de ces classifications,
  • 14:28 - 14:30
    et espérer qu'il s'est amélioré.
  • 14:30 - 14:34
    Comme vous le voyez, il a commencé à
    estomper certaines photos,
  • 14:34 - 14:38
    montrant qu'il sait déjà comment
    comprendre certaines d'entre elles.
  • 14:38 - 14:41
    Nous pouvons ensuite utiliser ce
    concept d'images similaires,
  • 14:41 - 14:43
    et, voir que, en s'en servant,
  • 14:43 - 14:47
    l'ordinateur est désormais capable de
    trouver seulement les avants de voiture.
  • 14:47 - 14:50
    A ce stade, l'être humain
    peut dire à l'ordinateur :
  • 14:50 - 14:54
    «Ok, tu t'en es bien sorti. »
  • 14:54 - 14:56
    Bien sûr, parfois, même à ce stade,
  • 14:56 - 15:00
    il est encore difficile
    de faire des groupes.
  • 15:00 - 15:03
    Ici, même après avoir laissé l'ordinateur
    pivoter pendant un moment,
  • 15:03 - 15:07
    les photos de voitures vues de droite
    et celles vues de gauche sont
  • 15:07 - 15:08
    encore toutes mêlées.
  • 15:08 - 15:10
    Nous lui donnons de nouveau
    des indications,
  • 15:10 - 15:13
    puis lui disons de chercher
    une projection qui fait le tri
  • 15:13 - 15:16
    entre les photos de droite et de gauche -
  • 15:16 - 15:18
    avec l'algorithme d'apprentissage profond.
  • 15:18 - 15:21
    Avec ces indications, nous avons réussi.
  • 15:21 - 15:26
    Il a trouvé une manière de considérer
    ces objets qui en permet le tri.
  • 15:26 - 15:29
    Vous avez saisi l'idée.
  • 15:29 - 15:37
    Nous ne somme pas ici dans une
    substitution de l'homme par la machine,
  • 15:37 - 15:40
    mais dans un travail conjoint.
  • 15:40 - 15:43
    Ce que nous faisons, c'est prendre
    quelque chose qui mobilisait une équipe
  • 15:43 - 15:45
    de cinq ou six personnes pendant sept ans
  • 15:45 - 15:50
    et y substituer quelque chose qui
    prend 15 minutes à une seule personne.
  • 15:50 - 15:54
    Cette méthode nécessite quatre
    ou cinq itérations,
  • 15:54 - 15:56
    et nous avons maintenant 62%
  • 15:56 - 15:59
    de nos 1,5 million d'images
    classifiées correctement.
  • 15:59 - 16:01
    A ce stade, nous pouvons
    commencer à prendre
  • 16:01 - 16:03
    des parties entières,
  • 16:03 - 16:06
    et vérifier rapidement
    qu'il n'y a pas d'erreurs.
  • 16:06 - 16:10
    Quand il y a des erreurs, nous en
    informons l'ordinateur,
  • 16:10 - 16:13
    et, en utilisant cette méthode
    pour tous les groupes,
  • 16:13 - 16:15
    nous en arrivons à un
    taux de réussite de 80%
  • 16:15 - 16:18
    dans la classification de ces images.
  • 16:18 - 16:20
    A partir de là, il s'agit juste
  • 16:20 - 16:23
    de trouver le petit nombre d'images
    mal classées,
  • 16:23 - 16:26
    et à essayer de comprendre pourquoi.
  • 16:26 - 16:28
    Avec cette approche,
  • 16:28 - 16:32
    en 15 minutes, nous parvenons à un
    taux de classification de 97%.
  • 16:32 - 16:37
    Ce type de méthode pourrait nous
    permettre de régler un problème majeur :
  • 16:37 - 16:40
    le manque d'expertise médicale
    dans le monde.
  • 16:40 - 16:43
    Le Forum économique mondial estime
    qu'il faudrait 10 à 20 fois plus
  • 16:43 - 16:46
    de médecins dans les pays
    en voie de développement
  • 16:46 - 16:48
    et qu'il faudrait 300 ans
  • 16:48 - 16:51
    pour former suffisamment de personnes
    et régler ce problème.
  • 16:51 - 16:54
    Imaginez alors que nous puissions
    accroître leur productivité
  • 16:54 - 16:56
    avec ces méthodes d'apprentissage profond.
  • 16:56 - 16:59
    Les opportunités m'enchantent.
  • 16:59 - 17:01
    Mais les dangers m’inquiètent.
  • 17:01 - 17:04
    Le problème, c'est que dans tous les pays
    en bleu sur la carte,
  • 17:04 - 17:08
    le secteur tertiaire représente
    plus de 80% de l'emploi.
  • 17:08 - 17:10
    C'est quoi le secteur tertiaire ?
  • 17:10 - 17:11
    C'est ça.
  • 17:11 - 17:16
    Ce sont exactement ces choses que les
    ordinateurs viennent d'apprendre à faire.
  • 17:16 - 17:19
    80% des emplois dans les pays développés
  • 17:19 - 17:22
    consiste en ce qu'une machine
    sait désormais faire.
  • 17:22 - 17:23
    Qu'est-ce que cela veut dire ?
  • 17:23 - 17:26
    Tout ira bien.
    D'autres emplois les remplaceront,
  • 17:26 - 17:29
    par exemple, dans l'analyse de données.
  • 17:29 - 17:30
    Pas vraiment.
  • 17:30 - 17:33
    Ce n'est pas long pour un analyste de
    données de construire ça.
  • 17:33 - 17:36
    Par exemple, ces quatre algorithmes
    sont tous de la même personne.
  • 17:36 - 17:38
    Vous pensez peut-être
    que c'est du déjà-vu,
  • 17:38 - 17:42
    que nous connaissons les conséquences
    de l'arrivée de nouvelles choses,
  • 17:42 - 17:44
    de nouveaux emplois qui
    remplacent les anciens.
  • 17:44 - 17:46
    Que seront ces nouveaux emplois ?
  • 17:46 - 17:48
    C'est très dur à estimer :
  • 17:48 - 17:51
    l'amélioration des performances
    humaines est graduelle,
  • 17:51 - 17:54
    tandis que ce système,
    l'apprentissage profond,
  • 17:54 - 17:57
    s'améliore de façon exponentielle.
  • 17:57 - 17:58
    Et nous en sommes là.
  • 17:58 - 18:01
    En regardant autour de nous,
    nous pensons :
  • 18:01 - 18:03
    « Les machines sont
    toujours idiotes ». Pas vrai ?
  • 18:03 - 18:07
    Mais d'ici cinq ans, elles seront
    bien plus haut dans la courbe.
  • 18:07 - 18:11
    Nous devons commencer à penser
    dès maintenant à ces capacités futures.
  • 18:11 - 18:13
    Ce n'est pas la première fois, bien sûr.
  • 18:13 - 18:18
    Les machines de la Révolution Industrielle
    augmentèrent nos capacités.
  • 18:18 - 18:21
    Mais, au bout d'un moment,
    les choses se calmèrent.
  • 18:21 - 18:23
    Il y eut des troubles sociaux, mais
  • 18:23 - 18:26
    une fois les machines utilisées
    pour la plupart des cas utiles,
  • 18:26 - 18:28
    les choses s'apaisèrent.
  • 18:28 - 18:30
    La Révolution des Machines Apprenantes
  • 18:30 - 18:33
    sera très différente
    de la Révolution Industrielle,
  • 18:33 - 18:36
    parce que dans son cas, les choses
    ne se calmeront pas.
  • 18:36 - 18:39
    Plus les ordinateurs progressent
    dans les activités cérébrales,
  • 18:39 - 18:43
    plus ils peuvent créer de meilleurs
    ordinateurs, et progresser encore.
  • 18:43 - 18:45
    Nous sommes devant un type d'évolution
  • 18:45 - 18:47
    que le monde n'a jamais
    expérimentée auparavant :
  • 18:47 - 18:51
    notre compréhension antérieure
    des possibles n'est pas adaptée.
  • 18:51 - 18:53
    Nous en subissons déjà les impacts.
  • 18:53 - 18:56
    Ces 25 dernières années, alors que
    la productivité du capital augmentait,
  • 18:56 - 19:01
    la productivité du travail restait stable,
    était même légèrement en baisse.
  • 19:01 - 19:04
    Je voudrais lancer
    ce débat dès maintenant.
  • 19:04 - 19:07
    Je sais d'expérience que lorsque
    je parle de ça aux gens,
  • 19:07 - 19:09
    ils peuvent être sceptiques.
  • 19:09 - 19:10
    Les machines ne peuvent pas penser,
  • 19:10 - 19:13
    elles n'ont pas d'émotions,
    ne comprennent pas la poésie.
  • 19:13 - 19:16
    Nous ne comprenons pas
    comment elles fonctionnent.
  • 19:16 - 19:17
    Et alors ?
  • 19:17 - 19:22
    Elles peuvent dès maintenant faire
    ce pour quoi les hommes sont payés.
  • 19:22 - 19:24
    C'est le moment de commencer
  • 19:24 - 19:28
    à réfléchir à la façon d'ajuster nos
    structures sociales et économiques,
  • 19:28 - 19:30
    d'être au fait de cette nouvelle réalité.
  • 19:30 - 19:31
    Merci.
  • 19:31 - 19:32
    (Applaudissements)
Title:
Les conséquences à la fois merveilleuses et effrayantes des machines qui apprennent.
Speaker:
Jeremy Howard
Description:

Que se passe-t-il lorsque l'on apprend à un ordinateur à apprendre ?

Le technologue Jeremy Howard nous fait part des derniers développements dans le domaine, en plein essor, de l'apprentissage profond, une technique qui donne aux ordinateurs la capacité à apprendre le chinois, à reconnaître des objets sur une photo ou encore à faciliter un diagnostic médical (un outil d'apprentissage profond a été capable, après des heures de visionnage de vidéos sur YouTube, de s'enseigner à lui-même le concept de « chat »).

Mettez vos connaissances à jour dans un domaine qui va changer la façon dont les ordinateurs autour de vous se comportent... plus vite que vous ne le pensez.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
19:45
  • Les modifications apportées par la version 58 qui ne sont pas inutiles sont à mon sens non diffusables en l'état, avec un contresens (à 3:03) et un français douteux, inélégant ou non compréhensible (notamment à 4:19, 6:16,13:08,17:10,19:19).

    Ces modifications ont été validées sans aucun échanges et je n'approuve pas la version finale. Je ne peux néanmoins plus y apporter de corrections, contrairement à la version 52, qui m'avait été renvoyée et qui comportait, en nombre plus important, les mêmes défauts.

    La modfication faite au passage de 4:19 à 4:32 n'est pas satisfaisante, mais pointe un défaut de la traduction originale, qui pourrait être utilement améliorée, par exemple en retirant le terme "phonétique" pour ne laisser que "transcription" et, ligne suivante, en parlant de "chinois écrit" et "chinois parlé", plutôt que de texte et langue chinoise.

French subtitles

Revisions