Les conséquences à la fois merveilleuses et effrayantes des machines qui apprennent.
-
0:01 - 0:05Avant, si vous vouliez qu'un ordinateur
fasse quelque chose de nouveau, -
0:05 - 0:06vous deviez le programmer.
-
0:06 - 0:10La programmation, pour ceux
d'entre vous qui n'en ont jamais fait, -
0:10 - 0:13nécessite de décrire,
à un niveau de détail effrayant, -
0:13 - 0:17chaque étape que vous voulez
que l'ordinateur fasse -
0:17 - 0:19pour atteindre votre but.
-
0:19 - 0:23Mais si ce que vous voulez,
vous ne savez pas le faire vous-même, -
0:23 - 0:25la programmation devient un immense défi.
-
0:25 - 0:28C'est à ce défi que se confronta
cet homme, Arthur Samuel. -
0:28 - 0:32En 1956, il voulut que cet ordinateur
-
0:32 - 0:35soit capable de le battre au jeu de dames.
-
0:35 - 0:37Comment écrire un programme,
-
0:37 - 0:40décrire, en d'effrayants détails, comment
être meilleur que vous aux dames ? -
0:40 - 0:42Il eut une idée :
-
0:42 - 0:46faire jouer l'ordinateur contre
lui-même des milliers de fois -
0:46 - 0:48et lui faire apprendre à jouer aux dames.
-
0:48 - 0:52Ça a si bien fonctionné que dès 1962
-
0:52 - 0:56l'ordinateur avait battu
le champion du Connecticut. -
0:56 - 0:59Arthur Samuel est le père
de la machine apprenante, -
0:59 - 1:00et j'ai une grande dette envers lui,
-
1:00 - 1:03parce que je travaille dans ce secteur.
-
1:03 - 1:04J'ai été président de Kaggle,
-
1:04 - 1:08une communauté de 200 000 praticiens
de l'apprentissage automatique. -
1:08 - 1:10Kaggle met en place des compétitions
-
1:10 - 1:14pour les amener à résoudre
des problèmes jusque là non résolus, -
1:14 - 1:17et ça a été un succès
des centaines de fois. -
1:17 - 1:20De ce point de vue privilégié,
j'ai pu découvrir -
1:20 - 1:24beaucoup sur ce que l'apprentissage
automatique pouvait et peut faire, -
1:24 - 1:26et sur ce qu'il pourra faire demain.
-
1:26 - 1:31Le premier grand succès commercial,
c'est peut-être Google. -
1:31 - 1:34Google a montré qu'il était possible
de trouver des informations -
1:34 - 1:36en utilisant un algorithme,
-
1:36 - 1:38et cet algorithme est basé
sur l'apprentissage automatique. -
1:38 - 1:42L'apprentissage automatique a depuis connu
beaucoup d'autres succès commerciaux -
1:42 - 1:44Des sociétés comme Amazon ou Netflix
-
1:44 - 1:48l'utilisent pour suggérer des produits
que vous pourriez vouloir acheter, -
1:48 - 1:50des films que vous pourriez aimer voir.
-
1:50 - 1:52Parfois, c'en est presque effrayant.
-
1:52 - 1:54Des entreprises comme LinkedIn et Facebook
-
1:54 - 1:56vous disent parfois qui
pourraient être vos amis -
1:56 - 1:58et vous ne savez pas comment elles font,
-
1:58 - 2:01car elles utilisent le pouvoir
de l'apprentissage automatique. -
2:01 - 2:04Ces algorithmes ont appris à le faire
à partir de données -
2:04 - 2:07plutôt que d'être programmés manuellement.
-
2:07 - 2:10De la même manière,
IBM a pu faire en sorte -
2:10 - 2:14que Watson batte les champions du monde
de « Jeopardy », -
2:14 - 2:17en répondant à des questions
très difficiles comme : -
2:17 - 2:20« Le "Lion de Nimrud" a disparu
en 2003 du musée de cette ville » -
2:20 - 2:23C'est aussi pourquoi nous voyons
les premières voitures autonomes. -
2:23 - 2:26Être capable de faire
la différence entre, disons, -
2:26 - 2:28un arbre et un piéton,
est plutôt important. -
2:28 - 2:31Nous ne savons pas écrire
de tels programmes manuellement, -
2:31 - 2:34mais l'apprentissage automatique
rend la chose possible. -
2:34 - 2:37Cette voiture a roulé
plus de 1,6 millions de km -
2:37 - 2:40sur des routes ordinaires,
sans le moindre accident. -
2:40 - 2:44Nous savons maintenant que les ordinateurs
peuvent apprendre, -
2:44 - 2:46et apprendre à faire des choses
-
2:46 - 2:49que nous ne savons pas
toujours faire nous-mêmes, -
2:49 - 2:52ou qu'ils peuvent peut-être
faire mieux que nous. -
2:52 - 2:56Un des cas les plus étonnants
d'apprentissage automatique que j'ai vu -
2:56 - 2:58s'est produit lors d'un projet de Kaggle,
-
2:58 - 3:02où une équipe dirigée par Geoffrey Hinton,
-
3:02 - 3:03de l'Université de Toronto,
-
3:03 - 3:06a gagné un concours de
découverte de la drogue. -
3:06 - 3:09Ce qui est extraordinaire n'est
pas juste qu'ils aient battu -
3:09 - 3:13tous les algorithmes de Merck ou de la
communauté universitaire internationale, -
3:13 - 3:18mais que personne de l'équipe n'ait de
formation en chimie ou biologie, -
3:18 - 3:20et qu'ils l'aient fait en deux semaines.
-
3:20 - 3:22Comment ont-ils fait ?
-
3:22 - 3:25Avec un algorithme génial
appelé apprentissage profond. -
3:25 - 3:28Ça a été si important
que leur succès donna lieu -
3:28 - 3:31à un article en une du New York Times
quelques semaines plus tard. -
3:31 - 3:34Il s'agit de Geoffrey Hinton,
là, à gauche, sur l'écran. -
3:34 - 3:38L'apprentissage profond s'inspire
du fonctionnement du cerveau : -
3:38 - 3:44c'est un algorithme qui n'a donc
aucune limite théorique. -
3:44 - 3:47Plus vous lui donnez de données,
et de temps de calcul, -
3:47 - 3:48plus il devient meilleur.
-
3:48 - 3:51Le New York Times montra
aussi dans son article -
3:51 - 3:53un autre résultat inouï
de l'apprentissage profond, -
3:53 - 3:56que je vais maintenant vous montrer.
-
3:56 - 4:01Il montre que les ordinateurs
sont capables d'écouter et comprendre. -
4:01 - 4:03(Vidéo) Richard Rashid:
La dernière étape -
4:03 - 4:06que je voudrais pouvoir atteindre,
-
4:06 - 4:11c'est de vous parler en chinois.
-
4:11 - 4:14L'élément-clé ici, c'est
-
4:14 - 4:19que nous avons pu collecter beaucoup
de données auprès de nombreux sinophones -
4:19 - 4:21et produire un système de vocalisation
-
4:21 - 4:26qui convertit du texte chinois
en parole chinoise, -
4:26 - 4:30puis nous avons pris environ une heure
d'enregistrement de ma propre voix, -
4:30 - 4:32et nous l'avons utilisé pour moduler
-
4:32 - 4:36le système de vocalisation,
afin que la voix ressemble à la mienne. -
4:36 - 4:39Le résultat n'est pas parfait.
-
4:39 - 4:42Il y a un certain nombre d'erreurs.
-
4:42 - 4:44(En chinois)
-
4:44 - 4:49(Applaudissements)
-
4:49 - 4:53Il y a encore beaucoup de travail à faire
-
4:53 - 4:57(En chinois)
-
4:57 - 5:01(Applaudissements)
-
5:01 - 5:05J. H. : C'était une conférence en
Chine sur l'apprentissage automatique. -
5:05 - 5:07Il est rare,
lors de conférences universitaires, -
5:07 - 5:10d'entendre des applaudissements spontanés,
-
5:10 - 5:13quoique cela arrive parfois aux
conférences TEDx. N'hésitez pas. -
5:13 - 5:15L'apprentissage profond était
derrière tout ça. -
5:15 - 5:17(Applaudissements)
Merci. -
5:17 - 5:20La transcription en anglais,
-
5:20 - 5:23la traduction en chinois
-
5:23 - 5:26et la construction de la voix étaient
tous de l'apprentissage profond. -
5:26 - 5:29L'apprentissage profond est
cette chose extraordinaire. -
5:29 - 5:32C'est un seul algorithme qui semble
pouvoir presque tout faire, -
5:32 - 5:35et j'ai découvert qu'un an plus tôt,
il avait aussi appris à voir. -
5:35 - 5:38Dans une obscure compétition en Allemagne,
-
5:38 - 5:40le « Test de Reconnaissance
de Panneaux Routiers », -
5:40 - 5:44l'apprentissage profond a appris à
reconnaître des panneaux, -
5:44 - 5:47non seulement mieux
que tous les autres algorithmes, -
5:47 - 5:50mais également mieux
que les humains - -
5:50 - 5:52environ deux fois mieux :
-
5:52 - 5:54dès 2011, nous avions un exemple
-
5:54 - 5:57d'ordinateurs pouvant voir
mieux qu'un être humain. -
5:57 - 5:59Depuis, beaucoup de choses
se sont passées. -
5:59 - 6:03En 2012, Google a annoncé qu'un
algorithme d'apprentissage profond, -
6:03 - 6:04regardant des vidéos YouTube
-
6:04 - 6:08et analysant les données sur
16 000 ordinateurs pendant un mois, -
6:08 - 6:12a pu apprendre, de lui-même, les concepts
de « chat » ou encore d'« être humain », -
6:12 - 6:14juste en regardant ces vidéos.
-
6:14 - 6:16Les êtres humains apprennent
de la même manière : -
6:16 - 6:19on n'apprend pas une chose
par explication, -
6:19 - 6:22mais on l'apprend par
les perceptions individuelles. -
6:22 - 6:26En 2012 également, Geoffrey Hinton,
dont nous avons déjà parlé, -
6:26 - 6:29a gagné le très réputé
concours « ImageNet », -
6:29 - 6:33où il s'agit d'identifier,
au sein d'un million et demi d'images, -
6:33 - 6:34les images en question.
-
6:34 - 6:38En 2014, nous sommes tombés
à un taux d'erreur de 6% -
6:38 - 6:39en reconnaissance visuelle.
-
6:39 - 6:41C'est, de nouveau,
mieux qu'un être humain. -
6:41 - 6:45Les machines font vraiment
ici un travail extraordinaire, -
6:45 - 6:47avec, désormais, des
applications industrielles. -
6:47 - 6:50Par exemple, Google a annoncé l'an dernier
-
6:50 - 6:55qu'ils avaient cartographié l'ensemble
des lieux de France en deux heures, -
6:55 - 6:58en fournissant des images
de Street View -
6:58 - 7:03à un algorithme d'apprentissage profond,
pour qu'il reconnaisse les numéros de rue. -
7:03 - 7:05Imaginez le temps
qu'il aurait fallu avant : -
7:05 - 7:08des dizaines de personnes,
plusieurs années. -
7:08 - 7:10C'est la même histoire en Chine.
-
7:10 - 7:14Baidu est, on peut dire,
une sorte de Google chinois. -
7:14 - 7:17Ce que vous voyez en haut à gauche,
-
7:17 - 7:20est une photo que j'ai chargée sur le
système d'apprentissage profond de Baidu, -
7:20 - 7:24et, dessous, vous voyez que le système
a compris ce qui était sur la photo, -
7:24 - 7:26et trouvé des images similaires.
-
7:26 - 7:29Les images similaires ont le
même arrière-plan, -
7:29 - 7:31la tête dans le même sens,
-
7:31 - 7:33certaines même avec la langue sortie.
-
7:33 - 7:36Ce n'est pas une recherche
sur le texte d'une page web. -
7:36 - 7:37Je n'ai chargé qu'une image.
-
7:37 - 7:41Les ordinateurs peuvent donc désormais
vraiment comprendre ce qu'ils voient, -
7:41 - 7:43et consulter une base de données
-
7:43 - 7:46de centaines de millions d'images
en temps réel. -
7:46 - 7:50Quelles conséquences, maintenant que
les ordinateurs peuvent voir ? -
7:50 - 7:52Les machines ne savent pas seulement voir.
-
7:52 - 7:54L'apprentissage profond va plus loin.
-
7:54 - 7:57Une phrase complexe et
nuancée comme celle-ci, -
7:57 - 7:59est maintenant compréhensible
par ces algorithmes. -
7:59 - 8:01Comme vous pouvez le voir,
-
8:01 - 8:03ce système de Stanford,
avec le point rouge en haut, -
8:03 - 8:07a compris que la phrase
comportait un jugement négatif. -
8:07 - 8:11L'apprentissage profond est désormais
proche des performances humaines -
8:11 - 8:16pour comprendre le sujet d'une phrase,
et le jugement qui y est exprimé. -
8:16 - 8:19Il a aussi été utilisé
pour lire le chinois, -
8:19 - 8:22à un niveau proche de
celui d'un locuteur natif. -
8:22 - 8:24Cet algorithme a été développé en Suisse
-
8:24 - 8:27par des personnes dont aucune ne parlait
ni ne comprenait le chinois. -
8:27 - 8:29Utiliser l'apprentissage profond
-
8:29 - 8:32constitue le meilleur système
dans ce cas, -
8:32 - 8:37même comparé
à la compréhension humaine. -
8:37 - 8:40Il s'agit ici d'un système
mis en place dans mon entreprise, -
8:40 - 8:42qui regroupe tout ça.
-
8:42 - 8:44Ce sont des images qui ne sont
pas liées à du texte, -
8:44 - 8:47et, alors que j'écris ici des phrases,
-
8:47 - 8:50en temps réel, le système comprend
les images, -
8:50 - 8:51identifie leur sujet,
-
8:51 - 8:54et trouve des images correspondant au
texte que j'écris. -
8:54 - 8:57Il comprend véritablement mes phrases,
-
8:57 - 8:59et comprend véritablement ces images.
-
8:59 - 9:02Je sais que vous voyez
ça sur Google, -
9:02 - 9:05où l'on peut trouver des images
en tapant un texte, -
9:05 - 9:08mais ce n'est qu'une recherche
dans le texte de la page web. -
9:08 - 9:11C'est très différent de comprendre
vraiment les images. -
9:11 - 9:14C'est quelque chose que
les ordinateurs n'ont pu faire -
9:14 - 9:17pour la première fois
que très récemment. -
9:17 - 9:21Les ordinateurs peuvent donc
non seulement voir, mais aussi lire, -
9:21 - 9:25et, bien sûr, nous avons montré qu'ils
peuvent comprendre ce qu'ils entendent. -
9:25 - 9:28Pas très surprenant si je vous
dis maintenant qu'ils peuvent écrire. -
9:28 - 9:33A partir d'un algorithme d'apprentissage
profond, j'ai généré ce texte hier. -
9:33 - 9:37Ici, ce sont des textes générés par un
algorithme de Stanford. -
9:37 - 9:39Chacune de ces phrases a été générée
-
9:39 - 9:43par un algorithme d'apprentissage profond
décrivant l'image au-dessus. -
9:43 - 9:48Cet algorithme n'avait jamais vu un homme
habillé en noir jouant de la guitare. -
9:48 - 9:50Il avait vu déjà vu un homme,
déjà vu du noir, -
9:50 - 9:51déjà vu une guitare,
-
9:51 - 9:56mais a généré de manière autonome
cette nouvelle description de cette photo. -
9:56 - 9:59Nous n'atteignons pas encore
les performances humaines, mais presque. -
9:59 - 10:03Dans les tests réalisés, les personnes
préfèrent la légende de l'ordinateur -
10:03 - 10:05une fois sur quatre.
-
10:05 - 10:07Ce système n'a que deux semaines,
-
10:07 - 10:09et l'on peut supposer que d'ici un an,
-
10:09 - 10:12l'algorithme aurait surpassé
les performances humaines -
10:12 - 10:13- au rythme où ça va.
-
10:13 - 10:16Les ordinateurs peuvent donc aussi écrire.
-
10:16 - 10:20Si l'on rassemble tout ça, les
perspectives deviennent prometteuses. -
10:20 - 10:21Par exemple, en médecine,
-
10:21 - 10:24une équipe de Boston a annoncé
qu'elle avait découvert -
10:24 - 10:27des dizaines de nouveaux signes cliniques
-
10:27 - 10:31de tumeurs, qui aident les docteurs
à diagnostiquer un cancer. -
10:32 - 10:35De façon très proche, à Stanford,
-
10:35 - 10:38une équipe a annoncé qu'en
observant des tissus au microscope, -
10:38 - 10:41ils ont développé un système
de machine apprenante -
10:41 - 10:43qui est vraiment meilleur
qu'un pathologiste -
10:43 - 10:48pour prédire les taux de survie
de personnes atteintes de cancer. -
10:48 - 10:51Dans ces deux cas, non seulement
les prévisions étaient meilleures, -
10:51 - 10:53mais elles ont aussi permis
des découvertes majeures. -
10:53 - 10:55Dans l'exemple en radiologie,
-
10:55 - 10:58de nouveaux signes cliniques
compréhensibles par l'homme. -
10:58 - 11:00Dans l'exemple en pathologie,
-
11:00 - 11:04le système informatique a découvert
que les cellules autour du cancer -
11:04 - 11:08étaient aussi importantes que les cellules
cancéreuses elles-mêmes -
11:08 - 11:09pour porter un diagnostic,
-
11:09 - 11:15à rebours de ce qui a été enseigné
aux pathologistes pendant des décennies. -
11:15 - 11:18Dans ces deux cas, les systèmes
ont été développés -
11:18 - 11:22en associant experts médicaux et
experts de l'apprentissage automatique, -
11:22 - 11:24mais, depuis l'an dernier,
un nouveau cap a été franchi. -
11:24 - 11:28Il s'agit ici d'un exemple
d'identification de zones cancéreuses -
11:28 - 11:30d'un tissu humain au microscope.
-
11:30 - 11:35Ce système peut identifier ces zones
avec plus de précisions, -
11:35 - 11:38ou, du moins, avec autant de précision
qu'un pathologiste, -
11:38 - 11:41mais a été entièrement créé par
l'apprentissage profond créé -
11:41 - 11:44par des personnes n'ayant
pas de formation médicale. -
11:45 - 11:47De même, pour cette
classification de neurones. -
11:47 - 11:51On peut désormais classer les neurones
avec autant de précisions qu'un humain, -
11:51 - 11:54et ce système a été créé
avec l'apprentissage profond, -
11:54 - 11:57par des gens n'ayant pas de
connaissance médicale antérieure. -
11:57 - 12:00Moi-même, sans connaissance
médicale antérieure, -
12:00 - 12:04je semble être pleinement qualifié
pour créer une entreprise dans la santé -
12:04 - 12:06- ce que j'ai fait.
-
12:06 - 12:08J'étais terrifié à cette idée,
-
12:08 - 12:11mais, la théorie suggérait
qu'il devait être possible -
12:11 - 12:16d'être utile dans ce secteur en ne maniant
que ces moyens d'analyse de données. -
12:16 - 12:19Et, heureusement, les retours
ont été fabuleux, -
12:19 - 12:21ceux des médias,
mais aussi ceux du corps médical, -
12:21 - 12:23qui a été d'un grand soutien.
-
12:23 - 12:27La théorie, c'est que l'on peut isoler
la partie centrale du processus médical, -
12:27 - 12:30pour procéder, autant que possible,
à des analyses de données, -
12:30 - 12:33et laisser les médecins se consacrer
sur leurs forces. -
12:33 - 12:35Je veux vous donner un exemple.
-
12:35 - 12:40Il nous faut désormais environ 15 minutes
pour faire un nouveau diagnostic médical, -
12:40 - 12:42et je vais vous le montrer en temps réel,
-
12:42 - 12:45même si je l'ai réduit à trois minutes
en supprimant certaines parties. -
12:45 - 12:48Plutôt que de vous montrer la création
d'un diagnostic médical, -
12:48 - 12:52je vais vous montrer un diagnostic
d'images de voitures : -
12:52 - 12:54c'est quelque chose que
tout le monde comprend. -
12:54 - 12:57Nous commençons avec environ
1,5 million d'images de voitures, -
12:57 - 13:00et ce que je veux, c'est les organiser
selon l'angle selon lequel -
13:00 - 13:03la photo a été prise.
-
13:03 - 13:07Ces images ne sont pas cataloguées :
je dois partir de zéro. -
13:07 - 13:08Notre algorithme
d'apprentissage profond -
13:08 - 13:12permet d'identifier les structures
dans ces images. -
13:12 - 13:16L'être humain et l'ordinateur peuvent
maintenant travailler ensemble. -
13:16 - 13:18L'être humain, comme vous le voyez ici,
-
13:18 - 13:21indique à la machine
les zones d'intérêt, -
13:21 - 13:25celles à lesquelles il veut qu'elle
s'intéresse pour améliorer son algorithme. -
13:25 - 13:30Les systèmes d'apprentissage profond sont
des espaces à 16 000 dimensions [sic], -
13:30 - 13:33et vous pouvez voir ici l'ordinateur qui
pivote au sein de cet espace, -
13:33 - 13:35pour trouver de nouvelles structures.
-
13:35 - 13:37Quand il y arrive,
-
13:37 - 13:41l'être humain peut ensuite lui signaler
les zones intéressantes. -
13:41 - 13:43Ici, l'ordinateur a pu trouver
une zone avec, -
13:43 - 13:46par exemple, des angles.
-
13:46 - 13:47Au fur et à mesure,
-
13:47 - 13:50nous en disons de plus en plus
à l'ordinateur -
13:50 - 13:52sur le type de structures
que l'on recherche. -
13:52 - 13:54Imaginez un diagnostic médical,
-
13:54 - 13:57par exemple un pathologiste identifiant
des zones malades, -
13:57 - 14:02ou un radiologue montrant
des nodules potentiellement inquiétants. -
14:02 - 14:05Parfois, cela devient difficile
pour l'algorithme. -
14:05 - 14:07Ici, il s'est un peu emmêlé les pinceaux.
-
14:07 - 14:09L'avant et l'arrière des voitures
sont mêlés. -
14:09 - 14:11Nous devons faire
un peu plus attention, -
14:11 - 14:15et dissocier manuellement les avants
des arrières, -
14:15 - 14:22puis dire à l'ordinateur que
cette classification nous importe. -
14:22 - 14:24Nous continuons comme ça,
et, un peu plus tard, -
14:24 - 14:26nous allons former l'algorithme
-
14:26 - 14:28sur la base de ces classifications,
-
14:28 - 14:30et espérer qu'il s'est amélioré.
-
14:30 - 14:34Comme vous le voyez, il a commencé à
estomper certaines photos, -
14:34 - 14:38montrant qu'il sait déjà comment
comprendre certaines d'entre elles. -
14:38 - 14:41Nous pouvons ensuite utiliser ce
concept d'images similaires, -
14:41 - 14:43et, voir que, en s'en servant,
-
14:43 - 14:47l'ordinateur est désormais capable de
trouver seulement les avants de voiture. -
14:47 - 14:50A ce stade, l'être humain
peut dire à l'ordinateur : -
14:50 - 14:54«Ok, tu t'en es bien sorti. »
-
14:54 - 14:56Bien sûr, parfois, même à ce stade,
-
14:56 - 15:00il est encore difficile
de faire des groupes. -
15:00 - 15:03Ici, même après avoir laissé l'ordinateur
pivoter pendant un moment, -
15:03 - 15:07les photos de voitures vues de droite
et celles vues de gauche sont -
15:07 - 15:08encore toutes mêlées.
-
15:08 - 15:10Nous lui donnons de nouveau
des indications, -
15:10 - 15:13puis lui disons de chercher
une projection qui fait le tri -
15:13 - 15:16entre les photos de droite et de gauche -
-
15:16 - 15:18avec l'algorithme d'apprentissage profond.
-
15:18 - 15:21Avec ces indications, nous avons réussi.
-
15:21 - 15:26Il a trouvé une manière de considérer
ces objets qui en permet le tri. -
15:26 - 15:29Vous avez saisi l'idée.
-
15:29 - 15:37Nous ne somme pas ici dans une
substitution de l'homme par la machine, -
15:37 - 15:40mais dans un travail conjoint.
-
15:40 - 15:43Ce que nous faisons, c'est prendre
quelque chose qui mobilisait une équipe -
15:43 - 15:45de cinq ou six personnes pendant sept ans
-
15:45 - 15:50et y substituer quelque chose qui
prend 15 minutes à une seule personne. -
15:50 - 15:54Cette méthode nécessite quatre
ou cinq itérations, -
15:54 - 15:56et nous avons maintenant 62%
-
15:56 - 15:59de nos 1,5 million d'images
classifiées correctement. -
15:59 - 16:01A ce stade, nous pouvons
commencer à prendre -
16:01 - 16:03des parties entières,
-
16:03 - 16:06et vérifier rapidement
qu'il n'y a pas d'erreurs. -
16:06 - 16:10Quand il y a des erreurs, nous en
informons l'ordinateur, -
16:10 - 16:13et, en utilisant cette méthode
pour tous les groupes, -
16:13 - 16:15nous en arrivons à un
taux de réussite de 80% -
16:15 - 16:18dans la classification de ces images.
-
16:18 - 16:20A partir de là, il s'agit juste
-
16:20 - 16:23de trouver le petit nombre d'images
mal classées, -
16:23 - 16:26et à essayer de comprendre pourquoi.
-
16:26 - 16:28Avec cette approche,
-
16:28 - 16:32en 15 minutes, nous parvenons à un
taux de classification de 97%. -
16:32 - 16:37Ce type de méthode pourrait nous
permettre de régler un problème majeur : -
16:37 - 16:40le manque d'expertise médicale
dans le monde. -
16:40 - 16:43Le Forum économique mondial estime
qu'il faudrait 10 à 20 fois plus -
16:43 - 16:46de médecins dans les pays
en voie de développement -
16:46 - 16:48et qu'il faudrait 300 ans
-
16:48 - 16:51pour former suffisamment de personnes
et régler ce problème. -
16:51 - 16:54Imaginez alors que nous puissions
accroître leur productivité -
16:54 - 16:56avec ces méthodes d'apprentissage profond.
-
16:56 - 16:59Les opportunités m'enchantent.
-
16:59 - 17:01Mais les dangers m’inquiètent.
-
17:01 - 17:04Le problème, c'est que dans tous les pays
en bleu sur la carte, -
17:04 - 17:08le secteur tertiaire représente
plus de 80% de l'emploi. -
17:08 - 17:10C'est quoi le secteur tertiaire ?
-
17:10 - 17:11C'est ça.
-
17:11 - 17:16Ce sont exactement ces choses que les
ordinateurs viennent d'apprendre à faire. -
17:16 - 17:1980% des emplois dans les pays développés
-
17:19 - 17:22consiste en ce qu'une machine
sait désormais faire. -
17:22 - 17:23Qu'est-ce que cela veut dire ?
-
17:23 - 17:26Tout ira bien.
D'autres emplois les remplaceront, -
17:26 - 17:29par exemple, dans l'analyse de données.
-
17:29 - 17:30Pas vraiment.
-
17:30 - 17:33Ce n'est pas long pour un analyste de
données de construire ça. -
17:33 - 17:36Par exemple, ces quatre algorithmes
sont tous de la même personne. -
17:36 - 17:38Vous pensez peut-être
que c'est du déjà-vu, -
17:38 - 17:42que nous connaissons les conséquences
de l'arrivée de nouvelles choses, -
17:42 - 17:44de nouveaux emplois qui
remplacent les anciens. -
17:44 - 17:46Que seront ces nouveaux emplois ?
-
17:46 - 17:48C'est très dur à estimer :
-
17:48 - 17:51l'amélioration des performances
humaines est graduelle, -
17:51 - 17:54tandis que ce système,
l'apprentissage profond, -
17:54 - 17:57s'améliore de façon exponentielle.
-
17:57 - 17:58Et nous en sommes là.
-
17:58 - 18:01En regardant autour de nous,
nous pensons : -
18:01 - 18:03« Les machines sont
toujours idiotes ». Pas vrai ? -
18:03 - 18:07Mais d'ici cinq ans, elles seront
bien plus haut dans la courbe. -
18:07 - 18:11Nous devons commencer à penser
dès maintenant à ces capacités futures. -
18:11 - 18:13Ce n'est pas la première fois, bien sûr.
-
18:13 - 18:18Les machines de la Révolution Industrielle
augmentèrent nos capacités. -
18:18 - 18:21Mais, au bout d'un moment,
les choses se calmèrent. -
18:21 - 18:23Il y eut des troubles sociaux, mais
-
18:23 - 18:26une fois les machines utilisées
pour la plupart des cas utiles, -
18:26 - 18:28les choses s'apaisèrent.
-
18:28 - 18:30La Révolution des Machines Apprenantes
-
18:30 - 18:33sera très différente
de la Révolution Industrielle, -
18:33 - 18:36parce que dans son cas, les choses
ne se calmeront pas. -
18:36 - 18:39Plus les ordinateurs progressent
dans les activités cérébrales, -
18:39 - 18:43plus ils peuvent créer de meilleurs
ordinateurs, et progresser encore. -
18:43 - 18:45Nous sommes devant un type d'évolution
-
18:45 - 18:47que le monde n'a jamais
expérimentée auparavant : -
18:47 - 18:51notre compréhension antérieure
des possibles n'est pas adaptée. -
18:51 - 18:53Nous en subissons déjà les impacts.
-
18:53 - 18:56Ces 25 dernières années, alors que
la productivité du capital augmentait, -
18:56 - 19:01la productivité du travail restait stable,
était même légèrement en baisse. -
19:01 - 19:04Je voudrais lancer
ce débat dès maintenant. -
19:04 - 19:07Je sais d'expérience que lorsque
je parle de ça aux gens, -
19:07 - 19:09ils peuvent être sceptiques.
-
19:09 - 19:10Les machines ne peuvent pas penser,
-
19:10 - 19:13elles n'ont pas d'émotions,
ne comprennent pas la poésie. -
19:13 - 19:16Nous ne comprenons pas
comment elles fonctionnent. -
19:16 - 19:17Et alors ?
-
19:17 - 19:22Elles peuvent dès maintenant faire
ce pour quoi les hommes sont payés. -
19:22 - 19:24C'est le moment de commencer
-
19:24 - 19:28à réfléchir à la façon d'ajuster nos
structures sociales et économiques, -
19:28 - 19:30d'être au fait de cette nouvelle réalité.
-
19:30 - 19:31Merci.
-
19:31 - 19:32(Applaudissements)
- Title:
- Les conséquences à la fois merveilleuses et effrayantes des machines qui apprennent.
- Speaker:
- Jeremy Howard
- Description:
-
Que se passe-t-il lorsque l'on apprend à un ordinateur à apprendre ?
Le technologue Jeremy Howard nous fait part des derniers développements dans le domaine, en plein essor, de l'apprentissage profond, une technique qui donne aux ordinateurs la capacité à apprendre le chinois, à reconnaître des objets sur une photo ou encore à faciliter un diagnostic médical (un outil d'apprentissage profond a été capable, après des heures de visionnage de vidéos sur YouTube, de s'enseigner à lui-même le concept de « chat »).
Mettez vos connaissances à jour dans un domaine qui va changer la façon dont les ordinateurs autour de vous se comportent... plus vite que vous ne le pensez.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 19:45
eric vautier approved French subtitles for The wonderful and terrifying implications of computers that can learn | ||
eric vautier edited French subtitles for The wonderful and terrifying implications of computers that can learn | ||
eric vautier edited French subtitles for The wonderful and terrifying implications of computers that can learn | ||
eric vautier edited French subtitles for The wonderful and terrifying implications of computers that can learn | ||
Erwan Baconnier commented on French subtitles for The wonderful and terrifying implications of computers that can learn | ||
Hồng Khánh Lê accepted French subtitles for The wonderful and terrifying implications of computers that can learn | ||
Hồng Khánh Lê edited French subtitles for The wonderful and terrifying implications of computers that can learn | ||
Hồng Khánh Lê edited French subtitles for The wonderful and terrifying implications of computers that can learn |
Erwan Baconnier
Les modifications apportées par la version 58 qui ne sont pas inutiles sont à mon sens non diffusables en l'état, avec un contresens (à 3:03) et un français douteux, inélégant ou non compréhensible (notamment à 4:19, 6:16,13:08,17:10,19:19).
Ces modifications ont été validées sans aucun échanges et je n'approuve pas la version finale. Je ne peux néanmoins plus y apporter de corrections, contrairement à la version 52, qui m'avait été renvoyée et qui comportait, en nombre plus important, les mêmes défauts.
La modfication faite au passage de 4:19 à 4:32 n'est pas satisfaisante, mais pointe un défaut de la traduction originale, qui pourrait être utilement améliorée, par exemple en retirant le terme "phonétique" pour ne laisser que "transcription" et, ligne suivante, en parlant de "chinois écrit" et "chinois parlé", plutôt que de texte et langue chinoise.