La vraie raison d'avoir peur de l'Intelligence Artificielle | Peter Haas | TEDxDirigo
-
0:13 - 0:17Le soulèvement des machines !
-
0:18 - 0:23Qui ici a peur des robots tueurs ?
-
0:23 - 0:25(Rires)
-
0:26 - 0:27Moi !
-
0:28 - 0:32Je travaillais dans les UAV -
véhicules aériens sans pilote - -
0:32 - 0:37et la seule chose à laquelle je pensais
en voyant ces choses, c'est qu'un jour, -
0:37 - 0:41quelqu'un va attacher
une mitraillette à ces engins, -
0:41 - 0:44et qu'ils me traqueront en meute.
-
0:45 - 0:48Je travaille en robotique
à la Brown University -
0:48 - 0:51et j'ai peur des robots.
-
0:51 - 0:53En fait, j'en suis terrifié,
-
0:54 - 0:56mais pouvez-vous m'en vouloir ?
-
0:56 - 1:00Depuis que je suis enfant,
je n'ai vu que des films -
1:00 - 1:03qui décrivent la montée
de l'Intelligence Artificielle -
1:03 - 1:06et notre inévitable conflit avec elle -
-
1:06 - 1:112001 l'Odyssée de l'espace,
Terminator, Matrix - -
1:12 - 1:16et les histoires qu'ils racontent
sont plutôt effrayantes : -
1:16 - 1:21des bandes d'humains voyous
fuyant des machines super intelligentes. -
1:22 - 1:24Cela me fait peur.
-
1:24 - 1:27Il semblerait que cela
vous effraie également. -
1:27 - 1:31Je sais que cela fait peur à Elon Musk.
-
1:31 - 1:33Mais vous savez, nous avons
un peu de temps -
1:33 - 1:35avant que les robots ne se rebellent.
-
1:35 - 1:39Des robots comme le PR2
dont j'ai eu l'initiative, -
1:39 - 1:42ils ne peuvent même pas ouvrir
une porte pour l'instant. -
1:42 - 1:47Donc, dans mon esprit, cette discussion
sur les robots super intelligents -
1:47 - 1:49n'est qu'une distraction
pour nous détourner -
1:49 - 1:52de quelque chose
de beaucoup plus insidieux -
1:52 - 1:56qui se passe avec les systèmes
d'IA dans tout le pays. -
1:57 - 2:00Vous voyez, en ce moment,
il y a des gens - -
2:00 - 2:04des médecins, des juges, des comptables -
-
2:04 - 2:08qui obtiennent des informations
d'un système d'IA -
2:08 - 2:13et qui les traitent comme s'il s'agissait
d'informations d'un collègue de confiance. -
2:14 - 2:17C'est cette confiance qui me dérange,
-
2:17 - 2:20non à cause de la fréquence
à laquelle l'IA se trompe. -
2:20 - 2:24Les chercheurs en IA sont fiers
de l'exactitude des résultats. -
2:25 - 2:30C'est à quel point elle se trompe quand
elle commet une erreur qui m'inquiète. -
2:30 - 2:34Ces systèmes n'échouent pas gracieusement.
-
2:34 - 2:37Alors, regardons à quoi cela ressemble.
-
2:37 - 2:40Ceci est un chien qui a été mal identifié
-
2:40 - 2:43comme étant un loup
par un algorithme d'IA. -
2:43 - 2:45Les chercheurs ont voulu savoir :
-
2:45 - 2:50pourquoi ce husky en particulier a-t-il
été identifié à tort comme un loup ? -
2:50 - 2:53Ils ont donc réécrit l’algorithme
pour que celui-ci explicite -
2:53 - 2:56les parties de l’image à laquelle
il prêtait attention. -
2:56 - 2:59Lorsque l’algorithme d’IA
a pris sa décision. -
2:59 - 3:03Sur cette image, à quoi pensez-vous
qu'il ait prêté attention ? -
3:03 - 3:05À quoi feriez-vous attention ?
-
3:05 - 3:11Peut-être les yeux,
peut-être les oreilles, le museau... -
3:13 - 3:17Voici à quoi il a prêté attention :
-
3:17 - 3:21principalement la neige
et l'arrière-plan de l'image. -
3:21 - 3:26Il y avait un biais dans le jeu de données
alimentant cet algorithme. -
3:26 - 3:31La plupart des images de loups
étaient dans la neige, -
3:31 - 3:35l'algorithme d'IA a donc confondu
la présence ou l'absence de neige -
3:35 - 3:38avec la présence ou à l'absence d'un loup.
-
3:40 - 3:42La chose effrayante ici
-
3:42 - 3:46est que les chercheurs n’avaient
aucune idée de ce qu'il se passait, -
3:46 - 3:50avant de réécrire l’algorithme
pour qu'il explicite ses choix. -
3:51 - 3:53Et c'est le problème
avec les algorithmes d'IA, -
3:53 - 3:55l'apprentissage profond et automatique.
-
3:55 - 3:59Même les développeurs
qui travaillent sur ce genre de choses -
3:59 - 4:02n'ont aucune idée de ce qu'ils font.
-
4:03 - 4:08Cela pourrait être un excellent exemple
pour une recherche, -
4:08 - 4:10mais qu'est-ce que cela signifie
dans le monde réel ? -
4:11 - 4:16L'algorithme de jugement criminel COMPAS
est utilisé dans 13 États d'Amérique -
4:16 - 4:18pour déterminer la récidive criminelle
-
4:18 - 4:23ou le risque de commettre
un crime à nouveau après votre libération. -
4:23 - 4:27ProPublica a constaté
que si vous êtes afro-américain, -
4:27 - 4:29COMPAS avait 77% plus de chances
-
4:29 - 4:32de vous qualifier de délinquant
potentiellement violent -
4:32 - 4:34que si vous étiez caucasien.
-
4:35 - 4:39Ceci est un système réel, utilisé
dans le monde réel par de vrais juges, -
4:39 - 4:43pour prendre des décisions
sur la vie de vraies personnes. -
4:44 - 4:50Pourquoi les juges lui feraient-ils
confiance s'il semble être biaisé ? -
4:50 - 4:52La raison pour laquelle
ils utilisent COMPAS, -
4:52 - 4:56c'est parce qu’il s’agit
d’un modèle d’efficacité. -
4:56 - 5:00COMPAS leur permet de traiter
des dossiers beaucoup plus rapidement -
5:00 - 5:04dans un système de justice surchargé.
-
5:05 - 5:07Pourquoi mettraient-ils en doute
leur propre logiciel ? -
5:07 - 5:11Il a été acheté par l'État, approuvé
par leurs services informatiques. -
5:11 - 5:13Pourquoi le remettraient-ils en cause ?
-
5:13 - 5:17Les personnes condamnées par COMPAS
l'ont remis en question, -
5:17 - 5:19et le procès devrait tous nous refroidir.
-
5:19 - 5:22La Cour suprême
de l'État du Wisconsin a statué -
5:22 - 5:26que COMPAS ne refuserait pas à un accusé
une procédure régulière -
5:26 - 5:29à condition qu'il ait été utilisé
« correctement ». -
5:29 - 5:31Dans le même temps, ils ont statué
-
5:31 - 5:35que l'accusé ne pouvait pas inspecter
le code source de COMPAS. -
5:36 - 5:38Il doit être utilisé correctement
-
5:38 - 5:40mais vous ne pouvez pas
inspecter le code source ? -
5:40 - 5:43C’est un ensemble
de décisions troublantes, -
5:43 - 5:47qui s’appliquent à quiconque
encourant une condamnation pénale. -
5:47 - 5:48Cela vous est peut-être égal
-
5:48 - 5:51parce que vous n'êtes pas
poursuivi en justice, -
5:51 - 5:55mais si je vous disais que des algorithmes
opaques d'IA comme celui-ci -
5:55 - 6:00sont utilisés pour décider si vous pouvez
obtenir ou non un prêt pour votre maison, -
6:00 - 6:03si vous pouvez obtenir
un entretien d'embauche, -
6:03 - 6:06si vous pouvez bénéficier
d'une assurance maladie, -
6:06 - 6:10et qu'ils conduisent même des voitures
et des camions sur l'autoroute. -
6:11 - 6:15Souhaiteriez-vous que le public
soit en mesure d'inspecter l'algorithme -
6:15 - 6:18qui tente de faire la distinction
entre un panier et un landau -
6:18 - 6:21dans un camion autonome,
-
6:21 - 6:23de la même manière
que l'algorithme chien/loup -
6:23 - 6:26essayait de faire la différence
entre un chien et un loup ? -
6:26 - 6:29Êtes-vous potentiellement
un chien métaphorique -
6:29 - 6:31qui a été mal identifié comme un loup
-
6:31 - 6:34par l'algorithme d'IA de quelqu'un ?
-
6:35 - 6:39Compte tenu de la complexité
des personnes, c'est possible. -
6:39 - 6:42Y a-t-il quelque chose
que vous puissiez faire maintenant ? -
6:42 - 6:45Probablement pas,
-
6:45 - 6:47et c'est ce sur quoi
nous devons nous concentrer. -
6:47 - 6:51Nous devons exiger
des normes de responsabilité, -
6:51 - 6:55de transparence et des recours
concernant les systèmes d'IA. -
6:56 - 7:00L'ISO, l'Organisation internationale
de normalisation, -
7:00 - 7:02vient de former un comité
pour prendre des décisions -
7:02 - 7:05sur ce qui doit être fait
concernant les normes sur l'IA. -
7:05 - 7:09Il leur faut environ cinq ans
pour élaborer une norme. -
7:09 - 7:13Ces systèmes sont utilisés en ce moment,
-
7:14 - 7:16pas seulement pour estimer
l'octroi de prêts, -
7:16 - 7:20mais ils sont utilisés dans
des véhicules, comme je l'expliquais. -
7:21 - 7:23Ils sont utilisés dans des domaines
-
7:23 - 7:25tels que le régulateur de vitesse
adaptatif coopératif. -
7:25 - 7:28C'est drôle qu'ils appellent cela
« régulateur de vitesse » -
7:28 - 7:31parce que le type de contrôleur utilisé
dans le régulateur de vitesse, -
7:31 - 7:33un contrôleur PID,
-
7:33 - 7:36a été utilisé pendant 30 ans
dans des usines chimiques -
7:36 - 7:39avant d’être transféré sur des voitures.
-
7:39 - 7:41Le type de contrôleur utilisé
-
7:41 - 7:45pour conduire une voiture autonome
et l'apprentissage automatique, -
7:45 - 7:49n'est utilisé en recherche
que depuis 2007. -
7:50 - 7:52Ce sont des nouvelles technologies.
-
7:52 - 7:56Nous devons exiger des normes
et nous devons exiger une réglementation -
7:56 - 8:00pour éviter de se retrouver avec
n'importe quoi sur le marché. -
8:01 - 8:05Et nous devons également avoir
un peu de scepticisme. -
8:06 - 8:08Les expériences appelées Authority,
-
8:08 - 8:11faites par Stanley Milgram
après la Seconde Guerre mondiale, -
8:11 - 8:16ont montré qu'une personne moyenne suivra
les ordres d'une personne d'autorité -
8:16 - 8:20même si cela signifie
torturer son concitoyen. -
8:20 - 8:23Dans cette expérience,
-
8:23 - 8:27des Américains lambda
pensent électrocuter des acteurs, -
8:28 - 8:31ignorant leurs gémissements,
-
8:32 - 8:35ignorant leurs cris de douleur,
-
8:36 - 8:41allant même jusqu'à l'électrocution
et une mort simulée, -
8:42 - 8:44tout cela parce que quelqu'un
-
8:44 - 8:48sans qualifications,
dans une blouse de laboratoire, -
8:48 - 8:51disait une variante de la phrase :
-
8:51 - 8:54« L'expérience doit continuer. »
-
8:57 - 9:03Dans l'IA, nous avons
la figure d'autorité ultime de Milgram. -
9:04 - 9:08Nous avons un système impartial
qui ne peut pas réfléchir, -
9:09 - 9:13qui ne peut pas prendre d'autre décision,
-
9:13 - 9:15qui n'autorise aucun recours,
-
9:15 - 9:20qui dira toujours « Le système »
ou « Le processus doit continuer. » -
9:23 - 9:26Maintenant, je vais vous raconter
une histoire. -
9:26 - 9:30Il s’agit d’un voyage en voiture
que j’ai fait à travers le pays. -
9:31 - 9:35J'allais à Salt Lake City
et il commença à pleuvoir. -
9:35 - 9:40En montant dans les montagnes,
cette pluie s'est transformée en neige, -
9:40 - 9:43et très vite, cette neige
a tout recouvert. -
9:43 - 9:46Je ne voyais même plus les feux arrière
de la voiture devant moi. -
9:46 - 9:48J'ai commencé à déraper.
-
9:48 - 9:51J'ai fait un 360 dans un sens,
puis dans l'autre. -
9:51 - 9:53J'ai fait une sortie de route.
-
9:53 - 9:55La boue recouvrait mes vitres,
je ne voyais plus rien. -
9:55 - 9:59J'étais terrifié à l'idée
qu'une voiture me percute. -
10:00 - 10:04Je vous raconte cette histoire
pour vous faire réfléchir -
10:04 - 10:07comment quelque chose d'insignifiant
et d'apparence banale -
10:07 - 10:10comme un peu de précipitation,
-
10:10 - 10:15peut facilement devenir
quelque chose de très dangereux. -
10:15 - 10:20Nous conduisons sous la pluie avec l'IA,
en ce moment, -
10:20 - 10:23et cette pluie se transformera en neige,
-
10:24 - 10:27et cette neige pourrait
devenir un blizzard. -
10:28 - 10:31Nous devons faire une pause,
-
10:31 - 10:33vérifier les conditions,
-
10:33 - 10:36mettre en place des normes de sécurité,
-
10:36 - 10:41et nous demander
jusqu'où nous voulons aller, -
10:42 - 10:46car les motivations économiques
de l'IA et de l'automatisation -
10:46 - 10:48pour remplacer le travail humain
-
10:48 - 10:51seront au-delà de tout
ce que nous avons vu -
10:51 - 10:54depuis la révolution industrielle.
-
10:54 - 10:58Les exigences de salaire humain
ne peuvent pas rivaliser -
10:58 - 11:02avec le coût de base de l'électricité.
-
11:02 - 11:08Les IA et les robots remplaceront
les cuisiniers dans les fast-foods -
11:08 - 11:10et les radiologues dans les hôpitaux.
-
11:11 - 11:14Un jour, l'IA diagnostiquera votre cancer,
-
11:14 - 11:17et un robot effectuera l'opération.
-
11:18 - 11:22Seul un scepticisme sain
vis-à-vis de ces systèmes -
11:22 - 11:26aidera à tenir les gens informés.
-
11:26 - 11:28Et je suis confiant,
-
11:28 - 11:31si nous pouvons tenir les gens informés,
-
11:31 - 11:35si nous pouvons construire
des systèmes d'IA transparents -
11:35 - 11:36comme l'exemple du chien et du loup
-
11:36 - 11:40où l'IA a expliqué aux ingénieurs
ce qu'elle faisait, -
11:40 - 11:43et ces derniers ont pu le vérifier,
-
11:43 - 11:48nous pouvons créer de nouveaux emplois
pour des personnes s’associant à l'IA. -
11:49 - 11:51Si nous travaillons ensemble avec l'IA,
-
11:51 - 11:53nous serons probablement
capables de résoudre -
11:53 - 11:56certains de nos plus grands défis.
-
11:57 - 12:01Mais pour faire cela,
nous devons diriger et non suivre. -
12:02 - 12:05Nous devons choisir
de ne pas ressembler à des robots, -
12:05 - 12:10et nous devons construire des robots
qui soient plus humains, -
12:11 - 12:13parce que finalement,
-
12:13 - 12:16la seule chose que nous devons craindre,
-
12:16 - 12:19ce ne sont pas les robots tueurs,
-
12:19 - 12:22c'est notre propre paresse intellectuelle.
-
12:22 - 12:25La seule chose que nous devons craindre,
-
12:25 - 12:27c'est nous-mêmes.
-
12:27 - 12:28Merci.
-
12:28 - 12:30(Applaudissements)
- Title:
- La vraie raison d'avoir peur de l'Intelligence Artificielle | Peter Haas | TEDxDirigo
- Description:
-
Peter Haas, chercheur en robotique, nous invite dans son monde afin de comprendre où résident les menaces des robots et de l'intelligence artificielle. Avant que nous arrivions aux robots tueurs de la science-fiction, à l’internet des objets ou même au transhumanisme, il y a quelque chose devant nous que nous devons affronter. Et c'est nous-mêmes.
Peter est le directeur associé de la Brown University Centered Robotics Initiative. Il a été cofondateur et directeur de l'exploitation de XactSense, un fabricant d'UAV travaillant sur la cartographie LIDAR et la navigation autonome. Avant de rejoindre XactSense, Peter avait fondé AIDG, un accélérateur de petites entreprises informatiques dans les marchés émergents. Peter a reçu à la fois des bourses TED et Echoing Green. Il a été conférencier à TED Global, à la Banque mondiale, à l'Université de Harvard et à d'autres occasions. Il détient une licence en philosophie, obtenue à Yale.
Cette présentation a été donnée lors d'un événement TEDx local utilisant le format des conférences TED mais organisé indépendamment. En savoir plus : http://ted.com/tedx
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDxTalks
- Duration:
- 12:38