1 00:00:13,298 --> 00:00:17,148 Le soulèvement des machines ! 2 00:00:17,928 --> 00:00:22,748 Qui ici a peur des robots tueurs ? 3 00:00:23,140 --> 00:00:25,250 (Rires) 4 00:00:25,612 --> 00:00:27,212 Moi ! 5 00:00:28,226 --> 00:00:31,896 Je travaillais dans les UAV - véhicules aériens sans pilote - 6 00:00:31,896 --> 00:00:37,146 et la seule chose à laquelle je pensais en voyant ces choses, c'est qu'un jour, 7 00:00:37,146 --> 00:00:40,903 quelqu'un va attacher une mitraillette à ces engins, 8 00:00:40,903 --> 00:00:43,853 et qu'ils me traqueront en meute. 9 00:00:44,688 --> 00:00:47,881 Je travaille en robotique à la Brown University 10 00:00:47,881 --> 00:00:50,541 et j'ai peur des robots. 11 00:00:50,541 --> 00:00:53,281 En fait, j'en suis terrifié, 12 00:00:53,761 --> 00:00:55,811 mais pouvez-vous m'en vouloir ? 13 00:00:55,811 --> 00:00:59,501 Depuis que je suis enfant, je n'ai vu que des films 14 00:00:59,501 --> 00:01:03,011 qui décrivent la montée de l'Intelligence Artificielle 15 00:01:03,011 --> 00:01:05,811 et notre inévitable conflit avec elle - 16 00:01:05,811 --> 00:01:11,041 2001 l'Odyssée de l'espace, Terminator, Matrix - 17 00:01:11,800 --> 00:01:16,200 et les histoires qu'ils racontent sont plutôt effrayantes : 18 00:01:16,200 --> 00:01:21,158 des bandes d'humains voyous fuyant des machines super intelligentes. 19 00:01:21,935 --> 00:01:23,905 Cela me fait peur. 20 00:01:23,905 --> 00:01:26,795 Il semblerait que cela vous effraie également. 21 00:01:26,795 --> 00:01:30,825 Je sais que cela fait peur à Elon Musk. 22 00:01:30,825 --> 00:01:33,145 Mais vous savez, nous avons un peu de temps 23 00:01:33,145 --> 00:01:35,245 avant que les robots ne se rebellent. 24 00:01:35,245 --> 00:01:38,571 Des robots comme le PR2 dont j'ai eu l'initiative, 25 00:01:38,571 --> 00:01:41,781 ils ne peuvent même pas ouvrir une porte pour l'instant. 26 00:01:42,191 --> 00:01:46,707 Donc, dans mon esprit, cette discussion sur les robots super intelligents 27 00:01:46,707 --> 00:01:48,937 n'est qu'une distraction pour nous détourner 28 00:01:48,937 --> 00:01:51,997 de quelque chose de beaucoup plus insidieux 29 00:01:51,997 --> 00:01:56,217 qui se passe avec les systèmes d'IA dans tout le pays. 30 00:01:56,917 --> 00:02:00,067 Vous voyez, en ce moment, il y a des gens - 31 00:02:00,067 --> 00:02:04,227 des médecins, des juges, des comptables - 32 00:02:04,227 --> 00:02:07,957 qui obtiennent des informations d'un système d'IA 33 00:02:07,957 --> 00:02:13,367 et qui les traitent comme s'il s'agissait d'informations d'un collègue de confiance. 34 00:02:13,931 --> 00:02:17,151 C'est cette confiance qui me dérange, 35 00:02:17,151 --> 00:02:20,182 non à cause de la fréquence à laquelle l'IA se trompe. 36 00:02:20,182 --> 00:02:24,403 Les chercheurs en IA sont fiers de l'exactitude des résultats. 37 00:02:24,869 --> 00:02:29,779 C'est à quel point elle se trompe quand elle commet une erreur qui m'inquiète. 38 00:02:29,779 --> 00:02:33,579 Ces systèmes n'échouent pas gracieusement. 39 00:02:34,240 --> 00:02:37,130 Alors, regardons à quoi cela ressemble. 40 00:02:37,130 --> 00:02:40,233 Ceci est un chien qui a été mal identifié 41 00:02:40,233 --> 00:02:43,233 comme étant un loup par un algorithme d'IA. 42 00:02:43,233 --> 00:02:45,239 Les chercheurs ont voulu savoir : 43 00:02:45,239 --> 00:02:49,759 pourquoi ce husky en particulier a-t-il été identifié à tort comme un loup ? 44 00:02:49,759 --> 00:02:52,721 Ils ont donc réécrit l’algorithme pour que celui-ci explicite 45 00:02:52,721 --> 00:02:55,651 les parties de l’image à laquelle il prêtait attention. 46 00:02:55,651 --> 00:02:58,501 Lorsque l’algorithme d’IA a pris sa décision. 47 00:02:59,039 --> 00:03:02,869 Sur cette image, à quoi pensez-vous qu'il ait prêté attention ? 48 00:03:02,869 --> 00:03:05,369 À quoi feriez-vous attention ? 49 00:03:05,369 --> 00:03:10,859 Peut-être les yeux, peut-être les oreilles, le museau... 50 00:03:13,041 --> 00:03:16,531 Voici à quoi il a prêté attention : 51 00:03:16,981 --> 00:03:21,021 principalement la neige et l'arrière-plan de l'image. 52 00:03:21,021 --> 00:03:26,293 Il y avait un biais dans le jeu de données alimentant cet algorithme. 53 00:03:26,293 --> 00:03:30,583 La plupart des images de loups étaient dans la neige, 54 00:03:30,583 --> 00:03:34,783 l'algorithme d'IA a donc confondu la présence ou l'absence de neige 55 00:03:34,783 --> 00:03:38,373 avec la présence ou à l'absence d'un loup. 56 00:03:39,912 --> 00:03:42,027 La chose effrayante ici 57 00:03:42,027 --> 00:03:46,287 est que les chercheurs n’avaient aucune idée de ce qu'il se passait, 58 00:03:46,287 --> 00:03:50,127 avant de réécrire l’algorithme pour qu'il explicite ses choix. 59 00:03:50,863 --> 00:03:53,426 Et c'est le problème avec les algorithmes d'IA, 60 00:03:53,426 --> 00:03:55,326 l'apprentissage profond et automatique. 61 00:03:55,326 --> 00:03:59,346 Même les développeurs qui travaillent sur ce genre de choses 62 00:03:59,346 --> 00:04:02,396 n'ont aucune idée de ce qu'ils font. 63 00:04:03,001 --> 00:04:07,591 Cela pourrait être un excellent exemple pour une recherche, 64 00:04:07,591 --> 00:04:10,281 mais qu'est-ce que cela signifie dans le monde réel ? 65 00:04:10,611 --> 00:04:15,841 L'algorithme de jugement criminel COMPAS est utilisé dans 13 États d'Amérique 66 00:04:15,841 --> 00:04:17,991 pour déterminer la récidive criminelle 67 00:04:17,991 --> 00:04:22,831 ou le risque de commettre un crime à nouveau après votre libération. 68 00:04:23,199 --> 00:04:26,959 ProPublica a constaté que si vous êtes afro-américain, 69 00:04:26,959 --> 00:04:29,383 COMPAS avait 77% plus de chances 70 00:04:29,383 --> 00:04:32,023 de vous qualifier de délinquant potentiellement violent 71 00:04:32,023 --> 00:04:34,123 que si vous étiez caucasien. 72 00:04:34,784 --> 00:04:39,404 Ceci est un système réel, utilisé dans le monde réel par de vrais juges, 73 00:04:39,404 --> 00:04:42,974 pour prendre des décisions sur la vie de vraies personnes. 74 00:04:44,115 --> 00:04:49,865 Pourquoi les juges lui feraient-ils confiance s'il semble être biaisé ? 75 00:04:49,866 --> 00:04:52,472 La raison pour laquelle ils utilisent COMPAS, 76 00:04:52,472 --> 00:04:55,622 c'est parce qu’il s’agit d’un modèle d’efficacité. 77 00:04:55,622 --> 00:05:00,072 COMPAS leur permet de traiter des dossiers beaucoup plus rapidement 78 00:05:00,072 --> 00:05:03,742 dans un système de justice surchargé. 79 00:05:04,877 --> 00:05:07,447 Pourquoi mettraient-ils en doute leur propre logiciel ? 80 00:05:07,447 --> 00:05:11,027 Il a été acheté par l'État, approuvé par leurs services informatiques. 81 00:05:11,027 --> 00:05:13,357 Pourquoi le remettraient-ils en cause ? 82 00:05:13,357 --> 00:05:16,513 Les personnes condamnées par COMPAS l'ont remis en question, 83 00:05:16,513 --> 00:05:19,243 et le procès devrait tous nous refroidir. 84 00:05:19,243 --> 00:05:22,123 La Cour suprême de l'État du Wisconsin a statué 85 00:05:22,123 --> 00:05:25,643 que COMPAS ne refuserait pas à un accusé une procédure régulière 86 00:05:25,643 --> 00:05:28,963 à condition qu'il ait été utilisé « correctement ». 87 00:05:28,963 --> 00:05:30,688 Dans le même temps, ils ont statué 88 00:05:30,688 --> 00:05:34,758 que l'accusé ne pouvait pas inspecter le code source de COMPAS. 89 00:05:35,700 --> 00:05:37,625 Il doit être utilisé correctement 90 00:05:37,625 --> 00:05:40,425 mais vous ne pouvez pas inspecter le code source ? 91 00:05:40,425 --> 00:05:43,425 C’est un ensemble de décisions troublantes, 92 00:05:43,425 --> 00:05:46,625 qui s’appliquent à quiconque encourant une condamnation pénale. 93 00:05:46,625 --> 00:05:48,406 Cela vous est peut-être égal 94 00:05:48,406 --> 00:05:51,126 parce que vous n'êtes pas poursuivi en justice, 95 00:05:51,126 --> 00:05:55,056 mais si je vous disais que des algorithmes opaques d'IA comme celui-ci 96 00:05:55,056 --> 00:05:59,876 sont utilisés pour décider si vous pouvez obtenir ou non un prêt pour votre maison, 97 00:06:00,144 --> 00:06:02,844 si vous pouvez obtenir un entretien d'embauche, 98 00:06:03,364 --> 00:06:05,973 si vous pouvez bénéficier d'une assurance maladie, 99 00:06:05,973 --> 00:06:10,434 et qu'ils conduisent même des voitures et des camions sur l'autoroute. 100 00:06:10,831 --> 00:06:14,531 Souhaiteriez-vous que le public soit en mesure d'inspecter l'algorithme 101 00:06:14,531 --> 00:06:18,119 qui tente de faire la distinction entre un panier et un landau 102 00:06:18,119 --> 00:06:20,829 dans un camion autonome, 103 00:06:20,829 --> 00:06:23,109 de la même manière que l'algorithme chien/loup 104 00:06:23,109 --> 00:06:26,229 essayait de faire la différence entre un chien et un loup ? 105 00:06:26,229 --> 00:06:28,942 Êtes-vous potentiellement un chien métaphorique 106 00:06:28,942 --> 00:06:31,462 qui a été mal identifié comme un loup 107 00:06:31,462 --> 00:06:34,262 par l'algorithme d'IA de quelqu'un ? 108 00:06:34,868 --> 00:06:38,818 Compte tenu de la complexité des personnes, c'est possible. 109 00:06:38,818 --> 00:06:42,031 Y a-t-il quelque chose que vous puissiez faire maintenant ? 110 00:06:42,031 --> 00:06:44,627 Probablement pas, 111 00:06:44,627 --> 00:06:47,487 et c'est ce sur quoi nous devons nous concentrer. 112 00:06:47,487 --> 00:06:50,567 Nous devons exiger des normes de responsabilité, 113 00:06:50,567 --> 00:06:55,397 de transparence et des recours concernant les systèmes d'IA. 114 00:06:56,456 --> 00:06:59,734 L'ISO, l'Organisation internationale de normalisation, 115 00:06:59,734 --> 00:07:02,194 vient de former un comité pour prendre des décisions 116 00:07:02,194 --> 00:07:04,964 sur ce qui doit être fait concernant les normes sur l'IA. 117 00:07:04,964 --> 00:07:08,979 Il leur faut environ cinq ans pour élaborer une norme. 118 00:07:08,979 --> 00:07:12,859 Ces systèmes sont utilisés en ce moment, 119 00:07:13,671 --> 00:07:15,841 pas seulement pour estimer l'octroi de prêts, 120 00:07:15,841 --> 00:07:20,041 mais ils sont utilisés dans des véhicules, comme je l'expliquais. 121 00:07:20,771 --> 00:07:22,533 Ils sont utilisés dans des domaines 122 00:07:22,533 --> 00:07:25,113 tels que le régulateur de vitesse adaptatif coopératif. 123 00:07:25,113 --> 00:07:27,923 C'est drôle qu'ils appellent cela « régulateur de vitesse » 124 00:07:27,923 --> 00:07:31,233 parce que le type de contrôleur utilisé dans le régulateur de vitesse, 125 00:07:31,233 --> 00:07:32,703 un contrôleur PID, 126 00:07:32,703 --> 00:07:35,859 a été utilisé pendant 30 ans dans des usines chimiques 127 00:07:35,859 --> 00:07:39,139 avant d’être transféré sur des voitures. 128 00:07:39,139 --> 00:07:41,138 Le type de contrôleur utilisé 129 00:07:41,138 --> 00:07:44,628 pour conduire une voiture autonome et l'apprentissage automatique, 130 00:07:44,628 --> 00:07:48,878 n'est utilisé en recherche que depuis 2007. 131 00:07:49,680 --> 00:07:52,460 Ce sont des nouvelles technologies. 132 00:07:52,470 --> 00:07:56,430 Nous devons exiger des normes et nous devons exiger une réglementation 133 00:07:56,430 --> 00:08:00,340 pour éviter de se retrouver avec n'importe quoi sur le marché. 134 00:08:00,819 --> 00:08:05,299 Et nous devons également avoir un peu de scepticisme. 135 00:08:05,861 --> 00:08:07,871 Les expériences appelées Authority, 136 00:08:07,871 --> 00:08:11,121 faites par Stanley Milgram après la Seconde Guerre mondiale, 137 00:08:11,121 --> 00:08:16,031 ont montré qu'une personne moyenne suivra les ordres d'une personne d'autorité 138 00:08:16,031 --> 00:08:19,741 même si cela signifie torturer son concitoyen. 139 00:08:20,461 --> 00:08:22,850 Dans cette expérience, 140 00:08:22,850 --> 00:08:27,130 des Américains lambda pensent électrocuter des acteurs, 141 00:08:27,689 --> 00:08:31,269 ignorant leurs gémissements, 142 00:08:31,577 --> 00:08:35,427 ignorant leurs cris de douleur, 143 00:08:35,934 --> 00:08:40,894 allant même jusqu'à l'électrocution et une mort simulée, 144 00:08:41,613 --> 00:08:44,099 tout cela parce que quelqu'un 145 00:08:44,099 --> 00:08:47,969 sans qualifications, dans une blouse de laboratoire, 146 00:08:47,969 --> 00:08:50,795 disait une variante de la phrase : 147 00:08:50,795 --> 00:08:54,475 « L'expérience doit continuer. » 148 00:08:56,945 --> 00:09:02,838 Dans l'IA, nous avons la figure d'autorité ultime de Milgram. 149 00:09:03,656 --> 00:09:08,366 Nous avons un système impartial qui ne peut pas réfléchir, 150 00:09:09,370 --> 00:09:12,930 qui ne peut pas prendre d'autre décision, 151 00:09:12,930 --> 00:09:15,082 qui n'autorise aucun recours, 152 00:09:15,082 --> 00:09:20,454 qui dira toujours « Le système » ou « Le processus doit continuer. » 153 00:09:23,313 --> 00:09:25,883 Maintenant, je vais vous raconter une histoire. 154 00:09:25,883 --> 00:09:29,723 Il s’agit d’un voyage en voiture que j’ai fait à travers le pays. 155 00:09:30,790 --> 00:09:34,690 J'allais à Salt Lake City et il commença à pleuvoir. 156 00:09:35,211 --> 00:09:39,900 En montant dans les montagnes, cette pluie s'est transformée en neige, 157 00:09:40,380 --> 00:09:42,580 et très vite, cette neige a tout recouvert. 158 00:09:42,580 --> 00:09:46,140 Je ne voyais même plus les feux arrière de la voiture devant moi. 159 00:09:46,153 --> 00:09:48,023 J'ai commencé à déraper. 160 00:09:48,023 --> 00:09:51,033 J'ai fait un 360 dans un sens, puis dans l'autre. 161 00:09:51,033 --> 00:09:52,583 J'ai fait une sortie de route. 162 00:09:52,583 --> 00:09:55,113 La boue recouvrait mes vitres, je ne voyais plus rien. 163 00:09:55,113 --> 00:09:59,103 J'étais terrifié à l'idée qu'une voiture me percute. 164 00:09:59,924 --> 00:10:03,864 Je vous raconte cette histoire pour vous faire réfléchir 165 00:10:03,864 --> 00:10:07,324 comment quelque chose d'insignifiant et d'apparence banale 166 00:10:07,324 --> 00:10:10,094 comme un peu de précipitation, 167 00:10:10,094 --> 00:10:14,584 peut facilement devenir quelque chose de très dangereux. 168 00:10:15,409 --> 00:10:19,789 Nous conduisons sous la pluie avec l'IA, en ce moment, 169 00:10:20,442 --> 00:10:23,402 et cette pluie se transformera en neige, 170 00:10:23,887 --> 00:10:27,457 et cette neige pourrait devenir un blizzard. 171 00:10:28,097 --> 00:10:30,547 Nous devons faire une pause, 172 00:10:30,547 --> 00:10:32,997 vérifier les conditions, 173 00:10:33,002 --> 00:10:35,642 mettre en place des normes de sécurité, 174 00:10:35,642 --> 00:10:41,232 et nous demander jusqu'où nous voulons aller, 175 00:10:42,267 --> 00:10:46,437 car les motivations économiques de l'IA et de l'automatisation 176 00:10:46,437 --> 00:10:48,363 pour remplacer le travail humain 177 00:10:48,363 --> 00:10:50,963 seront au-delà de tout ce que nous avons vu 178 00:10:50,963 --> 00:10:54,043 depuis la révolution industrielle. 179 00:10:54,043 --> 00:10:58,040 Les exigences de salaire humain ne peuvent pas rivaliser 180 00:10:58,040 --> 00:11:01,650 avec le coût de base de l'électricité. 181 00:11:02,480 --> 00:11:07,915 Les IA et les robots remplaceront les cuisiniers dans les fast-foods 182 00:11:07,915 --> 00:11:10,415 et les radiologues dans les hôpitaux. 183 00:11:11,135 --> 00:11:14,330 Un jour, l'IA diagnostiquera votre cancer, 184 00:11:14,330 --> 00:11:17,430 et un robot effectuera l'opération. 185 00:11:17,960 --> 00:11:22,420 Seul un scepticisme sain vis-à-vis de ces systèmes 186 00:11:22,420 --> 00:11:25,981 aidera à tenir les gens informés. 187 00:11:26,291 --> 00:11:28,153 Et je suis confiant, 188 00:11:28,153 --> 00:11:31,473 si nous pouvons tenir les gens informés, 189 00:11:31,473 --> 00:11:34,623 si nous pouvons construire des systèmes d'IA transparents 190 00:11:34,623 --> 00:11:36,393 comme l'exemple du chien et du loup 191 00:11:36,393 --> 00:11:39,658 où l'IA a expliqué aux ingénieurs ce qu'elle faisait, 192 00:11:39,658 --> 00:11:42,588 et ces derniers ont pu le vérifier, 193 00:11:42,588 --> 00:11:47,588 nous pouvons créer de nouveaux emplois pour des personnes s’associant à l'IA. 194 00:11:48,573 --> 00:11:51,043 Si nous travaillons ensemble avec l'IA, 195 00:11:51,043 --> 00:11:53,393 nous serons probablement capables de résoudre 196 00:11:53,393 --> 00:11:56,243 certains de nos plus grands défis. 197 00:11:56,764 --> 00:12:01,354 Mais pour faire cela, nous devons diriger et non suivre. 198 00:12:01,801 --> 00:12:05,491 Nous devons choisir de ne pas ressembler à des robots, 199 00:12:05,491 --> 00:12:10,131 et nous devons construire des robots qui soient plus humains, 200 00:12:11,020 --> 00:12:13,350 parce que finalement, 201 00:12:13,350 --> 00:12:15,930 la seule chose que nous devons craindre, 202 00:12:15,930 --> 00:12:18,700 ce ne sont pas les robots tueurs, 203 00:12:18,700 --> 00:12:21,641 c'est notre propre paresse intellectuelle. 204 00:12:22,215 --> 00:12:25,029 La seule chose que nous devons craindre, 205 00:12:25,029 --> 00:12:26,989 c'est nous-mêmes. 206 00:12:26,989 --> 00:12:28,441 Merci. 207 00:12:28,441 --> 00:12:30,131 (Applaudissements)