Le soulèvement des machines ! Qui ici a peur des robots tueurs ? (Rires) Moi ! Je travaillais dans les UAV - véhicules aériens sans pilote - et la seule chose à laquelle je pensais en voyant ces choses, c'est qu'un jour, quelqu'un va attacher une mitraillette à ces engins, et qu'ils me traqueront en meute. Je travaille en robotique à la Brown University et j'ai peur des robots. En fait, j'en suis terrifié, mais pouvez-vous m'en vouloir ? Depuis que je suis enfant, je n'ai vu que des films qui décrivent la montée de l'Intelligence Artificielle et notre inévitable conflit avec elle - 2001 l'Odyssée de l'espace, Terminator, Matrix - et les histoires qu'ils racontent sont plutôt effrayantes : des bandes d'humains voyous fuyant des machines super intelligentes. Cela me fait peur. Il semblerait que cela vous effraie également. Je sais que cela fait peur à Elon Musk. Mais vous savez, nous avons un peu de temps avant que les robots ne se rebellent. Des robots comme le PR2 dont j'ai eu l'initiative, ils ne peuvent même pas ouvrir une porte pour l'instant. Donc, dans mon esprit, cette discussion sur les robots super intelligents n'est qu'une distraction pour nous détourner de quelque chose de beaucoup plus insidieux qui se passe avec les systèmes d'IA dans tout le pays. Vous voyez, en ce moment, il y a des gens - des médecins, des juges, des comptables - qui obtiennent des informations d'un système d'IA et qui les traitent comme s'il s'agissait d'informations d'un collègue de confiance. C'est cette confiance qui me dérange, non à cause de la fréquence à laquelle l'IA se trompe. Les chercheurs en IA sont fiers de l'exactitude des résultats. C'est à quel point elle se trompe quand elle commet une erreur qui m'inquiète. Ces systèmes n'échouent pas gracieusement. Alors, regardons à quoi cela ressemble. Ceci est un chien qui a été mal identifié comme étant un loup par un algorithme d'IA. Les chercheurs ont voulu savoir : pourquoi ce husky en particulier a-t-il été identifié à tort comme un loup ? Ils ont donc réécrit l’algorithme pour que celui-ci explicite les parties de l’image à laquelle il prêtait attention. Lorsque l’algorithme d’IA a pris sa décision. Sur cette image, à quoi pensez-vous qu'il ait prêté attention ? À quoi feriez-vous attention ? Peut-être les yeux, peut-être les oreilles, le museau... Voici à quoi il a prêté attention : principalement la neige et l'arrière-plan de l'image. Il y avait un biais dans le jeu de données alimentant cet algorithme. La plupart des images de loups étaient dans la neige, l'algorithme d'IA a donc confondu la présence ou l'absence de neige avec la présence ou à l'absence d'un loup. La chose effrayante ici est que les chercheurs n’avaient aucune idée de ce qu'il se passait, avant de réécrire l’algorithme pour qu'il explicite ses choix. Et c'est le problème avec les algorithmes d'IA, l'apprentissage profond et automatique. Même les développeurs qui travaillent sur ce genre de choses n'ont aucune idée de ce qu'ils font. Cela pourrait être un excellent exemple pour une recherche, mais qu'est-ce que cela signifie dans le monde réel ? L'algorithme de jugement criminel COMPAS est utilisé dans 13 États d'Amérique pour déterminer la récidive criminelle ou le risque de commettre un crime à nouveau après votre libération. ProPublica a constaté que si vous êtes afro-américain, COMPAS avait 77% plus de chances de vous qualifier de délinquant potentiellement violent que si vous étiez caucasien. Ceci est un système réel, utilisé dans le monde réel par de vrais juges, pour prendre des décisions sur la vie de vraies personnes. Pourquoi les juges lui feraient-ils confiance s'il semble être biaisé ? La raison pour laquelle ils utilisent COMPAS, c'est parce qu’il s’agit d’un modèle d’efficacité. COMPAS leur permet de traiter des dossiers beaucoup plus rapidement dans un système de justice surchargé. Pourquoi mettraient-ils en doute leur propre logiciel ? Il a été acheté par l'État, approuvé par leurs services informatiques. Pourquoi le remettraient-ils en cause ? Les personnes condamnées par COMPAS l'ont remis en question, et le procès devrait tous nous refroidir. La Cour suprême de l'État du Wisconsin a statué que COMPAS ne refuserait pas à un accusé une procédure régulière à condition qu'il ait été utilisé « correctement ». Dans le même temps, ils ont statué que l'accusé ne pouvait pas inspecter le code source de COMPAS. Il doit être utilisé correctement mais vous ne pouvez pas inspecter le code source ? C’est un ensemble de décisions troublantes, qui s’appliquent à quiconque encourant une condamnation pénale. Cela vous est peut-être égal parce que vous n'êtes pas poursuivi en justice, mais si je vous disais que des algorithmes opaques d'IA comme celui-ci sont utilisés pour décider si vous pouvez obtenir ou non un prêt pour votre maison, si vous pouvez obtenir un entretien d'embauche, si vous pouvez bénéficier d'une assurance maladie, et qu'ils conduisent même des voitures et des camions sur l'autoroute. Souhaiteriez-vous que le public soit en mesure d'inspecter l'algorithme qui tente de faire la distinction entre un panier et un landau dans un camion autonome, de la même manière que l'algorithme chien/loup essayait de faire la différence entre un chien et un loup ? Êtes-vous potentiellement un chien métaphorique qui a été mal identifié comme un loup par l'algorithme d'IA de quelqu'un ? Compte tenu de la complexité des personnes, c'est possible. Y a-t-il quelque chose que vous puissiez faire maintenant ? Probablement pas, et c'est ce sur quoi nous devons nous concentrer. Nous devons exiger des normes de responsabilité, de transparence et des recours concernant les systèmes d'IA. L'ISO, l'Organisation internationale de normalisation, vient de former un comité pour prendre des décisions sur ce qui doit être fait concernant les normes sur l'IA. Il leur faut environ cinq ans pour élaborer une norme. Ces systèmes sont utilisés en ce moment, pas seulement pour estimer l'octroi de prêts, mais ils sont utilisés dans des véhicules, comme je l'expliquais. Ils sont utilisés dans des domaines tels que le régulateur de vitesse adaptatif coopératif. C'est drôle qu'ils appellent cela « régulateur de vitesse » parce que le type de contrôleur utilisé dans le régulateur de vitesse, un contrôleur PID, a été utilisé pendant 30 ans dans des usines chimiques avant d’être transféré sur des voitures. Le type de contrôleur utilisé pour conduire une voiture autonome et l'apprentissage automatique, n'est utilisé en recherche que depuis 2007. Ce sont des nouvelles technologies. Nous devons exiger des normes et nous devons exiger une réglementation pour éviter de se retrouver avec n'importe quoi sur le marché. Et nous devons également avoir un peu de scepticisme. Les expériences appelées Authority, faites par Stanley Milgram après la Seconde Guerre mondiale, ont montré qu'une personne moyenne suivra les ordres d'une personne d'autorité même si cela signifie torturer son concitoyen. Dans cette expérience, des Américains lambda pensent électrocuter des acteurs, ignorant leurs gémissements, ignorant leurs cris de douleur, allant même jusqu'à l'électrocution et une mort simulée, tout cela parce que quelqu'un sans qualifications, dans une blouse de laboratoire, disait une variante de la phrase : « L'expérience doit continuer. » Dans l'IA, nous avons la figure d'autorité ultime de Milgram. Nous avons un système impartial qui ne peut pas réfléchir, qui ne peut pas prendre d'autre décision, qui n'autorise aucun recours, qui dira toujours « Le système » ou « Le processus doit continuer. » Maintenant, je vais vous raconter une histoire. Il s’agit d’un voyage en voiture que j’ai fait à travers le pays. J'allais à Salt Lake City et il commença à pleuvoir. En montant dans les montagnes, cette pluie s'est transformée en neige, et très vite, cette neige a tout recouvert. Je ne voyais même plus les feux arrière de la voiture devant moi. J'ai commencé à déraper. J'ai fait un 360 dans un sens, puis dans l'autre. J'ai fait une sortie de route. La boue recouvrait mes vitres, je ne voyais plus rien. J'étais terrifié à l'idée qu'une voiture me percute. Je vous raconte cette histoire pour vous faire réfléchir comment quelque chose d'insignifiant et d'apparence banale comme un peu de précipitation, peut facilement devenir quelque chose de très dangereux. Nous conduisons sous la pluie avec l'IA, en ce moment, et cette pluie se transformera en neige, et cette neige pourrait devenir un blizzard. Nous devons faire une pause, vérifier les conditions, mettre en place des normes de sécurité, et nous demander jusqu'où nous voulons aller, car les motivations économiques de l'IA et de l'automatisation pour remplacer le travail humain seront au-delà de tout ce que nous avons vu depuis la révolution industrielle. Les exigences de salaire humain ne peuvent pas rivaliser avec le coût de base de l'électricité. Les IA et les robots remplaceront les cuisiniers dans les fast-foods et les radiologues dans les hôpitaux. Un jour, l'IA diagnostiquera votre cancer, et un robot effectuera l'opération. Seul un scepticisme sain vis-à-vis de ces systèmes aidera à tenir les gens informés. Et je suis confiant, si nous pouvons tenir les gens informés, si nous pouvons construire des systèmes d'IA transparents comme l'exemple du chien et du loup où l'IA a expliqué aux ingénieurs ce qu'elle faisait, et ces derniers ont pu le vérifier, nous pouvons créer de nouveaux emplois pour des personnes s’associant à l'IA. Si nous travaillons ensemble avec l'IA, nous serons probablement capables de résoudre certains de nos plus grands défis. Mais pour faire cela, nous devons diriger et non suivre. Nous devons choisir de ne pas ressembler à des robots, et nous devons construire des robots qui soient plus humains, parce que finalement, la seule chose que nous devons craindre, ce ne sont pas les robots tueurs, c'est notre propre paresse intellectuelle. La seule chose que nous devons craindre, c'est nous-mêmes. Merci. (Applaudissements)