1 00:00:13,298 --> 00:00:16,408 La rivolta delle macchine! 2 00:00:17,928 --> 00:00:22,678 Chi ha paura dei robot assassini? 3 00:00:23,140 --> 00:00:25,250 (Risate) 4 00:00:25,612 --> 00:00:26,932 Io sì! 5 00:00:28,226 --> 00:00:31,576 Lavoravo con i droni, gli aeromobili a pilotaggio remoto, 6 00:00:31,816 --> 00:00:36,736 e tutto quello a cui riuscivo a pensare vedendo quelle macchine era che un giorno 7 00:00:37,133 --> 00:00:40,903 qualcuno ci attaccherà una mitragliatrice 8 00:00:40,903 --> 00:00:43,453 e si metteranno a darmi la caccia in sciami. 9 00:00:44,578 --> 00:00:47,518 Lavoro nel campo della robotica all'Università Brown 10 00:00:47,898 --> 00:00:49,909 e ho paura dei robot. 11 00:00:50,541 --> 00:00:52,921 A dire il vero, ne sono terrorizzato. 12 00:00:53,691 --> 00:00:55,531 Ma potete biasimarmi? 13 00:00:55,811 --> 00:00:59,511 Sin da quando ero bambino non ho fatto altro che vedere film 14 00:00:59,511 --> 00:01:03,021 che narrano dell'ascesa dell'Intelligenza Artificiale 15 00:01:03,021 --> 00:01:05,371 e del nostro inevitabile conflitto con essa: 16 00:01:05,811 --> 00:01:11,161 2001: Odissea nello spazio, Terminator, Matrix... 17 00:01:11,750 --> 00:01:15,530 E le storie che raccontano sono piuttosto spaventose: 18 00:01:16,090 --> 00:01:20,918 bande di umani ribelli in fuga da macchine super intelligenti. 19 00:01:21,935 --> 00:01:23,595 Questa cosa mi spaventa. 20 00:01:23,805 --> 00:01:26,545 E, dalle vostre mani, mi sembra che spaventi anche voi. 21 00:01:26,795 --> 00:01:29,865 So che spaventa Elon Musk. 22 00:01:30,825 --> 00:01:34,805 Ma abbiamo ancora un po' di tempo prima che i robot insorgano. 23 00:01:35,175 --> 00:01:38,321 I robot del mio progetto come il PR2 24 00:01:38,571 --> 00:01:40,871 non sono ancora in grado di aprire una porta. 25 00:01:42,191 --> 00:01:46,437 Quindi, secondo me, il dibattito sui robot super intelligenti 26 00:01:46,647 --> 00:01:51,667 non è che una distrazione da qualcosa di molto più insidioso 27 00:01:51,897 --> 00:01:56,027 che sta succedendo in tutta la nazione con i sistemi di IA. 28 00:01:56,917 --> 00:01:59,407 Vedete, ora come ora, ci sono persone, 29 00:02:00,007 --> 00:02:04,047 dottori, giudici, contabili, 30 00:02:04,227 --> 00:02:07,887 che ottengono informazioni da un sistema di IA 31 00:02:08,117 --> 00:02:12,457 e che trattano queste informazioni come se provenissero da un collega fidato. 32 00:02:13,931 --> 00:02:16,301 È questa fiducia che mi preoccupa. 33 00:02:17,041 --> 00:02:19,862 E non perché spesso l'IA sbagli. 34 00:02:20,182 --> 00:02:24,243 I ricercatori dell'IA sono fieri della precisione dei risultati. 35 00:02:24,869 --> 00:02:27,849 È quanto gravemente sbaglia quando commette un errore 36 00:02:27,849 --> 00:02:29,559 quello che mi preoccupa davvero. 37 00:02:29,559 --> 00:02:33,229 Questi sistemi non sbagliano di poco. 38 00:02:34,210 --> 00:02:36,470 Ma vediamo un po' come funzionano. 39 00:02:37,120 --> 00:02:42,560 Questo è un cane che è stato scambiato per un lupo da un algoritmo di IA. 40 00:02:43,233 --> 00:02:45,049 I ricercatori volevano sapere: 41 00:02:45,239 --> 00:02:49,219 perché proprio questo husky è stato scambiato per un lupo? 42 00:02:49,641 --> 00:02:52,731 Così, hanno riscritto l'algoritmo affinché indicasse loro 43 00:02:52,731 --> 00:02:55,701 quali erano le parti della foto a cui aveva prestato attenzione 44 00:02:55,701 --> 00:02:58,261 quando ha fatto la sua scelta. 45 00:02:59,039 --> 00:03:02,609 Guardando questa fotografia, a cosa pensate abbia prestato attenzione? 46 00:03:02,869 --> 00:03:04,759 Voi a cosa avreste prestato attenzione? 47 00:03:05,359 --> 00:03:10,479 Forse agli occhi, forse alle orecchie, magari al muso. 48 00:03:12,931 --> 00:03:15,861 Ecco a cosa ha prestato attenzione: 49 00:03:16,841 --> 00:03:20,031 principalmente alla neve e allo sfondo della fotografia. 50 00:03:21,003 --> 00:03:25,593 C'era un preconcetto nell'insieme di dati che è stato dato a questo algoritmo. 51 00:03:26,293 --> 00:03:29,933 Nella maggior parte delle foto, i lupi erano sulla neve, 52 00:03:30,473 --> 00:03:34,773 quindi l'algoritmo di IA ha scambiato la presenza o l'assenza della neve 53 00:03:34,773 --> 00:03:37,643 per la presenza o l'assenza di un lupo. 54 00:03:39,732 --> 00:03:41,727 La cosa preoccupante 55 00:03:41,977 --> 00:03:45,887 è che i ricercatori non avevano idea di quello che stava succedendo 56 00:03:46,267 --> 00:03:49,787 fino a quando non hanno riscritto l'algoritmo affinché lo spiegasse loro. 57 00:03:50,836 --> 00:03:53,116 È questo il problema degli algoritmi di IA, 58 00:03:53,116 --> 00:03:55,341 dell'apprendimento approfondito e automatico. 59 00:03:55,341 --> 00:03:59,126 Persino gli sviluppatori che lavorano con essi 60 00:03:59,296 --> 00:04:01,896 non hanno idea di quello che fanno. 61 00:04:03,001 --> 00:04:07,531 Questo potrebbe essere un esempio perfetto per un ricercatore, 62 00:04:07,531 --> 00:04:09,851 ma che significato ha nel mondo reale? 63 00:04:10,611 --> 00:04:15,671 L'algoritmo COMPAS Criminal Sentencing viene usato in 13 Stati americani 64 00:04:15,841 --> 00:04:17,871 per determinare la recidività criminale 65 00:04:17,871 --> 00:04:21,861 o il rischio di commettere un reato dopo il rilascio. 66 00:04:23,199 --> 00:04:26,959 ProPublica ha constato che un afroamericano 67 00:04:26,959 --> 00:04:30,713 con COMPAS ha il 77% in più di possibilità di essere qualificato 68 00:04:30,713 --> 00:04:33,723 come criminale potenzialmente violento rispetto a un caucasico. 69 00:04:34,694 --> 00:04:39,404 Questo è un sistema reale che viene usato nel mondo reale da giudici reali 70 00:04:39,404 --> 00:04:42,284 per prendere decisioni sulla vita reale delle persone. 71 00:04:43,995 --> 00:04:46,595 Perché i giudici dovrebbero fidarsi di questo algoritmo 72 00:04:46,595 --> 00:04:48,725 se si basa su un pregiudizio? 73 00:04:49,866 --> 00:04:54,866 Il motivo per cui usano COMPAS è perché è un modello di efficienza. 74 00:04:55,622 --> 00:05:00,072 COMPAS permette di velocizzare considerevolmente il carico di lavoro 75 00:05:00,072 --> 00:05:03,402 in un sistema giudiziario penale in cui ci sono molte cause arretrate. 76 00:05:04,767 --> 00:05:07,607 Perché dovrebbero mettere in dubbio il loro stesso software? 77 00:05:07,607 --> 00:05:11,067 È stato richiesto dallo Stato, approvato dal Dipartimento di Informatica. 78 00:05:11,067 --> 00:05:13,037 Perché dovrebbero metterlo in dubbio? 79 00:05:13,317 --> 00:05:16,513 Le persone condannate da COMPAS lo hanno messo in dubbio 80 00:05:16,513 --> 00:05:19,063 e le loro cause dovrebbero farci rabbrividire. 81 00:05:19,243 --> 00:05:22,233 La Corte Suprema del Wisconsin ha stabilito 82 00:05:22,233 --> 00:05:25,643 che COMPAS non negava un processo equo all'imputato 83 00:05:25,643 --> 00:05:28,433 a condizione che venisse utilizzato "adeguatamente". 84 00:05:28,923 --> 00:05:30,558 Ha inoltre stabilito 85 00:05:30,558 --> 00:05:34,338 che l'imputato non poteva esaminare il codice sorgente di COMPAS. 86 00:05:35,620 --> 00:05:37,442 Deve essere usato adeguatamente, 87 00:05:37,442 --> 00:05:39,612 ma non si può esaminare il codice sorgente? 88 00:05:40,425 --> 00:05:43,355 Prese insieme, queste decisioni sono preoccupanti 89 00:05:43,355 --> 00:05:46,105 per chiunque si trovi ad affrontare una condanna penale. 90 00:05:46,625 --> 00:05:50,545 A voi magari non interessa dato che non state affrontando una condanna penale, 91 00:05:51,056 --> 00:05:55,056 ma se vi dicessi che le black box degli algoritmi di IA come questo 92 00:05:55,056 --> 00:05:59,166 vengono usate per decidere se concedervi il prestito per la casa, 93 00:06:00,144 --> 00:06:02,334 se avete ottenuto un colloquio di lavoro, 94 00:06:03,294 --> 00:06:05,373 se avete diritto all'assistenza sanitaria 95 00:06:05,954 --> 00:06:09,804 e stanno addirittura guidando automobili e camion in autostrada? 96 00:06:10,791 --> 00:06:14,531 Vorreste che alle persone fosse permesso esaminare l'algoritmo 97 00:06:14,531 --> 00:06:18,129 che sta cercando di distinguere un carrello della spesa da un passeggino 98 00:06:18,129 --> 00:06:20,169 in un camion che si guida da solo 99 00:06:20,839 --> 00:06:23,029 nello stesso modo in cui l'algoritmo cane/lupo 100 00:06:23,029 --> 00:06:25,399 stava cercando di distinguere un cane da un lupo? 101 00:06:26,282 --> 00:06:31,232 Siete potenzialmente un cane metaforico che è stato scambiato per un lupo 102 00:06:31,462 --> 00:06:33,822 dall'algoritmo di IA di qualcuno? 103 00:06:34,778 --> 00:06:38,318 È possibile, se consideriamo la complessità delle persone. 104 00:06:38,811 --> 00:06:41,711 C'è qualcosa che potete fare a riguardo ora? 105 00:06:42,031 --> 00:06:43,977 Probabilmente no. 106 00:06:44,417 --> 00:06:47,027 Ed è proprio su questo punto che dobbiamo concentrarci. 107 00:06:47,407 --> 00:06:50,567 Dobbiamo chiedere standard di responsabilità, 108 00:06:50,567 --> 00:06:54,937 trasparenza e ricorsi nei sistemi di IA. 109 00:06:56,456 --> 00:06:59,594 L'ISO, l'Organizzazione internazionale per la normazione, 110 00:06:59,594 --> 00:07:01,058 ha creato una commissione 111 00:07:01,058 --> 00:07:04,358 che deve decidere cosa fare per quanto riguarda gli standard dell'IA. 112 00:07:04,823 --> 00:07:08,369 Impiegheranno circa cinque anni per fissare uno standard. 113 00:07:08,989 --> 00:07:12,189 Questi sistemi vengono usati adesso, 114 00:07:13,571 --> 00:07:19,361 non solo per i prestiti, ma anche, come vi dicevo prima, nei veicoli. 115 00:07:20,701 --> 00:07:24,963 Vengono usati per cose come il controllo di adattamento della velocità di crociera. 116 00:07:25,273 --> 00:07:27,563 È buffo che lo chiamino "controllo di crociera" 117 00:07:27,973 --> 00:07:32,423 perché il tipo di controllore che viene usato, il controllore PID, 118 00:07:32,623 --> 00:07:35,536 è stato usato per trent'anni negli stabilimenti chimici 119 00:07:35,706 --> 00:07:38,036 prima di venire installato su un'automobile. 120 00:07:39,139 --> 00:07:41,138 Il tipo di controllore impiegato 121 00:07:41,138 --> 00:07:44,668 per guidare un'automobile senza conducente e per l'apprendimento automatico 122 00:07:44,668 --> 00:07:48,488 viene utilizzato nelle ricerche solo dal 2007. 123 00:07:49,600 --> 00:07:51,860 Sono nuove tecnologie. 124 00:07:52,320 --> 00:07:56,200 Dobbiamo chiedere standard e dobbiamo chiedere regolamentazioni 125 00:07:56,370 --> 00:07:59,930 per evitare di trovare ciarlatanate sul mercato. 126 00:08:00,819 --> 00:08:04,339 E dobbiamo anche essere un po' scettici. 127 00:08:05,771 --> 00:08:07,761 Gli esperimenti sull'autorità 128 00:08:07,761 --> 00:08:10,881 effettuati da Stanley Milgram dopo la Seconda Guerra Mondiale 129 00:08:11,121 --> 00:08:13,436 hanno dimostrato che una persona media 130 00:08:13,436 --> 00:08:15,866 eseguirebbe gli ordini di una figura autoritaria 131 00:08:16,031 --> 00:08:19,171 anche se questo significasse fare del male ai propri concittadini. 132 00:08:20,461 --> 00:08:22,330 In questo esperimento, 133 00:08:22,850 --> 00:08:26,820 i cittadini medi americani davano la scossa a un attore 134 00:08:27,579 --> 00:08:30,769 anche dopo che questi si lamentava del male, 135 00:08:31,477 --> 00:08:34,987 anche dopo che urlava dal dolore 136 00:08:35,834 --> 00:08:40,354 e persino dopo che si zittiva fingendosi morto. 137 00:08:41,613 --> 00:08:43,609 E questo solo perché qualcuno 138 00:08:44,099 --> 00:08:47,749 senza qualifica e con un camice da laboratorio 139 00:08:47,969 --> 00:08:50,755 diceva loro una variante della frase: 140 00:08:50,755 --> 00:08:53,985 "L'esperimento deve andare avanti". 141 00:08:56,895 --> 00:09:02,268 Nell'IA, abbiamo la figura autoritaria di Milgram per eccellenza. 142 00:09:03,596 --> 00:09:08,156 Abbiamo un sistema imparziale incapace di riflettere, 143 00:09:09,320 --> 00:09:12,290 incapace di prendere altre decisioni, 144 00:09:12,920 --> 00:09:15,012 al quale non si può fare ricorso 145 00:09:15,012 --> 00:09:20,174 e che dirà sempre: "Il sistema" o "Il processo deve andare avanti". 146 00:09:23,313 --> 00:09:25,273 Ora vi racconterò una storia. 147 00:09:25,883 --> 00:09:29,423 Parla di un viaggio in macchina che ho fatto in giro per il Paese. 148 00:09:31,170 --> 00:09:34,330 Stavo entrando a Salt Lake City quando ha cominciato a piovere. 149 00:09:35,211 --> 00:09:39,560 Quando sono arrivato sulle montagne, la pioggia era diventata neve 150 00:09:40,300 --> 00:09:42,700 e in poco tempo la neve era diventata una tormenta. 151 00:09:42,700 --> 00:09:45,910 Non riuscivo a vedere i fari posteriori dell'auto che avevo davanti. 152 00:09:46,153 --> 00:09:47,743 Ho iniziato a sbandare. 153 00:09:48,023 --> 00:09:51,033 L'auto è slittata di 360 gradi da una parte, poi dall'altra. 154 00:09:51,033 --> 00:09:52,513 Sono uscito dall'autostrada. 155 00:09:52,513 --> 00:09:54,683 C'era fango sui finestrini, non vedevo niente. 156 00:09:54,683 --> 00:09:58,243 Avevo paura che una macchina mi piombasse addosso. 157 00:09:59,924 --> 00:10:03,574 Vi sto raccontando questa storia per farvi riflettere 158 00:10:03,864 --> 00:10:07,324 su quanto una cosa piccola e apparentemente banale 159 00:10:07,324 --> 00:10:09,404 come un po' di pioggia 160 00:10:09,964 --> 00:10:14,324 possa facilmente trasformarsi in qualcosa di molto pericoloso. 161 00:10:15,409 --> 00:10:19,209 Ora stiamo guidando sotto la pioggia con l'IA 162 00:10:20,362 --> 00:10:23,072 e quella pioggia si trasformerà in neve 163 00:10:23,787 --> 00:10:27,037 e quella neve potrebbe diventare una tormenta. 164 00:10:28,097 --> 00:10:30,047 Dobbiamo fermarci un attimo, 165 00:10:30,537 --> 00:10:32,417 verificare le condizioni, 166 00:10:33,002 --> 00:10:35,152 stabilire degli standard di sicurezza 167 00:10:35,642 --> 00:10:40,972 e dobbiamo chiederci quanto in là vogliamo spingerci 168 00:10:42,267 --> 00:10:45,387 perché gli incentivi finanziari per l'IA 169 00:10:45,387 --> 00:10:48,353 e per l'automazione che sostituirà il lavoro umano 170 00:10:48,353 --> 00:10:50,663 andranno al di là di qualsiasi cosa abbiamo visto 171 00:10:50,663 --> 00:10:52,873 dai tempi della Rivoluzione Industriale. 172 00:10:54,043 --> 00:10:58,040 Le richieste salariali degli umani non possono competere 173 00:10:58,040 --> 00:11:00,830 con il costo base dell'elettricità. 174 00:11:02,390 --> 00:11:07,585 L'IA e i robot rimpiazzeranno i cuochi nei fast food 175 00:11:07,915 --> 00:11:10,325 e i radiologi negli ospedali. 176 00:11:11,135 --> 00:11:14,100 Un giorno, sarà l'IA a diagnosticarvi il cancro 177 00:11:14,310 --> 00:11:16,730 e sarà un robot a eseguire l'intervento. 178 00:11:17,960 --> 00:11:22,160 Solo un salutare scetticismo verso questi sistemi 179 00:11:22,420 --> 00:11:25,561 aiuterà a tenere le persone informate. 180 00:11:26,201 --> 00:11:31,043 E confido nel fatto che se riusciremo a tenere le persone informate, 181 00:11:31,473 --> 00:11:34,483 se riusciremo a costruire sistemi di IA trasparenti 182 00:11:34,483 --> 00:11:36,393 come quello dell'esempio cane/lupo 183 00:11:36,393 --> 00:11:39,428 dove l'IA ha spiegato alle persone quello che stava facendo 184 00:11:39,658 --> 00:11:42,228 e le persone hanno avuto la possibilità di esaminarlo, 185 00:11:42,678 --> 00:11:46,898 possiamo creare nuovi lavori per le persone che collaborano con l'IA. 186 00:11:48,573 --> 00:11:50,743 Se collaboriamo con l'IA, 187 00:11:51,043 --> 00:11:55,063 riusciremo probabilmente a risolvere alcuni dei nostri problemi più grandi. 188 00:11:56,764 --> 00:12:00,994 Ma per farlo dobbiamo essere i leader, non i seguaci. 189 00:12:01,801 --> 00:12:05,101 Dobbiamo scegliere di essere meno simili ai robot 190 00:12:05,381 --> 00:12:09,621 e dobbiamo costruire robot più simili alle persone 191 00:12:11,020 --> 00:12:12,800 perché, in fin dei conti, 192 00:12:13,350 --> 00:12:17,650 l'unica cosa che dobbiamo temere non sono i robot assassini, 193 00:12:18,700 --> 00:12:21,181 ma la nostra pigrizia intellettuale. 194 00:12:22,165 --> 00:12:26,355 L'unica cosa che dobbiamo temere siamo noi stessi. 195 00:12:26,989 --> 00:12:28,131 Grazie. 196 00:12:28,131 --> 00:12:29,831 (Applausi)