0:00:13.298,0:00:16.408 La rivolta delle macchine! 0:00:17.928,0:00:22.678 Chi ha paura dei robot assassini? 0:00:23.140,0:00:25.250 (Risate) 0:00:25.612,0:00:26.932 Io sì! 0:00:28.226,0:00:31.576 Lavoravo con i droni,[br]gli aeromobili a pilotaggio remoto, 0:00:31.816,0:00:36.736 e tutto quello a cui riuscivo a pensare[br]vedendo quelle macchine era che un giorno 0:00:37.133,0:00:40.903 qualcuno ci attaccherà una mitragliatrice 0:00:40.903,0:00:43.453 e si metteranno a darmi[br]la caccia in sciami. 0:00:44.578,0:00:47.518 Lavoro nel campo della robotica[br]all'Università Brown 0:00:47.898,0:00:49.909 e ho paura dei robot. 0:00:50.541,0:00:52.921 A dire il vero, ne sono terrorizzato. 0:00:53.691,0:00:55.531 Ma potete biasimarmi? 0:00:55.811,0:00:59.511 Sin da quando ero bambino[br]non ho fatto altro che vedere film 0:00:59.511,0:01:03.021 che narrano dell'ascesa[br]dell'Intelligenza Artificiale 0:01:03.021,0:01:05.371 e del nostro inevitabile conflitto[br]con essa: 0:01:05.811,0:01:11.161 2001: Odissea nello spazio,[br]Terminator, Matrix... 0:01:11.750,0:01:15.530 E le storie che raccontano[br]sono piuttosto spaventose: 0:01:16.090,0:01:20.918 bande di umani ribelli in fuga[br]da macchine super intelligenti. 0:01:21.935,0:01:23.595 Questa cosa mi spaventa. 0:01:23.805,0:01:26.545 E, dalle vostre mani,[br]mi sembra che spaventi anche voi. 0:01:26.795,0:01:29.865 So che spaventa Elon Musk. 0:01:30.825,0:01:34.805 Ma abbiamo ancora un po' di tempo[br]prima che i robot insorgano. 0:01:35.175,0:01:38.321 I robot del mio progetto come il PR2 0:01:38.571,0:01:40.871 non sono ancora in grado[br]di aprire una porta. 0:01:42.191,0:01:46.437 Quindi, secondo me, il dibattito[br]sui robot super intelligenti 0:01:46.647,0:01:51.667 non è che una distrazione[br]da qualcosa di molto più insidioso 0:01:51.897,0:01:56.027 che sta succedendo in tutta[br]la nazione con i sistemi di IA. 0:01:56.917,0:01:59.407 Vedete, ora come ora, ci sono persone, 0:02:00.007,0:02:04.047 dottori, giudici, contabili, 0:02:04.227,0:02:07.887 che ottengono informazioni[br]da un sistema di IA 0:02:08.117,0:02:12.457 e che trattano queste informazioni[br]come se provenissero da un collega fidato. 0:02:13.931,0:02:16.301 È questa fiducia che mi preoccupa. 0:02:17.041,0:02:19.862 E non perché spesso l'IA sbagli. 0:02:20.182,0:02:24.243 I ricercatori dell'IA sono fieri[br]della precisione dei risultati. 0:02:24.869,0:02:27.849 È quanto gravemente sbaglia[br]quando commette un errore 0:02:27.849,0:02:29.559 quello che mi preoccupa davvero. 0:02:29.559,0:02:33.229 Questi sistemi non sbagliano di poco. 0:02:34.210,0:02:36.470 Ma vediamo un po' come funzionano. 0:02:37.120,0:02:42.560 Questo è un cane che è stato scambiato[br]per un lupo da un algoritmo di IA. 0:02:43.233,0:02:45.049 I ricercatori volevano sapere: 0:02:45.239,0:02:49.219 perché proprio questo husky[br]è stato scambiato per un lupo? 0:02:49.641,0:02:52.731 Così, hanno riscritto l'algoritmo[br]affinché indicasse loro 0:02:52.731,0:02:55.701 quali erano le parti della foto[br]a cui aveva prestato attenzione 0:02:55.701,0:02:58.261 quando ha fatto la sua scelta. 0:02:59.039,0:03:02.609 Guardando questa fotografia, [br]a cosa pensate abbia prestato attenzione? 0:03:02.869,0:03:04.759 Voi a cosa avreste prestato attenzione? 0:03:05.359,0:03:10.479 Forse agli occhi,[br]forse alle orecchie, magari al muso. 0:03:12.931,0:03:15.861 Ecco a cosa ha prestato attenzione: 0:03:16.841,0:03:20.031 principalmente alla neve[br]e allo sfondo della fotografia. 0:03:21.003,0:03:25.593 C'era un preconcetto nell'insieme di dati[br]che è stato dato a questo algoritmo. 0:03:26.293,0:03:29.933 Nella maggior parte delle foto,[br]i lupi erano sulla neve, 0:03:30.473,0:03:34.773 quindi l'algoritmo di IA ha scambiato[br]la presenza o l'assenza della neve 0:03:34.773,0:03:37.643 per la presenza o l'assenza di un lupo. 0:03:39.732,0:03:41.727 La cosa preoccupante 0:03:41.977,0:03:45.887 è che i ricercatori non avevano idea[br]di quello che stava succedendo 0:03:46.267,0:03:49.787 fino a quando non hanno riscritto[br]l'algoritmo affinché lo spiegasse loro. 0:03:50.836,0:03:53.116 È questo il problema[br]degli algoritmi di IA, 0:03:53.116,0:03:55.341 dell'apprendimento[br]approfondito e automatico. 0:03:55.341,0:03:59.126 Persino gli sviluppatori[br]che lavorano con essi 0:03:59.296,0:04:01.896 non hanno idea di quello che fanno. 0:04:03.001,0:04:07.531 Questo potrebbe essere[br]un esempio perfetto per un ricercatore, 0:04:07.531,0:04:09.851 ma che significato ha nel mondo reale? 0:04:10.611,0:04:15.671 L'algoritmo COMPAS Criminal Sentencing[br]viene usato in 13 Stati americani 0:04:15.841,0:04:17.871 per determinare la recidività criminale 0:04:17.871,0:04:21.861 o il rischio di commettere[br]un reato dopo il rilascio. 0:04:23.199,0:04:26.959 ProPublica ha constato[br]che un afroamericano 0:04:26.959,0:04:30.713 con COMPAS ha il 77% in più[br]di possibilità di essere qualificato 0:04:30.713,0:04:33.723 come criminale potenzialmente violento[br]rispetto a un caucasico. 0:04:34.694,0:04:39.404 Questo è un sistema reale che viene usato[br]nel mondo reale da giudici reali 0:04:39.404,0:04:42.284 per prendere decisioni[br]sulla vita reale delle persone. 0:04:43.995,0:04:46.595 Perché i giudici dovrebbero fidarsi[br]di questo algoritmo 0:04:46.595,0:04:48.725 se si basa su un pregiudizio? 0:04:49.866,0:04:54.866 Il motivo per cui usano COMPAS[br]è perché è un modello di efficienza. 0:04:55.622,0:05:00.072 COMPAS permette di velocizzare[br]considerevolmente il carico di lavoro 0:05:00.072,0:05:03.402 in un sistema giudiziario penale[br]in cui ci sono molte cause arretrate. 0:05:04.767,0:05:07.607 Perché dovrebbero mettere[br]in dubbio il loro stesso software? 0:05:07.607,0:05:11.067 È stato richiesto dallo Stato,[br]approvato dal Dipartimento di Informatica. 0:05:11.067,0:05:13.037 Perché dovrebbero metterlo in dubbio? 0:05:13.317,0:05:16.513 Le persone condannate da COMPAS[br]lo hanno messo in dubbio 0:05:16.513,0:05:19.063 e le loro cause[br]dovrebbero farci rabbrividire. 0:05:19.243,0:05:22.233 La Corte Suprema[br]del Wisconsin ha stabilito 0:05:22.233,0:05:25.643 che COMPAS non negava[br]un processo equo all'imputato 0:05:25.643,0:05:28.433 a condizione che venisse utilizzato[br]"adeguatamente". 0:05:28.923,0:05:30.558 Ha inoltre stabilito 0:05:30.558,0:05:34.338 che l'imputato non poteva esaminare[br]il codice sorgente di COMPAS. 0:05:35.620,0:05:37.442 Deve essere usato adeguatamente, 0:05:37.442,0:05:39.612 ma non si può esaminare[br]il codice sorgente? 0:05:40.425,0:05:43.355 Prese insieme,[br]queste decisioni sono preoccupanti 0:05:43.355,0:05:46.105 per chiunque si trovi ad affrontare[br]una condanna penale. 0:05:46.625,0:05:50.545 A voi magari non interessa dato che[br]non state affrontando una condanna penale, 0:05:51.056,0:05:55.056 ma se vi dicessi che le black box[br]degli algoritmi di IA come questo 0:05:55.056,0:05:59.166 vengono usate per decidere[br]se concedervi il prestito per la casa, 0:06:00.144,0:06:02.334 se avete ottenuto un colloquio di lavoro, 0:06:03.294,0:06:05.373 se avete diritto all'assistenza sanitaria 0:06:05.954,0:06:09.804 e stanno addirittura guidando[br]automobili e camion in autostrada? 0:06:10.791,0:06:14.531 Vorreste che alle persone[br]fosse permesso esaminare l'algoritmo 0:06:14.531,0:06:18.129 che sta cercando di distinguere[br]un carrello della spesa da un passeggino 0:06:18.129,0:06:20.169 in un camion che si guida da solo 0:06:20.839,0:06:23.029 nello stesso modo in cui[br]l'algoritmo cane/lupo 0:06:23.029,0:06:25.399 stava cercando di distinguere[br]un cane da un lupo? 0:06:26.282,0:06:31.232 Siete potenzialmente un cane metaforico[br]che è stato scambiato per un lupo 0:06:31.462,0:06:33.822 dall'algoritmo di IA di qualcuno? 0:06:34.778,0:06:38.318 È possibile, se consideriamo[br]la complessità delle persone. 0:06:38.811,0:06:41.711 C'è qualcosa che potete fare[br]a riguardo ora? 0:06:42.031,0:06:43.977 Probabilmente no. 0:06:44.417,0:06:47.027 Ed è proprio su questo punto[br]che dobbiamo concentrarci. 0:06:47.407,0:06:50.567 Dobbiamo chiedere[br]standard di responsabilità, 0:06:50.567,0:06:54.937 trasparenza e ricorsi nei sistemi di IA. 0:06:56.456,0:06:59.594 L'ISO, l'Organizzazione[br]internazionale per la normazione, 0:06:59.594,0:07:01.058 ha creato una commissione 0:07:01.058,0:07:04.358 che deve decidere cosa fare[br]per quanto riguarda gli standard dell'IA. 0:07:04.823,0:07:08.369 Impiegheranno circa cinque anni[br]per fissare uno standard. 0:07:08.989,0:07:12.189 Questi sistemi vengono usati adesso, 0:07:13.571,0:07:19.361 non solo per i prestiti, ma anche,[br]come vi dicevo prima, nei veicoli. 0:07:20.701,0:07:24.963 Vengono usati per cose come il controllo[br]di adattamento della velocità di crociera. 0:07:25.273,0:07:27.563 È buffo che lo chiamino[br]"controllo di crociera" 0:07:27.973,0:07:32.423 perché il tipo di controllore[br]che viene usato, il controllore PID, 0:07:32.623,0:07:35.536 è stato usato per trent'anni[br]negli stabilimenti chimici 0:07:35.706,0:07:38.036 prima di venire installato[br]su un'automobile. 0:07:39.139,0:07:41.138 Il tipo di controllore impiegato 0:07:41.138,0:07:44.668 per guidare un'automobile senza conducente[br]e per l'apprendimento automatico 0:07:44.668,0:07:48.488 viene utilizzato nelle ricerche[br]solo dal 2007. 0:07:49.600,0:07:51.860 Sono nuove tecnologie. 0:07:52.320,0:07:56.200 Dobbiamo chiedere standard[br]e dobbiamo chiedere regolamentazioni 0:07:56.370,0:07:59.930 per evitare di trovare[br]ciarlatanate sul mercato. 0:08:00.819,0:08:04.339 E dobbiamo anche essere un po' scettici. 0:08:05.771,0:08:07.761 Gli esperimenti sull'autorità 0:08:07.761,0:08:10.881 effettuati da Stanley Milgram[br]dopo la Seconda Guerra Mondiale 0:08:11.121,0:08:13.436 hanno dimostrato che una persona media 0:08:13.436,0:08:15.866 eseguirebbe gli ordini[br]di una figura autoritaria 0:08:16.031,0:08:19.171 anche se questo significasse[br]fare del male ai propri concittadini. 0:08:20.461,0:08:22.330 In questo esperimento, 0:08:22.850,0:08:26.820 i cittadini medi americani[br]davano la scossa a un attore 0:08:27.579,0:08:30.769 anche dopo che questi[br]si lamentava del male, 0:08:31.477,0:08:34.987 anche dopo che urlava dal dolore 0:08:35.834,0:08:40.354 e persino dopo che si zittiva[br]fingendosi morto. 0:08:41.613,0:08:43.609 E questo solo perché qualcuno 0:08:44.099,0:08:47.749 senza qualifica[br]e con un camice da laboratorio 0:08:47.969,0:08:50.755 diceva loro una variante della frase: 0:08:50.755,0:08:53.985 "L'esperimento deve andare avanti". 0:08:56.895,0:09:02.268 Nell'IA, abbiamo la figura autoritaria[br]di Milgram per eccellenza. 0:09:03.596,0:09:08.156 Abbiamo un sistema imparziale[br]incapace di riflettere, 0:09:09.320,0:09:12.290 incapace di prendere altre decisioni, 0:09:12.920,0:09:15.012 al quale non si può fare ricorso 0:09:15.012,0:09:20.174 e che dirà sempre: "Il sistema"[br]o "Il processo deve andare avanti". 0:09:23.313,0:09:25.273 Ora vi racconterò una storia. 0:09:25.883,0:09:29.423 Parla di un viaggio in macchina[br]che ho fatto in giro per il Paese. 0:09:31.170,0:09:34.330 Stavo entrando a Salt Lake City[br]quando ha cominciato a piovere. 0:09:35.211,0:09:39.560 Quando sono arrivato sulle montagne,[br]la pioggia era diventata neve 0:09:40.300,0:09:42.700 e in poco tempo la neve[br]era diventata una tormenta. 0:09:42.700,0:09:45.910 Non riuscivo a vedere i fari posteriori[br]dell'auto che avevo davanti. 0:09:46.153,0:09:47.743 Ho iniziato a sbandare. 0:09:48.023,0:09:51.033 L'auto è slittata di 360 gradi[br]da una parte, poi dall'altra. 0:09:51.033,0:09:52.513 Sono uscito dall'autostrada. 0:09:52.513,0:09:54.683 C'era fango sui finestrini,[br]non vedevo niente. 0:09:54.683,0:09:58.243 Avevo paura che una macchina[br]mi piombasse addosso. 0:09:59.924,0:10:03.574 Vi sto raccontando questa storia[br]per farvi riflettere 0:10:03.864,0:10:07.324 su quanto una cosa piccola[br]e apparentemente banale 0:10:07.324,0:10:09.404 come un po' di pioggia 0:10:09.964,0:10:14.324 possa facilmente trasformarsi[br]in qualcosa di molto pericoloso. 0:10:15.409,0:10:19.209 Ora stiamo guidando[br]sotto la pioggia con l'IA 0:10:20.362,0:10:23.072 e quella pioggia si trasformerà in neve 0:10:23.787,0:10:27.037 e quella neve potrebbe diventare[br]una tormenta. 0:10:28.097,0:10:30.047 Dobbiamo fermarci un attimo, 0:10:30.537,0:10:32.417 verificare le condizioni, 0:10:33.002,0:10:35.152 stabilire degli standard di sicurezza 0:10:35.642,0:10:40.972 e dobbiamo chiederci[br]quanto in là vogliamo spingerci 0:10:42.267,0:10:45.387 perché gli incentivi finanziari per l'IA 0:10:45.387,0:10:48.353 e per l'automazione[br]che sostituirà il lavoro umano 0:10:48.353,0:10:50.663 andranno al di là[br]di qualsiasi cosa abbiamo visto 0:10:50.663,0:10:52.873 dai tempi della Rivoluzione Industriale. 0:10:54.043,0:10:58.040 Le richieste salariali degli umani[br]non possono competere 0:10:58.040,0:11:00.830 con il costo base dell'elettricità. 0:11:02.390,0:11:07.585 L'IA e i robot rimpiazzeranno[br]i cuochi nei fast food 0:11:07.915,0:11:10.325 e i radiologi negli ospedali. 0:11:11.135,0:11:14.100 Un giorno, sarà l'IA[br]a diagnosticarvi il cancro 0:11:14.310,0:11:16.730 e sarà un robot a eseguire l'intervento. 0:11:17.960,0:11:22.160 Solo un salutare scetticismo[br]verso questi sistemi 0:11:22.420,0:11:25.561 aiuterà a tenere le persone informate. 0:11:26.201,0:11:31.043 E confido nel fatto che se riusciremo[br]a tenere le persone informate, 0:11:31.473,0:11:34.483 se riusciremo a costruire[br]sistemi di IA trasparenti 0:11:34.483,0:11:36.393 come quello dell'esempio cane/lupo 0:11:36.393,0:11:39.428 dove l'IA ha spiegato alle persone[br]quello che stava facendo 0:11:39.658,0:11:42.228 e le persone hanno avuto[br]la possibilità di esaminarlo, 0:11:42.678,0:11:46.898 possiamo creare nuovi lavori[br]per le persone che collaborano con l'IA. 0:11:48.573,0:11:50.743 Se collaboriamo con l'IA, 0:11:51.043,0:11:55.063 riusciremo probabilmente a risolvere[br]alcuni dei nostri problemi più grandi. 0:11:56.764,0:12:00.994 Ma per farlo dobbiamo essere[br]i leader, non i seguaci. 0:12:01.801,0:12:05.101 Dobbiamo scegliere di essere[br]meno simili ai robot 0:12:05.381,0:12:09.621 e dobbiamo costruire robot[br]più simili alle persone 0:12:11.020,0:12:12.800 perché, in fin dei conti, 0:12:13.350,0:12:17.650 l'unica cosa che dobbiamo temere[br]non sono i robot assassini, 0:12:18.700,0:12:21.181 ma la nostra pigrizia intellettuale. 0:12:22.165,0:12:26.355 L'unica cosa che dobbiamo temere[br]siamo noi stessi. 0:12:26.989,0:12:28.131 Grazie. 0:12:28.131,0:12:29.831 (Applausi)