WEBVTT 00:00:13.298 --> 00:00:16.408 La rivolta delle macchine! 00:00:17.928 --> 00:00:22.678 Chi ha paura dei robot assassini? 00:00:23.140 --> 00:00:25.250 (Risate) 00:00:25.612 --> 00:00:26.932 Io sì! 00:00:28.226 --> 00:00:31.576 Lavoravo con i droni, gli aeromobili a pilotaggio remoto, 00:00:31.816 --> 00:00:36.736 e tutto quello a cui riuscivo a pensare vedendo quelle macchine era che un giorno 00:00:37.133 --> 00:00:40.903 qualcuno ci attaccherà una mitragliatrice 00:00:40.903 --> 00:00:43.453 e si metteranno a darmi la caccia in sciami. 00:00:44.578 --> 00:00:47.518 Lavoro nel campo della robotica all'Università Brown 00:00:47.898 --> 00:00:49.909 e ho paura dei robot. 00:00:50.541 --> 00:00:52.921 A dire il vero, ne sono terrorizzato. 00:00:53.691 --> 00:00:55.531 Ma potete biasimarmi? 00:00:55.811 --> 00:00:59.511 Sin da quando ero bambino non ho fatto altro che vedere film 00:00:59.511 --> 00:01:03.021 che narrano dell'ascesa dell'Intelligenza Artificiale 00:01:03.021 --> 00:01:05.371 e del nostro inevitabile conflitto con essa: 00:01:05.811 --> 00:01:11.161 2001: Odissea nello spazio, Terminator, Matrix... 00:01:11.750 --> 00:01:15.530 E le storie che raccontano sono piuttosto spaventose: 00:01:16.090 --> 00:01:20.918 bande di umani ribelli in fuga da macchine super intelligenti. 00:01:21.935 --> 00:01:23.595 Questa cosa mi spaventa. 00:01:23.805 --> 00:01:26.545 E, dalle vostre mani, mi sembra che spaventi anche voi. 00:01:26.795 --> 00:01:29.865 So che spaventa Elon Musk. 00:01:30.825 --> 00:01:34.805 Ma abbiamo ancora un po' di tempo prima che i robot insorgano. 00:01:35.175 --> 00:01:38.321 I robot del mio progetto come il PR2 00:01:38.571 --> 00:01:40.871 non sono ancora in grado di aprire una porta. 00:01:42.191 --> 00:01:46.437 Quindi, secondo me, il dibattito sui robot super intelligenti 00:01:46.647 --> 00:01:51.667 non è che una distrazione da qualcosa di molto più insidioso 00:01:51.897 --> 00:01:56.027 che sta succedendo in tutta la nazione con i sistemi di IA. 00:01:56.917 --> 00:01:59.407 Vedete, ora come ora, ci sono persone, 00:02:00.007 --> 00:02:04.047 dottori, giudici, contabili, 00:02:04.227 --> 00:02:07.887 che ottengono informazioni da un sistema di IA 00:02:08.117 --> 00:02:12.457 e che trattano queste informazioni come se provenissero da un collega fidato. 00:02:13.931 --> 00:02:16.301 È questa fiducia che mi preoccupa. 00:02:17.041 --> 00:02:19.862 E non perché spesso l'IA sbagli. 00:02:20.182 --> 00:02:24.243 I ricercatori dell'IA sono fieri della precisione dei risultati. 00:02:24.869 --> 00:02:27.849 È quanto gravemente sbaglia quando commette un errore 00:02:27.849 --> 00:02:29.559 quello che mi preoccupa davvero. 00:02:29.559 --> 00:02:33.229 Questi sistemi non sbagliano di poco. 00:02:34.210 --> 00:02:36.470 Ma vediamo un po' come funzionano. 00:02:37.120 --> 00:02:42.560 Questo è un cane che è stato scambiato per un lupo da un algoritmo di IA. 00:02:43.233 --> 00:02:45.049 I ricercatori volevano sapere: 00:02:45.239 --> 00:02:49.219 perché proprio questo husky è stato scambiato per un lupo? 00:02:49.641 --> 00:02:52.731 Così, hanno riscritto l'algoritmo affinché indicasse loro 00:02:52.731 --> 00:02:55.701 quali erano le parti della foto a cui aveva prestato attenzione 00:02:55.701 --> 00:02:58.261 quando ha fatto la sua scelta. 00:02:59.039 --> 00:03:02.609 Guardando questa fotografia, a cosa pensate abbia prestato attenzione? 00:03:02.869 --> 00:03:04.759 Voi a cosa avreste prestato attenzione? 00:03:05.359 --> 00:03:10.479 Forse agli occhi, forse alle orecchie, magari al muso. 00:03:12.931 --> 00:03:15.861 Ecco a cosa ha prestato attenzione: 00:03:16.841 --> 00:03:20.031 principalmente alla neve e allo sfondo della fotografia. 00:03:21.003 --> 00:03:25.593 C'era un preconcetto nell'insieme di dati che è stato dato a questo algoritmo. 00:03:26.293 --> 00:03:29.933 Nella maggior parte delle foto, i lupi erano sulla neve, 00:03:30.473 --> 00:03:34.773 quindi l'algoritmo di IA ha scambiato la presenza o l'assenza della neve 00:03:34.773 --> 00:03:37.643 per la presenza o l'assenza di un lupo. 00:03:39.732 --> 00:03:41.727 La cosa preoccupante 00:03:41.977 --> 00:03:45.887 è che i ricercatori non avevano idea di quello che stava succedendo 00:03:46.267 --> 00:03:49.787 fino a quando non hanno riscritto l'algoritmo affinché lo spiegasse loro. 00:03:50.836 --> 00:03:53.116 È questo il problema degli algoritmi di IA, 00:03:53.116 --> 00:03:55.341 dell'apprendimento approfondito e automatico. 00:03:55.341 --> 00:03:59.126 Persino gli sviluppatori che lavorano con essi 00:03:59.296 --> 00:04:01.896 non hanno idea di quello che fanno. 00:04:03.001 --> 00:04:07.531 Questo potrebbe essere un esempio perfetto per un ricercatore, 00:04:07.531 --> 00:04:09.851 ma che significato ha nel mondo reale? 00:04:10.611 --> 00:04:15.671 L'algoritmo COMPAS Criminal Sentencing viene usato in 13 Stati americani 00:04:15.841 --> 00:04:17.871 per determinare la recidività criminale 00:04:17.871 --> 00:04:21.861 o il rischio di commettere un reato dopo il rilascio. 00:04:23.199 --> 00:04:26.959 ProPublica ha constato che un afroamericano 00:04:26.959 --> 00:04:30.713 con COMPAS ha il 77% in più di possibilità di essere qualificato 00:04:30.713 --> 00:04:33.723 come criminale potenzialmente violento rispetto a un caucasico. 00:04:34.694 --> 00:04:39.404 Questo è un sistema reale che viene usato nel mondo reale da giudici reali 00:04:39.404 --> 00:04:42.284 per prendere decisioni sulla vita reale delle persone. 00:04:43.995 --> 00:04:46.595 Perché i giudici dovrebbero fidarsi di questo algoritmo 00:04:46.595 --> 00:04:48.725 se si basa su un pregiudizio? 00:04:49.866 --> 00:04:54.866 Il motivo per cui usano COMPAS è perché è un modello di efficienza. 00:04:55.622 --> 00:05:00.072 COMPAS permette di velocizzare considerevolmente il carico di lavoro 00:05:00.072 --> 00:05:03.402 in un sistema giudiziario penale in cui ci sono molte cause arretrate. 00:05:04.767 --> 00:05:07.607 Perché dovrebbero mettere in dubbio il loro stesso software? 00:05:07.607 --> 00:05:11.067 È stato richiesto dallo Stato, approvato dal Dipartimento di Informatica. 00:05:11.067 --> 00:05:13.037 Perché dovrebbero metterlo in dubbio? 00:05:13.317 --> 00:05:16.513 Le persone condannate da COMPAS lo hanno messo in dubbio 00:05:16.513 --> 00:05:19.063 e le loro cause dovrebbero farci rabbrividire. 00:05:19.243 --> 00:05:22.233 La Corte Suprema del Wisconsin ha stabilito 00:05:22.233 --> 00:05:25.643 che COMPAS non negava un processo equo all'imputato 00:05:25.643 --> 00:05:28.433 a condizione che venisse utilizzato "adeguatamente". 00:05:28.923 --> 00:05:30.558 Ha inoltre stabilito 00:05:30.558 --> 00:05:34.338 che l'imputato non poteva esaminare il codice sorgente di COMPAS. 00:05:35.620 --> 00:05:37.442 Deve essere usato adeguatamente, 00:05:37.442 --> 00:05:39.612 ma non si può esaminare il codice sorgente? 00:05:40.425 --> 00:05:43.355 Prese insieme, queste decisioni sono preoccupanti 00:05:43.355 --> 00:05:46.105 per chiunque si trovi ad affrontare una condanna penale. 00:05:46.625 --> 00:05:50.545 A voi magari non interessa dato che non state affrontando una condanna penale, 00:05:51.056 --> 00:05:55.056 ma se vi dicessi che le black box degli algoritmi di IA come questo 00:05:55.056 --> 00:05:59.166 vengono usate per decidere se concedervi il prestito per la casa, 00:06:00.144 --> 00:06:02.334 se avete ottenuto un colloquio di lavoro, 00:06:03.294 --> 00:06:05.373 se avete diritto all'assistenza sanitaria 00:06:05.954 --> 00:06:09.804 e stanno addirittura guidando automobili e camion in autostrada? 00:06:10.791 --> 00:06:14.531 Vorreste che alle persone fosse permesso esaminare l'algoritmo 00:06:14.531 --> 00:06:18.129 che sta cercando di distinguere un carrello della spesa da un passeggino 00:06:18.129 --> 00:06:20.169 in un camion che si guida da solo 00:06:20.839 --> 00:06:23.029 nello stesso modo in cui l'algoritmo cane/lupo 00:06:23.029 --> 00:06:25.399 stava cercando di distinguere un cane da un lupo? 00:06:26.282 --> 00:06:31.232 Siete potenzialmente un cane metaforico che è stato scambiato per un lupo 00:06:31.462 --> 00:06:33.822 dall'algoritmo di IA di qualcuno? 00:06:34.778 --> 00:06:38.318 È possibile, se consideriamo la complessità delle persone. 00:06:38.811 --> 00:06:41.711 C'è qualcosa che potete fare a riguardo ora? 00:06:42.031 --> 00:06:43.977 Probabilmente no. 00:06:44.417 --> 00:06:47.027 Ed è proprio su questo punto che dobbiamo concentrarci. 00:06:47.407 --> 00:06:50.567 Dobbiamo chiedere standard di responsabilità, 00:06:50.567 --> 00:06:54.937 trasparenza e ricorsi nei sistemi di IA. 00:06:56.456 --> 00:06:59.594 L'ISO, l'Organizzazione internazionale per la normazione, 00:06:59.594 --> 00:07:01.058 ha creato una commissione 00:07:01.058 --> 00:07:04.358 che deve decidere cosa fare per quanto riguarda gli standard dell'IA. 00:07:04.823 --> 00:07:08.369 Impiegheranno circa cinque anni per fissare uno standard. 00:07:08.989 --> 00:07:12.189 Questi sistemi vengono usati adesso, 00:07:13.571 --> 00:07:19.361 non solo per i prestiti, ma anche, come vi dicevo prima, nei veicoli. 00:07:20.701 --> 00:07:24.963 Vengono usati per cose come il controllo di adattamento della velocità di crociera. 00:07:25.273 --> 00:07:27.563 È buffo che lo chiamino "controllo di crociera" 00:07:27.973 --> 00:07:32.423 perché il tipo di controllore che viene usato, il controllore PID, 00:07:32.623 --> 00:07:35.536 è stato usato per trent'anni negli stabilimenti chimici 00:07:35.706 --> 00:07:38.036 prima di venire installato su un'automobile. 00:07:39.139 --> 00:07:41.138 Il tipo di controllore impiegato 00:07:41.138 --> 00:07:44.668 per guidare un'automobile senza conducente e per l'apprendimento automatico 00:07:44.668 --> 00:07:48.488 viene utilizzato nelle ricerche solo dal 2007. 00:07:49.600 --> 00:07:51.860 Sono nuove tecnologie. 00:07:52.320 --> 00:07:56.200 Dobbiamo chiedere standard e dobbiamo chiedere regolamentazioni 00:07:56.370 --> 00:07:59.930 per evitare di trovare ciarlatanate sul mercato. 00:08:00.819 --> 00:08:04.339 E dobbiamo anche essere un po' scettici. 00:08:05.771 --> 00:08:07.761 Gli esperimenti sull'autorità 00:08:07.761 --> 00:08:10.881 effettuati da Stanley Milgram dopo la Seconda Guerra Mondiale 00:08:11.121 --> 00:08:13.436 hanno dimostrato che una persona media 00:08:13.436 --> 00:08:15.866 eseguirebbe gli ordini di una figura autoritaria 00:08:16.031 --> 00:08:19.171 anche se questo significasse fare del male ai propri concittadini. 00:08:20.461 --> 00:08:22.330 In questo esperimento, 00:08:22.850 --> 00:08:26.820 i cittadini medi americani davano la scossa a un attore 00:08:27.579 --> 00:08:30.769 anche dopo che questi si lamentava del male, 00:08:31.477 --> 00:08:34.987 anche dopo che urlava dal dolore 00:08:35.834 --> 00:08:40.354 e persino dopo che si zittiva fingendosi morto. 00:08:41.613 --> 00:08:43.609 E questo solo perché qualcuno 00:08:44.099 --> 00:08:47.749 senza qualifica e con un camice da laboratorio 00:08:47.969 --> 00:08:50.755 diceva loro una variante della frase: 00:08:50.755 --> 00:08:53.985 "L'esperimento deve andare avanti". 00:08:56.895 --> 00:09:02.268 Nell'IA, abbiamo la figura autoritaria di Milgram per eccellenza. 00:09:03.596 --> 00:09:08.156 Abbiamo un sistema imparziale incapace di riflettere, 00:09:09.320 --> 00:09:12.290 incapace di prendere altre decisioni, 00:09:12.920 --> 00:09:15.012 al quale non si può fare ricorso 00:09:15.012 --> 00:09:20.174 e che dirà sempre: "Il sistema" o "Il processo deve andare avanti". 00:09:23.313 --> 00:09:25.273 Ora vi racconterò una storia. 00:09:25.883 --> 00:09:29.423 Parla di un viaggio in macchina che ho fatto in giro per il Paese. 00:09:31.170 --> 00:09:34.330 Stavo entrando a Salt Lake City quando ha cominciato a piovere. 00:09:35.211 --> 00:09:39.560 Quando sono arrivato sulle montagne, la pioggia era diventata neve 00:09:40.300 --> 00:09:42.700 e in poco tempo la neve era diventata una tormenta. 00:09:42.700 --> 00:09:45.910 Non riuscivo a vedere i fari posteriori dell'auto che avevo davanti. 00:09:46.153 --> 00:09:47.743 Ho iniziato a sbandare. 00:09:48.023 --> 00:09:51.033 L'auto è slittata di 360 gradi da una parte, poi dall'altra. 00:09:51.033 --> 00:09:52.513 Sono uscito dall'autostrada. 00:09:52.513 --> 00:09:54.683 C'era fango sui finestrini, non vedevo niente. 00:09:54.683 --> 00:09:58.243 Avevo paura che una macchina mi piombasse addosso. 00:09:59.924 --> 00:10:03.574 Vi sto raccontando questa storia per farvi riflettere 00:10:03.864 --> 00:10:07.324 su quanto una cosa piccola e apparentemente banale 00:10:07.324 --> 00:10:09.404 come un po' di pioggia 00:10:09.964 --> 00:10:14.324 possa facilmente trasformarsi in qualcosa di molto pericoloso. 00:10:15.409 --> 00:10:19.209 Ora stiamo guidando sotto la pioggia con l'IA 00:10:20.362 --> 00:10:23.072 e quella pioggia si trasformerà in neve 00:10:23.787 --> 00:10:27.037 e quella neve potrebbe diventare una tormenta. 00:10:28.097 --> 00:10:30.047 Dobbiamo fermarci un attimo, 00:10:30.537 --> 00:10:32.417 verificare le condizioni, 00:10:33.002 --> 00:10:35.152 stabilire degli standard di sicurezza 00:10:35.642 --> 00:10:40.972 e dobbiamo chiederci quanto in là vogliamo spingerci 00:10:42.267 --> 00:10:45.387 perché gli incentivi finanziari per l'IA 00:10:45.387 --> 00:10:48.353 e per l'automazione che sostituirà il lavoro umano 00:10:48.353 --> 00:10:50.663 andranno al di là di qualsiasi cosa abbiamo visto 00:10:50.663 --> 00:10:52.873 dai tempi della Rivoluzione Industriale. 00:10:54.043 --> 00:10:58.040 Le richieste salariali degli umani non possono competere 00:10:58.040 --> 00:11:00.830 con il costo base dell'elettricità. 00:11:02.390 --> 00:11:07.585 L'IA e i robot rimpiazzeranno i cuochi nei fast food 00:11:07.915 --> 00:11:10.325 e i radiologi negli ospedali. 00:11:11.135 --> 00:11:14.100 Un giorno, sarà l'IA a diagnosticarvi il cancro 00:11:14.310 --> 00:11:16.730 e sarà un robot a eseguire l'intervento. 00:11:17.960 --> 00:11:22.160 Solo un salutare scetticismo verso questi sistemi 00:11:22.420 --> 00:11:25.561 aiuterà a tenere le persone informate. 00:11:26.201 --> 00:11:31.043 E confido nel fatto che se riusciremo a tenere le persone informate, 00:11:31.473 --> 00:11:34.483 se riusciremo a costruire sistemi di IA trasparenti 00:11:34.483 --> 00:11:36.393 come quello dell'esempio cane/lupo 00:11:36.393 --> 00:11:39.428 dove l'IA ha spiegato alle persone quello che stava facendo 00:11:39.658 --> 00:11:42.228 e le persone hanno avuto la possibilità di esaminarlo, 00:11:42.678 --> 00:11:46.898 possiamo creare nuovi lavori per le persone che collaborano con l'IA. 00:11:48.573 --> 00:11:50.743 Se collaboriamo con l'IA, 00:11:51.043 --> 00:11:55.063 riusciremo probabilmente a risolvere alcuni dei nostri problemi più grandi. 00:11:56.764 --> 00:12:00.994 Ma per farlo dobbiamo essere i leader, non i seguaci. 00:12:01.801 --> 00:12:05.101 Dobbiamo scegliere di essere meno simili ai robot 00:12:05.381 --> 00:12:09.621 e dobbiamo costruire robot più simili alle persone 00:12:11.020 --> 00:12:12.800 perché, in fin dei conti, 00:12:13.350 --> 00:12:17.650 l'unica cosa che dobbiamo temere non sono i robot assassini, 00:12:18.700 --> 00:12:21.181 ma la nostra pigrizia intellettuale. 00:12:22.165 --> 00:12:26.355 L'unica cosa che dobbiamo temere siamo noi stessi. 00:12:26.989 --> 00:12:28.131 Grazie. 00:12:28.131 --> 00:12:29.831 (Applausi)