La rivolta delle macchine! Chi ha paura dei robot assassini? (Risate) Io sì! Lavoravo con i droni, gli aeromobili a pilotaggio remoto, e tutto quello a cui riuscivo a pensare vedendo quelle macchine era che un giorno qualcuno ci attaccherà una mitragliatrice e si metteranno a darmi la caccia in sciami. Lavoro nel campo della robotica all'Università Brown e ho paura dei robot. A dire il vero, ne sono terrorizzato. Ma potete biasimarmi? Sin da quando ero bambino non ho fatto altro che vedere film che narrano dell'ascesa dell'Intelligenza Artificiale e del nostro inevitabile conflitto con essa: 2001: Odissea nello spazio, Terminator, Matrix... E le storie che raccontano sono piuttosto spaventose: bande di umani ribelli in fuga da macchine super intelligenti. Questa cosa mi spaventa. E, dalle vostre mani, mi sembra che spaventi anche voi. So che spaventa Elon Musk. Ma abbiamo ancora un po' di tempo prima che i robot insorgano. I robot del mio progetto come il PR2 non sono ancora in grado di aprire una porta. Quindi, secondo me, il dibattito sui robot super intelligenti non è che una distrazione da qualcosa di molto più insidioso che sta succedendo in tutta la nazione con i sistemi di IA. Vedete, ora come ora, ci sono persone, dottori, giudici, contabili, che ottengono informazioni da un sistema di IA e che trattano queste informazioni come se provenissero da un collega fidato. È questa fiducia che mi preoccupa. E non perché spesso l'IA sbagli. I ricercatori dell'IA sono fieri della precisione dei risultati. È quanto gravemente sbaglia quando commette un errore quello che mi preoccupa davvero. Questi sistemi non sbagliano di poco. Ma vediamo un po' come funzionano. Questo è un cane che è stato scambiato per un lupo da un algoritmo di IA. I ricercatori volevano sapere: perché proprio questo husky è stato scambiato per un lupo? Così, hanno riscritto l'algoritmo affinché indicasse loro quali erano le parti della foto a cui aveva prestato attenzione quando ha fatto la sua scelta. Guardando questa fotografia, a cosa pensate abbia prestato attenzione? Voi a cosa avreste prestato attenzione? Forse agli occhi, forse alle orecchie, magari al muso. Ecco a cosa ha prestato attenzione: principalmente alla neve e allo sfondo della fotografia. C'era un preconcetto nell'insieme di dati che è stato dato a questo algoritmo. Nella maggior parte delle foto, i lupi erano sulla neve, quindi l'algoritmo di IA ha scambiato la presenza o l'assenza della neve per la presenza o l'assenza di un lupo. La cosa preoccupante è che i ricercatori non avevano idea di quello che stava succedendo fino a quando non hanno riscritto l'algoritmo affinché lo spiegasse loro. È questo il problema degli algoritmi di IA, dell'apprendimento approfondito e automatico. Persino gli sviluppatori che lavorano con essi non hanno idea di quello che fanno. Questo potrebbe essere un esempio perfetto per un ricercatore, ma che significato ha nel mondo reale? L'algoritmo COMPAS Criminal Sentencing viene usato in 13 Stati americani per determinare la recidività criminale o il rischio di commettere un reato dopo il rilascio. ProPublica ha constato che un afroamericano con COMPAS ha il 77% in più di possibilità di essere qualificato come criminale potenzialmente violento rispetto a un caucasico. Questo è un sistema reale che viene usato nel mondo reale da giudici reali per prendere decisioni sulla vita reale delle persone. Perché i giudici dovrebbero fidarsi di questo algoritmo se si basa su un pregiudizio? Il motivo per cui usano COMPAS è perché è un modello di efficienza. COMPAS permette di velocizzare considerevolmente il carico di lavoro in un sistema giudiziario penale in cui ci sono molte cause arretrate. Perché dovrebbero mettere in dubbio il loro stesso software? È stato richiesto dallo Stato, approvato dal Dipartimento di Informatica. Perché dovrebbero metterlo in dubbio? Le persone condannate da COMPAS lo hanno messo in dubbio e le loro cause dovrebbero farci rabbrividire. La Corte Suprema del Wisconsin ha stabilito che COMPAS non negava un processo equo all'imputato a condizione che venisse utilizzato "adeguatamente". Ha inoltre stabilito che l'imputato non poteva esaminare il codice sorgente di COMPAS. Deve essere usato adeguatamente, ma non si può esaminare il codice sorgente? Prese insieme, queste decisioni sono preoccupanti per chiunque si trovi ad affrontare una condanna penale. A voi magari non interessa dato che non state affrontando una condanna penale, ma se vi dicessi che le black box degli algoritmi di IA come questo vengono usate per decidere se concedervi il prestito per la casa, se avete ottenuto un colloquio di lavoro, se avete diritto all'assistenza sanitaria e stanno addirittura guidando automobili e camion in autostrada? Vorreste che alle persone fosse permesso esaminare l'algoritmo che sta cercando di distinguere un carrello della spesa da un passeggino in un camion che si guida da solo nello stesso modo in cui l'algoritmo cane/lupo stava cercando di distinguere un cane da un lupo? Siete potenzialmente un cane metaforico che è stato scambiato per un lupo dall'algoritmo di IA di qualcuno? È possibile, se consideriamo la complessità delle persone. C'è qualcosa che potete fare a riguardo ora? Probabilmente no. Ed è proprio su questo punto che dobbiamo concentrarci. Dobbiamo chiedere standard di responsabilità, trasparenza e ricorsi nei sistemi di IA. L'ISO, l'Organizzazione internazionale per la normazione, ha creato una commissione che deve decidere cosa fare per quanto riguarda gli standard dell'IA. Impiegheranno circa cinque anni per fissare uno standard. Questi sistemi vengono usati adesso, non solo per i prestiti, ma anche, come vi dicevo prima, nei veicoli. Vengono usati per cose come il controllo di adattamento della velocità di crociera. È buffo che lo chiamino "controllo di crociera" perché il tipo di controllore che viene usato, il controllore PID, è stato usato per trent'anni negli stabilimenti chimici prima di venire installato su un'automobile. Il tipo di controllore impiegato per guidare un'automobile senza conducente e per l'apprendimento automatico viene utilizzato nelle ricerche solo dal 2007. Sono nuove tecnologie. Dobbiamo chiedere standard e dobbiamo chiedere regolamentazioni per evitare di trovare ciarlatanate sul mercato. E dobbiamo anche essere un po' scettici. Gli esperimenti sull'autorità effettuati da Stanley Milgram dopo la Seconda Guerra Mondiale hanno dimostrato che una persona media eseguirebbe gli ordini di una figura autoritaria anche se questo significasse fare del male ai propri concittadini. In questo esperimento, i cittadini medi americani davano la scossa a un attore anche dopo che questi si lamentava del male, anche dopo che urlava dal dolore e persino dopo che si zittiva fingendosi morto. E questo solo perché qualcuno senza qualifica e con un camice da laboratorio diceva loro una variante della frase: "L'esperimento deve andare avanti". Nell'IA, abbiamo la figura autoritaria di Milgram per eccellenza. Abbiamo un sistema imparziale incapace di riflettere, incapace di prendere altre decisioni, al quale non si può fare ricorso e che dirà sempre: "Il sistema" o "Il processo deve andare avanti". Ora vi racconterò una storia. Parla di un viaggio in macchina che ho fatto in giro per il Paese. Stavo entrando a Salt Lake City quando ha cominciato a piovere. Quando sono arrivato sulle montagne, la pioggia era diventata neve e in poco tempo la neve era diventata una tormenta. Non riuscivo a vedere i fari posteriori dell'auto che avevo davanti. Ho iniziato a sbandare. L'auto è slittata di 360 gradi da una parte, poi dall'altra. Sono uscito dall'autostrada. C'era fango sui finestrini, non vedevo niente. Avevo paura che una macchina mi piombasse addosso. Vi sto raccontando questa storia per farvi riflettere su quanto una cosa piccola e apparentemente banale come un po' di pioggia possa facilmente trasformarsi in qualcosa di molto pericoloso. Ora stiamo guidando sotto la pioggia con l'IA e quella pioggia si trasformerà in neve e quella neve potrebbe diventare una tormenta. Dobbiamo fermarci un attimo, verificare le condizioni, stabilire degli standard di sicurezza e dobbiamo chiederci quanto in là vogliamo spingerci perché gli incentivi finanziari per l'IA e per l'automazione che sostituirà il lavoro umano andranno al di là di qualsiasi cosa abbiamo visto dai tempi della Rivoluzione Industriale. Le richieste salariali degli umani non possono competere con il costo base dell'elettricità. L'IA e i robot rimpiazzeranno i cuochi nei fast food e i radiologi negli ospedali. Un giorno, sarà l'IA a diagnosticarvi il cancro e sarà un robot a eseguire l'intervento. Solo un salutare scetticismo verso questi sistemi aiuterà a tenere le persone informate. E confido nel fatto che se riusciremo a tenere le persone informate, se riusciremo a costruire sistemi di IA trasparenti come quello dell'esempio cane/lupo dove l'IA ha spiegato alle persone quello che stava facendo e le persone hanno avuto la possibilità di esaminarlo, possiamo creare nuovi lavori per le persone che collaborano con l'IA. Se collaboriamo con l'IA, riusciremo probabilmente a risolvere alcuni dei nostri problemi più grandi. Ma per farlo dobbiamo essere i leader, non i seguaci. Dobbiamo scegliere di essere meno simili ai robot e dobbiamo costruire robot più simili alle persone perché, in fin dei conti, l'unica cosa che dobbiamo temere non sono i robot assassini, ma la nostra pigrizia intellettuale. L'unica cosa che dobbiamo temere siamo noi stessi. Grazie. (Applausi)