La rivolta delle macchine!
Chi ha paura dei robot assassini?
(Risate)
Io sì!
Lavoravo con i droni,
gli aeromobili a pilotaggio remoto,
e tutto quello a cui riuscivo a pensare
vedendo quelle macchine era che un giorno
qualcuno ci attaccherà una mitragliatrice
e si metteranno a darmi
la caccia in sciami.
Lavoro nel campo della robotica
all'Università Brown
e ho paura dei robot.
A dire il vero, ne sono terrorizzato.
Ma potete biasimarmi?
Sin da quando ero bambino
non ho fatto altro che vedere film
che narrano dell'ascesa
dell'Intelligenza Artificiale
e del nostro inevitabile conflitto
con essa:
2001: Odissea nello spazio,
Terminator, Matrix...
E le storie che raccontano
sono piuttosto spaventose:
bande di umani ribelli in fuga
da macchine super intelligenti.
Questa cosa mi spaventa.
E, dalle vostre mani,
mi sembra che spaventi anche voi.
So che spaventa Elon Musk.
Ma abbiamo ancora un po' di tempo
prima che i robot insorgano.
I robot del mio progetto come il PR2
non sono ancora in grado
di aprire una porta.
Quindi, secondo me, il dibattito
sui robot super intelligenti
non è che una distrazione
da qualcosa di molto più insidioso
che sta succedendo in tutta
la nazione con i sistemi di IA.
Vedete, ora come ora, ci sono persone,
dottori, giudici, contabili,
che ottengono informazioni
da un sistema di IA
e che trattano queste informazioni
come se provenissero da un collega fidato.
È questa fiducia che mi preoccupa.
E non perché spesso l'IA sbagli.
I ricercatori dell'IA sono fieri
della precisione dei risultati.
È quanto gravemente sbaglia
quando commette un errore
quello che mi preoccupa davvero.
Questi sistemi non sbagliano di poco.
Ma vediamo un po' come funzionano.
Questo è un cane che è stato scambiato
per un lupo da un algoritmo di IA.
I ricercatori volevano sapere:
perché proprio questo husky
è stato scambiato per un lupo?
Così, hanno riscritto l'algoritmo
affinché indicasse loro
quali erano le parti della foto
a cui aveva prestato attenzione
quando ha fatto la sua scelta.
Guardando questa fotografia,
a cosa pensate abbia prestato attenzione?
Voi a cosa avreste prestato attenzione?
Forse agli occhi,
forse alle orecchie, magari al muso.
Ecco a cosa ha prestato attenzione:
principalmente alla neve
e allo sfondo della fotografia.
C'era un preconcetto nell'insieme di dati
che è stato dato a questo algoritmo.
Nella maggior parte delle foto,
i lupi erano sulla neve,
quindi l'algoritmo di IA ha scambiato
la presenza o l'assenza della neve
per la presenza o l'assenza di un lupo.
La cosa preoccupante
è che i ricercatori non avevano idea
di quello che stava succedendo
fino a quando non hanno riscritto
l'algoritmo affinché lo spiegasse loro.
È questo il problema
degli algoritmi di IA,
dell'apprendimento
approfondito e automatico.
Persino gli sviluppatori
che lavorano con essi
non hanno idea di quello che fanno.
Questo potrebbe essere
un esempio perfetto per un ricercatore,
ma che significato ha nel mondo reale?
L'algoritmo COMPAS Criminal Sentencing
viene usato in 13 Stati americani
per determinare la recidività criminale
o il rischio di commettere
un reato dopo il rilascio.
ProPublica ha constato
che un afroamericano
con COMPAS ha il 77% in più
di possibilità di essere qualificato
come criminale potenzialmente violento
rispetto a un caucasico.
Questo è un sistema reale che viene usato
nel mondo reale da giudici reali
per prendere decisioni
sulla vita reale delle persone.
Perché i giudici dovrebbero fidarsi
di questo algoritmo
se si basa su un pregiudizio?
Il motivo per cui usano COMPAS
è perché è un modello di efficienza.
COMPAS permette di velocizzare
considerevolmente il carico di lavoro
in un sistema giudiziario penale
in cui ci sono molte cause arretrate.
Perché dovrebbero mettere
in dubbio il loro stesso software?
È stato richiesto dallo Stato,
approvato dal Dipartimento di Informatica.
Perché dovrebbero metterlo in dubbio?
Le persone condannate da COMPAS
lo hanno messo in dubbio
e le loro cause
dovrebbero farci rabbrividire.
La Corte Suprema
del Wisconsin ha stabilito
che COMPAS non negava
un processo equo all'imputato
a condizione che venisse utilizzato
"adeguatamente".
Ha inoltre stabilito
che l'imputato non poteva esaminare
il codice sorgente di COMPAS.
Deve essere usato adeguatamente,
ma non si può esaminare
il codice sorgente?
Prese insieme,
queste decisioni sono preoccupanti
per chiunque si trovi ad affrontare
una condanna penale.
A voi magari non interessa dato che
non state affrontando una condanna penale,
ma se vi dicessi che le black box
degli algoritmi di IA come questo
vengono usate per decidere
se concedervi il prestito per la casa,
se avete ottenuto un colloquio di lavoro,
se avete diritto all'assistenza sanitaria
e stanno addirittura guidando
automobili e camion in autostrada?
Vorreste che alle persone
fosse permesso esaminare l'algoritmo
che sta cercando di distinguere
un carrello della spesa da un passeggino
in un camion che si guida da solo
nello stesso modo in cui
l'algoritmo cane/lupo
stava cercando di distinguere
un cane da un lupo?
Siete potenzialmente un cane metaforico
che è stato scambiato per un lupo
dall'algoritmo di IA di qualcuno?
È possibile, se consideriamo
la complessità delle persone.
C'è qualcosa che potete fare
a riguardo ora?
Probabilmente no.
Ed è proprio su questo punto
che dobbiamo concentrarci.
Dobbiamo chiedere
standard di responsabilità,
trasparenza e ricorsi nei sistemi di IA.
L'ISO, l'Organizzazione
internazionale per la normazione,
ha creato una commissione
che deve decidere cosa fare
per quanto riguarda gli standard dell'IA.
Impiegheranno circa cinque anni
per fissare uno standard.
Questi sistemi vengono usati adesso,
non solo per i prestiti, ma anche,
come vi dicevo prima, nei veicoli.
Vengono usati per cose come il controllo
di adattamento della velocità di crociera.
È buffo che lo chiamino
"controllo di crociera"
perché il tipo di controllore
che viene usato, il controllore PID,
è stato usato per trent'anni
negli stabilimenti chimici
prima di venire installato
su un'automobile.
Il tipo di controllore impiegato
per guidare un'automobile senza conducente
e per l'apprendimento automatico
viene utilizzato nelle ricerche
solo dal 2007.
Sono nuove tecnologie.
Dobbiamo chiedere standard
e dobbiamo chiedere regolamentazioni
per evitare di trovare
ciarlatanate sul mercato.
E dobbiamo anche essere un po' scettici.
Gli esperimenti sull'autorità
effettuati da Stanley Milgram
dopo la Seconda Guerra Mondiale
hanno dimostrato che una persona media
eseguirebbe gli ordini
di una figura autoritaria
anche se questo significasse
fare del male ai propri concittadini.
In questo esperimento,
i cittadini medi americani
davano la scossa a un attore
anche dopo che questi
si lamentava del male,
anche dopo che urlava dal dolore
e persino dopo che si zittiva
fingendosi morto.
E questo solo perché qualcuno
senza qualifica
e con un camice da laboratorio
diceva loro una variante della frase:
"L'esperimento deve andare avanti".
Nell'IA, abbiamo la figura autoritaria
di Milgram per eccellenza.
Abbiamo un sistema imparziale
incapace di riflettere,
incapace di prendere altre decisioni,
al quale non si può fare ricorso
e che dirà sempre: "Il sistema"
o "Il processo deve andare avanti".
Ora vi racconterò una storia.
Parla di un viaggio in macchina
che ho fatto in giro per il Paese.
Stavo entrando a Salt Lake City
quando ha cominciato a piovere.
Quando sono arrivato sulle montagne,
la pioggia era diventata neve
e in poco tempo la neve
era diventata una tormenta.
Non riuscivo a vedere i fari posteriori
dell'auto che avevo davanti.
Ho iniziato a sbandare.
L'auto è slittata di 360 gradi
da una parte, poi dall'altra.
Sono uscito dall'autostrada.
C'era fango sui finestrini,
non vedevo niente.
Avevo paura che una macchina
mi piombasse addosso.
Vi sto raccontando questa storia
per farvi riflettere
su quanto una cosa piccola
e apparentemente banale
come un po' di pioggia
possa facilmente trasformarsi
in qualcosa di molto pericoloso.
Ora stiamo guidando
sotto la pioggia con l'IA
e quella pioggia si trasformerà in neve
e quella neve potrebbe diventare
una tormenta.
Dobbiamo fermarci un attimo,
verificare le condizioni,
stabilire degli standard di sicurezza
e dobbiamo chiederci
quanto in là vogliamo spingerci
perché gli incentivi finanziari per l'IA
e per l'automazione
che sostituirà il lavoro umano
andranno al di là
di qualsiasi cosa abbiamo visto
dai tempi della Rivoluzione Industriale.
Le richieste salariali degli umani
non possono competere
con il costo base dell'elettricità.
L'IA e i robot rimpiazzeranno
i cuochi nei fast food
e i radiologi negli ospedali.
Un giorno, sarà l'IA
a diagnosticarvi il cancro
e sarà un robot a eseguire l'intervento.
Solo un salutare scetticismo
verso questi sistemi
aiuterà a tenere le persone informate.
E confido nel fatto che se riusciremo
a tenere le persone informate,
se riusciremo a costruire
sistemi di IA trasparenti
come quello dell'esempio cane/lupo
dove l'IA ha spiegato alle persone
quello che stava facendo
e le persone hanno avuto
la possibilità di esaminarlo,
possiamo creare nuovi lavori
per le persone che collaborano con l'IA.
Se collaboriamo con l'IA,
riusciremo probabilmente a risolvere
alcuni dei nostri problemi più grandi.
Ma per farlo dobbiamo essere
i leader, non i seguaci.
Dobbiamo scegliere di essere
meno simili ai robot
e dobbiamo costruire robot
più simili alle persone
perché, in fin dei conti,
l'unica cosa che dobbiamo temere
non sono i robot assassini,
ma la nostra pigrizia intellettuale.
L'unica cosa che dobbiamo temere
siamo noi stessi.
Grazie.
(Applausi)