Il vero motivo per cui temere l'Intelligenza Artificiale | Peter Haas | TEDxDirigo
-
0:13 - 0:16La rivolta delle macchine!
-
0:18 - 0:23Chi ha paura dei robot assassini?
-
0:23 - 0:25(Risate)
-
0:26 - 0:27Io sì!
-
0:28 - 0:32Lavoravo con i droni,
gli aeromobili a pilotaggio remoto, -
0:32 - 0:37e tutto quello a cui riuscivo a pensare
vedendo quelle macchine era che un giorno -
0:37 - 0:41qualcuno ci attaccherà una mitragliatrice
-
0:41 - 0:43e si metteranno a darmi
la caccia in sciami. -
0:45 - 0:48Lavoro nel campo della robotica
all'Università Brown -
0:48 - 0:50e ho paura dei robot.
-
0:51 - 0:53A dire il vero, ne sono terrorizzato.
-
0:54 - 0:56Ma potete biasimarmi?
-
0:56 - 1:00Sin da quando ero bambino
non ho fatto altro che vedere film -
1:00 - 1:03che narrano dell'ascesa
dell'Intelligenza Artificiale -
1:03 - 1:05e del nostro inevitabile conflitto
con essa: -
1:06 - 1:112001: Odissea nello spazio,
Terminator, Matrix... -
1:12 - 1:16E le storie che raccontano
sono piuttosto spaventose: -
1:16 - 1:21bande di umani ribelli in fuga
da macchine super intelligenti. -
1:22 - 1:24Questa cosa mi spaventa.
-
1:24 - 1:27E, dalle vostre mani,
mi sembra che spaventi anche voi. -
1:27 - 1:30So che spaventa Elon Musk.
-
1:31 - 1:35Ma abbiamo ancora un po' di tempo
prima che i robot insorgano. -
1:35 - 1:38I robot del mio progetto come il PR2
-
1:39 - 1:41non sono ancora in grado
di aprire una porta. -
1:42 - 1:46Quindi, secondo me, il dibattito
sui robot super intelligenti -
1:47 - 1:52non è che una distrazione
da qualcosa di molto più insidioso -
1:52 - 1:56che sta succedendo in tutta
la nazione con i sistemi di IA. -
1:57 - 1:59Vedete, ora come ora, ci sono persone,
-
2:00 - 2:04dottori, giudici, contabili,
-
2:04 - 2:08che ottengono informazioni
da un sistema di IA -
2:08 - 2:12e che trattano queste informazioni
come se provenissero da un collega fidato. -
2:14 - 2:16È questa fiducia che mi preoccupa.
-
2:17 - 2:20E non perché spesso l'IA sbagli.
-
2:20 - 2:24I ricercatori dell'IA sono fieri
della precisione dei risultati. -
2:25 - 2:28È quanto gravemente sbaglia
quando commette un errore -
2:28 - 2:30quello che mi preoccupa davvero.
-
2:30 - 2:33Questi sistemi non sbagliano di poco.
-
2:34 - 2:36Ma vediamo un po' come funzionano.
-
2:37 - 2:43Questo è un cane che è stato scambiato
per un lupo da un algoritmo di IA. -
2:43 - 2:45I ricercatori volevano sapere:
-
2:45 - 2:49perché proprio questo husky
è stato scambiato per un lupo? -
2:50 - 2:53Così, hanno riscritto l'algoritmo
affinché indicasse loro -
2:53 - 2:56quali erano le parti della foto
a cui aveva prestato attenzione -
2:56 - 2:58quando ha fatto la sua scelta.
-
2:59 - 3:03Guardando questa fotografia,
a cosa pensate abbia prestato attenzione? -
3:03 - 3:05Voi a cosa avreste prestato attenzione?
-
3:05 - 3:10Forse agli occhi,
forse alle orecchie, magari al muso. -
3:13 - 3:16Ecco a cosa ha prestato attenzione:
-
3:17 - 3:20principalmente alla neve
e allo sfondo della fotografia. -
3:21 - 3:26C'era un preconcetto nell'insieme di dati
che è stato dato a questo algoritmo. -
3:26 - 3:30Nella maggior parte delle foto,
i lupi erano sulla neve, -
3:30 - 3:35quindi l'algoritmo di IA ha scambiato
la presenza o l'assenza della neve -
3:35 - 3:38per la presenza o l'assenza di un lupo.
-
3:40 - 3:42La cosa preoccupante
-
3:42 - 3:46è che i ricercatori non avevano idea
di quello che stava succedendo -
3:46 - 3:50fino a quando non hanno riscritto
l'algoritmo affinché lo spiegasse loro. -
3:51 - 3:53È questo il problema
degli algoritmi di IA, -
3:53 - 3:55dell'apprendimento
approfondito e automatico. -
3:55 - 3:59Persino gli sviluppatori
che lavorano con essi -
3:59 - 4:02non hanno idea di quello che fanno.
-
4:03 - 4:08Questo potrebbe essere
un esempio perfetto per un ricercatore, -
4:08 - 4:10ma che significato ha nel mondo reale?
-
4:11 - 4:16L'algoritmo COMPAS Criminal Sentencing
viene usato in 13 Stati americani -
4:16 - 4:18per determinare la recidività criminale
-
4:18 - 4:22o il rischio di commettere
un reato dopo il rilascio. -
4:23 - 4:27ProPublica ha constato
che un afroamericano -
4:27 - 4:31con COMPAS ha il 77% in più
di possibilità di essere qualificato -
4:31 - 4:34come criminale potenzialmente violento
rispetto a un caucasico. -
4:35 - 4:39Questo è un sistema reale che viene usato
nel mondo reale da giudici reali -
4:39 - 4:42per prendere decisioni
sulla vita reale delle persone. -
4:44 - 4:47Perché i giudici dovrebbero fidarsi
di questo algoritmo -
4:47 - 4:49se si basa su un pregiudizio?
-
4:50 - 4:55Il motivo per cui usano COMPAS
è perché è un modello di efficienza. -
4:56 - 5:00COMPAS permette di velocizzare
considerevolmente il carico di lavoro -
5:00 - 5:03in un sistema giudiziario penale
in cui ci sono molte cause arretrate. -
5:05 - 5:08Perché dovrebbero mettere
in dubbio il loro stesso software? -
5:08 - 5:11È stato richiesto dallo Stato,
approvato dal Dipartimento di Informatica. -
5:11 - 5:13Perché dovrebbero metterlo in dubbio?
-
5:13 - 5:17Le persone condannate da COMPAS
lo hanno messo in dubbio -
5:17 - 5:19e le loro cause
dovrebbero farci rabbrividire. -
5:19 - 5:22La Corte Suprema
del Wisconsin ha stabilito -
5:22 - 5:26che COMPAS non negava
un processo equo all'imputato -
5:26 - 5:28a condizione che venisse utilizzato
"adeguatamente". -
5:29 - 5:31Ha inoltre stabilito
-
5:31 - 5:34che l'imputato non poteva esaminare
il codice sorgente di COMPAS. -
5:36 - 5:37Deve essere usato adeguatamente,
-
5:37 - 5:40ma non si può esaminare
il codice sorgente? -
5:40 - 5:43Prese insieme,
queste decisioni sono preoccupanti -
5:43 - 5:46per chiunque si trovi ad affrontare
una condanna penale. -
5:47 - 5:51A voi magari non interessa dato che
non state affrontando una condanna penale, -
5:51 - 5:55ma se vi dicessi che le black box
degli algoritmi di IA come questo -
5:55 - 5:59vengono usate per decidere
se concedervi il prestito per la casa, -
6:00 - 6:02se avete ottenuto un colloquio di lavoro,
-
6:03 - 6:05se avete diritto all'assistenza sanitaria
-
6:06 - 6:10e stanno addirittura guidando
automobili e camion in autostrada? -
6:11 - 6:15Vorreste che alle persone
fosse permesso esaminare l'algoritmo -
6:15 - 6:18che sta cercando di distinguere
un carrello della spesa da un passeggino -
6:18 - 6:20in un camion che si guida da solo
-
6:21 - 6:23nello stesso modo in cui
l'algoritmo cane/lupo -
6:23 - 6:25stava cercando di distinguere
un cane da un lupo? -
6:26 - 6:31Siete potenzialmente un cane metaforico
che è stato scambiato per un lupo -
6:31 - 6:34dall'algoritmo di IA di qualcuno?
-
6:35 - 6:38È possibile, se consideriamo
la complessità delle persone. -
6:39 - 6:42C'è qualcosa che potete fare
a riguardo ora? -
6:42 - 6:44Probabilmente no.
-
6:44 - 6:47Ed è proprio su questo punto
che dobbiamo concentrarci. -
6:47 - 6:51Dobbiamo chiedere
standard di responsabilità, -
6:51 - 6:55trasparenza e ricorsi nei sistemi di IA.
-
6:56 - 7:00L'ISO, l'Organizzazione
internazionale per la normazione, -
7:00 - 7:01ha creato una commissione
-
7:01 - 7:04che deve decidere cosa fare
per quanto riguarda gli standard dell'IA. -
7:05 - 7:08Impiegheranno circa cinque anni
per fissare uno standard. -
7:09 - 7:12Questi sistemi vengono usati adesso,
-
7:14 - 7:19non solo per i prestiti, ma anche,
come vi dicevo prima, nei veicoli. -
7:21 - 7:25Vengono usati per cose come il controllo
di adattamento della velocità di crociera. -
7:25 - 7:28È buffo che lo chiamino
"controllo di crociera" -
7:28 - 7:32perché il tipo di controllore
che viene usato, il controllore PID, -
7:33 - 7:36è stato usato per trent'anni
negli stabilimenti chimici -
7:36 - 7:38prima di venire installato
su un'automobile. -
7:39 - 7:41Il tipo di controllore impiegato
-
7:41 - 7:45per guidare un'automobile senza conducente
e per l'apprendimento automatico -
7:45 - 7:48viene utilizzato nelle ricerche
solo dal 2007. -
7:50 - 7:52Sono nuove tecnologie.
-
7:52 - 7:56Dobbiamo chiedere standard
e dobbiamo chiedere regolamentazioni -
7:56 - 8:00per evitare di trovare
ciarlatanate sul mercato. -
8:01 - 8:04E dobbiamo anche essere un po' scettici.
-
8:06 - 8:08Gli esperimenti sull'autorità
-
8:08 - 8:11effettuati da Stanley Milgram
dopo la Seconda Guerra Mondiale -
8:11 - 8:13hanno dimostrato che una persona media
-
8:13 - 8:16eseguirebbe gli ordini
di una figura autoritaria -
8:16 - 8:19anche se questo significasse
fare del male ai propri concittadini. -
8:20 - 8:22In questo esperimento,
-
8:23 - 8:27i cittadini medi americani
davano la scossa a un attore -
8:28 - 8:31anche dopo che questi
si lamentava del male, -
8:31 - 8:35anche dopo che urlava dal dolore
-
8:36 - 8:40e persino dopo che si zittiva
fingendosi morto. -
8:42 - 8:44E questo solo perché qualcuno
-
8:44 - 8:48senza qualifica
e con un camice da laboratorio -
8:48 - 8:51diceva loro una variante della frase:
-
8:51 - 8:54"L'esperimento deve andare avanti".
-
8:57 - 9:02Nell'IA, abbiamo la figura autoritaria
di Milgram per eccellenza. -
9:04 - 9:08Abbiamo un sistema imparziale
incapace di riflettere, -
9:09 - 9:12incapace di prendere altre decisioni,
-
9:13 - 9:15al quale non si può fare ricorso
-
9:15 - 9:20e che dirà sempre: "Il sistema"
o "Il processo deve andare avanti". -
9:23 - 9:25Ora vi racconterò una storia.
-
9:26 - 9:29Parla di un viaggio in macchina
che ho fatto in giro per il Paese. -
9:31 - 9:34Stavo entrando a Salt Lake City
quando ha cominciato a piovere. -
9:35 - 9:40Quando sono arrivato sulle montagne,
la pioggia era diventata neve -
9:40 - 9:43e in poco tempo la neve
era diventata una tormenta. -
9:43 - 9:46Non riuscivo a vedere i fari posteriori
dell'auto che avevo davanti. -
9:46 - 9:48Ho iniziato a sbandare.
-
9:48 - 9:51L'auto è slittata di 360 gradi
da una parte, poi dall'altra. -
9:51 - 9:53Sono uscito dall'autostrada.
-
9:53 - 9:55C'era fango sui finestrini,
non vedevo niente. -
9:55 - 9:58Avevo paura che una macchina
mi piombasse addosso. -
10:00 - 10:04Vi sto raccontando questa storia
per farvi riflettere -
10:04 - 10:07su quanto una cosa piccola
e apparentemente banale -
10:07 - 10:09come un po' di pioggia
-
10:10 - 10:14possa facilmente trasformarsi
in qualcosa di molto pericoloso. -
10:15 - 10:19Ora stiamo guidando
sotto la pioggia con l'IA -
10:20 - 10:23e quella pioggia si trasformerà in neve
-
10:24 - 10:27e quella neve potrebbe diventare
una tormenta. -
10:28 - 10:30Dobbiamo fermarci un attimo,
-
10:31 - 10:32verificare le condizioni,
-
10:33 - 10:35stabilire degli standard di sicurezza
-
10:36 - 10:41e dobbiamo chiederci
quanto in là vogliamo spingerci -
10:42 - 10:45perché gli incentivi finanziari per l'IA
-
10:45 - 10:48e per l'automazione
che sostituirà il lavoro umano -
10:48 - 10:51andranno al di là
di qualsiasi cosa abbiamo visto -
10:51 - 10:53dai tempi della Rivoluzione Industriale.
-
10:54 - 10:58Le richieste salariali degli umani
non possono competere -
10:58 - 11:01con il costo base dell'elettricità.
-
11:02 - 11:08L'IA e i robot rimpiazzeranno
i cuochi nei fast food -
11:08 - 11:10e i radiologi negli ospedali.
-
11:11 - 11:14Un giorno, sarà l'IA
a diagnosticarvi il cancro -
11:14 - 11:17e sarà un robot a eseguire l'intervento.
-
11:18 - 11:22Solo un salutare scetticismo
verso questi sistemi -
11:22 - 11:26aiuterà a tenere le persone informate.
-
11:26 - 11:31E confido nel fatto che se riusciremo
a tenere le persone informate, -
11:31 - 11:34se riusciremo a costruire
sistemi di IA trasparenti -
11:34 - 11:36come quello dell'esempio cane/lupo
-
11:36 - 11:39dove l'IA ha spiegato alle persone
quello che stava facendo -
11:40 - 11:42e le persone hanno avuto
la possibilità di esaminarlo, -
11:43 - 11:47possiamo creare nuovi lavori
per le persone che collaborano con l'IA. -
11:49 - 11:51Se collaboriamo con l'IA,
-
11:51 - 11:55riusciremo probabilmente a risolvere
alcuni dei nostri problemi più grandi. -
11:57 - 12:01Ma per farlo dobbiamo essere
i leader, non i seguaci. -
12:02 - 12:05Dobbiamo scegliere di essere
meno simili ai robot -
12:05 - 12:10e dobbiamo costruire robot
più simili alle persone -
12:11 - 12:13perché, in fin dei conti,
-
12:13 - 12:18l'unica cosa che dobbiamo temere
non sono i robot assassini, -
12:19 - 12:21ma la nostra pigrizia intellettuale.
-
12:22 - 12:26L'unica cosa che dobbiamo temere
siamo noi stessi. -
12:27 - 12:28Grazie.
-
12:28 - 12:30(Applausi)
- Title:
- Il vero motivo per cui temere l'Intelligenza Artificiale | Peter Haas | TEDxDirigo
- Description:
-
Il ricercatore di robotica Peter Haas ci invita a entrare nel suo mondo per farci capire dove risiedono i pericoli dei robot e dell'Intelligenza Artificiale. Prima di arrivare ai robot assassini della fantascienza, all'Internet degli oggetti o addirittura al transumanesimo, c'è qualcosa con cui dobbiamo confrontarci: noi stessi.
Peter è il direttore associato della Humanity Centered Robotics Initiative dell'Università Brown. È stato il cofondatore e il direttore operativo di XactSense, un'azienda produttrice di droni con sistema di mappatura LIDAR e a navigazione autonoma. Prima di XactSense, Peter ha fondato AIDG, un acceleratore di piccole imprese di hardware nei mercati emergenti. Peter ha ricevuto una borsa di studio sia da TED che da Echoing Green. Ha tenuto conferenze presso varie sedi, tra cui TED Global, la Banca Mondiale e l'Università di Harvard. Ha una laurea in filosofia che ha conseguito presso l'Università di Yale.
Questo intervento è stato presentato a un evento TEDx che utilizza il format della conferenza TED, ma è stato organizzato in maniera indipendente da una comunità locale. Per maggiori informazioni, visita il sito http://ted.com/tedx
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 12:38
Barbara Nettl approved Italian subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Barbara Nettl accepted Italian subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Barbara Nettl edited Italian subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Barbara Nettl edited Italian subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Silvia Monti edited Italian subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Silvia Monti edited Italian subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Silvia Monti edited Italian subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Silvia Monti edited Italian subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo |