< Return to Video

Il vero motivo per cui temere l'Intelligenza Artificiale | Peter Haas | TEDxDirigo

  • 0:13 - 0:16
    La rivolta delle macchine!
  • 0:18 - 0:23
    Chi ha paura dei robot assassini?
  • 0:23 - 0:25
    (Risate)
  • 0:26 - 0:27
    Io sì!
  • 0:28 - 0:32
    Lavoravo con i droni,
    gli aeromobili a pilotaggio remoto,
  • 0:32 - 0:37
    e tutto quello a cui riuscivo a pensare
    vedendo quelle macchine era che un giorno
  • 0:37 - 0:41
    qualcuno ci attaccherà una mitragliatrice
  • 0:41 - 0:43
    e si metteranno a darmi
    la caccia in sciami.
  • 0:45 - 0:48
    Lavoro nel campo della robotica
    all'Università Brown
  • 0:48 - 0:50
    e ho paura dei robot.
  • 0:51 - 0:53
    A dire il vero, ne sono terrorizzato.
  • 0:54 - 0:56
    Ma potete biasimarmi?
  • 0:56 - 1:00
    Sin da quando ero bambino
    non ho fatto altro che vedere film
  • 1:00 - 1:03
    che narrano dell'ascesa
    dell'Intelligenza Artificiale
  • 1:03 - 1:05
    e del nostro inevitabile conflitto
    con essa:
  • 1:06 - 1:11
    2001: Odissea nello spazio,
    Terminator, Matrix...
  • 1:12 - 1:16
    E le storie che raccontano
    sono piuttosto spaventose:
  • 1:16 - 1:21
    bande di umani ribelli in fuga
    da macchine super intelligenti.
  • 1:22 - 1:24
    Questa cosa mi spaventa.
  • 1:24 - 1:27
    E, dalle vostre mani,
    mi sembra che spaventi anche voi.
  • 1:27 - 1:30
    So che spaventa Elon Musk.
  • 1:31 - 1:35
    Ma abbiamo ancora un po' di tempo
    prima che i robot insorgano.
  • 1:35 - 1:38
    I robot del mio progetto come il PR2
  • 1:39 - 1:41
    non sono ancora in grado
    di aprire una porta.
  • 1:42 - 1:46
    Quindi, secondo me, il dibattito
    sui robot super intelligenti
  • 1:47 - 1:52
    non è che una distrazione
    da qualcosa di molto più insidioso
  • 1:52 - 1:56
    che sta succedendo in tutta
    la nazione con i sistemi di IA.
  • 1:57 - 1:59
    Vedete, ora come ora, ci sono persone,
  • 2:00 - 2:04
    dottori, giudici, contabili,
  • 2:04 - 2:08
    che ottengono informazioni
    da un sistema di IA
  • 2:08 - 2:12
    e che trattano queste informazioni
    come se provenissero da un collega fidato.
  • 2:14 - 2:16
    È questa fiducia che mi preoccupa.
  • 2:17 - 2:20
    E non perché spesso l'IA sbagli.
  • 2:20 - 2:24
    I ricercatori dell'IA sono fieri
    della precisione dei risultati.
  • 2:25 - 2:28
    È quanto gravemente sbaglia
    quando commette un errore
  • 2:28 - 2:30
    quello che mi preoccupa davvero.
  • 2:30 - 2:33
    Questi sistemi non sbagliano di poco.
  • 2:34 - 2:36
    Ma vediamo un po' come funzionano.
  • 2:37 - 2:43
    Questo è un cane che è stato scambiato
    per un lupo da un algoritmo di IA.
  • 2:43 - 2:45
    I ricercatori volevano sapere:
  • 2:45 - 2:49
    perché proprio questo husky
    è stato scambiato per un lupo?
  • 2:50 - 2:53
    Così, hanno riscritto l'algoritmo
    affinché indicasse loro
  • 2:53 - 2:56
    quali erano le parti della foto
    a cui aveva prestato attenzione
  • 2:56 - 2:58
    quando ha fatto la sua scelta.
  • 2:59 - 3:03
    Guardando questa fotografia,
    a cosa pensate abbia prestato attenzione?
  • 3:03 - 3:05
    Voi a cosa avreste prestato attenzione?
  • 3:05 - 3:10
    Forse agli occhi,
    forse alle orecchie, magari al muso.
  • 3:13 - 3:16
    Ecco a cosa ha prestato attenzione:
  • 3:17 - 3:20
    principalmente alla neve
    e allo sfondo della fotografia.
  • 3:21 - 3:26
    C'era un preconcetto nell'insieme di dati
    che è stato dato a questo algoritmo.
  • 3:26 - 3:30
    Nella maggior parte delle foto,
    i lupi erano sulla neve,
  • 3:30 - 3:35
    quindi l'algoritmo di IA ha scambiato
    la presenza o l'assenza della neve
  • 3:35 - 3:38
    per la presenza o l'assenza di un lupo.
  • 3:40 - 3:42
    La cosa preoccupante
  • 3:42 - 3:46
    è che i ricercatori non avevano idea
    di quello che stava succedendo
  • 3:46 - 3:50
    fino a quando non hanno riscritto
    l'algoritmo affinché lo spiegasse loro.
  • 3:51 - 3:53
    È questo il problema
    degli algoritmi di IA,
  • 3:53 - 3:55
    dell'apprendimento
    approfondito e automatico.
  • 3:55 - 3:59
    Persino gli sviluppatori
    che lavorano con essi
  • 3:59 - 4:02
    non hanno idea di quello che fanno.
  • 4:03 - 4:08
    Questo potrebbe essere
    un esempio perfetto per un ricercatore,
  • 4:08 - 4:10
    ma che significato ha nel mondo reale?
  • 4:11 - 4:16
    L'algoritmo COMPAS Criminal Sentencing
    viene usato in 13 Stati americani
  • 4:16 - 4:18
    per determinare la recidività criminale
  • 4:18 - 4:22
    o il rischio di commettere
    un reato dopo il rilascio.
  • 4:23 - 4:27
    ProPublica ha constato
    che un afroamericano
  • 4:27 - 4:31
    con COMPAS ha il 77% in più
    di possibilità di essere qualificato
  • 4:31 - 4:34
    come criminale potenzialmente violento
    rispetto a un caucasico.
  • 4:35 - 4:39
    Questo è un sistema reale che viene usato
    nel mondo reale da giudici reali
  • 4:39 - 4:42
    per prendere decisioni
    sulla vita reale delle persone.
  • 4:44 - 4:47
    Perché i giudici dovrebbero fidarsi
    di questo algoritmo
  • 4:47 - 4:49
    se si basa su un pregiudizio?
  • 4:50 - 4:55
    Il motivo per cui usano COMPAS
    è perché è un modello di efficienza.
  • 4:56 - 5:00
    COMPAS permette di velocizzare
    considerevolmente il carico di lavoro
  • 5:00 - 5:03
    in un sistema giudiziario penale
    in cui ci sono molte cause arretrate.
  • 5:05 - 5:08
    Perché dovrebbero mettere
    in dubbio il loro stesso software?
  • 5:08 - 5:11
    È stato richiesto dallo Stato,
    approvato dal Dipartimento di Informatica.
  • 5:11 - 5:13
    Perché dovrebbero metterlo in dubbio?
  • 5:13 - 5:17
    Le persone condannate da COMPAS
    lo hanno messo in dubbio
  • 5:17 - 5:19
    e le loro cause
    dovrebbero farci rabbrividire.
  • 5:19 - 5:22
    La Corte Suprema
    del Wisconsin ha stabilito
  • 5:22 - 5:26
    che COMPAS non negava
    un processo equo all'imputato
  • 5:26 - 5:28
    a condizione che venisse utilizzato
    "adeguatamente".
  • 5:29 - 5:31
    Ha inoltre stabilito
  • 5:31 - 5:34
    che l'imputato non poteva esaminare
    il codice sorgente di COMPAS.
  • 5:36 - 5:37
    Deve essere usato adeguatamente,
  • 5:37 - 5:40
    ma non si può esaminare
    il codice sorgente?
  • 5:40 - 5:43
    Prese insieme,
    queste decisioni sono preoccupanti
  • 5:43 - 5:46
    per chiunque si trovi ad affrontare
    una condanna penale.
  • 5:47 - 5:51
    A voi magari non interessa dato che
    non state affrontando una condanna penale,
  • 5:51 - 5:55
    ma se vi dicessi che le black box
    degli algoritmi di IA come questo
  • 5:55 - 5:59
    vengono usate per decidere
    se concedervi il prestito per la casa,
  • 6:00 - 6:02
    se avete ottenuto un colloquio di lavoro,
  • 6:03 - 6:05
    se avete diritto all'assistenza sanitaria
  • 6:06 - 6:10
    e stanno addirittura guidando
    automobili e camion in autostrada?
  • 6:11 - 6:15
    Vorreste che alle persone
    fosse permesso esaminare l'algoritmo
  • 6:15 - 6:18
    che sta cercando di distinguere
    un carrello della spesa da un passeggino
  • 6:18 - 6:20
    in un camion che si guida da solo
  • 6:21 - 6:23
    nello stesso modo in cui
    l'algoritmo cane/lupo
  • 6:23 - 6:25
    stava cercando di distinguere
    un cane da un lupo?
  • 6:26 - 6:31
    Siete potenzialmente un cane metaforico
    che è stato scambiato per un lupo
  • 6:31 - 6:34
    dall'algoritmo di IA di qualcuno?
  • 6:35 - 6:38
    È possibile, se consideriamo
    la complessità delle persone.
  • 6:39 - 6:42
    C'è qualcosa che potete fare
    a riguardo ora?
  • 6:42 - 6:44
    Probabilmente no.
  • 6:44 - 6:47
    Ed è proprio su questo punto
    che dobbiamo concentrarci.
  • 6:47 - 6:51
    Dobbiamo chiedere
    standard di responsabilità,
  • 6:51 - 6:55
    trasparenza e ricorsi nei sistemi di IA.
  • 6:56 - 7:00
    L'ISO, l'Organizzazione
    internazionale per la normazione,
  • 7:00 - 7:01
    ha creato una commissione
  • 7:01 - 7:04
    che deve decidere cosa fare
    per quanto riguarda gli standard dell'IA.
  • 7:05 - 7:08
    Impiegheranno circa cinque anni
    per fissare uno standard.
  • 7:09 - 7:12
    Questi sistemi vengono usati adesso,
  • 7:14 - 7:19
    non solo per i prestiti, ma anche,
    come vi dicevo prima, nei veicoli.
  • 7:21 - 7:25
    Vengono usati per cose come il controllo
    di adattamento della velocità di crociera.
  • 7:25 - 7:28
    È buffo che lo chiamino
    "controllo di crociera"
  • 7:28 - 7:32
    perché il tipo di controllore
    che viene usato, il controllore PID,
  • 7:33 - 7:36
    è stato usato per trent'anni
    negli stabilimenti chimici
  • 7:36 - 7:38
    prima di venire installato
    su un'automobile.
  • 7:39 - 7:41
    Il tipo di controllore impiegato
  • 7:41 - 7:45
    per guidare un'automobile senza conducente
    e per l'apprendimento automatico
  • 7:45 - 7:48
    viene utilizzato nelle ricerche
    solo dal 2007.
  • 7:50 - 7:52
    Sono nuove tecnologie.
  • 7:52 - 7:56
    Dobbiamo chiedere standard
    e dobbiamo chiedere regolamentazioni
  • 7:56 - 8:00
    per evitare di trovare
    ciarlatanate sul mercato.
  • 8:01 - 8:04
    E dobbiamo anche essere un po' scettici.
  • 8:06 - 8:08
    Gli esperimenti sull'autorità
  • 8:08 - 8:11
    effettuati da Stanley Milgram
    dopo la Seconda Guerra Mondiale
  • 8:11 - 8:13
    hanno dimostrato che una persona media
  • 8:13 - 8:16
    eseguirebbe gli ordini
    di una figura autoritaria
  • 8:16 - 8:19
    anche se questo significasse
    fare del male ai propri concittadini.
  • 8:20 - 8:22
    In questo esperimento,
  • 8:23 - 8:27
    i cittadini medi americani
    davano la scossa a un attore
  • 8:28 - 8:31
    anche dopo che questi
    si lamentava del male,
  • 8:31 - 8:35
    anche dopo che urlava dal dolore
  • 8:36 - 8:40
    e persino dopo che si zittiva
    fingendosi morto.
  • 8:42 - 8:44
    E questo solo perché qualcuno
  • 8:44 - 8:48
    senza qualifica
    e con un camice da laboratorio
  • 8:48 - 8:51
    diceva loro una variante della frase:
  • 8:51 - 8:54
    "L'esperimento deve andare avanti".
  • 8:57 - 9:02
    Nell'IA, abbiamo la figura autoritaria
    di Milgram per eccellenza.
  • 9:04 - 9:08
    Abbiamo un sistema imparziale
    incapace di riflettere,
  • 9:09 - 9:12
    incapace di prendere altre decisioni,
  • 9:13 - 9:15
    al quale non si può fare ricorso
  • 9:15 - 9:20
    e che dirà sempre: "Il sistema"
    o "Il processo deve andare avanti".
  • 9:23 - 9:25
    Ora vi racconterò una storia.
  • 9:26 - 9:29
    Parla di un viaggio in macchina
    che ho fatto in giro per il Paese.
  • 9:31 - 9:34
    Stavo entrando a Salt Lake City
    quando ha cominciato a piovere.
  • 9:35 - 9:40
    Quando sono arrivato sulle montagne,
    la pioggia era diventata neve
  • 9:40 - 9:43
    e in poco tempo la neve
    era diventata una tormenta.
  • 9:43 - 9:46
    Non riuscivo a vedere i fari posteriori
    dell'auto che avevo davanti.
  • 9:46 - 9:48
    Ho iniziato a sbandare.
  • 9:48 - 9:51
    L'auto è slittata di 360 gradi
    da una parte, poi dall'altra.
  • 9:51 - 9:53
    Sono uscito dall'autostrada.
  • 9:53 - 9:55
    C'era fango sui finestrini,
    non vedevo niente.
  • 9:55 - 9:58
    Avevo paura che una macchina
    mi piombasse addosso.
  • 10:00 - 10:04
    Vi sto raccontando questa storia
    per farvi riflettere
  • 10:04 - 10:07
    su quanto una cosa piccola
    e apparentemente banale
  • 10:07 - 10:09
    come un po' di pioggia
  • 10:10 - 10:14
    possa facilmente trasformarsi
    in qualcosa di molto pericoloso.
  • 10:15 - 10:19
    Ora stiamo guidando
    sotto la pioggia con l'IA
  • 10:20 - 10:23
    e quella pioggia si trasformerà in neve
  • 10:24 - 10:27
    e quella neve potrebbe diventare
    una tormenta.
  • 10:28 - 10:30
    Dobbiamo fermarci un attimo,
  • 10:31 - 10:32
    verificare le condizioni,
  • 10:33 - 10:35
    stabilire degli standard di sicurezza
  • 10:36 - 10:41
    e dobbiamo chiederci
    quanto in là vogliamo spingerci
  • 10:42 - 10:45
    perché gli incentivi finanziari per l'IA
  • 10:45 - 10:48
    e per l'automazione
    che sostituirà il lavoro umano
  • 10:48 - 10:51
    andranno al di là
    di qualsiasi cosa abbiamo visto
  • 10:51 - 10:53
    dai tempi della Rivoluzione Industriale.
  • 10:54 - 10:58
    Le richieste salariali degli umani
    non possono competere
  • 10:58 - 11:01
    con il costo base dell'elettricità.
  • 11:02 - 11:08
    L'IA e i robot rimpiazzeranno
    i cuochi nei fast food
  • 11:08 - 11:10
    e i radiologi negli ospedali.
  • 11:11 - 11:14
    Un giorno, sarà l'IA
    a diagnosticarvi il cancro
  • 11:14 - 11:17
    e sarà un robot a eseguire l'intervento.
  • 11:18 - 11:22
    Solo un salutare scetticismo
    verso questi sistemi
  • 11:22 - 11:26
    aiuterà a tenere le persone informate.
  • 11:26 - 11:31
    E confido nel fatto che se riusciremo
    a tenere le persone informate,
  • 11:31 - 11:34
    se riusciremo a costruire
    sistemi di IA trasparenti
  • 11:34 - 11:36
    come quello dell'esempio cane/lupo
  • 11:36 - 11:39
    dove l'IA ha spiegato alle persone
    quello che stava facendo
  • 11:40 - 11:42
    e le persone hanno avuto
    la possibilità di esaminarlo,
  • 11:43 - 11:47
    possiamo creare nuovi lavori
    per le persone che collaborano con l'IA.
  • 11:49 - 11:51
    Se collaboriamo con l'IA,
  • 11:51 - 11:55
    riusciremo probabilmente a risolvere
    alcuni dei nostri problemi più grandi.
  • 11:57 - 12:01
    Ma per farlo dobbiamo essere
    i leader, non i seguaci.
  • 12:02 - 12:05
    Dobbiamo scegliere di essere
    meno simili ai robot
  • 12:05 - 12:10
    e dobbiamo costruire robot
    più simili alle persone
  • 12:11 - 12:13
    perché, in fin dei conti,
  • 12:13 - 12:18
    l'unica cosa che dobbiamo temere
    non sono i robot assassini,
  • 12:19 - 12:21
    ma la nostra pigrizia intellettuale.
  • 12:22 - 12:26
    L'unica cosa che dobbiamo temere
    siamo noi stessi.
  • 12:27 - 12:28
    Grazie.
  • 12:28 - 12:30
    (Applausi)
Title:
Il vero motivo per cui temere l'Intelligenza Artificiale | Peter Haas | TEDxDirigo
Description:

Il ricercatore di robotica Peter Haas ci invita a entrare nel suo mondo per farci capire dove risiedono i pericoli dei robot e dell'Intelligenza Artificiale. Prima di arrivare ai robot assassini della fantascienza, all'Internet degli oggetti o addirittura al transumanesimo, c'è qualcosa con cui dobbiamo confrontarci: noi stessi.

Peter è il direttore associato della Humanity Centered Robotics Initiative dell'Università Brown. È stato il cofondatore e il direttore operativo di XactSense, un'azienda produttrice di droni con sistema di mappatura LIDAR e a navigazione autonoma. Prima di XactSense, Peter ha fondato AIDG, un acceleratore di piccole imprese di hardware nei mercati emergenti. Peter ha ricevuto una borsa di studio sia da TED che da Echoing Green. Ha tenuto conferenze presso varie sedi, tra cui TED Global, la Banca Mondiale e l'Università di Harvard. Ha una laurea in filosofia che ha conseguito presso l'Università di Yale.

Questo intervento è stato presentato a un evento TEDx che utilizza il format della conferenza TED, ma è stato organizzato in maniera indipendente da una comunità locale. Per maggiori informazioni, visita il sito http://ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
12:38

Italian subtitles

Revisions