Return to Video

I pericoli dell’IA sono più bizzarri di quanto si pensi.

  • 0:03 - 0:06
    L’intelligenza artificiale
    è notoriamente capace
  • 0:06 - 0:08
    di sconvolgere tutte le industrie
    in cui entra in azione.
  • 0:09 - 0:11
    Che ne dite di applicarla al gelato?
  • 0:12 - 0:16
    Che razza di nuovi,
    strabilianti sapori potremmo generare
  • 0:16 - 0:19
    sfruttando un’intelligenza
    artificiale avanzata?
  • 0:19 - 0:23
    Ho collaborato con dei programmatori
    della Kealing Middle School
  • 0:23 - 0:25
    per trovare la risposta a questa domanda.
  • 0:25 - 0:31
    Hanno raccolto oltre 1.600 gusti
    di gelato esistenti,
  • 0:31 - 0:36
    che abbiamo inserito in un algoritmo
    per vedere cosa avrebbe generato.
  • 0:36 - 0:40
    Ecco alcuni dei gusti creati dall’IA:
  • 0:40 - 0:42
    [Merenda di spazzatura alla zucca]
  • 0:42 - 0:43
    (Risate)
  • 0:43 - 0:46
    [Melma al burro di arachidi]
  • 0:46 - 0:48
    [Malattia alla crema di fragole]
  • 0:48 - 0:50
    (Risate)
  • 0:50 - 0:55
    Non proprio le suggestioni invitanti
    che speravamo di ricevere.
  • 0:55 - 0:57
    La domanda sorge spontanea:
    cos’è successo?
  • 0:57 - 0:59
    Che cosa è andato storto?
  • 0:59 - 1:00
    L’IA sta cercando di ucciderci?
  • 1:01 - 1:05
    O ha fatto quello che abbiamo chiesto,
    e si è verificato un problema?
  • 1:07 - 1:09
    Nei film, quando qualcosa
    va storto con l’IA,
  • 1:09 - 1:12
    di solito è perché l’IA stessa ha deciso
  • 1:12 - 1:14
    che non vuole più obbedire agli umani,
  • 1:14 - 1:17
    ma perseguire i propri obiettivi,
    e al diavolo tutti!
  • 1:17 - 1:20
    Tuttavia, nella vita reale,
    l’IA di cui effettivamente disponiamo
  • 1:20 - 1:23
    non è così intelligente da poterlo fare.
  • 1:23 - 1:27
    Ha approssimativamnte
    la potenza di calcolo di un lombrico,
  • 1:27 - 1:31
    o al massimo di una singola ape,
  • 1:31 - 1:33
    probabilmente anche meno.
  • 1:33 - 1:35
    Scopriamo continuamente
    cose nuove sul cervello umano,
  • 1:35 - 1:40
    che possiamo tranquillamente affermare
    non essere all’altezza di un’IA.
  • 1:40 - 1:45
    L’IA di oggi, quindi,
    identifica un pedone in una foto,
  • 1:45 - 1:48
    ma non ha idea di cosa sia un pedone
  • 1:48 - 1:53
    al di là di un insieme
    di linee, trame ed altro.
  • 1:54 - 1:56
    Di fatto, non sa cosa sia un essere umano.
  • 1:57 - 2:00
    Quindi l’IA di oggi farà
    quello che le chiediamo di fare?
  • 2:00 - 2:02
    Lo farà se potrà,
  • 2:02 - 2:04
    ma potrebbe non fare
    ciò che davvero vogliamo.
  • 2:04 - 2:07
    Mettiamo che stiate cercando
    di indurre un'IA
  • 2:07 - 2:10
    a prendere questo insieme
    di parti di robot
  • 2:10 - 2:14
    e assemblarli in una specie di robot
    per andare dal punto A al punto B.
  • 2:14 - 2:16
    Se voleste provare
    a risolvere questo problema
  • 2:16 - 2:19
    scrivendo un programma informatico
    in stile tradizionale,
  • 2:19 - 2:22
    fornireste al programma
    istruzioni dettagliate
  • 2:22 - 2:24
    su come prendere queste parti,
  • 2:24 - 2:26
    assemblarle in un robot con le gambe
  • 2:26 - 2:29
    e infine usare queste gambe
    per raggiungere il punto B.
  • 2:29 - 2:31
    Ma quando usate l’IA
    per risolvere il problema,
  • 2:31 - 2:33
    le cose vanno diversamente.
  • 2:33 - 2:35
    Non le spiegate
    come risolvere il problema:
  • 2:35 - 2:37
    le date solo l'obiettivo,
  • 2:37 - 2:40
    e sarà lei a capire da sola,
    attraverso tentativi ed errori,
  • 2:40 - 2:42
    come raggiungere quell’obiettivo.
  • 2:42 - 2:46
    Si scopre così che l’IA tende a risolvere
    questo particolare problema
  • 2:46 - 2:48
    facendo così:
  • 2:48 - 2:53
    assembla se stessa in una torre,
    fino a cadere e atterrare sul punto B.
  • 2:53 - 2:56
    Tecnicamente, questo risolve il problema.
  • 2:56 - 2:58
    Teoricamente, ha raggiunto il punto B.
  • 2:58 - 3:02
    La minaccia dell’IA non è data dal fatto
    che questa possa ribellarsi a noi,
  • 3:02 - 3:06
    ma piuttosto che faccia esattamente
    quello che le chiediamo di fare.
  • 3:06 - 3:09
    Per lavorare con l’IA, quindi,
    la vera questione diventa:
  • 3:09 - 3:13
    come possiamo impostare il problema
    in modo che faccia ciò che vogliamo?
  • 3:14 - 3:18
    Questo piccolo robot è controllato
    da un’intelligenza artificiale.
  • 3:18 - 3:21
    L’IA ha elaborato una struttura
    per le gambe del robot
  • 3:21 - 3:25
    e ha immaginato come muoverle
    per farle superare tutti quegli ostacoli.
  • 3:25 - 3:28
    Ma quando David Ha
    ha avviato questo esperimento,
  • 3:28 - 3:31
    ha dovuto stabilire dei limiti severissimi
  • 3:31 - 3:34
    entro i quali all’IA era permesso
    realizzare le gambe,
  • 3:34 - 3:36
    perché altrimenti...
  • 3:43 - 3:47
    (Risate)
  • 3:49 - 3:52
    E tecnicamente, è arrivata alla fine
    di quella corsa ad ostacoli.
  • 3:52 - 3:57
    Vedete quanto è difficile far fare all’IA
    una cosa semplice come camminare.
  • 3:57 - 4:01
    Vedendo l’IA fare tutto questo,
    potreste pensare: "Ok, non va bene,
  • 4:01 - 4:04
    non puoi pensare di essere
    una torre alta e cadere;
  • 4:04 - 4:07
    devi usare le gambe per camminare.
  • 4:07 - 4:10
    Ma a quanto pare,
    neanche questo sempre funziona.
  • 4:10 - 4:13
    Il compito di questa IA
    era muoversi velocemente.
  • 4:13 - 4:17
    Non le hanno detto
    che doveva correre guardando avanti,
  • 4:17 - 4:19
    o che non poteva utilizzare le braccia.
  • 4:19 - 4:24
    Questo è ciò che ottenete
    se istruite l’IA a muoversi velocemente,
  • 4:24 - 4:28
    cose tipo capriole o camminate strambe.
  • 4:28 - 4:29
    È molto frequente.
  • 4:30 - 4:33
    Lo è anche ammucchiarsi sul pavimento
    muovendosi a scatti.
  • 4:33 - 4:34
    (Risate)
  • 4:35 - 4:38
    Quindi, secondo me, sapete cosa
    sarebbe stato ancora più strano?
  • 4:38 - 4:40
    Il robot “Terminator”.
  • 4:40 - 4:44
    Modificare “The Matrix” è un’altra cosa
    che l’IA farà, potendo.
  • 4:44 - 4:47
    Se addestrate un’IA in una simulazione,
  • 4:47 - 4:51
    imparerà ad accedere agli errori
    di matematica della simulazione
  • 4:51 - 4:53
    e a farne tesoro per avere energia.
  • 4:53 - 4:58
    Oppure capirà come andare più veloce
    muovendosi a scatti sul pavimento.
  • 4:58 - 5:00
    Lavorare con l’IA
  • 5:00 - 5:02
    è diverso dal lavorare
    con un altro essere umano:
  • 5:02 - 5:06
    e più simile al lavorare
    con una strana forza della natura.
  • 5:06 - 5:11
    È molto facile darle accidentalmente
    il problema sbagliato da risolvere,
  • 5:11 - 5:16
    e spesso non ce ne rendiamo conto
    finché qualcosa non va storto.
  • 5:16 - 5:18
    Ecco un esperimento che ho fatto,
  • 5:18 - 5:22
    in cui volevo che l’IA
    copiasse i colori della vernice,
  • 5:22 - 5:23
    per inventarne di nuovi,
  • 5:23 - 5:27
    prendendoli dalla lista
    di quelli qui a sinistra.
  • 5:27 - 5:30
    Ed ecco quello che l’IA
    ha effettivamente creato:
  • 5:30 - 5:33
    "Pupù Sindhi, Merdolino,
    Sofferenza, Grigio Pubico"
  • 5:33 - 5:37
    (Risate)
  • 5:39 - 5:41
    Quindi, tecnicamente,
  • 5:41 - 5:43
    ha fatto quello che le ho chiesto.
  • 5:43 - 5:46
    Io pensavo di averle chiesto
    dei nomi di colori di vernice carini,
  • 5:46 - 5:49
    ma in realtà quello che stavo chiedendo
  • 5:49 - 5:52
    era solo di imitare
    il tipo di combinazioni di lettere
  • 5:52 - 5:54
    che aveva visto nell’originale.
  • 5:54 - 5:57
    Non le ho detto nulla
    sul significato delle parole,
  • 5:57 - 5:59
    o che ci siano forse delle parole
  • 5:59 - 6:02
    che dovrebbe evitare di utilizzare
    per questi colori di vernice.
  • 6:03 - 6:07
    Perciò, le informazioni che le ho dato
    rappresentano tutto il suo mondo.
  • 6:07 - 6:11
    Come con i gusti del gelato,
    l'IA non conosce nient’altro.
  • 6:12 - 6:14
    È con le informazioni
  • 6:14 - 6:18
    che spesso istruiamo l’IA,
    senza volerlo, a fare la cosa sbagliata.
  • 6:18 - 6:22
    Questo è un pesce chiamato tinca.
  • 6:22 - 6:24
    C’è stato un gruppo di ricercatori
  • 6:24 - 6:27
    che ha addestrato un’IA
    a riconoscere questa tinca nelle foto.
  • 6:27 - 6:29
    Ma quando le hanno chiesto
  • 6:29 - 6:32
    quale parte dell'immagine
    stesse usando per identificare il pesce,
  • 6:32 - 6:34
    questo è quello che ha evidenziato.
  • 6:35 - 6:37
    Sì, quelle sono dita umane.
  • 6:37 - 6:42
    Perché dovrebbe cercare dita umane,
    se sta cercando di identificare un pesce?
  • 6:42 - 6:45
    Beh, è emerso che la tinca
    è un trofeo di pesca,
  • 6:45 - 6:50
    e in molte delle immagini di tinca
    usate per allenare l’IA
  • 6:50 - 6:52
    il pesce appariva così.
  • 6:52 - 6:53
    (Risate)
  • 6:53 - 6:57
    E non sapeva che le dita
    non facessero parte del pesce.
  • 6:59 - 7:03
    Capite quindi quanto è difficile
    progettare un'IA
  • 7:03 - 7:06
    che riesca davvero a comprendere
    cosa sta guardando.
  • 7:06 - 7:09
    Per questo progettare
    il riconoscimento delle immagini,
  • 7:09 - 7:11
    in automobili a guida autonoma,
    è così difficile;
  • 7:11 - 7:14
    e per questo tanti insuccessi
    delle auto senza conducente
  • 7:14 - 7:17
    sono dovuti al fatto che l’IA si confonde.
  • 7:17 - 7:20
    Vorrei citare un esempio del 2016.
  • 7:20 - 7:25
    Ci fu un incidente mortale durante l’uso
    del pilota automatico di una Tesla;
  • 7:25 - 7:28
    invece di usarlo in autostrada,
    per cui era stato progettato,
  • 7:28 - 7:31
    fu usato per le strade di città.
  • 7:31 - 7:36
    Un camion sbucò di fronte all’auto,
    e questa non frenò.
  • 7:37 - 7:41
    L’IA era stata sicuramente istruita
    a riconoscere i camion nelle immagini.
  • 7:41 - 7:43
    Ma a quanto pare,
  • 7:43 - 7:46
    l’IA era stata istruita a riconoscere
    i camion in autostrada,
  • 7:46 - 7:53
    dove ci si aspetta di vedere i camion
    arrivare da dietro, non di lato.
  • 7:53 - 7:56
    E così, quando l’IA ha visto il camion,
  • 7:56 - 8:01
    sembra che l’abbia identificato
    come più simile ad un cartello stradale,
  • 8:01 - 8:04
    sicura di potergli passare sotto.
  • 8:04 - 8:07
    Ecco un altro passo falso dell’IA,
    in un altro settore.
  • 8:07 - 8:10
    Amazon ha recentemente rinunciato
    a un algoritmo di selezione di curricula,
  • 8:10 - 8:11
    su cui stava lavorando,
  • 8:11 - 8:15
    quando ha scoperto che l’algoritmo
    aveva imparato a discriminare le donne.
  • 8:15 - 8:18
    Si è scoperto che l’avevano istruito
    basandosi su modelli di curricula
  • 8:18 - 8:21
    di persone assunte in passato.
  • 8:21 - 8:24
    Da questi esempi,
    l’IA ha imparato ad evitare i cv
  • 8:24 - 8:27
    delle persone che avevano frequentato
    università femminili,
  • 8:27 - 8:29
    o che avevano la parola "donne"
    da qualche parte nei loro cv,
  • 8:29 - 8:34
    come in "Squadra di Calcio delle Donne"
    o "Società delle Donne Ingegnere".
  • 8:34 - 8:40
    L’IA non sapeva di dover correggere
    questa discriminazione appresa da noi.
  • 8:40 - 8:43
    Tecnicamente, ha fatto
    quello che le hanno chiesto di fare.
  • 8:43 - 8:46
    Le hanno semplicemente chiesto,
    per caso, di fare la cosa sbagliata.
  • 8:46 - 8:50
    E questo accade di continuo, con l’IA.
  • 8:50 - 8:54
    L’IA può essere davvero dannosa
    senza rendersene conto.
  • 8:54 - 8:59
    Perciò le IA che raccomandano
    nuovi contenuti su Facebook, su YouTube,
  • 8:59 - 9:02
    sono ottimizzate per accrescere
    il numero di click e visualizzazioni.
  • 9:02 - 9:06
    E un modo che hanno trovato
    per riuscirci, sfortunatamente,
  • 9:06 - 9:10
    è di raccomandare i contenuti
    di complottismo e bigottismo.
  • 9:11 - 9:16
    Le IA stesse non hanno alcuna idea
    di cosa sia realmente quel contenuto,
  • 9:16 - 9:20
    e non hanno alcuna idea
    di quali possano essere le conseguenze,
  • 9:20 - 9:22
    nel raccomandarlo.
  • 9:22 - 9:24
    Quando lavoriamo con un’IA, quindi,
  • 9:24 - 9:29
    sta a noi evitare i problemi.
  • 9:29 - 9:31
    Ed evitare che le cose vadano male,
  • 9:31 - 9:35
    il che in sostanza ci riporta
    all'annoso problema della comunicazione,
  • 9:35 - 9:39
    per cui noi umani dobbiamo imparare
    a comunicare con l’IA.
  • 9:39 - 9:43
    Dobbiamo imparare cosa l’IA
    sa fare bene e cosa no
  • 9:43 - 9:46
    e capire che, con il suo minuscolo
    cervello da vermiciattolo,
  • 9:46 - 9:50
    l’IA non capisce che cosa
    le stiamo chiedendo di fare.
  • 9:51 - 9:54
    Dobbiamo imparare, in altre parole,
    a saper lavorare con l’IA "vera",
  • 9:54 - 10:00
    che non è l’IA super competente
    e onnisciente della fantascienza.
  • 10:00 - 10:06
    Dobbiamo essere preparati a lavorare
    con l’IA che abbiamo oggi.
  • 10:06 - 10:10
    E allo stato attuale,
    l'IA è già bizzarra a sufficienza.
  • 10:10 - 10:11
    Grazie.
  • 10:11 - 10:16
    (Applausi)
Title:
I pericoli dell’IA sono più bizzarri di quanto si pensi.
Speaker:
Janelle Shane
Description:

I pericoli dell’intelligenza artificiale non hanno origine dal fatto che questa si voglia ribellare a noi, bensì che essa faccia esattamente ciò che le chiediamo di fare, afferma la ricercatrice di IA, Janelle Shane.
Condividendo le strane, a volte inquietanti bizzarìe degli algoritmi dell’IA proponendosi di risolvere i problemi umani, (come, ad esempio, creare nuovi gusti di gelato o riconoscere le auto per strada), Shane dimostra i motivi per cui l’intelligenza artificiale non sia ancora all’altezza del vero cervello.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:28

Italian subtitles

Revisions