L’intelligenza artificiale
è notoriamente capace
di sconvolgere tutte le industrie
in cui entra in azione.
Che ne dite di applicarla al gelato?
Che razza di nuovi,
strabilianti sapori potremmo generare
sfruttando un’intelligenza
artificiale avanzata?
Ho collaborato con dei programmatori
della Kealing Middle School
per trovare la risposta a questa domanda.
Hanno raccolto oltre 1.600 gusti
di gelato esistenti,
che abbiamo inserito in un algoritmo
per vedere cosa avrebbe generato.
Ecco alcuni dei gusti creati dall’IA:
[Merenda di spazzatura alla zucca]
(Risate)
[Melma al burro di arachidi]
[Malattia alla crema di fragole]
(Risate)
Non proprio le suggestioni invitanti
che speravamo di ricevere.
La domanda sorge spontanea:
cos’è successo?
Che cosa è andato storto?
L’IA sta cercando di ucciderci?
O ha fatto quello che abbiamo chiesto,
e si è verificato un problema?
Nei film, quando qualcosa
va storto con l’IA,
di solito è perché l’IA stessa ha deciso
che non vuole più obbedire agli umani,
ma perseguire i propri obiettivi,
e al diavolo tutti!
Tuttavia, nella vita reale,
l’IA di cui effettivamente disponiamo
non è così intelligente da poterlo fare.
Ha approssimativamnte
la potenza di calcolo di un lombrico,
o al massimo di una singola ape,
probabilmente anche meno.
Scopriamo continuamente
cose nuove sul cervello umano,
che possiamo tranquillamente affermare
non essere all’altezza di un’IA.
L’IA di oggi, quindi,
identifica un pedone in una foto,
ma non ha idea di cosa sia un pedone
al di là di un insieme
di linee, trame ed altro.
Di fatto, non sa cosa sia un essere umano.
Quindi l’IA di oggi farà
quello che le chiediamo di fare?
Lo farà se potrà,
ma potrebbe non fare
ciò che davvero vogliamo.
Mettiamo che stiate cercando
di indurre un'IA
a prendere questo insieme
di parti di robot
e assemblarli in una specie di robot
per andare dal punto A al punto B.
Se voleste provare
a risolvere questo problema
scrivendo un programma informatico
in stile tradizionale,
fornireste al programma
istruzioni dettagliate
su come prendere queste parti,
assemblarle in un robot con le gambe
e infine usare queste gambe
per raggiungere il punto B.
Ma quando usate l’IA
per risolvere il problema,
le cose vanno diversamente.
Non le spiegate
come risolvere il problema:
le date solo l'obiettivo,
e sarà lei a capire da sola,
attraverso tentativi ed errori,
come raggiungere quell’obiettivo.
Si scopre così che l’IA tende a risolvere
questo particolare problema
facendo così:
assembla se stessa in una torre,
fino a cadere e atterrare sul punto B.
Tecnicamente, questo risolve il problema.
Teoricamente, ha raggiunto il punto B.
La minaccia dell’IA non è data dal fatto
che questa possa ribellarsi a noi,
ma piuttosto che faccia esattamente
quello che le chiediamo di fare.
Per lavorare con l’IA, quindi,
la vera questione diventa:
come possiamo impostare il problema
in modo che faccia ciò che vogliamo?
Questo piccolo robot è controllato
da un’intelligenza artificiale.
L’IA ha elaborato una struttura
per le gambe del robot
e ha immaginato come muoverle
per farle superare tutti quegli ostacoli.
Ma quando David Ha
ha avviato questo esperimento,
ha dovuto stabilire dei limiti severissimi
entro i quali all’IA era permesso
realizzare le gambe,
perché altrimenti...
(Risate)
E tecnicamente, è arrivata alla fine
di quella corsa ad ostacoli.
Vedete quanto è difficile far fare all’IA
una cosa semplice come camminare.
Vedendo l’IA fare tutto questo,
potreste pensare: "Ok, non va bene,
non puoi pensare di essere
una torre alta e cadere;
devi usare le gambe per camminare.
Ma a quanto pare,
neanche questo sempre funziona.
Il compito di questa IA
era muoversi velocemente.
Non le hanno detto
che doveva correre guardando avanti,
o che non poteva utilizzare le braccia.
Questo è ciò che ottenete
se istruite l’IA a muoversi velocemente,
cose tipo capriole o camminate strambe.
È molto frequente.
Lo è anche ammucchiarsi sul pavimento
muovendosi a scatti.
(Risate)
Quindi, secondo me, sapete cosa
sarebbe stato ancora più strano?
Il robot “Terminator”.
Modificare “The Matrix” è un’altra cosa
che l’IA farà, potendo.
Se addestrate un’IA in una simulazione,
imparerà ad accedere agli errori
di matematica della simulazione
e a farne tesoro per avere energia.
Oppure capirà come andare più veloce
muovendosi a scatti sul pavimento.
Lavorare con l’IA
è diverso dal lavorare
con un altro essere umano:
e più simile al lavorare
con una strana forza della natura.
È molto facile darle accidentalmente
il problema sbagliato da risolvere,
e spesso non ce ne rendiamo conto
finché qualcosa non va storto.
Ecco un esperimento che ho fatto,
in cui volevo che l’IA
copiasse i colori della vernice,
per inventarne di nuovi,
prendendoli dalla lista
di quelli qui a sinistra.
Ed ecco quello che l’IA
ha effettivamente creato:
"Pupù Sindhi, Merdolino,
Sofferenza, Grigio Pubico"
(Risate)
Quindi, tecnicamente,
ha fatto quello che le ho chiesto.
Io pensavo di averle chiesto
dei nomi di colori di vernice carini,
ma in realtà quello che stavo chiedendo
era solo di imitare
il tipo di combinazioni di lettere
che aveva visto nell’originale.
Non le ho detto nulla
sul significato delle parole,
o che ci siano forse delle parole
che dovrebbe evitare di utilizzare
per questi colori di vernice.
Perciò, le informazioni che le ho dato
rappresentano tutto il suo mondo.
Come con i gusti del gelato,
l'IA non conosce nient’altro.
È con le informazioni
che spesso istruiamo l’IA,
senza volerlo, a fare la cosa sbagliata.
Questo è un pesce chiamato tinca.
C’è stato un gruppo di ricercatori
che ha addestrato un’IA
a riconoscere questa tinca nelle foto.
Ma quando le hanno chiesto
quale parte dell'immagine
stesse usando per identificare il pesce,
questo è quello che ha evidenziato.
Sì, quelle sono dita umane.
Perché dovrebbe cercare dita umane,
se sta cercando di identificare un pesce?
Beh, è emerso che la tinca
è un trofeo di pesca,
e in molte delle immagini di tinca
usate per allenare l’IA
il pesce appariva così.
(Risate)
E non sapeva che le dita
non facessero parte del pesce.
Capite quindi quanto è difficile
progettare un'IA
che riesca davvero a comprendere
cosa sta guardando.
Per questo progettare
il riconoscimento delle immagini,
in automobili a guida autonoma,
è così difficile;
e per questo tanti insuccessi
delle auto senza conducente
sono dovuti al fatto che l’IA si confonde.
Vorrei citare un esempio del 2016.
Ci fu un incidente mortale durante l’uso
del pilota automatico di una Tesla;
invece di usarlo in autostrada,
per cui era stato progettato,
fu usato per le strade di città.
Un camion sbucò di fronte all’auto,
e questa non frenò.
L’IA era stata sicuramente istruita
a riconoscere i camion nelle immagini.
Ma a quanto pare,
l’IA era stata istruita a riconoscere
i camion in autostrada,
dove ci si aspetta di vedere i camion
arrivare da dietro, non di lato.
E così, quando l’IA ha visto il camion,
sembra che l’abbia identificato
come più simile ad un cartello stradale,
sicura di potergli passare sotto.
Ecco un altro passo falso dell’IA,
in un altro settore.
Amazon ha recentemente rinunciato
a un algoritmo di selezione di curricula,
su cui stava lavorando,
quando ha scoperto che l’algoritmo
aveva imparato a discriminare le donne.
Si è scoperto che l’avevano istruito
basandosi su modelli di curricula
di persone assunte in passato.
Da questi esempi,
l’IA ha imparato ad evitare i cv
delle persone che avevano frequentato
università femminili,
o che avevano la parola "donne"
da qualche parte nei loro cv,
come in "Squadra di Calcio delle Donne"
o "Società delle Donne Ingegnere".
L’IA non sapeva di dover correggere
questa discriminazione appresa da noi.
Tecnicamente, ha fatto
quello che le hanno chiesto di fare.
Le hanno semplicemente chiesto,
per caso, di fare la cosa sbagliata.
E questo accade di continuo, con l’IA.
L’IA può essere davvero dannosa
senza rendersene conto.
Perciò le IA che raccomandano
nuovi contenuti su Facebook, su YouTube,
sono ottimizzate per accrescere
il numero di click e visualizzazioni.
E un modo che hanno trovato
per riuscirci, sfortunatamente,
è di raccomandare i contenuti
di complottismo e bigottismo.
Le IA stesse non hanno alcuna idea
di cosa sia realmente quel contenuto,
e non hanno alcuna idea
di quali possano essere le conseguenze,
nel raccomandarlo.
Quando lavoriamo con un’IA, quindi,
sta a noi evitare i problemi.
Ed evitare che le cose vadano male,
il che in sostanza ci riporta
all'annoso problema della comunicazione,
per cui noi umani dobbiamo imparare
a comunicare con l’IA.
Dobbiamo imparare cosa l’IA
sa fare bene e cosa no
e capire che, con il suo minuscolo
cervello da vermiciattolo,
l’IA non capisce che cosa
le stiamo chiedendo di fare.
Dobbiamo imparare, in altre parole,
a saper lavorare con l’IA "vera",
che non è l’IA super competente
e onnisciente della fantascienza.
Dobbiamo essere preparati a lavorare
con l’IA che abbiamo oggi.
E allo stato attuale,
l'IA è già bizzarra a sufficienza.
Grazie.
(Applausi)