L’intelligenza artificiale è notoriamente capace di sconvolgere tutte le industrie in cui entra in azione. Che ne dite di applicarla al gelato? Che razza di nuovi, strabilianti sapori potremmo generare sfruttando un’intelligenza artificiale avanzata? Ho collaborato con dei programmatori della Kealing Middle School per trovare la risposta a questa domanda. Hanno raccolto oltre 1.600 gusti di gelato esistenti, che abbiamo inserito in un algoritmo per vedere cosa avrebbe generato. Ecco alcuni dei gusti creati dall’IA: [Merenda di spazzatura alla zucca] (Risate) [Melma al burro di arachidi] [Malattia alla crema di fragole] (Risate) Non proprio le suggestioni invitanti che speravamo di ricevere. La domanda sorge spontanea: cos’è successo? Che cosa è andato storto? L’IA sta cercando di ucciderci? O ha fatto quello che abbiamo chiesto, e si è verificato un problema? Nei film, quando qualcosa va storto con l’IA, di solito è perché l’IA stessa ha deciso che non vuole più obbedire agli umani, ma perseguire i propri obiettivi, e al diavolo tutti! Tuttavia, nella vita reale, l’IA di cui effettivamente disponiamo non è così intelligente da poterlo fare. Ha approssimativamnte la potenza di calcolo di un lombrico, o al massimo di una singola ape, probabilmente anche meno. Scopriamo continuamente cose nuove sul cervello umano, che possiamo tranquillamente affermare non essere all’altezza di un’IA. L’IA di oggi, quindi, identifica un pedone in una foto, ma non ha idea di cosa sia un pedone al di là di un insieme di linee, trame ed altro. Di fatto, non sa cosa sia un essere umano. Quindi l’IA di oggi farà quello che le chiediamo di fare? Lo farà se potrà, ma potrebbe non fare ciò che davvero vogliamo. Mettiamo che stiate cercando di indurre un'IA a prendere questo insieme di parti di robot e assemblarli in una specie di robot per andare dal punto A al punto B. Se voleste provare a risolvere questo problema scrivendo un programma informatico in stile tradizionale, fornireste al programma istruzioni dettagliate su come prendere queste parti, assemblarle in un robot con le gambe e infine usare queste gambe per raggiungere il punto B. Ma quando usate l’IA per risolvere il problema, le cose vanno diversamente. Non le spiegate come risolvere il problema: le date solo l'obiettivo, e sarà lei a capire da sola, attraverso tentativi ed errori, come raggiungere quell’obiettivo. Si scopre così che l’IA tende a risolvere questo particolare problema facendo così: assembla se stessa in una torre, fino a cadere e atterrare sul punto B. Tecnicamente, questo risolve il problema. Teoricamente, ha raggiunto il punto B. La minaccia dell’IA non è data dal fatto che questa possa ribellarsi a noi, ma piuttosto che faccia esattamente quello che le chiediamo di fare. Per lavorare con l’IA, quindi, la vera questione diventa: come possiamo impostare il problema in modo che faccia ciò che vogliamo? Questo piccolo robot è controllato da un’intelligenza artificiale. L’IA ha elaborato una struttura per le gambe del robot e ha immaginato come muoverle per farle superare tutti quegli ostacoli. Ma quando David Ha ha avviato questo esperimento, ha dovuto stabilire dei limiti severissimi entro i quali all’IA era permesso realizzare le gambe, perché altrimenti... (Risate) E tecnicamente, è arrivata alla fine di quella corsa ad ostacoli. Vedete quanto è difficile far fare all’IA una cosa semplice come camminare. Vedendo l’IA fare tutto questo, potreste pensare: "Ok, non va bene, non puoi pensare di essere una torre alta e cadere; devi usare le gambe per camminare. Ma a quanto pare, neanche questo sempre funziona. Il compito di questa IA era muoversi velocemente. Non le hanno detto che doveva correre guardando avanti, o che non poteva utilizzare le braccia. Questo è ciò che ottenete se istruite l’IA a muoversi velocemente, cose tipo capriole o camminate strambe. È molto frequente. Lo è anche ammucchiarsi sul pavimento muovendosi a scatti. (Risate) Quindi, secondo me, sapete cosa sarebbe stato ancora più strano? Il robot “Terminator”. Modificare “The Matrix” è un’altra cosa che l’IA farà, potendo. Se addestrate un’IA in una simulazione, imparerà ad accedere agli errori di matematica della simulazione e a farne tesoro per avere energia. Oppure capirà come andare più veloce muovendosi a scatti sul pavimento. Lavorare con l’IA è diverso dal lavorare con un altro essere umano: e più simile al lavorare con una strana forza della natura. È molto facile darle accidentalmente il problema sbagliato da risolvere, e spesso non ce ne rendiamo conto finché qualcosa non va storto. Ecco un esperimento che ho fatto, in cui volevo che l’IA copiasse i colori della vernice, per inventarne di nuovi, prendendoli dalla lista di quelli qui a sinistra. Ed ecco quello che l’IA ha effettivamente creato: "Pupù Sindhi, Merdolino, Sofferenza, Grigio Pubico" (Risate) Quindi, tecnicamente, ha fatto quello che le ho chiesto. Io pensavo di averle chiesto dei nomi di colori di vernice carini, ma in realtà quello che stavo chiedendo era solo di imitare il tipo di combinazioni di lettere che aveva visto nell’originale. Non le ho detto nulla sul significato delle parole, o che ci siano forse delle parole che dovrebbe evitare di utilizzare per questi colori di vernice. Perciò, le informazioni che le ho dato rappresentano tutto il suo mondo. Come con i gusti del gelato, l'IA non conosce nient’altro. È con le informazioni che spesso istruiamo l’IA, senza volerlo, a fare la cosa sbagliata. Questo è un pesce chiamato tinca. C’è stato un gruppo di ricercatori che ha addestrato un’IA a riconoscere questa tinca nelle foto. Ma quando le hanno chiesto quale parte dell'immagine stesse usando per identificare il pesce, questo è quello che ha evidenziato. Sì, quelle sono dita umane. Perché dovrebbe cercare dita umane, se sta cercando di identificare un pesce? Beh, è emerso che la tinca è un trofeo di pesca, e in molte delle immagini di tinca usate per allenare l’IA il pesce appariva così. (Risate) E non sapeva che le dita non facessero parte del pesce. Capite quindi quanto è difficile progettare un'IA che riesca davvero a comprendere cosa sta guardando. Per questo progettare il riconoscimento delle immagini, in automobili a guida autonoma, è così difficile; e per questo tanti insuccessi delle auto senza conducente sono dovuti al fatto che l’IA si confonde. Vorrei citare un esempio del 2016. Ci fu un incidente mortale durante l’uso del pilota automatico di una Tesla; invece di usarlo in autostrada, per cui era stato progettato, fu usato per le strade di città. Un camion sbucò di fronte all’auto, e questa non frenò. L’IA era stata sicuramente istruita a riconoscere i camion nelle immagini. Ma a quanto pare, l’IA era stata istruita a riconoscere i camion in autostrada, dove ci si aspetta di vedere i camion arrivare da dietro, non di lato. E così, quando l’IA ha visto il camion, sembra che l’abbia identificato come più simile ad un cartello stradale, sicura di potergli passare sotto. Ecco un altro passo falso dell’IA, in un altro settore. Amazon ha recentemente rinunciato a un algoritmo di selezione di curricula, su cui stava lavorando, quando ha scoperto che l’algoritmo aveva imparato a discriminare le donne. Si è scoperto che l’avevano istruito basandosi su modelli di curricula di persone assunte in passato. Da questi esempi, l’IA ha imparato ad evitare i cv delle persone che avevano frequentato università femminili, o che avevano la parola "donne" da qualche parte nei loro cv, come in "Squadra di Calcio delle Donne" o "Società delle Donne Ingegnere". L’IA non sapeva di dover correggere questa discriminazione appresa da noi. Tecnicamente, ha fatto quello che le hanno chiesto di fare. Le hanno semplicemente chiesto, per caso, di fare la cosa sbagliata. E questo accade di continuo, con l’IA. L’IA può essere davvero dannosa senza rendersene conto. Perciò le IA che raccomandano nuovi contenuti su Facebook, su YouTube, sono ottimizzate per accrescere il numero di click e visualizzazioni. E un modo che hanno trovato per riuscirci, sfortunatamente, è di raccomandare i contenuti di complottismo e bigottismo. Le IA stesse non hanno alcuna idea di cosa sia realmente quel contenuto, e non hanno alcuna idea di quali possano essere le conseguenze, nel raccomandarlo. Quando lavoriamo con un’IA, quindi, sta a noi evitare i problemi. Ed evitare che le cose vadano male, il che in sostanza ci riporta all'annoso problema della comunicazione, per cui noi umani dobbiamo imparare a comunicare con l’IA. Dobbiamo imparare cosa l’IA sa fare bene e cosa no e capire che, con il suo minuscolo cervello da vermiciattolo, l’IA non capisce che cosa le stiamo chiedendo di fare. Dobbiamo imparare, in altre parole, a saper lavorare con l’IA "vera", che non è l’IA super competente e onnisciente della fantascienza. Dobbiamo essere preparati a lavorare con l’IA che abbiamo oggi. E allo stato attuale, l'IA è già bizzarra a sufficienza. Grazie. (Applausi)