Quando ero piccolo, ero la quintessenza dell'essere nerd. Penso che anche alcuni di voi lo fossero. (Risate) E lei, che ride più forte degli altri, probabilmente lo è ancora. (Risate) Sono cresciuto in una piccola città nelle piane polverose del nord Texas, figlio di uno sceriffo che era figlio di un pastore. Mettersi nei guai non era contemplato. Quindi ho iniziato a leggere libri di calcolo per divertimento. (Risate) Lo avete fatto anche voi. Ciò mi ha portato a costruire un laser, un computer e modellini di razzi, e poi a creare del propellente per razzi nella mia stanza. Ora, in termini scientifici, questa si chiama "una pessima idea". (Risate) All'incirca in quel periodo, "2001: Odissea nello spazio" di Kubrick, usciva nei cinema e lì la mia vita cambiò per sempre. Ho amato tutto di quel film, specialmente HAL 9000. HAL era un computer senziente progettato per guidare l'astronave Discovery dalla Terra a Giove. HAL era anche un personaggio fallace, perché alla fine preferì la missione alla vita umana. HAL era un personaggio fittizio ma nonostante ciò riusciva a parlare alle nostre paure, quelle di essere soggiogati da qualche intelligenza artificiale, priva di sentimenti che è indifferente alla nostra umanità. Credo che tali paure siano infondate. Infatti, viviamo in un'epoca significativa della storia dell'umanità, in cui, guidati dal rifiuto di accettare i limiti del corpo e della mente costruiamo macchine di ricercata, bellissima complessità e grazia che espanderà l'esperienza umana in modi che non possiamo immaginare. Dopo una carriera che va dall'Air Force Academy allo Space Command a oggi, sono un ingegnere sistemista, e da poco sono stato coinvolto in un problema d'ingegneria associato alla spedizione NASA su Marte. Nelle spedizioni verso la Luna, possiamo affidarci al centro di controllo di Houston perché sorvegli la spedizione. In ogni caso, Marte è 200 volte più lontano, e perciò ci vogliono in media 13 minuti perché un segnale arrivi dalla Terra a Marte. Se si verifica un problema, non c'è abbastanza tempo. E quindi una soluzione ingegneristica ragionevole ci chiama a mettere dispositivi di controllo dentro la navicella Orion. Un'altra affascinante idea per le missioni è piazzare robot umanoidi sulla superficie di Marte prima che vi arrivino gli esseri umani, affinché facilitino il lavoro e collaborino con la squadra scientifica. Ora, lavorando da una prospettiva ingegneristica, fu molto chiaro per me che ciò che dovevo architettare era un'intelligenza artificiale brillante, collaborativa, socialmente ragionevole. In altre parole, dovevo creare qualcosa molto simile ad HAL ma senza le sue tendenze omicide. (Risate) Fermiamoci per un momento. È davvero possibile costruire un'intelligenza artificiale come quella? In effetti sì. Sotto molti aspetti, è un complesso problema ingegneristico con elementi di IA, non un inestricabile problema di IA che ha bisogno dell'ingegneria. Parafrasando Alan Turing, non voglio costruire una macchina senziente. Non sto costruendo un HAL. Ciò che cerco è un semplice cervello, qualcosa che offra l'illusione dell'intelligenza. L'arte e la scienza dell'elaborazione dati ha fatto molta strada da quando è apparso HAL, e immagino che se il suo inventore, il Dott. Chandra, fosse qui oggi avrebbe un sacco di domande per noi. È davvero possibile per noi prendere un sistema di milioni e milioni di dispositivi, leggere le loro sequenze dati, prevedere i loro fallimenti e azioni in anticipo? Sì. Possiamo costruire sistemi che conversino con noi in linguaggio naturale? Sì. Sistemi che riconoscano oggetti, identifichino emozioni, si emozionino a loro volta, giochino e leggano persino il labiale? Sì. Un sistema che ponga degli obiettivi, che pianifichi in base ad essi e che impari strada facendo? Sì. Costruire sistemi che abbiano una teoria della mente? Stiamo imparando a farlo. Possiamo costruire sistemi che abbiano un'etica e una morale? Dobbiamo imparare a farlo. Accettiamo per un momento che si possa costruire una simile intelligenza artificiale per questo tipo di missioni o per altre. La domanda successiva che dovete porvi è: dovremmo averne paura? Qualsiasi nuova tecnologia porta con sé un po' di apprensione. Quando arrivarono le prime auto, la gente temeva di assistere alla distruzione della famiglia. Quando arrivarono i telefoni, si preoccupò per la fine della conversazione civile. E, quando assistette alla diffusione della scrittura, la gente pensò di perdere la capacità di memorizzare. Tutto questo è vero fino a un certo punto, ma si dà anche il caso che queste tecnologie ci abbiano portato cose che hanno allargato l'esperienza umana profondamente. Approfondiamo la questione. Non ho paura della creazione di un'IA come questa, perché alla fine incarnerà alcuni dei nostri valori. Considerate questo: costruire un sistema cognitivo è molto diverso dal costruire un sistema software intensivo tradizionale del passato. Non li programmiamo ma insegniamo loro. Per insegnare a un sistema a riconoscere i fiori, gli mostro migliaia di fiori, dei tipi che piacciono a me. Per insegnare a un sistema a giocare a un gioco -- beh lo farei, farei anche questo. Mi piacciono i fiori. Andiamo. Per insegnare a un sistema a giocare a un gioco come Go, devo fargli fare migliaia di partite a Go, e nel frattempo gli insegno anche a distinguere un buon gioco da un gioco cattivo. Se voglio creare un assistente legale artificialmente intelligente, gli insegnerò il corpus legislativo ma allo stesso tempo gli infonderò il senso di pietà e giustizia che è parte di quella legge. In termini scientifici definiamo tutto questo "ground truth", e questo è il punto fondamentale: nel produrre queste macchine, insegniamo anche loro il senso dei nostri valori. Con questo fine, mi fido di un'intelligenza artificiale come, se non di più, mi fido di un essere umano ben istruito. Ma, potreste chiedere, che ne è degli agenti corrotti, di qualche organizzazione non governativa ben finanziata? Non ho paura di un'intelligenza artificiale in mano a un lupo solitario. È ovvio, non possiamo proteggerci da tutti gli arbitrari atti di violenza, ma la realtà è che un simile sistema richiede un allenamento tanto acuto da andare ben oltre le risorse di un individuo. E inoltre, è molto più che iniettare un virus via internet al mondo, dove premi un bottone e subito lo ritrovi in milioni di posti e i computer iniziano ovunque ad andare in tilt. Questo tipo di elementi è molto più complesso e certamente lo sperimenteremo. Ho paura che una simile intelligenza artificiale possa minacciare tutta l'umanità? Se guardate film come "Matrix", "Metropolis", "Terminator", show come "Westworld", tutti parlano di questo tipo di paura. Infatti, nel libro "Superintelligence" del filosofo Nick Bostrom, l'autore considera questo tema e osserva che una super intelligenza potrebbe non solo essere pericolosa, ma rappresentare anche una minaccia esistenziale per tutta l'umanità. La principale argomentazione del Dott. Bostrom è che tali sistemi potrebbero prima o poi avere una sete tale di informazioni che potrebbero forse imparare come si impara e anche scoprire che potrebbero avere obiettivi contrari ai bisogni umani. Bostrom ha un gran numero di seguaci. È supportato da persone come Elon Musk e Stephen Hawking. Con tutto il rispetto dovuto a queste menti brillanti, credo che siano gravemente in errore. Ci sarebbero molte parti della teoria di Bostrom da analizzare, e non ho il tempo di analizzarle tutte, ma molto brevemente, considerate questo: una grande conoscenza è diversa da una grande capacità di azione. HAL era una minaccia per l'equipaggio solo finché controllava tutti gli aspetti del Discovery. Quindi avrebbe dovuto avere una super intelligenza. Avrebbe dovuto dominare tutto il mondo. Questa è la squadra Skynet dal film "Terminator" in cui abbiamo una super intelligenza che domina la volontà umana e ogni congegno in ogni parte del mondo. In pratica, questo non succederà. Non stiamo costruendo IA che controllino il meteo, le maree, che comandino su noi capricciosi e caotici umani. Inoltre, se una simile intelligenza artificiale esistesse, dovrebbe competere con le economie degli esseri umani, e quindi competere con noi per le risorse disponibili. E infine -- non ditelo a Siri -- possiamo sempre disattivarli. (Risate) Siamo parte di un incredibile viaggio di co-evoluzione con altre macchine. Gli esseri umani che siamo oggi non sono quelli che saremo in futuro. Preoccuparsi ora della minaccia di una super-intelligenza è per molti aspetti una distrazione pericolosa perché l'incremento della computerizzazione ci presenta una quantità di questioni umane e sociali di cui adesso dobbiamo occuparci. Come posso organizzare al meglio la società quando diminuirà la necessità del lavoro umano? Come posso fornire al mondo conoscenza ed educazione rispettando le nostre differenze? Come posso estendere e migliorare la vita umana attraverso la salute cognitiva? Come posso usare la computerizzazione per raggiungere le stelle? Ed è questa la cosa eccitante. Le opportunità di elaborare dati per affinare l'esperienza umana sono alla nostra portata, qui e adesso, e siamo solo all'inizio. Grazie mille. (Applausi)