0:00:00.760,0:00:04.600 Quando ero piccolo, ero la quintessenza[br]dell'essere nerd. 0:00:05.320,0:00:07.496 Penso che anche alcuni di voi lo fossero. 0:00:07.520,0:00:08.736 (Risate) 0:00:08.760,0:00:11.976 E lei, che ride più forte [br]degli altri, probabilmente lo è ancora. 0:00:12.000,0:00:14.256 (Risate) 0:00:14.280,0:00:17.776 Sono cresciuto in una piccola città [br]nelle piane polverose del nord Texas, 0:00:17.800,0:00:21.136 figlio di uno sceriffo che era figlio[br]di un pastore. 0:00:21.160,0:00:23.080 Mettersi nei guai non era contemplato. 0:00:24.040,0:00:27.296 Quindi ho iniziato a leggere libri [br]di calcolo per divertimento. 0:00:27.320,0:00:28.856 (Risate) 0:00:28.880,0:00:30.576 Lo avete fatto anche voi. 0:00:30.600,0:00:34.336 Ciò mi ha portato a costruire un laser,[br]un computer e modellini di razzi, 0:00:34.360,0:00:37.360 e poi a creare del propellente per razzi[br]nella mia stanza. 0:00:37.960,0:00:41.616 Ora, in termini scientifici, 0:00:41.640,0:00:44.896 questa si chiama "una pessima idea". 0:00:44.920,0:00:46.136 (Risate) 0:00:46.160,0:00:48.336 All'incirca in quel periodo, 0:00:48.360,0:00:51.656 "2001: Odissea nello spazio" di Kubrick,[br]usciva nei cinema 0:00:51.656,0:00:53.800 e lì la mia vita cambiò per sempre. 0:00:54.280,0:00:56.336 Ho amato tutto di quel film, 0:00:56.360,0:00:58.896 specialmente HAL 9000. 0:00:58.920,0:01:00.976 HAL era un computer senziente 0:01:01.000,0:01:03.456 progettato per guidare [br]l'astronave Discovery 0:01:03.480,0:01:06.016 dalla Terra a Giove. 0:01:06.040,0:01:08.096 HAL era anche un personaggio fallace, 0:01:08.120,0:01:12.400 perché alla fine preferì [br]la missione alla vita umana. 0:01:12.840,0:01:14.936 HAL era un personaggio fittizio 0:01:14.960,0:01:17.616 ma nonostante ciò riusciva [br]a parlare alle nostre paure, 0:01:17.640,0:01:19.736 quelle di essere soggiogati 0:01:19.760,0:01:22.776 da qualche intelligenza artificiale,[br]priva di sentimenti 0:01:22.800,0:01:24.760 che è indifferente alla nostra umanità. 0:01:25.880,0:01:28.456 Credo che tali paure siano infondate. 0:01:28.480,0:01:31.176 Infatti, viviamo in un'epoca significativa 0:01:31.200,0:01:32.736 della storia dell'umanità, 0:01:32.760,0:01:37.816 in cui, guidati dal rifiuto di accettare[br]i limiti del corpo e della mente 0:01:37.816,0:01:39.456 costruiamo macchine 0:01:39.480,0:01:43.096 di ricercata, bellissima complessità[br]e grazia 0:01:43.120,0:01:45.176 che espanderà l'esperienza umana 0:01:45.200,0:01:46.880 in modi che non possiamo[br]immaginare. 0:01:47.720,0:01:50.296 Dopo una carriera che va[br]dall'Air Force Academy 0:01:50.320,0:01:52.256 allo Space Command a oggi, 0:01:52.280,0:01:53.976 sono un ingegnere sistemista, 0:01:54.000,0:01:56.736 e da poco sono stato coinvolto[br]in un problema d'ingegneria 0:01:56.760,0:01:59.336 associato alla spedizione NASA su Marte. 0:01:59.360,0:02:01.856 Nelle spedizioni verso la Luna, 0:02:01.880,0:02:05.016 possiamo affidarci [br]al centro di controllo di Houston 0:02:05.040,0:02:07.016 perché sorvegli la spedizione. 0:02:07.040,0:02:10.576 In ogni caso, Marte è 200 volte[br]più lontano, 0:02:10.600,0:02:13.816 e perciò ci vogliono in media[br]13 minuti 0:02:13.840,0:02:16.976 perché un segnale arrivi[br]dalla Terra a Marte. 0:02:17.000,0:02:20.400 Se si verifica un problema,[br]non c'è abbastanza tempo. 0:02:20.840,0:02:23.336 E quindi una soluzione ingegneristica[br]ragionevole 0:02:23.360,0:02:25.936 ci chiama a mettere dispositivi[br]di controllo 0:02:25.960,0:02:28.976 dentro la navicella Orion. 0:02:29.000,0:02:31.896 Un'altra affascinante idea per le missioni[br] 0:02:31.920,0:02:34.816 è piazzare robot umanoidi [br]sulla superficie di Marte 0:02:34.840,0:02:36.696 prima che vi arrivino gli esseri umani, 0:02:36.720,0:02:38.376 affinché facilitino il lavoro 0:02:38.400,0:02:41.760 e collaborino [br]con la squadra scientifica. 0:02:43.400,0:02:46.136 Ora, lavorando [br]da una prospettiva ingegneristica, 0:02:46.160,0:02:49.336 fu molto chiaro per me che ciò[br]che dovevo architettare 0:02:49.360,0:02:51.440 era un'intelligenza artificiale 0:02:51.440,0:02:53.936 brillante, collaborativa, [br]socialmente ragionevole. 0:02:53.960,0:02:58.256 In altre parole, dovevo creare[br]qualcosa molto simile ad HAL 0:02:58.280,0:03:00.696 ma senza le sue tendenze omicide. 0:03:00.720,0:03:02.080 (Risate) 0:03:02.920,0:03:04.736 Fermiamoci per un momento. 0:03:04.760,0:03:08.656 È davvero possibile costruire[br]un'intelligenza artificiale come quella? 0:03:08.680,0:03:10.136 In effetti sì. 0:03:10.160,0:03:11.416 Sotto molti aspetti, 0:03:11.440,0:03:13.416 è un complesso problema ingegneristico 0:03:13.440,0:03:14.896 con elementi di IA, 0:03:14.920,0:03:19.616 non un inestricabile problema di IA[br]che ha bisogno dell'ingegneria. 0:03:19.640,0:03:22.296 Parafrasando Alan Turing, 0:03:22.320,0:03:24.696 non voglio costruire[br]una macchina senziente. 0:03:24.720,0:03:26.296 Non sto costruendo un HAL. 0:03:26.320,0:03:28.736 Ciò che cerco è un semplice cervello, 0:03:28.760,0:03:31.880 qualcosa che offra l'illusione[br]dell'intelligenza. 0:03:33.000,0:03:36.136 L'arte e la scienza dell'elaborazione dati[br]ha fatto molta strada 0:03:36.160,0:03:37.656 da quando è apparso HAL, 0:03:37.680,0:03:40.936 e immagino che se il suo inventore, [br]il Dott. Chandra, fosse qui oggi 0:03:40.936,0:03:43.256 avrebbe un sacco di domande per noi. 0:03:43.280,0:03:45.376 È davvero possibile per noi 0:03:45.400,0:03:49.416 prendere un sistema di milioni [br]e milioni di dispositivi, 0:03:49.440,0:03:50.896 leggere le loro sequenze dati, 0:03:50.920,0:03:53.286 prevedere i loro fallimenti [br]e azioni in anticipo? 0:03:53.286,0:03:54.370 Sì. 0:03:54.370,0:03:57.856 Possiamo costruire sistemi che conversino[br]con noi in linguaggio naturale? 0:03:57.886,0:03:58.856 Sì. 0:03:58.880,0:04:01.856 Sistemi che riconoscano oggetti,[br]identifichino emozioni, 0:04:01.880,0:04:05.256 si emozionino a loro volta,[br]giochino e leggano persino il labiale? 0:04:05.280,0:04:06.496 Sì. 0:04:06.520,0:04:08.656 Un sistema che ponga degli obiettivi, 0:04:08.680,0:04:12.296 che pianifichi in base ad essi[br]e che impari strada facendo? 0:04:12.320,0:04:13.536 Sì. 0:04:13.560,0:04:16.896 Costruire sistemi che abbiano[br]una teoria della mente? 0:04:16.920,0:04:18.416 Stiamo imparando a farlo. 0:04:18.440,0:04:21.920 Possiamo costruire sistemi che abbiano[br]un'etica e una morale? 0:04:22.480,0:04:24.520 Dobbiamo imparare a farlo. 0:04:25.360,0:04:26.736 Accettiamo per un momento 0:04:26.760,0:04:29.656 che si possa costruire una simile[br]intelligenza artificiale 0:04:29.680,0:04:31.816 per questo tipo di missioni o per altre. 0:04:31.840,0:04:34.376 La domanda successiva che dovete porvi è: 0:04:34.400,0:04:35.856 dovremmo averne paura? 0:04:35.880,0:04:37.856 Qualsiasi nuova tecnologia 0:04:37.880,0:04:40.776 porta con sé un po' di apprensione. 0:04:40.800,0:04:42.496 Quando arrivarono le prime auto, 0:04:42.520,0:04:46.536 la gente temeva di assistere[br]alla distruzione della famiglia. 0:04:46.560,0:04:49.256 Quando arrivarono i telefoni, 0:04:49.280,0:04:52.176 si preoccupò per la fine[br]della conversazione civile. 0:04:52.200,0:04:56.136 E, quando assistette alla[br]diffusione della scrittura, 0:04:56.160,0:04:58.656 la gente pensò di perdere[br]la capacità di memorizzare. 0:04:58.680,0:05:00.736 Tutto questo è vero [br]fino a un certo punto, 0:05:00.760,0:05:03.176 ma si dà anche il caso [br]che queste tecnologie 0:05:03.200,0:05:06.576 ci abbiano portato cose [br]che hanno allargato l'esperienza umana 0:05:06.600,0:05:08.480 profondamente. 0:05:09.840,0:05:12.120 Approfondiamo la questione. 0:05:13.120,0:05:17.856 Non ho paura della creazione di un'IA[br]come questa, 0:05:17.880,0:05:21.696 perché alla fine incarnerà alcuni[br]dei nostri valori. 0:05:21.720,0:05:25.216 Considerate questo: costruire [br]un sistema cognitivo è molto diverso 0:05:25.240,0:05:28.536 dal costruire un sistema software intensivo [br]tradizionale del passato. 0:05:28.560,0:05:31.016 Non li programmiamo ma insegniamo loro. 0:05:31.040,0:05:33.696 Per insegnare a un sistema [br]a riconoscere i fiori, 0:05:33.720,0:05:36.736 gli mostro migliaia di fiori, dei tipi [br]che piacciono a me. 0:05:36.760,0:05:39.016 Per insegnare a un sistema [br]a giocare a un gioco -- 0:05:39.040,0:05:41.000 beh lo farei, farei anche questo. 0:05:42.600,0:05:44.640 Mi piacciono i fiori. Andiamo. 0:05:45.440,0:05:48.296 Per insegnare a un sistema a giocare[br]a un gioco come Go, 0:05:48.320,0:05:50.376 devo fargli fare migliaia di partite a Go, 0:05:50.400,0:05:52.056 e nel frattempo gli insegno anche 0:05:52.080,0:05:54.496 a distinguere un buon gioco [br]da un gioco cattivo. 0:05:54.520,0:05:58.216 Se voglio creare un assistente legale[br]artificialmente intelligente, 0:05:58.240,0:06:00.016 gli insegnerò il corpus legislativo 0:06:00.040,0:06:02.896 ma allo stesso tempo gli infonderò 0:06:02.920,0:06:05.800 il senso di pietà e giustizia [br]che è parte di quella legge. 0:06:06.560,0:06:09.536 In termini scientifici definiamo tutto[br]questo "ground truth", 0:06:09.560,0:06:11.576 e questo è il punto fondamentale: 0:06:11.600,0:06:13.056 nel produrre queste macchine, 0:06:13.080,0:06:16.496 insegniamo anche loro [br]il senso dei nostri valori. 0:06:16.520,0:06:19.656 Con questo fine, mi fido [br]di un'intelligenza artificiale 0:06:19.680,0:06:23.320 come, se non di più, mi fido [br]di un essere umano ben istruito. 0:06:24.080,0:06:25.296 Ma, potreste chiedere, 0:06:25.320,0:06:27.936 che ne è degli agenti corrotti, 0:06:27.960,0:06:31.296 di qualche organizzazione non governativa[br]ben finanziata? 0:06:31.320,0:06:35.136 Non ho paura di un'intelligenza[br]artificiale in mano a un lupo solitario. 0:06:35.160,0:06:39.696 È ovvio, non possiamo proteggerci[br]da tutti gli arbitrari atti di violenza, 0:06:39.720,0:06:41.856 ma la realtà è che un simile sistema 0:06:41.880,0:06:44.976 richiede un allenamento tanto acuto 0:06:45.000,0:06:47.296 da andare ben oltre le risorse [br]di un individuo. 0:06:47.320,0:06:48.536 E inoltre, 0:06:48.560,0:06:51.816 è molto più che iniettare un virus [br]via internet al mondo, 0:06:51.840,0:06:54.936 dove premi un bottone e subito[br]lo ritrovi in milioni di posti 0:06:54.960,0:06:57.416 e i computer iniziano ovunque[br]ad andare in tilt. 0:06:57.440,0:07:00.256 Questo tipo di elementi [br]è molto più complesso 0:07:00.280,0:07:01.995 e certamente lo sperimenteremo. 0:07:02.520,0:07:05.576 Ho paura che una simile[br]intelligenza artificiale 0:07:05.600,0:07:07.560 possa minacciare tutta l'umanità? 0:07:08.280,0:07:12.656 Se guardate film come[br]"Matrix", "Metropolis", 0:07:12.680,0:07:15.856 "Terminator", show come[br]"Westworld", 0:07:15.880,0:07:18.016 tutti parlano di questo tipo di paura. 0:07:18.040,0:07:22.336 Infatti, nel libro "Superintelligence"[br]del filosofo Nick Bostrom, 0:07:22.360,0:07:23.896 l'autore considera questo tema 0:07:23.920,0:07:27.936 e osserva che una super intelligenza[br]potrebbe non solo essere pericolosa, 0:07:27.960,0:07:31.816 ma rappresentare anche una minaccia[br]esistenziale per tutta l'umanità. 0:07:31.840,0:07:34.056 La principale argomentazione del[br]Dott. Bostrom 0:07:34.080,0:07:36.816 è che tali sistemi potrebbero prima o poi 0:07:36.840,0:07:40.096 avere una sete tale di informazioni 0:07:40.120,0:07:43.016 che potrebbero forse imparare [br]come si impara 0:07:43.040,0:07:45.656 e anche scoprire che potrebbero[br]avere obiettivi 0:07:45.680,0:07:47.976 contrari ai bisogni umani. 0:07:48.000,0:07:49.856 Bostrom ha un gran numero[br]di seguaci. 0:07:49.880,0:07:54.200 È supportato da persone come[br]Elon Musk e Stephen Hawking. 0:07:54.880,0:07:57.280 Con tutto il rispetto dovuto 0:07:58.160,0:08:00.176 a queste menti brillanti, 0:08:00.200,0:08:02.456 credo che siano gravemente in errore. 0:08:02.480,0:08:05.656 Ci sarebbero molte parti della teoria[br]di Bostrom da analizzare, 0:08:05.680,0:08:07.816 e non ho il tempo di analizzarle tutte, 0:08:07.840,0:08:10.536 ma molto brevemente, considerate questo: 0:08:10.560,0:08:14.296 una grande conoscenza è diversa [br]da una grande capacità di azione. 0:08:14.320,0:08:16.216 HAL era una minaccia per l'equipaggio 0:08:16.240,0:08:20.656 solo finché controllava tutti gli aspetti[br]del Discovery. 0:08:20.680,0:08:23.176 Quindi avrebbe dovuto avere[br]una super intelligenza. 0:08:23.200,0:08:25.696 Avrebbe dovuto dominare tutto[br]il mondo. 0:08:25.720,0:08:28.536 Questa è la squadra Skynet dal[br]film "Terminator" 0:08:28.560,0:08:30.416 in cui abbiamo una super intelligenza 0:08:30.440,0:08:31.816 che domina la volontà umana 0:08:31.840,0:08:35.696 e ogni congegno in ogni parte del mondo. 0:08:35.720,0:08:37.176 In pratica, 0:08:37.200,0:08:39.296 questo non succederà. 0:08:39.320,0:08:42.376 Non stiamo costruendo IA [br]che controllino il meteo, 0:08:42.400,0:08:43.736 le maree, 0:08:43.760,0:08:47.136 che comandino su noi capricciosi[br]e caotici umani. 0:08:47.160,0:08:51.056 Inoltre, se una simile intelligenza[br]artificiale esistesse, 0:08:51.080,0:08:54.016 dovrebbe competere con le economie[br]degli esseri umani, 0:08:54.040,0:08:56.560 e quindi competere con noi[br]per le risorse disponibili. 0:08:57.200,0:08:58.416 E infine -- 0:08:58.440,0:08:59.680 non ditelo a Siri -- 0:09:00.440,0:09:01.816 possiamo sempre disattivarli. 0:09:01.840,0:09:03.960 (Risate) 0:09:05.360,0:09:07.816 Siamo parte di un incredibile viaggio 0:09:07.840,0:09:10.336 di co-evoluzione con altre macchine. 0:09:10.360,0:09:12.856 Gli esseri umani che siamo oggi 0:09:12.880,0:09:15.416 non sono quelli che saremo in futuro. 0:09:15.440,0:09:18.576 Preoccuparsi ora della minaccia [br]di una super-intelligenza 0:09:18.600,0:09:21.656 è per molti aspetti [br]una distrazione pericolosa 0:09:21.680,0:09:24.016 perché l'incremento della[br]computerizzazione 0:09:24.040,0:09:27.056 ci presenta una quantità di questioni[br]umane e sociali 0:09:27.080,0:09:28.720 di cui adesso dobbiamo occuparci. 0:09:29.360,0:09:32.176 Come posso organizzare al meglio[br]la società 0:09:32.200,0:09:34.536 quando diminuirà la necessità[br]del lavoro umano? 0:09:34.560,0:09:38.376 Come posso fornire al mondo[br]conoscenza ed educazione 0:09:38.400,0:09:40.176 rispettando le nostre differenze? 0:09:40.200,0:09:44.456 Come posso estendere e migliorare la vita[br]umana attraverso la salute cognitiva? 0:09:44.480,0:09:47.336 Come posso usare la computerizzazione 0:09:47.360,0:09:49.120 per raggiungere le stelle? 0:09:49.760,0:09:51.800 Ed è questa la cosa eccitante. 0:09:52.400,0:09:54.736 Le opportunità di elaborare dati 0:09:54.760,0:09:56.296 per affinare l'esperienza umana 0:09:56.320,0:09:57.736 sono alla nostra portata, 0:09:57.760,0:09:59.616 qui e adesso, 0:09:59.640,0:10:01.320 e siamo solo all'inizio. 0:10:02.280,0:10:03.496 Grazie mille. 0:10:03.520,0:10:07.806 (Applausi)