WEBVTT 00:00:00.760 --> 00:00:04.600 Quando ero piccolo, ero la quintessenza dell'essere nerd. 00:00:05.320 --> 00:00:07.496 Penso che anche alcuni di voi lo fossero. NOTE Paragraph 00:00:07.520 --> 00:00:08.736 (Risate) NOTE Paragraph 00:00:08.760 --> 00:00:11.976 E lei, che ride più forte degli altri, probabilmente lo è ancora. NOTE Paragraph 00:00:12.000 --> 00:00:14.256 (Risate) NOTE Paragraph 00:00:14.280 --> 00:00:17.776 Sono cresciuto in una piccola città nelle piane polverose del nord Texas, 00:00:17.800 --> 00:00:21.136 figlio di uno sceriffo che era figlio di un pastore. 00:00:21.160 --> 00:00:23.080 Mettersi nei guai non era contemplato. 00:00:24.040 --> 00:00:27.296 Quindi ho iniziato a leggere libri di calcolo per divertimento. NOTE Paragraph 00:00:27.320 --> 00:00:28.856 (Risate) NOTE Paragraph 00:00:28.880 --> 00:00:30.576 Lo avete fatto anche voi. 00:00:30.600 --> 00:00:34.336 Ciò mi ha portato a costruire un laser, un computer e modellini di razzi, 00:00:34.360 --> 00:00:37.360 e poi a creare del propellente per razzi nella mia stanza. 00:00:37.960 --> 00:00:41.616 Ora, in termini scientifici, 00:00:41.640 --> 00:00:44.896 questa si chiama "una pessima idea". NOTE Paragraph 00:00:44.920 --> 00:00:46.136 (Risate) NOTE Paragraph 00:00:46.160 --> 00:00:48.336 All'incirca in quel periodo, 00:00:48.360 --> 00:00:51.656 "2001: Odissea nello spazio" di Kubrick, usciva nei cinema 00:00:51.656 --> 00:00:53.800 e lì la mia vita cambiò per sempre. 00:00:54.280 --> 00:00:56.336 Ho amato tutto di quel film, 00:00:56.360 --> 00:00:58.896 specialmente HAL 9000. 00:00:58.920 --> 00:01:00.976 HAL era un computer senziente 00:01:01.000 --> 00:01:03.456 progettato per guidare l'astronave Discovery 00:01:03.480 --> 00:01:06.016 dalla Terra a Giove. 00:01:06.040 --> 00:01:08.096 HAL era anche un personaggio fallace, 00:01:08.120 --> 00:01:12.400 perché alla fine preferì la missione alla vita umana. 00:01:12.840 --> 00:01:14.936 HAL era un personaggio fittizio 00:01:14.960 --> 00:01:17.616 ma nonostante ciò riusciva a parlare alle nostre paure, 00:01:17.640 --> 00:01:19.736 quelle di essere soggiogati 00:01:19.760 --> 00:01:22.776 da qualche intelligenza artificiale, priva di sentimenti 00:01:22.800 --> 00:01:24.760 che è indifferente alla nostra umanità. NOTE Paragraph 00:01:25.880 --> 00:01:28.456 Credo che tali paure siano infondate. 00:01:28.480 --> 00:01:31.176 Infatti, viviamo in un'epoca significativa 00:01:31.200 --> 00:01:32.736 della storia dell'umanità, 00:01:32.760 --> 00:01:37.816 in cui, guidati dal rifiuto di accettare i limiti del corpo e della mente 00:01:37.816 --> 00:01:39.456 costruiamo macchine 00:01:39.480 --> 00:01:43.096 di ricercata, bellissima complessità e grazia 00:01:43.120 --> 00:01:45.176 che espanderà l'esperienza umana 00:01:45.200 --> 00:01:46.880 in modi che non possiamo immaginare. NOTE Paragraph 00:01:47.720 --> 00:01:50.296 Dopo una carriera che va dall'Air Force Academy 00:01:50.320 --> 00:01:52.256 allo Space Command a oggi, 00:01:52.280 --> 00:01:53.976 sono un ingegnere sistemista, 00:01:54.000 --> 00:01:56.736 e da poco sono stato coinvolto in un problema d'ingegneria 00:01:56.760 --> 00:01:59.336 associato alla spedizione NASA su Marte. 00:01:59.360 --> 00:02:01.856 Nelle spedizioni verso la Luna, 00:02:01.880 --> 00:02:05.016 possiamo affidarci al centro di controllo di Houston 00:02:05.040 --> 00:02:07.016 perché sorvegli la spedizione. 00:02:07.040 --> 00:02:10.576 In ogni caso, Marte è 200 volte più lontano, 00:02:10.600 --> 00:02:13.816 e perciò ci vogliono in media 13 minuti 00:02:13.840 --> 00:02:16.976 perché un segnale arrivi dalla Terra a Marte. 00:02:17.000 --> 00:02:20.400 Se si verifica un problema, non c'è abbastanza tempo. 00:02:20.840 --> 00:02:23.336 E quindi una soluzione ingegneristica ragionevole 00:02:23.360 --> 00:02:25.936 ci chiama a mettere dispositivi di controllo 00:02:25.960 --> 00:02:28.976 dentro la navicella Orion. 00:02:29.000 --> 00:02:31.896 Un'altra affascinante idea per le missioni 00:02:31.920 --> 00:02:34.816 è piazzare robot umanoidi sulla superficie di Marte 00:02:34.840 --> 00:02:36.696 prima che vi arrivino gli esseri umani, 00:02:36.720 --> 00:02:38.376 affinché facilitino il lavoro 00:02:38.400 --> 00:02:41.760 e collaborino con la squadra scientifica. NOTE Paragraph 00:02:43.400 --> 00:02:46.136 Ora, lavorando da una prospettiva ingegneristica, 00:02:46.160 --> 00:02:49.336 fu molto chiaro per me che ciò che dovevo architettare 00:02:49.360 --> 00:02:51.440 era un'intelligenza artificiale 00:02:51.440 --> 00:02:53.936 brillante, collaborativa, socialmente ragionevole. 00:02:53.960 --> 00:02:58.256 In altre parole, dovevo creare qualcosa molto simile ad HAL 00:02:58.280 --> 00:03:00.696 ma senza le sue tendenze omicide. NOTE Paragraph 00:03:00.720 --> 00:03:02.080 (Risate) NOTE Paragraph 00:03:02.920 --> 00:03:04.736 Fermiamoci per un momento. 00:03:04.760 --> 00:03:08.656 È davvero possibile costruire un'intelligenza artificiale come quella? 00:03:08.680 --> 00:03:10.136 In effetti sì. 00:03:10.160 --> 00:03:11.416 Sotto molti aspetti, 00:03:11.440 --> 00:03:13.416 è un complesso problema ingegneristico 00:03:13.440 --> 00:03:14.896 con elementi di IA, 00:03:14.920 --> 00:03:19.616 non un inestricabile problema di IA che ha bisogno dell'ingegneria. 00:03:19.640 --> 00:03:22.296 Parafrasando Alan Turing, 00:03:22.320 --> 00:03:24.696 non voglio costruire una macchina senziente. 00:03:24.720 --> 00:03:26.296 Non sto costruendo un HAL. 00:03:26.320 --> 00:03:28.736 Ciò che cerco è un semplice cervello, 00:03:28.760 --> 00:03:31.880 qualcosa che offra l'illusione dell'intelligenza. NOTE Paragraph 00:03:33.000 --> 00:03:36.136 L'arte e la scienza dell'elaborazione dati ha fatto molta strada 00:03:36.160 --> 00:03:37.656 da quando è apparso HAL, 00:03:37.680 --> 00:03:40.936 e immagino che se il suo inventore, il Dott. Chandra, fosse qui oggi 00:03:40.936 --> 00:03:43.256 avrebbe un sacco di domande per noi. 00:03:43.280 --> 00:03:45.376 È davvero possibile per noi 00:03:45.400 --> 00:03:49.416 prendere un sistema di milioni e milioni di dispositivi, 00:03:49.440 --> 00:03:50.896 leggere le loro sequenze dati, 00:03:50.920 --> 00:03:53.286 prevedere i loro fallimenti e azioni in anticipo? 00:03:53.286 --> 00:03:54.370 Sì. 00:03:54.370 --> 00:03:57.856 Possiamo costruire sistemi che conversino con noi in linguaggio naturale? 00:03:57.886 --> 00:03:58.856 Sì. 00:03:58.880 --> 00:04:01.856 Sistemi che riconoscano oggetti, identifichino emozioni, 00:04:01.880 --> 00:04:05.256 si emozionino a loro volta, giochino e leggano persino il labiale? 00:04:05.280 --> 00:04:06.496 Sì. 00:04:06.520 --> 00:04:08.656 Un sistema che ponga degli obiettivi, 00:04:08.680 --> 00:04:12.296 che pianifichi in base ad essi e che impari strada facendo? 00:04:12.320 --> 00:04:13.536 Sì. 00:04:13.560 --> 00:04:16.896 Costruire sistemi che abbiano una teoria della mente? 00:04:16.920 --> 00:04:18.416 Stiamo imparando a farlo. 00:04:18.440 --> 00:04:21.920 Possiamo costruire sistemi che abbiano un'etica e una morale? 00:04:22.480 --> 00:04:24.520 Dobbiamo imparare a farlo. 00:04:25.360 --> 00:04:26.736 Accettiamo per un momento 00:04:26.760 --> 00:04:29.656 che si possa costruire una simile intelligenza artificiale 00:04:29.680 --> 00:04:31.816 per questo tipo di missioni o per altre. NOTE Paragraph 00:04:31.840 --> 00:04:34.376 La domanda successiva che dovete porvi è: 00:04:34.400 --> 00:04:35.856 dovremmo averne paura? 00:04:35.880 --> 00:04:37.856 Qualsiasi nuova tecnologia 00:04:37.880 --> 00:04:40.776 porta con sé un po' di apprensione. 00:04:40.800 --> 00:04:42.496 Quando arrivarono le prime auto, 00:04:42.520 --> 00:04:46.536 la gente temeva di assistere alla distruzione della famiglia. 00:04:46.560 --> 00:04:49.256 Quando arrivarono i telefoni, 00:04:49.280 --> 00:04:52.176 si preoccupò per la fine della conversazione civile. 00:04:52.200 --> 00:04:56.136 E, quando assistette alla diffusione della scrittura, 00:04:56.160 --> 00:04:58.656 la gente pensò di perdere la capacità di memorizzare. 00:04:58.680 --> 00:05:00.736 Tutto questo è vero fino a un certo punto, 00:05:00.760 --> 00:05:03.176 ma si dà anche il caso che queste tecnologie 00:05:03.200 --> 00:05:06.576 ci abbiano portato cose che hanno allargato l'esperienza umana 00:05:06.600 --> 00:05:08.480 profondamente. NOTE Paragraph 00:05:09.840 --> 00:05:12.120 Approfondiamo la questione. 00:05:13.120 --> 00:05:17.856 Non ho paura della creazione di un'IA come questa, 00:05:17.880 --> 00:05:21.696 perché alla fine incarnerà alcuni dei nostri valori. 00:05:21.720 --> 00:05:25.216 Considerate questo: costruire un sistema cognitivo è molto diverso 00:05:25.240 --> 00:05:28.536 dal costruire un sistema software intensivo tradizionale del passato. 00:05:28.560 --> 00:05:31.016 Non li programmiamo ma insegniamo loro. 00:05:31.040 --> 00:05:33.696 Per insegnare a un sistema a riconoscere i fiori, 00:05:33.720 --> 00:05:36.736 gli mostro migliaia di fiori, dei tipi che piacciono a me. 00:05:36.760 --> 00:05:39.016 Per insegnare a un sistema a giocare a un gioco -- 00:05:39.040 --> 00:05:41.000 beh lo farei, farei anche questo. 00:05:42.600 --> 00:05:44.640 Mi piacciono i fiori. Andiamo. 00:05:45.440 --> 00:05:48.296 Per insegnare a un sistema a giocare a un gioco come Go, 00:05:48.320 --> 00:05:50.376 devo fargli fare migliaia di partite a Go, 00:05:50.400 --> 00:05:52.056 e nel frattempo gli insegno anche 00:05:52.080 --> 00:05:54.496 a distinguere un buon gioco da un gioco cattivo. 00:05:54.520 --> 00:05:58.216 Se voglio creare un assistente legale artificialmente intelligente, 00:05:58.240 --> 00:06:00.016 gli insegnerò il corpus legislativo 00:06:00.040 --> 00:06:02.896 ma allo stesso tempo gli infonderò 00:06:02.920 --> 00:06:05.800 il senso di pietà e giustizia che è parte di quella legge. 00:06:06.560 --> 00:06:09.536 In termini scientifici definiamo tutto questo "ground truth", 00:06:09.560 --> 00:06:11.576 e questo è il punto fondamentale: 00:06:11.600 --> 00:06:13.056 nel produrre queste macchine, 00:06:13.080 --> 00:06:16.496 insegniamo anche loro il senso dei nostri valori. 00:06:16.520 --> 00:06:19.656 Con questo fine, mi fido di un'intelligenza artificiale 00:06:19.680 --> 00:06:23.320 come, se non di più, mi fido di un essere umano ben istruito. NOTE Paragraph 00:06:24.080 --> 00:06:25.296 Ma, potreste chiedere, 00:06:25.320 --> 00:06:27.936 che ne è degli agenti corrotti, 00:06:27.960 --> 00:06:31.296 di qualche organizzazione non governativa ben finanziata? 00:06:31.320 --> 00:06:35.136 Non ho paura di un'intelligenza artificiale in mano a un lupo solitario. 00:06:35.160 --> 00:06:39.696 È ovvio, non possiamo proteggerci da tutti gli arbitrari atti di violenza, 00:06:39.720 --> 00:06:41.856 ma la realtà è che un simile sistema 00:06:41.880 --> 00:06:44.976 richiede un allenamento tanto acuto 00:06:45.000 --> 00:06:47.296 da andare ben oltre le risorse di un individuo. 00:06:47.320 --> 00:06:48.536 E inoltre, 00:06:48.560 --> 00:06:51.816 è molto più che iniettare un virus via internet al mondo, 00:06:51.840 --> 00:06:54.936 dove premi un bottone e subito lo ritrovi in milioni di posti 00:06:54.960 --> 00:06:57.416 e i computer iniziano ovunque ad andare in tilt. 00:06:57.440 --> 00:07:00.256 Questo tipo di elementi è molto più complesso 00:07:00.280 --> 00:07:01.995 e certamente lo sperimenteremo. NOTE Paragraph 00:07:02.520 --> 00:07:05.576 Ho paura che una simile intelligenza artificiale 00:07:05.600 --> 00:07:07.560 possa minacciare tutta l'umanità? 00:07:08.280 --> 00:07:12.656 Se guardate film come "Matrix", "Metropolis", 00:07:12.680 --> 00:07:15.856 "Terminator", show come "Westworld", 00:07:15.880 --> 00:07:18.016 tutti parlano di questo tipo di paura. 00:07:18.040 --> 00:07:22.336 Infatti, nel libro "Superintelligence" del filosofo Nick Bostrom, 00:07:22.360 --> 00:07:23.896 l'autore considera questo tema 00:07:23.920 --> 00:07:27.936 e osserva che una super intelligenza potrebbe non solo essere pericolosa, 00:07:27.960 --> 00:07:31.816 ma rappresentare anche una minaccia esistenziale per tutta l'umanità. 00:07:31.840 --> 00:07:34.056 La principale argomentazione del Dott. Bostrom 00:07:34.080 --> 00:07:36.816 è che tali sistemi potrebbero prima o poi 00:07:36.840 --> 00:07:40.096 avere una sete tale di informazioni 00:07:40.120 --> 00:07:43.016 che potrebbero forse imparare come si impara 00:07:43.040 --> 00:07:45.656 e anche scoprire che potrebbero avere obiettivi 00:07:45.680 --> 00:07:47.976 contrari ai bisogni umani. 00:07:48.000 --> 00:07:49.856 Bostrom ha un gran numero di seguaci. 00:07:49.880 --> 00:07:54.200 È supportato da persone come Elon Musk e Stephen Hawking. 00:07:54.880 --> 00:07:57.280 Con tutto il rispetto dovuto 00:07:58.160 --> 00:08:00.176 a queste menti brillanti, 00:08:00.200 --> 00:08:02.456 credo che siano gravemente in errore. 00:08:02.480 --> 00:08:05.656 Ci sarebbero molte parti della teoria di Bostrom da analizzare, 00:08:05.680 --> 00:08:07.816 e non ho il tempo di analizzarle tutte, 00:08:07.840 --> 00:08:10.536 ma molto brevemente, considerate questo: 00:08:10.560 --> 00:08:14.296 una grande conoscenza è diversa da una grande capacità di azione. 00:08:14.320 --> 00:08:16.216 HAL era una minaccia per l'equipaggio 00:08:16.240 --> 00:08:20.656 solo finché controllava tutti gli aspetti del Discovery. 00:08:20.680 --> 00:08:23.176 Quindi avrebbe dovuto avere una super intelligenza. 00:08:23.200 --> 00:08:25.696 Avrebbe dovuto dominare tutto il mondo. 00:08:25.720 --> 00:08:28.536 Questa è la squadra Skynet dal film "Terminator" 00:08:28.560 --> 00:08:30.416 in cui abbiamo una super intelligenza 00:08:30.440 --> 00:08:31.816 che domina la volontà umana 00:08:31.840 --> 00:08:35.696 e ogni congegno in ogni parte del mondo. 00:08:35.720 --> 00:08:37.176 In pratica, 00:08:37.200 --> 00:08:39.296 questo non succederà. 00:08:39.320 --> 00:08:42.376 Non stiamo costruendo IA che controllino il meteo, 00:08:42.400 --> 00:08:43.736 le maree, 00:08:43.760 --> 00:08:47.136 che comandino su noi capricciosi e caotici umani. 00:08:47.160 --> 00:08:51.056 Inoltre, se una simile intelligenza artificiale esistesse, 00:08:51.080 --> 00:08:54.016 dovrebbe competere con le economie degli esseri umani, 00:08:54.040 --> 00:08:56.560 e quindi competere con noi per le risorse disponibili. 00:08:57.200 --> 00:08:58.416 E infine -- 00:08:58.440 --> 00:08:59.680 non ditelo a Siri -- 00:09:00.440 --> 00:09:01.816 possiamo sempre disattivarli. NOTE Paragraph 00:09:01.840 --> 00:09:03.960 (Risate) NOTE Paragraph 00:09:05.360 --> 00:09:07.816 Siamo parte di un incredibile viaggio 00:09:07.840 --> 00:09:10.336 di co-evoluzione con altre macchine. 00:09:10.360 --> 00:09:12.856 Gli esseri umani che siamo oggi 00:09:12.880 --> 00:09:15.416 non sono quelli che saremo in futuro. 00:09:15.440 --> 00:09:18.576 Preoccuparsi ora della minaccia di una super-intelligenza 00:09:18.600 --> 00:09:21.656 è per molti aspetti una distrazione pericolosa 00:09:21.680 --> 00:09:24.016 perché l'incremento della computerizzazione 00:09:24.040 --> 00:09:27.056 ci presenta una quantità di questioni umane e sociali 00:09:27.080 --> 00:09:28.720 di cui adesso dobbiamo occuparci. 00:09:29.360 --> 00:09:32.176 Come posso organizzare al meglio la società 00:09:32.200 --> 00:09:34.536 quando diminuirà la necessità del lavoro umano? 00:09:34.560 --> 00:09:38.376 Come posso fornire al mondo conoscenza ed educazione 00:09:38.400 --> 00:09:40.176 rispettando le nostre differenze? 00:09:40.200 --> 00:09:44.456 Come posso estendere e migliorare la vita umana attraverso la salute cognitiva? 00:09:44.480 --> 00:09:47.336 Come posso usare la computerizzazione 00:09:47.360 --> 00:09:49.120 per raggiungere le stelle? NOTE Paragraph 00:09:49.760 --> 00:09:51.800 Ed è questa la cosa eccitante. 00:09:52.400 --> 00:09:54.736 Le opportunità di elaborare dati 00:09:54.760 --> 00:09:56.296 per affinare l'esperienza umana 00:09:56.320 --> 00:09:57.736 sono alla nostra portata, 00:09:57.760 --> 00:09:59.616 qui e adesso, 00:09:59.640 --> 00:10:01.320 e siamo solo all'inizio. NOTE Paragraph 00:10:02.280 --> 00:10:03.496 Grazie mille. NOTE Paragraph 00:10:03.520 --> 00:10:07.806 (Applausi)