1 00:00:00,760 --> 00:00:04,600 Quando ero piccolo, ero la quintessenza dell'essere nerd. 2 00:00:05,320 --> 00:00:07,496 Penso che anche alcuni di voi lo fossero. 3 00:00:07,520 --> 00:00:08,736 (Risate) 4 00:00:08,760 --> 00:00:11,976 E lei, che ride più forte degli altri, probabilmente lo è ancora. 5 00:00:12,000 --> 00:00:14,256 (Risate) 6 00:00:14,280 --> 00:00:17,776 Sono cresciuto in una piccola città nelle piane polverose del nord Texas, 7 00:00:17,800 --> 00:00:21,136 figlio di uno sceriffo che era figlio di un pastore. 8 00:00:21,160 --> 00:00:23,080 Mettersi nei guai non era contemplato. 9 00:00:24,040 --> 00:00:27,296 Quindi ho iniziato a leggere libri di calcolo per divertimento. 10 00:00:27,320 --> 00:00:28,856 (Risate) 11 00:00:28,880 --> 00:00:30,576 Lo avete fatto anche voi. 12 00:00:30,600 --> 00:00:34,336 Ciò mi ha portato a costruire un laser, un computer e modellini di razzi, 13 00:00:34,360 --> 00:00:37,360 e poi a creare del propellente per razzi nella mia stanza. 14 00:00:37,960 --> 00:00:41,616 Ora, in termini scientifici, 15 00:00:41,640 --> 00:00:44,896 questa si chiama "una pessima idea". 16 00:00:44,920 --> 00:00:46,136 (Risate) 17 00:00:46,160 --> 00:00:48,336 All'incirca in quel periodo, 18 00:00:48,360 --> 00:00:51,656 "2001: Odissea nello spazio" di Kubrick, usciva nei cinema 19 00:00:51,656 --> 00:00:53,800 e lì la mia vita cambiò per sempre. 20 00:00:54,280 --> 00:00:56,336 Ho amato tutto di quel film, 21 00:00:56,360 --> 00:00:58,896 specialmente HAL 9000. 22 00:00:58,920 --> 00:01:00,976 HAL era un computer senziente 23 00:01:01,000 --> 00:01:03,456 progettato per guidare l'astronave Discovery 24 00:01:03,480 --> 00:01:06,016 dalla Terra a Giove. 25 00:01:06,040 --> 00:01:08,096 HAL era anche un personaggio fallace, 26 00:01:08,120 --> 00:01:12,400 perché alla fine preferì la missione alla vita umana. 27 00:01:12,840 --> 00:01:14,936 HAL era un personaggio fittizio 28 00:01:14,960 --> 00:01:17,616 ma nonostante ciò riusciva a parlare alle nostre paure, 29 00:01:17,640 --> 00:01:19,736 quelle di essere soggiogati 30 00:01:19,760 --> 00:01:22,776 da qualche intelligenza artificiale, priva di sentimenti 31 00:01:22,800 --> 00:01:24,760 che è indifferente alla nostra umanità. 32 00:01:25,880 --> 00:01:28,456 Credo che tali paure siano infondate. 33 00:01:28,480 --> 00:01:31,176 Infatti, viviamo in un'epoca significativa 34 00:01:31,200 --> 00:01:32,736 della storia dell'umanità, 35 00:01:32,760 --> 00:01:37,816 in cui, guidati dal rifiuto di accettare i limiti del corpo e della mente 36 00:01:37,816 --> 00:01:39,456 costruiamo macchine 37 00:01:39,480 --> 00:01:43,096 di ricercata, bellissima complessità e grazia 38 00:01:43,120 --> 00:01:45,176 che espanderà l'esperienza umana 39 00:01:45,200 --> 00:01:46,880 in modi che non possiamo immaginare. 40 00:01:47,720 --> 00:01:50,296 Dopo una carriera che va dall'Air Force Academy 41 00:01:50,320 --> 00:01:52,256 allo Space Command a oggi, 42 00:01:52,280 --> 00:01:53,976 sono un ingegnere sistemista, 43 00:01:54,000 --> 00:01:56,736 e da poco sono stato coinvolto in un problema d'ingegneria 44 00:01:56,760 --> 00:01:59,336 associato alla spedizione NASA su Marte. 45 00:01:59,360 --> 00:02:01,856 Nelle spedizioni verso la Luna, 46 00:02:01,880 --> 00:02:05,016 possiamo affidarci al centro di controllo di Houston 47 00:02:05,040 --> 00:02:07,016 perché sorvegli la spedizione. 48 00:02:07,040 --> 00:02:10,576 In ogni caso, Marte è 200 volte più lontano, 49 00:02:10,600 --> 00:02:13,816 e perciò ci vogliono in media 13 minuti 50 00:02:13,840 --> 00:02:16,976 perché un segnale arrivi dalla Terra a Marte. 51 00:02:17,000 --> 00:02:20,400 Se si verifica un problema, non c'è abbastanza tempo. 52 00:02:20,840 --> 00:02:23,336 E quindi una soluzione ingegneristica ragionevole 53 00:02:23,360 --> 00:02:25,936 ci chiama a mettere dispositivi di controllo 54 00:02:25,960 --> 00:02:28,976 dentro la navicella Orion. 55 00:02:29,000 --> 00:02:31,896 Un'altra affascinante idea per le missioni 56 00:02:31,920 --> 00:02:34,816 è piazzare robot umanoidi sulla superficie di Marte 57 00:02:34,840 --> 00:02:36,696 prima che vi arrivino gli esseri umani, 58 00:02:36,720 --> 00:02:38,376 affinché facilitino il lavoro 59 00:02:38,400 --> 00:02:41,760 e collaborino con la squadra scientifica. 60 00:02:43,400 --> 00:02:46,136 Ora, lavorando da una prospettiva ingegneristica, 61 00:02:46,160 --> 00:02:49,336 fu molto chiaro per me che ciò che dovevo architettare 62 00:02:49,360 --> 00:02:51,440 era un'intelligenza artificiale 63 00:02:51,440 --> 00:02:53,936 brillante, collaborativa, socialmente ragionevole. 64 00:02:53,960 --> 00:02:58,256 In altre parole, dovevo creare qualcosa molto simile ad HAL 65 00:02:58,280 --> 00:03:00,696 ma senza le sue tendenze omicide. 66 00:03:00,720 --> 00:03:02,080 (Risate) 67 00:03:02,920 --> 00:03:04,736 Fermiamoci per un momento. 68 00:03:04,760 --> 00:03:08,656 È davvero possibile costruire un'intelligenza artificiale come quella? 69 00:03:08,680 --> 00:03:10,136 In effetti sì. 70 00:03:10,160 --> 00:03:11,416 Sotto molti aspetti, 71 00:03:11,440 --> 00:03:13,416 è un complesso problema ingegneristico 72 00:03:13,440 --> 00:03:14,896 con elementi di IA, 73 00:03:14,920 --> 00:03:19,616 non un inestricabile problema di IA che ha bisogno dell'ingegneria. 74 00:03:19,640 --> 00:03:22,296 Parafrasando Alan Turing, 75 00:03:22,320 --> 00:03:24,696 non voglio costruire una macchina senziente. 76 00:03:24,720 --> 00:03:26,296 Non sto costruendo un HAL. 77 00:03:26,320 --> 00:03:28,736 Ciò che cerco è un semplice cervello, 78 00:03:28,760 --> 00:03:31,880 qualcosa che offra l'illusione dell'intelligenza. 79 00:03:33,000 --> 00:03:36,136 L'arte e la scienza dell'elaborazione dati ha fatto molta strada 80 00:03:36,160 --> 00:03:37,656 da quando è apparso HAL, 81 00:03:37,680 --> 00:03:40,936 e immagino che se il suo inventore, il Dott. Chandra, fosse qui oggi 82 00:03:40,936 --> 00:03:43,256 avrebbe un sacco di domande per noi. 83 00:03:43,280 --> 00:03:45,376 È davvero possibile per noi 84 00:03:45,400 --> 00:03:49,416 prendere un sistema di milioni e milioni di dispositivi, 85 00:03:49,440 --> 00:03:50,896 leggere le loro sequenze dati, 86 00:03:50,920 --> 00:03:53,286 prevedere i loro fallimenti e azioni in anticipo? 87 00:03:53,286 --> 00:03:54,370 Sì. 88 00:03:54,370 --> 00:03:57,856 Possiamo costruire sistemi che conversino con noi in linguaggio naturale? 89 00:03:57,886 --> 00:03:58,856 Sì. 90 00:03:58,880 --> 00:04:01,856 Sistemi che riconoscano oggetti, identifichino emozioni, 91 00:04:01,880 --> 00:04:05,256 si emozionino a loro volta, giochino e leggano persino il labiale? 92 00:04:05,280 --> 00:04:06,496 Sì. 93 00:04:06,520 --> 00:04:08,656 Un sistema che ponga degli obiettivi, 94 00:04:08,680 --> 00:04:12,296 che pianifichi in base ad essi e che impari strada facendo? 95 00:04:12,320 --> 00:04:13,536 Sì. 96 00:04:13,560 --> 00:04:16,896 Costruire sistemi che abbiano una teoria della mente? 97 00:04:16,920 --> 00:04:18,416 Stiamo imparando a farlo. 98 00:04:18,440 --> 00:04:21,920 Possiamo costruire sistemi che abbiano un'etica e una morale? 99 00:04:22,480 --> 00:04:24,520 Dobbiamo imparare a farlo. 100 00:04:25,360 --> 00:04:26,736 Accettiamo per un momento 101 00:04:26,760 --> 00:04:29,656 che si possa costruire una simile intelligenza artificiale 102 00:04:29,680 --> 00:04:31,816 per questo tipo di missioni o per altre. 103 00:04:31,840 --> 00:04:34,376 La domanda successiva che dovete porvi è: 104 00:04:34,400 --> 00:04:35,856 dovremmo averne paura? 105 00:04:35,880 --> 00:04:37,856 Qualsiasi nuova tecnologia 106 00:04:37,880 --> 00:04:40,776 porta con sé un po' di apprensione. 107 00:04:40,800 --> 00:04:42,496 Quando arrivarono le prime auto, 108 00:04:42,520 --> 00:04:46,536 la gente temeva di assistere alla distruzione della famiglia. 109 00:04:46,560 --> 00:04:49,256 Quando arrivarono i telefoni, 110 00:04:49,280 --> 00:04:52,176 si preoccupò per la fine della conversazione civile. 111 00:04:52,200 --> 00:04:56,136 E, quando assistette alla diffusione della scrittura, 112 00:04:56,160 --> 00:04:58,656 la gente pensò di perdere la capacità di memorizzare. 113 00:04:58,680 --> 00:05:00,736 Tutto questo è vero fino a un certo punto, 114 00:05:00,760 --> 00:05:03,176 ma si dà anche il caso che queste tecnologie 115 00:05:03,200 --> 00:05:06,576 ci abbiano portato cose che hanno allargato l'esperienza umana 116 00:05:06,600 --> 00:05:08,480 profondamente. 117 00:05:09,840 --> 00:05:12,120 Approfondiamo la questione. 118 00:05:13,120 --> 00:05:17,856 Non ho paura della creazione di un'IA come questa, 119 00:05:17,880 --> 00:05:21,696 perché alla fine incarnerà alcuni dei nostri valori. 120 00:05:21,720 --> 00:05:25,216 Considerate questo: costruire un sistema cognitivo è molto diverso 121 00:05:25,240 --> 00:05:28,536 dal costruire un sistema software intensivo tradizionale del passato. 122 00:05:28,560 --> 00:05:31,016 Non li programmiamo ma insegniamo loro. 123 00:05:31,040 --> 00:05:33,696 Per insegnare a un sistema a riconoscere i fiori, 124 00:05:33,720 --> 00:05:36,736 gli mostro migliaia di fiori, dei tipi che piacciono a me. 125 00:05:36,760 --> 00:05:39,016 Per insegnare a un sistema a giocare a un gioco -- 126 00:05:39,040 --> 00:05:41,000 beh lo farei, farei anche questo. 127 00:05:42,600 --> 00:05:44,640 Mi piacciono i fiori. Andiamo. 128 00:05:45,440 --> 00:05:48,296 Per insegnare a un sistema a giocare a un gioco come Go, 129 00:05:48,320 --> 00:05:50,376 devo fargli fare migliaia di partite a Go, 130 00:05:50,400 --> 00:05:52,056 e nel frattempo gli insegno anche 131 00:05:52,080 --> 00:05:54,496 a distinguere un buon gioco da un gioco cattivo. 132 00:05:54,520 --> 00:05:58,216 Se voglio creare un assistente legale artificialmente intelligente, 133 00:05:58,240 --> 00:06:00,016 gli insegnerò il corpus legislativo 134 00:06:00,040 --> 00:06:02,896 ma allo stesso tempo gli infonderò 135 00:06:02,920 --> 00:06:05,800 il senso di pietà e giustizia che è parte di quella legge. 136 00:06:06,560 --> 00:06:09,536 In termini scientifici definiamo tutto questo "ground truth", 137 00:06:09,560 --> 00:06:11,576 e questo è il punto fondamentale: 138 00:06:11,600 --> 00:06:13,056 nel produrre queste macchine, 139 00:06:13,080 --> 00:06:16,496 insegniamo anche loro il senso dei nostri valori. 140 00:06:16,520 --> 00:06:19,656 Con questo fine, mi fido di un'intelligenza artificiale 141 00:06:19,680 --> 00:06:23,320 come, se non di più, mi fido di un essere umano ben istruito. 142 00:06:24,080 --> 00:06:25,296 Ma, potreste chiedere, 143 00:06:25,320 --> 00:06:27,936 che ne è degli agenti corrotti, 144 00:06:27,960 --> 00:06:31,296 di qualche organizzazione non governativa ben finanziata? 145 00:06:31,320 --> 00:06:35,136 Non ho paura di un'intelligenza artificiale in mano a un lupo solitario. 146 00:06:35,160 --> 00:06:39,696 È ovvio, non possiamo proteggerci da tutti gli arbitrari atti di violenza, 147 00:06:39,720 --> 00:06:41,856 ma la realtà è che un simile sistema 148 00:06:41,880 --> 00:06:44,976 richiede un allenamento tanto acuto 149 00:06:45,000 --> 00:06:47,296 da andare ben oltre le risorse di un individuo. 150 00:06:47,320 --> 00:06:48,536 E inoltre, 151 00:06:48,560 --> 00:06:51,816 è molto più che iniettare un virus via internet al mondo, 152 00:06:51,840 --> 00:06:54,936 dove premi un bottone e subito lo ritrovi in milioni di posti 153 00:06:54,960 --> 00:06:57,416 e i computer iniziano ovunque ad andare in tilt. 154 00:06:57,440 --> 00:07:00,256 Questo tipo di elementi è molto più complesso 155 00:07:00,280 --> 00:07:01,995 e certamente lo sperimenteremo. 156 00:07:02,520 --> 00:07:05,576 Ho paura che una simile intelligenza artificiale 157 00:07:05,600 --> 00:07:07,560 possa minacciare tutta l'umanità? 158 00:07:08,280 --> 00:07:12,656 Se guardate film come "Matrix", "Metropolis", 159 00:07:12,680 --> 00:07:15,856 "Terminator", show come "Westworld", 160 00:07:15,880 --> 00:07:18,016 tutti parlano di questo tipo di paura. 161 00:07:18,040 --> 00:07:22,336 Infatti, nel libro "Superintelligence" del filosofo Nick Bostrom, 162 00:07:22,360 --> 00:07:23,896 l'autore considera questo tema 163 00:07:23,920 --> 00:07:27,936 e osserva che una super intelligenza potrebbe non solo essere pericolosa, 164 00:07:27,960 --> 00:07:31,816 ma rappresentare anche una minaccia esistenziale per tutta l'umanità. 165 00:07:31,840 --> 00:07:34,056 La principale argomentazione del Dott. Bostrom 166 00:07:34,080 --> 00:07:36,816 è che tali sistemi potrebbero prima o poi 167 00:07:36,840 --> 00:07:40,096 avere una sete tale di informazioni 168 00:07:40,120 --> 00:07:43,016 che potrebbero forse imparare come si impara 169 00:07:43,040 --> 00:07:45,656 e anche scoprire che potrebbero avere obiettivi 170 00:07:45,680 --> 00:07:47,976 contrari ai bisogni umani. 171 00:07:48,000 --> 00:07:49,856 Bostrom ha un gran numero di seguaci. 172 00:07:49,880 --> 00:07:54,200 È supportato da persone come Elon Musk e Stephen Hawking. 173 00:07:54,880 --> 00:07:57,280 Con tutto il rispetto dovuto 174 00:07:58,160 --> 00:08:00,176 a queste menti brillanti, 175 00:08:00,200 --> 00:08:02,456 credo che siano gravemente in errore. 176 00:08:02,480 --> 00:08:05,656 Ci sarebbero molte parti della teoria di Bostrom da analizzare, 177 00:08:05,680 --> 00:08:07,816 e non ho il tempo di analizzarle tutte, 178 00:08:07,840 --> 00:08:10,536 ma molto brevemente, considerate questo: 179 00:08:10,560 --> 00:08:14,296 una grande conoscenza è diversa da una grande capacità di azione. 180 00:08:14,320 --> 00:08:16,216 HAL era una minaccia per l'equipaggio 181 00:08:16,240 --> 00:08:20,656 solo finché controllava tutti gli aspetti del Discovery. 182 00:08:20,680 --> 00:08:23,176 Quindi avrebbe dovuto avere una super intelligenza. 183 00:08:23,200 --> 00:08:25,696 Avrebbe dovuto dominare tutto il mondo. 184 00:08:25,720 --> 00:08:28,536 Questa è la squadra Skynet dal film "Terminator" 185 00:08:28,560 --> 00:08:30,416 in cui abbiamo una super intelligenza 186 00:08:30,440 --> 00:08:31,816 che domina la volontà umana 187 00:08:31,840 --> 00:08:35,696 e ogni congegno in ogni parte del mondo. 188 00:08:35,720 --> 00:08:37,176 In pratica, 189 00:08:37,200 --> 00:08:39,296 questo non succederà. 190 00:08:39,320 --> 00:08:42,376 Non stiamo costruendo IA che controllino il meteo, 191 00:08:42,400 --> 00:08:43,736 le maree, 192 00:08:43,760 --> 00:08:47,136 che comandino su noi capricciosi e caotici umani. 193 00:08:47,160 --> 00:08:51,056 Inoltre, se una simile intelligenza artificiale esistesse, 194 00:08:51,080 --> 00:08:54,016 dovrebbe competere con le economie degli esseri umani, 195 00:08:54,040 --> 00:08:56,560 e quindi competere con noi per le risorse disponibili. 196 00:08:57,200 --> 00:08:58,416 E infine -- 197 00:08:58,440 --> 00:08:59,680 non ditelo a Siri -- 198 00:09:00,440 --> 00:09:01,816 possiamo sempre disattivarli. 199 00:09:01,840 --> 00:09:03,960 (Risate) 200 00:09:05,360 --> 00:09:07,816 Siamo parte di un incredibile viaggio 201 00:09:07,840 --> 00:09:10,336 di co-evoluzione con altre macchine. 202 00:09:10,360 --> 00:09:12,856 Gli esseri umani che siamo oggi 203 00:09:12,880 --> 00:09:15,416 non sono quelli che saremo in futuro. 204 00:09:15,440 --> 00:09:18,576 Preoccuparsi ora della minaccia di una super-intelligenza 205 00:09:18,600 --> 00:09:21,656 è per molti aspetti una distrazione pericolosa 206 00:09:21,680 --> 00:09:24,016 perché l'incremento della computerizzazione 207 00:09:24,040 --> 00:09:27,056 ci presenta una quantità di questioni umane e sociali 208 00:09:27,080 --> 00:09:28,720 di cui adesso dobbiamo occuparci. 209 00:09:29,360 --> 00:09:32,176 Come posso organizzare al meglio la società 210 00:09:32,200 --> 00:09:34,536 quando diminuirà la necessità del lavoro umano? 211 00:09:34,560 --> 00:09:38,376 Come posso fornire al mondo conoscenza ed educazione 212 00:09:38,400 --> 00:09:40,176 rispettando le nostre differenze? 213 00:09:40,200 --> 00:09:44,456 Come posso estendere e migliorare la vita umana attraverso la salute cognitiva? 214 00:09:44,480 --> 00:09:47,336 Come posso usare la computerizzazione 215 00:09:47,360 --> 00:09:49,120 per raggiungere le stelle? 216 00:09:49,760 --> 00:09:51,800 Ed è questa la cosa eccitante. 217 00:09:52,400 --> 00:09:54,736 Le opportunità di elaborare dati 218 00:09:54,760 --> 00:09:56,296 per affinare l'esperienza umana 219 00:09:56,320 --> 00:09:57,736 sono alla nostra portata, 220 00:09:57,760 --> 00:09:59,616 qui e adesso, 221 00:09:59,640 --> 00:10:01,320 e siamo solo all'inizio. 222 00:10:02,280 --> 00:10:03,496 Grazie mille. 223 00:10:03,520 --> 00:10:07,806 (Applausi)