[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.76,0:00:04.60,Default,,0000,0000,0000,,Quando ero piccolo, ero la quintessenza\Ndell'essere nerd. Dialogue: 0,0:00:05.32,0:00:07.50,Default,,0000,0000,0000,,Penso che anche alcuni di voi lo fossero. Dialogue: 0,0:00:07.52,0:00:08.74,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:00:08.76,0:00:11.98,Default,,0000,0000,0000,,E lei, che ride più forte \Ndegli altri, probabilmente lo è ancora. Dialogue: 0,0:00:12.00,0:00:14.26,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:00:14.28,0:00:17.78,Default,,0000,0000,0000,,Sono cresciuto in una piccola città \Nnelle piane polverose del nord Texas, Dialogue: 0,0:00:17.80,0:00:21.14,Default,,0000,0000,0000,,figlio di uno sceriffo che era figlio\Ndi un pastore. Dialogue: 0,0:00:21.16,0:00:23.08,Default,,0000,0000,0000,,Mettersi nei guai non era contemplato. Dialogue: 0,0:00:24.04,0:00:27.30,Default,,0000,0000,0000,,Quindi ho iniziato a leggere libri \Ndi calcolo per divertimento. Dialogue: 0,0:00:27.32,0:00:28.86,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:00:28.88,0:00:30.58,Default,,0000,0000,0000,,Lo avete fatto anche voi. Dialogue: 0,0:00:30.60,0:00:34.34,Default,,0000,0000,0000,,Ciò mi ha portato a costruire un laser,\Nun computer e modellini di razzi, Dialogue: 0,0:00:34.36,0:00:37.36,Default,,0000,0000,0000,,e poi a creare del propellente per razzi\Nnella mia stanza. Dialogue: 0,0:00:37.96,0:00:41.62,Default,,0000,0000,0000,,Ora, in termini scientifici, Dialogue: 0,0:00:41.64,0:00:44.90,Default,,0000,0000,0000,,questa si chiama "una pessima idea". Dialogue: 0,0:00:44.92,0:00:46.14,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:00:46.16,0:00:48.34,Default,,0000,0000,0000,,All'incirca in quel periodo, Dialogue: 0,0:00:48.36,0:00:51.66,Default,,0000,0000,0000,,"2001: Odissea nello spazio" di Kubrick,\Nusciva nei cinema Dialogue: 0,0:00:51.66,0:00:53.80,Default,,0000,0000,0000,,e lì la mia vita cambiò per sempre. Dialogue: 0,0:00:54.28,0:00:56.34,Default,,0000,0000,0000,,Ho amato tutto di quel film, Dialogue: 0,0:00:56.36,0:00:58.90,Default,,0000,0000,0000,,specialmente HAL 9000. Dialogue: 0,0:00:58.92,0:01:00.98,Default,,0000,0000,0000,,HAL era un computer senziente Dialogue: 0,0:01:01.00,0:01:03.46,Default,,0000,0000,0000,,progettato per guidare \Nl'astronave Discovery Dialogue: 0,0:01:03.48,0:01:06.02,Default,,0000,0000,0000,,dalla Terra a Giove. Dialogue: 0,0:01:06.04,0:01:08.10,Default,,0000,0000,0000,,HAL era anche un personaggio fallace, Dialogue: 0,0:01:08.12,0:01:12.40,Default,,0000,0000,0000,,perché alla fine preferì \Nla missione alla vita umana. Dialogue: 0,0:01:12.84,0:01:14.94,Default,,0000,0000,0000,,HAL era un personaggio fittizio Dialogue: 0,0:01:14.96,0:01:17.62,Default,,0000,0000,0000,,ma nonostante ciò riusciva \Na parlare alle nostre paure, Dialogue: 0,0:01:17.64,0:01:19.74,Default,,0000,0000,0000,,quelle di essere soggiogati Dialogue: 0,0:01:19.76,0:01:22.78,Default,,0000,0000,0000,,da qualche intelligenza artificiale,\Npriva di sentimenti Dialogue: 0,0:01:22.80,0:01:24.76,Default,,0000,0000,0000,,che è indifferente alla nostra umanità. Dialogue: 0,0:01:25.88,0:01:28.46,Default,,0000,0000,0000,,Credo che tali paure siano infondate. Dialogue: 0,0:01:28.48,0:01:31.18,Default,,0000,0000,0000,,Infatti, viviamo in un'epoca significativa Dialogue: 0,0:01:31.20,0:01:32.74,Default,,0000,0000,0000,,della storia dell'umanità, Dialogue: 0,0:01:32.76,0:01:37.82,Default,,0000,0000,0000,,in cui, guidati dal rifiuto di accettare\Ni limiti del corpo e della mente Dialogue: 0,0:01:37.82,0:01:39.46,Default,,0000,0000,0000,,costruiamo macchine Dialogue: 0,0:01:39.48,0:01:43.10,Default,,0000,0000,0000,,di ricercata, bellissima complessità\Ne grazia Dialogue: 0,0:01:43.12,0:01:45.18,Default,,0000,0000,0000,,che espanderà l'esperienza umana Dialogue: 0,0:01:45.20,0:01:46.88,Default,,0000,0000,0000,,in modi che non possiamo\Nimmaginare. Dialogue: 0,0:01:47.72,0:01:50.30,Default,,0000,0000,0000,,Dopo una carriera che va\Ndall'Air Force Academy Dialogue: 0,0:01:50.32,0:01:52.26,Default,,0000,0000,0000,,allo Space Command a oggi, Dialogue: 0,0:01:52.28,0:01:53.98,Default,,0000,0000,0000,,sono un ingegnere sistemista, Dialogue: 0,0:01:54.00,0:01:56.74,Default,,0000,0000,0000,,e da poco sono stato coinvolto\Nin un problema d'ingegneria Dialogue: 0,0:01:56.76,0:01:59.34,Default,,0000,0000,0000,,associato alla spedizione NASA su Marte. Dialogue: 0,0:01:59.36,0:02:01.86,Default,,0000,0000,0000,,Nelle spedizioni verso la Luna, Dialogue: 0,0:02:01.88,0:02:05.02,Default,,0000,0000,0000,,possiamo affidarci \Nal centro di controllo di Houston Dialogue: 0,0:02:05.04,0:02:07.02,Default,,0000,0000,0000,,perché sorvegli la spedizione. Dialogue: 0,0:02:07.04,0:02:10.58,Default,,0000,0000,0000,,In ogni caso, Marte è 200 volte\Npiù lontano, Dialogue: 0,0:02:10.60,0:02:13.82,Default,,0000,0000,0000,,e perciò ci vogliono in media\N13 minuti Dialogue: 0,0:02:13.84,0:02:16.98,Default,,0000,0000,0000,,perché un segnale arrivi\Ndalla Terra a Marte. Dialogue: 0,0:02:17.00,0:02:20.40,Default,,0000,0000,0000,,Se si verifica un problema,\Nnon c'è abbastanza tempo. Dialogue: 0,0:02:20.84,0:02:23.34,Default,,0000,0000,0000,,E quindi una soluzione ingegneristica\Nragionevole Dialogue: 0,0:02:23.36,0:02:25.94,Default,,0000,0000,0000,,ci chiama a mettere dispositivi\Ndi controllo Dialogue: 0,0:02:25.96,0:02:28.98,Default,,0000,0000,0000,,dentro la navicella Orion. Dialogue: 0,0:02:29.00,0:02:31.90,Default,,0000,0000,0000,,Un'altra affascinante idea per le missioni\N Dialogue: 0,0:02:31.92,0:02:34.82,Default,,0000,0000,0000,,è piazzare robot umanoidi \Nsulla superficie di Marte Dialogue: 0,0:02:34.84,0:02:36.70,Default,,0000,0000,0000,,prima che vi arrivino gli esseri umani, Dialogue: 0,0:02:36.72,0:02:38.38,Default,,0000,0000,0000,,affinché facilitino il lavoro Dialogue: 0,0:02:38.40,0:02:41.76,Default,,0000,0000,0000,,e collaborino \Ncon la squadra scientifica. Dialogue: 0,0:02:43.40,0:02:46.14,Default,,0000,0000,0000,,Ora, lavorando \Nda una prospettiva ingegneristica, Dialogue: 0,0:02:46.16,0:02:49.34,Default,,0000,0000,0000,,fu molto chiaro per me che ciò\Nche dovevo architettare Dialogue: 0,0:02:49.36,0:02:51.44,Default,,0000,0000,0000,,era un'intelligenza artificiale Dialogue: 0,0:02:51.44,0:02:53.94,Default,,0000,0000,0000,,brillante, collaborativa, \Nsocialmente ragionevole. Dialogue: 0,0:02:53.96,0:02:58.26,Default,,0000,0000,0000,,In altre parole, dovevo creare\Nqualcosa molto simile ad HAL Dialogue: 0,0:02:58.28,0:03:00.70,Default,,0000,0000,0000,,ma senza le sue tendenze omicide. Dialogue: 0,0:03:00.72,0:03:02.08,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:03:02.92,0:03:04.74,Default,,0000,0000,0000,,Fermiamoci per un momento. Dialogue: 0,0:03:04.76,0:03:08.66,Default,,0000,0000,0000,,È davvero possibile costruire\Nun'intelligenza artificiale come quella? Dialogue: 0,0:03:08.68,0:03:10.14,Default,,0000,0000,0000,,In effetti sì. Dialogue: 0,0:03:10.16,0:03:11.42,Default,,0000,0000,0000,,Sotto molti aspetti, Dialogue: 0,0:03:11.44,0:03:13.42,Default,,0000,0000,0000,,è un complesso problema ingegneristico Dialogue: 0,0:03:13.44,0:03:14.90,Default,,0000,0000,0000,,con elementi di IA, Dialogue: 0,0:03:14.92,0:03:19.62,Default,,0000,0000,0000,,non un inestricabile problema di IA\Nche ha bisogno dell'ingegneria. Dialogue: 0,0:03:19.64,0:03:22.30,Default,,0000,0000,0000,,Parafrasando Alan Turing, Dialogue: 0,0:03:22.32,0:03:24.70,Default,,0000,0000,0000,,non voglio costruire\Nuna macchina senziente. Dialogue: 0,0:03:24.72,0:03:26.30,Default,,0000,0000,0000,,Non sto costruendo un HAL. Dialogue: 0,0:03:26.32,0:03:28.74,Default,,0000,0000,0000,,Ciò che cerco è un semplice cervello, Dialogue: 0,0:03:28.76,0:03:31.88,Default,,0000,0000,0000,,qualcosa che offra l'illusione\Ndell'intelligenza. Dialogue: 0,0:03:33.00,0:03:36.14,Default,,0000,0000,0000,,L'arte e la scienza dell'elaborazione dati\Nha fatto molta strada Dialogue: 0,0:03:36.16,0:03:37.66,Default,,0000,0000,0000,,da quando è apparso HAL, Dialogue: 0,0:03:37.68,0:03:40.94,Default,,0000,0000,0000,,e immagino che se il suo inventore, \Nil Dott. Chandra, fosse qui oggi Dialogue: 0,0:03:40.94,0:03:43.26,Default,,0000,0000,0000,,avrebbe un sacco di domande per noi. Dialogue: 0,0:03:43.28,0:03:45.38,Default,,0000,0000,0000,,È davvero possibile per noi Dialogue: 0,0:03:45.40,0:03:49.42,Default,,0000,0000,0000,,prendere un sistema di milioni \Ne milioni di dispositivi, Dialogue: 0,0:03:49.44,0:03:50.90,Default,,0000,0000,0000,,leggere le loro sequenze dati, Dialogue: 0,0:03:50.92,0:03:53.29,Default,,0000,0000,0000,,prevedere i loro fallimenti \Ne azioni in anticipo? Dialogue: 0,0:03:53.29,0:03:54.37,Default,,0000,0000,0000,,Sì. Dialogue: 0,0:03:54.37,0:03:57.86,Default,,0000,0000,0000,,Possiamo costruire sistemi che conversino\Ncon noi in linguaggio naturale? Dialogue: 0,0:03:57.89,0:03:58.86,Default,,0000,0000,0000,,Sì. Dialogue: 0,0:03:58.88,0:04:01.86,Default,,0000,0000,0000,,Sistemi che riconoscano oggetti,\Nidentifichino emozioni, Dialogue: 0,0:04:01.88,0:04:05.26,Default,,0000,0000,0000,,si emozionino a loro volta,\Ngiochino e leggano persino il labiale? Dialogue: 0,0:04:05.28,0:04:06.50,Default,,0000,0000,0000,,Sì. Dialogue: 0,0:04:06.52,0:04:08.66,Default,,0000,0000,0000,,Un sistema che ponga degli obiettivi, Dialogue: 0,0:04:08.68,0:04:12.30,Default,,0000,0000,0000,,che pianifichi in base ad essi\Ne che impari strada facendo? Dialogue: 0,0:04:12.32,0:04:13.54,Default,,0000,0000,0000,,Sì. Dialogue: 0,0:04:13.56,0:04:16.90,Default,,0000,0000,0000,,Costruire sistemi che abbiano\Nuna teoria della mente? Dialogue: 0,0:04:16.92,0:04:18.42,Default,,0000,0000,0000,,Stiamo imparando a farlo. Dialogue: 0,0:04:18.44,0:04:21.92,Default,,0000,0000,0000,,Possiamo costruire sistemi che abbiano\Nun'etica e una morale? Dialogue: 0,0:04:22.48,0:04:24.52,Default,,0000,0000,0000,,Dobbiamo imparare a farlo. Dialogue: 0,0:04:25.36,0:04:26.74,Default,,0000,0000,0000,,Accettiamo per un momento Dialogue: 0,0:04:26.76,0:04:29.66,Default,,0000,0000,0000,,che si possa costruire una simile\Nintelligenza artificiale Dialogue: 0,0:04:29.68,0:04:31.82,Default,,0000,0000,0000,,per questo tipo di missioni o per altre. Dialogue: 0,0:04:31.84,0:04:34.38,Default,,0000,0000,0000,,La domanda successiva che dovete porvi è: Dialogue: 0,0:04:34.40,0:04:35.86,Default,,0000,0000,0000,,dovremmo averne paura? Dialogue: 0,0:04:35.88,0:04:37.86,Default,,0000,0000,0000,,Qualsiasi nuova tecnologia Dialogue: 0,0:04:37.88,0:04:40.78,Default,,0000,0000,0000,,porta con sé un po' di apprensione. Dialogue: 0,0:04:40.80,0:04:42.50,Default,,0000,0000,0000,,Quando arrivarono le prime auto, Dialogue: 0,0:04:42.52,0:04:46.54,Default,,0000,0000,0000,,la gente temeva di assistere\Nalla distruzione della famiglia. Dialogue: 0,0:04:46.56,0:04:49.26,Default,,0000,0000,0000,,Quando arrivarono i telefoni, Dialogue: 0,0:04:49.28,0:04:52.18,Default,,0000,0000,0000,,si preoccupò per la fine\Ndella conversazione civile. Dialogue: 0,0:04:52.20,0:04:56.14,Default,,0000,0000,0000,,E, quando assistette alla\Ndiffusione della scrittura, Dialogue: 0,0:04:56.16,0:04:58.66,Default,,0000,0000,0000,,la gente pensò di perdere\Nla capacità di memorizzare. Dialogue: 0,0:04:58.68,0:05:00.74,Default,,0000,0000,0000,,Tutto questo è vero \Nfino a un certo punto, Dialogue: 0,0:05:00.76,0:05:03.18,Default,,0000,0000,0000,,ma si dà anche il caso \Nche queste tecnologie Dialogue: 0,0:05:03.20,0:05:06.58,Default,,0000,0000,0000,,ci abbiano portato cose \Nche hanno allargato l'esperienza umana Dialogue: 0,0:05:06.60,0:05:08.48,Default,,0000,0000,0000,,profondamente. Dialogue: 0,0:05:09.84,0:05:12.12,Default,,0000,0000,0000,,Approfondiamo la questione. Dialogue: 0,0:05:13.12,0:05:17.86,Default,,0000,0000,0000,,Non ho paura della creazione di un'IA\Ncome questa, Dialogue: 0,0:05:17.88,0:05:21.70,Default,,0000,0000,0000,,perché alla fine incarnerà alcuni\Ndei nostri valori. Dialogue: 0,0:05:21.72,0:05:25.22,Default,,0000,0000,0000,,Considerate questo: costruire \Nun sistema cognitivo è molto diverso Dialogue: 0,0:05:25.24,0:05:28.54,Default,,0000,0000,0000,,dal costruire un sistema software intensivo \Ntradizionale del passato. Dialogue: 0,0:05:28.56,0:05:31.02,Default,,0000,0000,0000,,Non li programmiamo ma insegniamo loro. Dialogue: 0,0:05:31.04,0:05:33.70,Default,,0000,0000,0000,,Per insegnare a un sistema \Na riconoscere i fiori, Dialogue: 0,0:05:33.72,0:05:36.74,Default,,0000,0000,0000,,gli mostro migliaia di fiori, dei tipi \Nche piacciono a me. Dialogue: 0,0:05:36.76,0:05:39.02,Default,,0000,0000,0000,,Per insegnare a un sistema \Na giocare a un gioco -- Dialogue: 0,0:05:39.04,0:05:41.00,Default,,0000,0000,0000,,beh lo farei, farei anche questo. Dialogue: 0,0:05:42.60,0:05:44.64,Default,,0000,0000,0000,,Mi piacciono i fiori. Andiamo. Dialogue: 0,0:05:45.44,0:05:48.30,Default,,0000,0000,0000,,Per insegnare a un sistema a giocare\Na un gioco come Go, Dialogue: 0,0:05:48.32,0:05:50.38,Default,,0000,0000,0000,,devo fargli fare migliaia di partite a Go, Dialogue: 0,0:05:50.40,0:05:52.06,Default,,0000,0000,0000,,e nel frattempo gli insegno anche Dialogue: 0,0:05:52.08,0:05:54.50,Default,,0000,0000,0000,,a distinguere un buon gioco \Nda un gioco cattivo. Dialogue: 0,0:05:54.52,0:05:58.22,Default,,0000,0000,0000,,Se voglio creare un assistente legale\Nartificialmente intelligente, Dialogue: 0,0:05:58.24,0:06:00.02,Default,,0000,0000,0000,,gli insegnerò il corpus legislativo Dialogue: 0,0:06:00.04,0:06:02.90,Default,,0000,0000,0000,,ma allo stesso tempo gli infonderò Dialogue: 0,0:06:02.92,0:06:05.80,Default,,0000,0000,0000,,il senso di pietà e giustizia \Nche è parte di quella legge. Dialogue: 0,0:06:06.56,0:06:09.54,Default,,0000,0000,0000,,In termini scientifici definiamo tutto\Nquesto "ground truth", Dialogue: 0,0:06:09.56,0:06:11.58,Default,,0000,0000,0000,,e questo è il punto fondamentale: Dialogue: 0,0:06:11.60,0:06:13.06,Default,,0000,0000,0000,,nel produrre queste macchine, Dialogue: 0,0:06:13.08,0:06:16.50,Default,,0000,0000,0000,,insegniamo anche loro \Nil senso dei nostri valori. Dialogue: 0,0:06:16.52,0:06:19.66,Default,,0000,0000,0000,,Con questo fine, mi fido \Ndi un'intelligenza artificiale Dialogue: 0,0:06:19.68,0:06:23.32,Default,,0000,0000,0000,,come, se non di più, mi fido \Ndi un essere umano ben istruito. Dialogue: 0,0:06:24.08,0:06:25.30,Default,,0000,0000,0000,,Ma, potreste chiedere, Dialogue: 0,0:06:25.32,0:06:27.94,Default,,0000,0000,0000,,che ne è degli agenti corrotti, Dialogue: 0,0:06:27.96,0:06:31.30,Default,,0000,0000,0000,,di qualche organizzazione non governativa\Nben finanziata? Dialogue: 0,0:06:31.32,0:06:35.14,Default,,0000,0000,0000,,Non ho paura di un'intelligenza\Nartificiale in mano a un lupo solitario. Dialogue: 0,0:06:35.16,0:06:39.70,Default,,0000,0000,0000,,È ovvio, non possiamo proteggerci\Nda tutti gli arbitrari atti di violenza, Dialogue: 0,0:06:39.72,0:06:41.86,Default,,0000,0000,0000,,ma la realtà è che un simile sistema Dialogue: 0,0:06:41.88,0:06:44.98,Default,,0000,0000,0000,,richiede un allenamento tanto acuto Dialogue: 0,0:06:45.00,0:06:47.30,Default,,0000,0000,0000,,da andare ben oltre le risorse \Ndi un individuo. Dialogue: 0,0:06:47.32,0:06:48.54,Default,,0000,0000,0000,,E inoltre, Dialogue: 0,0:06:48.56,0:06:51.82,Default,,0000,0000,0000,,è molto più che iniettare un virus \Nvia internet al mondo, Dialogue: 0,0:06:51.84,0:06:54.94,Default,,0000,0000,0000,,dove premi un bottone e subito\Nlo ritrovi in milioni di posti Dialogue: 0,0:06:54.96,0:06:57.42,Default,,0000,0000,0000,,e i computer iniziano ovunque\Nad andare in tilt. Dialogue: 0,0:06:57.44,0:07:00.26,Default,,0000,0000,0000,,Questo tipo di elementi \Nè molto più complesso Dialogue: 0,0:07:00.28,0:07:01.100,Default,,0000,0000,0000,,e certamente lo sperimenteremo. Dialogue: 0,0:07:02.52,0:07:05.58,Default,,0000,0000,0000,,Ho paura che una simile\Nintelligenza artificiale Dialogue: 0,0:07:05.60,0:07:07.56,Default,,0000,0000,0000,,possa minacciare tutta l'umanità? Dialogue: 0,0:07:08.28,0:07:12.66,Default,,0000,0000,0000,,Se guardate film come\N"Matrix", "Metropolis", Dialogue: 0,0:07:12.68,0:07:15.86,Default,,0000,0000,0000,,"Terminator", show come\N"Westworld", Dialogue: 0,0:07:15.88,0:07:18.02,Default,,0000,0000,0000,,tutti parlano di questo tipo di paura. Dialogue: 0,0:07:18.04,0:07:22.34,Default,,0000,0000,0000,,Infatti, nel libro "Superintelligence"\Ndel filosofo Nick Bostrom, Dialogue: 0,0:07:22.36,0:07:23.90,Default,,0000,0000,0000,,l'autore considera questo tema Dialogue: 0,0:07:23.92,0:07:27.94,Default,,0000,0000,0000,,e osserva che una super intelligenza\Npotrebbe non solo essere pericolosa, Dialogue: 0,0:07:27.96,0:07:31.82,Default,,0000,0000,0000,,ma rappresentare anche una minaccia\Nesistenziale per tutta l'umanità. Dialogue: 0,0:07:31.84,0:07:34.06,Default,,0000,0000,0000,,La principale argomentazione del\NDott. Bostrom Dialogue: 0,0:07:34.08,0:07:36.82,Default,,0000,0000,0000,,è che tali sistemi potrebbero prima o poi Dialogue: 0,0:07:36.84,0:07:40.10,Default,,0000,0000,0000,,avere una sete tale di informazioni Dialogue: 0,0:07:40.12,0:07:43.02,Default,,0000,0000,0000,,che potrebbero forse imparare \Ncome si impara Dialogue: 0,0:07:43.04,0:07:45.66,Default,,0000,0000,0000,,e anche scoprire che potrebbero\Navere obiettivi Dialogue: 0,0:07:45.68,0:07:47.98,Default,,0000,0000,0000,,contrari ai bisogni umani. Dialogue: 0,0:07:48.00,0:07:49.86,Default,,0000,0000,0000,,Bostrom ha un gran numero\Ndi seguaci. Dialogue: 0,0:07:49.88,0:07:54.20,Default,,0000,0000,0000,,È supportato da persone come\NElon Musk e Stephen Hawking. Dialogue: 0,0:07:54.88,0:07:57.28,Default,,0000,0000,0000,,Con tutto il rispetto dovuto Dialogue: 0,0:07:58.16,0:08:00.18,Default,,0000,0000,0000,,a queste menti brillanti, Dialogue: 0,0:08:00.20,0:08:02.46,Default,,0000,0000,0000,,credo che siano gravemente in errore. Dialogue: 0,0:08:02.48,0:08:05.66,Default,,0000,0000,0000,,Ci sarebbero molte parti della teoria\Ndi Bostrom da analizzare, Dialogue: 0,0:08:05.68,0:08:07.82,Default,,0000,0000,0000,,e non ho il tempo di analizzarle tutte, Dialogue: 0,0:08:07.84,0:08:10.54,Default,,0000,0000,0000,,ma molto brevemente, considerate questo: Dialogue: 0,0:08:10.56,0:08:14.30,Default,,0000,0000,0000,,una grande conoscenza è diversa \Nda una grande capacità di azione. Dialogue: 0,0:08:14.32,0:08:16.22,Default,,0000,0000,0000,,HAL era una minaccia per l'equipaggio Dialogue: 0,0:08:16.24,0:08:20.66,Default,,0000,0000,0000,,solo finché controllava tutti gli aspetti\Ndel Discovery. Dialogue: 0,0:08:20.68,0:08:23.18,Default,,0000,0000,0000,,Quindi avrebbe dovuto avere\Nuna super intelligenza. Dialogue: 0,0:08:23.20,0:08:25.70,Default,,0000,0000,0000,,Avrebbe dovuto dominare tutto\Nil mondo. Dialogue: 0,0:08:25.72,0:08:28.54,Default,,0000,0000,0000,,Questa è la squadra Skynet dal\Nfilm "Terminator" Dialogue: 0,0:08:28.56,0:08:30.42,Default,,0000,0000,0000,,in cui abbiamo una super intelligenza Dialogue: 0,0:08:30.44,0:08:31.82,Default,,0000,0000,0000,,che domina la volontà umana Dialogue: 0,0:08:31.84,0:08:35.70,Default,,0000,0000,0000,,e ogni congegno in ogni parte del mondo. Dialogue: 0,0:08:35.72,0:08:37.18,Default,,0000,0000,0000,,In pratica, Dialogue: 0,0:08:37.20,0:08:39.30,Default,,0000,0000,0000,,questo non succederà. Dialogue: 0,0:08:39.32,0:08:42.38,Default,,0000,0000,0000,,Non stiamo costruendo IA \Nche controllino il meteo, Dialogue: 0,0:08:42.40,0:08:43.74,Default,,0000,0000,0000,,le maree, Dialogue: 0,0:08:43.76,0:08:47.14,Default,,0000,0000,0000,,che comandino su noi capricciosi\Ne caotici umani. Dialogue: 0,0:08:47.16,0:08:51.06,Default,,0000,0000,0000,,Inoltre, se una simile intelligenza\Nartificiale esistesse, Dialogue: 0,0:08:51.08,0:08:54.02,Default,,0000,0000,0000,,dovrebbe competere con le economie\Ndegli esseri umani, Dialogue: 0,0:08:54.04,0:08:56.56,Default,,0000,0000,0000,,e quindi competere con noi\Nper le risorse disponibili. Dialogue: 0,0:08:57.20,0:08:58.42,Default,,0000,0000,0000,,E infine -- Dialogue: 0,0:08:58.44,0:08:59.68,Default,,0000,0000,0000,,non ditelo a Siri -- Dialogue: 0,0:09:00.44,0:09:01.82,Default,,0000,0000,0000,,possiamo sempre disattivarli. Dialogue: 0,0:09:01.84,0:09:03.96,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:09:05.36,0:09:07.82,Default,,0000,0000,0000,,Siamo parte di un incredibile viaggio Dialogue: 0,0:09:07.84,0:09:10.34,Default,,0000,0000,0000,,di co-evoluzione con altre macchine. Dialogue: 0,0:09:10.36,0:09:12.86,Default,,0000,0000,0000,,Gli esseri umani che siamo oggi Dialogue: 0,0:09:12.88,0:09:15.42,Default,,0000,0000,0000,,non sono quelli che saremo in futuro. Dialogue: 0,0:09:15.44,0:09:18.58,Default,,0000,0000,0000,,Preoccuparsi ora della minaccia \Ndi una super-intelligenza Dialogue: 0,0:09:18.60,0:09:21.66,Default,,0000,0000,0000,,è per molti aspetti \Nuna distrazione pericolosa Dialogue: 0,0:09:21.68,0:09:24.02,Default,,0000,0000,0000,,perché l'incremento della\Ncomputerizzazione Dialogue: 0,0:09:24.04,0:09:27.06,Default,,0000,0000,0000,,ci presenta una quantità di questioni\Numane e sociali Dialogue: 0,0:09:27.08,0:09:28.72,Default,,0000,0000,0000,,di cui adesso dobbiamo occuparci. Dialogue: 0,0:09:29.36,0:09:32.18,Default,,0000,0000,0000,,Come posso organizzare al meglio\Nla società Dialogue: 0,0:09:32.20,0:09:34.54,Default,,0000,0000,0000,,quando diminuirà la necessità\Ndel lavoro umano? Dialogue: 0,0:09:34.56,0:09:38.38,Default,,0000,0000,0000,,Come posso fornire al mondo\Nconoscenza ed educazione Dialogue: 0,0:09:38.40,0:09:40.18,Default,,0000,0000,0000,,rispettando le nostre differenze? Dialogue: 0,0:09:40.20,0:09:44.46,Default,,0000,0000,0000,,Come posso estendere e migliorare la vita\Numana attraverso la salute cognitiva? Dialogue: 0,0:09:44.48,0:09:47.34,Default,,0000,0000,0000,,Come posso usare la computerizzazione Dialogue: 0,0:09:47.36,0:09:49.12,Default,,0000,0000,0000,,per raggiungere le stelle? Dialogue: 0,0:09:49.76,0:09:51.80,Default,,0000,0000,0000,,Ed è questa la cosa eccitante. Dialogue: 0,0:09:52.40,0:09:54.74,Default,,0000,0000,0000,,Le opportunità di elaborare dati Dialogue: 0,0:09:54.76,0:09:56.30,Default,,0000,0000,0000,,per affinare l'esperienza umana Dialogue: 0,0:09:56.32,0:09:57.74,Default,,0000,0000,0000,,sono alla nostra portata, Dialogue: 0,0:09:57.76,0:09:59.62,Default,,0000,0000,0000,,qui e adesso, Dialogue: 0,0:09:59.64,0:10:01.32,Default,,0000,0000,0000,,e siamo solo all'inizio. Dialogue: 0,0:10:02.28,0:10:03.50,Default,,0000,0000,0000,,Grazie mille. Dialogue: 0,0:10:03.52,0:10:07.81,Default,,0000,0000,0000,,(Applausi)