[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.76,0:00:05.18,Default,,0000,0000,0000,,Dopo 13,8 miliardi di anni \Ndi storia cosmica, Dialogue: 0,0:00:05.20,0:00:07.30,Default,,0000,0000,0000,,il nostro universo si è risvegliato Dialogue: 0,0:00:07.32,0:00:08.98,Default,,0000,0000,0000,,e ha preso coscienza di se stesso. Dialogue: 0,0:00:09.48,0:00:11.42,Default,,0000,0000,0000,,Da un piccolo pianeta blu, Dialogue: 0,0:00:11.44,0:00:13.62,Default,,0000,0000,0000,,minuscole parti coscienti \Ndel nostro universo Dialogue: 0,0:00:13.62,0:00:15.60,Default,,0000,0000,0000,,hanno iniziato a osservare il cosmo Dialogue: 0,0:00:15.60,0:00:16.98,Default,,0000,0000,0000,,con telescopi, Dialogue: 0,0:00:17.00,0:00:18.48,Default,,0000,0000,0000,,scoprendo umiltà. Dialogue: 0,0:00:19.32,0:00:22.22,Default,,0000,0000,0000,,Abbiamo scoperto che il nostro universo \Nè molto più grande Dialogue: 0,0:00:22.24,0:00:24.52,Default,,0000,0000,0000,,di quanto abbiano immaginato \Ni nostri antenati Dialogue: 0,0:00:24.52,0:00:27.86,Default,,0000,0000,0000,,e che la vita sembra essere \Nuna perturbazione quasi impercettibile Dialogue: 0,0:00:27.88,0:00:29.60,Default,,0000,0000,0000,,in un universo altrimenti morto. Dialogue: 0,0:00:30.32,0:00:33.34,Default,,0000,0000,0000,,Ma abbiamo anche scoperto \Nqualcosa di stimolante, Dialogue: 0,0:00:33.36,0:00:36.34,Default,,0000,0000,0000,,ossia che la tecnologia \Nche stiamo sviluppando Dialogue: 0,0:00:36.36,0:00:39.50,Default,,0000,0000,0000,,può potenzialmente aiutare la vita \Na fiorire come mai prima d'ora, Dialogue: 0,0:00:39.50,0:00:42.34,Default,,0000,0000,0000,,non solo per secoli, \Nma per miliardi di anni, Dialogue: 0,0:00:42.36,0:00:46.48,Default,,0000,0000,0000,,e non solo sulla terra \Nma in gran parte dell'universo. Dialogue: 0,0:00:47.68,0:00:51.02,Default,,0000,0000,0000,,Vedo la vita precedente \Ncome una "Vita 1.0" Dialogue: 0,0:00:51.04,0:00:52.42,Default,,0000,0000,0000,,perché era davvero stupida, Dialogue: 0,0:00:52.44,0:00:56.74,Default,,0000,0000,0000,,come i batteri, incapaci \Ndi imparare alcunché. Dialogue: 0,0:00:56.76,0:01:00.14,Default,,0000,0000,0000,,Vedo gli esseri umani come una "Vita 2.0" \Nperché possiamo imparare, Dialogue: 0,0:01:00.16,0:01:01.66,Default,,0000,0000,0000,,che in linguaggio nerd o geek, Dialogue: 0,0:01:01.68,0:01:04.90,Default,,0000,0000,0000,,significa installare \Nnuovi software nel cervello, Dialogue: 0,0:01:04.92,0:01:07.04,Default,,0000,0000,0000,,come le lingue \Ne le capacità lavorative. Dialogue: 0,0:01:07.68,0:01:11.98,Default,,0000,0000,0000,,La "Vita 3.0", che può progettare \Nl'hardware oltre che il software Dialogue: 0,0:01:12.00,0:01:13.66,Default,,0000,0000,0000,,ovviamente non esiste ancora. Dialogue: 0,0:01:13.68,0:01:17.46,Default,,0000,0000,0000,,Ma forse la nostra tecnologia \Nci ha già resi "Vita 2.1", Dialogue: 0,0:01:17.48,0:01:21.82,Default,,0000,0000,0000,,con le ginocchia artificiali, \Ni pacemaker e gli apparecchi acustici. Dialogue: 0,0:01:21.84,0:01:25.72,Default,,0000,0000,0000,,Diamo uno sguardo più da vicino \Nalla nostra relazione con la tecnologia. Dialogue: 0,0:01:26.80,0:01:28.02,Default,,0000,0000,0000,,Ad esempio, Dialogue: 0,0:01:28.04,0:01:33.34,Default,,0000,0000,0000,,la missione lunare Apollo 11\Nè riuscita ed è stata stimolante, Dialogue: 0,0:01:33.36,0:01:36.77,Default,,0000,0000,0000,,mostrando che quando gli esseri umani \Nusano la tecnologia con saggezza, Dialogue: 0,0:01:36.77,0:01:40.34,Default,,0000,0000,0000,,possiamo compiere cose \Nche i nostri antenati si sognavano. Dialogue: 0,0:01:40.36,0:01:43.34,Default,,0000,0000,0000,,Ma c'è un percorso ancora più stimolante Dialogue: 0,0:01:43.36,0:01:46.34,Default,,0000,0000,0000,,spinto da qualcosa di ancora più forte \Ndei motori dei razzi, Dialogue: 0,0:01:47.20,0:01:49.55,Default,,0000,0000,0000,,in cui i passeggeri \Nnon sono solo tre astronauti Dialogue: 0,0:01:49.56,0:01:51.34,Default,,0000,0000,0000,,ma tutta l'umanità. Dialogue: 0,0:01:51.36,0:01:54.30,Default,,0000,0000,0000,,Parliamo del nostro viaggio collettivo \Nnel futuro Dialogue: 0,0:01:54.32,0:01:56.32,Default,,0000,0000,0000,,con l'intelligenza artificiale. Dialogue: 0,0:01:56.96,0:02:01.50,Default,,0000,0000,0000,,Il mio amico Jaan Tallinn \Nama sottolineare che proprio come i razzi, Dialogue: 0,0:02:01.52,0:02:04.68,Default,,0000,0000,0000,,non basta rendere potente la tecnologia. Dialogue: 0,0:02:05.56,0:02:08.74,Default,,0000,0000,0000,,Dobbiamo anche capire \Nse saremo davvero ambiziosi, Dialogue: 0,0:02:08.76,0:02:10.18,Default,,0000,0000,0000,,dove indirizzarla Dialogue: 0,0:02:10.20,0:02:11.88,Default,,0000,0000,0000,,e dove vogliamo andarci. Dialogue: 0,0:02:12.88,0:02:15.72,Default,,0000,0000,0000,,Parliamo di tutti e tre \Nper l'intelligenza artificiale: Dialogue: 0,0:02:16.44,0:02:19.50,Default,,0000,0000,0000,,la potenza, la direzione \Ne la destinazione. Dialogue: 0,0:02:19.52,0:02:20.81,Default,,0000,0000,0000,,Iniziamo con la potenza. Dialogue: 0,0:02:21.60,0:02:24.70,Default,,0000,0000,0000,,Definisco l'intelligenza \Nin modo molto inclusivo -- Dialogue: 0,0:02:24.72,0:02:29.06,Default,,0000,0000,0000,,semplicemente la nostra capacità \Ndi realizzare obiettivi complessi, Dialogue: 0,0:02:29.08,0:02:31.57,Default,,0000,0000,0000,,perché voglio includere \Nsia l'intelligenza biologica Dialogue: 0,0:02:31.57,0:02:32.92,Default,,0000,0000,0000,,che quella artificiale. Dialogue: 0,0:02:32.92,0:02:36.94,Default,,0000,0000,0000,,E voglio evitare \Nquella stupida idea carbonio-sciovinistica Dialogue: 0,0:02:36.96,0:02:39.60,Default,,0000,0000,0000,,che si può essere intelligenti \Nsolo se fatti di carne. Dialogue: 0,0:02:40.88,0:02:45.06,Default,,0000,0000,0000,,È incredibile \Nquanto sia migliorata l'IA ultimamente. Dialogue: 0,0:02:45.08,0:02:46.34,Default,,0000,0000,0000,,Pensateci un po'. Dialogue: 0,0:02:46.36,0:02:49.56,Default,,0000,0000,0000,,Non molto tempo fa, \Ni robot non potevano camminare. Dialogue: 0,0:02:51.04,0:02:52.76,Default,,0000,0000,0000,,Ora possono fare capriole. Dialogue: 0,0:02:54.08,0:02:55.90,Default,,0000,0000,0000,,Poco tempo fa, Dialogue: 0,0:02:55.92,0:02:57.68,Default,,0000,0000,0000,,non avevamo le auto \Na guida autonoma. Dialogue: 0,0:02:58.92,0:03:01.40,Default,,0000,0000,0000,,Ora abbiamo razzi a volo autonomo. Dialogue: 0,0:03:03.96,0:03:05.38,Default,,0000,0000,0000,,Poco tempo fa, Dialogue: 0,0:03:05.40,0:03:08.02,Default,,0000,0000,0000,,l'IA non era capace \Ndi riconoscimento facciale. Dialogue: 0,0:03:08.04,0:03:11.02,Default,,0000,0000,0000,,Ora l'IA può generare falsi visi Dialogue: 0,0:03:11.04,0:03:15.20,Default,,0000,0000,0000,,e similare la vostra faccia \Nche dice cose che non avete mai detto. Dialogue: 0,0:03:16.40,0:03:17.98,Default,,0000,0000,0000,,Poco tempo fa, Dialogue: 0,0:03:18.00,0:03:19.88,Default,,0000,0000,0000,,l'IA non poteva batterci a Go. Dialogue: 0,0:03:20.40,0:03:25.50,Default,,0000,0000,0000,,Poi, l'IA AlphaZero di Google DeepMind \Nha preso 3000 anni di giochi di Go Dialogue: 0,0:03:25.52,0:03:26.78,Default,,0000,0000,0000,,e saggezza Go, Dialogue: 0,0:03:26.80,0:03:30.19,Default,,0000,0000,0000,,li ha ignorati tutti ed è diventato \Nil miglior giocatore al mondo Dialogue: 0,0:03:30.19,0:03:31.80,Default,,0000,0000,0000,,giocando contro se stesso. Dialogue: 0,0:03:31.80,0:03:35.50,Default,,0000,0000,0000,,E l'aspetto più impressionante \Nnon è che ha stracciato gli umani, Dialogue: 0,0:03:35.52,0:03:38.10,Default,,0000,0000,0000,,ma che ha stracciato i ricercatori di IA Dialogue: 0,0:03:38.12,0:03:41.80,Default,,0000,0000,0000,,che avevano passato decenni \Na creare il software di gioco. Dialogue: 0,0:03:42.20,0:03:46.86,Default,,0000,0000,0000,,E AlphaZero ha stracciato i ricercatori \Ndi IA non solo a Go, ma anche a scacchi, Dialogue: 0,0:03:46.88,0:03:49.36,Default,,0000,0000,0000,,su cui lavoriamo dal 1950. Dialogue: 0,0:03:50.00,0:03:54.24,Default,,0000,0000,0000,,Questi straordinari progressi recenti \Nin IA sollevano la questione: Dialogue: 0,0:03:55.28,0:03:56.84,Default,,0000,0000,0000,,fin dove ci spingeremo? Dialogue: 0,0:03:57.80,0:03:59.50,Default,,0000,0000,0000,,Mi piace pensare a questa domanda Dialogue: 0,0:03:59.52,0:04:02.50,Default,,0000,0000,0000,,in termini di astratto panorama di compiti Dialogue: 0,0:04:02.52,0:04:05.98,Default,,0000,0000,0000,,in cui l'elevazione rappresenta \Nla difficoltà di ogni compito per l'IA Dialogue: 0,0:04:06.00,0:04:07.22,Default,,0000,0000,0000,,a livello umano, Dialogue: 0,0:04:07.24,0:04:10.39,Default,,0000,0000,0000,,e il livello del mare rappresenta \Nquello che l'IA può fare oggi. Dialogue: 0,0:04:11.12,0:04:13.63,Default,,0000,0000,0000,,Il livello del mare si innalza \Nquando l'IA migliora, Dialogue: 0,0:04:13.63,0:04:16.81,Default,,0000,0000,0000,,c'è una specie di riscaldamento globale \Nnel panorama dei compiti. Dialogue: 0,0:04:18.04,0:04:21.38,Default,,0000,0000,0000,,Il risultato ovvio è evitare \Ncarriere lungo la costa -- Dialogue: 0,0:04:21.40,0:04:22.66,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:04:22.68,0:04:25.54,Default,,0000,0000,0000,,che saranno presto \Nscombussolate e automatizzate. Dialogue: 0,0:04:25.56,0:04:28.54,Default,,0000,0000,0000,,Ma la questione è molto più ampia. Dialogue: 0,0:04:28.56,0:04:30.37,Default,,0000,0000,0000,,Quanto si innalzerà l'acqua? Dialogue: 0,0:04:31.44,0:04:34.64,Default,,0000,0000,0000,,Si innalzerà per inondare tutto, Dialogue: 0,0:04:35.84,0:04:38.34,Default,,0000,0000,0000,,arriverà a livello \Ndi tutti i compiti umani. Dialogue: 0,0:04:38.36,0:04:42.10,Default,,0000,0000,0000,,Questa è la definizione \Ndi intelligenza artificiale generale -- Dialogue: 0,0:04:42.12,0:04:43.42,Default,,0000,0000,0000,,AGI, Dialogue: 0,0:04:43.44,0:04:46.52,Default,,0000,0000,0000,,che è stato il santo graal \Ndell'IA fin dalla sua nascita. Dialogue: 0,0:04:47.00,0:04:49.02,Default,,0000,0000,0000,,Con questa definizione, la gente che dice, Dialogue: 0,0:04:49.02,0:04:51.23,Default,,0000,0000,0000,,"Ci saranno sempre lavori \Nche gli esseri umani Dialogue: 0,0:04:51.23,0:04:52.91,Default,,0000,0000,0000,,possono fare meglio delle macchine, Dialogue: 0,0:04:52.91,0:04:55.68,Default,,0000,0000,0000,,sta semplicemente dicendo \Nche non arriveremo mai all'AGI. Dialogue: 0,0:04:55.68,0:04:59.26,Default,,0000,0000,0000,,Certo, potremo anche scegliere \Ndi avere lavori umani Dialogue: 0,0:04:59.28,0:05:02.41,Default,,0000,0000,0000,,o di dare agli esseri umani reddito \Ne scopo con i nostri lavori, Dialogue: 0,0:05:02.41,0:05:06.14,Default,,0000,0000,0000,,ma l'AGI trasformerà comunque \Nla vita come la conosciamo Dialogue: 0,0:05:06.16,0:05:08.90,Default,,0000,0000,0000,,e gli esseri umani \Nnon saranno più i più intelligenti. Dialogue: 0,0:05:08.92,0:05:12.62,Default,,0000,0000,0000,,Se il livello dell'acqua raggiunge l'AGI, Dialogue: 0,0:05:12.64,0:05:16.40,Default,,0000,0000,0000,,gli ulteriori progressi dell'IA \Nnon saranno più guidati Dialogue: 0,0:05:16.40,0:05:17.96,Default,,0000,0000,0000,,dagli esseri umani, ma dalla IA, Dialogue: 0,0:05:17.96,0:05:19.80,Default,,0000,0000,0000,,che significa che c'è la possibilità Dialogue: 0,0:05:19.80,0:05:22.51,Default,,0000,0000,0000,,che un'ulteriore progresso dell'IA \Nsia ancora più veloce Dialogue: 0,0:05:22.51,0:05:25.65,Default,,0000,0000,0000,,della tipica scala temporale \Ndi ricerca e sviluppo umani di anni, Dialogue: 0,0:05:25.65,0:05:29.62,Default,,0000,0000,0000,,sollevando la possibile controversia \Ndi un'esplosione di intelligenza Dialogue: 0,0:05:29.64,0:05:32.04,Default,,0000,0000,0000,,in cui una IA che auto-migliora \Nin modo ricorrente Dialogue: 0,0:05:32.04,0:05:35.38,Default,,0000,0000,0000,,lascia rapidamente molto indietro \Nl'intelligenza umana, Dialogue: 0,0:05:35.40,0:05:37.84,Default,,0000,0000,0000,,creando quello che chiamiamo \Nuna superintelligenza. Dialogue: 0,0:05:39.80,0:05:42.08,Default,,0000,0000,0000,,Controllo della realtà: Dialogue: 0,0:05:43.12,0:05:45.56,Default,,0000,0000,0000,,avremo a breve l'AGI? Dialogue: 0,0:05:46.36,0:05:49.06,Default,,0000,0000,0000,,Alcuni famosi ricercatori di IA, \Ncome Rodney Brooks, Dialogue: 0,0:05:49.08,0:05:51.58,Default,,0000,0000,0000,,pensano che non succederà \Nper centinaia di anni. Dialogue: 0,0:05:51.60,0:05:55.50,Default,,0000,0000,0000,,Ma altri, come il fondatore \Ndi Google DeepMind Demis Hassabis, Dialogue: 0,0:05:55.52,0:05:56.78,Default,,0000,0000,0000,,sono più ottimisti Dialogue: 0,0:05:56.80,0:05:59.38,Default,,0000,0000,0000,,e stanno lavorando \Nper farlo accadere molto prima. Dialogue: 0,0:05:59.40,0:06:02.70,Default,,0000,0000,0000,,Ricerche recenti hanno dimostrato \Nche molti ricercatori di IA Dialogue: 0,0:06:02.72,0:06:05.58,Default,,0000,0000,0000,,condividono l'ottimismo di Demis, Dialogue: 0,0:06:05.60,0:06:08.68,Default,,0000,0000,0000,,e si aspettano di vedere l'AGI \Nin qualche decennio, Dialogue: 0,0:06:09.64,0:06:11.90,Default,,0000,0000,0000,,quindi durante le vita di molti di noi, Dialogue: 0,0:06:11.92,0:06:13.88,Default,,0000,0000,0000,,il che solleva la domanda: e poi? Dialogue: 0,0:06:15.04,0:06:17.45,Default,,0000,0000,0000,,Quale vogliamo che sia \Nil ruolo degli esseri umani Dialogue: 0,0:06:17.45,0:06:20.20,Default,,0000,0000,0000,,se le macchina possono fare tutto \Nmeglio e a minor costo? Dialogue: 0,0:06:23.00,0:06:25.10,Default,,0000,0000,0000,,La vedo così: abbiamo di fronte \Nuna scelta. Dialogue: 0,0:06:26.00,0:06:27.58,Default,,0000,0000,0000,,Un'opzione è esserne soddisfatti. Dialogue: 0,0:06:27.60,0:06:29.77,Default,,0000,0000,0000,,Possiamo dire, "Dai, costruiamo macchine Dialogue: 0,0:06:29.77,0:06:31.87,Default,,0000,0000,0000,,che possano fare tutto \Nquel che facciamo noi Dialogue: 0,0:06:31.87,0:06:33.81,Default,,0000,0000,0000,,e non ci preoccupiamo delle conseguenze. Dialogue: 0,0:06:33.81,0:06:36.76,Default,,0000,0000,0000,,Dai, se costruiamo tecnologie \Nche rendono gli umani obsoleti, Dialogue: 0,0:06:36.76,0:06:38.62,Default,,0000,0000,0000,,cosa potrebbe andare storto?" Dialogue: 0,0:06:38.64,0:06:40.30,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:06:40.32,0:06:43.08,Default,,0000,0000,0000,,Ma credo che sarebbe \Ndavvero poco convincente. Dialogue: 0,0:06:44.08,0:06:47.58,Default,,0000,0000,0000,,Credo che dovremmo essere \Npiù ambiziosi, nello spirito di TED. Dialogue: 0,0:06:47.60,0:06:51.10,Default,,0000,0000,0000,,Immaginiamo un futuro high-tech \Ndavvero stimolante Dialogue: 0,0:06:51.12,0:06:53.13,Default,,0000,0000,0000,,e cerchiamo di andare \Nin quella direzione. Dialogue: 0,0:06:53.72,0:06:57.26,Default,,0000,0000,0000,,Questo ci porta alla seconda parte \Ndella metafora del razzo: la direzione. Dialogue: 0,0:06:57.28,0:06:59.18,Default,,0000,0000,0000,,Facciamo l'IA più potente, Dialogue: 0,0:06:59.20,0:07:03.02,Default,,0000,0000,0000,,ma come possiamo indirizzarci \Nverso un futuro Dialogue: 0,0:07:03.04,0:07:06.12,Default,,0000,0000,0000,,in cui l'IA aiuti l'umanità \Na progredire invece di annaspare? Dialogue: 0,0:07:06.76,0:07:08.02,Default,,0000,0000,0000,,Per aiutare, Dialogue: 0,0:07:08.04,0:07:10.02,Default,,0000,0000,0000,,ho cofondato il Future of Life Institute. Dialogue: 0,0:07:10.04,0:07:13.33,Default,,0000,0000,0000,,È una piccola no profit che promuove \Nl'uso benefico della tecnologia, Dialogue: 0,0:07:13.33,0:07:15.58,Default,,0000,0000,0000,,e il nostro obiettivo è \Nil futuro della vita Dialogue: 0,0:07:15.60,0:07:17.66,Default,,0000,0000,0000,,e essere più stimolanti possibile. Dialogue: 0,0:07:17.68,0:07:20.86,Default,,0000,0000,0000,,Sapete che adoro la tecnologia. Dialogue: 0,0:07:20.88,0:07:24.66,Default,,0000,0000,0000,,La tecnologia è il motivo per cui oggi \Nstiamo meglio che nell'età della pietra. Dialogue: 0,0:07:24.66,0:07:28.68,Default,,0000,0000,0000,,E sono ottimista, possiamo creare \Nun futuro high-tech davvero stimolante... Dialogue: 0,0:07:29.68,0:07:31.14,Default,,0000,0000,0000,,se, ed è un grande se, Dialogue: 0,0:07:31.16,0:07:33.62,Default,,0000,0000,0000,,se vinciamo la gara della saggezza, Dialogue: 0,0:07:33.64,0:07:36.50,Default,,0000,0000,0000,,la gara tra il potere crescente \Ndella tecnologia Dialogue: 0,0:07:36.52,0:07:38.72,Default,,0000,0000,0000,,e la saggezza crescente \Ncon cui la gestiamo. Dialogue: 0,0:07:39.24,0:07:41.54,Default,,0000,0000,0000,,Ma sarà necessario un cambio di strategia Dialogue: 0,0:07:41.56,0:07:44.99,Default,,0000,0000,0000,,perché la nostra vecchia strategia \Nprevedeva di imparare dagli errori. Dialogue: 0,0:07:45.28,0:07:46.82,Default,,0000,0000,0000,,Abbiamo inventato il fuoco, Dialogue: 0,0:07:46.84,0:07:48.38,Default,,0000,0000,0000,,abbiamo fatto qualche casino -- Dialogue: 0,0:07:48.40,0:07:50.22,Default,,0000,0000,0000,,abbiamo inventato l'estintore. Dialogue: 0,0:07:50.24,0:07:51.58,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:07:51.60,0:07:54.20,Default,,0000,0000,0000,,Abbiamo inventato la macchina, \Nfatto qualche casino -- Dialogue: 0,0:07:54.20,0:07:56.83,Default,,0000,0000,0000,,abbiamo inventato i semafori, \Nle cinture e gli airbag, Dialogue: 0,0:07:56.83,0:08:00.58,Default,,0000,0000,0000,,ma con una tecnologia più potente \Ncome le armi nucleari e l'AGI, Dialogue: 0,0:08:00.60,0:08:03.98,Default,,0000,0000,0000,,imparare dagli errori \Nè una strategia che fa schifo, Dialogue: 0,0:08:04.00,0:08:05.22,Default,,0000,0000,0000,,siete d'accordo? Dialogue: 0,0:08:05.24,0:08:06.26,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:08:06.28,0:08:08.86,Default,,0000,0000,0000,,È molto meglio essere proattivi \Ninvece che reattivi; Dialogue: 0,0:08:08.88,0:08:11.67,Default,,0000,0000,0000,,pianificare in anticipo \Ne fare le cose bene la prima volta Dialogue: 0,0:08:11.67,0:08:13.100,Default,,0000,0000,0000,,perché potrebbe essere \Nla nostra unica occasione. Dialogue: 0,0:08:13.100,0:08:16.33,Default,,0000,0000,0000,,Ma è divertente perché talvolta \Nla gente mi dice, Dialogue: 0,0:08:16.33,0:08:18.82,Default,,0000,0000,0000,,"Max, shhh, non dire così. Dialogue: 0,0:08:18.84,0:08:20.56,Default,,0000,0000,0000,,È allarmismo luddista." Dialogue: 0,0:08:22.04,0:08:23.58,Default,,0000,0000,0000,,Ma non è allarmismo. Dialogue: 0,0:08:23.60,0:08:26.48,Default,,0000,0000,0000,,È quello che noi all'MIT chiamiamo \Ningegneria di sicurezza. Dialogue: 0,0:08:27.20,0:08:28.42,Default,,0000,0000,0000,,Pensateci: Dialogue: 0,0:08:28.44,0:08:30.66,Default,,0000,0000,0000,,prima del lancio della missione Apollo 11, Dialogue: 0,0:08:30.68,0:08:34.30,Default,,0000,0000,0000,,la NASA ha pensato sistematicamente \Na tutto quello che poteva andare storto Dialogue: 0,0:08:34.30,0:08:36.66,Default,,0000,0000,0000,,a mettere persone\Nsu serbatoi carburante esplosivi Dialogue: 0,0:08:36.66,0:08:39.02,Default,,0000,0000,0000,,e lanciarle dove nessuno \Navrebbe potuto aiutarle. Dialogue: 0,0:08:39.02,0:08:40.82,Default,,0000,0000,0000,,E molte cose potevano andare storte. Dialogue: 0,0:08:40.84,0:08:42.32,Default,,0000,0000,0000,,Era allarmismo? Dialogue: 0,0:08:43.16,0:08:44.38,Default,,0000,0000,0000,,No. Dialogue: 0,0:08:44.40,0:08:46.42,Default,,0000,0000,0000,,Era esattamente l'ingegneria di sicurezza Dialogue: 0,0:08:46.44,0:08:48.48,Default,,0000,0000,0000,,che assicurava il successo della missione, Dialogue: 0,0:08:48.48,0:08:52.58,Default,,0000,0000,0000,,ed è esattamente la strategia \Nche credo dovremmo adottare per l'AGI. Dialogue: 0,0:08:52.60,0:08:56.66,Default,,0000,0000,0000,,Pensare a quello che potrebbe \Nandare storto per fare le cose giuste. Dialogue: 0,0:08:56.68,0:08:59.22,Default,,0000,0000,0000,,Con questo spirito, \Nabbiamo organizzato conferenze, Dialogue: 0,0:08:59.24,0:09:02.06,Default,,0000,0000,0000,,riunito grandi ricercatori di IA \Ne altri esperti Dialogue: 0,0:09:02.08,0:09:04.46,Default,,0000,0000,0000,,per discutere di come coltivare \Nla saggezza utile Dialogue: 0,0:09:04.46,0:09:05.84,Default,,0000,0000,0000,,perché l'IA sia vantaggiosa. Dialogue: 0,0:09:05.84,0:09:09.35,Default,,0000,0000,0000,,La nostra ultima conferenza è stata \Na Asilomar, California, l'anno scorso Dialogue: 0,0:09:09.35,0:09:12.22,Default,,0000,0000,0000,,e ha prodotto una lista di 23 principi Dialogue: 0,0:09:12.24,0:09:15.57,Default,,0000,0000,0000,,che da allora sono stati sottoscritti \Nda più di 1000 ricercatori di IA Dialogue: 0,0:09:15.57,0:09:17.11,Default,,0000,0000,0000,,e importanti leader industriali. Dialogue: 0,0:09:17.11,0:09:19.66,Default,,0000,0000,0000,,Voglio raccontarvi tre di questi principi. Dialogue: 0,0:09:19.68,0:09:21.89,Default,,0000,0000,0000,,Uno è che dovremmo evitare Dialogue: 0,0:09:21.89,0:09:25.48,Default,,0000,0000,0000,,una corsa agli armamenti \Ne armi autonome letali. Dialogue: 0,0:09:25.48,0:09:29.10,Default,,0000,0000,0000,,L'idea è che qualunque scienza \Npuò essere usata per aiutare la gente Dialogue: 0,0:09:29.12,0:09:30.66,Default,,0000,0000,0000,,o per armare la gente. Dialogue: 0,0:09:30.68,0:09:34.62,Default,,0000,0000,0000,,Per esempio, è più probabile \Nche la biologia e la chimica vengano usate Dialogue: 0,0:09:34.64,0:09:39.50,Default,,0000,0000,0000,,per nuovi medicinali o nuove cure \Nche per uccidere le persone, Dialogue: 0,0:09:39.52,0:09:41.70,Default,,0000,0000,0000,,perché biologi e chimici \Nfanno pressione, Dialogue: 0,0:09:41.72,0:09:42.98,Default,,0000,0000,0000,,in modo efficace, Dialogue: 0,0:09:43.00,0:09:45.18,Default,,0000,0000,0000,,per proibire armi chimiche e biologiche. Dialogue: 0,0:09:45.20,0:09:46.46,Default,,0000,0000,0000,,Con lo stesso spirito, Dialogue: 0,0:09:46.48,0:09:51.31,Default,,0000,0000,0000,,molti ricercatori vogliono stigmatizzare \Ne proibire le armi letali autonome. Dialogue: 0,0:09:51.60,0:09:53.42,Default,,0000,0000,0000,,Un altro principio Asilomar dell'IA Dialogue: 0,0:09:53.44,0:09:54.75,Default,,0000,0000,0000,,è che dovremmo mitigare Dialogue: 0,0:09:54.75,0:09:57.16,Default,,0000,0000,0000,,le disparità di reddito \Nalimentate dall'IA. Dialogue: 0,0:09:57.16,0:10:01.62,Default,,0000,0000,0000,,Credo che se possiamo far crescere \Nsignificativamente l'economia con l'IA Dialogue: 0,0:10:01.64,0:10:04.10,Default,,0000,0000,0000,,senza capire come dividerci questa torta Dialogue: 0,0:10:04.12,0:10:05.70,Default,,0000,0000,0000,,in modo che tutti stiano meglio, Dialogue: 0,0:10:05.72,0:10:06.98,Default,,0000,0000,0000,,è una vergogna. Dialogue: 0,0:10:07.00,0:10:11.10,Default,,0000,0000,0000,,(Applausi) Dialogue: 0,0:10:11.12,0:10:14.72,Default,,0000,0000,0000,,Bene, ora alzate la mano \Nse vi si è mai impallato il computer. Dialogue: 0,0:10:15.48,0:10:16.74,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:10:16.76,0:10:18.42,Default,,0000,0000,0000,,Wow, sono tante mani. Dialogue: 0,0:10:18.44,0:10:20.62,Default,,0000,0000,0000,,Allora vi piacerà questo principio Dialogue: 0,0:10:20.64,0:10:23.78,Default,,0000,0000,0000,,per cui dovremmo investire \Nmolto di più nella sicurezza dell'IA, Dialogue: 0,0:10:23.80,0:10:27.57,Default,,0000,0000,0000,,perché se cediamo il controllo all'IA \Nin sempre più decisioni e infrastrutture, Dialogue: 0,0:10:27.57,0:10:31.10,Default,,0000,0000,0000,,dobbiamo capire come trasformare \Ni bug e i computer attaccabili di oggi Dialogue: 0,0:10:31.12,0:10:33.54,Default,,0000,0000,0000,,in sistemi di IA solidi \Nin cui avere fiducia, Dialogue: 0,0:10:33.56,0:10:34.78,Default,,0000,0000,0000,,perché altrimenti, Dialogue: 0,0:10:34.80,0:10:38.29,Default,,0000,0000,0000,,questa meravigliosa nuova tecnologia, \Npuò funzionare male e danneggiarci, Dialogue: 0,0:10:38.29,0:10:40.48,Default,,0000,0000,0000,,o essere attaccata \Ne rivoltarsi contro di noi. Dialogue: 0,0:10:40.48,0:10:42.21,Default,,0000,0000,0000,,Questo lavoro di sicurezza sull'IA Dialogue: 0,0:10:42.21,0:10:45.36,Default,,0000,0000,0000,,deve includere un allineamento dei valori, Dialogue: 0,0:10:45.36,0:10:48.18,Default,,0000,0000,0000,,perché la vera minaccia dell'AGI \Nnon è la malizia, Dialogue: 0,0:10:48.20,0:10:50.03,Default,,0000,0000,0000,,come negli stupidi film hollywoodiani, Dialogue: 0,0:10:50.03,0:10:51.62,Default,,0000,0000,0000,,ma la competenza -- Dialogue: 0,0:10:51.64,0:10:55.06,Default,,0000,0000,0000,,l'AGI realizza obiettivi \Nche non sono allineati ai nostri. Dialogue: 0,0:10:55.08,0:10:56.76,Default,,0000,0000,0000,,Per esempio, quando noi umani Dialogue: 0,0:10:56.76,0:10:59.84,Default,,0000,0000,0000,,abbiamo portato \Nil rinoceronte all'estinzione, Dialogue: 0,0:10:59.84,0:11:03.74,Default,,0000,0000,0000,,non l'abbiamo fatto perché eravamo \Nnemici dei rinoceronti, no? Dialogue: 0,0:11:03.76,0:11:06.39,Default,,0000,0000,0000,,L'abbiamo fatto perché \Neravamo più intelligenti di loro Dialogue: 0,0:11:06.39,0:11:08.89,Default,,0000,0000,0000,,e i nostri obiettivi \Nnon erano allineati con i loro. Dialogue: 0,0:11:08.89,0:11:11.32,Default,,0000,0000,0000,,Ma l'AGI per definizione \Nè più intelligente di noi, Dialogue: 0,0:11:11.32,0:11:14.95,Default,,0000,0000,0000,,quindi per essere sicuri di non metterci \Nnella posizione di quei rinoceronti Dialogue: 0,0:11:14.95,0:11:16.70,Default,,0000,0000,0000,,se creiamo l'AGI, Dialogue: 0,0:11:16.72,0:11:20.90,Default,,0000,0000,0000,,dobbiamo capire come fare macchine \Nche capiscano i nostri obiettivi, Dialogue: 0,0:11:20.92,0:11:24.08,Default,,0000,0000,0000,,li adottino e li memorizzino. Dialogue: 0,0:11:25.32,0:11:28.18,Default,,0000,0000,0000,,E comunque \Ndi chi dovrebbero essere questi obiettivi? Dialogue: 0,0:11:28.20,0:11:30.10,Default,,0000,0000,0000,,Quali obiettivi dovrebbero essere? Dialogue: 0,0:11:30.12,0:11:30.84,Default,,0000,0000,0000,,Questo ci porta Dialogue: 0,0:11:30.84,0:11:34.92,Default,,0000,0000,0000,,alla terza parte della nostra metafora \Ndel razzo: la destinazione. Dialogue: 0,0:11:35.16,0:11:37.02,Default,,0000,0000,0000,,Facciamo IA più potente, Dialogue: 0,0:11:37.04,0:11:38.86,Default,,0000,0000,0000,,per capire come indirizzarla, Dialogue: 0,0:11:38.88,0:11:40.56,Default,,0000,0000,0000,,ma dove vogliamo andarci? Dialogue: 0,0:11:41.76,0:11:45.42,Default,,0000,0000,0000,,È l'elefante nella stanza \Ndi cui quasi nessuno parla, Dialogue: 0,0:11:45.44,0:11:47.30,Default,,0000,0000,0000,,nemmeno qui a TED, Dialogue: 0,0:11:47.32,0:11:51.40,Default,,0000,0000,0000,,perché siamo così fissati \Nsulle sfide a breve termine dell'IA. Dialogue: 0,0:11:52.08,0:11:56.74,Default,,0000,0000,0000,,La nostra specie \Nsta cercando di costruire l'AGI, Dialogue: 0,0:11:56.76,0:12:00.26,Default,,0000,0000,0000,,motivata da curiosità \Ne interessi economici, Dialogue: 0,0:12:00.28,0:12:03.96,Default,,0000,0000,0000,,ma in che tipo di società futura \Nsperiamo se abbiamo successo? Dialogue: 0,0:12:04.68,0:12:06.62,Default,,0000,0000,0000,,Di recente, abbiamo fatto un sondaggio, Dialogue: 0,0:12:06.64,0:12:08.01,Default,,0000,0000,0000,,sono stato colpito del fatto Dialogue: 0,0:12:08.01,0:12:11.34,Default,,0000,0000,0000,,che in realtà molti vogliono \Nche si costruisca una superintelligenza: Dialogue: 0,0:12:11.34,0:12:14.22,Default,,0000,0000,0000,,IA che sia molto più intelligente \Ndi noi in tutti i sensi. Dialogue: 0,0:12:15.12,0:12:18.54,Default,,0000,0000,0000,,Il più grande accordo \Nè stato sull'ambizione Dialogue: 0,0:12:18.56,0:12:20.88,Default,,0000,0000,0000,,e sull'aiutare la vita \Na diffondersi nel cosmo, Dialogue: 0,0:12:20.88,0:12:25.10,Default,,0000,0000,0000,,ma c'è stato molto meno accordo \Nsu chi o cosa fosse responsabile. Dialogue: 0,0:12:25.12,0:12:26.86,Default,,0000,0000,0000,,E mi sono quasi divertito Dialogue: 0,0:12:26.88,0:12:30.34,Default,,0000,0000,0000,,a vedere che qualcuno \Nvorrebbe solo le macchine. Dialogue: 0,0:12:30.36,0:12:32.06,Default,,0000,0000,0000,,(Risate) Dialogue: 0,0:12:32.08,0:12:35.94,Default,,0000,0000,0000,,C'era totale disaccordo su quale \Ndebba essere il ruolo degli esseri umani, Dialogue: 0,0:12:35.96,0:12:37.94,Default,,0000,0000,0000,,anche a livello più basilare, Dialogue: 0,0:12:37.96,0:12:40.78,Default,,0000,0000,0000,,allora guardiamo più da vicino \Ni futuri possibili Dialogue: 0,0:12:40.80,0:12:43.54,Default,,0000,0000,0000,,verso i quali potremmo andare. Dialogue: 0,0:12:43.56,0:12:44.90,Default,,0000,0000,0000,,Non fraintendetemi. Dialogue: 0,0:12:44.92,0:12:46.98,Default,,0000,0000,0000,,Non sto parlando di viaggio nello spazio, Dialogue: 0,0:12:47.00,0:12:50.20,Default,,0000,0000,0000,,semplicemente di un metaforico viaggio \Ndell'umanità nel futuro. Dialogue: 0,0:12:50.92,0:12:54.42,Default,,0000,0000,0000,,Un'opzione che piace ai miei colleghi IA Dialogue: 0,0:12:54.44,0:12:58.06,Default,,0000,0000,0000,,è costruire una superintelligenza \Ne tenerla sotto controllo umano, Dialogue: 0,0:12:58.08,0:12:59.82,Default,,0000,0000,0000,,come un Dio schiavizzato, Dialogue: 0,0:12:59.84,0:13:01.42,Default,,0000,0000,0000,,sconnesso da Internet Dialogue: 0,0:13:01.44,0:13:04.70,Default,,0000,0000,0000,,e usato per creare tecnologia \Ne ricchezza inimmaginabili Dialogue: 0,0:13:04.72,0:13:05.96,Default,,0000,0000,0000,,per chiunque la controlli. Dialogue: 0,0:13:06.80,0:13:08.26,Default,,0000,0000,0000,,Ma Lord Acton ci ha avvisati Dialogue: 0,0:13:08.28,0:13:09.49,Default,,0000,0000,0000,,che il potere corrompe, Dialogue: 0,0:13:09.49,0:13:11.92,Default,,0000,0000,0000,,e il potere assoluto \Ncorrompe assolutamente, Dialogue: 0,0:13:11.92,0:13:15.98,Default,,0000,0000,0000,,penserete che forse gli esseri umani \Nnon sono abbastanza intelligenti, Dialogue: 0,0:13:16.00,0:13:17.54,Default,,0000,0000,0000,,o piuttosto abbastanza saggi, Dialogue: 0,0:13:17.56,0:13:19.09,Default,,0000,0000,0000,,per gestire un tale potere. Dialogue: 0,0:13:19.64,0:13:22.86,Default,,0000,0000,0000,,Inoltre, fatta eccezione \Nper gli scrupoli morali che potreste avere Dialogue: 0,0:13:22.86,0:13:24.81,Default,,0000,0000,0000,,sulla sottomissione di menti superiori, Dialogue: 0,0:13:24.81,0:13:28.50,Default,,0000,0000,0000,,potreste preoccuparvi \Ndi un'intelligenza più furba di noi, Dialogue: 0,0:13:28.52,0:13:30.76,Default,,0000,0000,0000,,che scappa e prende il controllo. Dialogue: 0,0:13:31.56,0:13:34.98,Default,,0000,0000,0000,,Ma ho anche colleghi a cui sta bene \Nuna IA che prende il controllo Dialogue: 0,0:13:35.00,0:13:37.30,Default,,0000,0000,0000,,che causa addirittura \Nl'estinzione dell'uomo, Dialogue: 0,0:13:37.32,0:13:40.90,Default,,0000,0000,0000,,purché sentiamo che l'IA \Nè un nostro degno discendente, Dialogue: 0,0:13:40.92,0:13:42.66,Default,,0000,0000,0000,,come i nostri figli. Dialogue: 0,0:13:42.68,0:13:48.30,Default,,0000,0000,0000,,Ma come sapremo che l'IA \Nha adottato i nostri migliori valori Dialogue: 0,0:13:48.32,0:13:52.70,Default,,0000,0000,0000,,e non è solo fatta di zombie inconsapevoli\Nche ci ingannano a antropomorfizzarli? Dialogue: 0,0:13:52.72,0:13:55.58,Default,,0000,0000,0000,,E quelli che non vogliono \Nl'estinzione della razza umana Dialogue: 0,0:13:55.60,0:13:57.70,Default,,0000,0000,0000,,non dovrebbero dire \Nqualcosa anche loro? Dialogue: 0,0:13:58.20,0:14:01.58,Default,,0000,0000,0000,,Se non vi piace nessuna \Ndi queste opzioni high-tech, Dialogue: 0,0:14:01.60,0:14:04.78,Default,,0000,0000,0000,,è importante ricordare \Nche low-tech equivale a suicidio Dialogue: 0,0:14:04.80,0:14:06.24,Default,,0000,0000,0000,,da un punto di vista cosmico, Dialogue: 0,0:14:06.24,0:14:08.93,Default,,0000,0000,0000,,perché se non andiamo molto oltre \Nla tecnologia di oggi, Dialogue: 0,0:14:08.93,0:14:11.42,Default,,0000,0000,0000,,la questione non è \Nse l'umanità si estinguerà, Dialogue: 0,0:14:11.44,0:14:13.46,Default,,0000,0000,0000,,ma se verremo spazzati via Dialogue: 0,0:14:13.48,0:14:15.62,Default,,0000,0000,0000,,dal prossimo asteroide killer, \Nsupervulcano Dialogue: 0,0:14:15.64,0:14:16.80,Default,,0000,0000,0000,,o qualche altro problema Dialogue: 0,0:14:16.80,0:14:19.34,Default,,0000,0000,0000,,che una migliore tecnologia \Navrebbe potuto risolvere. Dialogue: 0,0:14:19.34,0:14:22.34,Default,,0000,0000,0000,,Allora perché \Nnon mangiarci la nostra torta... Dialogue: 0,0:14:22.36,0:14:24.20,Default,,0000,0000,0000,,con AGI non sottomessa Dialogue: 0,0:14:25.12,0:14:28.30,Default,,0000,0000,0000,,ma ci tratta bene perché i suoi valori \Nsono allineati ai nostri? Dialogue: 0,0:14:28.32,0:14:32.50,Default,,0000,0000,0000,,Questo è il concetto di quello \Nche Eliezer Yudowsky chiama "IA amica," Dialogue: 0,0:14:32.52,0:14:35.20,Default,,0000,0000,0000,,e se potessimo farlo, \Nsarebbe meraviglioso. Dialogue: 0,0:14:35.84,0:14:37.19,Default,,0000,0000,0000,,Potrebbe non solo eliminare Dialogue: 0,0:14:37.19,0:14:40.68,Default,,0000,0000,0000,,le esperienze negative \Ncome malattie, povertà, Dialogue: 0,0:14:40.68,0:14:42.14,Default,,0000,0000,0000,,crimini e altre sofferenze, Dialogue: 0,0:14:42.16,0:14:44.98,Default,,0000,0000,0000,,ma potrebbe darci anche \Nla libertà di scelta Dialogue: 0,0:14:45.00,0:14:49.06,Default,,0000,0000,0000,,tra un fantastica nuova varietà \Ndi esperienze positive -- Dialogue: 0,0:14:49.08,0:14:52.24,Default,,0000,0000,0000,,in sostanza rendendoci padroni \Ndel nostro destino. Dialogue: 0,0:14:54.28,0:14:55.66,Default,,0000,0000,0000,,Per riassumere, Dialogue: 0,0:14:55.68,0:14:58.78,Default,,0000,0000,0000,,la nostra situazione \Ncon la tecnologia è complicata, Dialogue: 0,0:14:58.80,0:15:01.22,Default,,0000,0000,0000,,ma il quadro generale \Nè piuttosto semplice. Dialogue: 0,0:15:01.24,0:15:04.70,Default,,0000,0000,0000,,Molti ricercatori di IA si aspettano l'AGI\Nentro qualche decennio, Dialogue: 0,0:15:04.72,0:15:07.86,Default,,0000,0000,0000,,e se ci arriviamo impreparati, Dialogue: 0,0:15:07.88,0:15:11.22,Default,,0000,0000,0000,,sarà probabilmente \Nil più grande errore della storia -- Dialogue: 0,0:15:11.24,0:15:12.66,Default,,0000,0000,0000,,accettiamolo. Dialogue: 0,0:15:12.68,0:15:15.26,Default,,0000,0000,0000,,Potrebbe permettere \Nuna dittatura globale brutale Dialogue: 0,0:15:15.28,0:15:18.82,Default,,0000,0000,0000,,con ineguaglianze, sorveglianza \Ne sofferenza senza precedenti, Dialogue: 0,0:15:18.84,0:15:21.30,Default,,0000,0000,0000,,e forse addirittura \Nl'estinzione del genere umano. Dialogue: 0,0:15:21.30,0:15:23.16,Default,,0000,0000,0000,,Ma se la indirizziamo attentamente, Dialogue: 0,0:15:24.04,0:15:27.94,Default,,0000,0000,0000,,potremmo finire in un futuro fantastico \Nin cui tutti stanno meglio: Dialogue: 0,0:15:27.96,0:15:30.44,Default,,0000,0000,0000,,i poveri sono più ricchi, \Ni ricchi sono più ricchi, Dialogue: 0,0:15:30.44,0:15:34.32,Default,,0000,0000,0000,,tutti sono più in salute \Ne liberi di vivere i loro sogni. Dialogue: 0,0:15:35.00,0:15:36.54,Default,,0000,0000,0000,,Ora, tenetevi forte. Dialogue: 0,0:15:36.56,0:15:41.14,Default,,0000,0000,0000,,Volete un futuro politicamente \Ndi destra o di sinistra? Dialogue: 0,0:15:41.16,0:15:44.02,Default,,0000,0000,0000,,Volete la devota società \Ncon regole morali rigide, Dialogue: 0,0:15:44.04,0:15:46.24,Default,,0000,0000,0000,,o ne volete una edonistica \Ngratis per tutti, Dialogue: 0,0:15:46.24,0:15:48.10,Default,,0000,0000,0000,,un po' come Burning Man H24? Dialogue: 0,0:15:48.12,0:15:50.54,Default,,0000,0000,0000,,Volete belle spiagge, foreste e laghi, Dialogue: 0,0:15:50.56,0:15:53.98,Default,,0000,0000,0000,,o preferite risistemare \Nun po' di atomi con il computer, Dialogue: 0,0:15:54.00,0:15:55.98,Default,,0000,0000,0000,,che apra a esperienze \Ndi realtà virtuale? Dialogue: 0,0:15:55.98,0:15:59.04,Default,,0000,0000,0000,,Con una IA amichevole, potremmo costruire \Ntutte queste società Dialogue: 0,0:15:59.04,0:16:02.14,Default,,0000,0000,0000,,e dare alla gente la libertà \Ndi scegliere in quale vivere Dialogue: 0,0:16:02.16,0:16:05.26,Default,,0000,0000,0000,,perché non saremmo più limitati \Ndalla nostra intelligenza, Dialogue: 0,0:16:05.28,0:16:06.100,Default,,0000,0000,0000,,solamente dalla leggi della fisica. Dialogue: 0,0:16:06.100,0:16:11.38,Default,,0000,0000,0000,,Quindi le risorse e lo spazio \Ndiventerebbero astronomiche -- Dialogue: 0,0:16:11.40,0:16:12.72,Default,,0000,0000,0000,,letteralmente. Dialogue: 0,0:16:13.32,0:16:14.52,Default,,0000,0000,0000,,Ecco la scelta. Dialogue: 0,0:16:15.88,0:16:18.20,Default,,0000,0000,0000,,Possiamo essere soddisfatti \Ndel nostro futuro, Dialogue: 0,0:16:19.44,0:16:22.10,Default,,0000,0000,0000,,prendere come dato con fede cieca Dialogue: 0,0:16:22.12,0:16:26.14,Default,,0000,0000,0000,,che qualunque nuova tecnologia \Nè garantita vantaggiosa, Dialogue: 0,0:16:26.16,0:16:30.30,Default,,0000,0000,0000,,e ripetercelo come un mantra \Nin continuazione Dialogue: 0,0:16:30.32,0:16:34.00,Default,,0000,0000,0000,,e andare alla deriva come una nave \Nsenza timone verso l'obsolescenza. Dialogue: 0,0:16:34.92,0:16:36.80,Default,,0000,0000,0000,,O possiamo essere ambiziosi -- Dialogue: 0,0:16:37.84,0:16:40.30,Default,,0000,0000,0000,,pensare bene \Na come indirizzare la tecnologia Dialogue: 0,0:16:40.32,0:16:42.26,Default,,0000,0000,0000,,e dove vogliamo andarci Dialogue: 0,0:16:42.28,0:16:44.04,Default,,0000,0000,0000,,per creare l'era della meraviglia. Dialogue: 0,0:16:45.00,0:16:47.86,Default,,0000,0000,0000,,Siamo qui tutti per festeggiare \Nl'era della meraviglia, Dialogue: 0,0:16:47.88,0:16:52.32,Default,,0000,0000,0000,,e sento che la sua essenza \Nnon dovrebbe stare nella sopraffazione Dialogue: 0,0:16:53.24,0:16:56.29,Default,,0000,0000,0000,,ma nella responsabilizzazione \Nda parte della nostra tecnologia. Dialogue: 0,0:16:56.29,0:16:57.26,Default,,0000,0000,0000,,Grazie. Dialogue: 0,0:16:57.28,0:17:00.36,Default,,0000,0000,0000,,(Applausi)