Come non essere sopraffatti, ma responsabilizzati dall'IA
-
0:01 - 0:05Dopo 13,8 miliardi di anni
di storia cosmica, -
0:05 - 0:07il nostro universo si è risvegliato
-
0:07 - 0:09e ha preso coscienza di se stesso.
-
0:09 - 0:11Da un piccolo pianeta blu,
-
0:11 - 0:14minuscole parti coscienti
del nostro universo -
0:14 - 0:16hanno iniziato a osservare il cosmo
-
0:16 - 0:17con telescopi,
-
0:17 - 0:18scoprendo umiltà.
-
0:19 - 0:22Abbiamo scoperto che il nostro universo
è molto più grande -
0:22 - 0:25di quanto abbiano immaginato
i nostri antenati -
0:25 - 0:28e che la vita sembra essere
una perturbazione quasi impercettibile -
0:28 - 0:30in un universo altrimenti morto.
-
0:30 - 0:33Ma abbiamo anche scoperto
qualcosa di stimolante, -
0:33 - 0:36ossia che la tecnologia
che stiamo sviluppando -
0:36 - 0:39può potenzialmente aiutare la vita
a fiorire come mai prima d'ora, -
0:39 - 0:42non solo per secoli,
ma per miliardi di anni, -
0:42 - 0:46e non solo sulla terra
ma in gran parte dell'universo. -
0:48 - 0:51Vedo la vita precedente
come una "Vita 1.0" -
0:51 - 0:52perché era davvero stupida,
-
0:52 - 0:57come i batteri, incapaci
di imparare alcunché. -
0:57 - 1:00Vedo gli esseri umani come una "Vita 2.0"
perché possiamo imparare, -
1:00 - 1:02che in linguaggio nerd o geek,
-
1:02 - 1:05significa installare
nuovi software nel cervello, -
1:05 - 1:07come le lingue
e le capacità lavorative. -
1:08 - 1:12La "Vita 3.0", che può progettare
l'hardware oltre che il software -
1:12 - 1:14ovviamente non esiste ancora.
-
1:14 - 1:17Ma forse la nostra tecnologia
ci ha già resi "Vita 2.1", -
1:17 - 1:22con le ginocchia artificiali,
i pacemaker e gli apparecchi acustici. -
1:22 - 1:26Diamo uno sguardo più da vicino
alla nostra relazione con la tecnologia. -
1:27 - 1:28Ad esempio,
-
1:28 - 1:33la missione lunare Apollo 11
è riuscita ed è stata stimolante, -
1:33 - 1:37mostrando che quando gli esseri umani
usano la tecnologia con saggezza, -
1:37 - 1:40possiamo compiere cose
che i nostri antenati si sognavano. -
1:40 - 1:43Ma c'è un percorso ancora più stimolante
-
1:43 - 1:46spinto da qualcosa di ancora più forte
dei motori dei razzi, -
1:47 - 1:50in cui i passeggeri
non sono solo tre astronauti -
1:50 - 1:51ma tutta l'umanità.
-
1:51 - 1:54Parliamo del nostro viaggio collettivo
nel futuro -
1:54 - 1:56con l'intelligenza artificiale.
-
1:57 - 2:01Il mio amico Jaan Tallinn
ama sottolineare che proprio come i razzi, -
2:02 - 2:05non basta rendere potente la tecnologia.
-
2:06 - 2:09Dobbiamo anche capire
se saremo davvero ambiziosi, -
2:09 - 2:10dove indirizzarla
-
2:10 - 2:12e dove vogliamo andarci.
-
2:13 - 2:16Parliamo di tutti e tre
per l'intelligenza artificiale: -
2:16 - 2:19la potenza, la direzione
e la destinazione. -
2:20 - 2:21Iniziamo con la potenza.
-
2:22 - 2:25Definisco l'intelligenza
in modo molto inclusivo -- -
2:25 - 2:29semplicemente la nostra capacità
di realizzare obiettivi complessi, -
2:29 - 2:32perché voglio includere
sia l'intelligenza biologica -
2:32 - 2:33che quella artificiale.
-
2:33 - 2:37E voglio evitare
quella stupida idea carbonio-sciovinistica -
2:37 - 2:40che si può essere intelligenti
solo se fatti di carne. -
2:41 - 2:45È incredibile
quanto sia migliorata l'IA ultimamente. -
2:45 - 2:46Pensateci un po'.
-
2:46 - 2:50Non molto tempo fa,
i robot non potevano camminare. -
2:51 - 2:53Ora possono fare capriole.
-
2:54 - 2:56Poco tempo fa,
-
2:56 - 2:58non avevamo le auto
a guida autonoma. -
2:59 - 3:01Ora abbiamo razzi a volo autonomo.
-
3:04 - 3:05Poco tempo fa,
-
3:05 - 3:08l'IA non era capace
di riconoscimento facciale. -
3:08 - 3:11Ora l'IA può generare falsi visi
-
3:11 - 3:15e similare la vostra faccia
che dice cose che non avete mai detto. -
3:16 - 3:18Poco tempo fa,
-
3:18 - 3:20l'IA non poteva batterci a Go.
-
3:20 - 3:25Poi, l'IA AlphaZero di Google DeepMind
ha preso 3000 anni di giochi di Go -
3:26 - 3:27e saggezza Go,
-
3:27 - 3:30li ha ignorati tutti ed è diventato
il miglior giocatore al mondo -
3:30 - 3:32giocando contro se stesso.
-
3:32 - 3:35E l'aspetto più impressionante
non è che ha stracciato gli umani, -
3:36 - 3:38ma che ha stracciato i ricercatori di IA
-
3:38 - 3:42che avevano passato decenni
a creare il software di gioco. -
3:42 - 3:47E AlphaZero ha stracciato i ricercatori
di IA non solo a Go, ma anche a scacchi, -
3:47 - 3:49su cui lavoriamo dal 1950.
-
3:50 - 3:54Questi straordinari progressi recenti
in IA sollevano la questione: -
3:55 - 3:57fin dove ci spingeremo?
-
3:58 - 3:59Mi piace pensare a questa domanda
-
4:00 - 4:02in termini di astratto panorama di compiti
-
4:03 - 4:06in cui l'elevazione rappresenta
la difficoltà di ogni compito per l'IA -
4:06 - 4:07a livello umano,
-
4:07 - 4:10e il livello del mare rappresenta
quello che l'IA può fare oggi. -
4:11 - 4:14Il livello del mare si innalza
quando l'IA migliora, -
4:14 - 4:17c'è una specie di riscaldamento globale
nel panorama dei compiti. -
4:18 - 4:21Il risultato ovvio è evitare
carriere lungo la costa -- -
4:21 - 4:23(Risate)
-
4:23 - 4:26che saranno presto
scombussolate e automatizzate. -
4:26 - 4:29Ma la questione è molto più ampia.
-
4:29 - 4:30Quanto si innalzerà l'acqua?
-
4:31 - 4:35Si innalzerà per inondare tutto,
-
4:36 - 4:38arriverà a livello
di tutti i compiti umani. -
4:38 - 4:42Questa è la definizione
di intelligenza artificiale generale -- -
4:42 - 4:43AGI,
-
4:43 - 4:47che è stato il santo graal
dell'IA fin dalla sua nascita. -
4:47 - 4:49Con questa definizione, la gente che dice,
-
4:49 - 4:51"Ci saranno sempre lavori
che gli esseri umani -
4:51 - 4:53possono fare meglio delle macchine,
-
4:53 - 4:56sta semplicemente dicendo
che non arriveremo mai all'AGI. -
4:56 - 4:59Certo, potremo anche scegliere
di avere lavori umani -
4:59 - 5:02o di dare agli esseri umani reddito
e scopo con i nostri lavori, -
5:02 - 5:06ma l'AGI trasformerà comunque
la vita come la conosciamo -
5:06 - 5:09e gli esseri umani
non saranno più i più intelligenti. -
5:09 - 5:13Se il livello dell'acqua raggiunge l'AGI,
-
5:13 - 5:16gli ulteriori progressi dell'IA
non saranno più guidati -
5:16 - 5:18dagli esseri umani, ma dalla IA,
-
5:18 - 5:20che significa che c'è la possibilità
-
5:20 - 5:23che un'ulteriore progresso dell'IA
sia ancora più veloce -
5:23 - 5:26della tipica scala temporale
di ricerca e sviluppo umani di anni, -
5:26 - 5:30sollevando la possibile controversia
di un'esplosione di intelligenza -
5:30 - 5:32in cui una IA che auto-migliora
in modo ricorrente -
5:32 - 5:35lascia rapidamente molto indietro
l'intelligenza umana, -
5:35 - 5:38creando quello che chiamiamo
una superintelligenza. -
5:40 - 5:42Controllo della realtà:
-
5:43 - 5:46avremo a breve l'AGI?
-
5:46 - 5:49Alcuni famosi ricercatori di IA,
come Rodney Brooks, -
5:49 - 5:52pensano che non succederà
per centinaia di anni. -
5:52 - 5:55Ma altri, come il fondatore
di Google DeepMind Demis Hassabis, -
5:56 - 5:57sono più ottimisti
-
5:57 - 5:59e stanno lavorando
per farlo accadere molto prima. -
5:59 - 6:03Ricerche recenti hanno dimostrato
che molti ricercatori di IA -
6:03 - 6:06condividono l'ottimismo di Demis,
-
6:06 - 6:09e si aspettano di vedere l'AGI
in qualche decennio, -
6:10 - 6:12quindi durante le vita di molti di noi,
-
6:12 - 6:14il che solleva la domanda: e poi?
-
6:15 - 6:17Quale vogliamo che sia
il ruolo degli esseri umani -
6:17 - 6:20se le macchina possono fare tutto
meglio e a minor costo? -
6:23 - 6:25La vedo così: abbiamo di fronte
una scelta. -
6:26 - 6:28Un'opzione è esserne soddisfatti.
-
6:28 - 6:30Possiamo dire, "Dai, costruiamo macchine
-
6:30 - 6:32che possano fare tutto
quel che facciamo noi -
6:32 - 6:34e non ci preoccupiamo delle conseguenze.
-
6:34 - 6:37Dai, se costruiamo tecnologie
che rendono gli umani obsoleti, -
6:37 - 6:39cosa potrebbe andare storto?"
-
6:39 - 6:40(Risate)
-
6:40 - 6:43Ma credo che sarebbe
davvero poco convincente. -
6:44 - 6:48Credo che dovremmo essere
più ambiziosi, nello spirito di TED. -
6:48 - 6:51Immaginiamo un futuro high-tech
davvero stimolante -
6:51 - 6:53e cerchiamo di andare
in quella direzione. -
6:54 - 6:57Questo ci porta alla seconda parte
della metafora del razzo: la direzione. -
6:57 - 6:59Facciamo l'IA più potente,
-
6:59 - 7:03ma come possiamo indirizzarci
verso un futuro -
7:03 - 7:06in cui l'IA aiuti l'umanità
a progredire invece di annaspare? -
7:07 - 7:08Per aiutare,
-
7:08 - 7:10ho cofondato il Future of Life Institute.
-
7:10 - 7:13È una piccola no profit che promuove
l'uso benefico della tecnologia, -
7:13 - 7:16e il nostro obiettivo è
il futuro della vita -
7:16 - 7:18e essere più stimolanti possibile.
-
7:18 - 7:21Sapete che adoro la tecnologia.
-
7:21 - 7:25La tecnologia è il motivo per cui oggi
stiamo meglio che nell'età della pietra. -
7:25 - 7:29E sono ottimista, possiamo creare
un futuro high-tech davvero stimolante... -
7:30 - 7:31se, ed è un grande se,
-
7:31 - 7:34se vinciamo la gara della saggezza,
-
7:34 - 7:36la gara tra il potere crescente
della tecnologia -
7:37 - 7:39e la saggezza crescente
con cui la gestiamo. -
7:39 - 7:42Ma sarà necessario un cambio di strategia
-
7:42 - 7:45perché la nostra vecchia strategia
prevedeva di imparare dagli errori. -
7:45 - 7:47Abbiamo inventato il fuoco,
-
7:47 - 7:48abbiamo fatto qualche casino --
-
7:48 - 7:50abbiamo inventato l'estintore.
-
7:50 - 7:52(Risate)
-
7:52 - 7:54Abbiamo inventato la macchina,
fatto qualche casino -- -
7:54 - 7:57abbiamo inventato i semafori,
le cinture e gli airbag, -
7:57 - 8:01ma con una tecnologia più potente
come le armi nucleari e l'AGI, -
8:01 - 8:04imparare dagli errori
è una strategia che fa schifo, -
8:04 - 8:05siete d'accordo?
-
8:05 - 8:06(Risate)
-
8:06 - 8:09È molto meglio essere proattivi
invece che reattivi; -
8:09 - 8:12pianificare in anticipo
e fare le cose bene la prima volta -
8:12 - 8:14perché potrebbe essere
la nostra unica occasione. -
8:14 - 8:16Ma è divertente perché talvolta
la gente mi dice, -
8:16 - 8:19"Max, shhh, non dire così.
-
8:19 - 8:21È allarmismo luddista."
-
8:22 - 8:24Ma non è allarmismo.
-
8:24 - 8:26È quello che noi all'MIT chiamiamo
ingegneria di sicurezza. -
8:27 - 8:28Pensateci:
-
8:28 - 8:31prima del lancio della missione Apollo 11,
-
8:31 - 8:34la NASA ha pensato sistematicamente
a tutto quello che poteva andare storto -
8:34 - 8:37a mettere persone
su serbatoi carburante esplosivi -
8:37 - 8:39e lanciarle dove nessuno
avrebbe potuto aiutarle. -
8:39 - 8:41E molte cose potevano andare storte.
-
8:41 - 8:42Era allarmismo?
-
8:43 - 8:44No.
-
8:44 - 8:46Era esattamente l'ingegneria di sicurezza
-
8:46 - 8:48che assicurava il successo della missione,
-
8:48 - 8:53ed è esattamente la strategia
che credo dovremmo adottare per l'AGI. -
8:53 - 8:57Pensare a quello che potrebbe
andare storto per fare le cose giuste. -
8:57 - 8:59Con questo spirito,
abbiamo organizzato conferenze, -
8:59 - 9:02riunito grandi ricercatori di IA
e altri esperti -
9:02 - 9:04per discutere di come coltivare
la saggezza utile -
9:04 - 9:06perché l'IA sia vantaggiosa.
-
9:06 - 9:09La nostra ultima conferenza è stata
a Asilomar, California, l'anno scorso -
9:09 - 9:12e ha prodotto una lista di 23 principi
-
9:12 - 9:16che da allora sono stati sottoscritti
da più di 1000 ricercatori di IA -
9:16 - 9:17e importanti leader industriali.
-
9:17 - 9:20Voglio raccontarvi tre di questi principi.
-
9:20 - 9:22Uno è che dovremmo evitare
-
9:22 - 9:25una corsa agli armamenti
e armi autonome letali. -
9:25 - 9:29L'idea è che qualunque scienza
può essere usata per aiutare la gente -
9:29 - 9:31o per armare la gente.
-
9:31 - 9:35Per esempio, è più probabile
che la biologia e la chimica vengano usate -
9:35 - 9:39per nuovi medicinali o nuove cure
che per uccidere le persone, -
9:40 - 9:42perché biologi e chimici
fanno pressione, -
9:42 - 9:43in modo efficace,
-
9:43 - 9:45per proibire armi chimiche e biologiche.
-
9:45 - 9:46Con lo stesso spirito,
-
9:46 - 9:51molti ricercatori vogliono stigmatizzare
e proibire le armi letali autonome. -
9:52 - 9:53Un altro principio Asilomar dell'IA
-
9:53 - 9:55è che dovremmo mitigare
-
9:55 - 9:57le disparità di reddito
alimentate dall'IA. -
9:57 - 10:02Credo che se possiamo far crescere
significativamente l'economia con l'IA -
10:02 - 10:04senza capire come dividerci questa torta
-
10:04 - 10:06in modo che tutti stiano meglio,
-
10:06 - 10:07è una vergogna.
-
10:07 - 10:11(Applausi)
-
10:11 - 10:15Bene, ora alzate la mano
se vi si è mai impallato il computer. -
10:15 - 10:17(Risate)
-
10:17 - 10:18Wow, sono tante mani.
-
10:18 - 10:21Allora vi piacerà questo principio
-
10:21 - 10:24per cui dovremmo investire
molto di più nella sicurezza dell'IA, -
10:24 - 10:28perché se cediamo il controllo all'IA
in sempre più decisioni e infrastrutture, -
10:28 - 10:31dobbiamo capire come trasformare
i bug e i computer attaccabili di oggi -
10:31 - 10:34in sistemi di IA solidi
in cui avere fiducia, -
10:34 - 10:35perché altrimenti,
-
10:35 - 10:38questa meravigliosa nuova tecnologia,
può funzionare male e danneggiarci, -
10:38 - 10:40o essere attaccata
e rivoltarsi contro di noi. -
10:40 - 10:42Questo lavoro di sicurezza sull'IA
-
10:42 - 10:45deve includere un allineamento dei valori,
-
10:45 - 10:48perché la vera minaccia dell'AGI
non è la malizia, -
10:48 - 10:50come negli stupidi film hollywoodiani,
-
10:50 - 10:52ma la competenza --
-
10:52 - 10:55l'AGI realizza obiettivi
che non sono allineati ai nostri. -
10:55 - 10:57Per esempio, quando noi umani
-
10:57 - 11:00abbiamo portato
il rinoceronte all'estinzione, -
11:00 - 11:04non l'abbiamo fatto perché eravamo
nemici dei rinoceronti, no? -
11:04 - 11:06L'abbiamo fatto perché
eravamo più intelligenti di loro -
11:06 - 11:09e i nostri obiettivi
non erano allineati con i loro. -
11:09 - 11:11Ma l'AGI per definizione
è più intelligente di noi, -
11:11 - 11:15quindi per essere sicuri di non metterci
nella posizione di quei rinoceronti -
11:15 - 11:17se creiamo l'AGI,
-
11:17 - 11:21dobbiamo capire come fare macchine
che capiscano i nostri obiettivi, -
11:21 - 11:24li adottino e li memorizzino.
-
11:25 - 11:28E comunque
di chi dovrebbero essere questi obiettivi? -
11:28 - 11:30Quali obiettivi dovrebbero essere?
-
11:30 - 11:31Questo ci porta
-
11:31 - 11:35alla terza parte della nostra metafora
del razzo: la destinazione. -
11:35 - 11:37Facciamo IA più potente,
-
11:37 - 11:39per capire come indirizzarla,
-
11:39 - 11:41ma dove vogliamo andarci?
-
11:42 - 11:45È l'elefante nella stanza
di cui quasi nessuno parla, -
11:45 - 11:47nemmeno qui a TED,
-
11:47 - 11:51perché siamo così fissati
sulle sfide a breve termine dell'IA. -
11:52 - 11:57La nostra specie
sta cercando di costruire l'AGI, -
11:57 - 12:00motivata da curiosità
e interessi economici, -
12:00 - 12:04ma in che tipo di società futura
speriamo se abbiamo successo? -
12:05 - 12:07Di recente, abbiamo fatto un sondaggio,
-
12:07 - 12:08sono stato colpito del fatto
-
12:08 - 12:11che in realtà molti vogliono
che si costruisca una superintelligenza: -
12:11 - 12:14IA che sia molto più intelligente
di noi in tutti i sensi. -
12:15 - 12:19Il più grande accordo
è stato sull'ambizione -
12:19 - 12:21e sull'aiutare la vita
a diffondersi nel cosmo, -
12:21 - 12:25ma c'è stato molto meno accordo
su chi o cosa fosse responsabile. -
12:25 - 12:27E mi sono quasi divertito
-
12:27 - 12:30a vedere che qualcuno
vorrebbe solo le macchine. -
12:30 - 12:32(Risate)
-
12:32 - 12:36C'era totale disaccordo su quale
debba essere il ruolo degli esseri umani, -
12:36 - 12:38anche a livello più basilare,
-
12:38 - 12:41allora guardiamo più da vicino
i futuri possibili -
12:41 - 12:44verso i quali potremmo andare.
-
12:44 - 12:45Non fraintendetemi.
-
12:45 - 12:47Non sto parlando di viaggio nello spazio,
-
12:47 - 12:50semplicemente di un metaforico viaggio
dell'umanità nel futuro. -
12:51 - 12:54Un'opzione che piace ai miei colleghi IA
-
12:54 - 12:58è costruire una superintelligenza
e tenerla sotto controllo umano, -
12:58 - 13:00come un Dio schiavizzato,
-
13:00 - 13:01sconnesso da Internet
-
13:01 - 13:05e usato per creare tecnologia
e ricchezza inimmaginabili -
13:05 - 13:06per chiunque la controlli.
-
13:07 - 13:08Ma Lord Acton ci ha avvisati
-
13:08 - 13:09che il potere corrompe,
-
13:09 - 13:12e il potere assoluto
corrompe assolutamente, -
13:12 - 13:16penserete che forse gli esseri umani
non sono abbastanza intelligenti, -
13:16 - 13:18o piuttosto abbastanza saggi,
-
13:18 - 13:19per gestire un tale potere.
-
13:20 - 13:23Inoltre, fatta eccezione
per gli scrupoli morali che potreste avere -
13:23 - 13:25sulla sottomissione di menti superiori,
-
13:25 - 13:28potreste preoccuparvi
di un'intelligenza più furba di noi, -
13:29 - 13:31che scappa e prende il controllo.
-
13:32 - 13:35Ma ho anche colleghi a cui sta bene
una IA che prende il controllo -
13:35 - 13:37che causa addirittura
l'estinzione dell'uomo, -
13:37 - 13:41purché sentiamo che l'IA
è un nostro degno discendente, -
13:41 - 13:43come i nostri figli.
-
13:43 - 13:48Ma come sapremo che l'IA
ha adottato i nostri migliori valori -
13:48 - 13:53e non è solo fatta di zombie inconsapevoli
che ci ingannano a antropomorfizzarli? -
13:53 - 13:56E quelli che non vogliono
l'estinzione della razza umana -
13:56 - 13:58non dovrebbero dire
qualcosa anche loro? -
13:58 - 14:02Se non vi piace nessuna
di queste opzioni high-tech, -
14:02 - 14:05è importante ricordare
che low-tech equivale a suicidio -
14:05 - 14:06da un punto di vista cosmico,
-
14:06 - 14:09perché se non andiamo molto oltre
la tecnologia di oggi, -
14:09 - 14:11la questione non è
se l'umanità si estinguerà, -
14:11 - 14:13ma se verremo spazzati via
-
14:13 - 14:16dal prossimo asteroide killer,
supervulcano -
14:16 - 14:17o qualche altro problema
-
14:17 - 14:19che una migliore tecnologia
avrebbe potuto risolvere. -
14:19 - 14:22Allora perché
non mangiarci la nostra torta... -
14:22 - 14:24con AGI non sottomessa
-
14:25 - 14:28ma ci tratta bene perché i suoi valori
sono allineati ai nostri? -
14:28 - 14:32Questo è il concetto di quello
che Eliezer Yudowsky chiama "IA amica," -
14:33 - 14:35e se potessimo farlo,
sarebbe meraviglioso. -
14:36 - 14:37Potrebbe non solo eliminare
-
14:37 - 14:41le esperienze negative
come malattie, povertà, -
14:41 - 14:42crimini e altre sofferenze,
-
14:42 - 14:45ma potrebbe darci anche
la libertà di scelta -
14:45 - 14:49tra un fantastica nuova varietà
di esperienze positive -- -
14:49 - 14:52in sostanza rendendoci padroni
del nostro destino. -
14:54 - 14:56Per riassumere,
-
14:56 - 14:59la nostra situazione
con la tecnologia è complicata, -
14:59 - 15:01ma il quadro generale
è piuttosto semplice. -
15:01 - 15:05Molti ricercatori di IA si aspettano l'AGI
entro qualche decennio, -
15:05 - 15:08e se ci arriviamo impreparati,
-
15:08 - 15:11sarà probabilmente
il più grande errore della storia -- -
15:11 - 15:13accettiamolo.
-
15:13 - 15:15Potrebbe permettere
una dittatura globale brutale -
15:15 - 15:19con ineguaglianze, sorveglianza
e sofferenza senza precedenti, -
15:19 - 15:21e forse addirittura
l'estinzione del genere umano. -
15:21 - 15:23Ma se la indirizziamo attentamente,
-
15:24 - 15:28potremmo finire in un futuro fantastico
in cui tutti stanno meglio: -
15:28 - 15:30i poveri sono più ricchi,
i ricchi sono più ricchi, -
15:30 - 15:34tutti sono più in salute
e liberi di vivere i loro sogni. -
15:35 - 15:37Ora, tenetevi forte.
-
15:37 - 15:41Volete un futuro politicamente
di destra o di sinistra? -
15:41 - 15:44Volete la devota società
con regole morali rigide, -
15:44 - 15:46o ne volete una edonistica
gratis per tutti, -
15:46 - 15:48un po' come Burning Man H24?
-
15:48 - 15:51Volete belle spiagge, foreste e laghi,
-
15:51 - 15:54o preferite risistemare
un po' di atomi con il computer, -
15:54 - 15:56che apra a esperienze
di realtà virtuale? -
15:56 - 15:59Con una IA amichevole, potremmo costruire
tutte queste società -
15:59 - 16:02e dare alla gente la libertà
di scegliere in quale vivere -
16:02 - 16:05perché non saremmo più limitati
dalla nostra intelligenza, -
16:05 - 16:07solamente dalla leggi della fisica.
-
16:07 - 16:11Quindi le risorse e lo spazio
diventerebbero astronomiche -- -
16:11 - 16:13letteralmente.
-
16:13 - 16:15Ecco la scelta.
-
16:16 - 16:18Possiamo essere soddisfatti
del nostro futuro, -
16:19 - 16:22prendere come dato con fede cieca
-
16:22 - 16:26che qualunque nuova tecnologia
è garantita vantaggiosa, -
16:26 - 16:30e ripetercelo come un mantra
in continuazione -
16:30 - 16:34e andare alla deriva come una nave
senza timone verso l'obsolescenza. -
16:35 - 16:37O possiamo essere ambiziosi --
-
16:38 - 16:40pensare bene
a come indirizzare la tecnologia -
16:40 - 16:42e dove vogliamo andarci
-
16:42 - 16:44per creare l'era della meraviglia.
-
16:45 - 16:48Siamo qui tutti per festeggiare
l'era della meraviglia, -
16:48 - 16:52e sento che la sua essenza
non dovrebbe stare nella sopraffazione -
16:53 - 16:56ma nella responsabilizzazione
da parte della nostra tecnologia. -
16:56 - 16:57Grazie.
-
16:57 - 17:00(Applausi)
- Title:
- Come non essere sopraffatti, ma responsabilizzati dall'IA
- Speaker:
- Max Tegmark
- Description:
-
Molti ricercatori di intelligenza artificiale si aspettano che l'IA sia più furba degli essere umani in qualunque lavoro e compito nel giro di decenni, portando a un futuro in cui siamo vincolati solo dalle leggi della fisica, non i limiti della nostra intelligenza. Il fisico dell'MIT a ricercatore IA Max Tegmark separa le vere opportunità e minacce dai miti, descrivendo i passi concreti da fare oggi per garantire che l'IA finisca per essere la migliore cosa, invece della peggiore, che possa capitare all'umanità.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:15
Anna Cristiana Minoli approved Italian subtitles for How to get empowered, not overpowered, by AI | ||
Antonio Lambiase accepted Italian subtitles for How to get empowered, not overpowered, by AI | ||
Anna Cristiana Minoli edited Italian subtitles for How to get empowered, not overpowered, by AI | ||
Anna Cristiana Minoli edited Italian subtitles for How to get empowered, not overpowered, by AI | ||
Anna Cristiana Minoli edited Italian subtitles for How to get empowered, not overpowered, by AI | ||
Anna Cristiana Minoli edited Italian subtitles for How to get empowered, not overpowered, by AI |