La civiltà potrebbe autodistruggersi e 4 modi con cui potremmo evitarlo
-
0:01 - 0:03Chris Anderson: Nick Bostrom.
-
0:03 - 0:07Allora, ci hai già regalato
tante idee pazzesche su questo tema. -
0:07 - 0:08Una ventina di anni fa,
-
0:08 - 0:12hai ipotizzato fosse possibile
che stessimo vivendo in una simulazione, -
0:12 - 0:13o magari che fosse probabile.
-
0:13 - 0:15Recentemente,
-
0:15 - 0:19ci hai illustrato vividi esempi di come
con l'intelligenza artificiale -
0:19 - 0:21potrebbe finire davvero male.
-
0:22 - 0:23E quest’anno,
-
0:23 - 0:25stai per pubblicare un articolo
-
0:25 - 0:29che introduce qualcosa che tu definisci
l'ipotesi del mondo vulnerabile. -
0:29 - 0:34Questa sera cercheremo di fornire
una guida descrittiva a questa ipotesi. -
0:34 - 0:36Quindi cominciamo.
-
0:37 - 0:39Qual è l'ipotesi?
-
0:40 - 0:42Nick Bostrom: Si cerca di considerare
-
0:42 - 0:46una sorta di caratteristica strutturale
dell'attuale condizione umana. -
0:48 - 0:49A te piace la metafora dell'urna,
-
0:49 - 0:51quindi la userò per spiegarla.
-
0:51 - 0:56Immagina una grossa urna piena di sfere
-
0:56 - 1:00che rappresentano le idee,
i metodi, le possibili tecnologie. -
1:01 - 1:04Possiamo immaginare la storia
della creatività umana -
1:04 - 1:08come l’atto di pescare in quest'urna
e tirare fuori le sfere una dopo l'altra, -
1:08 - 1:12e l'effetto fino ad ora
è stato largamente positivo, giusto? -
1:12 - 1:14Abbiamo estratto
un gran numero di sfere bianche, -
1:14 - 1:18qualcuna con diverse sfumature di grigio,
con un misto di vantaggi e svantaggi. -
1:18 - 1:21Finora non abbiamo estratto
la sfera nera, -
1:22 - 1:28una tecnologia che immancabilmente
distruggerebbe la civiltà che la scopre. -
1:28 - 1:31Nell'articolo cerco di pensare
a quale può essere questa sfera nera. -
1:31 - 1:33CA: Quindi tu definisci questa sfera
-
1:33 - 1:37quella che determinerebbe inevitabilmente
la distruzione della civiltà. -
1:37 - 1:42NB: Se non abbandoniamo quella che chiamo
la condizione semianarchica prestabilita. -
1:42 - 1:43Ma praticamente in automatico.
-
1:44 - 1:48CA: Quindi, sostieni la tua ipotesi
-
1:48 - 1:50mostrando una serie di controesempi
-
1:50 - 1:53in cui ritieni che finora
siamo stati davvero fortunati, -
1:53 - 1:56che avremmo potuto pescare
la sfera della morte. -
1:56 - 1:57senza neanche saperlo.
-
1:57 - 1:58Quindi perché questa citazione?
-
2:02 - 2:03NB: Immagino sia per mostrare
-
2:03 - 2:05la difficoltà di prevedere
-
2:05 - 2:08a cosa condurranno
le scoperte fondamentali. -
2:08 - 2:11Semplicemente non ne siamo capaci.
-
2:11 - 2:15Perché siamo diventati piuttosto bravi
a estrarre le sfere, -
2:15 - 2:18ma non siamo proprio in grado
di rimetterle nell'urna. -
2:18 - 2:21Possiamo inventare, non disinventare.
-
2:22 - 2:24Quindi la nostra strategia,
se così la si può chiamare, -
2:24 - 2:27è sperare che nell'urna
non ci sia nessuna sfera nera. -
2:27 - 2:31CA: Quindi una volta fuori, è fuori,
e non la si può rimettere dentro, -
2:31 - 2:32e tu pensi che siamo stati fortunati.
-
2:32 - 2:35Allora spieghiamo bene
un paio di questi esempi. -
2:35 - 2:38Parli di diversi tipi di vulnerabilità.
-
2:38 - 2:40NB: Il tipo più semplice da comprendere
-
2:40 - 2:43deriva da una tecnologia
che renda davvero molto facile -
2:43 - 2:46provocare grandi distruzioni.
-
2:47 - 2:51La biologia sintetica potrebbe essere
un'ottima base per quel tipo di sfera nera -
2:51 - 2:54ma potrebbero esserlo
anche molte altre cose: -
2:54 - 2:56pensate alla geoingegneria,
fantastica, vero? -
2:56 - 2:58Potremmo combattere
il riscaldamento globale, -
2:58 - 3:01ma non vorremmo diventasse
troppo semplice, -
3:01 - 3:03non vorremmo che chiunque,
o la nonna di chiunque -
3:03 - 3:06avesse la capacità di alterare
radicalmente il clima della Terra. -
3:06 - 3:10O magari dei droni autonomi letali,
-
3:10 - 3:13prodotti in massa, sciami di robot killer
piccoli come zanzare. -
3:14 - 3:17La nanotecnologia,
l'intelligenza artificiale generale. -
3:17 - 3:19CA: Nel tuo articolo sostieni
-
3:19 - 3:22che è stata solo questione di fortuna
avere scoperto -
3:22 - 3:25che con l'energia nucleare
si poteva creare una bomba, -
3:25 - 3:26sarebbe potuto succedere invece
-
3:26 - 3:28di poter creare una bomba
-
3:28 - 3:32con risorse più semplici,
accessibili a chiunque. -
3:32 - 3:35NB: Già, quindi ripensiamo agli anni '30
-
3:35 - 3:40quando per la prima volta abbiamo fatto
passi da gigante nella fisica nucleare, -
3:40 - 3:44qualche genio ha capito che era possibile
creare una reazione nucleare a catena -
3:44 - 3:47e poi ha realizzato che questo
avrebbe potuto portare alla bomba. -
3:47 - 3:49E lavorandoci su,
-
3:49 - 3:52venne fuori che quello che serve
per fare una bomba nucleare -
3:52 - 3:54è l'uranio arricchito o il plutonio,
-
3:54 - 3:56materiali molto difficili da ottenere.
-
3:56 - 3:58Servono ultracentrifughe,
-
3:58 - 4:02reattori, enormi quantità di energia.
-
4:02 - 4:04Ma supponiamo invece
che fosse saltato fuori -
4:04 - 4:08che esisteva un modo semplice
per liberare l'energia dell'atomo. -
4:08 - 4:11Che magari arrostendo
della sabbia nel microonde -
4:11 - 4:12o qualcosa del genere
-
4:12 - 4:14si fosse potuto creare
una detonazione nucleare. -
4:14 - 4:16Oggi sappiamo dalla fisica
che è impossibile. -
4:16 - 4:18Ma prima di fare le ricerche
-
4:18 - 4:20come avremmo potuto sapere
come sarebbe andata a finire? -
4:20 - 4:22CA: Però non si può discutere il fatto
-
4:22 - 4:24che l'evoluzione della vita sulla Terra
-
4:24 - 4:27ha avuto bisogno di una sorta
di ambiente stabile, -
4:27 - 4:31e che se fosse stato possibile
creare facilmente tali reazioni nucleari, -
4:31 - 4:33la Terra non sarebbe mai stata stabile,
-
4:33 - 4:35ei noi non saremmo qui adesso.
-
4:35 - 4:38NB: Già, a meno che non ci fosse qualcosa
di facile da fare volutamente -
4:38 - 4:41ma non accadrebbe per caso.
-
4:41 - 4:43Tipo cose che possiamo fare facilmente,
-
4:43 - 4:45come impilare 10 blocchi
uno sopra l'altro, -
4:45 - 4:48ma in natura, è improbabile
trovare una pila di 10 blocchi. -
4:48 - 4:50CA: Ora, questa
è probabilmente la cosa -
4:50 - 4:52per cui molti di noi
si preoccupano di più, -
4:52 - 4:55e sì, la biologia sintetica
è forse la via più veloce -
4:55 - 4:58che possiamo prevedere
ci condurrà a questo nel prossimo futuro. -
4:58 - 5:01NB: Sì, e pensa cosa significherebbe
-
5:01 - 5:05se, ad esempio, chiunque lavorando
per un pomeriggio nella propria cucina -
5:05 - 5:07potesse distruggere una città.
-
5:07 - 5:10È difficile immaginare
come la civiltà moderna come la conosciamo -
5:10 - 5:12potrebbe sopravvivere a questo.
-
5:12 - 5:14Perché in una popolazione
di un milione di persone, -
5:14 - 5:17ci sarà sempre qualcuno che,
per una ragione qualsiasi, -
5:17 - 5:19sceglierebbe di usare
quel potere distruttivo. -
5:20 - 5:23Così, se quel residuo apocalittico
-
5:23 - 5:25decidesse di distruggere una città,
o fare di peggio, -
5:25 - 5:26le città verrebbero distrutte.
-
5:26 - 5:29CA: Ma c'è un altro tipo di vulnerabilità.
-
5:29 - 5:31Parlaci di questo.
-
5:31 - 5:34NB: Sì, oltre a questo tipo
piuttosto ovvio di palle nere -
5:34 - 5:37che renderebbero possibile
far saltare in aria un sacco di cose, -
5:37 - 5:42altri tipi agirebbero
creando cattivi incentivi -
5:42 - 5:44per gli uomini
portandoli a fare cose dannose. -
5:44 - 5:48Quindi, il Tipo-2a,
potremmo chiamarlo così, -
5:48 - 5:53potrebbe derivare da una tecnologia
che incentivasse le grandi potenze -
5:53 - 5:57a usare la loro enorme forza
per creare distruzione. -
5:57 - 6:00Le armi nucleari si sono avvicinate molto
a questo, giusto? -
6:02 - 6:05In quel caso abbiamo speso
oltre 10 mila miliardi di dollari -
6:05 - 6:08per costruire 70.000 testate nucleari
-
6:08 - 6:10e metterle nello stato
di allerta immediata. -
6:10 - 6:12E in diverse occasioni
durante la Guerra Fredda -
6:12 - 6:14abbiamo rischiato
di saltare tutti in aria. -
6:14 - 6:17E non perché tanta gente ritenesse
una grande idea -
6:17 - 6:20spendere 10 mila miliardi di dollari
per saltare tutti in aria, -
6:20 - 6:22ma gli incentivi erano tali
che ci siamo ritrovati a farlo. -
6:22 - 6:24Sarebbe potuta andare peggio.
-
6:24 - 6:27Immagina se ci fosse stato
un primo colpo nucleare sicuro. -
6:27 - 6:29Dopo sarebbe potuto
essere molto difficile, -
6:29 - 6:30in una situazione di crisi,
-
6:30 - 6:33trattenersi dal lanciare
tutti i propri missili nucleari. -
6:33 - 6:36Se non altro, per la paura
che potesse farlo la controparte. -
6:36 - 6:38CA: La certezza
di una distruzione reciproca -
6:38 - 6:41ha mantenuto una certa stabilità
durante la Guerra Fredda. -
6:41 - 6:43Senza quella, forse
ora non saremmo qui. -
6:43 - 6:44NB: Sarebbe potuta essere meno stabile.
-
6:44 - 6:47E potrebbero esserci
altre proprietà della tecnologia. -
6:47 - 6:50Avere trattati sulle armi
sarebbe potuto essere più difficile, -
6:50 - 6:51se invece delle armi nucleari
-
6:51 - 6:54ci fossero state cose più piccole,
o meno distruttive. -
6:54 - 6:56CA: Oltre ai cattivi incentivi
per i potenti, -
6:56 - 7:00ti preoccupano anche i cattivi incentivi
per tutti noi, qui nel Tipo-2b. -
7:00 - 7:05NB: Sì, si potrebbe considerare il caso
del riscaldamento globale. -
7:07 - 7:09Ci sono un sacco di piccole comodità
-
7:09 - 7:11che ci incentivano a fare cose
-
7:11 - 7:14che singolarmente non hanno
un effetto significativo, giusto? -
7:14 - 7:16Ma se fatte da un miliardo di persone,
-
7:16 - 7:18nell'insieme, hanno un effetto dannoso.
-
7:18 - 7:21Il riscaldamento globale sarebbe
potuto essere molto peggio di così. -
7:21 - 7:24Abbiamo il parametro della
"sensibilità climatica". -
7:24 - 7:28È un parametro che ci dice
quanto diventa più caldo -
7:28 - 7:30con l'emissione
di una certa quantità di gas serra. -
7:30 - 7:33Ma, mettiamo il caso
-
7:33 - 7:35che con l'emissione
di una certa quantità di gas serra, -
7:35 - 7:37invece di un aumento della temperatura
-
7:37 - 7:41tra i 3 e i 4,5 gradi per il 2100,
-
7:41 - 7:44fosse previsto un aumento
di 15 o 20 gradi. -
7:44 - 7:47Ci saremmo potuti trovare
in una situazione davvero brutta. -
7:47 - 7:50Supponiamo che l'energia rinnovabile
fosse stata più difficile da ottenere. -
7:50 - 7:52Che il combustibile fossile
fosse più disponibile. -
7:52 - 7:55CA: Non si potrebbe supporre
che se in quel caso, -
7:55 - 7:57se quello che stiamo facendo oggi
-
7:57 - 8:02avesse prodotto una differenza di 10 gradi
nel periodo osservato, -
8:02 - 8:06invece l'umanità si sarebbe data una mossa
e avrebbe fatto qualcosa a proposito. -
8:06 - 8:08Siamo stupidi, ma forse non così stupidi.
-
8:08 - 8:10O forse lo siamo.
-
8:10 - 8:11NB: Non ci scommetterei.
-
8:11 - 8:13(Risate)
-
8:13 - 8:15Si potrebbero immaginare altri scenari.
-
8:15 - 8:20Ora come ora, è difficile la conversione
alle rinnovabili eccetera, -
8:20 - 8:22ma si può fare.
-
8:22 - 8:25Ma con una fisica leggermente diversa,
-
8:25 - 8:27sarebbe potuto essere molto più costoso
fare queste cose. -
8:28 - 8:30CA: Qual è la tua idea, Nick?
-
8:30 - 8:32Pensi che, mettendo insieme
tutte queste possibilità, -
8:32 - 8:36questa Terra, il nostro genere umano,
-
8:36 - 8:38dobbiamo considerarci
un mondo vulnerabile? -
8:38 - 8:41Che c'è una palla della morte
nel nostro futuro? -
8:44 - 8:45NB: Difficile a dirsi.
-
8:45 - 8:50Voglio dire, penso che chiaramente
possano esserci più palle nere nell'urna, -
8:50 - 8:52così sembrerebbe.
-
8:52 - 8:54Potrebbero esserci anche
alcune palle d'oro -
8:54 - 8:58in grado di aiutarci a proteggerci
dalle palle nere. -
8:58 - 9:01E non so in quale ordine usciranno.
-
9:01 - 9:04CA: Una possibile critica filosofica
a questa teoria -
9:04 - 9:10è che essa implica una visione del futuro
come essenzialmente stabilito, -
9:10 - 9:13che quella palla esista oppure no.
-
9:13 - 9:16E in qualche modo,
-
9:16 - 9:18questa non è una visione del mondo
a cui voglio credere. -
9:18 - 9:21Voglio credere che il futuro
sia indeterminato, -
9:21 - 9:23che le nostre decisioni di oggi
determineranno -
9:23 - 9:25che tipo di palle estrarremo
da quell'urna. -
9:26 - 9:30NB: Se continuiamo a inventare,
-
9:30 - 9:32prima o poi estrarremo tutte le palle.
-
9:33 - 9:36Penso che ci sia una specie di forma
debole di determinismo tecnologico -
9:36 - 9:38piuttosto plausibile,
-
9:38 - 9:40considerando che è improbabile
trovare una società -
9:40 - 9:43che usi asce di selce e jet.
-
9:44 - 9:48Ma si può quasi pensare a una tecnologia
come a una serie di possibili usi e scopi. -
9:48 - 9:51La tecnologia è qualcosa
che ci rende possibile fare varie cose -
9:51 - 9:53e ottenere vari risultati nel mondo.
-
9:53 - 9:56Il modo in cui poi la usiamo,
ovviamente dipende dalla scelta dell'uomo. -
9:56 - 9:59Ma se pensiamo
a questi tre tipi di vulnerabilità, -
9:59 - 10:02formulano ipotesi davvero deboli
su come potremmo decidere di usarle. -
10:02 - 10:06Tornando alla vulnerabilità di Tipo-1,
questo enorme potere distruttivo, -
10:06 - 10:07è un'ipotesi piuttosto debole
-
10:07 - 10:10pensare che in una popolazione
di un milione di persone -
10:10 - 10:13ci sia qualcuno che decida di usarla
in modo distruttivo. -
10:13 - 10:15CA: Per me, la questione
più inquietante -
10:15 - 10:20è che potremmo effettivamente avere
una sorta di vista all'interno dell'urna -
10:20 - 10:23che renda davvero probabile
che siamo spacciati. -
10:23 - 10:28Ovvero, se credi nella capacità
sempre maggiore, -
10:28 - 10:30sostanzialmente accelerata
dalla tecnologia, -
10:30 - 10:33di costruire gli strumenti
che ci rendono più potenti, -
10:33 - 10:35allora a un certo punto
si arriva a uno stadio -
10:35 - 10:38in cui un singolo individuo
potrebbe demolirci tutti, -
10:38 - 10:41e allora si direbbe che siamo spacciati.
-
10:41 - 10:44Non è allarmante?
-
10:44 - 10:46NB: Ah, sì.
-
10:47 - 10:48(Risate)
-
10:48 - 10:49Penso che...
-
10:51 - 10:53sì, abbiamo competenze sempre più potenti,
-
10:53 - 10:56ed è sempre più facile usare
queste competenze, -
10:56 - 11:00ma possiamo anche inventare tecnologie
che potrebbero aiutarci a controllare -
11:00 - 11:02come le persone usano queste competenze.
-
11:02 - 11:05CA: Parliamo di questo,
parliamo delle contromisure. -
11:05 - 11:08Supponiamo che pensando
a tutte le possibilità -
11:08 - 11:09oggi esistenti,
-
11:09 - 11:13non solo la biologia sintetica,
ma cose come la guerra informatica, -
11:13 - 11:17l'intelligenza artificiale, ecc.,
-
11:17 - 11:21che il nostro futuro ci riservi
un destino infausto. -
11:21 - 11:23Quali sono le possibili contromisure?
-
11:23 - 11:28Tu hai anche parlato
di quattro possibili interventi. -
11:28 - 11:31NB: Limitare lo sviluppo tecnologico
non sembra promettente. -
11:31 - 11:35Se parliamo di una sospensione
generalizzata del progresso tecnologico, -
11:35 - 11:36non penso che sia fattibile,
-
11:36 - 11:38né che sia desiderabile
anche potendolo fare. -
11:38 - 11:41Penso che potrebbero esserci
aree molto limitate -
11:41 - 11:44in cui forse si vorrebbe rallentare
il progresso tecnologico. -
11:44 - 11:47Penso che non si voglia accelerare
il progresso nelle armi biologiche, -
11:47 - 11:49o nella separazione degli isotopi,
-
11:49 - 11:52che potrebbe rendere più semplice
creare testate nucleari. -
11:53 - 11:56CA: Sono sempre stato d'accordo
con questo. -
11:56 - 11:59Ma vorrei davvero riconsiderare
la questione per un minuto. -
11:59 - 12:01Solo perché, prima di tutto,
-
12:01 - 12:03se si guarda alla storia
dell'ultimo ventennio, -
12:03 - 12:07è stato un continuo avanzare
a tutta velocità, -
12:07 - 12:09va bene, è stata la nostra unica scelta.
-
12:09 - 12:13Ma guardiamo alla globalizzazione
e alla sua rapida accelerazione, -
12:13 - 12:16e se guardiamo alla strategia del
"move fast and break things" -
12:16 - 12:18e a cosa ha portato,
-
12:18 - 12:21e poi si considerano le potenzialità
della biologia sintetica, -
12:21 - 12:26non so se dovremmo avanzare rapidamente
-
12:26 - 12:27o senza alcun tipo di restrizione
-
12:27 - 12:31verso un mondo in cui si potrà
stampare il DNA nella propria casa -
12:31 - 12:32e in ogni laboratorio scolastico.
-
12:33 - 12:35Ci sono delle restrizioni, giusto?
-
12:35 - 12:38NB: Forse, c'è la prima parte,
quella non realistica. -
12:38 - 12:40Se pensi che sarebbe auspicabile fermarla,
-
12:40 - 12:41c'è il problema della fattibilità.
-
12:42 - 12:44Cioè, non aiuta molto
se una nazione in un certo senso... -
12:44 - 12:46CA: No, non aiuta
se solo una nazione lo fa, -
12:46 - 12:49ma abbiamo già siglato degli accordi
in precedenza. -
12:49 - 12:53È proprio così che siamo riusciti
a sopravvivere alla minaccia nucleare, -
12:53 - 12:54andando là fuori
-
12:54 - 12:57e attraversando il doloroso
processo della negoziazione. -
12:57 - 13:02Mi chiedo solo se non sarebbe logico,
per una questione di priorità globale, -
13:02 - 13:03non andare là fuori
-
13:03 - 13:06e provare subito a iniziare a negoziare
regole davvero severe -
13:06 - 13:09su dove svolgere la ricerca
sulla biologia di sintesi, -
13:09 - 13:12che non è un qualcosa
che si vorrebbe democratizzare, no? -
13:12 - 13:14NB: Concordo pienamente su questo:
-
13:14 - 13:18sarebbe desiderabile, per esempio,
-
13:18 - 13:22forse avere macchine
per la sintesi del DNA, -
13:22 - 13:25non come dispositivi
disponibili in ogni laboratorio, -
13:25 - 13:27ma come un servizio.
-
13:27 - 13:29Potrebbero esserci quattro
o cinque posti al mondo -
13:29 - 13:33dove inviare il proprio progetto
digitale e avere indietro il DNA, giusto? -
13:33 - 13:35E poi, si avrebbe la capacità,
-
13:35 - 13:37se un giorno si dimostrasse
davvero necessario, -
13:37 - 13:39di porre una serie finita di restrizioni.
-
13:39 - 13:43Vorresti poter individuare
quelle situazioni particolari, -
13:43 - 13:45dove puoi esercitare
un controllo più stretto. -
13:45 - 13:47CA: La tua convinzione è che,
fondamentalmente, -
13:47 - 13:50non riusciremo semplicemente
a tirarci indietro. -
13:50 - 13:53Qualcuno, da qualche parte,
nella Corea del Nord, ad esempio, -
13:53 - 13:56qualcuno ci arriverà
e scoprirà quella tecnologia, -
13:56 - 13:57se deve essere scoperta.
-
13:57 - 14:00NB: Sembra plausibile
nella attuali condizioni. -
14:00 - 14:02E ciò non vale solo
per la biologia sintetica. -
14:02 - 14:04Qualsiasi cambiamento
nuovo e profondo -
14:04 - 14:05può rivelarsi una palla nera.
-
14:05 - 14:07CA: Consideriamo
un'altra possibile misura. -
14:07 - 14:10NB: Anche questa, penso,
possiede solo un potenziale limitato. -
14:10 - 14:14Considerando ancora
la vulnerabilità di Tipo-1, -
14:14 - 14:17se si potesse ridurre
il numero di persone incentivate -
14:17 - 14:19a distruggere il mondo,
-
14:19 - 14:21qualora ne avessero la possibilità
e le risorse, -
14:21 - 14:22sarebbe fantastico.
-
14:22 - 14:25CA: In questa quadro
che ci hai chiesto di realizzare -
14:25 - 14:27tu immagini questi droni
volare per il mondo -
14:27 - 14:29equipaggiati
per il riconoscimento facciale. -
14:29 - 14:32Se individuano qualcuno che mostra
i segni di un comportamento sociopatico, -
14:32 - 14:34lo ricoprono di amore, lo curano.
-
14:34 - 14:36NB: Penso sia una specie di quadro ibrido.
-
14:36 - 14:40Eliminare vuole dire
incarcerare o uccidere, -
14:40 - 14:43ma può anche voler dire indurre
a una migliore visione del mondo. -
14:43 - 14:45Ma il punto è quello,
-
14:45 - 14:47supponiamo di essere riusciti in questo,
-
14:47 - 14:50e di aver ridotto della metà
questo genere di individui. -
14:50 - 14:52E per riuscire con la persuasione,
-
14:52 - 14:55si deve competere contro
tutte le altre potenti forze -
14:55 - 14:56che cercano di persuadere la gente:
-
14:56 - 14:58partiti, religione,
sistema educativo. -
14:58 - 15:00Supponiamo di ridurli della metà,
-
15:00 - 15:02il rischio non risulterebbe ridotto
della metà. -
15:02 - 15:04Forse di un cinque o un 10 per cento.
-
15:04 - 15:06CA: Non raccomandi di scommettere
il futuro dell'umanità -
15:06 - 15:07sulla seconda misura.
-
15:07 - 15:11NB: Penso che vada bene tentare
di dissuadere e persuadere le persone, -
15:11 - 15:14ma non dovremmo fare affidamento
su questo come unica misura di difesa. -
15:14 - 15:15CA: Che dire della terza?
-
15:15 - 15:18NB: Penso che ci siano due metodi generali
-
15:18 - 15:22che possiamo usare per raggiungere
la capacità di stabilizzare il mondo -
15:22 - 15:25contro tutta una gamma
di possibili vulnerabilità. -
15:25 - 15:27E probabilmente ci serviranno entrambi.
-
15:27 - 15:31Uno è la capacità estremamente efficace
-
15:31 - 15:33di realizzare una politica preventiva,
-
15:33 - 15:35con cui si possa intercettare.
-
15:35 - 15:38Se qualcuno iniziasse
a fare cose pericolose, -
15:38 - 15:40si potrebbe intercettarlo
in tempo reale, e fermarlo. -
15:40 - 15:43Questo richiederebbe
una sorveglianza ubiquitaria, -
15:43 - 15:45tutti sarebbero controllati
per tutto il tempo. -
15:46 - 15:49CA: Essenzialmente una forma
alla "Minority Report". -
15:49 - 15:51NB: Potrebbero esserci algoritmi di IA,
-
15:51 - 15:55grandi centri di controllo della libertà
che ispezionano, ecc., ecc. -
15:57 - 16:01CA: Tu sai che il concetto di sorveglianza
di massa non è molto popolare al momento? -
16:01 - 16:02(Risate)
-
16:03 - 16:05NB: Sì. Quindi
quel piccolo dispositivo lì, -
16:05 - 16:09immagina questa specie di collana
da indossare tutto il tempo -
16:09 - 16:11con delle telecamere multidirezionali.
-
16:12 - 16:14Ma, per farla accettare più facilmente,
-
16:14 - 16:17chiamala semplicemente "tag della libertà"
o qualcosa del genere. -
16:17 - 16:18(Risate)
-
16:18 - 16:19CA: Ok.
-
16:20 - 16:22Voglio dire, l'argomento è questo, amici,
-
16:22 - 16:25questo è il motivo per cui si tratta
di una conversazione così stupefacente. -
16:25 - 16:28NB: Effettivamente, c'è tutto un discorso
-
16:28 - 16:29solo su questo tema, ovviamente.
-
16:29 - 16:32Ci sono problemi e rischi enormi
con questo. -
16:32 - 16:33Potremmo ritornarci su.
-
16:33 - 16:34L'altra, l'ultima,
-
16:34 - 16:36l'atra possibilità
di stabilizzazione generale -
16:36 - 16:39consiste un po' nel tappare
un altro buco a livello governativo. -
16:39 - 16:43La sorveglianza sarebbe una sorta
di lacuna governativa al microlivello, -
16:43 - 16:46come, impedire che qualcuno
possa fare qualcosa di illegale. -
16:46 - 16:49Poi, c'è una corrispondente
lacuna governativa -
16:49 - 16:51al macrolivello, a livello globale.
-
16:51 - 16:54Servirebbe la capacità, la sicurezza,
-
16:54 - 16:57di prevenire i peggiori tipi di fallimenti
nella coordinazione globale, -
16:57 - 17:01di evitare guerre tra le superpotenze,
-
17:01 - 17:02corse agli armamenti,
-
17:04 - 17:06comuni problemi catastrofici,
-
17:08 - 17:12per affrontare le vulnerabilità
di Tipo-2a. -
17:12 - 17:16CA: Governanza globale è un termine
decisamente fuori moda al momento, -
17:16 - 17:19ma si potrebbe notare
che nel corso della storia, -
17:19 - 17:20la storia dell'umanità
-
17:20 - 17:25ci ha dimostrato che a ogni stadio
di crescita del potere tecnologico -
17:25 - 17:29le persone hanno riorganizzato
e più o meno centralizzato il potere. -
17:29 - 17:31Ad esempio, ogni volta che
un branco errante di criminali -
17:31 - 17:34è riuscito a prendere il controllo
di una società, -
17:34 - 17:36la risposta è stata avere
uno stato-nazione -
17:36 - 17:38centralizzare le forze armate,
un corpo di polizia, -
17:38 - 17:40ovvero: "No, non potete fare così."
-
17:40 - 17:45La logica, forse, di avere una singola
persona o un singolo gruppo -
17:45 - 17:46in grado di eliminare l'umanità
-
17:46 - 17:49implica che a un certo punto
che dovremo prendere questa strada, -
17:49 - 17:51almeno in qualche forma, no?
-
17:51 - 17:54NB: È sicuramente vero che la scala
dell'organizzazione politica è aumentata -
17:54 - 17:56nel corso della storia dell'umanità.
-
17:56 - 17:59Era del tipo gruppo
di cacciatori e raccoglitori, -
17:59 - 18:02poi territorio governato da capotribù,
città-stato, nazione, -
18:02 - 18:05ora ci sono organizzazioni internazionali
e via di dicendo. -
18:05 - 18:07Quindi, voglio solo essere sicuro
-
18:07 - 18:09di avere la possibilità di sottolineare
-
18:09 - 18:11che ci sono ovviamente
grandi risvolti negativi -
18:11 - 18:12nonché, rischi enormi,
-
18:12 - 18:15sia nella sorveglianza di massa
che nella governance globale. -
18:15 - 18:17Voglio solo far notare che
se siamo fortunati, -
18:17 - 18:21il mondo potrebbe diventare tale che
questi potrebbero essere i soli modi -
18:21 - 18:23per sopravvivere a una palla nera.
-
18:23 - 18:25CA: La logica di questa teoria,
-
18:25 - 18:26mi pare di capire,
-
18:26 - 18:30è quella che dobbiamo riconoscere
che non possiamo avere tutto. -
18:30 - 18:32Che quel genere di sogno naif,
-
18:34 - 18:36oserei dire, quel sogno ingenuo
che molti di noi hanno -
18:36 - 18:39che la tecnologia sarà sempre
al servizio del bene, -
18:39 - 18:43che bisogna andare avanti, non fermarsi,
più velocemente possibile -
18:43 - 18:45senza prestare attenzione
ad alcune delle conseguenze, -
18:45 - 18:47questa semplicemente non è un'opzione.
-
18:47 - 18:49Possiamo averla.
-
18:49 - 18:50Se l'abbiamo,
-
18:50 - 18:54dovremo accettare alcune
delle altre cose spiacevoli con essa, -
18:54 - 18:56e di essere in questa sorta
di gara con noi stessi -
18:56 - 18:59in cui se vogliamo questo potere,
conviene limitarlo, -
18:59 - 19:01conviene trovare un modo per limitarlo.
-
19:01 - 19:04NB: Penso che questa sia un'opzione,
-
19:04 - 19:07un'opzione davvero allettante,
in un certo senso l'opzione più facile -
19:07 - 19:09e potrebbe funzionare,
-
19:09 - 19:12ma vorrebbe dire
essere totalmente vulnerabili -
19:12 - 19:13all'estrazione di una palla nera.
-
19:13 - 19:15Penso che con un po' di coordinazione,
-
19:15 - 19:18se si risolvesse questo problema
a livello di macrogovernance, -
19:18 - 19:20e a livello di microgovernance,
-
19:20 - 19:22allora potremmo estrarre
tutte le palle dall'urna -
19:22 - 19:25e ne avremmo notevoli benefici.
-
19:25 - 19:28CA: Insomma, se viviamo
in una simulazione, ha importanza? -
19:28 - 19:29Basta solo riavviare.
-
19:29 - 19:31(Risate)
-
19:31 - 19:32NB: In tal caso... Io...
-
19:32 - 19:35(Risate)
-
19:35 - 19:36Questa non me l'aspettavo.
-
19:38 - 19:39CA: Quindi qual è la tua visione?
-
19:39 - 19:44Mettendo insieme tutti i pezzi,
quanto è probabile che siamo condannati? -
19:44 - 19:46(Risate)
-
19:47 - 19:49Mi piace come ride la gente
quando faccio questa domanda. -
19:49 - 19:51NB: Come individui,
-
19:51 - 19:55sembra che siamo condannati in ogni caso,
in base alla linea del tempo, -
19:55 - 19:58ci decomponiamo e invecchiamo
e tutto quel genere di cose. -
19:58 - 19:59(Risate)
-
19:59 - 20:00In effetti è un po' complicato.
-
20:00 - 20:04Se si vuole stabilire un ordine
per poter attribuire una probabilità, -
20:04 - 20:04primo, chi siamo?
-
20:04 - 20:07Se sei molto vecchio,
probabilmente morirai di cause naturali, -
20:07 - 20:10se sei molto giovane,
potresti avere 100 anni... -
20:10 - 20:12la probabilità dipenderebbe
da a chi lo chiedi. -
20:12 - 20:16Poi il confine, cioè: cosa conta
come distruzione della civiltà? -
20:16 - 20:22Nell'articolo non occorre che si tratti
di una catastrofe esistenziale -
20:22 - 20:23per contare.
-
20:23 - 20:25È solo una questione di definizione,
-
20:25 - 20:26io dico un miliardo di morti,
-
20:26 - 20:29o la riduzione del PIL del 50%,
-
20:29 - 20:31ma a seconda di quale soglia
si stabilisce, -
20:31 - 20:33si ottiene una stima diversa
della probabilità. -
20:33 - 20:37Direi che potresti considerarmi
un ottimista spaventato. -
20:37 - 20:38(Risate)
-
20:38 - 20:40CA: Tu sei un ottimista spaventato,
-
20:40 - 20:44e credo che tu abbia appena creato
un gran numero di altre... -
20:44 - 20:46persone spaventate.
-
20:46 - 20:47(Risate)
-
20:47 - 20:48NB: Nella simulazione.
-
20:48 - 20:49CA: In una simulazione.
-
20:49 - 20:51Nick Bostrom,
la tua mente è sbalorditiva. -
20:51 - 20:54Davvero grazie per averci
spaventati a morte. -
20:54 - 20:56(Applausi)
- Title:
- La civiltà potrebbe autodistruggersi e 4 modi con cui potremmo evitarlo
- Speaker:
- Nick Bostrom
- Description:
-
Secondo il filosofo Nick Bostrom, l'umanità è sulla buona strada per la creazione di una "palla nera", una scoperta tecnologica rivoluzionaria che potrebbe distruggerci tutti. In questa conversazione acuta e sorprendentemente scanzonata con il direttore di TED, Chris Anderson, Bostrom delinea le vulnerabilità che potremmo dover affrontare se (o quando) le nostre invenzioni dovessero aumentare vertiginosamente al di là del nostro controllo e analizza in che modo potremmo prevenire la nostra fine.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 21:09
Elena Montrasio approved Italian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Elena Montrasio edited Italian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Beatrice Chiamenti accepted Italian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Beatrice Chiamenti edited Italian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Eleonora Gottardo edited Italian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Elena Montrasio rejected Italian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Alessio Coci accepted Italian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Alessio Coci edited Italian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it |