Italian feliratok

← La civiltà potrebbe autodistruggersi e 4 modi con cui potremmo evitarlo

Beágyazókód kérése
23 Languages

Showing Revision 17 created 03/30/2020 by Elena Montrasio.

  1. Chris Anderson: Nick Bostrom.
  2. Allora, ci hai già regalato
    tante idee pazzesche su questo tema.
  3. Una ventina di anni fa,
  4. hai ipotizzato fosse possibile
    che stessimo vivendo in una simulazione,
  5. o magari che fosse probabile.
  6. Recentemente,
  7. ci hai illustrato vividi esempi di come
    con l'intelligenza artificiale
  8. potrebbe finire davvero male.
  9. E quest’anno,
  10. stai per pubblicare un articolo
  11. che introduce qualcosa che tu definisci
    l'ipotesi del mondo vulnerabile.
  12. Questa sera cercheremo di fornire
    una guida descrittiva a questa ipotesi.
  13. Quindi cominciamo.
  14. Qual è l'ipotesi?
  15. Nick Bostrom: Si cerca di considerare

  16. una sorta di caratteristica strutturale
    dell'attuale condizione umana.
  17. A te piace la metafora dell'urna,
  18. quindi la userò per spiegarla.
  19. Immagina una grossa urna piena di sfere
  20. che rappresentano le idee,
    i metodi, le possibili tecnologie.
  21. Possiamo immaginare la storia
    della creatività umana
  22. come l’atto di pescare in quest'urna
    e tirare fuori le sfere una dopo l'altra,
  23. e l'effetto fino ad ora
    è stato largamente positivo, giusto?
  24. Abbiamo estratto
    un gran numero di sfere bianche,
  25. qualcuna con diverse sfumature di grigio,
    con un misto di vantaggi e svantaggi.
  26. Finora non abbiamo estratto
    la sfera nera,
  27. una tecnologia che immancabilmente
    distruggerebbe la civiltà che la scopre.
  28. Nell'articolo cerco di pensare
    a quale può essere questa sfera nera.
  29. CA: Quindi tu definisci questa sfera

  30. quella che determinerebbe inevitabilmente
    la distruzione della civiltà.
  31. NB: Se non abbandoniamo quella che chiamo
    la condizione semianarchica prestabilita.

  32. Ma praticamente in automatico.
  33. CA: Quindi, sostieni la tua ipotesi

  34. mostrando una serie di controesempi
  35. in cui ritieni che finora
    siamo stati davvero fortunati,
  36. che avremmo potuto pescare
    la sfera della morte.
  37. senza neanche saperlo.
  38. Quindi perché questa citazione?
  39. NB: Immagino sia per mostrare

  40. la difficoltà di prevedere
  41. a cosa condurranno
    le scoperte fondamentali.
  42. Semplicemente non ne siamo capaci.
  43. Perché siamo diventati piuttosto bravi
    a estrarre le sfere,
  44. ma non siamo proprio in grado
    di rimetterle nell'urna.
  45. Possiamo inventare, non disinventare.
  46. Quindi la nostra strategia,
    se così la si può chiamare,
  47. è sperare che nell'urna
    non ci sia nessuna sfera nera.
  48. CA: Quindi una volta fuori, è fuori,
    e non la si può rimettere dentro,

  49. e tu pensi che siamo stati fortunati.
  50. Allora spieghiamo bene
    un paio di questi esempi.
  51. Parli di diversi tipi di vulnerabilità.
  52. NB: Il tipo più semplice da comprendere

  53. deriva da una tecnologia
    che renda davvero molto facile
  54. provocare grandi distruzioni.
  55. La biologia sintetica potrebbe essere
    un'ottima base per quel tipo di sfera nera
  56. ma potrebbero esserlo
    anche molte altre cose:
  57. pensate alla geoingegneria,
    fantastica, vero?
  58. Potremmo combattere
    il riscaldamento globale,
  59. ma non vorremmo diventasse
    troppo semplice,
  60. non vorremmo che chiunque,
    o la nonna di chiunque
  61. avesse la capacità di alterare
    radicalmente il clima della Terra.
  62. O magari dei droni autonomi letali,
  63. prodotti in massa, sciami di robot killer
    piccoli come zanzare.
  64. La nanotecnologia,
    l'intelligenza artificiale generale.
  65. CA: Nel tuo articolo sostieni

  66. che è stata solo questione di fortuna
    avere scoperto
  67. che con l'energia nucleare
    si poteva creare una bomba,
  68. sarebbe potuto succedere invece
  69. di poter creare una bomba
  70. con risorse più semplici,
    accessibili a chiunque.
  71. NB: Già, quindi ripensiamo agli anni '30

  72. quando per la prima volta abbiamo fatto
    passi da gigante nella fisica nucleare,
  73. qualche genio ha capito che era possibile
    creare una reazione nucleare a catena
  74. e poi ha realizzato che questo
    avrebbe potuto portare alla bomba.
  75. E lavorandoci su,
  76. venne fuori che quello che serve
    per fare una bomba nucleare
  77. è l'uranio arricchito o il plutonio,
  78. materiali molto difficili da ottenere.
  79. Servono ultracentrifughe,
  80. reattori, enormi quantità di energia.
  81. Ma supponiamo invece
    che fosse saltato fuori
  82. che esisteva un modo semplice
    per liberare l'energia dell'atomo.
  83. Che magari arrostendo
    della sabbia nel microonde
  84. o qualcosa del genere
  85. si fosse potuto creare
    una detonazione nucleare.
  86. Oggi sappiamo dalla fisica
    che è impossibile.
  87. Ma prima di fare le ricerche
  88. come avremmo potuto sapere
    come sarebbe andata a finire?
  89. CA: Però non si può discutere il fatto

  90. che l'evoluzione della vita sulla Terra
  91. ha avuto bisogno di una sorta
    di ambiente stabile,
  92. e che se fosse stato possibile
    creare facilmente tali reazioni nucleari,
  93. la Terra non sarebbe mai stata stabile,
  94. ei noi non saremmo qui adesso.
  95. NB: Già, a meno che non ci fosse qualcosa
    di facile da fare volutamente

  96. ma non accadrebbe per caso.
  97. Tipo cose che possiamo fare facilmente,
  98. come impilare 10 blocchi
    uno sopra l'altro,
  99. ma in natura, è improbabile
    trovare una pila di 10 blocchi.
  100. CA: Ora, questa
    è probabilmente la cosa

  101. per cui molti di noi
    si preoccupano di più,
  102. e sì, la biologia sintetica
    è forse la via più veloce
  103. che possiamo prevedere
    ci condurrà a questo nel prossimo futuro.
  104. NB: Sì, e pensa cosa significherebbe

  105. se, ad esempio, chiunque lavorando
    per un pomeriggio nella propria cucina
  106. potesse distruggere una città.
  107. È difficile immaginare
    come la civiltà moderna come la conosciamo
  108. potrebbe sopravvivere a questo.
  109. Perché in una popolazione
    di un milione di persone,
  110. ci sarà sempre qualcuno che,
    per una ragione qualsiasi,
  111. sceglierebbe di usare
    quel potere distruttivo.
  112. Così, se quel residuo apocalittico
  113. decidesse di distruggere una città,
    o fare di peggio,
  114. le città verrebbero distrutte.
  115. CA: Ma c'è un altro tipo di vulnerabilità.

  116. Parlaci di questo.
  117. NB: Sì, oltre a questo tipo
    piuttosto ovvio di palle nere

  118. che renderebbero possibile
    far saltare in aria un sacco di cose,
  119. altri tipi agirebbero
    creando cattivi incentivi
  120. per gli uomini
    portandoli a fare cose dannose.
  121. Quindi, il Tipo-2a,
    potremmo chiamarlo così,
  122. potrebbe derivare da una tecnologia
    che incentivasse le grandi potenze
  123. a usare la loro enorme forza
    per creare distruzione.
  124. Le armi nucleari si sono avvicinate molto
    a questo, giusto?
  125. In quel caso abbiamo speso
    oltre 10 mila miliardi di dollari
  126. per costruire 70.000 testate nucleari
  127. e metterle nello stato
    di allerta immediata.
  128. E in diverse occasioni
    durante la Guerra Fredda
  129. abbiamo rischiato
    di saltare tutti in aria.
  130. E non perché tanta gente ritenesse
    una grande idea
  131. spendere 10 mila miliardi di dollari
    per saltare tutti in aria,
  132. ma gli incentivi erano tali
    che ci siamo ritrovati a farlo.
  133. Sarebbe potuta andare peggio.
  134. Immagina se ci fosse stato
    un primo colpo nucleare sicuro.
  135. Dopo sarebbe potuto
    essere molto difficile,
  136. in una situazione di crisi,
  137. trattenersi dal lanciare
    tutti i propri missili nucleari.
  138. Se non altro, per la paura
    che potesse farlo la controparte.
  139. CA: La certezza
    di una distruzione reciproca

  140. ha mantenuto una certa stabilità
    durante la Guerra Fredda.
  141. Senza quella, forse
    ora non saremmo qui.
  142. NB: Sarebbe potuta essere meno stabile.

  143. E potrebbero esserci
    altre proprietà della tecnologia.
  144. Avere trattati sulle armi
    sarebbe potuto essere più difficile,
  145. se invece delle armi nucleari
  146. ci fossero state cose più piccole,
    o meno distruttive.
  147. CA: Oltre ai cattivi incentivi
    per i potenti,

  148. ti preoccupano anche i cattivi incentivi
    per tutti noi, qui nel Tipo-2b.
  149. NB: Sì, si potrebbe considerare il caso
    del riscaldamento globale.

  150. Ci sono un sacco di piccole comodità
  151. che ci incentivano a fare cose
  152. che singolarmente non hanno
    un effetto significativo, giusto?
  153. Ma se fatte da un miliardo di persone,
  154. nell'insieme, hanno un effetto dannoso.
  155. Il riscaldamento globale sarebbe
    potuto essere molto peggio di così.
  156. Abbiamo il parametro della
    "sensibilità climatica".
  157. È un parametro che ci dice
    quanto diventa più caldo
  158. con l'emissione
    di una certa quantità di gas serra.
  159. Ma, mettiamo il caso
  160. che con l'emissione
    di una certa quantità di gas serra,
  161. invece di un aumento della temperatura
  162. tra i 3 e i 4,5 gradi per il 2100,
  163. fosse previsto un aumento
    di 15 o 20 gradi.
  164. Ci saremmo potuti trovare
    in una situazione davvero brutta.
  165. Supponiamo che l'energia rinnovabile
    fosse stata più difficile da ottenere.
  166. Che il combustibile fossile
    fosse più disponibile.
  167. CA: Non si potrebbe supporre
    che se in quel caso,

  168. se quello che stiamo facendo oggi
  169. avesse prodotto una differenza di 10 gradi
    nel periodo osservato,
  170. invece l'umanità si sarebbe data una mossa
    e avrebbe fatto qualcosa a proposito.
  171. Siamo stupidi, ma forse non così stupidi.
  172. O forse lo siamo.
  173. NB: Non ci scommetterei.

  174. (Risate)

  175. Si potrebbero immaginare altri scenari.

  176. Ora come ora, è difficile la conversione
    alle rinnovabili eccetera,
  177. ma si può fare.
  178. Ma con una fisica leggermente diversa,
  179. sarebbe potuto essere molto più costoso
    fare queste cose.
  180. CA: Qual è la tua idea, Nick?

  181. Pensi che, mettendo insieme
    tutte queste possibilità,
  182. questa Terra, il nostro genere umano,
  183. dobbiamo considerarci
    un mondo vulnerabile?
  184. Che c'è una palla della morte
    nel nostro futuro?
  185. NB: Difficile a dirsi.

  186. Voglio dire, penso che chiaramente
    possano esserci più palle nere nell'urna,
  187. così sembrerebbe.
  188. Potrebbero esserci anche
    alcune palle d'oro
  189. in grado di aiutarci a proteggerci
    dalle palle nere.
  190. E non so in quale ordine usciranno.
  191. CA: Una possibile critica filosofica
    a questa teoria

  192. è che essa implica una visione del futuro
    come essenzialmente stabilito,
  193. che quella palla esista oppure no.
  194. E in qualche modo,
  195. questa non è una visione del mondo
    a cui voglio credere.
  196. Voglio credere che il futuro
    sia indeterminato,
  197. che le nostre decisioni di oggi
    determineranno
  198. che tipo di palle estrarremo
    da quell'urna.
  199. NB: Se continuiamo a inventare,

  200. prima o poi estrarremo tutte le palle.
  201. Penso che ci sia una specie di forma
    debole di determinismo tecnologico
  202. piuttosto plausibile,
  203. considerando che è improbabile
    trovare una società
  204. che usi asce di selce e jet.
  205. Ma si può quasi pensare a una tecnologia
    come a una serie di possibili usi e scopi.
  206. La tecnologia è qualcosa
    che ci rende possibile fare varie cose
  207. e ottenere vari risultati nel mondo.
  208. Il modo in cui poi la usiamo,
    ovviamente dipende dalla scelta dell'uomo.
  209. Ma se pensiamo
    a questi tre tipi di vulnerabilità,
  210. formulano ipotesi davvero deboli
    su come potremmo decidere di usarle.
  211. Tornando alla vulnerabilità di Tipo-1,
    questo enorme potere distruttivo,
  212. è un'ipotesi piuttosto debole
  213. pensare che in una popolazione
    di un milione di persone
  214. ci sia qualcuno che decida di usarla
    in modo distruttivo.
  215. CA: Per me, la questione
    più inquietante

  216. è che potremmo effettivamente avere
    una sorta di vista all'interno dell'urna
  217. che renda davvero probabile
    che siamo spacciati.
  218. Ovvero, se credi nella capacità
    sempre maggiore,
  219. sostanzialmente accelerata
    dalla tecnologia,
  220. di costruire gli strumenti
    che ci rendono più potenti,
  221. allora a un certo punto
    si arriva a uno stadio
  222. in cui un singolo individuo
    potrebbe demolirci tutti,
  223. e allora si direbbe che siamo spacciati.
  224. Non è allarmante?
  225. NB: Ah, sì.

  226. (Risate)

  227. Penso che...

  228. sì, abbiamo competenze sempre più potenti,
  229. ed è sempre più facile usare
    queste competenze,
  230. ma possiamo anche inventare tecnologie
    che potrebbero aiutarci a controllare
  231. come le persone usano queste competenze.
  232. CA: Parliamo di questo,
    parliamo delle contromisure.

  233. Supponiamo che pensando
    a tutte le possibilità
  234. oggi esistenti,
  235. non solo la biologia sintetica,
    ma cose come la guerra informatica,
  236. l'intelligenza artificiale, ecc.,
  237. che il nostro futuro ci riservi
    un destino infausto.
  238. Quali sono le possibili contromisure?
  239. Tu hai anche parlato
    di quattro possibili interventi.
  240. NB: Limitare lo sviluppo tecnologico
    non sembra promettente.

  241. Se parliamo di una sospensione
    generalizzata del progresso tecnologico,
  242. non penso che sia fattibile,
  243. né che sia desiderabile
    anche potendolo fare.
  244. Penso che potrebbero esserci
    aree molto limitate
  245. in cui forse si vorrebbe rallentare
    il progresso tecnologico.
  246. Penso che non si voglia accelerare
    il progresso nelle armi biologiche,
  247. o nella separazione degli isotopi,
  248. che potrebbe rendere più semplice
    creare testate nucleari.
  249. CA: Sono sempre stato d'accordo
    con questo.

  250. Ma vorrei davvero riconsiderare
    la questione per un minuto.
  251. Solo perché, prima di tutto,
  252. se si guarda alla storia
    dell'ultimo ventennio,
  253. è stato un continuo avanzare
    a tutta velocità,
  254. va bene, è stata la nostra unica scelta.
  255. Ma guardiamo alla globalizzazione
    e alla sua rapida accelerazione,
  256. e se guardiamo alla strategia del
    "move fast and break things"
  257. e a cosa ha portato,
  258. e poi si considerano le potenzialità
    della biologia sintetica,
  259. non so se dovremmo avanzare rapidamente
  260. o senza alcun tipo di restrizione
  261. verso un mondo in cui si potrà
    stampare il DNA nella propria casa
  262. e in ogni laboratorio scolastico.
  263. Ci sono delle restrizioni, giusto?
  264. NB: Forse, c'è la prima parte,
    quella non realistica.

  265. Se pensi che sarebbe auspicabile fermarla,
  266. c'è il problema della fattibilità.
  267. Cioè, non aiuta molto
    se una nazione in un certo senso...
  268. CA: No, non aiuta
    se solo una nazione lo fa,

  269. ma abbiamo già siglato degli accordi
    in precedenza.
  270. È proprio così che siamo riusciti
    a sopravvivere alla minaccia nucleare,
  271. andando là fuori
  272. e attraversando il doloroso
    processo della negoziazione.
  273. Mi chiedo solo se non sarebbe logico,
    per una questione di priorità globale,
  274. non andare là fuori
  275. e provare subito a iniziare a negoziare
    regole davvero severe
  276. su dove svolgere la ricerca
    sulla biologia di sintesi,
  277. che non è un qualcosa
    che si vorrebbe democratizzare, no?
  278. NB: Concordo pienamente su questo:

  279. sarebbe desiderabile, per esempio,
  280. forse avere macchine
    per la sintesi del DNA,
  281. non come dispositivi
    disponibili in ogni laboratorio,
  282. ma come un servizio.
  283. Potrebbero esserci quattro
    o cinque posti al mondo
  284. dove inviare il proprio progetto
    digitale e avere indietro il DNA, giusto?
  285. E poi, si avrebbe la capacità,
  286. se un giorno si dimostrasse
    davvero necessario,
  287. di porre una serie finita di restrizioni.
  288. Vorresti poter individuare
    quelle situazioni particolari,
  289. dove puoi esercitare
    un controllo più stretto.
  290. CA: La tua convinzione è che,
    fondamentalmente,

  291. non riusciremo semplicemente
    a tirarci indietro.
  292. Qualcuno, da qualche parte,
    nella Corea del Nord, ad esempio,
  293. qualcuno ci arriverà
    e scoprirà quella tecnologia,
  294. se deve essere scoperta.
  295. NB: Sembra plausibile
    nella attuali condizioni.

  296. E ciò non vale solo
    per la biologia sintetica.
  297. Qualsiasi cambiamento
    nuovo e profondo
  298. può rivelarsi una palla nera.
  299. CA: Consideriamo
    un'altra possibile misura.

  300. NB: Anche questa, penso,
    possiede solo un potenziale limitato.

  301. Considerando ancora
    la vulnerabilità di Tipo-1,
  302. se si potesse ridurre
    il numero di persone incentivate
  303. a distruggere il mondo,
  304. qualora ne avessero la possibilità
    e le risorse,
  305. sarebbe fantastico.
  306. CA: In questa quadro
    che ci hai chiesto di realizzare

  307. tu immagini questi droni
    volare per il mondo
  308. equipaggiati
    per il riconoscimento facciale.
  309. Se individuano qualcuno che mostra
    i segni di un comportamento sociopatico,
  310. lo ricoprono di amore, lo curano.
  311. NB: Penso sia una specie di quadro ibrido.

  312. Eliminare vuole dire
    incarcerare o uccidere,
  313. ma può anche voler dire indurre
    a una migliore visione del mondo.
  314. Ma il punto è quello,
  315. supponiamo di essere riusciti in questo,
  316. e di aver ridotto della metà
    questo genere di individui.
  317. E per riuscire con la persuasione,
  318. si deve competere contro
    tutte le altre potenti forze
  319. che cercano di persuadere la gente:
  320. partiti, religione,
    sistema educativo.
  321. Supponiamo di ridurli della metà,
  322. il rischio non risulterebbe ridotto
    della metà.
  323. Forse di un cinque o un 10 per cento.
  324. CA: Non raccomandi di scommettere
    il futuro dell'umanità

  325. sulla seconda misura.
  326. NB: Penso che vada bene tentare
    di dissuadere e persuadere le persone,

  327. ma non dovremmo fare affidamento
    su questo come unica misura di difesa.
  328. CA: Che dire della terza?

  329. NB: Penso che ci siano due metodi generali

  330. che possiamo usare per raggiungere
    la capacità di stabilizzare il mondo
  331. contro tutta una gamma
    di possibili vulnerabilità.
  332. E probabilmente ci serviranno entrambi.
  333. Uno è la capacità estremamente efficace
  334. di realizzare una politica preventiva,
  335. con cui si possa intercettare.
  336. Se qualcuno iniziasse
    a fare cose pericolose,
  337. si potrebbe intercettarlo
    in tempo reale, e fermarlo.
  338. Questo richiederebbe
    una sorveglianza ubiquitaria,
  339. tutti sarebbero controllati
    per tutto il tempo.
  340. CA: Essenzialmente una forma
    alla "Minority Report".

  341. NB: Potrebbero esserci algoritmi di IA,

  342. grandi centri di controllo della libertà
    che ispezionano, ecc., ecc.
  343. CA: Tu sai che il concetto di sorveglianza
    di massa non è molto popolare al momento?

  344. (Risate)

  345. NB: Sì. Quindi
    quel piccolo dispositivo lì,

  346. immagina questa specie di collana
    da indossare tutto il tempo
  347. con delle telecamere multidirezionali.
  348. Ma, per farla accettare più facilmente,
  349. chiamala semplicemente "tag della libertà"
    o qualcosa del genere.
  350. (Risate)

  351. CA: Ok.

  352. Voglio dire, l'argomento è questo, amici,
  353. questo è il motivo per cui si tratta
    di una conversazione così stupefacente.
  354. NB: Effettivamente, c'è tutto un discorso

  355. solo su questo tema, ovviamente.
  356. Ci sono problemi e rischi enormi
    con questo.
  357. Potremmo ritornarci su.
  358. L'altra, l'ultima,
  359. l'atra possibilità
    di stabilizzazione generale
  360. consiste un po' nel tappare
    un altro buco a livello governativo.
  361. La sorveglianza sarebbe una sorta
    di lacuna governativa al microlivello,
  362. come, impedire che qualcuno
    possa fare qualcosa di illegale.
  363. Poi, c'è una corrispondente
    lacuna governativa
  364. al macrolivello, a livello globale.
  365. Servirebbe la capacità, la sicurezza,
  366. di prevenire i peggiori tipi di fallimenti
    nella coordinazione globale,
  367. di evitare guerre tra le superpotenze,
  368. corse agli armamenti,
  369. comuni problemi catastrofici,
  370. per affrontare le vulnerabilità
    di Tipo-2a.
  371. CA: Governanza globale è un termine
    decisamente fuori moda al momento,

  372. ma si potrebbe notare
    che nel corso della storia,
  373. la storia dell'umanità
  374. ci ha dimostrato che a ogni stadio
    di crescita del potere tecnologico
  375. le persone hanno riorganizzato
    e più o meno centralizzato il potere.
  376. Ad esempio, ogni volta che
    un branco errante di criminali
  377. è riuscito a prendere il controllo
    di una società,
  378. la risposta è stata avere
    uno stato-nazione
  379. centralizzare le forze armate,
    un corpo di polizia,
  380. ovvero: "No, non potete fare così."
  381. La logica, forse, di avere una singola
    persona o un singolo gruppo
  382. in grado di eliminare l'umanità
  383. implica che a un certo punto
    che dovremo prendere questa strada,
  384. almeno in qualche forma, no?
  385. NB: È sicuramente vero che la scala
    dell'organizzazione politica è aumentata

  386. nel corso della storia dell'umanità.
  387. Era del tipo gruppo
    di cacciatori e raccoglitori,
  388. poi territorio governato da capotribù,
    città-stato, nazione,
  389. ora ci sono organizzazioni internazionali
    e via di dicendo.
  390. Quindi, voglio solo essere sicuro
  391. di avere la possibilità di sottolineare
  392. che ci sono ovviamente
    grandi risvolti negativi
  393. nonché, rischi enormi,
  394. sia nella sorveglianza di massa
    che nella governance globale.
  395. Voglio solo far notare che
    se siamo fortunati,
  396. il mondo potrebbe diventare tale che
    questi potrebbero essere i soli modi
  397. per sopravvivere a una palla nera.
  398. CA: La logica di questa teoria,

  399. mi pare di capire,
  400. è quella che dobbiamo riconoscere
    che non possiamo avere tutto.
  401. Che quel genere di sogno naif,
  402. oserei dire, quel sogno ingenuo
    che molti di noi hanno
  403. che la tecnologia sarà sempre
    al servizio del bene,
  404. che bisogna andare avanti, non fermarsi,
    più velocemente possibile
  405. senza prestare attenzione
    ad alcune delle conseguenze,
  406. questa semplicemente non è un'opzione.
  407. Possiamo averla.
  408. Se l'abbiamo,
  409. dovremo accettare alcune
    delle altre cose spiacevoli con essa,
  410. e di essere in questa sorta
    di gara con noi stessi
  411. in cui se vogliamo questo potere,
    conviene limitarlo,
  412. conviene trovare un modo per limitarlo.
  413. NB: Penso che questa sia un'opzione,

  414. un'opzione davvero allettante,
    in un certo senso l'opzione più facile
  415. e potrebbe funzionare,
  416. ma vorrebbe dire
    essere totalmente vulnerabili
  417. all'estrazione di una palla nera.
  418. Penso che con un po' di coordinazione,
  419. se si risolvesse questo problema
    a livello di macrogovernance,
  420. e a livello di microgovernance,
  421. allora potremmo estrarre
    tutte le palle dall'urna
  422. e ne avremmo notevoli benefici.
  423. CA: Insomma, se viviamo
    in una simulazione, ha importanza?

  424. Basta solo riavviare.
  425. (Risate)

  426. NB: In tal caso... Io...

  427. (Risate)

  428. Questa non me l'aspettavo.
  429. CA: Quindi qual è la tua visione?

  430. Mettendo insieme tutti i pezzi,
    quanto è probabile che siamo condannati?
  431. (Risate)

  432. Mi piace come ride la gente
    quando faccio questa domanda.

  433. NB: Come individui,

  434. sembra che siamo condannati in ogni caso,
    in base alla linea del tempo,
  435. ci decomponiamo e invecchiamo
    e tutto quel genere di cose.
  436. (Risate)

  437. In effetti è un po' complicato.

  438. Se si vuole stabilire un ordine
    per poter attribuire una probabilità,
  439. primo, chi siamo?
  440. Se sei molto vecchio,
    probabilmente morirai di cause naturali,
  441. se sei molto giovane,
    potresti avere 100 anni...
  442. la probabilità dipenderebbe
    da a chi lo chiedi.
  443. Poi il confine, cioè: cosa conta
    come distruzione della civiltà?
  444. Nell'articolo non occorre che si tratti
    di una catastrofe esistenziale
  445. per contare.
  446. È solo una questione di definizione,
  447. io dico un miliardo di morti,
  448. o la riduzione del PIL del 50%,
  449. ma a seconda di quale soglia
    si stabilisce,
  450. si ottiene una stima diversa
    della probabilità.
  451. Direi che potresti considerarmi
    un ottimista spaventato.
  452. (Risate)

  453. CA: Tu sei un ottimista spaventato,

  454. e credo che tu abbia appena creato
    un gran numero di altre...
  455. persone spaventate.
  456. (Risate)

  457. NB: Nella simulazione.

  458. CA: In una simulazione.

  459. Nick Bostrom,
    la tua mente è sbalorditiva.
  460. Davvero grazie per averci
    spaventati a morte.
  461. (Applausi)