Return to Video

La civiltà potrebbe autodistruggersi e 4 modi con cui potremmo evitarlo

  • 0:01 - 0:03
    Chris Anderson: Nick Bostrom.
  • 0:03 - 0:07
    Allora, ci hai già regalato
    tante idee pazzesche su questo tema.
  • 0:07 - 0:08
    Una ventina di anni fa,
  • 0:08 - 0:12
    hai ipotizzato fosse possibile
    che stessimo vivendo in una simulazione,
  • 0:12 - 0:13
    o magari che fosse probabile.
  • 0:13 - 0:15
    Recentemente,
  • 0:15 - 0:19
    ci hai illustrato vividi esempi di come
    con l'intelligenza artificiale
  • 0:19 - 0:21
    potrebbe finire davvero male.
  • 0:22 - 0:23
    E quest’anno,
  • 0:23 - 0:25
    stai per pubblicare un articolo
  • 0:25 - 0:29
    che introduce qualcosa che tu definisci
    l'ipotesi del mondo vulnerabile.
  • 0:29 - 0:34
    Questa sera cercheremo di fornire
    una guida descrittiva a questa ipotesi.
  • 0:34 - 0:36
    Quindi cominciamo.
  • 0:37 - 0:39
    Qual è l'ipotesi?
  • 0:40 - 0:42
    Nick Bostrom: Si cerca di considerare
  • 0:42 - 0:46
    una sorta di caratteristica strutturale
    dell'attuale condizione umana.
  • 0:48 - 0:49
    A te piace la metafora dell'urna,
  • 0:49 - 0:51
    quindi la userò per spiegarla.
  • 0:51 - 0:56
    Immagina una grossa urna piena di sfere
  • 0:56 - 1:00
    che rappresentano le idee,
    i metodi, le possibili tecnologie.
  • 1:01 - 1:04
    Possiamo immaginare la storia
    della creatività umana
  • 1:04 - 1:08
    come l’atto di pescare in quest'urna
    e tirare fuori le sfere una dopo l'altra,
  • 1:08 - 1:12
    e l'effetto fino ad ora
    è stato largamente positivo, giusto?
  • 1:12 - 1:14
    Abbiamo estratto
    un gran numero di sfere bianche,
  • 1:14 - 1:18
    qualcuna con diverse sfumature di grigio,
    con un misto di vantaggi e svantaggi.
  • 1:18 - 1:21
    Finora non abbiamo estratto
    la sfera nera,
  • 1:22 - 1:28
    una tecnologia che immancabilmente
    distruggerebbe la civiltà che la scopre.
  • 1:28 - 1:31
    Nell'articolo cerco di pensare
    a quale può essere questa sfera nera.
  • 1:31 - 1:33
    CA: Quindi tu definisci questa sfera
  • 1:33 - 1:37
    quella che determinerebbe inevitabilmente
    la distruzione della civiltà.
  • 1:37 - 1:42
    NB: Se non abbandoniamo quella che chiamo
    la condizione semianarchica prestabilita.
  • 1:42 - 1:43
    Ma praticamente in automatico.
  • 1:44 - 1:48
    CA: Quindi, sostieni la tua ipotesi
  • 1:48 - 1:50
    mostrando una serie di controesempi
  • 1:50 - 1:53
    in cui ritieni che finora
    siamo stati davvero fortunati,
  • 1:53 - 1:56
    che avremmo potuto pescare
    la sfera della morte.
  • 1:56 - 1:57
    senza neanche saperlo.
  • 1:57 - 1:58
    Quindi perché questa citazione?
  • 2:02 - 2:03
    NB: Immagino sia per mostrare
  • 2:03 - 2:05
    la difficoltà di prevedere
  • 2:05 - 2:08
    a cosa condurranno
    le scoperte fondamentali.
  • 2:08 - 2:11
    Semplicemente non ne siamo capaci.
  • 2:11 - 2:15
    Perché siamo diventati piuttosto bravi
    a estrarre le sfere,
  • 2:15 - 2:18
    ma non siamo proprio in grado
    di rimetterle nell'urna.
  • 2:18 - 2:21
    Possiamo inventare, non disinventare.
  • 2:22 - 2:24
    Quindi la nostra strategia,
    se così la si può chiamare,
  • 2:24 - 2:27
    è sperare che nell'urna
    non ci sia nessuna sfera nera.
  • 2:27 - 2:31
    CA: Quindi una volta fuori, è fuori,
    e non la si può rimettere dentro,
  • 2:31 - 2:32
    e tu pensi che siamo stati fortunati.
  • 2:32 - 2:35
    Allora spieghiamo bene
    un paio di questi esempi.
  • 2:35 - 2:38
    Parli di diversi tipi di vulnerabilità.
  • 2:38 - 2:40
    NB: Il tipo più semplice da comprendere
  • 2:40 - 2:43
    deriva da una tecnologia
    che renda davvero molto facile
  • 2:43 - 2:46
    provocare grandi distruzioni.
  • 2:47 - 2:51
    La biologia sintetica potrebbe essere
    un'ottima base per quel tipo di sfera nera
  • 2:51 - 2:54
    ma potrebbero esserlo
    anche molte altre cose:
  • 2:54 - 2:56
    pensate alla geoingegneria,
    fantastica, vero?
  • 2:56 - 2:58
    Potremmo combattere
    il riscaldamento globale,
  • 2:58 - 3:01
    ma non vorremmo diventasse
    troppo semplice,
  • 3:01 - 3:03
    non vorremmo che chiunque,
    o la nonna di chiunque
  • 3:03 - 3:06
    avesse la capacità di alterare
    radicalmente il clima della Terra.
  • 3:06 - 3:10
    O magari dei droni autonomi letali,
  • 3:10 - 3:13
    prodotti in massa, sciami di robot killer
    piccoli come zanzare.
  • 3:14 - 3:17
    La nanotecnologia,
    l'intelligenza artificiale generale.
  • 3:17 - 3:19
    CA: Nel tuo articolo sostieni
  • 3:19 - 3:22
    che è stata solo questione di fortuna
    avere scoperto
  • 3:22 - 3:25
    che con l'energia nucleare
    si poteva creare una bomba,
  • 3:25 - 3:26
    sarebbe potuto succedere invece
  • 3:26 - 3:28
    di poter creare una bomba
  • 3:28 - 3:32
    con risorse più semplici,
    accessibili a chiunque.
  • 3:32 - 3:35
    NB: Già, quindi ripensiamo agli anni '30
  • 3:35 - 3:40
    quando per la prima volta abbiamo fatto
    passi da gigante nella fisica nucleare,
  • 3:40 - 3:44
    qualche genio ha capito che era possibile
    creare una reazione nucleare a catena
  • 3:44 - 3:47
    e poi ha realizzato che questo
    avrebbe potuto portare alla bomba.
  • 3:47 - 3:49
    E lavorandoci su,
  • 3:49 - 3:52
    venne fuori che quello che serve
    per fare una bomba nucleare
  • 3:52 - 3:54
    è l'uranio arricchito o il plutonio,
  • 3:54 - 3:56
    materiali molto difficili da ottenere.
  • 3:56 - 3:58
    Servono ultracentrifughe,
  • 3:58 - 4:02
    reattori, enormi quantità di energia.
  • 4:02 - 4:04
    Ma supponiamo invece
    che fosse saltato fuori
  • 4:04 - 4:08
    che esisteva un modo semplice
    per liberare l'energia dell'atomo.
  • 4:08 - 4:11
    Che magari arrostendo
    della sabbia nel microonde
  • 4:11 - 4:12
    o qualcosa del genere
  • 4:12 - 4:14
    si fosse potuto creare
    una detonazione nucleare.
  • 4:14 - 4:16
    Oggi sappiamo dalla fisica
    che è impossibile.
  • 4:16 - 4:18
    Ma prima di fare le ricerche
  • 4:18 - 4:20
    come avremmo potuto sapere
    come sarebbe andata a finire?
  • 4:20 - 4:22
    CA: Però non si può discutere il fatto
  • 4:22 - 4:24
    che l'evoluzione della vita sulla Terra
  • 4:24 - 4:27
    ha avuto bisogno di una sorta
    di ambiente stabile,
  • 4:27 - 4:31
    e che se fosse stato possibile
    creare facilmente tali reazioni nucleari,
  • 4:31 - 4:33
    la Terra non sarebbe mai stata stabile,
  • 4:33 - 4:35
    ei noi non saremmo qui adesso.
  • 4:35 - 4:38
    NB: Già, a meno che non ci fosse qualcosa
    di facile da fare volutamente
  • 4:38 - 4:41
    ma non accadrebbe per caso.
  • 4:41 - 4:43
    Tipo cose che possiamo fare facilmente,
  • 4:43 - 4:45
    come impilare 10 blocchi
    uno sopra l'altro,
  • 4:45 - 4:48
    ma in natura, è improbabile
    trovare una pila di 10 blocchi.
  • 4:48 - 4:50
    CA: Ora, questa
    è probabilmente la cosa
  • 4:50 - 4:52
    per cui molti di noi
    si preoccupano di più,
  • 4:52 - 4:55
    e sì, la biologia sintetica
    è forse la via più veloce
  • 4:55 - 4:58
    che possiamo prevedere
    ci condurrà a questo nel prossimo futuro.
  • 4:58 - 5:01
    NB: Sì, e pensa cosa significherebbe
  • 5:01 - 5:05
    se, ad esempio, chiunque lavorando
    per un pomeriggio nella propria cucina
  • 5:05 - 5:07
    potesse distruggere una città.
  • 5:07 - 5:10
    È difficile immaginare
    come la civiltà moderna come la conosciamo
  • 5:10 - 5:12
    potrebbe sopravvivere a questo.
  • 5:12 - 5:14
    Perché in una popolazione
    di un milione di persone,
  • 5:14 - 5:17
    ci sarà sempre qualcuno che,
    per una ragione qualsiasi,
  • 5:17 - 5:19
    sceglierebbe di usare
    quel potere distruttivo.
  • 5:20 - 5:23
    Così, se quel residuo apocalittico
  • 5:23 - 5:25
    decidesse di distruggere una città,
    o fare di peggio,
  • 5:25 - 5:26
    le città verrebbero distrutte.
  • 5:26 - 5:29
    CA: Ma c'è un altro tipo di vulnerabilità.
  • 5:29 - 5:31
    Parlaci di questo.
  • 5:31 - 5:34
    NB: Sì, oltre a questo tipo
    piuttosto ovvio di palle nere
  • 5:34 - 5:37
    che renderebbero possibile
    far saltare in aria un sacco di cose,
  • 5:37 - 5:42
    altri tipi agirebbero
    creando cattivi incentivi
  • 5:42 - 5:44
    per gli uomini
    portandoli a fare cose dannose.
  • 5:44 - 5:48
    Quindi, il Tipo-2a,
    potremmo chiamarlo così,
  • 5:48 - 5:53
    potrebbe derivare da una tecnologia
    che incentivasse le grandi potenze
  • 5:53 - 5:57
    a usare la loro enorme forza
    per creare distruzione.
  • 5:57 - 6:00
    Le armi nucleari si sono avvicinate molto
    a questo, giusto?
  • 6:02 - 6:05
    In quel caso abbiamo speso
    oltre 10 mila miliardi di dollari
  • 6:05 - 6:08
    per costruire 70.000 testate nucleari
  • 6:08 - 6:10
    e metterle nello stato
    di allerta immediata.
  • 6:10 - 6:12
    E in diverse occasioni
    durante la Guerra Fredda
  • 6:12 - 6:14
    abbiamo rischiato
    di saltare tutti in aria.
  • 6:14 - 6:17
    E non perché tanta gente ritenesse
    una grande idea
  • 6:17 - 6:20
    spendere 10 mila miliardi di dollari
    per saltare tutti in aria,
  • 6:20 - 6:22
    ma gli incentivi erano tali
    che ci siamo ritrovati a farlo.
  • 6:22 - 6:24
    Sarebbe potuta andare peggio.
  • 6:24 - 6:27
    Immagina se ci fosse stato
    un primo colpo nucleare sicuro.
  • 6:27 - 6:29
    Dopo sarebbe potuto
    essere molto difficile,
  • 6:29 - 6:30
    in una situazione di crisi,
  • 6:30 - 6:33
    trattenersi dal lanciare
    tutti i propri missili nucleari.
  • 6:33 - 6:36
    Se non altro, per la paura
    che potesse farlo la controparte.
  • 6:36 - 6:38
    CA: La certezza
    di una distruzione reciproca
  • 6:38 - 6:41
    ha mantenuto una certa stabilità
    durante la Guerra Fredda.
  • 6:41 - 6:43
    Senza quella, forse
    ora non saremmo qui.
  • 6:43 - 6:44
    NB: Sarebbe potuta essere meno stabile.
  • 6:44 - 6:47
    E potrebbero esserci
    altre proprietà della tecnologia.
  • 6:47 - 6:50
    Avere trattati sulle armi
    sarebbe potuto essere più difficile,
  • 6:50 - 6:51
    se invece delle armi nucleari
  • 6:51 - 6:54
    ci fossero state cose più piccole,
    o meno distruttive.
  • 6:54 - 6:56
    CA: Oltre ai cattivi incentivi
    per i potenti,
  • 6:56 - 7:00
    ti preoccupano anche i cattivi incentivi
    per tutti noi, qui nel Tipo-2b.
  • 7:00 - 7:05
    NB: Sì, si potrebbe considerare il caso
    del riscaldamento globale.
  • 7:07 - 7:09
    Ci sono un sacco di piccole comodità
  • 7:09 - 7:11
    che ci incentivano a fare cose
  • 7:11 - 7:14
    che singolarmente non hanno
    un effetto significativo, giusto?
  • 7:14 - 7:16
    Ma se fatte da un miliardo di persone,
  • 7:16 - 7:18
    nell'insieme, hanno un effetto dannoso.
  • 7:18 - 7:21
    Il riscaldamento globale sarebbe
    potuto essere molto peggio di così.
  • 7:21 - 7:24
    Abbiamo il parametro della
    "sensibilità climatica".
  • 7:24 - 7:28
    È un parametro che ci dice
    quanto diventa più caldo
  • 7:28 - 7:30
    con l'emissione
    di una certa quantità di gas serra.
  • 7:30 - 7:33
    Ma, mettiamo il caso
  • 7:33 - 7:35
    che con l'emissione
    di una certa quantità di gas serra,
  • 7:35 - 7:37
    invece di un aumento della temperatura
  • 7:37 - 7:41
    tra i 3 e i 4,5 gradi per il 2100,
  • 7:41 - 7:44
    fosse previsto un aumento
    di 15 o 20 gradi.
  • 7:44 - 7:47
    Ci saremmo potuti trovare
    in una situazione davvero brutta.
  • 7:47 - 7:50
    Supponiamo che l'energia rinnovabile
    fosse stata più difficile da ottenere.
  • 7:50 - 7:52
    Che il combustibile fossile
    fosse più disponibile.
  • 7:52 - 7:55
    CA: Non si potrebbe supporre
    che se in quel caso,
  • 7:55 - 7:57
    se quello che stiamo facendo oggi
  • 7:57 - 8:02
    avesse prodotto una differenza di 10 gradi
    nel periodo osservato,
  • 8:02 - 8:06
    invece l'umanità si sarebbe data una mossa
    e avrebbe fatto qualcosa a proposito.
  • 8:06 - 8:08
    Siamo stupidi, ma forse non così stupidi.
  • 8:08 - 8:10
    O forse lo siamo.
  • 8:10 - 8:11
    NB: Non ci scommetterei.
  • 8:11 - 8:13
    (Risate)
  • 8:13 - 8:15
    Si potrebbero immaginare altri scenari.
  • 8:15 - 8:20
    Ora come ora, è difficile la conversione
    alle rinnovabili eccetera,
  • 8:20 - 8:22
    ma si può fare.
  • 8:22 - 8:25
    Ma con una fisica leggermente diversa,
  • 8:25 - 8:27
    sarebbe potuto essere molto più costoso
    fare queste cose.
  • 8:28 - 8:30
    CA: Qual è la tua idea, Nick?
  • 8:30 - 8:32
    Pensi che, mettendo insieme
    tutte queste possibilità,
  • 8:32 - 8:36
    questa Terra, il nostro genere umano,
  • 8:36 - 8:38
    dobbiamo considerarci
    un mondo vulnerabile?
  • 8:38 - 8:41
    Che c'è una palla della morte
    nel nostro futuro?
  • 8:44 - 8:45
    NB: Difficile a dirsi.
  • 8:45 - 8:50
    Voglio dire, penso che chiaramente
    possano esserci più palle nere nell'urna,
  • 8:50 - 8:52
    così sembrerebbe.
  • 8:52 - 8:54
    Potrebbero esserci anche
    alcune palle d'oro
  • 8:54 - 8:58
    in grado di aiutarci a proteggerci
    dalle palle nere.
  • 8:58 - 9:01
    E non so in quale ordine usciranno.
  • 9:01 - 9:04
    CA: Una possibile critica filosofica
    a questa teoria
  • 9:04 - 9:10
    è che essa implica una visione del futuro
    come essenzialmente stabilito,
  • 9:10 - 9:13
    che quella palla esista oppure no.
  • 9:13 - 9:16
    E in qualche modo,
  • 9:16 - 9:18
    questa non è una visione del mondo
    a cui voglio credere.
  • 9:18 - 9:21
    Voglio credere che il futuro
    sia indeterminato,
  • 9:21 - 9:23
    che le nostre decisioni di oggi
    determineranno
  • 9:23 - 9:25
    che tipo di palle estrarremo
    da quell'urna.
  • 9:26 - 9:30
    NB: Se continuiamo a inventare,
  • 9:30 - 9:32
    prima o poi estrarremo tutte le palle.
  • 9:33 - 9:36
    Penso che ci sia una specie di forma
    debole di determinismo tecnologico
  • 9:36 - 9:38
    piuttosto plausibile,
  • 9:38 - 9:40
    considerando che è improbabile
    trovare una società
  • 9:40 - 9:43
    che usi asce di selce e jet.
  • 9:44 - 9:48
    Ma si può quasi pensare a una tecnologia
    come a una serie di possibili usi e scopi.
  • 9:48 - 9:51
    La tecnologia è qualcosa
    che ci rende possibile fare varie cose
  • 9:51 - 9:53
    e ottenere vari risultati nel mondo.
  • 9:53 - 9:56
    Il modo in cui poi la usiamo,
    ovviamente dipende dalla scelta dell'uomo.
  • 9:56 - 9:59
    Ma se pensiamo
    a questi tre tipi di vulnerabilità,
  • 9:59 - 10:02
    formulano ipotesi davvero deboli
    su come potremmo decidere di usarle.
  • 10:02 - 10:06
    Tornando alla vulnerabilità di Tipo-1,
    questo enorme potere distruttivo,
  • 10:06 - 10:07
    è un'ipotesi piuttosto debole
  • 10:07 - 10:10
    pensare che in una popolazione
    di un milione di persone
  • 10:10 - 10:13
    ci sia qualcuno che decida di usarla
    in modo distruttivo.
  • 10:13 - 10:15
    CA: Per me, la questione
    più inquietante
  • 10:15 - 10:20
    è che potremmo effettivamente avere
    una sorta di vista all'interno dell'urna
  • 10:20 - 10:23
    che renda davvero probabile
    che siamo spacciati.
  • 10:23 - 10:28
    Ovvero, se credi nella capacità
    sempre maggiore,
  • 10:28 - 10:30
    sostanzialmente accelerata
    dalla tecnologia,
  • 10:30 - 10:33
    di costruire gli strumenti
    che ci rendono più potenti,
  • 10:33 - 10:35
    allora a un certo punto
    si arriva a uno stadio
  • 10:35 - 10:38
    in cui un singolo individuo
    potrebbe demolirci tutti,
  • 10:38 - 10:41
    e allora si direbbe che siamo spacciati.
  • 10:41 - 10:44
    Non è allarmante?
  • 10:44 - 10:46
    NB: Ah, sì.
  • 10:47 - 10:48
    (Risate)
  • 10:48 - 10:49
    Penso che...
  • 10:51 - 10:53
    sì, abbiamo competenze sempre più potenti,
  • 10:53 - 10:56
    ed è sempre più facile usare
    queste competenze,
  • 10:56 - 11:00
    ma possiamo anche inventare tecnologie
    che potrebbero aiutarci a controllare
  • 11:00 - 11:02
    come le persone usano queste competenze.
  • 11:02 - 11:05
    CA: Parliamo di questo,
    parliamo delle contromisure.
  • 11:05 - 11:08
    Supponiamo che pensando
    a tutte le possibilità
  • 11:08 - 11:09
    oggi esistenti,
  • 11:09 - 11:13
    non solo la biologia sintetica,
    ma cose come la guerra informatica,
  • 11:13 - 11:17
    l'intelligenza artificiale, ecc.,
  • 11:17 - 11:21
    che il nostro futuro ci riservi
    un destino infausto.
  • 11:21 - 11:23
    Quali sono le possibili contromisure?
  • 11:23 - 11:28
    Tu hai anche parlato
    di quattro possibili interventi.
  • 11:28 - 11:31
    NB: Limitare lo sviluppo tecnologico
    non sembra promettente.
  • 11:31 - 11:35
    Se parliamo di una sospensione
    generalizzata del progresso tecnologico,
  • 11:35 - 11:36
    non penso che sia fattibile,
  • 11:36 - 11:38
    né che sia desiderabile
    anche potendolo fare.
  • 11:38 - 11:41
    Penso che potrebbero esserci
    aree molto limitate
  • 11:41 - 11:44
    in cui forse si vorrebbe rallentare
    il progresso tecnologico.
  • 11:44 - 11:47
    Penso che non si voglia accelerare
    il progresso nelle armi biologiche,
  • 11:47 - 11:49
    o nella separazione degli isotopi,
  • 11:49 - 11:52
    che potrebbe rendere più semplice
    creare testate nucleari.
  • 11:53 - 11:56
    CA: Sono sempre stato d'accordo
    con questo.
  • 11:56 - 11:59
    Ma vorrei davvero riconsiderare
    la questione per un minuto.
  • 11:59 - 12:01
    Solo perché, prima di tutto,
  • 12:01 - 12:03
    se si guarda alla storia
    dell'ultimo ventennio,
  • 12:03 - 12:07
    è stato un continuo avanzare
    a tutta velocità,
  • 12:07 - 12:09
    va bene, è stata la nostra unica scelta.
  • 12:09 - 12:13
    Ma guardiamo alla globalizzazione
    e alla sua rapida accelerazione,
  • 12:13 - 12:16
    e se guardiamo alla strategia del
    "move fast and break things"
  • 12:16 - 12:18
    e a cosa ha portato,
  • 12:18 - 12:21
    e poi si considerano le potenzialità
    della biologia sintetica,
  • 12:21 - 12:26
    non so se dovremmo avanzare rapidamente
  • 12:26 - 12:27
    o senza alcun tipo di restrizione
  • 12:27 - 12:31
    verso un mondo in cui si potrà
    stampare il DNA nella propria casa
  • 12:31 - 12:32
    e in ogni laboratorio scolastico.
  • 12:33 - 12:35
    Ci sono delle restrizioni, giusto?
  • 12:35 - 12:38
    NB: Forse, c'è la prima parte,
    quella non realistica.
  • 12:38 - 12:40
    Se pensi che sarebbe auspicabile fermarla,
  • 12:40 - 12:41
    c'è il problema della fattibilità.
  • 12:42 - 12:44
    Cioè, non aiuta molto
    se una nazione in un certo senso...
  • 12:44 - 12:46
    CA: No, non aiuta
    se solo una nazione lo fa,
  • 12:46 - 12:49
    ma abbiamo già siglato degli accordi
    in precedenza.
  • 12:49 - 12:53
    È proprio così che siamo riusciti
    a sopravvivere alla minaccia nucleare,
  • 12:53 - 12:54
    andando là fuori
  • 12:54 - 12:57
    e attraversando il doloroso
    processo della negoziazione.
  • 12:57 - 13:02
    Mi chiedo solo se non sarebbe logico,
    per una questione di priorità globale,
  • 13:02 - 13:03
    non andare là fuori
  • 13:03 - 13:06
    e provare subito a iniziare a negoziare
    regole davvero severe
  • 13:06 - 13:09
    su dove svolgere la ricerca
    sulla biologia di sintesi,
  • 13:09 - 13:12
    che non è un qualcosa
    che si vorrebbe democratizzare, no?
  • 13:12 - 13:14
    NB: Concordo pienamente su questo:
  • 13:14 - 13:18
    sarebbe desiderabile, per esempio,
  • 13:18 - 13:22
    forse avere macchine
    per la sintesi del DNA,
  • 13:22 - 13:25
    non come dispositivi
    disponibili in ogni laboratorio,
  • 13:25 - 13:27
    ma come un servizio.
  • 13:27 - 13:29
    Potrebbero esserci quattro
    o cinque posti al mondo
  • 13:29 - 13:33
    dove inviare il proprio progetto
    digitale e avere indietro il DNA, giusto?
  • 13:33 - 13:35
    E poi, si avrebbe la capacità,
  • 13:35 - 13:37
    se un giorno si dimostrasse
    davvero necessario,
  • 13:37 - 13:39
    di porre una serie finita di restrizioni.
  • 13:39 - 13:43
    Vorresti poter individuare
    quelle situazioni particolari,
  • 13:43 - 13:45
    dove puoi esercitare
    un controllo più stretto.
  • 13:45 - 13:47
    CA: La tua convinzione è che,
    fondamentalmente,
  • 13:47 - 13:50
    non riusciremo semplicemente
    a tirarci indietro.
  • 13:50 - 13:53
    Qualcuno, da qualche parte,
    nella Corea del Nord, ad esempio,
  • 13:53 - 13:56
    qualcuno ci arriverà
    e scoprirà quella tecnologia,
  • 13:56 - 13:57
    se deve essere scoperta.
  • 13:57 - 14:00
    NB: Sembra plausibile
    nella attuali condizioni.
  • 14:00 - 14:02
    E ciò non vale solo
    per la biologia sintetica.
  • 14:02 - 14:04
    Qualsiasi cambiamento
    nuovo e profondo
  • 14:04 - 14:05
    può rivelarsi una palla nera.
  • 14:05 - 14:07
    CA: Consideriamo
    un'altra possibile misura.
  • 14:07 - 14:10
    NB: Anche questa, penso,
    possiede solo un potenziale limitato.
  • 14:10 - 14:14
    Considerando ancora
    la vulnerabilità di Tipo-1,
  • 14:14 - 14:17
    se si potesse ridurre
    il numero di persone incentivate
  • 14:17 - 14:19
    a distruggere il mondo,
  • 14:19 - 14:21
    qualora ne avessero la possibilità
    e le risorse,
  • 14:21 - 14:22
    sarebbe fantastico.
  • 14:22 - 14:25
    CA: In questa quadro
    che ci hai chiesto di realizzare
  • 14:25 - 14:27
    tu immagini questi droni
    volare per il mondo
  • 14:27 - 14:29
    equipaggiati
    per il riconoscimento facciale.
  • 14:29 - 14:32
    Se individuano qualcuno che mostra
    i segni di un comportamento sociopatico,
  • 14:32 - 14:34
    lo ricoprono di amore, lo curano.
  • 14:34 - 14:36
    NB: Penso sia una specie di quadro ibrido.
  • 14:36 - 14:40
    Eliminare vuole dire
    incarcerare o uccidere,
  • 14:40 - 14:43
    ma può anche voler dire indurre
    a una migliore visione del mondo.
  • 14:43 - 14:45
    Ma il punto è quello,
  • 14:45 - 14:47
    supponiamo di essere riusciti in questo,
  • 14:47 - 14:50
    e di aver ridotto della metà
    questo genere di individui.
  • 14:50 - 14:52
    E per riuscire con la persuasione,
  • 14:52 - 14:55
    si deve competere contro
    tutte le altre potenti forze
  • 14:55 - 14:56
    che cercano di persuadere la gente:
  • 14:56 - 14:58
    partiti, religione,
    sistema educativo.
  • 14:58 - 15:00
    Supponiamo di ridurli della metà,
  • 15:00 - 15:02
    il rischio non risulterebbe ridotto
    della metà.
  • 15:02 - 15:04
    Forse di un cinque o un 10 per cento.
  • 15:04 - 15:06
    CA: Non raccomandi di scommettere
    il futuro dell'umanità
  • 15:06 - 15:07
    sulla seconda misura.
  • 15:07 - 15:11
    NB: Penso che vada bene tentare
    di dissuadere e persuadere le persone,
  • 15:11 - 15:14
    ma non dovremmo fare affidamento
    su questo come unica misura di difesa.
  • 15:14 - 15:15
    CA: Che dire della terza?
  • 15:15 - 15:18
    NB: Penso che ci siano due metodi generali
  • 15:18 - 15:22
    che possiamo usare per raggiungere
    la capacità di stabilizzare il mondo
  • 15:22 - 15:25
    contro tutta una gamma
    di possibili vulnerabilità.
  • 15:25 - 15:27
    E probabilmente ci serviranno entrambi.
  • 15:27 - 15:31
    Uno è la capacità estremamente efficace
  • 15:31 - 15:33
    di realizzare una politica preventiva,
  • 15:33 - 15:35
    con cui si possa intercettare.
  • 15:35 - 15:38
    Se qualcuno iniziasse
    a fare cose pericolose,
  • 15:38 - 15:40
    si potrebbe intercettarlo
    in tempo reale, e fermarlo.
  • 15:40 - 15:43
    Questo richiederebbe
    una sorveglianza ubiquitaria,
  • 15:43 - 15:45
    tutti sarebbero controllati
    per tutto il tempo.
  • 15:46 - 15:49
    CA: Essenzialmente una forma
    alla "Minority Report".
  • 15:49 - 15:51
    NB: Potrebbero esserci algoritmi di IA,
  • 15:51 - 15:55
    grandi centri di controllo della libertà
    che ispezionano, ecc., ecc.
  • 15:57 - 16:01
    CA: Tu sai che il concetto di sorveglianza
    di massa non è molto popolare al momento?
  • 16:01 - 16:02
    (Risate)
  • 16:03 - 16:05
    NB: Sì. Quindi
    quel piccolo dispositivo lì,
  • 16:05 - 16:09
    immagina questa specie di collana
    da indossare tutto il tempo
  • 16:09 - 16:11
    con delle telecamere multidirezionali.
  • 16:12 - 16:14
    Ma, per farla accettare più facilmente,
  • 16:14 - 16:17
    chiamala semplicemente "tag della libertà"
    o qualcosa del genere.
  • 16:17 - 16:18
    (Risate)
  • 16:18 - 16:19
    CA: Ok.
  • 16:20 - 16:22
    Voglio dire, l'argomento è questo, amici,
  • 16:22 - 16:25
    questo è il motivo per cui si tratta
    di una conversazione così stupefacente.
  • 16:25 - 16:28
    NB: Effettivamente, c'è tutto un discorso
  • 16:28 - 16:29
    solo su questo tema, ovviamente.
  • 16:29 - 16:32
    Ci sono problemi e rischi enormi
    con questo.
  • 16:32 - 16:33
    Potremmo ritornarci su.
  • 16:33 - 16:34
    L'altra, l'ultima,
  • 16:34 - 16:36
    l'atra possibilità
    di stabilizzazione generale
  • 16:36 - 16:39
    consiste un po' nel tappare
    un altro buco a livello governativo.
  • 16:39 - 16:43
    La sorveglianza sarebbe una sorta
    di lacuna governativa al microlivello,
  • 16:43 - 16:46
    come, impedire che qualcuno
    possa fare qualcosa di illegale.
  • 16:46 - 16:49
    Poi, c'è una corrispondente
    lacuna governativa
  • 16:49 - 16:51
    al macrolivello, a livello globale.
  • 16:51 - 16:54
    Servirebbe la capacità, la sicurezza,
  • 16:54 - 16:57
    di prevenire i peggiori tipi di fallimenti
    nella coordinazione globale,
  • 16:57 - 17:01
    di evitare guerre tra le superpotenze,
  • 17:01 - 17:02
    corse agli armamenti,
  • 17:04 - 17:06
    comuni problemi catastrofici,
  • 17:08 - 17:12
    per affrontare le vulnerabilità
    di Tipo-2a.
  • 17:12 - 17:16
    CA: Governanza globale è un termine
    decisamente fuori moda al momento,
  • 17:16 - 17:19
    ma si potrebbe notare
    che nel corso della storia,
  • 17:19 - 17:20
    la storia dell'umanità
  • 17:20 - 17:25
    ci ha dimostrato che a ogni stadio
    di crescita del potere tecnologico
  • 17:25 - 17:29
    le persone hanno riorganizzato
    e più o meno centralizzato il potere.
  • 17:29 - 17:31
    Ad esempio, ogni volta che
    un branco errante di criminali
  • 17:31 - 17:34
    è riuscito a prendere il controllo
    di una società,
  • 17:34 - 17:36
    la risposta è stata avere
    uno stato-nazione
  • 17:36 - 17:38
    centralizzare le forze armate,
    un corpo di polizia,
  • 17:38 - 17:40
    ovvero: "No, non potete fare così."
  • 17:40 - 17:45
    La logica, forse, di avere una singola
    persona o un singolo gruppo
  • 17:45 - 17:46
    in grado di eliminare l'umanità
  • 17:46 - 17:49
    implica che a un certo punto
    che dovremo prendere questa strada,
  • 17:49 - 17:51
    almeno in qualche forma, no?
  • 17:51 - 17:54
    NB: È sicuramente vero che la scala
    dell'organizzazione politica è aumentata
  • 17:54 - 17:56
    nel corso della storia dell'umanità.
  • 17:56 - 17:59
    Era del tipo gruppo
    di cacciatori e raccoglitori,
  • 17:59 - 18:02
    poi territorio governato da capotribù,
    città-stato, nazione,
  • 18:02 - 18:05
    ora ci sono organizzazioni internazionali
    e via di dicendo.
  • 18:05 - 18:07
    Quindi, voglio solo essere sicuro
  • 18:07 - 18:09
    di avere la possibilità di sottolineare
  • 18:09 - 18:11
    che ci sono ovviamente
    grandi risvolti negativi
  • 18:11 - 18:12
    nonché, rischi enormi,
  • 18:12 - 18:15
    sia nella sorveglianza di massa
    che nella governance globale.
  • 18:15 - 18:17
    Voglio solo far notare che
    se siamo fortunati,
  • 18:17 - 18:21
    il mondo potrebbe diventare tale che
    questi potrebbero essere i soli modi
  • 18:21 - 18:23
    per sopravvivere a una palla nera.
  • 18:23 - 18:25
    CA: La logica di questa teoria,
  • 18:25 - 18:26
    mi pare di capire,
  • 18:26 - 18:30
    è quella che dobbiamo riconoscere
    che non possiamo avere tutto.
  • 18:30 - 18:32
    Che quel genere di sogno naif,
  • 18:34 - 18:36
    oserei dire, quel sogno ingenuo
    che molti di noi hanno
  • 18:36 - 18:39
    che la tecnologia sarà sempre
    al servizio del bene,
  • 18:39 - 18:43
    che bisogna andare avanti, non fermarsi,
    più velocemente possibile
  • 18:43 - 18:45
    senza prestare attenzione
    ad alcune delle conseguenze,
  • 18:45 - 18:47
    questa semplicemente non è un'opzione.
  • 18:47 - 18:49
    Possiamo averla.
  • 18:49 - 18:50
    Se l'abbiamo,
  • 18:50 - 18:54
    dovremo accettare alcune
    delle altre cose spiacevoli con essa,
  • 18:54 - 18:56
    e di essere in questa sorta
    di gara con noi stessi
  • 18:56 - 18:59
    in cui se vogliamo questo potere,
    conviene limitarlo,
  • 18:59 - 19:01
    conviene trovare un modo per limitarlo.
  • 19:01 - 19:04
    NB: Penso che questa sia un'opzione,
  • 19:04 - 19:07
    un'opzione davvero allettante,
    in un certo senso l'opzione più facile
  • 19:07 - 19:09
    e potrebbe funzionare,
  • 19:09 - 19:12
    ma vorrebbe dire
    essere totalmente vulnerabili
  • 19:12 - 19:13
    all'estrazione di una palla nera.
  • 19:13 - 19:15
    Penso che con un po' di coordinazione,
  • 19:15 - 19:18
    se si risolvesse questo problema
    a livello di macrogovernance,
  • 19:18 - 19:20
    e a livello di microgovernance,
  • 19:20 - 19:22
    allora potremmo estrarre
    tutte le palle dall'urna
  • 19:22 - 19:25
    e ne avremmo notevoli benefici.
  • 19:25 - 19:28
    CA: Insomma, se viviamo
    in una simulazione, ha importanza?
  • 19:28 - 19:29
    Basta solo riavviare.
  • 19:29 - 19:31
    (Risate)
  • 19:31 - 19:32
    NB: In tal caso... Io...
  • 19:32 - 19:35
    (Risate)
  • 19:35 - 19:36
    Questa non me l'aspettavo.
  • 19:38 - 19:39
    CA: Quindi qual è la tua visione?
  • 19:39 - 19:44
    Mettendo insieme tutti i pezzi,
    quanto è probabile che siamo condannati?
  • 19:44 - 19:46
    (Risate)
  • 19:47 - 19:49
    Mi piace come ride la gente
    quando faccio questa domanda.
  • 19:49 - 19:51
    NB: Come individui,
  • 19:51 - 19:55
    sembra che siamo condannati in ogni caso,
    in base alla linea del tempo,
  • 19:55 - 19:58
    ci decomponiamo e invecchiamo
    e tutto quel genere di cose.
  • 19:58 - 19:59
    (Risate)
  • 19:59 - 20:00
    In effetti è un po' complicato.
  • 20:00 - 20:04
    Se si vuole stabilire un ordine
    per poter attribuire una probabilità,
  • 20:04 - 20:04
    primo, chi siamo?
  • 20:04 - 20:07
    Se sei molto vecchio,
    probabilmente morirai di cause naturali,
  • 20:07 - 20:10
    se sei molto giovane,
    potresti avere 100 anni...
  • 20:10 - 20:12
    la probabilità dipenderebbe
    da a chi lo chiedi.
  • 20:12 - 20:16
    Poi il confine, cioè: cosa conta
    come distruzione della civiltà?
  • 20:16 - 20:22
    Nell'articolo non occorre che si tratti
    di una catastrofe esistenziale
  • 20:22 - 20:23
    per contare.
  • 20:23 - 20:25
    È solo una questione di definizione,
  • 20:25 - 20:26
    io dico un miliardo di morti,
  • 20:26 - 20:29
    o la riduzione del PIL del 50%,
  • 20:29 - 20:31
    ma a seconda di quale soglia
    si stabilisce,
  • 20:31 - 20:33
    si ottiene una stima diversa
    della probabilità.
  • 20:33 - 20:37
    Direi che potresti considerarmi
    un ottimista spaventato.
  • 20:37 - 20:38
    (Risate)
  • 20:38 - 20:40
    CA: Tu sei un ottimista spaventato,
  • 20:40 - 20:44
    e credo che tu abbia appena creato
    un gran numero di altre...
  • 20:44 - 20:46
    persone spaventate.
  • 20:46 - 20:47
    (Risate)
  • 20:47 - 20:48
    NB: Nella simulazione.
  • 20:48 - 20:49
    CA: In una simulazione.
  • 20:49 - 20:51
    Nick Bostrom,
    la tua mente è sbalorditiva.
  • 20:51 - 20:54
    Davvero grazie per averci
    spaventati a morte.
  • 20:54 - 20:56
    (Applausi)
Title:
La civiltà potrebbe autodistruggersi e 4 modi con cui potremmo evitarlo
Speaker:
Nick Bostrom
Description:

Secondo il filosofo Nick Bostrom, l'umanità è sulla buona strada per la creazione di una "palla nera", una scoperta tecnologica rivoluzionaria che potrebbe distruggerci tutti. In questa conversazione acuta e sorprendentemente scanzonata con il direttore di TED, Chris Anderson, Bostrom delinea le vulnerabilità che potremmo dover affrontare se (o quando) le nostre invenzioni dovessero aumentare vertiginosamente al di là del nostro controllo e analizza in che modo potremmo prevenire la nostra fine.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09

Italian subtitles

Revisions