Return to Video

Come non essere sopraffatti, ma responsabilizzati dall'IA

  • 0:01 - 0:05
    Dopo 13,8 miliardi di anni
    di storia cosmica,
  • 0:05 - 0:07
    il nostro universo si è risvegliato
  • 0:07 - 0:09
    e ha preso coscienza di se stesso.
  • 0:09 - 0:11
    Da un piccolo pianeta blu,
  • 0:11 - 0:14
    minuscole parti coscienti
    del nostro universo
  • 0:14 - 0:16
    hanno iniziato a osservare il cosmo
  • 0:16 - 0:17
    con telescopi,
  • 0:17 - 0:18
    scoprendo umiltà.
  • 0:19 - 0:22
    Abbiamo scoperto che il nostro universo
    è molto più grande
  • 0:22 - 0:25
    di quanto abbiano immaginato
    i nostri antenati
  • 0:25 - 0:28
    e che la vita sembra essere
    una perturbazione quasi impercettibile
  • 0:28 - 0:30
    in un universo altrimenti morto.
  • 0:30 - 0:33
    Ma abbiamo anche scoperto
    qualcosa di stimolante,
  • 0:33 - 0:36
    ossia che la tecnologia
    che stiamo sviluppando
  • 0:36 - 0:39
    può potenzialmente aiutare la vita
    a fiorire come mai prima d'ora,
  • 0:39 - 0:42
    non solo per secoli,
    ma per miliardi di anni,
  • 0:42 - 0:46
    e non solo sulla terra
    ma in gran parte dell'universo.
  • 0:48 - 0:51
    Vedo la vita precedente
    come una "Vita 1.0"
  • 0:51 - 0:52
    perché era davvero stupida,
  • 0:52 - 0:57
    come i batteri, incapaci
    di imparare alcunché.
  • 0:57 - 1:00
    Vedo gli esseri umani come una "Vita 2.0"
    perché possiamo imparare,
  • 1:00 - 1:02
    che in linguaggio nerd o geek,
  • 1:02 - 1:05
    significa installare
    nuovi software nel cervello,
  • 1:05 - 1:07
    come le lingue
    e le capacità lavorative.
  • 1:08 - 1:12
    La "Vita 3.0", che può progettare
    l'hardware oltre che il software
  • 1:12 - 1:14
    ovviamente non esiste ancora.
  • 1:14 - 1:17
    Ma forse la nostra tecnologia
    ci ha già resi "Vita 2.1",
  • 1:17 - 1:22
    con le ginocchia artificiali,
    i pacemaker e gli apparecchi acustici.
  • 1:22 - 1:26
    Diamo uno sguardo più da vicino
    alla nostra relazione con la tecnologia.
  • 1:27 - 1:28
    Ad esempio,
  • 1:28 - 1:33
    la missione lunare Apollo 11
    è riuscita ed è stata stimolante,
  • 1:33 - 1:37
    mostrando che quando gli esseri umani
    usano la tecnologia con saggezza,
  • 1:37 - 1:40
    possiamo compiere cose
    che i nostri antenati si sognavano.
  • 1:40 - 1:43
    Ma c'è un percorso ancora più stimolante
  • 1:43 - 1:46
    spinto da qualcosa di ancora più forte
    dei motori dei razzi,
  • 1:47 - 1:50
    in cui i passeggeri
    non sono solo tre astronauti
  • 1:50 - 1:51
    ma tutta l'umanità.
  • 1:51 - 1:54
    Parliamo del nostro viaggio collettivo
    nel futuro
  • 1:54 - 1:56
    con l'intelligenza artificiale.
  • 1:57 - 2:01
    Il mio amico Jaan Tallinn
    ama sottolineare che proprio come i razzi,
  • 2:02 - 2:05
    non basta rendere potente la tecnologia.
  • 2:06 - 2:09
    Dobbiamo anche capire
    se saremo davvero ambiziosi,
  • 2:09 - 2:10
    dove indirizzarla
  • 2:10 - 2:12
    e dove vogliamo andarci.
  • 2:13 - 2:16
    Parliamo di tutti e tre
    per l'intelligenza artificiale:
  • 2:16 - 2:19
    la potenza, la direzione
    e la destinazione.
  • 2:20 - 2:21
    Iniziamo con la potenza.
  • 2:22 - 2:25
    Definisco l'intelligenza
    in modo molto inclusivo --
  • 2:25 - 2:29
    semplicemente la nostra capacità
    di realizzare obiettivi complessi,
  • 2:29 - 2:32
    perché voglio includere
    sia l'intelligenza biologica
  • 2:32 - 2:33
    che quella artificiale.
  • 2:33 - 2:37
    E voglio evitare
    quella stupida idea carbonio-sciovinistica
  • 2:37 - 2:40
    che si può essere intelligenti
    solo se fatti di carne.
  • 2:41 - 2:45
    È incredibile
    quanto sia migliorata l'IA ultimamente.
  • 2:45 - 2:46
    Pensateci un po'.
  • 2:46 - 2:50
    Non molto tempo fa,
    i robot non potevano camminare.
  • 2:51 - 2:53
    Ora possono fare capriole.
  • 2:54 - 2:56
    Poco tempo fa,
  • 2:56 - 2:58
    non avevamo le auto
    a guida autonoma.
  • 2:59 - 3:01
    Ora abbiamo razzi a volo autonomo.
  • 3:04 - 3:05
    Poco tempo fa,
  • 3:05 - 3:08
    l'IA non era capace
    di riconoscimento facciale.
  • 3:08 - 3:11
    Ora l'IA può generare falsi visi
  • 3:11 - 3:15
    e similare la vostra faccia
    che dice cose che non avete mai detto.
  • 3:16 - 3:18
    Poco tempo fa,
  • 3:18 - 3:20
    l'IA non poteva batterci a Go.
  • 3:20 - 3:25
    Poi, l'IA AlphaZero di Google DeepMind
    ha preso 3000 anni di giochi di Go
  • 3:26 - 3:27
    e saggezza Go,
  • 3:27 - 3:30
    li ha ignorati tutti ed è diventato
    il miglior giocatore al mondo
  • 3:30 - 3:32
    giocando contro se stesso.
  • 3:32 - 3:35
    E l'aspetto più impressionante
    non è che ha stracciato gli umani,
  • 3:36 - 3:38
    ma che ha stracciato i ricercatori di IA
  • 3:38 - 3:42
    che avevano passato decenni
    a creare il software di gioco.
  • 3:42 - 3:47
    E AlphaZero ha stracciato i ricercatori
    di IA non solo a Go, ma anche a scacchi,
  • 3:47 - 3:49
    su cui lavoriamo dal 1950.
  • 3:50 - 3:54
    Questi straordinari progressi recenti
    in IA sollevano la questione:
  • 3:55 - 3:57
    fin dove ci spingeremo?
  • 3:58 - 3:59
    Mi piace pensare a questa domanda
  • 4:00 - 4:02
    in termini di astratto panorama di compiti
  • 4:03 - 4:06
    in cui l'elevazione rappresenta
    la difficoltà di ogni compito per l'IA
  • 4:06 - 4:07
    a livello umano,
  • 4:07 - 4:10
    e il livello del mare rappresenta
    quello che l'IA può fare oggi.
  • 4:11 - 4:14
    Il livello del mare si innalza
    quando l'IA migliora,
  • 4:14 - 4:17
    c'è una specie di riscaldamento globale
    nel panorama dei compiti.
  • 4:18 - 4:21
    Il risultato ovvio è evitare
    carriere lungo la costa --
  • 4:21 - 4:23
    (Risate)
  • 4:23 - 4:26
    che saranno presto
    scombussolate e automatizzate.
  • 4:26 - 4:29
    Ma la questione è molto più ampia.
  • 4:29 - 4:30
    Quanto si innalzerà l'acqua?
  • 4:31 - 4:35
    Si innalzerà per inondare tutto,
  • 4:36 - 4:38
    arriverà a livello
    di tutti i compiti umani.
  • 4:38 - 4:42
    Questa è la definizione
    di intelligenza artificiale generale --
  • 4:42 - 4:43
    AGI,
  • 4:43 - 4:47
    che è stato il santo graal
    dell'IA fin dalla sua nascita.
  • 4:47 - 4:49
    Con questa definizione, la gente che dice,
  • 4:49 - 4:51
    "Ci saranno sempre lavori
    che gli esseri umani
  • 4:51 - 4:53
    possono fare meglio delle macchine,
  • 4:53 - 4:56
    sta semplicemente dicendo
    che non arriveremo mai all'AGI.
  • 4:56 - 4:59
    Certo, potremo anche scegliere
    di avere lavori umani
  • 4:59 - 5:02
    o di dare agli esseri umani reddito
    e scopo con i nostri lavori,
  • 5:02 - 5:06
    ma l'AGI trasformerà comunque
    la vita come la conosciamo
  • 5:06 - 5:09
    e gli esseri umani
    non saranno più i più intelligenti.
  • 5:09 - 5:13
    Se il livello dell'acqua raggiunge l'AGI,
  • 5:13 - 5:16
    gli ulteriori progressi dell'IA
    non saranno più guidati
  • 5:16 - 5:18
    dagli esseri umani, ma dalla IA,
  • 5:18 - 5:20
    che significa che c'è la possibilità
  • 5:20 - 5:23
    che un'ulteriore progresso dell'IA
    sia ancora più veloce
  • 5:23 - 5:26
    della tipica scala temporale
    di ricerca e sviluppo umani di anni,
  • 5:26 - 5:30
    sollevando la possibile controversia
    di un'esplosione di intelligenza
  • 5:30 - 5:32
    in cui una IA che auto-migliora
    in modo ricorrente
  • 5:32 - 5:35
    lascia rapidamente molto indietro
    l'intelligenza umana,
  • 5:35 - 5:38
    creando quello che chiamiamo
    una superintelligenza.
  • 5:40 - 5:42
    Controllo della realtà:
  • 5:43 - 5:46
    avremo a breve l'AGI?
  • 5:46 - 5:49
    Alcuni famosi ricercatori di IA,
    come Rodney Brooks,
  • 5:49 - 5:52
    pensano che non succederà
    per centinaia di anni.
  • 5:52 - 5:55
    Ma altri, come il fondatore
    di Google DeepMind Demis Hassabis,
  • 5:56 - 5:57
    sono più ottimisti
  • 5:57 - 5:59
    e stanno lavorando
    per farlo accadere molto prima.
  • 5:59 - 6:03
    Ricerche recenti hanno dimostrato
    che molti ricercatori di IA
  • 6:03 - 6:06
    condividono l'ottimismo di Demis,
  • 6:06 - 6:09
    e si aspettano di vedere l'AGI
    in qualche decennio,
  • 6:10 - 6:12
    quindi durante le vita di molti di noi,
  • 6:12 - 6:14
    il che solleva la domanda: e poi?
  • 6:15 - 6:17
    Quale vogliamo che sia
    il ruolo degli esseri umani
  • 6:17 - 6:20
    se le macchina possono fare tutto
    meglio e a minor costo?
  • 6:23 - 6:25
    La vedo così: abbiamo di fronte
    una scelta.
  • 6:26 - 6:28
    Un'opzione è esserne soddisfatti.
  • 6:28 - 6:30
    Possiamo dire, "Dai, costruiamo macchine
  • 6:30 - 6:32
    che possano fare tutto
    quel che facciamo noi
  • 6:32 - 6:34
    e non ci preoccupiamo delle conseguenze.
  • 6:34 - 6:37
    Dai, se costruiamo tecnologie
    che rendono gli umani obsoleti,
  • 6:37 - 6:39
    cosa potrebbe andare storto?"
  • 6:39 - 6:40
    (Risate)
  • 6:40 - 6:43
    Ma credo che sarebbe
    davvero poco convincente.
  • 6:44 - 6:48
    Credo che dovremmo essere
    più ambiziosi, nello spirito di TED.
  • 6:48 - 6:51
    Immaginiamo un futuro high-tech
    davvero stimolante
  • 6:51 - 6:53
    e cerchiamo di andare
    in quella direzione.
  • 6:54 - 6:57
    Questo ci porta alla seconda parte
    della metafora del razzo: la direzione.
  • 6:57 - 6:59
    Facciamo l'IA più potente,
  • 6:59 - 7:03
    ma come possiamo indirizzarci
    verso un futuro
  • 7:03 - 7:06
    in cui l'IA aiuti l'umanità
    a progredire invece di annaspare?
  • 7:07 - 7:08
    Per aiutare,
  • 7:08 - 7:10
    ho cofondato il Future of Life Institute.
  • 7:10 - 7:13
    È una piccola no profit che promuove
    l'uso benefico della tecnologia,
  • 7:13 - 7:16
    e il nostro obiettivo è
    il futuro della vita
  • 7:16 - 7:18
    e essere più stimolanti possibile.
  • 7:18 - 7:21
    Sapete che adoro la tecnologia.
  • 7:21 - 7:25
    La tecnologia è il motivo per cui oggi
    stiamo meglio che nell'età della pietra.
  • 7:25 - 7:29
    E sono ottimista, possiamo creare
    un futuro high-tech davvero stimolante...
  • 7:30 - 7:31
    se, ed è un grande se,
  • 7:31 - 7:34
    se vinciamo la gara della saggezza,
  • 7:34 - 7:36
    la gara tra il potere crescente
    della tecnologia
  • 7:37 - 7:39
    e la saggezza crescente
    con cui la gestiamo.
  • 7:39 - 7:42
    Ma sarà necessario un cambio di strategia
  • 7:42 - 7:45
    perché la nostra vecchia strategia
    prevedeva di imparare dagli errori.
  • 7:45 - 7:47
    Abbiamo inventato il fuoco,
  • 7:47 - 7:48
    abbiamo fatto qualche casino --
  • 7:48 - 7:50
    abbiamo inventato l'estintore.
  • 7:50 - 7:52
    (Risate)
  • 7:52 - 7:54
    Abbiamo inventato la macchina,
    fatto qualche casino --
  • 7:54 - 7:57
    abbiamo inventato i semafori,
    le cinture e gli airbag,
  • 7:57 - 8:01
    ma con una tecnologia più potente
    come le armi nucleari e l'AGI,
  • 8:01 - 8:04
    imparare dagli errori
    è una strategia che fa schifo,
  • 8:04 - 8:05
    siete d'accordo?
  • 8:05 - 8:06
    (Risate)
  • 8:06 - 8:09
    È molto meglio essere proattivi
    invece che reattivi;
  • 8:09 - 8:12
    pianificare in anticipo
    e fare le cose bene la prima volta
  • 8:12 - 8:14
    perché potrebbe essere
    la nostra unica occasione.
  • 8:14 - 8:16
    Ma è divertente perché talvolta
    la gente mi dice,
  • 8:16 - 8:19
    "Max, shhh, non dire così.
  • 8:19 - 8:21
    È allarmismo luddista."
  • 8:22 - 8:24
    Ma non è allarmismo.
  • 8:24 - 8:26
    È quello che noi all'MIT chiamiamo
    ingegneria di sicurezza.
  • 8:27 - 8:28
    Pensateci:
  • 8:28 - 8:31
    prima del lancio della missione Apollo 11,
  • 8:31 - 8:34
    la NASA ha pensato sistematicamente
    a tutto quello che poteva andare storto
  • 8:34 - 8:37
    a mettere persone
    su serbatoi carburante esplosivi
  • 8:37 - 8:39
    e lanciarle dove nessuno
    avrebbe potuto aiutarle.
  • 8:39 - 8:41
    E molte cose potevano andare storte.
  • 8:41 - 8:42
    Era allarmismo?
  • 8:43 - 8:44
    No.
  • 8:44 - 8:46
    Era esattamente l'ingegneria di sicurezza
  • 8:46 - 8:48
    che assicurava il successo della missione,
  • 8:48 - 8:53
    ed è esattamente la strategia
    che credo dovremmo adottare per l'AGI.
  • 8:53 - 8:57
    Pensare a quello che potrebbe
    andare storto per fare le cose giuste.
  • 8:57 - 8:59
    Con questo spirito,
    abbiamo organizzato conferenze,
  • 8:59 - 9:02
    riunito grandi ricercatori di IA
    e altri esperti
  • 9:02 - 9:04
    per discutere di come coltivare
    la saggezza utile
  • 9:04 - 9:06
    perché l'IA sia vantaggiosa.
  • 9:06 - 9:09
    La nostra ultima conferenza è stata
    a Asilomar, California, l'anno scorso
  • 9:09 - 9:12
    e ha prodotto una lista di 23 principi
  • 9:12 - 9:16
    che da allora sono stati sottoscritti
    da più di 1000 ricercatori di IA
  • 9:16 - 9:17
    e importanti leader industriali.
  • 9:17 - 9:20
    Voglio raccontarvi tre di questi principi.
  • 9:20 - 9:22
    Uno è che dovremmo evitare
  • 9:22 - 9:25
    una corsa agli armamenti
    e armi autonome letali.
  • 9:25 - 9:29
    L'idea è che qualunque scienza
    può essere usata per aiutare la gente
  • 9:29 - 9:31
    o per armare la gente.
  • 9:31 - 9:35
    Per esempio, è più probabile
    che la biologia e la chimica vengano usate
  • 9:35 - 9:39
    per nuovi medicinali o nuove cure
    che per uccidere le persone,
  • 9:40 - 9:42
    perché biologi e chimici
    fanno pressione,
  • 9:42 - 9:43
    in modo efficace,
  • 9:43 - 9:45
    per proibire armi chimiche e biologiche.
  • 9:45 - 9:46
    Con lo stesso spirito,
  • 9:46 - 9:51
    molti ricercatori vogliono stigmatizzare
    e proibire le armi letali autonome.
  • 9:52 - 9:53
    Un altro principio Asilomar dell'IA
  • 9:53 - 9:55
    è che dovremmo mitigare
  • 9:55 - 9:57
    le disparità di reddito
    alimentate dall'IA.
  • 9:57 - 10:02
    Credo che se possiamo far crescere
    significativamente l'economia con l'IA
  • 10:02 - 10:04
    senza capire come dividerci questa torta
  • 10:04 - 10:06
    in modo che tutti stiano meglio,
  • 10:06 - 10:07
    è una vergogna.
  • 10:07 - 10:11
    (Applausi)
  • 10:11 - 10:15
    Bene, ora alzate la mano
    se vi si è mai impallato il computer.
  • 10:15 - 10:17
    (Risate)
  • 10:17 - 10:18
    Wow, sono tante mani.
  • 10:18 - 10:21
    Allora vi piacerà questo principio
  • 10:21 - 10:24
    per cui dovremmo investire
    molto di più nella sicurezza dell'IA,
  • 10:24 - 10:28
    perché se cediamo il controllo all'IA
    in sempre più decisioni e infrastrutture,
  • 10:28 - 10:31
    dobbiamo capire come trasformare
    i bug e i computer attaccabili di oggi
  • 10:31 - 10:34
    in sistemi di IA solidi
    in cui avere fiducia,
  • 10:34 - 10:35
    perché altrimenti,
  • 10:35 - 10:38
    questa meravigliosa nuova tecnologia,
    può funzionare male e danneggiarci,
  • 10:38 - 10:40
    o essere attaccata
    e rivoltarsi contro di noi.
  • 10:40 - 10:42
    Questo lavoro di sicurezza sull'IA
  • 10:42 - 10:45
    deve includere un allineamento dei valori,
  • 10:45 - 10:48
    perché la vera minaccia dell'AGI
    non è la malizia,
  • 10:48 - 10:50
    come negli stupidi film hollywoodiani,
  • 10:50 - 10:52
    ma la competenza --
  • 10:52 - 10:55
    l'AGI realizza obiettivi
    che non sono allineati ai nostri.
  • 10:55 - 10:57
    Per esempio, quando noi umani
  • 10:57 - 11:00
    abbiamo portato
    il rinoceronte all'estinzione,
  • 11:00 - 11:04
    non l'abbiamo fatto perché eravamo
    nemici dei rinoceronti, no?
  • 11:04 - 11:06
    L'abbiamo fatto perché
    eravamo più intelligenti di loro
  • 11:06 - 11:09
    e i nostri obiettivi
    non erano allineati con i loro.
  • 11:09 - 11:11
    Ma l'AGI per definizione
    è più intelligente di noi,
  • 11:11 - 11:15
    quindi per essere sicuri di non metterci
    nella posizione di quei rinoceronti
  • 11:15 - 11:17
    se creiamo l'AGI,
  • 11:17 - 11:21
    dobbiamo capire come fare macchine
    che capiscano i nostri obiettivi,
  • 11:21 - 11:24
    li adottino e li memorizzino.
  • 11:25 - 11:28
    E comunque
    di chi dovrebbero essere questi obiettivi?
  • 11:28 - 11:30
    Quali obiettivi dovrebbero essere?
  • 11:30 - 11:31
    Questo ci porta
  • 11:31 - 11:35
    alla terza parte della nostra metafora
    del razzo: la destinazione.
  • 11:35 - 11:37
    Facciamo IA più potente,
  • 11:37 - 11:39
    per capire come indirizzarla,
  • 11:39 - 11:41
    ma dove vogliamo andarci?
  • 11:42 - 11:45
    È l'elefante nella stanza
    di cui quasi nessuno parla,
  • 11:45 - 11:47
    nemmeno qui a TED,
  • 11:47 - 11:51
    perché siamo così fissati
    sulle sfide a breve termine dell'IA.
  • 11:52 - 11:57
    La nostra specie
    sta cercando di costruire l'AGI,
  • 11:57 - 12:00
    motivata da curiosità
    e interessi economici,
  • 12:00 - 12:04
    ma in che tipo di società futura
    speriamo se abbiamo successo?
  • 12:05 - 12:07
    Di recente, abbiamo fatto un sondaggio,
  • 12:07 - 12:08
    sono stato colpito del fatto
  • 12:08 - 12:11
    che in realtà molti vogliono
    che si costruisca una superintelligenza:
  • 12:11 - 12:14
    IA che sia molto più intelligente
    di noi in tutti i sensi.
  • 12:15 - 12:19
    Il più grande accordo
    è stato sull'ambizione
  • 12:19 - 12:21
    e sull'aiutare la vita
    a diffondersi nel cosmo,
  • 12:21 - 12:25
    ma c'è stato molto meno accordo
    su chi o cosa fosse responsabile.
  • 12:25 - 12:27
    E mi sono quasi divertito
  • 12:27 - 12:30
    a vedere che qualcuno
    vorrebbe solo le macchine.
  • 12:30 - 12:32
    (Risate)
  • 12:32 - 12:36
    C'era totale disaccordo su quale
    debba essere il ruolo degli esseri umani,
  • 12:36 - 12:38
    anche a livello più basilare,
  • 12:38 - 12:41
    allora guardiamo più da vicino
    i futuri possibili
  • 12:41 - 12:44
    verso i quali potremmo andare.
  • 12:44 - 12:45
    Non fraintendetemi.
  • 12:45 - 12:47
    Non sto parlando di viaggio nello spazio,
  • 12:47 - 12:50
    semplicemente di un metaforico viaggio
    dell'umanità nel futuro.
  • 12:51 - 12:54
    Un'opzione che piace ai miei colleghi IA
  • 12:54 - 12:58
    è costruire una superintelligenza
    e tenerla sotto controllo umano,
  • 12:58 - 13:00
    come un Dio schiavizzato,
  • 13:00 - 13:01
    sconnesso da Internet
  • 13:01 - 13:05
    e usato per creare tecnologia
    e ricchezza inimmaginabili
  • 13:05 - 13:06
    per chiunque la controlli.
  • 13:07 - 13:08
    Ma Lord Acton ci ha avvisati
  • 13:08 - 13:09
    che il potere corrompe,
  • 13:09 - 13:12
    e il potere assoluto
    corrompe assolutamente,
  • 13:12 - 13:16
    penserete che forse gli esseri umani
    non sono abbastanza intelligenti,
  • 13:16 - 13:18
    o piuttosto abbastanza saggi,
  • 13:18 - 13:19
    per gestire un tale potere.
  • 13:20 - 13:23
    Inoltre, fatta eccezione
    per gli scrupoli morali che potreste avere
  • 13:23 - 13:25
    sulla sottomissione di menti superiori,
  • 13:25 - 13:28
    potreste preoccuparvi
    di un'intelligenza più furba di noi,
  • 13:29 - 13:31
    che scappa e prende il controllo.
  • 13:32 - 13:35
    Ma ho anche colleghi a cui sta bene
    una IA che prende il controllo
  • 13:35 - 13:37
    che causa addirittura
    l'estinzione dell'uomo,
  • 13:37 - 13:41
    purché sentiamo che l'IA
    è un nostro degno discendente,
  • 13:41 - 13:43
    come i nostri figli.
  • 13:43 - 13:48
    Ma come sapremo che l'IA
    ha adottato i nostri migliori valori
  • 13:48 - 13:53
    e non è solo fatta di zombie inconsapevoli
    che ci ingannano a antropomorfizzarli?
  • 13:53 - 13:56
    E quelli che non vogliono
    l'estinzione della razza umana
  • 13:56 - 13:58
    non dovrebbero dire
    qualcosa anche loro?
  • 13:58 - 14:02
    Se non vi piace nessuna
    di queste opzioni high-tech,
  • 14:02 - 14:05
    è importante ricordare
    che low-tech equivale a suicidio
  • 14:05 - 14:06
    da un punto di vista cosmico,
  • 14:06 - 14:09
    perché se non andiamo molto oltre
    la tecnologia di oggi,
  • 14:09 - 14:11
    la questione non è
    se l'umanità si estinguerà,
  • 14:11 - 14:13
    ma se verremo spazzati via
  • 14:13 - 14:16
    dal prossimo asteroide killer,
    supervulcano
  • 14:16 - 14:17
    o qualche altro problema
  • 14:17 - 14:19
    che una migliore tecnologia
    avrebbe potuto risolvere.
  • 14:19 - 14:22
    Allora perché
    non mangiarci la nostra torta...
  • 14:22 - 14:24
    con AGI non sottomessa
  • 14:25 - 14:28
    ma ci tratta bene perché i suoi valori
    sono allineati ai nostri?
  • 14:28 - 14:32
    Questo è il concetto di quello
    che Eliezer Yudowsky chiama "IA amica,"
  • 14:33 - 14:35
    e se potessimo farlo,
    sarebbe meraviglioso.
  • 14:36 - 14:37
    Potrebbe non solo eliminare
  • 14:37 - 14:41
    le esperienze negative
    come malattie, povertà,
  • 14:41 - 14:42
    crimini e altre sofferenze,
  • 14:42 - 14:45
    ma potrebbe darci anche
    la libertà di scelta
  • 14:45 - 14:49
    tra un fantastica nuova varietà
    di esperienze positive --
  • 14:49 - 14:52
    in sostanza rendendoci padroni
    del nostro destino.
  • 14:54 - 14:56
    Per riassumere,
  • 14:56 - 14:59
    la nostra situazione
    con la tecnologia è complicata,
  • 14:59 - 15:01
    ma il quadro generale
    è piuttosto semplice.
  • 15:01 - 15:05
    Molti ricercatori di IA si aspettano l'AGI
    entro qualche decennio,
  • 15:05 - 15:08
    e se ci arriviamo impreparati,
  • 15:08 - 15:11
    sarà probabilmente
    il più grande errore della storia --
  • 15:11 - 15:13
    accettiamolo.
  • 15:13 - 15:15
    Potrebbe permettere
    una dittatura globale brutale
  • 15:15 - 15:19
    con ineguaglianze, sorveglianza
    e sofferenza senza precedenti,
  • 15:19 - 15:21
    e forse addirittura
    l'estinzione del genere umano.
  • 15:21 - 15:23
    Ma se la indirizziamo attentamente,
  • 15:24 - 15:28
    potremmo finire in un futuro fantastico
    in cui tutti stanno meglio:
  • 15:28 - 15:30
    i poveri sono più ricchi,
    i ricchi sono più ricchi,
  • 15:30 - 15:34
    tutti sono più in salute
    e liberi di vivere i loro sogni.
  • 15:35 - 15:37
    Ora, tenetevi forte.
  • 15:37 - 15:41
    Volete un futuro politicamente
    di destra o di sinistra?
  • 15:41 - 15:44
    Volete la devota società
    con regole morali rigide,
  • 15:44 - 15:46
    o ne volete una edonistica
    gratis per tutti,
  • 15:46 - 15:48
    un po' come Burning Man H24?
  • 15:48 - 15:51
    Volete belle spiagge, foreste e laghi,
  • 15:51 - 15:54
    o preferite risistemare
    un po' di atomi con il computer,
  • 15:54 - 15:56
    che apra a esperienze
    di realtà virtuale?
  • 15:56 - 15:59
    Con una IA amichevole, potremmo costruire
    tutte queste società
  • 15:59 - 16:02
    e dare alla gente la libertà
    di scegliere in quale vivere
  • 16:02 - 16:05
    perché non saremmo più limitati
    dalla nostra intelligenza,
  • 16:05 - 16:07
    solamente dalla leggi della fisica.
  • 16:07 - 16:11
    Quindi le risorse e lo spazio
    diventerebbero astronomiche --
  • 16:11 - 16:13
    letteralmente.
  • 16:13 - 16:15
    Ecco la scelta.
  • 16:16 - 16:18
    Possiamo essere soddisfatti
    del nostro futuro,
  • 16:19 - 16:22
    prendere come dato con fede cieca
  • 16:22 - 16:26
    che qualunque nuova tecnologia
    è garantita vantaggiosa,
  • 16:26 - 16:30
    e ripetercelo come un mantra
    in continuazione
  • 16:30 - 16:34
    e andare alla deriva come una nave
    senza timone verso l'obsolescenza.
  • 16:35 - 16:37
    O possiamo essere ambiziosi --
  • 16:38 - 16:40
    pensare bene
    a come indirizzare la tecnologia
  • 16:40 - 16:42
    e dove vogliamo andarci
  • 16:42 - 16:44
    per creare l'era della meraviglia.
  • 16:45 - 16:48
    Siamo qui tutti per festeggiare
    l'era della meraviglia,
  • 16:48 - 16:52
    e sento che la sua essenza
    non dovrebbe stare nella sopraffazione
  • 16:53 - 16:56
    ma nella responsabilizzazione
    da parte della nostra tecnologia.
  • 16:56 - 16:57
    Grazie.
  • 16:57 - 17:00
    (Applausi)
Title:
Come non essere sopraffatti, ma responsabilizzati dall'IA
Speaker:
Max Tegmark
Description:

Molti ricercatori di intelligenza artificiale si aspettano che l'IA sia più furba degli essere umani in qualunque lavoro e compito nel giro di decenni, portando a un futuro in cui siamo vincolati solo dalle leggi della fisica, non i limiti della nostra intelligenza. Il fisico dell'MIT a ricercatore IA Max Tegmark separa le vere opportunità e minacce dai miti, descrivendo i passi concreti da fare oggi per garantire che l'IA finisca per essere la migliore cosa, invece della peggiore, che possa capitare all'umanità.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:15

Italian subtitles

Revisions