< Return to Video

Non abbiate paura delle super intelligenze artificiali

  • 0:01 - 0:05
    Quando ero piccolo, ero la quintessenza
    dell'essere nerd.
  • 0:05 - 0:07
    Penso che anche alcuni di voi lo fossero.
  • 0:08 - 0:09
    (Risate)
  • 0:09 - 0:12
    E lei, che ride più forte
    degli altri, probabilmente lo è ancora.
  • 0:12 - 0:14
    (Risate)
  • 0:14 - 0:18
    Sono cresciuto in una piccola città
    nelle piane polverose del nord Texas,
  • 0:18 - 0:21
    figlio di uno sceriffo che era figlio
    di un pastore.
  • 0:21 - 0:23
    Mettersi nei guai non era contemplato.
  • 0:24 - 0:27
    Quindi ho iniziato a leggere libri
    di calcolo per divertimento.
  • 0:27 - 0:29
    (Risate)
  • 0:29 - 0:31
    Lo avete fatto anche voi.
  • 0:31 - 0:34
    Ciò mi ha portato a costruire un laser,
    un computer e modellini di razzi,
  • 0:34 - 0:37
    e poi a creare del propellente per razzi
    nella mia stanza.
  • 0:38 - 0:42
    Ora, in termini scientifici,
  • 0:42 - 0:45
    questa si chiama "una pessima idea".
  • 0:45 - 0:46
    (Risate)
  • 0:46 - 0:48
    All'incirca in quel periodo,
  • 0:48 - 0:52
    "2001: Odissea nello spazio" di Kubrick,
    usciva nei cinema
  • 0:52 - 0:54
    e lì la mia vita cambiò per sempre.
  • 0:54 - 0:56
    Ho amato tutto di quel film,
  • 0:56 - 0:59
    specialmente HAL 9000.
  • 0:59 - 1:01
    HAL era un computer senziente
  • 1:01 - 1:03
    progettato per guidare
    l'astronave Discovery
  • 1:03 - 1:06
    dalla Terra a Giove.
  • 1:06 - 1:08
    HAL era anche un personaggio fallace,
  • 1:08 - 1:12
    perché alla fine preferì
    la missione alla vita umana.
  • 1:13 - 1:15
    HAL era un personaggio fittizio
  • 1:15 - 1:18
    ma nonostante ciò riusciva
    a parlare alle nostre paure,
  • 1:18 - 1:20
    quelle di essere soggiogati
  • 1:20 - 1:23
    da qualche intelligenza artificiale,
    priva di sentimenti
  • 1:23 - 1:25
    che è indifferente alla nostra umanità.
  • 1:26 - 1:28
    Credo che tali paure siano infondate.
  • 1:28 - 1:31
    Infatti, viviamo in un'epoca significativa
  • 1:31 - 1:33
    della storia dell'umanità,
  • 1:33 - 1:38
    in cui, guidati dal rifiuto di accettare
    i limiti del corpo e della mente
  • 1:38 - 1:39
    costruiamo macchine
  • 1:39 - 1:43
    di ricercata, bellissima complessità
    e grazia
  • 1:43 - 1:45
    che espanderà l'esperienza umana
  • 1:45 - 1:47
    in modi che non possiamo
    immaginare.
  • 1:48 - 1:50
    Dopo una carriera che va
    dall'Air Force Academy
  • 1:50 - 1:52
    allo Space Command a oggi,
  • 1:52 - 1:54
    sono un ingegnere sistemista,
  • 1:54 - 1:57
    e da poco sono stato coinvolto
    in un problema d'ingegneria
  • 1:57 - 1:59
    associato alla spedizione NASA su Marte.
  • 1:59 - 2:02
    Nelle spedizioni verso la Luna,
  • 2:02 - 2:05
    possiamo affidarci
    al centro di controllo di Houston
  • 2:05 - 2:07
    perché sorvegli la spedizione.
  • 2:07 - 2:11
    In ogni caso, Marte è 200 volte
    più lontano,
  • 2:11 - 2:14
    e perciò ci vogliono in media
    13 minuti
  • 2:14 - 2:17
    perché un segnale arrivi
    dalla Terra a Marte.
  • 2:17 - 2:20
    Se si verifica un problema,
    non c'è abbastanza tempo.
  • 2:21 - 2:23
    E quindi una soluzione ingegneristica
    ragionevole
  • 2:23 - 2:26
    ci chiama a mettere dispositivi
    di controllo
  • 2:26 - 2:29
    dentro la navicella Orion.
  • 2:29 - 2:32
    Un'altra affascinante idea per le missioni
  • 2:32 - 2:35
    è piazzare robot umanoidi
    sulla superficie di Marte
  • 2:35 - 2:37
    prima che vi arrivino gli esseri umani,
  • 2:37 - 2:38
    affinché facilitino il lavoro
  • 2:38 - 2:42
    e collaborino
    con la squadra scientifica.
  • 2:43 - 2:46
    Ora, lavorando
    da una prospettiva ingegneristica,
  • 2:46 - 2:49
    fu molto chiaro per me che ciò
    che dovevo architettare
  • 2:49 - 2:51
    era un'intelligenza artificiale
  • 2:51 - 2:54
    brillante, collaborativa,
    socialmente ragionevole.
  • 2:54 - 2:58
    In altre parole, dovevo creare
    qualcosa molto simile ad HAL
  • 2:58 - 3:01
    ma senza le sue tendenze omicide.
  • 3:01 - 3:02
    (Risate)
  • 3:03 - 3:05
    Fermiamoci per un momento.
  • 3:05 - 3:09
    È davvero possibile costruire
    un'intelligenza artificiale come quella?
  • 3:09 - 3:10
    In effetti sì.
  • 3:10 - 3:11
    Sotto molti aspetti,
  • 3:11 - 3:13
    è un complesso problema ingegneristico
  • 3:13 - 3:15
    con elementi di IA,
  • 3:15 - 3:20
    non un inestricabile problema di IA
    che ha bisogno dell'ingegneria.
  • 3:20 - 3:22
    Parafrasando Alan Turing,
  • 3:22 - 3:25
    non voglio costruire
    una macchina senziente.
  • 3:25 - 3:26
    Non sto costruendo un HAL.
  • 3:26 - 3:29
    Ciò che cerco è un semplice cervello,
  • 3:29 - 3:32
    qualcosa che offra l'illusione
    dell'intelligenza.
  • 3:33 - 3:36
    L'arte e la scienza dell'elaborazione dati
    ha fatto molta strada
  • 3:36 - 3:38
    da quando è apparso HAL,
  • 3:38 - 3:41
    e immagino che se il suo inventore,
    il Dott. Chandra, fosse qui oggi
  • 3:41 - 3:43
    avrebbe un sacco di domande per noi.
  • 3:43 - 3:45
    È davvero possibile per noi
  • 3:45 - 3:49
    prendere un sistema di milioni
    e milioni di dispositivi,
  • 3:49 - 3:51
    leggere le loro sequenze dati,
  • 3:51 - 3:53
    prevedere i loro fallimenti
    e azioni in anticipo?
  • 3:53 - 3:54
    Sì.
  • 3:54 - 3:58
    Possiamo costruire sistemi che conversino
    con noi in linguaggio naturale?
  • 3:58 - 3:59
    Sì.
  • 3:59 - 4:02
    Sistemi che riconoscano oggetti,
    identifichino emozioni,
  • 4:02 - 4:05
    si emozionino a loro volta,
    giochino e leggano persino il labiale?
  • 4:05 - 4:06
    Sì.
  • 4:07 - 4:09
    Un sistema che ponga degli obiettivi,
  • 4:09 - 4:12
    che pianifichi in base ad essi
    e che impari strada facendo?
  • 4:12 - 4:14
    Sì.
  • 4:14 - 4:17
    Costruire sistemi che abbiano
    una teoria della mente?
  • 4:17 - 4:18
    Stiamo imparando a farlo.
  • 4:18 - 4:22
    Possiamo costruire sistemi che abbiano
    un'etica e una morale?
  • 4:22 - 4:25
    Dobbiamo imparare a farlo.
  • 4:25 - 4:27
    Accettiamo per un momento
  • 4:27 - 4:30
    che si possa costruire una simile
    intelligenza artificiale
  • 4:30 - 4:32
    per questo tipo di missioni o per altre.
  • 4:32 - 4:34
    La domanda successiva che dovete porvi è:
  • 4:34 - 4:36
    dovremmo averne paura?
  • 4:36 - 4:38
    Qualsiasi nuova tecnologia
  • 4:38 - 4:41
    porta con sé un po' di apprensione.
  • 4:41 - 4:42
    Quando arrivarono le prime auto,
  • 4:43 - 4:47
    la gente temeva di assistere
    alla distruzione della famiglia.
  • 4:47 - 4:49
    Quando arrivarono i telefoni,
  • 4:49 - 4:52
    si preoccupò per la fine
    della conversazione civile.
  • 4:52 - 4:56
    E, quando assistette alla
    diffusione della scrittura,
  • 4:56 - 4:59
    la gente pensò di perdere
    la capacità di memorizzare.
  • 4:59 - 5:01
    Tutto questo è vero
    fino a un certo punto,
  • 5:01 - 5:03
    ma si dà anche il caso
    che queste tecnologie
  • 5:03 - 5:07
    ci abbiano portato cose
    che hanno allargato l'esperienza umana
  • 5:07 - 5:08
    profondamente.
  • 5:10 - 5:12
    Approfondiamo la questione.
  • 5:13 - 5:18
    Non ho paura della creazione di un'IA
    come questa,
  • 5:18 - 5:22
    perché alla fine incarnerà alcuni
    dei nostri valori.
  • 5:22 - 5:25
    Considerate questo: costruire
    un sistema cognitivo è molto diverso
  • 5:25 - 5:29
    dal costruire un sistema software intensivo
    tradizionale del passato.
  • 5:29 - 5:31
    Non li programmiamo ma insegniamo loro.
  • 5:31 - 5:34
    Per insegnare a un sistema
    a riconoscere i fiori,
  • 5:34 - 5:37
    gli mostro migliaia di fiori, dei tipi
    che piacciono a me.
  • 5:37 - 5:39
    Per insegnare a un sistema
    a giocare a un gioco --
  • 5:39 - 5:41
    beh lo farei, farei anche questo.
  • 5:43 - 5:45
    Mi piacciono i fiori. Andiamo.
  • 5:45 - 5:48
    Per insegnare a un sistema a giocare
    a un gioco come Go,
  • 5:48 - 5:50
    devo fargli fare migliaia di partite a Go,
  • 5:50 - 5:52
    e nel frattempo gli insegno anche
  • 5:52 - 5:54
    a distinguere un buon gioco
    da un gioco cattivo.
  • 5:55 - 5:58
    Se voglio creare un assistente legale
    artificialmente intelligente,
  • 5:58 - 6:00
    gli insegnerò il corpus legislativo
  • 6:00 - 6:03
    ma allo stesso tempo gli infonderò
  • 6:03 - 6:06
    il senso di pietà e giustizia
    che è parte di quella legge.
  • 6:07 - 6:10
    In termini scientifici definiamo tutto
    questo "ground truth",
  • 6:10 - 6:12
    e questo è il punto fondamentale:
  • 6:12 - 6:13
    nel produrre queste macchine,
  • 6:13 - 6:16
    insegniamo anche loro
    il senso dei nostri valori.
  • 6:17 - 6:20
    Con questo fine, mi fido
    di un'intelligenza artificiale
  • 6:20 - 6:23
    come, se non di più, mi fido
    di un essere umano ben istruito.
  • 6:24 - 6:25
    Ma, potreste chiedere,
  • 6:25 - 6:28
    che ne è degli agenti corrotti,
  • 6:28 - 6:31
    di qualche organizzazione non governativa
    ben finanziata?
  • 6:31 - 6:35
    Non ho paura di un'intelligenza
    artificiale in mano a un lupo solitario.
  • 6:35 - 6:40
    È ovvio, non possiamo proteggerci
    da tutti gli arbitrari atti di violenza,
  • 6:40 - 6:42
    ma la realtà è che un simile sistema
  • 6:42 - 6:45
    richiede un allenamento tanto acuto
  • 6:45 - 6:47
    da andare ben oltre le risorse
    di un individuo.
  • 6:47 - 6:49
    E inoltre,
  • 6:49 - 6:52
    è molto più che iniettare un virus
    via internet al mondo,
  • 6:52 - 6:55
    dove premi un bottone e subito
    lo ritrovi in milioni di posti
  • 6:55 - 6:57
    e i computer iniziano ovunque
    ad andare in tilt.
  • 6:57 - 7:00
    Questo tipo di elementi
    è molto più complesso
  • 7:00 - 7:02
    e certamente lo sperimenteremo.
  • 7:03 - 7:06
    Ho paura che una simile
    intelligenza artificiale
  • 7:06 - 7:08
    possa minacciare tutta l'umanità?
  • 7:08 - 7:13
    Se guardate film come
    "Matrix", "Metropolis",
  • 7:13 - 7:16
    "Terminator", show come
    "Westworld",
  • 7:16 - 7:18
    tutti parlano di questo tipo di paura.
  • 7:18 - 7:22
    Infatti, nel libro "Superintelligence"
    del filosofo Nick Bostrom,
  • 7:22 - 7:24
    l'autore considera questo tema
  • 7:24 - 7:28
    e osserva che una super intelligenza
    potrebbe non solo essere pericolosa,
  • 7:28 - 7:32
    ma rappresentare anche una minaccia
    esistenziale per tutta l'umanità.
  • 7:32 - 7:34
    La principale argomentazione del
    Dott. Bostrom
  • 7:34 - 7:37
    è che tali sistemi potrebbero prima o poi
  • 7:37 - 7:40
    avere una sete tale di informazioni
  • 7:40 - 7:43
    che potrebbero forse imparare
    come si impara
  • 7:43 - 7:46
    e anche scoprire che potrebbero
    avere obiettivi
  • 7:46 - 7:48
    contrari ai bisogni umani.
  • 7:48 - 7:50
    Bostrom ha un gran numero
    di seguaci.
  • 7:50 - 7:54
    È supportato da persone come
    Elon Musk e Stephen Hawking.
  • 7:55 - 7:57
    Con tutto il rispetto dovuto
  • 7:58 - 8:00
    a queste menti brillanti,
  • 8:00 - 8:02
    credo che siano gravemente in errore.
  • 8:02 - 8:06
    Ci sarebbero molte parti della teoria
    di Bostrom da analizzare,
  • 8:06 - 8:08
    e non ho il tempo di analizzarle tutte,
  • 8:08 - 8:11
    ma molto brevemente, considerate questo:
  • 8:11 - 8:14
    una grande conoscenza è diversa
    da una grande capacità di azione.
  • 8:14 - 8:16
    HAL era una minaccia per l'equipaggio
  • 8:16 - 8:21
    solo finché controllava tutti gli aspetti
    del Discovery.
  • 8:21 - 8:23
    Quindi avrebbe dovuto avere
    una super intelligenza.
  • 8:23 - 8:26
    Avrebbe dovuto dominare tutto
    il mondo.
  • 8:26 - 8:29
    Questa è la squadra Skynet dal
    film "Terminator"
  • 8:29 - 8:30
    in cui abbiamo una super intelligenza
  • 8:30 - 8:32
    che domina la volontà umana
  • 8:32 - 8:36
    e ogni congegno in ogni parte del mondo.
  • 8:36 - 8:37
    In pratica,
  • 8:37 - 8:39
    questo non succederà.
  • 8:39 - 8:42
    Non stiamo costruendo IA
    che controllino il meteo,
  • 8:42 - 8:44
    le maree,
  • 8:44 - 8:47
    che comandino su noi capricciosi
    e caotici umani.
  • 8:47 - 8:51
    Inoltre, se una simile intelligenza
    artificiale esistesse,
  • 8:51 - 8:54
    dovrebbe competere con le economie
    degli esseri umani,
  • 8:54 - 8:57
    e quindi competere con noi
    per le risorse disponibili.
  • 8:57 - 8:58
    E infine --
  • 8:58 - 9:00
    non ditelo a Siri --
  • 9:00 - 9:02
    possiamo sempre disattivarli.
  • 9:02 - 9:04
    (Risate)
  • 9:05 - 9:08
    Siamo parte di un incredibile viaggio
  • 9:08 - 9:10
    di co-evoluzione con altre macchine.
  • 9:10 - 9:13
    Gli esseri umani che siamo oggi
  • 9:13 - 9:15
    non sono quelli che saremo in futuro.
  • 9:15 - 9:19
    Preoccuparsi ora della minaccia
    di una super-intelligenza
  • 9:19 - 9:22
    è per molti aspetti
    una distrazione pericolosa
  • 9:22 - 9:24
    perché l'incremento della
    computerizzazione
  • 9:24 - 9:27
    ci presenta una quantità di questioni
    umane e sociali
  • 9:27 - 9:29
    di cui adesso dobbiamo occuparci.
  • 9:29 - 9:32
    Come posso organizzare al meglio
    la società
  • 9:32 - 9:35
    quando diminuirà la necessità
    del lavoro umano?
  • 9:35 - 9:38
    Come posso fornire al mondo
    conoscenza ed educazione
  • 9:38 - 9:40
    rispettando le nostre differenze?
  • 9:40 - 9:44
    Come posso estendere e migliorare la vita
    umana attraverso la salute cognitiva?
  • 9:44 - 9:47
    Come posso usare la computerizzazione
  • 9:47 - 9:49
    per raggiungere le stelle?
  • 9:50 - 9:52
    Ed è questa la cosa eccitante.
  • 9:52 - 9:55
    Le opportunità di elaborare dati
  • 9:55 - 9:56
    per affinare l'esperienza umana
  • 9:56 - 9:58
    sono alla nostra portata,
  • 9:58 - 10:00
    qui e adesso,
  • 10:00 - 10:01
    e siamo solo all'inizio.
  • 10:02 - 10:03
    Grazie mille.
  • 10:04 - 10:08
    (Applausi)
Title:
Non abbiate paura delle super intelligenze artificiali
Speaker:
Grady Booch
Description:

Nuove tecnologie generano nuove ansie, dice lo scienziato e filosofo Grady Booch, ma non c'è bisogno di spaventarsi per un'onnipotente e apatica intelligenza artificiale. Booch allevia le nostre peggiori paure (indotte dalla fantascienza) verso i computer super intelligenti, spiegando il modo in cui insegneremo loro a condividere i nostri valori. Piuttosto che preoccuparci per un'inesistente minaccia all'umanità, è urgente che consideriamo il modo in cui l'intelligenza artificiale potenzierà l'esperienza umana.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20
Anna Cristiana Minoli approved Italian subtitles for Don't fear superintelligent AI
Anna Cristiana Minoli edited Italian subtitles for Don't fear superintelligent AI
Maria Carmina Distratto accepted Italian subtitles for Don't fear superintelligent AI
Maria Carmina Distratto edited Italian subtitles for Don't fear superintelligent AI
Marco Pernigoni edited Italian subtitles for Don't fear superintelligent AI
Serena Iacobucci edited Italian subtitles for Don't fear superintelligent AI
Serena Iacobucci edited Italian subtitles for Don't fear superintelligent AI
Rosalia Mazza edited Italian subtitles for Don't fear superintelligent AI
Show all

Italian subtitles

Revisions