Non abbiate paura delle super intelligenze artificiali
-
0:01 - 0:05Quando ero piccolo, ero la quintessenza
dell'essere nerd. -
0:05 - 0:07Penso che anche alcuni di voi lo fossero.
-
0:08 - 0:09(Risate)
-
0:09 - 0:12E lei, che ride più forte
degli altri, probabilmente lo è ancora. -
0:12 - 0:14(Risate)
-
0:14 - 0:18Sono cresciuto in una piccola città
nelle piane polverose del nord Texas, -
0:18 - 0:21figlio di uno sceriffo che era figlio
di un pastore. -
0:21 - 0:23Mettersi nei guai non era contemplato.
-
0:24 - 0:27Quindi ho iniziato a leggere libri
di calcolo per divertimento. -
0:27 - 0:29(Risate)
-
0:29 - 0:31Lo avete fatto anche voi.
-
0:31 - 0:34Ciò mi ha portato a costruire un laser,
un computer e modellini di razzi, -
0:34 - 0:37e poi a creare del propellente per razzi
nella mia stanza. -
0:38 - 0:42Ora, in termini scientifici,
-
0:42 - 0:45questa si chiama "una pessima idea".
-
0:45 - 0:46(Risate)
-
0:46 - 0:48All'incirca in quel periodo,
-
0:48 - 0:52"2001: Odissea nello spazio" di Kubrick,
usciva nei cinema -
0:52 - 0:54e lì la mia vita cambiò per sempre.
-
0:54 - 0:56Ho amato tutto di quel film,
-
0:56 - 0:59specialmente HAL 9000.
-
0:59 - 1:01HAL era un computer senziente
-
1:01 - 1:03progettato per guidare
l'astronave Discovery -
1:03 - 1:06dalla Terra a Giove.
-
1:06 - 1:08HAL era anche un personaggio fallace,
-
1:08 - 1:12perché alla fine preferì
la missione alla vita umana. -
1:13 - 1:15HAL era un personaggio fittizio
-
1:15 - 1:18ma nonostante ciò riusciva
a parlare alle nostre paure, -
1:18 - 1:20quelle di essere soggiogati
-
1:20 - 1:23da qualche intelligenza artificiale,
priva di sentimenti -
1:23 - 1:25che è indifferente alla nostra umanità.
-
1:26 - 1:28Credo che tali paure siano infondate.
-
1:28 - 1:31Infatti, viviamo in un'epoca significativa
-
1:31 - 1:33della storia dell'umanità,
-
1:33 - 1:38in cui, guidati dal rifiuto di accettare
i limiti del corpo e della mente -
1:38 - 1:39costruiamo macchine
-
1:39 - 1:43di ricercata, bellissima complessità
e grazia -
1:43 - 1:45che espanderà l'esperienza umana
-
1:45 - 1:47in modi che non possiamo
immaginare. -
1:48 - 1:50Dopo una carriera che va
dall'Air Force Academy -
1:50 - 1:52allo Space Command a oggi,
-
1:52 - 1:54sono un ingegnere sistemista,
-
1:54 - 1:57e da poco sono stato coinvolto
in un problema d'ingegneria -
1:57 - 1:59associato alla spedizione NASA su Marte.
-
1:59 - 2:02Nelle spedizioni verso la Luna,
-
2:02 - 2:05possiamo affidarci
al centro di controllo di Houston -
2:05 - 2:07perché sorvegli la spedizione.
-
2:07 - 2:11In ogni caso, Marte è 200 volte
più lontano, -
2:11 - 2:14e perciò ci vogliono in media
13 minuti -
2:14 - 2:17perché un segnale arrivi
dalla Terra a Marte. -
2:17 - 2:20Se si verifica un problema,
non c'è abbastanza tempo. -
2:21 - 2:23E quindi una soluzione ingegneristica
ragionevole -
2:23 - 2:26ci chiama a mettere dispositivi
di controllo -
2:26 - 2:29dentro la navicella Orion.
-
2:29 - 2:32Un'altra affascinante idea per le missioni
-
2:32 - 2:35è piazzare robot umanoidi
sulla superficie di Marte -
2:35 - 2:37prima che vi arrivino gli esseri umani,
-
2:37 - 2:38affinché facilitino il lavoro
-
2:38 - 2:42e collaborino
con la squadra scientifica. -
2:43 - 2:46Ora, lavorando
da una prospettiva ingegneristica, -
2:46 - 2:49fu molto chiaro per me che ciò
che dovevo architettare -
2:49 - 2:51era un'intelligenza artificiale
-
2:51 - 2:54brillante, collaborativa,
socialmente ragionevole. -
2:54 - 2:58In altre parole, dovevo creare
qualcosa molto simile ad HAL -
2:58 - 3:01ma senza le sue tendenze omicide.
-
3:01 - 3:02(Risate)
-
3:03 - 3:05Fermiamoci per un momento.
-
3:05 - 3:09È davvero possibile costruire
un'intelligenza artificiale come quella? -
3:09 - 3:10In effetti sì.
-
3:10 - 3:11Sotto molti aspetti,
-
3:11 - 3:13è un complesso problema ingegneristico
-
3:13 - 3:15con elementi di IA,
-
3:15 - 3:20non un inestricabile problema di IA
che ha bisogno dell'ingegneria. -
3:20 - 3:22Parafrasando Alan Turing,
-
3:22 - 3:25non voglio costruire
una macchina senziente. -
3:25 - 3:26Non sto costruendo un HAL.
-
3:26 - 3:29Ciò che cerco è un semplice cervello,
-
3:29 - 3:32qualcosa che offra l'illusione
dell'intelligenza. -
3:33 - 3:36L'arte e la scienza dell'elaborazione dati
ha fatto molta strada -
3:36 - 3:38da quando è apparso HAL,
-
3:38 - 3:41e immagino che se il suo inventore,
il Dott. Chandra, fosse qui oggi -
3:41 - 3:43avrebbe un sacco di domande per noi.
-
3:43 - 3:45È davvero possibile per noi
-
3:45 - 3:49prendere un sistema di milioni
e milioni di dispositivi, -
3:49 - 3:51leggere le loro sequenze dati,
-
3:51 - 3:53prevedere i loro fallimenti
e azioni in anticipo? -
3:53 - 3:54Sì.
-
3:54 - 3:58Possiamo costruire sistemi che conversino
con noi in linguaggio naturale? -
3:58 - 3:59Sì.
-
3:59 - 4:02Sistemi che riconoscano oggetti,
identifichino emozioni, -
4:02 - 4:05si emozionino a loro volta,
giochino e leggano persino il labiale? -
4:05 - 4:06Sì.
-
4:07 - 4:09Un sistema che ponga degli obiettivi,
-
4:09 - 4:12che pianifichi in base ad essi
e che impari strada facendo? -
4:12 - 4:14Sì.
-
4:14 - 4:17Costruire sistemi che abbiano
una teoria della mente? -
4:17 - 4:18Stiamo imparando a farlo.
-
4:18 - 4:22Possiamo costruire sistemi che abbiano
un'etica e una morale? -
4:22 - 4:25Dobbiamo imparare a farlo.
-
4:25 - 4:27Accettiamo per un momento
-
4:27 - 4:30che si possa costruire una simile
intelligenza artificiale -
4:30 - 4:32per questo tipo di missioni o per altre.
-
4:32 - 4:34La domanda successiva che dovete porvi è:
-
4:34 - 4:36dovremmo averne paura?
-
4:36 - 4:38Qualsiasi nuova tecnologia
-
4:38 - 4:41porta con sé un po' di apprensione.
-
4:41 - 4:42Quando arrivarono le prime auto,
-
4:43 - 4:47la gente temeva di assistere
alla distruzione della famiglia. -
4:47 - 4:49Quando arrivarono i telefoni,
-
4:49 - 4:52si preoccupò per la fine
della conversazione civile. -
4:52 - 4:56E, quando assistette alla
diffusione della scrittura, -
4:56 - 4:59la gente pensò di perdere
la capacità di memorizzare. -
4:59 - 5:01Tutto questo è vero
fino a un certo punto, -
5:01 - 5:03ma si dà anche il caso
che queste tecnologie -
5:03 - 5:07ci abbiano portato cose
che hanno allargato l'esperienza umana -
5:07 - 5:08profondamente.
-
5:10 - 5:12Approfondiamo la questione.
-
5:13 - 5:18Non ho paura della creazione di un'IA
come questa, -
5:18 - 5:22perché alla fine incarnerà alcuni
dei nostri valori. -
5:22 - 5:25Considerate questo: costruire
un sistema cognitivo è molto diverso -
5:25 - 5:29dal costruire un sistema software intensivo
tradizionale del passato. -
5:29 - 5:31Non li programmiamo ma insegniamo loro.
-
5:31 - 5:34Per insegnare a un sistema
a riconoscere i fiori, -
5:34 - 5:37gli mostro migliaia di fiori, dei tipi
che piacciono a me. -
5:37 - 5:39Per insegnare a un sistema
a giocare a un gioco -- -
5:39 - 5:41beh lo farei, farei anche questo.
-
5:43 - 5:45Mi piacciono i fiori. Andiamo.
-
5:45 - 5:48Per insegnare a un sistema a giocare
a un gioco come Go, -
5:48 - 5:50devo fargli fare migliaia di partite a Go,
-
5:50 - 5:52e nel frattempo gli insegno anche
-
5:52 - 5:54a distinguere un buon gioco
da un gioco cattivo. -
5:55 - 5:58Se voglio creare un assistente legale
artificialmente intelligente, -
5:58 - 6:00gli insegnerò il corpus legislativo
-
6:00 - 6:03ma allo stesso tempo gli infonderò
-
6:03 - 6:06il senso di pietà e giustizia
che è parte di quella legge. -
6:07 - 6:10In termini scientifici definiamo tutto
questo "ground truth", -
6:10 - 6:12e questo è il punto fondamentale:
-
6:12 - 6:13nel produrre queste macchine,
-
6:13 - 6:16insegniamo anche loro
il senso dei nostri valori. -
6:17 - 6:20Con questo fine, mi fido
di un'intelligenza artificiale -
6:20 - 6:23come, se non di più, mi fido
di un essere umano ben istruito. -
6:24 - 6:25Ma, potreste chiedere,
-
6:25 - 6:28che ne è degli agenti corrotti,
-
6:28 - 6:31di qualche organizzazione non governativa
ben finanziata? -
6:31 - 6:35Non ho paura di un'intelligenza
artificiale in mano a un lupo solitario. -
6:35 - 6:40È ovvio, non possiamo proteggerci
da tutti gli arbitrari atti di violenza, -
6:40 - 6:42ma la realtà è che un simile sistema
-
6:42 - 6:45richiede un allenamento tanto acuto
-
6:45 - 6:47da andare ben oltre le risorse
di un individuo. -
6:47 - 6:49E inoltre,
-
6:49 - 6:52è molto più che iniettare un virus
via internet al mondo, -
6:52 - 6:55dove premi un bottone e subito
lo ritrovi in milioni di posti -
6:55 - 6:57e i computer iniziano ovunque
ad andare in tilt. -
6:57 - 7:00Questo tipo di elementi
è molto più complesso -
7:00 - 7:02e certamente lo sperimenteremo.
-
7:03 - 7:06Ho paura che una simile
intelligenza artificiale -
7:06 - 7:08possa minacciare tutta l'umanità?
-
7:08 - 7:13Se guardate film come
"Matrix", "Metropolis", -
7:13 - 7:16"Terminator", show come
"Westworld", -
7:16 - 7:18tutti parlano di questo tipo di paura.
-
7:18 - 7:22Infatti, nel libro "Superintelligence"
del filosofo Nick Bostrom, -
7:22 - 7:24l'autore considera questo tema
-
7:24 - 7:28e osserva che una super intelligenza
potrebbe non solo essere pericolosa, -
7:28 - 7:32ma rappresentare anche una minaccia
esistenziale per tutta l'umanità. -
7:32 - 7:34La principale argomentazione del
Dott. Bostrom -
7:34 - 7:37è che tali sistemi potrebbero prima o poi
-
7:37 - 7:40avere una sete tale di informazioni
-
7:40 - 7:43che potrebbero forse imparare
come si impara -
7:43 - 7:46e anche scoprire che potrebbero
avere obiettivi -
7:46 - 7:48contrari ai bisogni umani.
-
7:48 - 7:50Bostrom ha un gran numero
di seguaci. -
7:50 - 7:54È supportato da persone come
Elon Musk e Stephen Hawking. -
7:55 - 7:57Con tutto il rispetto dovuto
-
7:58 - 8:00a queste menti brillanti,
-
8:00 - 8:02credo che siano gravemente in errore.
-
8:02 - 8:06Ci sarebbero molte parti della teoria
di Bostrom da analizzare, -
8:06 - 8:08e non ho il tempo di analizzarle tutte,
-
8:08 - 8:11ma molto brevemente, considerate questo:
-
8:11 - 8:14una grande conoscenza è diversa
da una grande capacità di azione. -
8:14 - 8:16HAL era una minaccia per l'equipaggio
-
8:16 - 8:21solo finché controllava tutti gli aspetti
del Discovery. -
8:21 - 8:23Quindi avrebbe dovuto avere
una super intelligenza. -
8:23 - 8:26Avrebbe dovuto dominare tutto
il mondo. -
8:26 - 8:29Questa è la squadra Skynet dal
film "Terminator" -
8:29 - 8:30in cui abbiamo una super intelligenza
-
8:30 - 8:32che domina la volontà umana
-
8:32 - 8:36e ogni congegno in ogni parte del mondo.
-
8:36 - 8:37In pratica,
-
8:37 - 8:39questo non succederà.
-
8:39 - 8:42Non stiamo costruendo IA
che controllino il meteo, -
8:42 - 8:44le maree,
-
8:44 - 8:47che comandino su noi capricciosi
e caotici umani. -
8:47 - 8:51Inoltre, se una simile intelligenza
artificiale esistesse, -
8:51 - 8:54dovrebbe competere con le economie
degli esseri umani, -
8:54 - 8:57e quindi competere con noi
per le risorse disponibili. -
8:57 - 8:58E infine --
-
8:58 - 9:00non ditelo a Siri --
-
9:00 - 9:02possiamo sempre disattivarli.
-
9:02 - 9:04(Risate)
-
9:05 - 9:08Siamo parte di un incredibile viaggio
-
9:08 - 9:10di co-evoluzione con altre macchine.
-
9:10 - 9:13Gli esseri umani che siamo oggi
-
9:13 - 9:15non sono quelli che saremo in futuro.
-
9:15 - 9:19Preoccuparsi ora della minaccia
di una super-intelligenza -
9:19 - 9:22è per molti aspetti
una distrazione pericolosa -
9:22 - 9:24perché l'incremento della
computerizzazione -
9:24 - 9:27ci presenta una quantità di questioni
umane e sociali -
9:27 - 9:29di cui adesso dobbiamo occuparci.
-
9:29 - 9:32Come posso organizzare al meglio
la società -
9:32 - 9:35quando diminuirà la necessità
del lavoro umano? -
9:35 - 9:38Come posso fornire al mondo
conoscenza ed educazione -
9:38 - 9:40rispettando le nostre differenze?
-
9:40 - 9:44Come posso estendere e migliorare la vita
umana attraverso la salute cognitiva? -
9:44 - 9:47Come posso usare la computerizzazione
-
9:47 - 9:49per raggiungere le stelle?
-
9:50 - 9:52Ed è questa la cosa eccitante.
-
9:52 - 9:55Le opportunità di elaborare dati
-
9:55 - 9:56per affinare l'esperienza umana
-
9:56 - 9:58sono alla nostra portata,
-
9:58 - 10:00qui e adesso,
-
10:00 - 10:01e siamo solo all'inizio.
-
10:02 - 10:03Grazie mille.
-
10:04 - 10:08(Applausi)
- Title:
- Non abbiate paura delle super intelligenze artificiali
- Speaker:
- Grady Booch
- Description:
-
Nuove tecnologie generano nuove ansie, dice lo scienziato e filosofo Grady Booch, ma non c'è bisogno di spaventarsi per un'onnipotente e apatica intelligenza artificiale. Booch allevia le nostre peggiori paure (indotte dalla fantascienza) verso i computer super intelligenti, spiegando il modo in cui insegneremo loro a condividere i nostri valori. Piuttosto che preoccuparci per un'inesistente minaccia all'umanità, è urgente che consideriamo il modo in cui l'intelligenza artificiale potenzierà l'esperienza umana.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Anna Cristiana Minoli approved Italian subtitles for Don't fear superintelligent AI | ||
Anna Cristiana Minoli edited Italian subtitles for Don't fear superintelligent AI | ||
Maria Carmina Distratto accepted Italian subtitles for Don't fear superintelligent AI | ||
Maria Carmina Distratto edited Italian subtitles for Don't fear superintelligent AI | ||
Marco Pernigoni edited Italian subtitles for Don't fear superintelligent AI | ||
Serena Iacobucci edited Italian subtitles for Don't fear superintelligent AI | ||
Serena Iacobucci edited Italian subtitles for Don't fear superintelligent AI | ||
Rosalia Mazza edited Italian subtitles for Don't fear superintelligent AI |