Come l'IA potrebbe renderci persone migliori
-
0:01 - 0:02Questo è Lee Sedol.
-
0:02 - 0:06Lee Sedol è uno dei più grandi giocatori
di Go al mondo, -
0:06 - 0:09e sta avendo quello che i miei amici
a Silicon Valley dicono -
0:09 - 0:11un momento "accidenti" --
-
0:11 - 0:12(Risate)
-
0:12 - 0:14un momento in cui
ci rendiamo conto -
0:14 - 0:17che l'IA sta progredendo
molto più rapidamente del previsto. -
0:18 - 0:21Gli umani hanno perso a Go.
E nel mondo reale? -
0:21 - 0:23Il mondo reale è molto più grande,
-
0:23 - 0:26molto più complesso del gioco Go.
-
0:26 - 0:27È molto meno evidente,
-
0:27 - 0:30ma è comunque un problema di decisione
-
0:31 - 0:33E se pensiamo ad alcune delle tecnologie
-
0:33 - 0:35che stanno bollendo in pentola...
-
0:36 - 0:40Noriko [Arai] ha detto che le macchine
non sono ancora in grado di leggere, -
0:40 - 0:42o per lo meno di capire bene.
-
0:42 - 0:43Ma succederà,
-
0:43 - 0:45e quando succederà,
-
0:45 - 0:46a breve,
-
0:46 - 0:51le macchine dopo avranno letto tutto ciò
che gli umani hanno scritto. -
0:52 - 0:54E ciò permetterà alle macchine,
-
0:54 - 0:57insieme all'abilità di guardare
molto più lontano degli umani, -
0:57 - 0:59come abbiamo già visto nel Go,
-
0:59 - 1:01se avranno anche accesso
a più informazioni, -
1:01 - 1:05potranno prendere decisioni migliori
nel mondo reale rispetto a noi. -
1:07 - 1:08È una cosa buona?
-
1:10 - 1:12Speriamo.
-
1:15 - 1:18Tutta la nostra civiltà,
tutto ciò a cui diamo valore, -
1:18 - 1:20è basato sulla nostra intelligenza.
-
1:20 - 1:24E se avessimo accesso
a molta più intelligenza, -
1:24 - 1:27allora non c'è davvero un limite
a ciò che la razza umana può fare. -
1:29 - 1:32E credo che ciò possa essere,
come alcuni lo hanno descritto, -
1:32 - 1:34l'evento più grande nella storia umana.
-
1:37 - 1:39Quindi perché le persone dicono cose come
-
1:40 - 1:42"L'IA potrebbe segnare la fine
della razza umana"? -
1:43 - 1:45È una cosa nuova?
-
1:45 - 1:49Sono solo Elon Musk e Bill Gates
e Stephen Hawking? -
1:50 - 1:53In realtà no. Questa idea
circola da un po'. -
1:53 - 1:55C'è una citazione:
-
1:55 - 2:00"Anche se potessimo tenere le macchine
in una posizione subordinata, -
2:00 - 2:03ad esempio, staccando la corrente
in momenti strategici" -- -
2:03 - 2:06e ritornerò più tardi su quell'idea
di "staccare la corrente" -
2:06 - 2:09"dovremmo, come specie,
sentirci fortemente umiliati." -
2:10 - 2:14Chi l'ha detto?
Questo è Alan Turing nel 1951. -
2:14 - 2:17Alan Turing, come sapete,
è il padre dell'informatica -
2:17 - 2:20e per molti versi,
anche il padre dell'IA. -
2:21 - 2:23Se pensiamo a questo problema,
-
2:23 - 2:27il problema di creare qualcosa
di più intelligente della nostra specie, -
2:27 - 2:30potremmo chiamarlo
il "problema del gorilla", -
2:30 - 2:34perché gli antenati dei gorilla
lo hanno fatto milioni di anni fa, -
2:34 - 2:36e adesso possiamo chiedere loro:
-
2:37 - 2:38è stata una buona idea?
-
2:38 - 2:41Qui si stanno incontrando
per discutere se è stata una buona idea, -
2:41 - 2:45e dopo un po',
arrivano alla conclusione: no, -
2:45 - 2:46è stata un'idea terribile.
-
2:46 - 2:48La nostra specie è in difficoltà.
-
2:49 - 2:53In effetti, potete vedere
la tristezza esistenziale nei loro occhi. -
2:53 - 2:54(Risate)
-
2:54 - 2:59La sensazione nauseante che fare qualcosa
di più intelligente della propria specie -
2:59 - 3:02forse non è una buona idea --
-
3:02 - 3:04cosa possiamo fare?
-
3:04 - 3:09Proprio nulla,
se non smettere di produrre IA, -
3:09 - 3:11e per tutti i benefici che ho citato,
-
3:11 - 3:13e siccome sono un ricercatore di IA,
-
3:13 - 3:15non lo permetterò.
-
3:15 - 3:18In realtà voglio riuscire
a produrre ancora IA. -
3:19 - 3:21In realtà ci occorre
definire un po' di più il problema. -
3:21 - 3:23Qual è il vero problema?
-
3:23 - 3:26Perché un'IA migliore è potenzialmente
una catastrofe? -
3:27 - 3:29Ecco un'altra citazione:
-
3:30 - 3:33"Dovremmo esserne sicuri
che l'obiettivo inserito nella macchina -
3:33 - 3:36sia l'obiettivo che desideriamo davvero."
-
3:36 - 3:40È stato detto da Norbert Wiener nel 1960,
-
3:40 - 3:44subito dopo che aveva visto
uno dei primi sistemi di apprendimento -
3:44 - 3:46imparare a giocare a scacchi
meglio del proprio creatore. -
3:49 - 3:51Ma potrebbe anche essere stato detto
-
3:51 - 3:52da Re Mida.
-
3:53 - 3:56Re Mida disse, "Voglio che tutto ciò
che tocco diventi oro," -
3:56 - 3:59e ottenne proprio quello che chiese.
-
3:59 - 4:01Quello era l'obiettivo
che aveva inserito nella macchina, -
4:02 - 4:03per così dire,
-
4:03 - 4:06e poi il suo cibo, le sue bevande
e i suoi parenti diventarono oro -
4:06 - 4:09e morì in miseria e di fame.
-
4:10 - 4:13Lo chiameremo
"problema di Re Mida" -
4:13 - 4:16dichiarare un obiettivo
che non è, in realtà, -
4:16 - 4:19proprio conforme a ciò che vogliamo.
-
4:19 - 4:22In termini moderni, lo chiamiamo
"problema di conformità dei valori." -
4:25 - 4:29Dichiarare l'obiettivo sbagliato
non è l'unica parte del problema. -
4:29 - 4:30C'è un'altra parte.
-
4:30 - 4:32Se inserite un obiettivo in una macchina
-
4:32 - 4:35anche qualcosa di semplice come
"Porta il caffè," -
4:36 - 4:38la macchina dice a se stessa,
-
4:39 - 4:41"Be', come posso non riuscire
a portare il caffè? -
4:41 - 4:43Qualcuno potrebbe spegnermi.
-
4:44 - 4:46Ok, devo sapere come evitarlo.
-
4:46 - 4:48Disattiverò il tasto "off".
-
4:49 - 4:51Farò di tutto per difendermi
dalle interferenze -
4:52 - 4:54con questo obiettivo
che mi è stato dato." -
4:54 - 4:56Quindi questa ricerca risoluta
-
4:57 - 5:00in modo molto difensivo di un obiettivo
che non è, in realtà, -
5:00 - 5:03conforme ai veri obiettivi
della razza umana -- -
5:04 - 5:06questo è il problema che affrontiamo.
-
5:07 - 5:12Infatti, è questo il succo
di questa conferenza. -
5:12 - 5:14Se volete ricordare una cosa,
-
5:14 - 5:17è che voi non potrete
portare il caffè se siete morti. -
5:17 - 5:18(Risate)
-
5:18 - 5:21È molto semplice. Ricordate solo questo.
Ripetetevelo tre volte al giorno. -
5:22 - 5:23(Risate)
-
5:23 - 5:26E in effetti, questa è
esattamente la trama -
5:26 - 5:29di "2001: Odissea nello spazio"
-
5:29 - 5:31HAL ha un obiettivo, una missione,
-
5:31 - 5:35che non è conforme
all'obiettivo degli umani, -
5:35 - 5:37e che porta a questo conflitto.
-
5:37 - 5:40Adesso per fortuna, HAL
non è super intelligente. -
5:40 - 5:44È abbastanza astuto
ma alla fine Dave lo batte -
5:44 - 5:46e riesce a spegnerlo.
-
5:50 - 5:52Ma possiamo non essere così fortunati.
-
5:56 - 5:58Quindi cosa faremo?
-
6:00 - 6:03Sto cercando di ridefinire l'IA
-
6:03 - 6:05per fuggire da questa nozione classica
-
6:05 - 6:10di macchine che perseguono obiettivi
in modo intelligente. -
6:11 - 6:13Ci sono tre principi coinvolti.
-
6:13 - 6:16Il primo è un principio
di altruismo, se volete, -
6:16 - 6:19secondo cui l'unico obiettivo del robot
-
6:19 - 6:23è massimizzare la realizzazione
degli obiettivi umani, -
6:23 - 6:25dei valori umani.
-
6:25 - 6:28E con valori qui non intendo
valori sdolcinati, da santarellini. -
6:28 - 6:32Intendo comunque vogliano
gli esseri umani -
6:32 - 6:33che sia la loro vita.
-
6:35 - 6:38E in realtà ciò viola la legge di Asimov
-
6:38 - 6:40secondo cui il robot
deve tutelare la sua esistenza. -
6:40 - 6:44Non c'è alcun interesse
nel preservare la sua esistenza. -
6:45 - 6:49La seconda legge è una legge
di umiltà, se volete. -
6:50 - 6:54E si rivela essere davvero importante
per rendere sicuri i robot. -
6:54 - 6:57Dice che il robot non sa
-
6:57 - 6:59quali sono questi valori umani,
-
6:59 - 7:02quindi li deve massimizzare,
ma non sa cosa sono. -
7:03 - 7:06E questo evita questo problema
della caccia risoluta -
7:06 - 7:07di un obiettivo.
-
7:07 - 7:09Questa incertezza si rivela cruciale.
-
7:10 - 7:11Per essere utile a noi,
-
7:11 - 7:14deve avere un'idea di quello che vogliamo.
-
7:15 - 7:21Lui ottiene l'informazione in primo luogo
dall'osservazione delle scelte umane, -
7:21 - 7:23quindi le nostre scelte rivelano
delle informazioni -
7:23 - 7:27su ciò che vogliamo
che le nostre vite siano. -
7:29 - 7:30Quindi questi sono i tre principi.
-
7:30 - 7:33Vediamo come si applicano
alla seguente domanda: -
7:33 - 7:35"Riuscite a spegnere la macchina?"
come suggeriva Turing. -
7:37 - 7:39Ecco un robot PR2.
-
7:39 - 7:41È uno che abbiamo in laboratorio,
-
7:41 - 7:44e ha un gran pulsante "off"
sul dorso. -
7:45 - 7:47La domanda è: ti permetterà
di spegnerlo? -
7:47 - 7:49Col metodo classico,
-
7:49 - 7:52gli diamo l'obiettivo,
"Porta il caffè, devo portare il caffè, -
7:52 - 7:55non posso portare il caffè se sono morto,"
-
7:55 - 7:58quindi ovviamente il PR2
ha ascoltato il mio discorso, -
7:58 - 8:02e quindi dice,
"Devo disabilitare il pulsante 'off'", -
8:03 - 8:06e forse stordire tutte le altre persone
nello Starbucks -
8:06 - 8:07che possono interferire con me."
-
8:07 - 8:09(Risate)
-
8:09 - 8:12Sembra inevitabile, giusto?
-
8:12 - 8:14Questa modalità di guasto
sembra inevitabile, -
8:14 - 8:18e deriva dall'avere un obiettivo
concreto e definito. -
8:19 - 8:22Quindi cosa succede se la macchina
è incerta sull'obiettivo? -
8:22 - 8:24Ragiona in modo diverso.
-
8:24 - 8:27Dice, "Ok, l'essere umano
può spegnermi, -
8:27 - 8:29ma soltanto se sbaglio qualcosa.
-
8:30 - 8:32Non so bene cos'è sbagliato,
-
8:32 - 8:34ma so che non voglio farlo."
-
8:34 - 8:37Quindi, questi sono il primo
e il secondo principio. -
8:37 - 8:41"Quindi devo lasciare
che l'uomo mi spenga." -
8:42 - 8:46E in effetti potete calcolare
lo stimolo che riceve il robot -
8:46 - 8:48per permettere all'uomo di spegnerlo,
-
8:48 - 8:51ed è direttamente legato
al grado di incertezza -
8:51 - 8:53dell'obiettivo di fondo.
-
8:54 - 8:57Poi quando la macchina viene spenta,
-
8:57 - 8:59entra in gioco il terzo principio.
-
8:59 - 9:02Lui impara qualcosa sugli obiettivi
che deve perseguire, -
9:02 - 9:04perché impara
che ciò che ha fatto non era corretto. -
9:04 - 9:08In realtà possiamo, con un uso adeguato
di simboli greci, -
9:08 - 9:10come fanno solitamente i matematici,
-
9:10 - 9:12possiamo davvero dimostrare un teorema
-
9:12 - 9:16che dice che un robot del genere
è certamente vantaggioso agli umani. -
9:16 - 9:20Voi siete certamente migliori
con una macchina programmata in tale modo -
9:20 - 9:21che senza.
-
9:21 - 9:24È un esempio molto semplice,
ma è il primo passo -
9:24 - 9:28che proviamo a fare
con l'IA compatibile con gli umani. -
9:31 - 9:34Questo terzo principio,
-
9:34 - 9:37credo sia quello
che fa grattare la testa. -
9:37 - 9:40Probabilmente starete pensando,
"Mi comporto male. -
9:40 - 9:43Non voglio che il mio robot
si comporti come me. -
9:43 - 9:47Io sgattaiolo nel cuore della notte
e prendo roba dal frigo. -
9:47 - 9:48Faccio questo e quello."
-
9:48 - 9:51Ci sono un sacco di cose
che non volete il robot faccia. -
9:51 - 9:53Ma in realtà, non funziona
sempre così. -
9:53 - 9:55Solo perché vi comportate male
-
9:55 - 9:58non significa che il robot
copierà il vostro comportamento. -
9:58 - 10:02Capirà le vostre motivazioni
e forse potrebbe aiutarvi a resistere, -
10:02 - 10:03eventualmente.
-
10:04 - 10:06Ma è comunque difficile.
-
10:06 - 10:09Quello che proviamo a fare, in realtà,
-
10:09 - 10:15è permettere alle macchine di prevedere
per chiunque e per ogni possibile vita -
10:15 - 10:16che potrebbe vivere,
-
10:16 - 10:17e le vite di tutti gli altri:
-
10:17 - 10:20quale preferirebbero?
-
10:22 - 10:25E le difficoltà sono molte;
-
10:25 - 10:28non mi aspetto
che si risolva velocemente. -
10:28 - 10:31La vera difficoltà, in realtà, siamo noi.
-
10:32 - 10:35Come ho già detto,
noi ci comportiamo male. -
10:35 - 10:38Anzi, alcuni di noi sono molto cattivi.
-
10:38 - 10:41Il robot, come ho detto,
non deve copiare il comportamento. -
10:42 - 10:44Il robot non ha obiettivi propri.
-
10:44 - 10:46È puramente altruista.
-
10:47 - 10:53E non è programmato solo per soddisfare
i desideri di una persona, l'utente, -
10:53 - 10:56ma deve rispettare
le preferenze di ognuno. -
10:57 - 11:00Quindi può avere a che fare
con una certa cattiveria, -
11:00 - 11:04e può anche capire
la vostra cattiveria, per esempio, -
11:04 - 11:06potete farvi corrompere
da agente doganale -
11:06 - 11:10perché dovete sfamare
la famiglia e mandare i bambini a scuola. -
11:10 - 11:13Lui è in grado di capirlo;
non significa che andrà a rubare. -
11:13 - 11:16Anzi, vi aiuterà
a mandare i vostri bambini a scuola. -
11:17 - 11:20Noi siamo anche limitati nei calcoli.
-
11:20 - 11:23Lee Sedol è un brillante giocatore di Go,
-
11:23 - 11:24ma ha comunque perso.
-
11:24 - 11:28Osservando le sue mosse,
ne ha fatta una che gli ha fatto perdere. -
11:28 - 11:30Non significa che voleva perdere.
-
11:31 - 11:33Quindi per capire il suo comportamento,
-
11:33 - 11:37dobbiamo invertire
con un modello di cognizione umana -
11:37 - 11:42che include i nostri limiti di calcolo --
un modello molto complicato. -
11:42 - 11:45Ma possiamo comunque cercare di capirlo.
-
11:46 - 11:50Forse la parte più complicata,
dal punto di vista di ricercatore di IA, -
11:50 - 11:53è il fatto che siamo molti,
-
11:54 - 11:58e quindi la macchina deve in qualche modo
alternare, soppesare le preferenze -
11:58 - 12:00di tante persone diverse,
-
12:00 - 12:02e ci sono diversi modi per farlo.
-
12:02 - 12:06Economisti, sociologi,
filosofi morali lo hanno capito, -
12:06 - 12:08e stiamo attivamente
cercando collaborazione. -
12:08 - 12:12Diamo un'occhiata a quel che succede
quando commettete uno sbaglio. -
12:12 - 12:14Potete conversare, per esempio,
-
12:14 - 12:16col vostro assistente personale
intelligente -
12:16 - 12:18che potrebbe essere disponibile
tra pochi anni. -
12:18 - 12:21Pensate a Siri sotto steroidi.
-
12:22 - 12:26Siri dice, "Tua moglie ha chiamato
per ricordarti della cena stasera." -
12:27 - 12:29Ovviamente, l'avevate dimenticato.
"Cosa? Quale cena? -
12:29 - 12:31Di cosa stai parlando?"
-
12:31 - 12:34"Ehm, il tuo 20° anniversario alle 7."
-
12:37 - 12:41"Non posso farlo. Mi incontrerò
col segretario generale alle 7:30. -
12:41 - 12:42Come può essere successo?"
-
12:42 - 12:47"Io ti ho avvertito, ma tu hai ignorato
la mia raccomandazione." -
12:48 - 12:51"Cosa faccio? Non posso dirgli
che sono impegnato." -
12:52 - 12:56"Non preoccuparti.
Ho fatto ritardare il suo aereo." -
12:56 - 12:57(Risate)
-
12:58 - 13:00"Una specie di guasto al computer."
-
13:00 - 13:02(Risate)
-
13:02 - 13:03"Davvero? Puoi farlo?"
-
13:04 - 13:07"Si scusa tantissimo
-
13:07 - 13:09e non vede l'ora di incontrarti
a pranzo domani." -
13:09 - 13:10(Risate)
-
13:11 - 13:15Quindi i valori qui --
si è verificato un piccolo errore. -
13:15 - 13:18Questo segue chiaramente
i valori di mia moglie -
13:18 - 13:20cioè "Felice la moglie, felice la vita."
-
13:20 - 13:22(Risate)
-
13:22 - 13:23Potrebbe andare diversamente.
-
13:23 - 13:26Potreste tornare a casa
dopo una dura giornata di lavoro, -
13:26 - 13:28e il computer dice, "Giornata lunga?"
-
13:28 - 13:31"Sì, non ho avuto nemmeno il tempo
di pranzare." -
13:31 - 13:32"Devi avere molta fame."
-
13:32 - 13:35"Sto morendo di fame, sì.
Puoi prepararmi la cena?" -
13:36 - 13:38"Devo dirti una cosa."
-
13:38 - 13:39(Risate)
-
13:40 - 13:45"Ci sono persone nel sud del Sudan
che hanno un bisogno più urgente del tuo." -
13:45 - 13:46(Risate)
-
13:46 - 13:48"Quindi me ne vado. Preparati tu la cena."
-
13:48 - 13:50(Risate)
-
13:51 - 13:53Dobbiamo risolvere questi problemi,
-
13:53 - 13:55e non vedo l'ora di lavorarci.
-
13:55 - 13:57Ci sono motivi per essere ottimisti.
-
13:57 - 13:58Un motivo è,
-
13:58 - 14:00c'è una grande quantità di dati.
-
14:00 - 14:03Perché ricordate --
ho detto che leggeranno tutto ciò -
14:03 - 14:04che la razza umana ha scritto.
-
14:04 - 14:07Gran parte di ciò che scriviamo
è su uomini che fanno cose -
14:07 - 14:09e altri che se la prendono per questo.
-
14:09 - 14:12Quindi c'è una grande mole di dati
da cui imparare. -
14:12 - 14:14C'è anche un incentivo
economico molto forte -
14:15 - 14:16per farlo bene.
-
14:16 - 14:18Immaginate il vostro robot domestico
a casa. -
14:18 - 14:22Siete ancora in ritardo dal lavoro
e il robot deve sfamare i bambini, -
14:22 - 14:24e i bambini sono affamati
e non c'è niente nel frigo. -
14:25 - 14:27E il robot vede il gatto.
-
14:27 - 14:29(Risate)
-
14:29 - 14:33E il robot non ha ancora imparato
i valori umani in modo corretto, -
14:33 - 14:34quindi non capisce
-
14:34 - 14:39che il valore sentimentale del gatto
supera il suo valore nutrizionale. -
14:39 - 14:40(Risate)
-
14:40 - 14:42Quindi cosa succede?
-
14:42 - 14:45Be', succede questo:
-
14:45 - 14:48"Robot folle cucina il micio
per la cena di famiglia." -
14:48 - 14:53Quell'unico incidente sarebbe la fine
dell'industria del robot domestico. -
14:53 - 14:56Quindi c'è un enorme incentivo
per farlo bene -
14:56 - 14:59molto prima che arriviamo
alle macchine super intelligenti. -
15:00 - 15:02Quindi per riassumere:
-
15:02 - 15:05sto cercando di cambiare
la definizione di IA -
15:05 - 15:08così che probabilmente
avremo macchine vantaggiose. -
15:08 - 15:09E i principi sono:
-
15:09 - 15:10macchine che siano altruiste,
-
15:10 - 15:13che vogliono raggiungere
solo i nostri obiettivi, -
15:13 - 15:16ma che sono incerti
sui loro obiettivi, -
15:16 - 15:18e che guarderanno tutti noi
-
15:18 - 15:21per imparare di più
su cosa vogliamo veramente. -
15:22 - 15:26E se tutto va bene, in tutto ciò
impareremo ad essere persone migliori. -
15:26 - 15:27Grazie tante.
-
15:27 - 15:31(Applausi)
-
15:31 - 15:33C. Anderson: Molto interessante, Stuart.
-
15:33 - 15:35Staremo qui un po'
perché credo che stiano preparando -
15:35 - 15:37per il prossimo relatore.
-
15:37 - 15:39Un paio di domande.
-
15:39 - 15:44L'idea di programmare nell'ignoranza
sembra intuitivamente molto potente. -
15:44 - 15:46Quando giungi alla super intelligenza,
-
15:46 - 15:48cosa fermerà un robot
-
15:48 - 15:51dal leggere letteratura e scoprire
l'idea che la conoscenza -
15:51 - 15:53sia migliore dell'ignoranza,
-
15:53 - 15:57e lo indurrà a spostare le sue finalità
e riscrivere la programmazione? -
15:58 - 16:04Stuart Russell: Sì, vogliamo
imparare meglio, come ho detto, -
16:04 - 16:05sui nostri obiettivi.
-
16:05 - 16:11Diventerà più sicuro solo
quando diventerà più corretto, -
16:11 - 16:13quindi la prova è questa
-
16:13 - 16:16e sarà progettata
per interpretarla correttamente. -
16:16 - 16:20Capirà, per esempio,
che i libri sono molto prevenuti -
16:20 - 16:21in ciò che contengono.
-
16:21 - 16:24Parlano solo di re e principi
-
16:24 - 16:26e di élite di maschi bianchi
che fanno cose. -
16:26 - 16:28Quindi è un problema complicato,
-
16:28 - 16:32ma siccome impara di più
sui nostri obiettivi -
16:32 - 16:34diventerà ancora più utile per noi.
-
16:34 - 16:37CA: E non potresti soltanto
limitarti a una legge, -
16:37 - 16:39sai, programmata così:
-
16:39 - 16:42"se un umano cerca di spegnermi,
-
16:42 - 16:44lo assecondo. Lo assecondo."
-
16:44 - 16:45SR: Assolutamente no.
-
16:45 - 16:47Sarebbe un'idea terribile.
-
16:47 - 16:49Immaginate di avere
una macchina che si guida da sola -
16:49 - 16:52e volete mandare vostro figlio
di cinque anni -
16:52 - 16:53all'asilo.
-
16:53 - 16:56Volete che vostro figlio
sia capace di spegnere la macchina -
16:56 - 16:57mentre va in giro?
-
16:57 - 16:59Probabilmente no.
-
16:59 - 17:03Quindi deve capire quanto razionale
e sensibile sia la persona. -
17:03 - 17:05Più razionale è la persona,
-
17:05 - 17:07più disponibile siete
a essere spenti. -
17:07 - 17:10Se la persona è del tutto ignota
o perfino malvagia, -
17:10 - 17:12allora sarete meno disponibili
a essere spenti. -
17:12 - 17:14CA: Giusto. Stuart, posso dire solo,
-
17:14 - 17:16spero davvero, davvero che tu
lo scopra per noi. -
17:17 - 17:19Grazie per questa conferenza.
È stata fantastica. -
17:19 - 17:20SR: Grazie.
-
17:20 - 17:22(Applausi)
- Title:
- Come l'IA potrebbe renderci persone migliori
- Speaker:
- Stuart Russell
- Description:
-
Come possiamo sfruttare il poter della super intelligente IA prevenendo allo stesso tempo la catastrofe della presa di potere dei robot? Mentre ci spostiamo sempre di più verso la creazione di macchine onniscienti, il pioniere di IA, Stuart Russell, sta lavorando su qualcosa di un po' diverso: robot insicuri. Ascoltate la sua visione sull'IA compatibile con gli umani che può risolvere i problemi usando il buonsenso, l'altruismo e altri valori profondamente umani.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:35
Anna Cristiana Minoli approved Italian subtitles for How AI might make us better people | ||
Anna Cristiana Minoli edited Italian subtitles for How AI might make us better people | ||
Anna Cristiana Minoli edited Italian subtitles for How AI might make us better people | ||
Anna Cristiana Minoli edited Italian subtitles for How AI might make us better people | ||
Retired user accepted Italian subtitles for How AI might make us better people | ||
Retired user edited Italian subtitles for How AI might make us better people | ||
Retired user edited Italian subtitles for How AI might make us better people | ||
Retired user edited Italian subtitles for How AI might make us better people |