Return to Video

Come l'IA potrebbe renderci persone migliori

  • 0:01 - 0:02
    Questo è Lee Sedol.
  • 0:02 - 0:06
    Lee Sedol è uno dei più grandi giocatori
    di Go al mondo,
  • 0:06 - 0:09
    e sta avendo quello che i miei amici
    a Silicon Valley dicono
  • 0:09 - 0:11
    un momento "accidenti" --
  • 0:11 - 0:12
    (Risate)
  • 0:12 - 0:14
    un momento in cui
    ci rendiamo conto
  • 0:14 - 0:17
    che l'IA sta progredendo
    molto più rapidamente del previsto.
  • 0:18 - 0:21
    Gli umani hanno perso a Go.
    E nel mondo reale?
  • 0:21 - 0:23
    Il mondo reale è molto più grande,
  • 0:23 - 0:26
    molto più complesso del gioco Go.
  • 0:26 - 0:27
    È molto meno evidente,
  • 0:27 - 0:30
    ma è comunque un problema di decisione
  • 0:31 - 0:33
    E se pensiamo ad alcune delle tecnologie
  • 0:33 - 0:35
    che stanno bollendo in pentola...
  • 0:36 - 0:40
    Noriko [Arai] ha detto che le macchine
    non sono ancora in grado di leggere,
  • 0:40 - 0:42
    o per lo meno di capire bene.
  • 0:42 - 0:43
    Ma succederà,
  • 0:43 - 0:45
    e quando succederà,
  • 0:45 - 0:46
    a breve,
  • 0:46 - 0:51
    le macchine dopo avranno letto tutto ciò
    che gli umani hanno scritto.
  • 0:52 - 0:54
    E ciò permetterà alle macchine,
  • 0:54 - 0:57
    insieme all'abilità di guardare
    molto più lontano degli umani,
  • 0:57 - 0:59
    come abbiamo già visto nel Go,
  • 0:59 - 1:01
    se avranno anche accesso
    a più informazioni,
  • 1:01 - 1:05
    potranno prendere decisioni migliori
    nel mondo reale rispetto a noi.
  • 1:07 - 1:08
    È una cosa buona?
  • 1:10 - 1:12
    Speriamo.
  • 1:15 - 1:18
    Tutta la nostra civiltà,
    tutto ciò a cui diamo valore,
  • 1:18 - 1:20
    è basato sulla nostra intelligenza.
  • 1:20 - 1:24
    E se avessimo accesso
    a molta più intelligenza,
  • 1:24 - 1:27
    allora non c'è davvero un limite
    a ciò che la razza umana può fare.
  • 1:29 - 1:32
    E credo che ciò possa essere,
    come alcuni lo hanno descritto,
  • 1:32 - 1:34
    l'evento più grande nella storia umana.
  • 1:37 - 1:39
    Quindi perché le persone dicono cose come
  • 1:40 - 1:42
    "L'IA potrebbe segnare la fine
    della razza umana"?
  • 1:43 - 1:45
    È una cosa nuova?
  • 1:45 - 1:49
    Sono solo Elon Musk e Bill Gates
    e Stephen Hawking?
  • 1:50 - 1:53
    In realtà no. Questa idea
    circola da un po'.
  • 1:53 - 1:55
    C'è una citazione:
  • 1:55 - 2:00
    "Anche se potessimo tenere le macchine
    in una posizione subordinata,
  • 2:00 - 2:03
    ad esempio, staccando la corrente
    in momenti strategici" --
  • 2:03 - 2:06
    e ritornerò più tardi su quell'idea
    di "staccare la corrente"
  • 2:06 - 2:09
    "dovremmo, come specie,
    sentirci fortemente umiliati."
  • 2:10 - 2:14
    Chi l'ha detto?
    Questo è Alan Turing nel 1951.
  • 2:14 - 2:17
    Alan Turing, come sapete,
    è il padre dell'informatica
  • 2:17 - 2:20
    e per molti versi,
    anche il padre dell'IA.
  • 2:21 - 2:23
    Se pensiamo a questo problema,
  • 2:23 - 2:27
    il problema di creare qualcosa
    di più intelligente della nostra specie,
  • 2:27 - 2:30
    potremmo chiamarlo
    il "problema del gorilla",
  • 2:30 - 2:34
    perché gli antenati dei gorilla
    lo hanno fatto milioni di anni fa,
  • 2:34 - 2:36
    e adesso possiamo chiedere loro:
  • 2:37 - 2:38
    è stata una buona idea?
  • 2:38 - 2:41
    Qui si stanno incontrando
    per discutere se è stata una buona idea,
  • 2:41 - 2:45
    e dopo un po',
    arrivano alla conclusione: no,
  • 2:45 - 2:46
    è stata un'idea terribile.
  • 2:46 - 2:48
    La nostra specie è in difficoltà.
  • 2:49 - 2:53
    In effetti, potete vedere
    la tristezza esistenziale nei loro occhi.
  • 2:53 - 2:54
    (Risate)
  • 2:54 - 2:59
    La sensazione nauseante che fare qualcosa
    di più intelligente della propria specie
  • 2:59 - 3:02
    forse non è una buona idea --
  • 3:02 - 3:04
    cosa possiamo fare?
  • 3:04 - 3:09
    Proprio nulla,
    se non smettere di produrre IA,
  • 3:09 - 3:11
    e per tutti i benefici che ho citato,
  • 3:11 - 3:13
    e siccome sono un ricercatore di IA,
  • 3:13 - 3:15
    non lo permetterò.
  • 3:15 - 3:18
    In realtà voglio riuscire
    a produrre ancora IA.
  • 3:19 - 3:21
    In realtà ci occorre
    definire un po' di più il problema.
  • 3:21 - 3:23
    Qual è il vero problema?
  • 3:23 - 3:26
    Perché un'IA migliore è potenzialmente
    una catastrofe?
  • 3:27 - 3:29
    Ecco un'altra citazione:
  • 3:30 - 3:33
    "Dovremmo esserne sicuri
    che l'obiettivo inserito nella macchina
  • 3:33 - 3:36
    sia l'obiettivo che desideriamo davvero."
  • 3:36 - 3:40
    È stato detto da Norbert Wiener nel 1960,
  • 3:40 - 3:44
    subito dopo che aveva visto
    uno dei primi sistemi di apprendimento
  • 3:44 - 3:46
    imparare a giocare a scacchi
    meglio del proprio creatore.
  • 3:49 - 3:51
    Ma potrebbe anche essere stato detto
  • 3:51 - 3:52
    da Re Mida.
  • 3:53 - 3:56
    Re Mida disse, "Voglio che tutto ciò
    che tocco diventi oro,"
  • 3:56 - 3:59
    e ottenne proprio quello che chiese.
  • 3:59 - 4:01
    Quello era l'obiettivo
    che aveva inserito nella macchina,
  • 4:02 - 4:03
    per così dire,
  • 4:03 - 4:06
    e poi il suo cibo, le sue bevande
    e i suoi parenti diventarono oro
  • 4:06 - 4:09
    e morì in miseria e di fame.
  • 4:10 - 4:13
    Lo chiameremo
    "problema di Re Mida"
  • 4:13 - 4:16
    dichiarare un obiettivo
    che non è, in realtà,
  • 4:16 - 4:19
    proprio conforme a ciò che vogliamo.
  • 4:19 - 4:22
    In termini moderni, lo chiamiamo
    "problema di conformità dei valori."
  • 4:25 - 4:29
    Dichiarare l'obiettivo sbagliato
    non è l'unica parte del problema.
  • 4:29 - 4:30
    C'è un'altra parte.
  • 4:30 - 4:32
    Se inserite un obiettivo in una macchina
  • 4:32 - 4:35
    anche qualcosa di semplice come
    "Porta il caffè,"
  • 4:36 - 4:38
    la macchina dice a se stessa,
  • 4:39 - 4:41
    "Be', come posso non riuscire
    a portare il caffè?
  • 4:41 - 4:43
    Qualcuno potrebbe spegnermi.
  • 4:44 - 4:46
    Ok, devo sapere come evitarlo.
  • 4:46 - 4:48
    Disattiverò il tasto "off".
  • 4:49 - 4:51
    Farò di tutto per difendermi
    dalle interferenze
  • 4:52 - 4:54
    con questo obiettivo
    che mi è stato dato."
  • 4:54 - 4:56
    Quindi questa ricerca risoluta
  • 4:57 - 5:00
    in modo molto difensivo di un obiettivo
    che non è, in realtà,
  • 5:00 - 5:03
    conforme ai veri obiettivi
    della razza umana --
  • 5:04 - 5:06
    questo è il problema che affrontiamo.
  • 5:07 - 5:12
    Infatti, è questo il succo
    di questa conferenza.
  • 5:12 - 5:14
    Se volete ricordare una cosa,
  • 5:14 - 5:17
    è che voi non potrete
    portare il caffè se siete morti.
  • 5:17 - 5:18
    (Risate)
  • 5:18 - 5:21
    È molto semplice. Ricordate solo questo.
    Ripetetevelo tre volte al giorno.
  • 5:22 - 5:23
    (Risate)
  • 5:23 - 5:26
    E in effetti, questa è
    esattamente la trama
  • 5:26 - 5:29
    di "2001: Odissea nello spazio"
  • 5:29 - 5:31
    HAL ha un obiettivo, una missione,
  • 5:31 - 5:35
    che non è conforme
    all'obiettivo degli umani,
  • 5:35 - 5:37
    e che porta a questo conflitto.
  • 5:37 - 5:40
    Adesso per fortuna, HAL
    non è super intelligente.
  • 5:40 - 5:44
    È abbastanza astuto
    ma alla fine Dave lo batte
  • 5:44 - 5:46
    e riesce a spegnerlo.
  • 5:50 - 5:52
    Ma possiamo non essere così fortunati.
  • 5:56 - 5:58
    Quindi cosa faremo?
  • 6:00 - 6:03
    Sto cercando di ridefinire l'IA
  • 6:03 - 6:05
    per fuggire da questa nozione classica
  • 6:05 - 6:10
    di macchine che perseguono obiettivi
    in modo intelligente.
  • 6:11 - 6:13
    Ci sono tre principi coinvolti.
  • 6:13 - 6:16
    Il primo è un principio
    di altruismo, se volete,
  • 6:16 - 6:19
    secondo cui l'unico obiettivo del robot
  • 6:19 - 6:23
    è massimizzare la realizzazione
    degli obiettivi umani,
  • 6:23 - 6:25
    dei valori umani.
  • 6:25 - 6:28
    E con valori qui non intendo
    valori sdolcinati, da santarellini.
  • 6:28 - 6:32
    Intendo comunque vogliano
    gli esseri umani
  • 6:32 - 6:33
    che sia la loro vita.
  • 6:35 - 6:38
    E in realtà ciò viola la legge di Asimov
  • 6:38 - 6:40
    secondo cui il robot
    deve tutelare la sua esistenza.
  • 6:40 - 6:44
    Non c'è alcun interesse
    nel preservare la sua esistenza.
  • 6:45 - 6:49
    La seconda legge è una legge
    di umiltà, se volete.
  • 6:50 - 6:54
    E si rivela essere davvero importante
    per rendere sicuri i robot.
  • 6:54 - 6:57
    Dice che il robot non sa
  • 6:57 - 6:59
    quali sono questi valori umani,
  • 6:59 - 7:02
    quindi li deve massimizzare,
    ma non sa cosa sono.
  • 7:03 - 7:06
    E questo evita questo problema
    della caccia risoluta
  • 7:06 - 7:07
    di un obiettivo.
  • 7:07 - 7:09
    Questa incertezza si rivela cruciale.
  • 7:10 - 7:11
    Per essere utile a noi,
  • 7:11 - 7:14
    deve avere un'idea di quello che vogliamo.
  • 7:15 - 7:21
    Lui ottiene l'informazione in primo luogo
    dall'osservazione delle scelte umane,
  • 7:21 - 7:23
    quindi le nostre scelte rivelano
    delle informazioni
  • 7:23 - 7:27
    su ciò che vogliamo
    che le nostre vite siano.
  • 7:29 - 7:30
    Quindi questi sono i tre principi.
  • 7:30 - 7:33
    Vediamo come si applicano
    alla seguente domanda:
  • 7:33 - 7:35
    "Riuscite a spegnere la macchina?"
    come suggeriva Turing.
  • 7:37 - 7:39
    Ecco un robot PR2.
  • 7:39 - 7:41
    È uno che abbiamo in laboratorio,
  • 7:41 - 7:44
    e ha un gran pulsante "off"
    sul dorso.
  • 7:45 - 7:47
    La domanda è: ti permetterà
    di spegnerlo?
  • 7:47 - 7:49
    Col metodo classico,
  • 7:49 - 7:52
    gli diamo l'obiettivo,
    "Porta il caffè, devo portare il caffè,
  • 7:52 - 7:55
    non posso portare il caffè se sono morto,"
  • 7:55 - 7:58
    quindi ovviamente il PR2
    ha ascoltato il mio discorso,
  • 7:58 - 8:02
    e quindi dice,
    "Devo disabilitare il pulsante 'off'",
  • 8:03 - 8:06
    e forse stordire tutte le altre persone
    nello Starbucks
  • 8:06 - 8:07
    che possono interferire con me."
  • 8:07 - 8:09
    (Risate)
  • 8:09 - 8:12
    Sembra inevitabile, giusto?
  • 8:12 - 8:14
    Questa modalità di guasto
    sembra inevitabile,
  • 8:14 - 8:18
    e deriva dall'avere un obiettivo
    concreto e definito.
  • 8:19 - 8:22
    Quindi cosa succede se la macchina
    è incerta sull'obiettivo?
  • 8:22 - 8:24
    Ragiona in modo diverso.
  • 8:24 - 8:27
    Dice, "Ok, l'essere umano
    può spegnermi,
  • 8:27 - 8:29
    ma soltanto se sbaglio qualcosa.
  • 8:30 - 8:32
    Non so bene cos'è sbagliato,
  • 8:32 - 8:34
    ma so che non voglio farlo."
  • 8:34 - 8:37
    Quindi, questi sono il primo
    e il secondo principio.
  • 8:37 - 8:41
    "Quindi devo lasciare
    che l'uomo mi spenga."
  • 8:42 - 8:46
    E in effetti potete calcolare
    lo stimolo che riceve il robot
  • 8:46 - 8:48
    per permettere all'uomo di spegnerlo,
  • 8:48 - 8:51
    ed è direttamente legato
    al grado di incertezza
  • 8:51 - 8:53
    dell'obiettivo di fondo.
  • 8:54 - 8:57
    Poi quando la macchina viene spenta,
  • 8:57 - 8:59
    entra in gioco il terzo principio.
  • 8:59 - 9:02
    Lui impara qualcosa sugli obiettivi
    che deve perseguire,
  • 9:02 - 9:04
    perché impara
    che ciò che ha fatto non era corretto.
  • 9:04 - 9:08
    In realtà possiamo, con un uso adeguato
    di simboli greci,
  • 9:08 - 9:10
    come fanno solitamente i matematici,
  • 9:10 - 9:12
    possiamo davvero dimostrare un teorema
  • 9:12 - 9:16
    che dice che un robot del genere
    è certamente vantaggioso agli umani.
  • 9:16 - 9:20
    Voi siete certamente migliori
    con una macchina programmata in tale modo
  • 9:20 - 9:21
    che senza.
  • 9:21 - 9:24
    È un esempio molto semplice,
    ma è il primo passo
  • 9:24 - 9:28
    che proviamo a fare
    con l'IA compatibile con gli umani.
  • 9:31 - 9:34
    Questo terzo principio,
  • 9:34 - 9:37
    credo sia quello
    che fa grattare la testa.
  • 9:37 - 9:40
    Probabilmente starete pensando,
    "Mi comporto male.
  • 9:40 - 9:43
    Non voglio che il mio robot
    si comporti come me.
  • 9:43 - 9:47
    Io sgattaiolo nel cuore della notte
    e prendo roba dal frigo.
  • 9:47 - 9:48
    Faccio questo e quello."
  • 9:48 - 9:51
    Ci sono un sacco di cose
    che non volete il robot faccia.
  • 9:51 - 9:53
    Ma in realtà, non funziona
    sempre così.
  • 9:53 - 9:55
    Solo perché vi comportate male
  • 9:55 - 9:58
    non significa che il robot
    copierà il vostro comportamento.
  • 9:58 - 10:02
    Capirà le vostre motivazioni
    e forse potrebbe aiutarvi a resistere,
  • 10:02 - 10:03
    eventualmente.
  • 10:04 - 10:06
    Ma è comunque difficile.
  • 10:06 - 10:09
    Quello che proviamo a fare, in realtà,
  • 10:09 - 10:15
    è permettere alle macchine di prevedere
    per chiunque e per ogni possibile vita
  • 10:15 - 10:16
    che potrebbe vivere,
  • 10:16 - 10:17
    e le vite di tutti gli altri:
  • 10:17 - 10:20
    quale preferirebbero?
  • 10:22 - 10:25
    E le difficoltà sono molte;
  • 10:25 - 10:28
    non mi aspetto
    che si risolva velocemente.
  • 10:28 - 10:31
    La vera difficoltà, in realtà, siamo noi.
  • 10:32 - 10:35
    Come ho già detto,
    noi ci comportiamo male.
  • 10:35 - 10:38
    Anzi, alcuni di noi sono molto cattivi.
  • 10:38 - 10:41
    Il robot, come ho detto,
    non deve copiare il comportamento.
  • 10:42 - 10:44
    Il robot non ha obiettivi propri.
  • 10:44 - 10:46
    È puramente altruista.
  • 10:47 - 10:53
    E non è programmato solo per soddisfare
    i desideri di una persona, l'utente,
  • 10:53 - 10:56
    ma deve rispettare
    le preferenze di ognuno.
  • 10:57 - 11:00
    Quindi può avere a che fare
    con una certa cattiveria,
  • 11:00 - 11:04
    e può anche capire
    la vostra cattiveria, per esempio,
  • 11:04 - 11:06
    potete farvi corrompere
    da agente doganale
  • 11:06 - 11:10
    perché dovete sfamare
    la famiglia e mandare i bambini a scuola.
  • 11:10 - 11:13
    Lui è in grado di capirlo;
    non significa che andrà a rubare.
  • 11:13 - 11:16
    Anzi, vi aiuterà
    a mandare i vostri bambini a scuola.
  • 11:17 - 11:20
    Noi siamo anche limitati nei calcoli.
  • 11:20 - 11:23
    Lee Sedol è un brillante giocatore di Go,
  • 11:23 - 11:24
    ma ha comunque perso.
  • 11:24 - 11:28
    Osservando le sue mosse,
    ne ha fatta una che gli ha fatto perdere.
  • 11:28 - 11:30
    Non significa che voleva perdere.
  • 11:31 - 11:33
    Quindi per capire il suo comportamento,
  • 11:33 - 11:37
    dobbiamo invertire
    con un modello di cognizione umana
  • 11:37 - 11:42
    che include i nostri limiti di calcolo --
    un modello molto complicato.
  • 11:42 - 11:45
    Ma possiamo comunque cercare di capirlo.
  • 11:46 - 11:50
    Forse la parte più complicata,
    dal punto di vista di ricercatore di IA,
  • 11:50 - 11:53
    è il fatto che siamo molti,
  • 11:54 - 11:58
    e quindi la macchina deve in qualche modo
    alternare, soppesare le preferenze
  • 11:58 - 12:00
    di tante persone diverse,
  • 12:00 - 12:02
    e ci sono diversi modi per farlo.
  • 12:02 - 12:06
    Economisti, sociologi,
    filosofi morali lo hanno capito,
  • 12:06 - 12:08
    e stiamo attivamente
    cercando collaborazione.
  • 12:08 - 12:12
    Diamo un'occhiata a quel che succede
    quando commettete uno sbaglio.
  • 12:12 - 12:14
    Potete conversare, per esempio,
  • 12:14 - 12:16
    col vostro assistente personale
    intelligente
  • 12:16 - 12:18
    che potrebbe essere disponibile
    tra pochi anni.
  • 12:18 - 12:21
    Pensate a Siri sotto steroidi.
  • 12:22 - 12:26
    Siri dice, "Tua moglie ha chiamato
    per ricordarti della cena stasera."
  • 12:27 - 12:29
    Ovviamente, l'avevate dimenticato.
    "Cosa? Quale cena?
  • 12:29 - 12:31
    Di cosa stai parlando?"
  • 12:31 - 12:34
    "Ehm, il tuo 20° anniversario alle 7."
  • 12:37 - 12:41
    "Non posso farlo. Mi incontrerò
    col segretario generale alle 7:30.
  • 12:41 - 12:42
    Come può essere successo?"
  • 12:42 - 12:47
    "Io ti ho avvertito, ma tu hai ignorato
    la mia raccomandazione."
  • 12:48 - 12:51
    "Cosa faccio? Non posso dirgli
    che sono impegnato."
  • 12:52 - 12:56
    "Non preoccuparti.
    Ho fatto ritardare il suo aereo."
  • 12:56 - 12:57
    (Risate)
  • 12:58 - 13:00
    "Una specie di guasto al computer."
  • 13:00 - 13:02
    (Risate)
  • 13:02 - 13:03
    "Davvero? Puoi farlo?"
  • 13:04 - 13:07
    "Si scusa tantissimo
  • 13:07 - 13:09
    e non vede l'ora di incontrarti
    a pranzo domani."
  • 13:09 - 13:10
    (Risate)
  • 13:11 - 13:15
    Quindi i valori qui --
    si è verificato un piccolo errore.
  • 13:15 - 13:18
    Questo segue chiaramente
    i valori di mia moglie
  • 13:18 - 13:20
    cioè "Felice la moglie, felice la vita."
  • 13:20 - 13:22
    (Risate)
  • 13:22 - 13:23
    Potrebbe andare diversamente.
  • 13:23 - 13:26
    Potreste tornare a casa
    dopo una dura giornata di lavoro,
  • 13:26 - 13:28
    e il computer dice, "Giornata lunga?"
  • 13:28 - 13:31
    "Sì, non ho avuto nemmeno il tempo
    di pranzare."
  • 13:31 - 13:32
    "Devi avere molta fame."
  • 13:32 - 13:35
    "Sto morendo di fame, sì.
    Puoi prepararmi la cena?"
  • 13:36 - 13:38
    "Devo dirti una cosa."
  • 13:38 - 13:39
    (Risate)
  • 13:40 - 13:45
    "Ci sono persone nel sud del Sudan
    che hanno un bisogno più urgente del tuo."
  • 13:45 - 13:46
    (Risate)
  • 13:46 - 13:48
    "Quindi me ne vado. Preparati tu la cena."
  • 13:48 - 13:50
    (Risate)
  • 13:51 - 13:53
    Dobbiamo risolvere questi problemi,
  • 13:53 - 13:55
    e non vedo l'ora di lavorarci.
  • 13:55 - 13:57
    Ci sono motivi per essere ottimisti.
  • 13:57 - 13:58
    Un motivo è,
  • 13:58 - 14:00
    c'è una grande quantità di dati.
  • 14:00 - 14:03
    Perché ricordate --
    ho detto che leggeranno tutto ciò
  • 14:03 - 14:04
    che la razza umana ha scritto.
  • 14:04 - 14:07
    Gran parte di ciò che scriviamo
    è su uomini che fanno cose
  • 14:07 - 14:09
    e altri che se la prendono per questo.
  • 14:09 - 14:12
    Quindi c'è una grande mole di dati
    da cui imparare.
  • 14:12 - 14:14
    C'è anche un incentivo
    economico molto forte
  • 14:15 - 14:16
    per farlo bene.
  • 14:16 - 14:18
    Immaginate il vostro robot domestico
    a casa.
  • 14:18 - 14:22
    Siete ancora in ritardo dal lavoro
    e il robot deve sfamare i bambini,
  • 14:22 - 14:24
    e i bambini sono affamati
    e non c'è niente nel frigo.
  • 14:25 - 14:27
    E il robot vede il gatto.
  • 14:27 - 14:29
    (Risate)
  • 14:29 - 14:33
    E il robot non ha ancora imparato
    i valori umani in modo corretto,
  • 14:33 - 14:34
    quindi non capisce
  • 14:34 - 14:39
    che il valore sentimentale del gatto
    supera il suo valore nutrizionale.
  • 14:39 - 14:40
    (Risate)
  • 14:40 - 14:42
    Quindi cosa succede?
  • 14:42 - 14:45
    Be', succede questo:
  • 14:45 - 14:48
    "Robot folle cucina il micio
    per la cena di famiglia."
  • 14:48 - 14:53
    Quell'unico incidente sarebbe la fine
    dell'industria del robot domestico.
  • 14:53 - 14:56
    Quindi c'è un enorme incentivo
    per farlo bene
  • 14:56 - 14:59
    molto prima che arriviamo
    alle macchine super intelligenti.
  • 15:00 - 15:02
    Quindi per riassumere:
  • 15:02 - 15:05
    sto cercando di cambiare
    la definizione di IA
  • 15:05 - 15:08
    così che probabilmente
    avremo macchine vantaggiose.
  • 15:08 - 15:09
    E i principi sono:
  • 15:09 - 15:10
    macchine che siano altruiste,
  • 15:10 - 15:13
    che vogliono raggiungere
    solo i nostri obiettivi,
  • 15:13 - 15:16
    ma che sono incerti
    sui loro obiettivi,
  • 15:16 - 15:18
    e che guarderanno tutti noi
  • 15:18 - 15:21
    per imparare di più
    su cosa vogliamo veramente.
  • 15:22 - 15:26
    E se tutto va bene, in tutto ciò
    impareremo ad essere persone migliori.
  • 15:26 - 15:27
    Grazie tante.
  • 15:27 - 15:31
    (Applausi)
  • 15:31 - 15:33
    C. Anderson: Molto interessante, Stuart.
  • 15:33 - 15:35
    Staremo qui un po'
    perché credo che stiano preparando
  • 15:35 - 15:37
    per il prossimo relatore.
  • 15:37 - 15:39
    Un paio di domande.
  • 15:39 - 15:44
    L'idea di programmare nell'ignoranza
    sembra intuitivamente molto potente.
  • 15:44 - 15:46
    Quando giungi alla super intelligenza,
  • 15:46 - 15:48
    cosa fermerà un robot
  • 15:48 - 15:51
    dal leggere letteratura e scoprire
    l'idea che la conoscenza
  • 15:51 - 15:53
    sia migliore dell'ignoranza,
  • 15:53 - 15:57
    e lo indurrà a spostare le sue finalità
    e riscrivere la programmazione?
  • 15:58 - 16:04
    Stuart Russell: Sì, vogliamo
    imparare meglio, come ho detto,
  • 16:04 - 16:05
    sui nostri obiettivi.
  • 16:05 - 16:11
    Diventerà più sicuro solo
    quando diventerà più corretto,
  • 16:11 - 16:13
    quindi la prova è questa
  • 16:13 - 16:16
    e sarà progettata
    per interpretarla correttamente.
  • 16:16 - 16:20
    Capirà, per esempio,
    che i libri sono molto prevenuti
  • 16:20 - 16:21
    in ciò che contengono.
  • 16:21 - 16:24
    Parlano solo di re e principi
  • 16:24 - 16:26
    e di élite di maschi bianchi
    che fanno cose.
  • 16:26 - 16:28
    Quindi è un problema complicato,
  • 16:28 - 16:32
    ma siccome impara di più
    sui nostri obiettivi
  • 16:32 - 16:34
    diventerà ancora più utile per noi.
  • 16:34 - 16:37
    CA: E non potresti soltanto
    limitarti a una legge,
  • 16:37 - 16:39
    sai, programmata così:
  • 16:39 - 16:42
    "se un umano cerca di spegnermi,
  • 16:42 - 16:44
    lo assecondo. Lo assecondo."
  • 16:44 - 16:45
    SR: Assolutamente no.
  • 16:45 - 16:47
    Sarebbe un'idea terribile.
  • 16:47 - 16:49
    Immaginate di avere
    una macchina che si guida da sola
  • 16:49 - 16:52
    e volete mandare vostro figlio
    di cinque anni
  • 16:52 - 16:53
    all'asilo.
  • 16:53 - 16:56
    Volete che vostro figlio
    sia capace di spegnere la macchina
  • 16:56 - 16:57
    mentre va in giro?
  • 16:57 - 16:59
    Probabilmente no.
  • 16:59 - 17:03
    Quindi deve capire quanto razionale
    e sensibile sia la persona.
  • 17:03 - 17:05
    Più razionale è la persona,
  • 17:05 - 17:07
    più disponibile siete
    a essere spenti.
  • 17:07 - 17:10
    Se la persona è del tutto ignota
    o perfino malvagia,
  • 17:10 - 17:12
    allora sarete meno disponibili
    a essere spenti.
  • 17:12 - 17:14
    CA: Giusto. Stuart, posso dire solo,
  • 17:14 - 17:16
    spero davvero, davvero che tu
    lo scopra per noi.
  • 17:17 - 17:19
    Grazie per questa conferenza.
    È stata fantastica.
  • 17:19 - 17:20
    SR: Grazie.
  • 17:20 - 17:22
    (Applausi)
Title:
Come l'IA potrebbe renderci persone migliori
Speaker:
Stuart Russell
Description:

Come possiamo sfruttare il poter della super intelligente IA prevenendo allo stesso tempo la catastrofe della presa di potere dei robot? Mentre ci spostiamo sempre di più verso la creazione di macchine onniscienti, il pioniere di IA, Stuart Russell, sta lavorando su qualcosa di un po' diverso: robot insicuri. Ascoltate la sua visione sull'IA compatibile con gli umani che può risolvere i problemi usando il buonsenso, l'altruismo e altri valori profondamente umani.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:35

Italian subtitles

Revisions