Return to Video

Cómo la IA puede hacernos mejores personas

  • 0:01 - 0:02
    Este es Lee Sedol.
  • 0:02 - 0:05
    Lee Sedol es uno de los mejores
    jugadores de Go del mundo.
  • 0:05 - 0:09
    Y está teniendo lo que mis amigos
    de Silicon Valley llaman
  • 0:09 - 0:11
    un momento "¡Bendito Dios!".
  • 0:11 - 0:12
    (Risas)
  • 0:12 - 0:14
    Un momento en el que nos damos cuenta
  • 0:14 - 0:18
    de que la IA está avanzando
    mucho más rápido de lo que esperábamos.
  • 0:18 - 0:20
    Los humanos han perdido
    en el tablero de Go.
  • 0:20 - 0:21
    ¿Y en el mundo real?
  • 0:21 - 0:24
    Bueno, el mundo real es mucho
    más grande y complicado
  • 0:24 - 0:26
    que el tablero de Go.
  • 0:26 - 0:27
    Es mucho menos visible.
  • 0:27 - 0:29
    Pero sigue siendo un problema de decisión.
  • 0:31 - 0:35
    Y si pensamos en algunas
    de las tecnologías que están por venir
  • 0:36 - 0:40
    Noriko [Arai] mencionó
    que las máquinas aún no saben leer,
  • 0:40 - 0:42
    al menos no comprendiendo,
  • 0:42 - 0:44
    pero lo harán, y cuando eso suceda,
  • 0:45 - 0:51
    poco después las máquinas habrán leído
    todo lo que la raza humana ha escrito.
  • 0:52 - 0:54
    Eso permitirá a las máquinas,
  • 0:54 - 0:57
    junto a su habilidad mirar más allá
    de lo que pueden los humanos,
  • 0:57 - 0:58
    como ya hemos visto en el Go,
  • 0:58 - 1:01
    si también tienen acceso
    a más información,
  • 1:01 - 1:04
    serán capaces de tomar
    mejores decisiones en el mundo real
  • 1:04 - 1:05
    que nosotros.
  • 1:07 - 1:08
    ¿Es eso bueno?
  • 1:10 - 1:12
    Bueno, espero que sí.
  • 1:15 - 1:18
    Toda nuestra civilización,
    todo lo que valoramos,
  • 1:18 - 1:20
    se basa en nuestra inteligencia.
  • 1:20 - 1:24
    Y si tuviéramos acceso
    a mucha más inteligencia,
  • 1:24 - 1:27
    entonces no existirían límites
    para lo que la raza humana pueda hacer.
  • 1:29 - 1:31
    Y creo que este podría ser,
    como han dicho algunos,
  • 1:31 - 1:34
    el mayor acontecimiento
    de la historia de la humanidad.
  • 1:37 - 1:39
    Entonces, ¿por qué la gente afirma
    cosas como esta?
  • 1:40 - 1:43
    Que la inteligencia artificial podría
    significar el fin de la raza humana.
  • 1:43 - 1:45
    ¿Es esto algo nuevo?
  • 1:45 - 1:49
    ¿Se trata solo de Elon Musk
    y Bill Gates y Stephen Hawking?
  • 1:50 - 1:53
    En realidad, no. Esta idea no es nueva.
  • 1:53 - 1:55
    He aquí una cita:
  • 1:55 - 2:00
    "Incluso si pudiéramos mantener las
    máquinas en una posición servil,
  • 2:00 - 2:03
    por ejemplo, desconectándolas
    en momentos estratégicos"
  • 2:03 - 2:06
    --volveré a esa idea de
    "quitar la corriente" más adelante--
  • 2:06 - 2:09
    "deberíamos, como especie,
    sentirnos humillados".
  • 2:10 - 2:14
    ¿Quién dijo esto?
    Este es Alan Turing, en 1951.
  • 2:14 - 2:17
    Alan Turing, como Uds. saben,
    es el padre de la informática
  • 2:17 - 2:20
    y en muchos sentidos
    también el padre de la IA.
  • 2:21 - 2:23
    Así que si pensamos en este problema,
  • 2:23 - 2:27
    el problema de crear algo
    más inteligente que tu propia especie,
  • 2:27 - 2:30
    podríamos llamar a esto
    "el problema del gorila".
  • 2:30 - 2:34
    Porque los antepasados de los gorilas
    hicieron esto hace unos millones de años,
  • 2:34 - 2:36
    y ahora podríamos
    preguntar a los gorilas:
  • 2:37 - 2:38
    ¿Fue una buena idea?
  • 2:38 - 2:42
    Aquí están, reunidos para discutir
    si fue una buena idea,
  • 2:42 - 2:45
    y pasado un tiempo concluyen que no.
  • 2:45 - 2:46
    Fue una idea terrible.
  • 2:46 - 2:48
    Nuestra especie está en apuros.
  • 2:49 - 2:53
    De hecho, pueden ver
    la tristeza existencial en sus ojos.
  • 2:53 - 2:54
    (Risas)
  • 2:54 - 2:58
    Así que esta sensación mareante
    de que crear algo más inteligente
  • 2:58 - 3:02
    que tu propia especie
    tal vez no sea buena idea...
  • 3:02 - 3:04
    ¿Qué podemos hacer al respecto?
  • 3:04 - 3:09
    Bueno, nada en realidad,
    excepto dejar de hacer IA.
  • 3:09 - 3:11
    Y por todos los beneficios
    que he mencionado
  • 3:11 - 3:13
    y porque soy un investigador de IA,
  • 3:13 - 3:15
    no voy a tomar eso.
  • 3:15 - 3:18
    Sin duda quiero seguir creando IA.
  • 3:19 - 3:21
    Así que necesitamos precisar
    el problema un poco más.
  • 3:21 - 3:23
    ¿Cuál es el problema?
  • 3:23 - 3:26
    ¿Por qué tener mejor IA
    puede ser una catástrofe?
  • 3:27 - 3:29
    Aquí hay otra cita:
  • 3:30 - 3:32
    "Más nos vale estar seguros
    de que el propósito
  • 3:32 - 3:35
    que introducimos en la máquina
    es el que de verdad deseamos".
  • 3:36 - 3:39
    Esto fue dicho por Norbert Wiener en 1960,
  • 3:39 - 3:43
    poco después de ver a uno de
    los primeros sistemas de aprendizaje
  • 3:43 - 3:46
    aprender a jugar a las damas
    mejor que su creador.
  • 3:49 - 3:52
    Pero esto podría haberlo dicho
    de igual modo el Rey Midas.
  • 3:52 - 3:56
    El Rey Midas dijo, "Deseo que todo
    lo que toque se convierta en oro".
  • 3:56 - 3:59
    Y obtuvo justo lo que pidió.
  • 3:59 - 4:02
    Fue el propósito que introdujo
    en la máquina, por así decirlo.
  • 4:03 - 4:06
    Y luego su comida, su bebida
    y sus familiares se convirtieron en oro
  • 4:06 - 4:09
    y murió miserable y muerto de hambre.
  • 4:10 - 4:13
    Así que llamaremos a esto
    "el problema del rey Midas",
  • 4:13 - 4:16
    el de indicar un objetivo
    que no está realmente
  • 4:16 - 4:19
    alineado con lo que de verdad queremos.
  • 4:19 - 4:22
    En términos modernos, lo llamamos
    "el problema de alineación de valor".
  • 4:25 - 4:29
    Introducir un objetivo equivocado
    no es la única parte del problema.
  • 4:29 - 4:30
    Hay otra parte.
  • 4:30 - 4:32
    Al introducir un objetivo en una máquina
  • 4:32 - 4:35
    incluso algo tan simple como
    "Trae el café",
  • 4:36 - 4:38
    la máquina se dice a sí misma,
  • 4:39 - 4:41
    "¿Cómo podría fallar
    yendo a buscar el café?
  • 4:41 - 4:43
    Alguien podría desconectarme.
  • 4:43 - 4:46
    Vale, debo tomar medidas para evitarlo.
  • 4:46 - 4:48
    Desactivaré mi interruptor de 'apagado'.
  • 4:48 - 4:51
    Haré cualquier cosa para protegerme
    de interferencias
  • 4:51 - 4:54
    con este objetivo que me han dado.
  • 4:54 - 4:56
    Así que esta persecución obsesiva
  • 4:57 - 5:00
    de un modo muy defensivo
    para lograr un objetivo
  • 5:00 - 5:02
    que no está alineado
    con los verdaderos objetivos
  • 5:02 - 5:04
    de la raza humana...
  • 5:04 - 5:06
    ese es el problema
    al que nos enfrentamos.
  • 5:07 - 5:11
    Y de hecho esa es la lección
    más valiosa de esta charla.
  • 5:12 - 5:14
    Si quieren recordar una cosa
  • 5:14 - 5:17
    es que no se puede ir a buscar
    el café si se está muerto.
  • 5:17 - 5:18
    (Risas)
  • 5:18 - 5:21
    Es muy simple. Solo recuerden eso.
    Repítanlo tres veces al día.
  • 5:22 - 5:23
    (Risas)
  • 5:23 - 5:26
    Y de hecho, este es el mismo argumento
  • 5:26 - 5:29
    de "2001: [Una odisea del espacio]".
  • 5:29 - 5:31
    HAL tiene un objetivo, una misión,
  • 5:31 - 5:35
    que no está alineada
    con los objetivos de los humanos,
  • 5:35 - 5:37
    y eso conduce a este conflicto.
  • 5:37 - 5:40
    Por suerte HAL no es superinteligente.
  • 5:40 - 5:43
    Es bastante inteligente,
    pero llegado el momento,
  • 5:43 - 5:46
    Dave lo supera y logra apagarlo.
  • 5:50 - 5:52
    Pero tal vez no tengamos tanta suerte.
  • 5:56 - 5:58
    Entonces, ¿qué vamos a hacer?
  • 6:00 - 6:03
    Estoy tratando de redefinir la IA
  • 6:03 - 6:05
    para alejarnos de esta noción clásica
  • 6:05 - 6:10
    de máquinas que persiguen objetivos
    de manera inteligente.
  • 6:11 - 6:13
    Hay tres principios implicados.
  • 6:13 - 6:16
    El primero es un principio
    de altruismo, por así decirlo,
  • 6:16 - 6:19
    el único objetivo del robot
  • 6:19 - 6:23
    es maximizar la realización
    de los objetivos humanos,
  • 6:23 - 6:25
    de los valores humanos.
  • 6:25 - 6:28
    Y por valores aquí no me refiero
    a valores sentimentales o de bondad.
  • 6:28 - 6:32
    Solo quiero decir aquello
    más similar a la vida
  • 6:32 - 6:33
    que un humano preferiría.
  • 6:35 - 6:37
    Y esto viola la ley de Asimov
  • 6:37 - 6:40
    de que el robot debe proteger
    su propia existencia.
  • 6:40 - 6:44
    No tiene ningún interés en preservar
    su existencia en absoluto.
  • 6:45 - 6:49
    La segunda ley es una ley
    de humildad, digamos.
  • 6:50 - 6:54
    Y resulta muy importante
    para que los robots sean seguros.
  • 6:54 - 6:57
    Dice que el robot no sabe
  • 6:57 - 6:59
    cuáles son esos valores humanos,
  • 6:59 - 7:02
    así que debe maximizarlos,
    pero no sabe lo que son.
  • 7:03 - 7:06
    Lo cual evita el problema
    de la búsqueda obsesiva
  • 7:06 - 7:07
    de un objetivo.
  • 7:07 - 7:09
    Esta incertidumbre resulta crucial.
  • 7:10 - 7:11
    Claro que para sernos útiles,
  • 7:11 - 7:14
    deben tener alguna idea
    de lo que queremos.
  • 7:15 - 7:21
    Obtiene esa información sobre todo
    observando elecciones humanas,
  • 7:21 - 7:23
    para que nuestras propias
    decisiones revelen información
  • 7:23 - 7:27
    sobre lo que nosotros preferimos
    para nuestras vidas.
  • 7:29 - 7:30
    Estos son los tres principios.
  • 7:30 - 7:33
    Veamos cómo se aplica a esta cuestión
  • 7:33 - 7:35
    de "apagar la máquina",
    como sugirió Turing.
  • 7:37 - 7:39
    He aquí un robot PR2.
  • 7:39 - 7:41
    Es uno que tenemos
    en nuestro laboratorio,
  • 7:41 - 7:44
    y tiene un gran botón rojo de 'apagado'
    en la parte posterior.
  • 7:45 - 7:47
    La pregunta es: ¿Va a
    dejar que lo apaguen?
  • 7:47 - 7:49
    Si lo hacemos a la manera clásica,
  • 7:49 - 7:52
    le damos el objetivo de traer
    el café. "Debo traer el café.
  • 7:52 - 7:55
    No puedo traer el café
    si estoy muerto".
  • 7:55 - 7:58
    Obviamente el PR2
    ha escuchado mi charla,
  • 7:58 - 8:00
    y por tanto, decide
  • 8:00 - 8:03
    "Debo inhabilitar mi botón de 'apagado'".
  • 8:03 - 8:06
    "Y probablemente electrocutar
    al resto de personas en el Starbucks
  • 8:06 - 8:07
    que podrían interferir".
  • 8:07 - 8:09
    (Risas)
  • 8:09 - 8:12
    Así que esto parece ser
    inevitable, ¿verdad?
  • 8:12 - 8:14
    Este tipo de error
    parece ser inevitable,
  • 8:14 - 8:18
    y sucede por tener
    un objetivo concreto, definido.
  • 8:19 - 8:22
    Entonces, ¿qué pasa si la máquina
    no tiene claro el objetivo?
  • 8:22 - 8:24
    Bueno, razona de una manera diferente.
  • 8:24 - 8:29
    Dice, "El humano podría desconectarme,
    pero solo si hago algo malo.
  • 8:30 - 8:34
    No tengo claro lo que es malo
    pero sé que no quiero hacerlo".
  • 8:34 - 8:36
    Ahí están el primer
    y el segundo principio.
  • 8:37 - 8:41
    "Así que debería dejar
    que el humano me desconecte".
  • 8:42 - 8:45
    De hecho se puede calcular
    el incentivo que tiene el robot
  • 8:45 - 8:48
    para permitir que el humano lo apague.
  • 8:48 - 8:51
    Y está directamente ligado
    al grado de incertidumbre
  • 8:51 - 8:53
    sobre el objetivo subyacente.
  • 8:53 - 8:57
    Y entonces cuando la máquina está apagada,
  • 8:57 - 8:59
    el tercer principio entra en juego.
  • 8:59 - 9:02
    Aprende algo sobre los objetivos
    que debe perseguir,
  • 9:02 - 9:04
    porque aprende que
    lo que hizo no estaba bien.
  • 9:04 - 9:08
    De hecho, podemos, con el uso adecuado
    de los símbolos griegos,
  • 9:08 - 9:10
    como suelen hacer los matemáticos,
  • 9:10 - 9:12
    podemos probar un teorema
  • 9:12 - 9:16
    que dice que tal robot es probablemente
    beneficioso para el humano.
  • 9:16 - 9:20
    Se está demostrablemente mejor con
    una máquina que se diseña de esta manera
  • 9:20 - 9:21
    que sin ella.
  • 9:21 - 9:24
    Este es un ejemplo muy simple,
    pero este es el primer paso
  • 9:24 - 9:28
    en lo que estamos tratando de hacer
    con IA compatible con humanos.
  • 9:31 - 9:34
    Ahora, este tercer principio,
  • 9:34 - 9:37
    es probablemente el que está haciendo
    que se rasquen la cabeza.
  • 9:37 - 9:40
    Probablemente piensen:
    "Yo me comporto mal.
  • 9:40 - 9:43
    No quiero que mi robot
    se comporte como yo.
  • 9:43 - 9:46
    Me escabullo en mitad de la noche
    y tomo cosas de la nevera,
  • 9:46 - 9:48
    hago esto y hago aquello".
  • 9:48 - 9:50
    Hay todo tipo de cosas que no
    quieres que haga el robot.
  • 9:51 - 9:53
    Pero lo cierto es que
    no funciona así.
  • 9:53 - 9:55
    Solo porque uno se comporte mal
  • 9:55 - 9:58
    no significa que el robot
    vaya a copiar su comportamiento.
  • 9:58 - 10:01
    Va a entender sus motivaciones
    y tal vez a ayudarle a resistirlas,
  • 10:02 - 10:03
    si es apropiado.
  • 10:04 - 10:06
    Pero sigue siendo difícil.
  • 10:06 - 10:09
    Lo que estamos tratando
    de hacer, de hecho,
  • 10:09 - 10:13
    es permitir que las máquinas predigan
    para cualquier persona
  • 10:13 - 10:16
    y para cualquier vida posible
    que podrían vivir,
  • 10:16 - 10:17
    y las vidas de todos los demás
  • 10:17 - 10:20
    lo que preferirían.
  • 10:22 - 10:25
    Y hay muchas, muchas
    dificultades ligadas a hacer esto.
  • 10:25 - 10:28
    No espero que vaya a resolverse pronto.
  • 10:28 - 10:31
    Las verdaderas dificultades,
    de hecho, somos nosotros.
  • 10:32 - 10:35
    Como ya he mencionado,
    nos comportamos mal.
  • 10:35 - 10:38
    De hecho, algunos de nosotros
    somos francamente desagradables.
  • 10:38 - 10:41
    Como he dicho, el robot
    no tiene que copiar el comportamiento.
  • 10:42 - 10:44
    El robot no tiene ningún objetivo propio.
  • 10:44 - 10:46
    Es puramente altruista.
  • 10:47 - 10:53
    Y no está diseñado solo para satisfacer
    los deseos de una persona, el usuario,
  • 10:53 - 10:56
    sino que tiene que respetar
    las preferencias de todos.
  • 10:57 - 11:00
    Así que puede lidiar
    con cierta cantidad de maldad,
  • 11:00 - 11:04
    e incluso puede entender
    que su maldad, por ejemplo...
  • 11:04 - 11:06
    Ud. puede aceptar sobornos
    como controlador de pasaportes
  • 11:06 - 11:10
    porque necesita alimentar a su familia
    y que sus hijos vayan a la escuela.
  • 11:10 - 11:13
    Puede entender eso;
    no significa que vaya a robar.
  • 11:13 - 11:16
    De hecho, solo le ayudará
    a que sus hijos vayan al colegio.
  • 11:17 - 11:20
    También estamos limitados
    computacionalmente.
  • 11:20 - 11:23
    Lee Sedol es un jugador brillante de Go,
  • 11:23 - 11:24
    pero aun así perdió.
  • 11:24 - 11:28
    Si nos fijamos en sus acciones,
    tomó una decisión que le hizo perder.
  • 11:28 - 11:30
    Eso no significa que él quisiera perder.
  • 11:31 - 11:33
    Así que para entender su comportamiento,
  • 11:33 - 11:37
    en realidad tenemos que invertir,
    a través de un modelo cognitivo humano
  • 11:37 - 11:40
    que incluye nuestras
    limitaciones computacionales,
  • 11:40 - 11:42
    y se trata de un modelo muy complicado.
  • 11:42 - 11:45
    Pero es algo en lo que podemos
    trabajar para comprender.
  • 11:46 - 11:48
    Puede que la parte más difícil,
    desde mi punto de vista
  • 11:48 - 11:50
    como investigador de IA,
  • 11:50 - 11:53
    es el hecho de que hay muchos de nosotros,
  • 11:54 - 11:57
    con lo cual la máquina tiene que sopesar
  • 11:57 - 12:00
    las preferencias de mucha gente diferente.
  • 12:00 - 12:02
    Hay diferentes maneras de hacer eso.
  • 12:02 - 12:06
    Economistas, sociólogos,
    filósofos morales han comprendido esto
  • 12:06 - 12:08
    y estamos buscando
    colaboración de manera activa.
  • 12:08 - 12:12
    Vamos a ver lo que sucede
    cuando esto se hace mal.
  • 12:12 - 12:14
    Ud. puede estar hablando, por ejemplo,
  • 12:14 - 12:16
    con su asistente personal inteligente
  • 12:16 - 12:18
    que podría estar disponible
    dentro de unos años.
  • 12:18 - 12:21
    Piensen en Siri con esteroides.
  • 12:22 - 12:26
    Siri dice "Su esposa llamó para
    recordarle la cena de esta noche".
  • 12:27 - 12:30
    Por supuesto, lo había olvidado.
    ¿Qué cena? ¿De qué está hablando?
  • 12:31 - 12:33
    "Su 20 aniversario, a las 7pm".
  • 12:37 - 12:40
    "No puedo, me reúno con el
    secretario general a las 7:30.
  • 12:40 - 12:42
    ¿Cómo ha podido suceder esto?".
  • 12:42 - 12:47
    "Bueno, le advertí, pero ignoró
    mi recomendación".
  • 12:47 - 12:51
    "¿Qué voy a hacer? No puedo decirles
    que estoy demasiado ocupado".
  • 12:52 - 12:56
    "No se preocupe, he hecho
    que su avión se retrase".
  • 12:56 - 12:58
    (Risas)
  • 12:58 - 13:01
    "Algún tipo de error en el ordenador".
  • 13:01 - 13:02
    (Risas)
  • 13:02 - 13:03
    "¿En serio? ¿Puede hacer eso?".
  • 13:04 - 13:07
    "Le envía sinceras disculpas
  • 13:07 - 13:09
    y espera poder conocerle
    mañana para el almuerzo".
  • 13:09 - 13:10
    (Risas)
  • 13:11 - 13:15
    Así que los valores aquí...
    aquí hay un pequeño fallo.
  • 13:15 - 13:18
    Claramente está siguiendo
    los valores de mi esposa
  • 13:18 - 13:20
    que son "esposa feliz, vida feliz".
  • 13:20 - 13:22
    (Risas)
  • 13:22 - 13:23
    Podría suceder al revés.
  • 13:24 - 13:26
    Podría llegar a casa
    tras un duro día de trabajo,
  • 13:26 - 13:28
    y el ordenador dice "¿Un día duro?".
  • 13:28 - 13:30
    "Sí, ni tuve tiempo de almorzar".
  • 13:30 - 13:32
    "Debe tener mucha hambre".
  • 13:32 - 13:35
    "Me muero de hambre, sí,
    ¿podría preparar algo de cena?".
  • 13:36 - 13:38
    "Hay algo que necesito decirle".
  • 13:38 - 13:39
    (Risas)
  • 13:40 - 13:45
    "Hay humanos en Sudán del Sur
    más necesitados que Ud.".
  • 13:45 - 13:46
    (Risas)
  • 13:46 - 13:48
    "Así que me voy, hágase su propia cena".
  • 13:48 - 13:50
    (Risas)
  • 13:51 - 13:53
    Así que tenemos que
    resolver estos problemas,
  • 13:53 - 13:55
    y tengo ganas de trabajar en ellos.
  • 13:55 - 13:57
    Hay razones para ser optimistas.
  • 13:57 - 14:00
    Una razón es que hay
    gran cantidad de datos
  • 14:00 - 14:04
    Recuerden, leerán todo lo que
    la raza humana ha escrito.
  • 14:04 - 14:07
    La mayoría de lo que escribimos
    trata sobre humanos haciendo cosas
  • 14:07 - 14:09
    y cómo estas molestan a otras personas.
  • 14:09 - 14:12
    Así que hay muchos datos
    de los que aprender.
  • 14:12 - 14:14
    También hay un fuerte incentivo económico
  • 14:15 - 14:16
    para que esto funcione bien.
  • 14:16 - 14:18
    Imagine que su robot
    doméstico está en casa
  • 14:18 - 14:20
    Ud. llega tarde del trabajo,
  • 14:20 - 14:22
    el robot tiene que dar
    de comer a los niños,
  • 14:22 - 14:25
    los niños tienen hambre
    y no hay nada en la nevera.
  • 14:25 - 14:27
    Y el robot ve al gato.
  • 14:27 - 14:29
    (Risas)
  • 14:29 - 14:33
    Y el robot no ha aprendido del todo bien
    la función del valor humano
  • 14:33 - 14:34
    por lo que no entiende
  • 14:34 - 14:39
    que el valor sentimental del gato supera
    el valor nutricional del gato.
  • 14:39 - 14:40
    (Risas)
  • 14:40 - 14:41
    Entonces, ¿qué pasa?
  • 14:41 - 14:45
    Bueno, sucede lo siguiente:
  • 14:45 - 14:48
    "Robot desquiciado cocina a un gatito
    para la cena familiar".
  • 14:48 - 14:53
    Ese único incidente acabaría
    con la industria de robots domésticos.
  • 14:53 - 14:56
    Así que hay un gran incentivo
    para hacer esto bien.
  • 14:56 - 14:59
    mucho antes de llegar
    a las máquinas superinteligentes.
  • 15:00 - 15:02
    Así que para resumir:
  • 15:02 - 15:05
    Estoy intentando cambiar
    la definición de IA
  • 15:05 - 15:08
    para que tengamos máquinas
    demostrablemente beneficiosas.
  • 15:08 - 15:09
    Y los principios son:
  • 15:09 - 15:10
    Máquinas que son altruistas,
  • 15:10 - 15:13
    que desean lograr solo nuestros objetivos,
  • 15:13 - 15:16
    pero que no están seguras
    de cuáles son esos objetivos
  • 15:16 - 15:18
    y nos observarán a todos
  • 15:18 - 15:21
    para aprender qué es
    lo que realmente queremos.
  • 15:22 - 15:26
    Y con suerte, en el proceso,
    aprenderemos a ser mejores personas.
  • 15:26 - 15:27
    Muchas gracias.
  • 15:27 - 15:31
    (Aplausos)
  • 15:31 - 15:33
    Chris Anderson: Muy interesante, Stuart.
  • 15:33 - 15:36
    Vamos a estar aquí un poco
    porque creo que están preparando
  • 15:36 - 15:37
    a nuestro próximo orador.
  • 15:37 - 15:39
    Un par de preguntas.
  • 15:39 - 15:44
    La idea de programar ignorancia
    parece intuitivamente muy poderosa.
  • 15:44 - 15:46
    Al llegar a la superinteligencia,
  • 15:46 - 15:48
    ¿qué puede impedir que un robot
  • 15:48 - 15:51
    lea literatura y descubra esta idea
    de que el conocimiento
  • 15:51 - 15:53
    es mejor que la ignorancia,
  • 15:53 - 15:57
    cambiando sus propios objetivos
    y reescribiendo su programación?
  • 15:58 - 16:04
    Stuart Russell: Queremos
    que aprenda más, como he dicho,
  • 16:04 - 16:05
    sobre nuestros objetivos.
  • 16:05 - 16:11
    Solo ganará seguridad
    cuanto más acierte.
  • 16:11 - 16:13
    La evidencia estará ahí,
  • 16:13 - 16:16
    y estará diseñado para
    interpretarla adecuadamente.
  • 16:16 - 16:20
    Comprenderá, por ejemplo,
    que los libros son muy sesgados
  • 16:20 - 16:21
    en la evidencia que contienen.
  • 16:21 - 16:24
    Solo hablan de reyes y príncipes
  • 16:24 - 16:26
    y hombres blancos poderosos
    haciendo cosas.
  • 16:26 - 16:28
    Es un problema complicado,
  • 16:28 - 16:32
    pero conforme aprenda más
    sobre nuestros objetivos
  • 16:32 - 16:34
    será cada vez más útil
    para nosotros.
  • 16:34 - 16:37
    CA: Y no podría reducirse a una ley,
  • 16:37 - 16:39
    ya sabe, grabada a fuego,
  • 16:39 - 16:42
    "Si un humano alguna vez
    intenta apagarme
  • 16:42 - 16:44
    yo obedezco, obedezco".
  • 16:44 - 16:45
    SR: Absolutamente no.
  • 16:45 - 16:47
    Sería una idea terrible.
  • 16:47 - 16:50
    Imagine, tiene un auto que se conduce solo
  • 16:50 - 16:53
    y quiere llevar a su hijo de cinco años
    al jardín de infancia.
  • 16:53 - 16:56
    ¿Quiere que su hijo de cinco años pueda
    apagar el coche mientras conduce?
  • 16:56 - 16:58
    Probablemente no.
  • 16:58 - 17:03
    Por tanto necesita entender
    cuán racional y sensata es la persona.
  • 17:03 - 17:05
    Cuanto más racional sea la persona,
  • 17:05 - 17:07
    más dispuesto estará
    a dejar que lo apaguen.
  • 17:07 - 17:10
    Si la persona es impredecible
    o incluso malintencionada
  • 17:10 - 17:12
    estará menos dispuesto
    a permitir que lo apaguen.
  • 17:12 - 17:14
    CA: Stuart, permítame decir
  • 17:14 - 17:16
    que de veras espero que resuelva esto
    por todos nosotros.
  • 17:16 - 17:19
    Muchas gracias por su charla.
    Ha sido increíble, gracias.
  • 17:19 - 17:21
    (Aplausos)
Title:
Cómo la IA puede hacernos mejores personas
Speaker:
Stuart Russell
Description:

¿Cómo podemos aprovechar el poder de la inteligencia súper inteligente mientras también evitamos la catástrofe de la toma de control robótica? A medida que avanzamos hacia la creación de máquinas de todo conocimiento, el pionero de la inteligencia artificial Stuart Russell está trabajando en algo un poco diferente: los robots con incertidumbre. Escuche su visión de la IA compatible con humanos que puede resolver problemas usando el sentido común, el altruismo y otros valores humanos.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:35

Spanish subtitles

Revisions