Cómo la IA puede hacernos mejores personas
-
0:01 - 0:02Este es Lee Sedol.
-
0:02 - 0:05Lee Sedol es uno de los mejores
jugadores de Go del mundo. -
0:05 - 0:09Y está teniendo lo que mis amigos
de Silicon Valley llaman -
0:09 - 0:11un momento "¡Bendito Dios!".
-
0:11 - 0:12(Risas)
-
0:12 - 0:14Un momento en el que nos damos cuenta
-
0:14 - 0:18de que la IA está avanzando
mucho más rápido de lo que esperábamos. -
0:18 - 0:20Los humanos han perdido
en el tablero de Go. -
0:20 - 0:21¿Y en el mundo real?
-
0:21 - 0:24Bueno, el mundo real es mucho
más grande y complicado -
0:24 - 0:26que el tablero de Go.
-
0:26 - 0:27Es mucho menos visible.
-
0:27 - 0:29Pero sigue siendo un problema de decisión.
-
0:31 - 0:35Y si pensamos en algunas
de las tecnologías que están por venir -
0:36 - 0:40Noriko [Arai] mencionó
que las máquinas aún no saben leer, -
0:40 - 0:42al menos no comprendiendo,
-
0:42 - 0:44pero lo harán, y cuando eso suceda,
-
0:45 - 0:51poco después las máquinas habrán leído
todo lo que la raza humana ha escrito. -
0:52 - 0:54Eso permitirá a las máquinas,
-
0:54 - 0:57junto a su habilidad mirar más allá
de lo que pueden los humanos, -
0:57 - 0:58como ya hemos visto en el Go,
-
0:58 - 1:01si también tienen acceso
a más información, -
1:01 - 1:04serán capaces de tomar
mejores decisiones en el mundo real -
1:04 - 1:05que nosotros.
-
1:07 - 1:08¿Es eso bueno?
-
1:10 - 1:12Bueno, espero que sí.
-
1:15 - 1:18Toda nuestra civilización,
todo lo que valoramos, -
1:18 - 1:20se basa en nuestra inteligencia.
-
1:20 - 1:24Y si tuviéramos acceso
a mucha más inteligencia, -
1:24 - 1:27entonces no existirían límites
para lo que la raza humana pueda hacer. -
1:29 - 1:31Y creo que este podría ser,
como han dicho algunos, -
1:31 - 1:34el mayor acontecimiento
de la historia de la humanidad. -
1:37 - 1:39Entonces, ¿por qué la gente afirma
cosas como esta? -
1:40 - 1:43Que la inteligencia artificial podría
significar el fin de la raza humana. -
1:43 - 1:45¿Es esto algo nuevo?
-
1:45 - 1:49¿Se trata solo de Elon Musk
y Bill Gates y Stephen Hawking? -
1:50 - 1:53En realidad, no. Esta idea no es nueva.
-
1:53 - 1:55He aquí una cita:
-
1:55 - 2:00"Incluso si pudiéramos mantener las
máquinas en una posición servil, -
2:00 - 2:03por ejemplo, desconectándolas
en momentos estratégicos" -
2:03 - 2:06--volveré a esa idea de
"quitar la corriente" más adelante-- -
2:06 - 2:09"deberíamos, como especie,
sentirnos humillados". -
2:10 - 2:14¿Quién dijo esto?
Este es Alan Turing, en 1951. -
2:14 - 2:17Alan Turing, como Uds. saben,
es el padre de la informática -
2:17 - 2:20y en muchos sentidos
también el padre de la IA. -
2:21 - 2:23Así que si pensamos en este problema,
-
2:23 - 2:27el problema de crear algo
más inteligente que tu propia especie, -
2:27 - 2:30podríamos llamar a esto
"el problema del gorila". -
2:30 - 2:34Porque los antepasados de los gorilas
hicieron esto hace unos millones de años, -
2:34 - 2:36y ahora podríamos
preguntar a los gorilas: -
2:37 - 2:38¿Fue una buena idea?
-
2:38 - 2:42Aquí están, reunidos para discutir
si fue una buena idea, -
2:42 - 2:45y pasado un tiempo concluyen que no.
-
2:45 - 2:46Fue una idea terrible.
-
2:46 - 2:48Nuestra especie está en apuros.
-
2:49 - 2:53De hecho, pueden ver
la tristeza existencial en sus ojos. -
2:53 - 2:54(Risas)
-
2:54 - 2:58Así que esta sensación mareante
de que crear algo más inteligente -
2:58 - 3:02que tu propia especie
tal vez no sea buena idea... -
3:02 - 3:04¿Qué podemos hacer al respecto?
-
3:04 - 3:09Bueno, nada en realidad,
excepto dejar de hacer IA. -
3:09 - 3:11Y por todos los beneficios
que he mencionado -
3:11 - 3:13y porque soy un investigador de IA,
-
3:13 - 3:15no voy a tomar eso.
-
3:15 - 3:18Sin duda quiero seguir creando IA.
-
3:19 - 3:21Así que necesitamos precisar
el problema un poco más. -
3:21 - 3:23¿Cuál es el problema?
-
3:23 - 3:26¿Por qué tener mejor IA
puede ser una catástrofe? -
3:27 - 3:29Aquí hay otra cita:
-
3:30 - 3:32"Más nos vale estar seguros
de que el propósito -
3:32 - 3:35que introducimos en la máquina
es el que de verdad deseamos". -
3:36 - 3:39Esto fue dicho por Norbert Wiener en 1960,
-
3:39 - 3:43poco después de ver a uno de
los primeros sistemas de aprendizaje -
3:43 - 3:46aprender a jugar a las damas
mejor que su creador. -
3:49 - 3:52Pero esto podría haberlo dicho
de igual modo el Rey Midas. -
3:52 - 3:56El Rey Midas dijo, "Deseo que todo
lo que toque se convierta en oro". -
3:56 - 3:59Y obtuvo justo lo que pidió.
-
3:59 - 4:02Fue el propósito que introdujo
en la máquina, por así decirlo. -
4:03 - 4:06Y luego su comida, su bebida
y sus familiares se convirtieron en oro -
4:06 - 4:09y murió miserable y muerto de hambre.
-
4:10 - 4:13Así que llamaremos a esto
"el problema del rey Midas", -
4:13 - 4:16el de indicar un objetivo
que no está realmente -
4:16 - 4:19alineado con lo que de verdad queremos.
-
4:19 - 4:22En términos modernos, lo llamamos
"el problema de alineación de valor". -
4:25 - 4:29Introducir un objetivo equivocado
no es la única parte del problema. -
4:29 - 4:30Hay otra parte.
-
4:30 - 4:32Al introducir un objetivo en una máquina
-
4:32 - 4:35incluso algo tan simple como
"Trae el café", -
4:36 - 4:38la máquina se dice a sí misma,
-
4:39 - 4:41"¿Cómo podría fallar
yendo a buscar el café? -
4:41 - 4:43Alguien podría desconectarme.
-
4:43 - 4:46Vale, debo tomar medidas para evitarlo.
-
4:46 - 4:48Desactivaré mi interruptor de 'apagado'.
-
4:48 - 4:51Haré cualquier cosa para protegerme
de interferencias -
4:51 - 4:54con este objetivo que me han dado.
-
4:54 - 4:56Así que esta persecución obsesiva
-
4:57 - 5:00de un modo muy defensivo
para lograr un objetivo -
5:00 - 5:02que no está alineado
con los verdaderos objetivos -
5:02 - 5:04de la raza humana...
-
5:04 - 5:06ese es el problema
al que nos enfrentamos. -
5:07 - 5:11Y de hecho esa es la lección
más valiosa de esta charla. -
5:12 - 5:14Si quieren recordar una cosa
-
5:14 - 5:17es que no se puede ir a buscar
el café si se está muerto. -
5:17 - 5:18(Risas)
-
5:18 - 5:21Es muy simple. Solo recuerden eso.
Repítanlo tres veces al día. -
5:22 - 5:23(Risas)
-
5:23 - 5:26Y de hecho, este es el mismo argumento
-
5:26 - 5:29de "2001: [Una odisea del espacio]".
-
5:29 - 5:31HAL tiene un objetivo, una misión,
-
5:31 - 5:35que no está alineada
con los objetivos de los humanos, -
5:35 - 5:37y eso conduce a este conflicto.
-
5:37 - 5:40Por suerte HAL no es superinteligente.
-
5:40 - 5:43Es bastante inteligente,
pero llegado el momento, -
5:43 - 5:46Dave lo supera y logra apagarlo.
-
5:50 - 5:52Pero tal vez no tengamos tanta suerte.
-
5:56 - 5:58Entonces, ¿qué vamos a hacer?
-
6:00 - 6:03Estoy tratando de redefinir la IA
-
6:03 - 6:05para alejarnos de esta noción clásica
-
6:05 - 6:10de máquinas que persiguen objetivos
de manera inteligente. -
6:11 - 6:13Hay tres principios implicados.
-
6:13 - 6:16El primero es un principio
de altruismo, por así decirlo, -
6:16 - 6:19el único objetivo del robot
-
6:19 - 6:23es maximizar la realización
de los objetivos humanos, -
6:23 - 6:25de los valores humanos.
-
6:25 - 6:28Y por valores aquí no me refiero
a valores sentimentales o de bondad. -
6:28 - 6:32Solo quiero decir aquello
más similar a la vida -
6:32 - 6:33que un humano preferiría.
-
6:35 - 6:37Y esto viola la ley de Asimov
-
6:37 - 6:40de que el robot debe proteger
su propia existencia. -
6:40 - 6:44No tiene ningún interés en preservar
su existencia en absoluto. -
6:45 - 6:49La segunda ley es una ley
de humildad, digamos. -
6:50 - 6:54Y resulta muy importante
para que los robots sean seguros. -
6:54 - 6:57Dice que el robot no sabe
-
6:57 - 6:59cuáles son esos valores humanos,
-
6:59 - 7:02así que debe maximizarlos,
pero no sabe lo que son. -
7:03 - 7:06Lo cual evita el problema
de la búsqueda obsesiva -
7:06 - 7:07de un objetivo.
-
7:07 - 7:09Esta incertidumbre resulta crucial.
-
7:10 - 7:11Claro que para sernos útiles,
-
7:11 - 7:14deben tener alguna idea
de lo que queremos. -
7:15 - 7:21Obtiene esa información sobre todo
observando elecciones humanas, -
7:21 - 7:23para que nuestras propias
decisiones revelen información -
7:23 - 7:27sobre lo que nosotros preferimos
para nuestras vidas. -
7:29 - 7:30Estos son los tres principios.
-
7:30 - 7:33Veamos cómo se aplica a esta cuestión
-
7:33 - 7:35de "apagar la máquina",
como sugirió Turing. -
7:37 - 7:39He aquí un robot PR2.
-
7:39 - 7:41Es uno que tenemos
en nuestro laboratorio, -
7:41 - 7:44y tiene un gran botón rojo de 'apagado'
en la parte posterior. -
7:45 - 7:47La pregunta es: ¿Va a
dejar que lo apaguen? -
7:47 - 7:49Si lo hacemos a la manera clásica,
-
7:49 - 7:52le damos el objetivo de traer
el café. "Debo traer el café. -
7:52 - 7:55No puedo traer el café
si estoy muerto". -
7:55 - 7:58Obviamente el PR2
ha escuchado mi charla, -
7:58 - 8:00y por tanto, decide
-
8:00 - 8:03"Debo inhabilitar mi botón de 'apagado'".
-
8:03 - 8:06"Y probablemente electrocutar
al resto de personas en el Starbucks -
8:06 - 8:07que podrían interferir".
-
8:07 - 8:09(Risas)
-
8:09 - 8:12Así que esto parece ser
inevitable, ¿verdad? -
8:12 - 8:14Este tipo de error
parece ser inevitable, -
8:14 - 8:18y sucede por tener
un objetivo concreto, definido. -
8:19 - 8:22Entonces, ¿qué pasa si la máquina
no tiene claro el objetivo? -
8:22 - 8:24Bueno, razona de una manera diferente.
-
8:24 - 8:29Dice, "El humano podría desconectarme,
pero solo si hago algo malo. -
8:30 - 8:34No tengo claro lo que es malo
pero sé que no quiero hacerlo". -
8:34 - 8:36Ahí están el primer
y el segundo principio. -
8:37 - 8:41"Así que debería dejar
que el humano me desconecte". -
8:42 - 8:45De hecho se puede calcular
el incentivo que tiene el robot -
8:45 - 8:48para permitir que el humano lo apague.
-
8:48 - 8:51Y está directamente ligado
al grado de incertidumbre -
8:51 - 8:53sobre el objetivo subyacente.
-
8:53 - 8:57Y entonces cuando la máquina está apagada,
-
8:57 - 8:59el tercer principio entra en juego.
-
8:59 - 9:02Aprende algo sobre los objetivos
que debe perseguir, -
9:02 - 9:04porque aprende que
lo que hizo no estaba bien. -
9:04 - 9:08De hecho, podemos, con el uso adecuado
de los símbolos griegos, -
9:08 - 9:10como suelen hacer los matemáticos,
-
9:10 - 9:12podemos probar un teorema
-
9:12 - 9:16que dice que tal robot es probablemente
beneficioso para el humano. -
9:16 - 9:20Se está demostrablemente mejor con
una máquina que se diseña de esta manera -
9:20 - 9:21que sin ella.
-
9:21 - 9:24Este es un ejemplo muy simple,
pero este es el primer paso -
9:24 - 9:28en lo que estamos tratando de hacer
con IA compatible con humanos. -
9:31 - 9:34Ahora, este tercer principio,
-
9:34 - 9:37es probablemente el que está haciendo
que se rasquen la cabeza. -
9:37 - 9:40Probablemente piensen:
"Yo me comporto mal. -
9:40 - 9:43No quiero que mi robot
se comporte como yo. -
9:43 - 9:46Me escabullo en mitad de la noche
y tomo cosas de la nevera, -
9:46 - 9:48hago esto y hago aquello".
-
9:48 - 9:50Hay todo tipo de cosas que no
quieres que haga el robot. -
9:51 - 9:53Pero lo cierto es que
no funciona así. -
9:53 - 9:55Solo porque uno se comporte mal
-
9:55 - 9:58no significa que el robot
vaya a copiar su comportamiento. -
9:58 - 10:01Va a entender sus motivaciones
y tal vez a ayudarle a resistirlas, -
10:02 - 10:03si es apropiado.
-
10:04 - 10:06Pero sigue siendo difícil.
-
10:06 - 10:09Lo que estamos tratando
de hacer, de hecho, -
10:09 - 10:13es permitir que las máquinas predigan
para cualquier persona -
10:13 - 10:16y para cualquier vida posible
que podrían vivir, -
10:16 - 10:17y las vidas de todos los demás
-
10:17 - 10:20lo que preferirían.
-
10:22 - 10:25Y hay muchas, muchas
dificultades ligadas a hacer esto. -
10:25 - 10:28No espero que vaya a resolverse pronto.
-
10:28 - 10:31Las verdaderas dificultades,
de hecho, somos nosotros. -
10:32 - 10:35Como ya he mencionado,
nos comportamos mal. -
10:35 - 10:38De hecho, algunos de nosotros
somos francamente desagradables. -
10:38 - 10:41Como he dicho, el robot
no tiene que copiar el comportamiento. -
10:42 - 10:44El robot no tiene ningún objetivo propio.
-
10:44 - 10:46Es puramente altruista.
-
10:47 - 10:53Y no está diseñado solo para satisfacer
los deseos de una persona, el usuario, -
10:53 - 10:56sino que tiene que respetar
las preferencias de todos. -
10:57 - 11:00Así que puede lidiar
con cierta cantidad de maldad, -
11:00 - 11:04e incluso puede entender
que su maldad, por ejemplo... -
11:04 - 11:06Ud. puede aceptar sobornos
como controlador de pasaportes -
11:06 - 11:10porque necesita alimentar a su familia
y que sus hijos vayan a la escuela. -
11:10 - 11:13Puede entender eso;
no significa que vaya a robar. -
11:13 - 11:16De hecho, solo le ayudará
a que sus hijos vayan al colegio. -
11:17 - 11:20También estamos limitados
computacionalmente. -
11:20 - 11:23Lee Sedol es un jugador brillante de Go,
-
11:23 - 11:24pero aun así perdió.
-
11:24 - 11:28Si nos fijamos en sus acciones,
tomó una decisión que le hizo perder. -
11:28 - 11:30Eso no significa que él quisiera perder.
-
11:31 - 11:33Así que para entender su comportamiento,
-
11:33 - 11:37en realidad tenemos que invertir,
a través de un modelo cognitivo humano -
11:37 - 11:40que incluye nuestras
limitaciones computacionales, -
11:40 - 11:42y se trata de un modelo muy complicado.
-
11:42 - 11:45Pero es algo en lo que podemos
trabajar para comprender. -
11:46 - 11:48Puede que la parte más difícil,
desde mi punto de vista -
11:48 - 11:50como investigador de IA,
-
11:50 - 11:53es el hecho de que hay muchos de nosotros,
-
11:54 - 11:57con lo cual la máquina tiene que sopesar
-
11:57 - 12:00las preferencias de mucha gente diferente.
-
12:00 - 12:02Hay diferentes maneras de hacer eso.
-
12:02 - 12:06Economistas, sociólogos,
filósofos morales han comprendido esto -
12:06 - 12:08y estamos buscando
colaboración de manera activa. -
12:08 - 12:12Vamos a ver lo que sucede
cuando esto se hace mal. -
12:12 - 12:14Ud. puede estar hablando, por ejemplo,
-
12:14 - 12:16con su asistente personal inteligente
-
12:16 - 12:18que podría estar disponible
dentro de unos años. -
12:18 - 12:21Piensen en Siri con esteroides.
-
12:22 - 12:26Siri dice "Su esposa llamó para
recordarle la cena de esta noche". -
12:27 - 12:30Por supuesto, lo había olvidado.
¿Qué cena? ¿De qué está hablando? -
12:31 - 12:33"Su 20 aniversario, a las 7pm".
-
12:37 - 12:40"No puedo, me reúno con el
secretario general a las 7:30. -
12:40 - 12:42¿Cómo ha podido suceder esto?".
-
12:42 - 12:47"Bueno, le advertí, pero ignoró
mi recomendación". -
12:47 - 12:51"¿Qué voy a hacer? No puedo decirles
que estoy demasiado ocupado". -
12:52 - 12:56"No se preocupe, he hecho
que su avión se retrase". -
12:56 - 12:58(Risas)
-
12:58 - 13:01"Algún tipo de error en el ordenador".
-
13:01 - 13:02(Risas)
-
13:02 - 13:03"¿En serio? ¿Puede hacer eso?".
-
13:04 - 13:07"Le envía sinceras disculpas
-
13:07 - 13:09y espera poder conocerle
mañana para el almuerzo". -
13:09 - 13:10(Risas)
-
13:11 - 13:15Así que los valores aquí...
aquí hay un pequeño fallo. -
13:15 - 13:18Claramente está siguiendo
los valores de mi esposa -
13:18 - 13:20que son "esposa feliz, vida feliz".
-
13:20 - 13:22(Risas)
-
13:22 - 13:23Podría suceder al revés.
-
13:24 - 13:26Podría llegar a casa
tras un duro día de trabajo, -
13:26 - 13:28y el ordenador dice "¿Un día duro?".
-
13:28 - 13:30"Sí, ni tuve tiempo de almorzar".
-
13:30 - 13:32"Debe tener mucha hambre".
-
13:32 - 13:35"Me muero de hambre, sí,
¿podría preparar algo de cena?". -
13:36 - 13:38"Hay algo que necesito decirle".
-
13:38 - 13:39(Risas)
-
13:40 - 13:45"Hay humanos en Sudán del Sur
más necesitados que Ud.". -
13:45 - 13:46(Risas)
-
13:46 - 13:48"Así que me voy, hágase su propia cena".
-
13:48 - 13:50(Risas)
-
13:51 - 13:53Así que tenemos que
resolver estos problemas, -
13:53 - 13:55y tengo ganas de trabajar en ellos.
-
13:55 - 13:57Hay razones para ser optimistas.
-
13:57 - 14:00Una razón es que hay
gran cantidad de datos -
14:00 - 14:04Recuerden, leerán todo lo que
la raza humana ha escrito. -
14:04 - 14:07La mayoría de lo que escribimos
trata sobre humanos haciendo cosas -
14:07 - 14:09y cómo estas molestan a otras personas.
-
14:09 - 14:12Así que hay muchos datos
de los que aprender. -
14:12 - 14:14También hay un fuerte incentivo económico
-
14:15 - 14:16para que esto funcione bien.
-
14:16 - 14:18Imagine que su robot
doméstico está en casa -
14:18 - 14:20Ud. llega tarde del trabajo,
-
14:20 - 14:22el robot tiene que dar
de comer a los niños, -
14:22 - 14:25los niños tienen hambre
y no hay nada en la nevera. -
14:25 - 14:27Y el robot ve al gato.
-
14:27 - 14:29(Risas)
-
14:29 - 14:33Y el robot no ha aprendido del todo bien
la función del valor humano -
14:33 - 14:34por lo que no entiende
-
14:34 - 14:39que el valor sentimental del gato supera
el valor nutricional del gato. -
14:39 - 14:40(Risas)
-
14:40 - 14:41Entonces, ¿qué pasa?
-
14:41 - 14:45Bueno, sucede lo siguiente:
-
14:45 - 14:48"Robot desquiciado cocina a un gatito
para la cena familiar". -
14:48 - 14:53Ese único incidente acabaría
con la industria de robots domésticos. -
14:53 - 14:56Así que hay un gran incentivo
para hacer esto bien. -
14:56 - 14:59mucho antes de llegar
a las máquinas superinteligentes. -
15:00 - 15:02Así que para resumir:
-
15:02 - 15:05Estoy intentando cambiar
la definición de IA -
15:05 - 15:08para que tengamos máquinas
demostrablemente beneficiosas. -
15:08 - 15:09Y los principios son:
-
15:09 - 15:10Máquinas que son altruistas,
-
15:10 - 15:13que desean lograr solo nuestros objetivos,
-
15:13 - 15:16pero que no están seguras
de cuáles son esos objetivos -
15:16 - 15:18y nos observarán a todos
-
15:18 - 15:21para aprender qué es
lo que realmente queremos. -
15:22 - 15:26Y con suerte, en el proceso,
aprenderemos a ser mejores personas. -
15:26 - 15:27Muchas gracias.
-
15:27 - 15:31(Aplausos)
-
15:31 - 15:33Chris Anderson: Muy interesante, Stuart.
-
15:33 - 15:36Vamos a estar aquí un poco
porque creo que están preparando -
15:36 - 15:37a nuestro próximo orador.
-
15:37 - 15:39Un par de preguntas.
-
15:39 - 15:44La idea de programar ignorancia
parece intuitivamente muy poderosa. -
15:44 - 15:46Al llegar a la superinteligencia,
-
15:46 - 15:48¿qué puede impedir que un robot
-
15:48 - 15:51lea literatura y descubra esta idea
de que el conocimiento -
15:51 - 15:53es mejor que la ignorancia,
-
15:53 - 15:57cambiando sus propios objetivos
y reescribiendo su programación? -
15:58 - 16:04Stuart Russell: Queremos
que aprenda más, como he dicho, -
16:04 - 16:05sobre nuestros objetivos.
-
16:05 - 16:11Solo ganará seguridad
cuanto más acierte. -
16:11 - 16:13La evidencia estará ahí,
-
16:13 - 16:16y estará diseñado para
interpretarla adecuadamente. -
16:16 - 16:20Comprenderá, por ejemplo,
que los libros son muy sesgados -
16:20 - 16:21en la evidencia que contienen.
-
16:21 - 16:24Solo hablan de reyes y príncipes
-
16:24 - 16:26y hombres blancos poderosos
haciendo cosas. -
16:26 - 16:28Es un problema complicado,
-
16:28 - 16:32pero conforme aprenda más
sobre nuestros objetivos -
16:32 - 16:34será cada vez más útil
para nosotros. -
16:34 - 16:37CA: Y no podría reducirse a una ley,
-
16:37 - 16:39ya sabe, grabada a fuego,
-
16:39 - 16:42"Si un humano alguna vez
intenta apagarme -
16:42 - 16:44yo obedezco, obedezco".
-
16:44 - 16:45SR: Absolutamente no.
-
16:45 - 16:47Sería una idea terrible.
-
16:47 - 16:50Imagine, tiene un auto que se conduce solo
-
16:50 - 16:53y quiere llevar a su hijo de cinco años
al jardín de infancia. -
16:53 - 16:56¿Quiere que su hijo de cinco años pueda
apagar el coche mientras conduce? -
16:56 - 16:58Probablemente no.
-
16:58 - 17:03Por tanto necesita entender
cuán racional y sensata es la persona. -
17:03 - 17:05Cuanto más racional sea la persona,
-
17:05 - 17:07más dispuesto estará
a dejar que lo apaguen. -
17:07 - 17:10Si la persona es impredecible
o incluso malintencionada -
17:10 - 17:12estará menos dispuesto
a permitir que lo apaguen. -
17:12 - 17:14CA: Stuart, permítame decir
-
17:14 - 17:16que de veras espero que resuelva esto
por todos nosotros. -
17:16 - 17:19Muchas gracias por su charla.
Ha sido increíble, gracias. -
17:19 - 17:21(Aplausos)
- Title:
- Cómo la IA puede hacernos mejores personas
- Speaker:
- Stuart Russell
- Description:
-
¿Cómo podemos aprovechar el poder de la inteligencia súper inteligente mientras también evitamos la catástrofe de la toma de control robótica? A medida que avanzamos hacia la creación de máquinas de todo conocimiento, el pionero de la inteligencia artificial Stuart Russell está trabajando en algo un poco diferente: los robots con incertidumbre. Escuche su visión de la IA compatible con humanos que puede resolver problemas usando el sentido común, el altruismo y otros valores humanos.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:35
Ciro Gomez approved Spanish subtitles for How AI might make us better people | ||
Ciro Gomez edited Spanish subtitles for How AI might make us better people | ||
Marta Palacio accepted Spanish subtitles for How AI might make us better people | ||
Marta Palacio edited Spanish subtitles for How AI might make us better people | ||
Marta Palacio edited Spanish subtitles for How AI might make us better people | ||
Marta Palacio edited Spanish subtitles for How AI might make us better people | ||
Marta Palacio edited Spanish subtitles for How AI might make us better people | ||
Marta Palacio edited Spanish subtitles for How AI might make us better people |