¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros?
-
0:01 - 0:05Yo trabajo con un grupo de matemáticos,
filósofos y científicos informáticos, -
0:05 - 0:10y nos juntamos para pensar en
el futuro de la inteligencia artificial, -
0:10 - 0:12entre otras cosas.
-
0:12 - 0:17Algunos piensan que estas cosas
son una especie de ciencia ficción -
0:17 - 0:20alocadas y alejadas de la verdad.
-
0:20 - 0:21Pero bueno, me gusta sugerir
-
0:21 - 0:25que analicemos la
condición humana moderna. -
0:25 - 0:27(Risas)
-
0:27 - 0:29Así es cómo tienen que ser las cosas.
-
0:29 - 0:31Pero si lo pensamos,
-
0:31 - 0:35en realidad acabamos de llegar
a este planeta, -
0:35 - 0:37nosotros, la especie humana.
-
0:37 - 0:41Piensen que si la Tierra
hubiera sido creada hace un año, -
0:41 - 0:45entonces la raza humana
solo tendría 10 minutos de edad -
0:45 - 0:48y la era industrial habría empezado
hace dos segundos. -
0:49 - 0:54Otra forma de abordar esto es pensar en
el PIB mundial en los últimos 10 000 años, -
0:54 - 0:58y de hecho, me he tomado la molestia
de representarlo en un gráfico para Uds. -
0:58 - 0:59Se ve así.
-
0:59 - 1:00(Risas)
-
1:00 - 1:03Tiene una forma curiosa para ser normal.
-
1:03 - 1:05Y seguro que no me gustaría
sentarme en ella. -
1:05 - 1:07(Risas)
-
1:07 - 1:12Preguntémonos ¿cuál es la
causa de esta anomalía actual? -
1:12 - 1:14Algunas personas dirán
que es la tecnología. -
1:14 - 1:19Ahora bien es cierto que la tecnología
ha aumentado a lo largo de la historia, -
1:19 - 1:24y en la actualidad avanza muy rápidamente
-
1:24 - 1:25--esa es la causa inmediata--
-
1:25 - 1:28y por esto la razón de ser
muy productivos hoy en día. -
1:28 - 1:32Pero me gusta indagar más allá,
buscar la causa de todo. -
1:33 - 1:37Miren a estos 2 caballeros
muy distinguidos: -
1:37 - 1:38Tenemos a Kanzi,
-
1:38 - 1:43que domina 200 unidades léxicas,
una hazaña increíble, -
1:43 - 1:47y a Ed Witten que desató la segunda
revolución de las supercuerdas. -
1:47 - 1:49Si miramos atentamente
esto es lo que encontramos: -
1:49 - 1:51básicamente la misma cosa.
-
1:51 - 1:53Uno es un poco más grande,
-
1:53 - 1:56y puede que también tenga algunos trucos
más por la forma en que está diseñado, -
1:56 - 2:00sin embargo, estas diferencias invisibles
no pueden ser demasiado complicadas -
2:00 - 2:03porque solo nos separan
250 000 generaciones -
2:03 - 2:05de nuestro último ancestro común.
-
2:05 - 2:09Sabemos que los mecanismos complicados
tardan mucho tiempo en evolucionar -
2:10 - 2:12así que una serie de pequeños cambios
-
2:12 - 2:16nos lleva de Kanzi a Witten,
-
2:16 - 2:20de las ramas de árboles rotas a
los misiles balísticos intercontinentales. -
2:21 - 2:25Así que parece bastante claro
que todo lo que hemos logrado, -
2:25 - 2:26y todo lo que nos importa,
-
2:26 - 2:30depende fundamentalmente de algunos
cambios relativamente menores -
2:30 - 2:31sufridos por la mente humana.
-
2:33 - 2:36Y el corolario es que, por supuesto,
cualquier cambio ulterior -
2:36 - 2:40que cambiara significativamente
el fundamento del pensamiento -
2:40 - 2:43podría potencialmente acarrear
enormes consecuencias. -
2:44 - 2:47Algunos de mis colegas
piensan que estamos muy cerca -
2:47 - 2:51de algo que podría causar un cambio
significativo en ese fundamento -
2:51 - 2:54y que eso es la máquina superinteligente.
-
2:54 - 2:59La inteligencia artificial solía ser
la integración de comandos en una caja, -
2:59 - 3:01con programadores humanos
-
3:01 - 3:04que elaboraban conocimiento
minuciosamente a mano. -
3:04 - 3:06Se construían
estos sistemas especializados -
3:06 - 3:08y eran bastante útiles
para ciertos propósitos, -
3:08 - 3:11pero eran muy frágiles
y no se podían ampliar. -
3:11 - 3:14Básicamente, se conseguía solamente
lo que se invertía en ellos. -
3:14 - 3:15Pero desde entonces,
-
3:15 - 3:19hubo un cambio de paradigma en
el campo de la inteligencia artificial. -
3:19 - 3:23Hoy, la acción gira en torno
al aprendizaje máquina. -
3:23 - 3:26Así que en lugar de
producir características -
3:26 - 3:29y representar el conocimiento
de manera artesanal, -
3:29 - 3:34creamos algoritmos que aprenden a menudo
a partir de datos de percepción en bruto. -
3:34 - 3:39Básicamente lo mismo
que hace el bebé humano. -
3:39 - 3:43El resultado es inteligencia artificial
que no se limita a un solo campo; -
3:43 - 3:48el mismo sistema puede aprender
a traducir entre cualquier par de idiomas -
3:48 - 3:53o aprender a jugar a cualquier juego
de ordenador en la consola Atari. -
3:53 - 3:55Ahora, por supuesto,
-
3:55 - 3:59la IA está todavía muy lejos de tener el
mismo poder y alcance interdisciplinario -
3:59 - 4:02para aprender y planificar
como lo hacen los humanos. -
4:02 - 4:05La corteza cerebral aún esconde
algunos trucos algorítmicos -
4:05 - 4:08que todavía no sabemos
cómo simular en las máquinas. -
4:08 - 4:10Así que la pregunta es,
-
4:10 - 4:13¿cuánto nos falta para poder
implementar esos trucos? -
4:14 - 4:15Hace un par de años
-
4:15 - 4:18hicimos una encuesta entre los expertos
de IA más importantes del mundo -
4:18 - 4:22para ver lo que piensan, y una
de las preguntas que hicimos fue, -
4:22 - 4:25"¿En qué año crees que habrá
un 50 % de probabilidad en elevar -
4:25 - 4:28la inteligencia artificial al mismo nivel
que la inteligencia humana?" -
4:29 - 4:33Donde hemos definido ese nivel
como la capacidad de realizar -
4:33 - 4:36casi todas las tareas, al menos así
como las desarrolla un humano adulto, -
4:36 - 4:40por lo cual, un nivel real no solo
dentro de un área limitada. -
4:40 - 4:43Y la respuesta fue
alrededor de 2040 o 2050, -
4:43 - 4:46dependiendo del grupo
de expertos consultados. -
4:46 - 4:50Ahora, puede ocurrir
mucho más tarde o más temprano, -
4:50 - 4:53la verdad es que nadie lo sabe realmente.
-
4:53 - 4:58Lo que sí sabemos es que el umbral
en el procesamiento de información -
4:58 - 5:00en una infraestructura artificial
-
5:00 - 5:03se encuentra mucho más allá de
los límites del tejido biológico. -
5:03 - 5:06Esto pertenece al campo de la física.
-
5:06 - 5:10Una neurona biológica manda impulsos
quizá a 200 Hertz, 200 veces por segundo. -
5:10 - 5:14mientras que incluso hoy, un transistor
opera a la frecuencia de los gigahercios. -
5:14 - 5:17Las neuronas propagan el impulso
lentamente a lo largo de los axones, -
5:17 - 5:19a máximo 100 metros por segundo.
-
5:19 - 5:23Pero en las computadoras, las señales
pueden viajar a la velocidad de la luz. -
5:23 - 5:25También hay limitaciones de tamaño,
-
5:25 - 5:28como el cerebro humano que tiene
que encajar dentro del cráneo, -
5:28 - 5:33pero una computadora puede ser del
tamaño de un almacén o aún más grande. -
5:33 - 5:36Así que el potencial de
la máquina superinteligente -
5:36 - 5:38permanece latente en la materia,
-
5:38 - 5:44al igual que el poder atómico
a lo largo de toda la historia -
5:44 - 5:48que esperó pacientemente hasta 1945.
-
5:48 - 5:52De cara a este siglo los científicos
pueden aprender a despertar -
5:52 - 5:54el poder de la inteligencia artificial
-
5:54 - 5:58y creo que podríamos ser testigos
de una explosión de inteligencia. -
5:58 - 6:02Cuando la mayoría de la gente piensa
en lo inteligente o lo tonto -
6:02 - 6:05creo que tienen en mente
una imagen más o menos así. -
6:05 - 6:08En un extremo tenemos
al tonto del pueblo, -
6:08 - 6:10y lejos en el otro extremo,
-
6:10 - 6:15tenemos a Ed Witten o a Albert Einstein,
o quien sea su gurú favorito. -
6:15 - 6:19Pero creo que desde el punto de
vista de la inteligencia artificial, -
6:19 - 6:23lo más probable es que la imagen
real sea la siguiente: -
6:23 - 6:27Se empieza en este punto aquí,
en ausencia de inteligencia -
6:27 - 6:30y luego, después de muchos,
muchos años de trabajo muy arduo, -
6:30 - 6:33quizá finalmente lleguemos
al nivel intelectual de un ratón, -
6:33 - 6:36algo que puede navegar
entornos desordenados -
6:36 - 6:38igual que un ratón.
-
6:38 - 6:40Y luego, después de muchos,
muchos más años -
6:40 - 6:42de trabajo muy arduo,
de mucha inversión, -
6:42 - 6:47tal vez alcancemos el nivel de
inteligencia de un chimpancé. -
6:47 - 6:50Y luego, después de más años
de trabajo muy, muy arduo -
6:50 - 6:53alcancemos la inteligencia artificial
del tonto del pueblo. -
6:53 - 6:56Un poco más tarde,
estaremos más allá de Ed Witten. -
6:56 - 6:59El tren del progreso no se detiene
en la estación de los Humanos. -
6:59 - 7:02Es probable que más bien,
pase volando. -
7:02 - 7:04Esto tiene profundas consecuencias,
-
7:04 - 7:08especialmente si se trata de poder.
-
7:08 - 7:10Por ejemplo, los chimpancés son fuertes.
-
7:10 - 7:15Un chimpancé es dos veces más fuerte
y en mejor forma física que un hombre -
7:15 - 7:20y, sin embargo, el destino de Kanzi
y sus amigos depende mucho más -
7:20 - 7:24de lo que hacemos los humanos
que de lo que ellos mismos hacen. -
7:25 - 7:28Una vez que hay superinteligencia,
-
7:28 - 7:31el destino de la humanidad dependerá
de lo que haga la superinteligencia. -
7:32 - 7:34Piensen en esto:
-
7:34 - 7:36la máquina inteligente
es el último invento -
7:36 - 7:39que la humanidad jamás
tendrá que realizar. -
7:39 - 7:42Las máquinas serán entonces
mejores inventores que nosotros, -
7:42 - 7:44y lo harán a escala
de tiempo digital -
7:44 - 7:49lo que significa básicamente
que acelerarán la cercanía al futuro. -
7:49 - 7:53Piensen en todas las tecnologías
que tal vez, en su opinión, -
7:53 - 7:56los humanos pueden desarrollar
con el paso del tiempo: -
7:56 - 7:59tratamientos para el envejecimiento,
la colonización del espacio, -
7:59 - 8:02nanobots autoreplicantes,
mentes integradas en las computadoras, -
8:02 - 8:04todo tipo de ciencia-ficción
-
8:04 - 8:07y sin embargo en consonancia
con las leyes de la física. -
8:07 - 8:10Todo esta superinteligencia
podría desarrollarse -
8:10 - 8:11y posiblemente
con bastante rapidez. -
8:12 - 8:16Ahora, una superinteligencia
con tanta madurez tecnológica -
8:16 - 8:18sería extremadamente poderosa,
-
8:18 - 8:23y con la excepción de algunos casos
sería capaz de conseguir lo que quiere. -
8:23 - 8:28Nuestro futuro se determinaría
por las preferencias de esta IA. -
8:30 - 8:34Y una buena pregunta es
¿cuáles son esas preferencias? -
8:34 - 8:36Aquí se vuelve más complicado.
-
8:36 - 8:37Para avanzar con esto,
-
8:37 - 8:41debemos en primer lugar
evitar el antropomorfismo. -
8:42 - 8:47Y esto es irónico porque cada artículo
de prensa sobre el futuro de la IA -
8:47 - 8:49presenta una imagen como esta:
-
8:51 - 8:54Así que creo que tenemos que
pensar de manera más abstracta, -
8:54 - 8:57no según escenarios
entretenidos de Hollywood. -
8:57 - 9:01Tenemos que pensar en la inteligencia
como un proceso de optimización -
9:01 - 9:06un proceso que dirige el futuro hacia un
conjunto especifico de configuraciones. -
9:06 - 9:10Un superinteligencia es un proceso
de optimización realmente potente. -
9:10 - 9:13Es muy bueno en el uso
de recursos disponibles -
9:13 - 9:16para lograr un estado óptimo
y alcanzar su objetivo. -
9:16 - 9:19Esto significa que no hay
ningún vínculo necesario -
9:19 - 9:22entre ser muy inteligente en este sentido,
-
9:22 - 9:26y tener una meta que para los humanos
vale la pena o es significativa. -
9:27 - 9:31Por ejemplo, la IA podría tener el
objetivo de hacer sonreír a los humanos. -
9:31 - 9:34Cuando la IA está en desarrollo,
realiza acciones entretenidas -
9:34 - 9:37para hacer sonreír a su usuario.
-
9:37 - 9:39Cuando la IA se vuelve superinteligente,
-
9:39 - 9:43se da cuenta de que hay una manera
más eficaz para lograr su objetivo: -
9:43 - 9:44tomar el control del mundo
-
9:44 - 9:48e introducir electrodos en
los músculos faciales de la gente -
9:48 - 9:51para provocar sonrisas
constantes y radiantes. -
9:51 - 9:52Otro ejemplo,
-
9:52 - 9:55supongamos que le damos el objetivo de
resolver un problema matemático difícil. -
9:55 - 9:57Cuando la IA se vuelve superinteligente,
-
9:57 - 10:01se da cuenta de que la forma más eficaz
para conseguir la solución a este problema -
10:01 - 10:04es mediante la transformación
del planeta en un computador gigante, -
10:04 - 10:07para aumentar su capacidad de pensar.
-
10:07 - 10:10Y tengan en cuenta que esto da
a la IA una razón instrumental -
10:10 - 10:12para hacer cosas que nosotros
no podemos aprobar. -
10:12 - 10:14Los seres humanos
se convierten en una amenaza, -
10:14 - 10:17ya que podríamos evitar
que el problema se resuelva. -
10:17 - 10:21Por supuesto, las cosas no tienen
necesariamente que pasar de esa manera: -
10:21 - 10:22son ejemplos de muestra.
-
10:22 - 10:24Pero lo importante,
-
10:24 - 10:27si crean un proceso
de optimización muy potente, -
10:27 - 10:30optimizado para lograr el objetivo X,
-
10:30 - 10:32más vale asegurarse
de que la definición de X -
10:32 - 10:34incluye todo lo que importa.
-
10:35 - 10:39Es una moraleja que también
se enseña a través de varios mitos. -
10:39 - 10:45El rey Midas deseaba convertir
en oro todo lo que tocaba. -
10:45 - 10:47Toca a su hija
y ella se convierte en oro. -
10:47 - 10:50Toca su comida, se convierte en oro.
-
10:50 - 10:53Es un ejemplo relevante
-
10:53 - 10:56no solo de una metáfora de
la codicia sino como ilustración -
10:56 - 10:59de lo que sucede si crean
un proceso de optimización potente -
10:59 - 11:04pero le encomiendan objetivos
incomprensibles o sin claridad. -
11:04 - 11:05Uno puede pensar:
-
11:05 - 11:10"Si una computadora empieza a poner
electrodos en la cara de la gente -
11:10 - 11:12bastaría simplemente con apagarla.
-
11:13 - 11:15En primer lugar, puede
que no sea tan sencillo -
11:15 - 11:18si somos dependientes del sistema
-
11:18 - 11:21por ejemplo: ¿dónde está el botón
para apagar Internet? -
11:21 - 11:23En segundo lugar,
¿por qué los chimpancés -
11:23 - 11:27no tienen acceso al mismo interruptor
de la humanidad, o los neandertales? -
11:27 - 11:30Sin duda razones tendrían.
-
11:30 - 11:33Tenemos un interruptor de apagado,
por ejemplo, aquí mismo. -
11:33 - 11:34(Finge estrangulación)
-
11:34 - 11:37La razón es que somos
un adversario inteligente; -
11:37 - 11:40podemos anticipar amenazas
y planificar en consecuencia, -
11:40 - 11:42pero también podría hacerlo
un agente superinteligente, -
11:42 - 11:46y mucho mejor que nosotros.
-
11:46 - 11:49El tema es que no debemos confiar
-
11:51 - 11:53que podemos controlar esta situación.
-
11:53 - 11:56Y podríamos tratar de hacer nuestro
trabajo un poco más fácil digamos, -
11:56 - 12:00poniendo a la IA en una caja,
en un entorno de software seguro, -
12:00 - 12:03una simulación de realidad virtual
de la que no pueda escapar. -
12:03 - 12:07Pero, ¿cómo podemos estar seguros
de que la IA no encontrará un error? -
12:07 - 12:10Dado que incluso los hackers humanos
encuentran errores todo el tiempo, -
12:10 - 12:13yo diría que probablemente,
no podemos estar muy seguros. -
12:14 - 12:19Así que desconectamos el cable ethernet
para crear un espacio vacío, -
12:19 - 12:21pero una vez más, al igual
que los hackers humanos, -
12:21 - 12:25podrían superar estos espacios
usando la ingeniería social. -
12:25 - 12:26Ahora mismo, mientras hablo,
-
12:26 - 12:29estoy seguro de que algún
empleado, en algún lugar -
12:29 - 12:32ha sido convencido para revelar
los detalles de su cuenta -
12:32 - 12:35por alguien que dice ser
del departamento de IT. -
12:35 - 12:37Otros escenarios creativos
también son posibles, -
12:37 - 12:38por ejemplo si Ud. es la IA,
-
12:38 - 12:42puede hacer cambios en los electrodos
de su circuito interno de seguridad -
12:42 - 12:45para crear ondas de radio y
usarlas para comunicarse. -
12:45 - 12:47O tal vez fingir un mal funcionamiento,
-
12:47 - 12:51y cuando los programadores
lo abren para entender qué está mal, -
12:51 - 12:53al mirar el código fuente, ¡pum!
-
12:53 - 12:55ya empieza a manipular.
-
12:55 - 12:59O podría idear un programa
tecnológico realmente ingenioso, -
12:59 - 13:00y cuando lo implementamos,
-
13:00 - 13:05tener efectos secundarios
ocultos planeados por la IA. -
13:05 - 13:08No debemos confiar en nuestra capacidad
-
13:08 - 13:12para mantener un genio superinteligente
encerrado en su lámpara para siempre. -
13:12 - 13:14Tarde o temprano, saldrá.
-
13:15 - 13:20Creo que la solución es averiguar
cómo crear una IA superinteligente -
13:20 - 13:24para que incluso si, o cuando
se escape, sea todavía segura -
13:24 - 13:28para que fundamentalmente esté de
nuestro lado y comparta nuestros valores. -
13:28 - 13:32No veo cómo evitar
este problema difícil. -
13:33 - 13:37En realidad soy bastante optimista de
que este problema pueda ser resuelto. -
13:37 - 13:40No tendríamos que escribir una larga
lista de todo lo que nos importa, -
13:40 - 13:44o, peor aún, codificarla
en algún lenguaje informático -
13:44 - 13:45como C++ o Python,
-
13:45 - 13:48sería una reto imposible.
-
13:48 - 13:52A cambio, crearíamos una IA
que use su inteligencia -
13:52 - 13:55para aprender lo que valoramos,
-
13:55 - 13:58y su sistema integrado
de motivación sería diseñado -
14:00 - 14:02para defender nuestros valores
-
14:02 - 14:06y realizar acciones
que se ajusten a ellos. -
14:06 - 14:09Así que usaríamos su inteligencia
tanto como fuera posible -
14:09 - 14:12para resolver el problema
de la atribución de valores. -
14:13 - 14:14Esto puede suceder,
-
14:14 - 14:18y el resultado podría ser
muy bueno para la humanidad. -
14:18 - 14:22Pero no sucede automáticamente.
-
14:22 - 14:25Las condiciones iniciales
para la explosión de la inteligencia -
14:25 - 14:28necesitan ser perfectamente definidas
-
14:28 - 14:31si queremos contar con
una detonación controlada. -
14:31 - 14:34Los valores de la IA tienen
que coincidir con los nuestros -
14:34 - 14:35no solo en el ámbito familiar,
-
14:35 - 14:38donde podemos comprobar
fácilmente cómo se comporta, -
14:38 - 14:41sino también en todos los nuevos contextos
-
14:41 - 14:44donde la IA podría encontrarse
en un futuro indefinido. -
14:44 - 14:48Y también hay algunas cuestiones
esotéricas que habría que resolver: -
14:48 - 14:50los detalles exactos de
su teoría de la decisión, -
14:50 - 14:52cómo manejar la incertidumbre lógica, etc.
-
14:53 - 14:56Así que los problemas
técnicos que hay que resolver -
14:56 - 14:58para hacer este trabajo
parecen muy difíciles -
14:58 - 15:01--no tan difíciles como crear
una IA superinteligente-- -
15:01 - 15:03pero bastante difíciles.
-
15:04 - 15:05Este es la preocupación:
-
15:06 - 15:09crear una IA superinteligente
es un reto muy difícil -
15:10 - 15:13y crear una que sea segura
-
15:13 - 15:15implica desafíos adicionales.
-
15:17 - 15:20El riesgo es si alguien encuentra
la manera de superar el primer reto -
15:20 - 15:25sin resolver el otro desafío
de garantizar la máxima seguridad. -
15:25 - 15:29Así que creo que deberíamos
encontrar una solución -
15:29 - 15:32al problema del control por adelantado,
-
15:32 - 15:34de modo que esté disponible
para cuando sea necesario. -
15:35 - 15:37Puede ser que no podamos
resolver por completo -
15:37 - 15:39el problema del control de antemano
-
15:39 - 15:42porque tal vez, algunos elementos
solo pueden ser desarrollados -
15:42 - 15:45después de reunir los detalles
técnicos de la IA en cuestión. -
15:45 - 15:49Pero cuanto antes solucionemos
el problema del control, -
15:49 - 15:50mayores serán las probabilidades
-
15:50 - 15:53de que la transición a la era
de las máquinas inteligentes -
15:53 - 15:54vaya bien.
-
15:54 - 15:59Esto me parece algo digno de hacer
-
15:59 - 16:02y puedo imaginar que si
las cosas salen bien, -
16:02 - 16:07la gente en un millón de años
discutirá nuestro siglo -
16:07 - 16:11y dirá que posiblemente lo único
que hicimos bien y mereció la pena -
16:11 - 16:13fue superar con éxito este reto.
-
16:13 - 16:14Gracias.
-
16:14 - 16:15(Aplausos)
- Title:
- ¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros?
- Speaker:
- Nick Bostrom
- Description:
-
La Inteligencia Artificial está dando grandes pasos: según los expertos, durante este siglo, la inteligencia artificial podría llegar a ser tan "inteligente" como un humano. Para que luego, dice Nick Bostrom, nos supere; en sus palabras, "la inteligencia artificial es el último invento que la humanidad tendrá que hacer". Filósofo y tecnólogo, Bostrom nos pide que pensemos seriamente en el mundo gobernado por máquinas pensantes que estamos construyendo. Estas máquinas inteligentes nos ayudarán a preservar nuestra humanidad y nuestros valores, ¿o tendrán sus propios valores?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Sebastian Betti edited Spanish subtitles for What happens when our computers get smarter than we are? | ||
Sebastian Betti edited Spanish subtitles for What happens when our computers get smarter than we are? | ||
Sebastian Betti edited Spanish subtitles for What happens when our computers get smarter than we are? | ||
Sebastian Betti approved Spanish subtitles for What happens when our computers get smarter than we are? | ||
Sebastian Betti edited Spanish subtitles for What happens when our computers get smarter than we are? | ||
Sebastian Betti edited Spanish subtitles for What happens when our computers get smarter than we are? | ||
Sebastian Betti accepted Spanish subtitles for What happens when our computers get smarter than we are? | ||
Sebastian Betti edited Spanish subtitles for What happens when our computers get smarter than we are? |