< Return to Video

¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros?

  • 0:01 - 0:05
    Yo trabajo con un grupo de matemáticos,
    filósofos y científicos informáticos,
  • 0:05 - 0:10
    y nos juntamos para pensar en
    el futuro de la inteligencia artificial,
  • 0:10 - 0:12
    entre otras cosas.
  • 0:12 - 0:17
    Algunos piensan que estas cosas
    son una especie de ciencia ficción
  • 0:17 - 0:20
    alocadas y alejadas de la verdad.
  • 0:20 - 0:21
    Pero bueno, me gusta sugerir
  • 0:21 - 0:25
    que analicemos la
    condición humana moderna.
  • 0:25 - 0:27
    (Risas)
  • 0:27 - 0:29
    Así es cómo tienen que ser las cosas.
  • 0:29 - 0:31
    Pero si lo pensamos,
  • 0:31 - 0:35
    en realidad acabamos de llegar
    a este planeta,
  • 0:35 - 0:37
    nosotros, la especie humana.
  • 0:37 - 0:41
    Piensen que si la Tierra
    hubiera sido creada hace un año,
  • 0:41 - 0:45
    entonces la raza humana
    solo tendría 10 minutos de edad
  • 0:45 - 0:48
    y la era industrial habría empezado
    hace dos segundos.
  • 0:49 - 0:54
    Otra forma de abordar esto es pensar en
    el PIB mundial en los últimos 10 000 años,
  • 0:54 - 0:58
    y de hecho, me he tomado la molestia
    de representarlo en un gráfico para Uds.
  • 0:58 - 0:59
    Se ve así.
  • 0:59 - 1:00
    (Risas)
  • 1:00 - 1:03
    Tiene una forma curiosa para ser normal.
  • 1:03 - 1:05
    Y seguro que no me gustaría
    sentarme en ella.
  • 1:05 - 1:07
    (Risas)
  • 1:07 - 1:12
    Preguntémonos ¿cuál es la
    causa de esta anomalía actual?
  • 1:12 - 1:14
    Algunas personas dirán
    que es la tecnología.
  • 1:14 - 1:19
    Ahora bien es cierto que la tecnología
    ha aumentado a lo largo de la historia,
  • 1:19 - 1:24
    y en la actualidad avanza muy rápidamente
  • 1:24 - 1:25
    --esa es la causa inmediata--
  • 1:25 - 1:28
    y por esto la razón de ser
    muy productivos hoy en día.
  • 1:28 - 1:32
    Pero me gusta indagar más allá,
    buscar la causa de todo.
  • 1:33 - 1:37
    Miren a estos 2 caballeros
    muy distinguidos:
  • 1:37 - 1:38
    Tenemos a Kanzi,
  • 1:38 - 1:43
    que domina 200 unidades léxicas,
    una hazaña increíble,
  • 1:43 - 1:47
    y a Ed Witten que desató la segunda
    revolución de las supercuerdas.
  • 1:47 - 1:49
    Si miramos atentamente
    esto es lo que encontramos:
  • 1:49 - 1:51
    básicamente la misma cosa.
  • 1:51 - 1:53
    Uno es un poco más grande,
  • 1:53 - 1:56
    y puede que también tenga algunos trucos
    más por la forma en que está diseñado,
  • 1:56 - 2:00
    sin embargo, estas diferencias invisibles
    no pueden ser demasiado complicadas
  • 2:00 - 2:03
    porque solo nos separan
    250 000 generaciones
  • 2:03 - 2:05
    de nuestro último ancestro común.
  • 2:05 - 2:09
    Sabemos que los mecanismos complicados
    tardan mucho tiempo en evolucionar
  • 2:10 - 2:12
    así que una serie de pequeños cambios
  • 2:12 - 2:16
    nos lleva de Kanzi a Witten,
  • 2:16 - 2:20
    de las ramas de árboles rotas a
    los misiles balísticos intercontinentales.
  • 2:21 - 2:25
    Así que parece bastante claro
    que todo lo que hemos logrado,
  • 2:25 - 2:26
    y todo lo que nos importa,
  • 2:26 - 2:30
    depende fundamentalmente de algunos
    cambios relativamente menores
  • 2:30 - 2:31
    sufridos por la mente humana.
  • 2:33 - 2:36
    Y el corolario es que, por supuesto,
    cualquier cambio ulterior
  • 2:36 - 2:40
    que cambiara significativamente
    el fundamento del pensamiento
  • 2:40 - 2:43
    podría potencialmente acarrear
    enormes consecuencias.
  • 2:44 - 2:47
    Algunos de mis colegas
    piensan que estamos muy cerca
  • 2:47 - 2:51
    de algo que podría causar un cambio
    significativo en ese fundamento
  • 2:51 - 2:54
    y que eso es la máquina superinteligente.
  • 2:54 - 2:59
    La inteligencia artificial solía ser
    la integración de comandos en una caja,
  • 2:59 - 3:01
    con programadores humanos
  • 3:01 - 3:04
    que elaboraban conocimiento
    minuciosamente a mano.
  • 3:04 - 3:06
    Se construían
    estos sistemas especializados
  • 3:06 - 3:08
    y eran bastante útiles
    para ciertos propósitos,
  • 3:08 - 3:11
    pero eran muy frágiles
    y no se podían ampliar.
  • 3:11 - 3:14
    Básicamente, se conseguía solamente
    lo que se invertía en ellos.
  • 3:14 - 3:15
    Pero desde entonces,
  • 3:15 - 3:19
    hubo un cambio de paradigma en
    el campo de la inteligencia artificial.
  • 3:19 - 3:23
    Hoy, la acción gira en torno
    al aprendizaje máquina.
  • 3:23 - 3:26
    Así que en lugar de
    producir características
  • 3:26 - 3:29
    y representar el conocimiento
    de manera artesanal,
  • 3:29 - 3:34
    creamos algoritmos que aprenden a menudo
    a partir de datos de percepción en bruto.
  • 3:34 - 3:39
    Básicamente lo mismo
    que hace el bebé humano.
  • 3:39 - 3:43
    El resultado es inteligencia artificial
    que no se limita a un solo campo;
  • 3:43 - 3:48
    el mismo sistema puede aprender
    a traducir entre cualquier par de idiomas
  • 3:48 - 3:53
    o aprender a jugar a cualquier juego
    de ordenador en la consola Atari.
  • 3:53 - 3:55
    Ahora, por supuesto,
  • 3:55 - 3:59
    la IA está todavía muy lejos de tener el
    mismo poder y alcance interdisciplinario
  • 3:59 - 4:02
    para aprender y planificar
    como lo hacen los humanos.
  • 4:02 - 4:05
    La corteza cerebral aún esconde
    algunos trucos algorítmicos
  • 4:05 - 4:08
    que todavía no sabemos
    cómo simular en las máquinas.
  • 4:08 - 4:10
    Así que la pregunta es,
  • 4:10 - 4:13
    ¿cuánto nos falta para poder
    implementar esos trucos?
  • 4:14 - 4:15
    Hace un par de años
  • 4:15 - 4:18
    hicimos una encuesta entre los expertos
    de IA más importantes del mundo
  • 4:18 - 4:22
    para ver lo que piensan, y una
    de las preguntas que hicimos fue,
  • 4:22 - 4:25
    "¿En qué año crees que habrá
    un 50 % de probabilidad en elevar
  • 4:25 - 4:28
    la inteligencia artificial al mismo nivel
    que la inteligencia humana?"
  • 4:29 - 4:33
    Donde hemos definido ese nivel
    como la capacidad de realizar
  • 4:33 - 4:36
    casi todas las tareas, al menos así
    como las desarrolla un humano adulto,
  • 4:36 - 4:40
    por lo cual, un nivel real no solo
    dentro de un área limitada.
  • 4:40 - 4:43
    Y la respuesta fue
    alrededor de 2040 o 2050,
  • 4:43 - 4:46
    dependiendo del grupo
    de expertos consultados.
  • 4:46 - 4:50
    Ahora, puede ocurrir
    mucho más tarde o más temprano,
  • 4:50 - 4:53
    la verdad es que nadie lo sabe realmente.
  • 4:53 - 4:58
    Lo que sí sabemos es que el umbral
    en el procesamiento de información
  • 4:58 - 5:00
    en una infraestructura artificial
  • 5:00 - 5:03
    se encuentra mucho más allá de
    los límites del tejido biológico.
  • 5:03 - 5:06
    Esto pertenece al campo de la física.
  • 5:06 - 5:10
    Una neurona biológica manda impulsos
    quizá a 200 Hertz, 200 veces por segundo.
  • 5:10 - 5:14
    mientras que incluso hoy, un transistor
    opera a la frecuencia de los gigahercios.
  • 5:14 - 5:17
    Las neuronas propagan el impulso
    lentamente a lo largo de los axones,
  • 5:17 - 5:19
    a máximo 100 metros por segundo.
  • 5:19 - 5:23
    Pero en las computadoras, las señales
    pueden viajar a la velocidad de la luz.
  • 5:23 - 5:25
    También hay limitaciones de tamaño,
  • 5:25 - 5:28
    como el cerebro humano que tiene
    que encajar dentro del cráneo,
  • 5:28 - 5:33
    pero una computadora puede ser del
    tamaño de un almacén o aún más grande.
  • 5:33 - 5:36
    Así que el potencial de
    la máquina superinteligente
  • 5:36 - 5:38
    permanece latente en la materia,
  • 5:38 - 5:44
    al igual que el poder atómico
    a lo largo de toda la historia
  • 5:44 - 5:48
    que esperó pacientemente hasta 1945.
  • 5:48 - 5:52
    De cara a este siglo los científicos
    pueden aprender a despertar
  • 5:52 - 5:54
    el poder de la inteligencia artificial
  • 5:54 - 5:58
    y creo que podríamos ser testigos
    de una explosión de inteligencia.
  • 5:58 - 6:02
    Cuando la mayoría de la gente piensa
    en lo inteligente o lo tonto
  • 6:02 - 6:05
    creo que tienen en mente
    una imagen más o menos así.
  • 6:05 - 6:08
    En un extremo tenemos
    al tonto del pueblo,
  • 6:08 - 6:10
    y lejos en el otro extremo,
  • 6:10 - 6:15
    tenemos a Ed Witten o a Albert Einstein,
    o quien sea su gurú favorito.
  • 6:15 - 6:19
    Pero creo que desde el punto de
    vista de la inteligencia artificial,
  • 6:19 - 6:23
    lo más probable es que la imagen
    real sea la siguiente:
  • 6:23 - 6:27
    Se empieza en este punto aquí,
    en ausencia de inteligencia
  • 6:27 - 6:30
    y luego, después de muchos,
    muchos años de trabajo muy arduo,
  • 6:30 - 6:33
    quizá finalmente lleguemos
    al nivel intelectual de un ratón,
  • 6:33 - 6:36
    algo que puede navegar
    entornos desordenados
  • 6:36 - 6:38
    igual que un ratón.
  • 6:38 - 6:40
    Y luego, después de muchos,
    muchos más años
  • 6:40 - 6:42
    de trabajo muy arduo,
    de mucha inversión,
  • 6:42 - 6:47
    tal vez alcancemos el nivel de
    inteligencia de un chimpancé.
  • 6:47 - 6:50
    Y luego, después de más años
    de trabajo muy, muy arduo
  • 6:50 - 6:53
    alcancemos la inteligencia artificial
    del tonto del pueblo.
  • 6:53 - 6:56
    Un poco más tarde,
    estaremos más allá de Ed Witten.
  • 6:56 - 6:59
    El tren del progreso no se detiene
    en la estación de los Humanos.
  • 6:59 - 7:02
    Es probable que más bien,
    pase volando.
  • 7:02 - 7:04
    Esto tiene profundas consecuencias,
  • 7:04 - 7:08
    especialmente si se trata de poder.
  • 7:08 - 7:10
    Por ejemplo, los chimpancés son fuertes.
  • 7:10 - 7:15
    Un chimpancé es dos veces más fuerte
    y en mejor forma física que un hombre
  • 7:15 - 7:20
    y, sin embargo, el destino de Kanzi
    y sus amigos depende mucho más
  • 7:20 - 7:24
    de lo que hacemos los humanos
    que de lo que ellos mismos hacen.
  • 7:25 - 7:28
    Una vez que hay superinteligencia,
  • 7:28 - 7:31
    el destino de la humanidad dependerá
    de lo que haga la superinteligencia.
  • 7:32 - 7:34
    Piensen en esto:
  • 7:34 - 7:36
    la máquina inteligente
    es el último invento
  • 7:36 - 7:39
    que la humanidad jamás
    tendrá que realizar.
  • 7:39 - 7:42
    Las máquinas serán entonces
    mejores inventores que nosotros,
  • 7:42 - 7:44
    y lo harán a escala
    de tiempo digital
  • 7:44 - 7:49
    lo que significa básicamente
    que acelerarán la cercanía al futuro.
  • 7:49 - 7:53
    Piensen en todas las tecnologías
    que tal vez, en su opinión,
  • 7:53 - 7:56
    los humanos pueden desarrollar
    con el paso del tiempo:
  • 7:56 - 7:59
    tratamientos para el envejecimiento,
    la colonización del espacio,
  • 7:59 - 8:02
    nanobots autoreplicantes,
    mentes integradas en las computadoras,
  • 8:02 - 8:04
    todo tipo de ciencia-ficción
  • 8:04 - 8:07
    y sin embargo en consonancia
    con las leyes de la física.
  • 8:07 - 8:10
    Todo esta superinteligencia
    podría desarrollarse
  • 8:10 - 8:11
    y posiblemente
    con bastante rapidez.
  • 8:12 - 8:16
    Ahora, una superinteligencia
    con tanta madurez tecnológica
  • 8:16 - 8:18
    sería extremadamente poderosa,
  • 8:18 - 8:23
    y con la excepción de algunos casos
    sería capaz de conseguir lo que quiere.
  • 8:23 - 8:28
    Nuestro futuro se determinaría
    por las preferencias de esta IA.
  • 8:30 - 8:34
    Y una buena pregunta es
    ¿cuáles son esas preferencias?
  • 8:34 - 8:36
    Aquí se vuelve más complicado.
  • 8:36 - 8:37
    Para avanzar con esto,
  • 8:37 - 8:41
    debemos en primer lugar
    evitar el antropomorfismo.
  • 8:42 - 8:47
    Y esto es irónico porque cada artículo
    de prensa sobre el futuro de la IA
  • 8:47 - 8:49
    presenta una imagen como esta:
  • 8:51 - 8:54
    Así que creo que tenemos que
    pensar de manera más abstracta,
  • 8:54 - 8:57
    no según escenarios
    entretenidos de Hollywood.
  • 8:57 - 9:01
    Tenemos que pensar en la inteligencia
    como un proceso de optimización
  • 9:01 - 9:06
    un proceso que dirige el futuro hacia un
    conjunto especifico de configuraciones.
  • 9:06 - 9:10
    Un superinteligencia es un proceso
    de optimización realmente potente.
  • 9:10 - 9:13
    Es muy bueno en el uso
    de recursos disponibles
  • 9:13 - 9:16
    para lograr un estado óptimo
    y alcanzar su objetivo.
  • 9:16 - 9:19
    Esto significa que no hay
    ningún vínculo necesario
  • 9:19 - 9:22
    entre ser muy inteligente en este sentido,
  • 9:22 - 9:26
    y tener una meta que para los humanos
    vale la pena o es significativa.
  • 9:27 - 9:31
    Por ejemplo, la IA podría tener el
    objetivo de hacer sonreír a los humanos.
  • 9:31 - 9:34
    Cuando la IA está en desarrollo,
    realiza acciones entretenidas
  • 9:34 - 9:37
    para hacer sonreír a su usuario.
  • 9:37 - 9:39
    Cuando la IA se vuelve superinteligente,
  • 9:39 - 9:43
    se da cuenta de que hay una manera
    más eficaz para lograr su objetivo:
  • 9:43 - 9:44
    tomar el control del mundo
  • 9:44 - 9:48
    e introducir electrodos en
    los músculos faciales de la gente
  • 9:48 - 9:51
    para provocar sonrisas
    constantes y radiantes.
  • 9:51 - 9:52
    Otro ejemplo,
  • 9:52 - 9:55
    supongamos que le damos el objetivo de
    resolver un problema matemático difícil.
  • 9:55 - 9:57
    Cuando la IA se vuelve superinteligente,
  • 9:57 - 10:01
    se da cuenta de que la forma más eficaz
    para conseguir la solución a este problema
  • 10:01 - 10:04
    es mediante la transformación
    del planeta en un computador gigante,
  • 10:04 - 10:07
    para aumentar su capacidad de pensar.
  • 10:07 - 10:10
    Y tengan en cuenta que esto da
    a la IA una razón instrumental
  • 10:10 - 10:12
    para hacer cosas que nosotros
    no podemos aprobar.
  • 10:12 - 10:14
    Los seres humanos
    se convierten en una amenaza,
  • 10:14 - 10:17
    ya que podríamos evitar
    que el problema se resuelva.
  • 10:17 - 10:21
    Por supuesto, las cosas no tienen
    necesariamente que pasar de esa manera:
  • 10:21 - 10:22
    son ejemplos de muestra.
  • 10:22 - 10:24
    Pero lo importante,
  • 10:24 - 10:27
    si crean un proceso
    de optimización muy potente,
  • 10:27 - 10:30
    optimizado para lograr el objetivo X,
  • 10:30 - 10:32
    más vale asegurarse
    de que la definición de X
  • 10:32 - 10:34
    incluye todo lo que importa.
  • 10:35 - 10:39
    Es una moraleja que también
    se enseña a través de varios mitos.
  • 10:39 - 10:45
    El rey Midas deseaba convertir
    en oro todo lo que tocaba.
  • 10:45 - 10:47
    Toca a su hija
    y ella se convierte en oro.
  • 10:47 - 10:50
    Toca su comida, se convierte en oro.
  • 10:50 - 10:53
    Es un ejemplo relevante
  • 10:53 - 10:56
    no solo de una metáfora de
    la codicia sino como ilustración
  • 10:56 - 10:59
    de lo que sucede si crean
    un proceso de optimización potente
  • 10:59 - 11:04
    pero le encomiendan objetivos
    incomprensibles o sin claridad.
  • 11:04 - 11:05
    Uno puede pensar:
  • 11:05 - 11:10
    "Si una computadora empieza a poner
    electrodos en la cara de la gente
  • 11:10 - 11:12
    bastaría simplemente con apagarla.
  • 11:13 - 11:15
    En primer lugar, puede
    que no sea tan sencillo
  • 11:15 - 11:18
    si somos dependientes del sistema
  • 11:18 - 11:21
    por ejemplo: ¿dónde está el botón
    para apagar Internet?
  • 11:21 - 11:23
    En segundo lugar,
    ¿por qué los chimpancés
  • 11:23 - 11:27
    no tienen acceso al mismo interruptor
    de la humanidad, o los neandertales?
  • 11:27 - 11:30
    Sin duda razones tendrían.
  • 11:30 - 11:33
    Tenemos un interruptor de apagado,
    por ejemplo, aquí mismo.
  • 11:33 - 11:34
    (Finge estrangulación)
  • 11:34 - 11:37
    La razón es que somos
    un adversario inteligente;
  • 11:37 - 11:40
    podemos anticipar amenazas
    y planificar en consecuencia,
  • 11:40 - 11:42
    pero también podría hacerlo
    un agente superinteligente,
  • 11:42 - 11:46
    y mucho mejor que nosotros.
  • 11:46 - 11:49
    El tema es que no debemos confiar
  • 11:51 - 11:53
    que podemos controlar esta situación.
  • 11:53 - 11:56
    Y podríamos tratar de hacer nuestro
    trabajo un poco más fácil digamos,
  • 11:56 - 12:00
    poniendo a la IA en una caja,
    en un entorno de software seguro,
  • 12:00 - 12:03
    una simulación de realidad virtual
    de la que no pueda escapar.
  • 12:03 - 12:07
    Pero, ¿cómo podemos estar seguros
    de que la IA no encontrará un error?
  • 12:07 - 12:10
    Dado que incluso los hackers humanos
    encuentran errores todo el tiempo,
  • 12:10 - 12:13
    yo diría que probablemente,
    no podemos estar muy seguros.
  • 12:14 - 12:19
    Así que desconectamos el cable ethernet
    para crear un espacio vacío,
  • 12:19 - 12:21
    pero una vez más, al igual
    que los hackers humanos,
  • 12:21 - 12:25
    podrían superar estos espacios
    usando la ingeniería social.
  • 12:25 - 12:26
    Ahora mismo, mientras hablo,
  • 12:26 - 12:29
    estoy seguro de que algún
    empleado, en algún lugar
  • 12:29 - 12:32
    ha sido convencido para revelar
    los detalles de su cuenta
  • 12:32 - 12:35
    por alguien que dice ser
    del departamento de IT.
  • 12:35 - 12:37
    Otros escenarios creativos
    también son posibles,
  • 12:37 - 12:38
    por ejemplo si Ud. es la IA,
  • 12:38 - 12:42
    puede hacer cambios en los electrodos
    de su circuito interno de seguridad
  • 12:42 - 12:45
    para crear ondas de radio y
    usarlas para comunicarse.
  • 12:45 - 12:47
    O tal vez fingir un mal funcionamiento,
  • 12:47 - 12:51
    y cuando los programadores
    lo abren para entender qué está mal,
  • 12:51 - 12:53
    al mirar el código fuente, ¡pum!
  • 12:53 - 12:55
    ya empieza a manipular.
  • 12:55 - 12:59
    O podría idear un programa
    tecnológico realmente ingenioso,
  • 12:59 - 13:00
    y cuando lo implementamos,
  • 13:00 - 13:05
    tener efectos secundarios
    ocultos planeados por la IA.
  • 13:05 - 13:08
    No debemos confiar en nuestra capacidad
  • 13:08 - 13:12
    para mantener un genio superinteligente
    encerrado en su lámpara para siempre.
  • 13:12 - 13:14
    Tarde o temprano, saldrá.
  • 13:15 - 13:20
    Creo que la solución es averiguar
    cómo crear una IA superinteligente
  • 13:20 - 13:24
    para que incluso si, o cuando
    se escape, sea todavía segura
  • 13:24 - 13:28
    para que fundamentalmente esté de
    nuestro lado y comparta nuestros valores.
  • 13:28 - 13:32
    No veo cómo evitar
    este problema difícil.
  • 13:33 - 13:37
    En realidad soy bastante optimista de
    que este problema pueda ser resuelto.
  • 13:37 - 13:40
    No tendríamos que escribir una larga
    lista de todo lo que nos importa,
  • 13:40 - 13:44
    o, peor aún, codificarla
    en algún lenguaje informático
  • 13:44 - 13:45
    como C++ o Python,
  • 13:45 - 13:48
    sería una reto imposible.
  • 13:48 - 13:52
    A cambio, crearíamos una IA
    que use su inteligencia
  • 13:52 - 13:55
    para aprender lo que valoramos,
  • 13:55 - 13:58
    y su sistema integrado
    de motivación sería diseñado
  • 14:00 - 14:02
    para defender nuestros valores
  • 14:02 - 14:06
    y realizar acciones
    que se ajusten a ellos.
  • 14:06 - 14:09
    Así que usaríamos su inteligencia
    tanto como fuera posible
  • 14:09 - 14:12
    para resolver el problema
    de la atribución de valores.
  • 14:13 - 14:14
    Esto puede suceder,
  • 14:14 - 14:18
    y el resultado podría ser
    muy bueno para la humanidad.
  • 14:18 - 14:22
    Pero no sucede automáticamente.
  • 14:22 - 14:25
    Las condiciones iniciales
    para la explosión de la inteligencia
  • 14:25 - 14:28
    necesitan ser perfectamente definidas
  • 14:28 - 14:31
    si queremos contar con
    una detonación controlada.
  • 14:31 - 14:34
    Los valores de la IA tienen
    que coincidir con los nuestros
  • 14:34 - 14:35
    no solo en el ámbito familiar,
  • 14:35 - 14:38
    donde podemos comprobar
    fácilmente cómo se comporta,
  • 14:38 - 14:41
    sino también en todos los nuevos contextos
  • 14:41 - 14:44
    donde la IA podría encontrarse
    en un futuro indefinido.
  • 14:44 - 14:48
    Y también hay algunas cuestiones
    esotéricas que habría que resolver:
  • 14:48 - 14:50
    los detalles exactos de
    su teoría de la decisión,
  • 14:50 - 14:52
    cómo manejar la incertidumbre lógica, etc.
  • 14:53 - 14:56
    Así que los problemas
    técnicos que hay que resolver
  • 14:56 - 14:58
    para hacer este trabajo
    parecen muy difíciles
  • 14:58 - 15:01
    --no tan difíciles como crear
    una IA superinteligente--
  • 15:01 - 15:03
    pero bastante difíciles.
  • 15:04 - 15:05
    Este es la preocupación:
  • 15:06 - 15:09
    crear una IA superinteligente
    es un reto muy difícil
  • 15:10 - 15:13
    y crear una que sea segura
  • 15:13 - 15:15
    implica desafíos adicionales.
  • 15:17 - 15:20
    El riesgo es si alguien encuentra
    la manera de superar el primer reto
  • 15:20 - 15:25
    sin resolver el otro desafío
    de garantizar la máxima seguridad.
  • 15:25 - 15:29
    Así que creo que deberíamos
    encontrar una solución
  • 15:29 - 15:32
    al problema del control por adelantado,
  • 15:32 - 15:34
    de modo que esté disponible
    para cuando sea necesario.
  • 15:35 - 15:37
    Puede ser que no podamos
    resolver por completo
  • 15:37 - 15:39
    el problema del control de antemano
  • 15:39 - 15:42
    porque tal vez, algunos elementos
    solo pueden ser desarrollados
  • 15:42 - 15:45
    después de reunir los detalles
    técnicos de la IA en cuestión.
  • 15:45 - 15:49
    Pero cuanto antes solucionemos
    el problema del control,
  • 15:49 - 15:50
    mayores serán las probabilidades
  • 15:50 - 15:53
    de que la transición a la era
    de las máquinas inteligentes
  • 15:53 - 15:54
    vaya bien.
  • 15:54 - 15:59
    Esto me parece algo digno de hacer
  • 15:59 - 16:02
    y puedo imaginar que si
    las cosas salen bien,
  • 16:02 - 16:07
    la gente en un millón de años
    discutirá nuestro siglo
  • 16:07 - 16:11
    y dirá que posiblemente lo único
    que hicimos bien y mereció la pena
  • 16:11 - 16:13
    fue superar con éxito este reto.
  • 16:13 - 16:14
    Gracias.
  • 16:14 - 16:15
    (Aplausos)
Title:
¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros?
Speaker:
Nick Bostrom
Description:

La Inteligencia Artificial está dando grandes pasos: según los expertos, durante este siglo, la inteligencia artificial podría llegar a ser tan "inteligente" como un humano. Para que luego, dice Nick Bostrom, nos supere; en sus palabras, "la inteligencia artificial es el último invento que la humanidad tendrá que hacer". Filósofo y tecnólogo, Bostrom nos pide que pensemos seriamente en el mundo gobernado por máquinas pensantes que estamos construyendo. Estas máquinas inteligentes nos ayudarán a preservar nuestra humanidad y nuestros valores, ¿o tendrán sus propios valores?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Spanish subtitles

Revisions