No le teman a la superinteligente IA
-
0:00 - 0:05Cuando era niño,
era un nerd por excelencia. -
0:05 - 0:07Creo que algunos de Uds. también.
-
0:08 - 0:09(Risas)
-
0:09 - 0:12Y Ud. señor, el que se rio más fuerte,
probablemente aún lo sea. -
0:12 - 0:14(Risas)
-
0:14 - 0:18Crecí en un pueblo pequeño
en los llanos del norte de Tejas, -
0:18 - 0:21hijo de un comisario,
que fue hijo de un pastor. -
0:21 - 0:23Meterse en problemas
no era una opción. -
0:24 - 0:27Así es que comencé a
leer libros de cálculo por diversión. -
0:27 - 0:29(Risas)
-
0:29 - 0:31Uds. también lo hicieron.
-
0:31 - 0:34Eso me llevó a crear un láser,
una computadora y modelos de cohetes, -
0:34 - 0:37y eso me llevó a hacer
combustible para cohetes en mi habitación. -
0:38 - 0:42En términos científicos,
-
0:42 - 0:45esta es una muy mala idea.
-
0:45 - 0:46(Risas)
-
0:46 - 0:48Por esos días
-
0:48 - 0:52se estrenó "2001: Una Odisea
en el Espacio" de Stanley Kubrick, -
0:52 - 0:54y mi vida cambió para siempre.
-
0:54 - 0:56Me encantó todo de esa película,
-
0:56 - 0:59especialmente el HAL 9000.
-
0:59 - 1:01HAL era un computador sensible
-
1:01 - 1:03diseñado para guiar
la aeronave Discovery -
1:03 - 1:06de la Tierra a Júpiter.
-
1:06 - 1:08HAL además era imperfecto,
-
1:08 - 1:12porque eligió el valor de la misión
sobre la vida humana. -
1:13 - 1:15HAL era un personaje ficticio,
-
1:15 - 1:18y sin embargo habla sobre
nuestros temores, -
1:18 - 1:20nuestros temores a ser subyugados
-
1:20 - 1:23por alguna insensible
inteligencia artificial -
1:23 - 1:25indiferente a nuestra humanidad.
-
1:26 - 1:28Creo que esos temores
son infundados. -
1:28 - 1:31De hecho, estamos en un tiempo notable
-
1:31 - 1:33en la historia de la humanidad,
-
1:33 - 1:38donde, motivados por la negación a
aceptar los límites del cuerpo y mente, -
1:38 - 1:39construimos máquinas
-
1:39 - 1:43de complejidad y gracia
exquisita y hermosa -
1:43 - 1:45que expanden la experiencia humana
-
1:45 - 1:47más allá de nuestra imaginación.
-
1:47 - 1:50Tras una carrera que me llevó
de la Academia de la Fuerza Aérea -
1:50 - 1:52a comandante de estación espacial,
-
1:52 - 1:54me volví ingeniero de sistemas,
-
1:54 - 1:57y recientemente me encontré
con un problema de ingeniería -
1:57 - 1:59relacionado con la misión
de la NASA a Marte. -
1:59 - 2:02En vuelos espaciales a la Luna,
-
2:02 - 2:05dependemos del control
de la misión en Houston -
2:05 - 2:07para vigilar todos los aspectos
de un vuelo. -
2:07 - 2:11Sin embargo,
Marte está 200 veces más lejos, -
2:11 - 2:14como resultado toma
en promedio 13 minutos -
2:14 - 2:17para que una señal viaje
de la Tierra a Marte. -
2:17 - 2:20Si hay algún percance,
no hay suficiente tiempo. -
2:21 - 2:23Una solución razonable de ingeniería
-
2:23 - 2:26nos incita a instalar
el control de la misión -
2:26 - 2:29dentro de las paredes de
la aeronave Orión. -
2:29 - 2:32Otra idea fascinante
en el perfil de la misión -
2:32 - 2:35es colocar robots humanoides
en la superficie de Marte -
2:35 - 2:37antes de que los humanos mismos lleguen,
-
2:37 - 2:39primero para construir instalaciones
-
2:39 - 2:42y luego para servir como colaboradores
en el equipo científico. -
2:43 - 2:46Al mirar esto desde
la ingeniería, -
2:46 - 2:49me quedó claro que
lo que necesitaba diseñar -
2:49 - 2:52era una inteligencia artificial muy lista,
-
2:52 - 2:54colaborativa y social.
-
2:54 - 2:58En otras palabras, necesitaba construir
algo muy parecido a HAL -
2:58 - 3:01pero sin las tendencias homicidas.
-
3:01 - 3:02(Risas)
-
3:03 - 3:05Detengámonos un momento.
-
3:05 - 3:09¿Es realmente posible
construir inteligencia artificial así? -
3:09 - 3:10De hecho, sí lo es.
-
3:10 - 3:11En muchas maneras,
-
3:11 - 3:13este es un problema difícil
de la ingeniería -
3:13 - 3:15con elementos de IA,
-
3:15 - 3:20no es un simple problema de IA
que necesite diseñarse. -
3:20 - 3:22Parafraseando a Alan Turing,
-
3:22 - 3:25no me interesa construir
una máquina sensible. -
3:25 - 3:26No voy a construir un HAL.
-
3:26 - 3:29Todo lo que busco es
un cerebro sencillo, -
3:29 - 3:32algo que ofrezca
una ilusión de inteligencia. -
3:33 - 3:36El arte y la ciencia de la computación
ha pasado por mucho -
3:36 - 3:38desde la aparición de HAL,
-
3:38 - 3:41e imagino que si su inventor
Dr. Chandra estuviera aquí hoy, -
3:41 - 3:43tendría mucho que preguntarnos.
-
3:43 - 3:45¿Es realmente posible
-
3:45 - 3:49tomar un sistema de millones
y millones de dispositivos, -
3:49 - 3:51para leer flujos de datos,
-
3:51 - 3:53para predecir fallas y
actuar con antelación? -
3:53 - 3:54Sí.
-
3:54 - 3:58¿Podemos construir sistemas que
se comuniquen con humanos? -
3:58 - 3:59Sí.
-
3:59 - 4:02¿Podemos construir sistemas que
reconozcan objetos, emociones, -
4:02 - 4:05que se emocionen, jueguen e incluso
que lean los labios? -
4:05 - 4:06Sí.
-
4:06 - 4:09¿Podemos construir un sistema
que fije objetivos, -
4:09 - 4:12que lleve a cabo planes contra esos
objetivos y siga aprendiendo más? -
4:12 - 4:14Sí.
-
4:14 - 4:17¿Podemos construir sistemas
que piensen por sí mismos? -
4:17 - 4:18Estamos aprendiendo a hacerlo.
-
4:18 - 4:22¿Podemos construir sistemas
con fundamentos éticos y morales? -
4:22 - 4:25Debemos aprender cómo hacerlo.
-
4:25 - 4:27Aceptemos por un momento
-
4:27 - 4:30que es posible construir
tal inteligencia artificial -
4:30 - 4:32para estas misiones y otras.
-
4:32 - 4:34La siguiente pregunta que
deben formularse es, -
4:34 - 4:36¿deberíamos temerle?
-
4:36 - 4:38Toda nueva tecnología
-
4:38 - 4:41trae consigo algunos temores.
-
4:41 - 4:42Cuando vimos autos por primera vez,
-
4:43 - 4:47la gente temía que viéramos
la destrucción de la familia. -
4:47 - 4:49Cuando se inventaron los teléfonos,
-
4:49 - 4:52la gente temía que arruinara
la conversación civilizada. -
4:52 - 4:56En algún momento, vimos a la palabra
escrita aparecer en todos lados, -
4:56 - 4:59la gente creyó que perderíamos
la habilidad de memorizar. -
4:59 - 5:01Todo esto es cierto hasta cierto grado,
-
5:01 - 5:03pero estas tecnologías también
-
5:03 - 5:07nos dieron cosas que expandieron
la experiencia humana -
5:07 - 5:08de manera profunda.
-
5:10 - 5:12Así que vayamos más lejos.
-
5:13 - 5:18No temo la creación de una IA así,
-
5:18 - 5:22porque finalmente encarnará
algunos de nuestros valores. -
5:22 - 5:25Consideren lo siguiente: construir un
sistema cognitivo es muy distinto -
5:25 - 5:29a construir uno tradicional
intensivo en software como en el pasado. -
5:29 - 5:31No los programamos. Les enseñamos.
-
5:31 - 5:34Para enseñarle a un sistema
a reconocer flores, -
5:34 - 5:37le muestro miles de flores que me gustan.
-
5:37 - 5:39Para enseñarle a jugar...
-
5:39 - 5:41Bueno, lo haría y Uds. también.
-
5:43 - 5:45Me gustan las flores.
-
5:45 - 5:48Para enseñarle a un sistema
a jugar un juego como Go, -
5:48 - 5:50lo pondría a jugar
miles de juegos de Go, -
5:50 - 5:52y en el proceso
también le enseñaría -
5:52 - 5:54a discernir un buen juego
de uno malo. -
5:55 - 5:58Si quiero crear un asistente legal
con inteligencia artificial, -
5:58 - 6:00le enseñaría algo del
corpus legislativo -
6:00 - 6:03combinando al mismo tiempo
-
6:03 - 6:06el sentido de la piedad y la justicia
que también son parte de la ley. -
6:07 - 6:10En términos científicos,
lo llamamos verdad en tierra firme, -
6:10 - 6:12este es el punto importante:
-
6:12 - 6:13al producir estas máquinas,
-
6:13 - 6:16les estamos enseñando también
el sentido de nuestros valores. -
6:17 - 6:20Para este fin,
confío en la inteligencia artificial -
6:20 - 6:23tanto, si no más, que en
un humano bien entrenado. -
6:24 - 6:25Quizá se pregunten
-
6:25 - 6:28¿qué hay de los agentes rebeldes,
-
6:28 - 6:31algunas organizaciones sólidas
no gubernamentales? -
6:31 - 6:35No le temo a la inteligencia artificial
en manos de un lobo solitario. -
6:35 - 6:40Claramente no podemos protegernos
de todo tipo de violencia, -
6:40 - 6:42en realidad, un sistema así
-
6:42 - 6:45requiere entrenamiento importante y sutil
-
6:45 - 6:47más allá de los recursos de un individuo.
-
6:47 - 6:49Además,
-
6:49 - 6:52se trata de algo más que inyectar
un virus en el internet global, -
6:52 - 6:55donde al presionar un botón,
se esparce a millones de lugares -
6:55 - 6:57y las laptops comienzan a estallar
en pedazos. -
6:57 - 7:00Este tipo de sustancias son más grandes
-
7:00 - 7:02y se les ve venir.
-
7:03 - 7:06¿Temo que ese tipo de
inteligencia artificial -
7:06 - 7:08amenace a la humanidad?
-
7:08 - 7:13Si miran películas
como "Matrix", "Metrópolis", -
7:13 - 7:16"Terminator" y shows como "Westworld",
-
7:16 - 7:18todos hablan de este miedo.
-
7:18 - 7:22El libro "Superinteligencia"
del filósofo Nick Bostrom, -
7:22 - 7:24habla de este tema
-
7:24 - 7:28y opina que una superinteligencia
no solo puede ser peligrosa, -
7:28 - 7:32sino que podría representar
una amenaza existencial para la humanidad. -
7:32 - 7:34El argumento fundamental del Dr. Bostrom
-
7:34 - 7:37es que dichos sistemas finalmente
-
7:37 - 7:40tendrán una necesidad insaciable
de información -
7:40 - 7:43que quizá aprendan cómo aprender
-
7:43 - 7:46y finalmente descubran
que pueden tener objetivos -
7:46 - 7:48contrarios a las necesidades humanas.
-
7:48 - 7:50El Dr. Bostrom tiene varios seguidores.
-
7:50 - 7:54Gente como Elon Musk y
Stephen Hawking lo apoyan. -
7:55 - 7:57Con todo respeto
-
7:58 - 8:00a estas mentes brillantes,
-
8:00 - 8:02creo que están completamente equivocados.
-
8:02 - 8:06Hay muchas partes del argumento
del Dr. Bostrom que analizar, -
8:06 - 8:08y no tengo tiempo para hacerlo,
-
8:08 - 8:11pero brevemente, piensen esto:
-
8:11 - 8:14el superconocimiento es muy distinto
al superhacer. -
8:14 - 8:16HAL era una amenaza
para la flota del Discovery -
8:16 - 8:21en la medida en que controlaba
todos los aspectos del Discovery. -
8:21 - 8:23Se necesitaría una superinteligencia.
-
8:23 - 8:26Y un dominio total de nuestro mundo.
-
8:26 - 8:29Skynet de la película "Terminator"
-
8:29 - 8:30tenía una superinteligencia
-
8:30 - 8:32que controlaba la voluntad humana,
-
8:32 - 8:36y controlaba cada dispositivo
en todos los rincones del mundo. -
8:36 - 8:37Siendo prácticos,
-
8:37 - 8:39eso no pasará.
-
8:39 - 8:42No estamos construyendo IAs
que controlen el clima, -
8:42 - 8:44que controlen las mareas,
-
8:44 - 8:47que nos controlen a nosotros,
caprichosos y caóticos humanos. -
8:47 - 8:51Además, si tal
inteligencia artificial existiera, -
8:51 - 8:54tendría que competir contra
las economías del hombre, -
8:54 - 8:57y por tanto competir por recursos
contra nosotros. -
8:57 - 8:58Y al final
-
8:58 - 9:00--no le digan a Siri--
-
9:00 - 9:02siempre podremos desconectarlos.
-
9:02 - 9:04(Risas)
-
9:05 - 9:08Estamos en una increíble aventura
-
9:08 - 9:10de coevolución con nuestras máquinas.
-
9:10 - 9:13Los humanos que somos hoy
-
9:13 - 9:15no son los humanos que seremos.
-
9:15 - 9:19Preocuparse ahorita del ascenso
de una superinteligencia -
9:19 - 9:22es una distracción peligrosa
en muchos sentidos -
9:22 - 9:24porque el ascenso de la computación
-
9:24 - 9:27trajo consigo muchos problemas
humanos y sociales -
9:27 - 9:29de los que debemos ocuparnos ahora.
-
9:29 - 9:32¿Cómo organizar a la sociedad
-
9:32 - 9:35cuando la necesidad de trabajo
humano decrece? -
9:35 - 9:38¿Cómo llevar conocimiento y educación
a través del mundo -
9:38 - 9:40respetando nuestras diferencias?
-
9:40 - 9:44¿Cómo expandir y mejorar la vida
con la atención médica cognitiva? -
9:44 - 9:47¿Cómo usar la computación
-
9:47 - 9:49para ayudarnos a alcanzar las estrellas?
-
9:50 - 9:52Eso es lo emocionante.
-
9:52 - 9:55Las oportunidades para usar la computación
-
9:55 - 9:56y fomentar la experiencia humana
-
9:56 - 9:58están a nuestro alcance,
-
9:58 - 10:00aquí y ahora,
-
10:00 - 10:01y apenas hemos comenzado.
-
10:02 - 10:03Muchas gracias.
-
10:04 - 10:08(Aplausos)
- Title:
- No le teman a la superinteligente IA
- Speaker:
- Grady Booch
- Description:
-
La nueva tecnología genera nuevas ansiedades, dice el científico y filósofo Grady Booch, pero no hay por qué temerle a la poderosa e insensible IA. Booch disipa nuestros peores miedos (inducidos por la sci-fi) acerca de las computadoras superinteligentes explicando cómo enseñarles, más no programarlas, para compartir nuestros valores. En lugar de preocuparnos acerca de una improbable amenaza existencial, nos incita a pensar cómo la inteligencia artificial mejorará la vida humana.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Ciro Gomez approved Spanish subtitles for Don't fear superintelligent AI | ||
Ciro Gomez edited Spanish subtitles for Don't fear superintelligent AI | ||
Ciro Gomez edited Spanish subtitles for Don't fear superintelligent AI | ||
Frank Zegarra accepted Spanish subtitles for Don't fear superintelligent AI | ||
Frank Zegarra edited Spanish subtitles for Don't fear superintelligent AI | ||
Frank Zegarra edited Spanish subtitles for Don't fear superintelligent AI | ||
Frank Zegarra edited Spanish subtitles for Don't fear superintelligent AI | ||
Frank Zegarra edited Spanish subtitles for Don't fear superintelligent AI |