¿Es posible crear inteligencia artificial sin perder control sobre ella?
-
0:01 - 0:03Voy a hablar de un fallo intuitivo
-
0:03 - 0:05que muchos sufrimos.
-
0:05 - 0:09En realidad es la capacidad
de detectar cierto tipo de peligro. -
0:09 - 0:16Describiré una situación que creo
que es tan aterradora como posible -
0:17 - 0:19y veremos que eso no es
una buena combinación. -
0:20 - 0:22Y sin embargo, en lugar de sentir miedo,
-
0:22 - 0:25la mayoría pensará que es
algo bastante interesante. -
0:25 - 0:30Describiré cómo los avances
en el campo de la inteligencia artificial, -
0:30 - 0:32en última instancia, podrían destruirnos.
-
0:32 - 0:34Y, de hecho, me resulta muy difícil ver
-
0:34 - 0:37que no nos destruirían
o nos ayudaran a destruirnos. -
0:37 - 0:39Y sin embargo, si son como yo,
-
0:39 - 0:42encontrarán que es divertido
pensar en estas cosas. -
0:42 - 0:45Y esta manera de ver las cosas
es parte del problema. -
0:45 - 0:47Esa reacción debería preocuparles.
-
0:48 - 0:51Si tuviera que convencerles
con esta charla -
0:51 - 0:54de que estamos al borde de sufrir
una hambruna a nivel mundial, -
0:54 - 0:57debido al calentamiento global
o cualquier otra catástrofe, -
0:57 - 1:00y que sus nietos o sus bisnietos,
-
1:00 - 1:02vivirán muy probablemente así,
-
1:03 - 1:04no pensarían:
-
1:05 - 1:07"Interesante.
-
1:07 - 1:08Me gusta esta charla TED".
-
1:09 - 1:11El hambre no es divertida
-
1:12 - 1:15La muerte en la ciencia ficción,
por el contrario, es algo divertido, -
1:15 - 1:19y lo más preocupante
en el desarrollo de la IA hoy en día -
1:19 - 1:23es que parecemos incapaces de ofrecer
una respuesta emocional adecuada -
1:23 - 1:25frente a los peligros que se avecinan.
-
1:25 - 1:28Yo mismo soy incapaz de ello
y estoy dando esta charla. -
1:30 - 1:33Es como si nos encontráramos
ante dos puertas. -
1:33 - 1:34Detrás de la puerta número uno
-
1:34 - 1:37detenemos el progreso
de máquinas inteligentes. -
1:37 - 1:41Nuestro hardware y software
se estancan simplemente, por alguna razón. -
1:41 - 1:45Traten de reflexionar por un momento
por qué podría suceder esto. -
1:45 - 1:49Dada la valía de la inteligencia
y la automatización, -
1:49 - 1:52seguiremos mejorando
nuestra tecnología si es posible. -
1:53 - 1:55¿Qué podría impedirnos hacer eso?
-
1:56 - 1:58¿Una guerra nuclear a gran escala?
-
1:59 - 2:01¿Una pandemia mundial?
-
2:02 - 2:04¿El impacto de un asteroide?
-
2:05 - 2:09¿El hecho que Justin Bieber
podría ser el presidente de los EE.UU.? -
2:09 - 2:10(Risas)
-
2:13 - 2:17El caso es que algo tendría que destruir
la civilización tal como la conocemos. -
2:17 - 2:22Realmente deberíamos
imaginar algo terrible -
2:22 - 2:25para dejar de
desarrollar nuestra tecnología -
2:25 - 2:26para siempre,
-
2:26 - 2:28generación tras generación.
-
2:28 - 2:30Casi por definición, sería lo peor
-
2:30 - 2:32en la historia humana.
-
2:32 - 2:34La única alternativa,
-
2:34 - 2:36y esto es lo que hay detrás
de la puerta número dos, -
2:36 - 2:39es seguir mejorando
nuestras máquinas inteligentes -
2:39 - 2:41año tras año tras año.
-
2:42 - 2:45En algún momento construiremos
máquinas más inteligentes que nosotros, -
2:46 - 2:49y una vez que las tengamos
-
2:49 - 2:51empezarán a mejorarse a sí mismas.
-
2:51 - 2:54Y entonces corremos el riesgo
teorizado por el matemático IJ Good -
2:54 - 2:55llamado "explosión de inteligencia"
-
2:56 - 2:58donde el proceso podría
salirse de control. -
2:58 - 3:01Esto es a menudo caricaturizado,
como lo he hecho aquí, -
3:01 - 3:05como el miedo a que nos ataquen
ejércitos de robots maliciosos. -
3:05 - 3:08Pero ese no es
el escenario más probable. -
3:08 - 3:13No es que nuestras máquinas
se volverán malignas espontáneamente. -
3:13 - 3:15La preocupación verdadera
-
3:15 - 3:18al construir máquinas mucho
más competentes que nosotros -
3:18 - 3:21es que la menor diferencia
entre sus objetivos y los nuestros -
3:21 - 3:23nos podría destruir.
-
3:24 - 3:27Basta con pensar en nuestra
relación con las hormigas. -
3:27 - 3:28No las odiamos.
-
3:28 - 3:30No vamos por la vida lastimándolas.
-
3:30 - 3:33De hecho, a veces nos tomamos
la molestia de no hacerles daño. -
3:33 - 3:35Evitamos pisarlas en la acera.
-
3:35 - 3:38Pero cada vez que su presencia
entra seriamente en conflicto -
3:38 - 3:39con alguno de nuestros objetivos,
-
3:39 - 3:42digamos, en la construcción
de un edificio como este, -
3:42 - 3:44las aniquilamos sin escrúpulos.
-
3:44 - 3:47La preocupación es que algún día
construyamos máquinas -
3:47 - 3:50que, ya sea conscientemente o no,
-
3:50 - 3:52nos puedan tratar con
una indiferencia similar. -
3:54 - 3:57Sospecho que esto pueda
parece inverosímil para muchos. -
3:57 - 4:03Apuesto a que hay quienes dudan
de que la superinteligente IA sea posible -
4:03 - 4:05y mucho menos inevitable.
-
4:05 - 4:09Pero en este caso hay que refutar
uno de los siguientes supuestos. -
4:09 - 4:11Y hay solo tres.
-
4:12 - 4:17La inteligencia es el procesamiento
de información en un sistema físico. -
4:17 - 4:20En realidad, esto es poco
más que una suposición. -
4:20 - 4:23Ya hemos incorporado inteligencia
limitada en nuestras máquinas, -
4:23 - 4:28y aún así, muchas de estas máquinas actúan
a un nivel de inteligencia sobrehumana. -
4:29 - 4:34Y sabemos que la mera materia da lugar
a lo que se llama "inteligencia general", -
4:34 - 4:38la capacidad de pensar con
flexibilidad en múltiples campos -
4:38 - 4:41porque nuestros cerebro
humano ya lo ha conseguido. -
4:41 - 4:45Es decir, solo hay átomos aquí,
-
4:45 - 4:49y mientras continuemos
construyendo sistemas de átomos -
4:49 - 4:52que exhiban un comportamiento
más y más inteligente, -
4:52 - 4:58terminaremos implementando, a menos
que lo interrumpamos, inteligencia general -
4:58 - 4:59en nuestras máquinas.
-
4:59 - 5:03Es crucial comprender que
la velocidad no es el problema -
5:03 - 5:06porque cualquier velocidad
es suficiente para llegar al fin. -
5:06 - 5:10No necesitamos la ley de Moore para
continuar ni un aumento exponencial. -
5:10 - 5:12Solo tenemos que seguir adelante.
-
5:13 - 5:16El segundo supuesto es
que vamos a seguir adelante. -
5:17 - 5:20Vamos a seguir mejorando
nuestras máquinas inteligentes. -
5:23 - 5:25Y teniendo en cuenta
el valor de la inteligencia, -
5:25 - 5:29es decir, la inteligencia es o bien
la fuente de todo lo que valoramos -
5:29 - 5:32o la necesidad por preservar
todo lo que valoramos. -
5:32 - 5:34Es nuestro recurso más valioso.
-
5:34 - 5:35Por eso lo queremos hacer.
-
5:35 - 5:39Tenemos problemas que necesitamos
desesperadamente resolver. -
5:39 - 5:42Queremos curar enfermedades
como el Alzheimer y el cáncer. -
5:43 - 5:45Queremos entender
los sistemas económicos. -
5:45 - 5:47Queremos mejorar el clima.
-
5:47 - 5:49Vamos a hacer esto, si podemos.
-
5:49 - 5:52El tren ya salió de la estación
y no hay frenos. -
5:54 - 5:59Por último, no estamos en
la cima de la inteligencia, -
5:59 - 6:01ni siquiera cerca, probablemente.
-
6:02 - 6:04Y esto realmente es crucial.
-
6:04 - 6:06Esto es lo que hace nuestra
situación tan precaria, -
6:06 - 6:08y esto es lo que hace
que nuestras intuiciones -
6:08 - 6:11sobre los riesgos sean poco fiables.
-
6:11 - 6:15Piensen en la persona más inteligente
que jamás haya vivido. -
6:15 - 6:18En la lista de casi todos
está John Von Neumann. -
6:18 - 6:21La impresión que hacía Von Neumann
en las personas a su alrededor, -
6:21 - 6:25incluyendo los más grandes
matemáticos y físicos de su época, -
6:25 - 6:27está bastante bien documentada.
-
6:27 - 6:31Si solo la mitad de las historias
sobre él fueran una verdad a medias, -
6:31 - 6:32no hay duda
-
6:32 - 6:35de que es una de las personas
más inteligentes que ha vivido. -
6:35 - 6:38Así que consideren
el espectro de la inteligencia. -
6:38 - 6:40Aquí tenemos a John Von Neumann.
-
6:42 - 6:43Y aquí estamos tú y yo.
-
6:44 - 6:45Y luego tenemos un pollo.
-
6:47 - 6:49Lo sentimos, una gallina.
-
6:50 - 6:53No hay por qué hacer esta charla
más deprimente de lo que ya es. -
6:53 - 6:55(Risas)
-
6:56 - 7:00Sin embargo, parece muy probable
que el espectro de la inteligencia -
7:00 - 7:03se extienda mucho más allá
de lo que actualmente concebimos, -
7:04 - 7:07y si construimos máquinas
más inteligentes que nosotros, -
7:07 - 7:09muy probablemente
explorarán este espectro -
7:09 - 7:11de maneras que no podemos imaginar,
-
7:11 - 7:14y nos superarán de maneras inimaginables.
-
7:15 - 7:19Y es importante saber que esto
es cierto solo debido a la velocidad. -
7:19 - 7:24Así que imaginen que acabamos
de construir una IA superinteligente -
7:24 - 7:26que no fuera más inteligente
-
7:26 - 7:30que el promedio del equipo de
investigadores en Stanford o el MIT. -
7:30 - 7:32Los circuitos electrónicos funcionan
-
7:32 - 7:35aproximadamente un millón de veces
más rápido que los bioquímicos, -
7:35 - 7:38así que esta máquina debe pensar
un millón de veces más rápido -
7:38 - 7:40que las mentes que la construyeron.
-
7:40 - 7:41Con una semana funcionando
-
7:41 - 7:46llevará a cabo 20 000 años
de trabajo intelectual a nivel humano, -
7:46 - 7:48semana tras semana tras semana.
-
7:50 - 7:53¿Cómo podríamos siquiera comprender,
mucho menos restringir, -
7:53 - 7:55una mente que progresa de esta manera?
-
7:57 - 7:59Algo más que es francamente preocupante
-
7:59 - 8:04es imaginar el mejor de los casos.
-
8:04 - 8:08Imaginemos que diseñamos
una IA superinteligente -
8:08 - 8:10que no tiene problemas de seguridad.
-
8:10 - 8:13Tenemos el diseño perfecto a la primera.
-
8:13 - 8:15Es como si nos dieran un oráculo
-
8:15 - 8:17que se comporta exactamente
como se espera. -
8:17 - 8:21Esta máquina sería el dispositivo
de ahorro de mano de obra perfecta. -
8:22 - 8:24Puede diseñar la máquina
que puede construir la máquina -
8:24 - 8:26que pueda hacer cualquier trabajo físico,
-
8:26 - 8:27impulsada por la luz solar,
-
8:27 - 8:30más o menos por el costo
de las materias primas. -
8:30 - 8:33Estamos hablando del fin
del trabajo pesado humano. -
8:33 - 8:37También estamos hablando del fin
de la mayoría del trabajo intelectual. -
8:37 - 8:40Entonces, ¿qué harían simios como
nosotros en estas circunstancias? -
8:40 - 8:44Pues, podríamos jugar
al Frisbee y darnos masajes. -
8:46 - 8:48Tomar un poco de LSD
e inventar modas ridículas -
8:48 - 8:51y todo el mundo podríamos
parecernos a un festival de rock. -
8:51 - 8:53(Risas)
-
8:54 - 8:59Puede parecer muy bueno,
pero hay que preguntarse -
8:59 - 9:02qué pasaría con nuestro orden
económico y político actual. -
9:02 - 9:05Podríamos presenciar
-
9:05 - 9:09un nivel de desigualdad
de la riqueza y el desempleo -
9:09 - 9:10nunca antes visto
-
9:10 - 9:14sin la voluntad de poner esta
nueva riqueza inmediatamente -
9:14 - 9:15al servicio de toda la humanidad,
-
9:15 - 9:19y unos poco trillonarios estarían en
las portadas de las revistas de negocios -
9:19 - 9:23mientras que el resto del mundo
tendría la libertad de morirse de hambre. -
9:23 - 9:25Y ¿qué pasaría si los rusos
o los chinos se enteraran -
9:25 - 9:27de que alguna empresa en Silicon Valley
-
9:27 - 9:30está a punto de crear
una IA superinteligente? -
9:30 - 9:33Esta máquina podría ser
capaz de hacer la guerra, -
9:33 - 9:35ya sea terrestre o cibernética,
-
9:35 - 9:37con un poder sin precedentes.
-
9:38 - 9:40En este escenario
el ganador se lleva todo. -
9:40 - 9:43Seis meses adelante en la competencia
-
9:43 - 9:46sería una ventaja de 500 000 años,
-
9:46 - 9:47como mínimo.
-
9:47 - 9:52Parecería que incluso meros
rumores de este tipo de avance -
9:52 - 9:54podría causar que nuestra
especie se vuelva loca. -
9:54 - 9:57Una de las cosas más aterradoras,
-
9:57 - 10:00en mi opinión, en este momento,
-
10:00 - 10:04son el tipo de cosas que dicen
los investigadores de IA -
10:04 - 10:06cuando quieren tranquilizarnos.
-
10:07 - 10:10Y el motivo invocado más frecuentemente
de que no nos preocupemos es el tiempo. -
10:10 - 10:13Falta mucho para eso, no se preocupen.
-
10:13 - 10:15Eso será probablemente
dentro de 50 o 100 años. -
10:16 - 10:17Un investigador dijo,
-
10:17 - 10:20"Preocuparse por la seguridad
y todo lo relacionado con la IA -
10:20 - 10:22es como preocuparse por la
superpoblación en Marte". -
10:22 - 10:26Esta es la manera de Silicon Valley
de mostrarse condescendiente. -
10:26 - 10:28(Risas)
-
10:28 - 10:29Nadie parece darse cuenta
-
10:29 - 10:32que tomar el tiempo con referencia
-
10:32 - 10:35es una incongruencia total.
-
10:35 - 10:38Si la inteligencia es solo una cuestión
de procesamiento de la información -
10:38 - 10:41y seguimos mejorando nuestras máquinas,
-
10:41 - 10:44produciremos algún tipo
de superinteligencia. -
10:44 - 10:49Y no tenemos idea de cuánto tiempo
nos llevará crear las condiciones -
10:49 - 10:51para hacerlo de forma segura.
-
10:52 - 10:53Voy a decirlo de nuevo.
-
10:53 - 10:59Y no tenemos idea de cuánto tiempo
nos llevará crear las condiciones -
10:59 - 11:00para hacerlo de forma segura.
-
11:01 - 11:04Y si no lo han notado, 50 años
ya no son lo que solían ser. -
11:04 - 11:07Estos son 50 años en meses.
-
11:07 - 11:09Este es el tiempo que
hemos tenido el iPhone. -
11:09 - 11:12Este es el tiempo que "Los Simpson"
ha estado en la televisión. -
11:13 - 11:15Cincuenta años no es tanto tiempo
-
11:15 - 11:19para lograr uno de los mayores desafíos
al que nuestra especie se ha enfrentado. -
11:20 - 11:24Una vez más, parece que no tenemos
una respuesta emocional adecuada -
11:24 - 11:26para lo que, con toda
probabilidad, va a pasar. -
11:26 - 11:30El científico de la computación
Stuart Russell ofrece una gran analogía: -
11:30 - 11:36"Imaginen que recibimos un mensaje de
una civilización extraterrestre que diga: -
11:37 - 11:39'Gente de la Tierra,
-
11:39 - 11:41llegaremos en su planeta en 50 años.
-
11:42 - 11:43Prepárense'".
-
11:43 - 11:47¿Estaremos contando los meses
hasta que llegue la nave nodriza? -
11:48 - 11:51¿No estaríamos un poco más preocupados?
-
11:52 - 11:54Otra razón que se nos da
para no preocuparnos -
11:54 - 11:57es que estas máquinas no podrán
no compartir nuestros valores -
11:57 - 12:00porque van a ser literalmente
extensiones de nosotros mismos. -
12:00 - 12:02Se injertarán en nuestro cerebro,
-
12:02 - 12:04y prácticamente seremos
su sistema límbico. -
12:05 - 12:07Consideren por un momento
-
12:07 - 12:10que el camino más seguro
y prudente hacia adelante, -
12:10 - 12:11el recomendado,
-
12:11 - 12:14es la implantación de esta tecnología
directamente en nuestro cerebro. -
12:14 - 12:16Ahora bien, esto puede ser de hecho,
-
12:16 - 12:18la manera más segura
y prudente de avanzar, -
12:18 - 12:22pero por lo general, los problemas
de seguridad de una nueva tecnología -
12:22 - 12:25hay que resolverlos antes
de implementarla en una cabeza. -
12:25 - 12:27(Risas)
-
12:27 - 12:28El mayor problema es
-
12:28 - 12:34que construir una IA superinteligente
y autónoma parece más fácil -
12:34 - 12:36que diseñar una IA superinteligente
-
12:36 - 12:38mientras se controla la neurociencia
-
12:38 - 12:40para integrar la máquina
y la mente sin problemas. -
12:41 - 12:44Y dado que las empresas y
los gobiernos que trabajan sobre ello -
12:44 - 12:48probablemente se vean a sí mismos en
una carrera contra todos los demás, -
12:48 - 12:51y tomando en cuenta que ganar
esta carrera es ganar el mundo, -
12:51 - 12:54siempre y cuando no lo destruyan
en el momento siguiente, -
12:54 - 12:56entonces parece probable
que lo más fácil de hacer -
12:56 - 12:57se hará primero.
-
12:59 - 13:01Ahora, por desgracia, no tengo
una solución a este problema, -
13:01 - 13:04además de recomendarles
que piensen más sobre ello. -
13:04 - 13:06Creo que necesitamos
un Proyecto Manhattan -
13:06 - 13:08sobre el tema de la
inteligencia artificial. -
13:08 - 13:11No para construirlo, porque
creo que eso es inevitable, -
13:11 - 13:15sino para entender cómo evitar
una carrera armamentística -
13:15 - 13:18y construirla de manera que
concuerde con nuestros intereses. -
13:18 - 13:20Cuando hablamos de IA superinteligente
-
13:20 - 13:22que puede modificarse a sí misma,
-
13:23 - 13:27solo tenemos una oportunidad de fijar
las condiciones iniciales correctas, -
13:27 - 13:29e incluso entonces necesitaremos gestionar
-
13:29 - 13:32las consecuencias económicas
y políticas de dicho diseño. -
13:34 - 13:36Pero en el momento en que admitamos
-
13:36 - 13:40que el procesamiento de la información
es la fuente de la inteligencia, -
13:41 - 13:46que algún sistema computacional
adecuado es la base de la inteligencia, -
13:46 - 13:50y admitamos que los vamos
a mejorar de forma continua, -
13:51 - 13:55y admitamos que el horizonte
del conocimiento supera por mucho -
13:55 - 13:57lo que actualmente conocemos,
-
13:58 - 14:00entonces tenemos que admitir
-
14:00 - 14:02que estamos en el proceso de
construir una especie de dios. -
14:03 - 14:05Ahora sería un buen momento
-
14:05 - 14:08para asegurarse de que sea
un dios con el que podamos vivir. -
14:08 - 14:09Muchas gracias.
-
14:09 - 14:10(Aplausos)
- Title:
- ¿Es posible crear inteligencia artificial sin perder control sobre ella?
- Speaker:
- Sam Harris
- Description:
-
¿Te asusta la super inteligente inteligencia artificial? Debería estarlo, dice el neurocientífico y filósofo Sam Harris y no solo de una manera teórica. Vamos a construir super máquinas, dice Harris, pero aún no entendemos los problemas que conlleva crear algo que podría tratarnos de la misma manera en que nosotros tratamos a las hormigas.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Emma Gon approved Spanish subtitles for Can we build AI without losing control over it? | |
![]() |
Emma Gon edited Spanish subtitles for Can we build AI without losing control over it? | |
![]() |
Denise RQ accepted Spanish subtitles for Can we build AI without losing control over it? | |
![]() |
Denise RQ edited Spanish subtitles for Can we build AI without losing control over it? | |
![]() |
Denise RQ edited Spanish subtitles for Can we build AI without losing control over it? | |
![]() |
Denise RQ edited Spanish subtitles for Can we build AI without losing control over it? | |
![]() |
Denise RQ edited Spanish subtitles for Can we build AI without losing control over it? | |
![]() |
Denise RQ edited Spanish subtitles for Can we build AI without losing control over it? |