WEBVTT 00:00:01.000 --> 00:00:03.209 Voy a hablar de un fallo intuitivo 00:00:03.209 --> 00:00:04.793 que muchos sufrimos. 00:00:05.480 --> 00:00:08.640 En realidad es la capacidad de detectar cierto tipo de peligro. 00:00:09.470 --> 00:00:16.236 Describiré una situación que creo que es tan aterradora como posible 00:00:16.960 --> 00:00:19.216 y veremos que eso no es una buena combinación. 00:00:19.890 --> 00:00:21.973 Y sin embargo, en lugar de sentir miedo, 00:00:21.974 --> 00:00:25.209 la mayoría pensará que es algo bastante interesante. 00:00:25.220 --> 00:00:29.696 Describiré cómo los avances en el campo de la inteligencia artificial, 00:00:29.952 --> 00:00:32.037 en última instancia, podrían destruirnos. 00:00:32.037 --> 00:00:34.015 Y, de hecho, me resulta muy difícil ver 00:00:34.016 --> 00:00:37.416 que no nos destruirían o nos ayudaran a destruirnos. 00:00:37.424 --> 00:00:39.279 Y sin embargo, si son como yo, 00:00:39.280 --> 00:00:41.935 encontrarán que es divertido pensar en estas cosas. 00:00:41.936 --> 00:00:45.311 Y esta manera de ver las cosas es parte del problema. 00:00:45.312 --> 00:00:47.032 Esa reacción debería preocuparles. 00:00:47.918 --> 00:00:50.581 Si tuviera que convencerles con esta charla 00:00:50.582 --> 00:00:53.991 de que estamos al borde de sufrir una hambruna a nivel mundial, 00:00:53.992 --> 00:00:57.047 debido al calentamiento global o cualquier otra catástrofe, 00:00:57.048 --> 00:01:00.463 y que sus nietos o sus bisnietos, 00:01:00.464 --> 00:01:02.264 vivirán muy probablemente así, 00:01:03.200 --> 00:01:04.400 no pensarían: 00:01:05.440 --> 00:01:06.759 "Interesante. 00:01:06.760 --> 00:01:08.250 Me gusta esta charla TED". 00:01:09.200 --> 00:01:10.720 El hambre no es divertida 00:01:11.800 --> 00:01:15.172 La muerte en la ciencia ficción, por el contrario, es algo divertido, 00:01:15.173 --> 00:01:19.126 y lo más preocupante en el desarrollo de la IA hoy en día 00:01:19.167 --> 00:01:23.247 es que parecemos incapaces de ofrecer una respuesta emocional adecuada 00:01:23.248 --> 00:01:25.067 frente a los peligros que se avecinan. 00:01:25.187 --> 00:01:28.387 Yo mismo soy incapaz de ello y estoy dando esta charla. 00:01:30.125 --> 00:01:32.614 Es como si nos encontráramos ante dos puertas. 00:01:32.615 --> 00:01:34.176 Detrás de la puerta número uno 00:01:34.177 --> 00:01:37.416 detenemos el progreso de máquinas inteligentes. 00:01:37.417 --> 00:01:41.417 Nuestro hardware y software se estancan simplemente, por alguna razón. 00:01:41.432 --> 00:01:44.762 Traten de reflexionar por un momento por qué podría suceder esto. 00:01:45.083 --> 00:01:48.735 Dada la valía de la inteligencia y la automatización, 00:01:48.736 --> 00:01:52.256 seguiremos mejorando nuestra tecnología si es posible. 00:01:53.200 --> 00:01:54.867 ¿Qué podría impedirnos hacer eso? 00:01:55.800 --> 00:01:57.600 ¿Una guerra nuclear a gran escala? 00:01:59.000 --> 00:02:00.542 ¿Una pandemia mundial? 00:02:02.320 --> 00:02:03.790 ¿El impacto de un asteroide? 00:02:05.375 --> 00:02:08.542 ¿El hecho que Justin Bieber podría ser el presidente de los EE.UU.? 00:02:08.543 --> 00:02:10.205 (Risas) 00:02:12.760 --> 00:02:16.680 El caso es que algo tendría que destruir la civilización tal como la conocemos. 00:02:17.360 --> 00:02:21.655 Realmente deberíamos imaginar algo terrible 00:02:21.656 --> 00:02:24.991 para dejar de desarrollar nuestra tecnología 00:02:24.992 --> 00:02:26.207 para siempre, 00:02:26.208 --> 00:02:28.223 generación tras generación. 00:02:28.224 --> 00:02:30.359 Casi por definición, sería lo peor 00:02:30.360 --> 00:02:32.319 en la historia humana. 00:02:32.320 --> 00:02:33.815 La única alternativa, 00:02:33.816 --> 00:02:36.391 y esto es lo que hay detrás de la puerta número dos, 00:02:36.392 --> 00:02:39.335 es seguir mejorando nuestras máquinas inteligentes 00:02:39.336 --> 00:02:40.936 año tras año tras año. 00:02:41.720 --> 00:02:45.360 En algún momento construiremos máquinas más inteligentes que nosotros, 00:02:45.840 --> 00:02:48.765 y una vez que las tengamos 00:02:48.766 --> 00:02:50.625 empezarán a mejorarse a sí mismas. 00:02:50.626 --> 00:02:53.709 Y entonces corremos el riesgo teorizado por el matemático IJ Good 00:02:53.710 --> 00:02:55.386 llamado "explosión de inteligencia" 00:02:55.506 --> 00:02:57.620 donde el proceso podría salirse de control. 00:02:58.120 --> 00:03:00.935 Esto es a menudo caricaturizado, como lo he hecho aquí, 00:03:00.936 --> 00:03:05.142 como el miedo a que nos ataquen ejércitos de robots maliciosos. 00:03:05.408 --> 00:03:08.103 Pero ese no es el escenario más probable. 00:03:08.104 --> 00:03:12.959 No es que nuestras máquinas se volverán malignas espontáneamente. 00:03:12.960 --> 00:03:14.515 La preocupación verdadera 00:03:14.516 --> 00:03:17.631 al construir máquinas mucho más competentes que nosotros 00:03:17.632 --> 00:03:21.407 es que la menor diferencia entre sus objetivos y los nuestros 00:03:21.408 --> 00:03:22.608 nos podría destruir. 00:03:23.960 --> 00:03:26.629 Basta con pensar en nuestra relación con las hormigas. 00:03:26.630 --> 00:03:28.249 No las odiamos. 00:03:28.250 --> 00:03:29.991 No vamos por la vida lastimándolas. 00:03:29.992 --> 00:03:32.987 De hecho, a veces nos tomamos la molestia de no hacerles daño. 00:03:32.988 --> 00:03:34.776 Evitamos pisarlas en la acera. 00:03:34.792 --> 00:03:37.787 Pero cada vez que su presencia entra seriamente en conflicto 00:03:37.788 --> 00:03:39.407 con alguno de nuestros objetivos, 00:03:39.408 --> 00:03:41.897 digamos, en la construcción de un edificio como este, 00:03:42.017 --> 00:03:43.977 las aniquilamos sin escrúpulos. 00:03:44.480 --> 00:03:47.415 La preocupación es que algún día construyamos máquinas 00:03:47.416 --> 00:03:49.849 que, ya sea conscientemente o no, 00:03:49.850 --> 00:03:52.200 nos puedan tratar con una indiferencia similar. 00:03:53.760 --> 00:03:56.520 Sospecho que esto pueda parece inverosímil para muchos. 00:03:57.375 --> 00:04:03.289 Apuesto a que hay quienes dudan de que la superinteligente IA sea posible 00:04:03.290 --> 00:04:05.375 y mucho menos inevitable. 00:04:05.376 --> 00:04:08.995 Pero en este caso hay que refutar uno de los siguientes supuestos. 00:04:08.996 --> 00:04:10.568 Y hay solo tres. 00:04:11.800 --> 00:04:16.519 La inteligencia es el procesamiento de información en un sistema físico. 00:04:17.320 --> 00:04:19.934 En realidad, esto es poco más que una suposición. 00:04:19.935 --> 00:04:23.391 Ya hemos incorporado inteligencia limitada en nuestras máquinas, 00:04:23.392 --> 00:04:28.368 y aún así, muchas de estas máquinas actúan a un nivel de inteligencia sobrehumana. 00:04:28.840 --> 00:04:34.045 Y sabemos que la mera materia da lugar a lo que se llama "inteligencia general", 00:04:34.046 --> 00:04:37.687 la capacidad de pensar con flexibilidad en múltiples campos 00:04:37.688 --> 00:04:40.823 porque nuestros cerebro humano ya lo ha conseguido. 00:04:40.824 --> 00:04:44.759 Es decir, solo hay átomos aquí, 00:04:44.760 --> 00:04:49.255 y mientras continuemos construyendo sistemas de átomos 00:04:49.256 --> 00:04:51.951 que exhiban un comportamiento más y más inteligente, 00:04:51.952 --> 00:04:57.683 terminaremos implementando, a menos que lo interrumpamos, inteligencia general 00:04:57.684 --> 00:04:59.159 en nuestras máquinas. 00:04:59.160 --> 00:05:02.789 Es crucial comprender que la velocidad no es el problema 00:05:02.790 --> 00:05:06.255 porque cualquier velocidad es suficiente para llegar al fin. 00:05:06.256 --> 00:05:10.031 No necesitamos la ley de Moore para continuar ni un aumento exponencial. 00:05:10.032 --> 00:05:11.632 Solo tenemos que seguir adelante. 00:05:13.480 --> 00:05:16.400 El segundo supuesto es que vamos a seguir adelante. 00:05:17.000 --> 00:05:19.760 Vamos a seguir mejorando nuestras máquinas inteligentes. 00:05:22.590 --> 00:05:25.375 Y teniendo en cuenta el valor de la inteligencia, 00:05:25.376 --> 00:05:28.911 es decir, la inteligencia es o bien la fuente de todo lo que valoramos 00:05:28.912 --> 00:05:31.687 o la necesidad por preservar todo lo que valoramos. 00:05:31.688 --> 00:05:33.943 Es nuestro recurso más valioso. 00:05:33.944 --> 00:05:35.479 Por eso lo queremos hacer. 00:05:35.480 --> 00:05:38.815 Tenemos problemas que necesitamos desesperadamente resolver. 00:05:38.816 --> 00:05:42.490 Queremos curar enfermedades como el Alzheimer y el cáncer. 00:05:43.170 --> 00:05:45.179 Queremos entender los sistemas económicos. 00:05:45.180 --> 00:05:47.319 Queremos mejorar el clima. 00:05:47.320 --> 00:05:49.175 Vamos a hacer esto, si podemos. 00:05:49.176 --> 00:05:52.462 El tren ya salió de la estación y no hay frenos. 00:05:53.880 --> 00:05:59.335 Por último, no estamos en la cima de la inteligencia, 00:05:59.336 --> 00:06:01.136 ni siquiera cerca, probablemente. 00:06:01.640 --> 00:06:03.535 Y esto realmente es crucial. 00:06:03.536 --> 00:06:05.951 Esto es lo que hace nuestra situación tan precaria, 00:06:05.952 --> 00:06:08.239 y esto es lo que hace que nuestras intuiciones 00:06:08.240 --> 00:06:10.990 sobre los riesgos sean poco fiables. 00:06:11.000 --> 00:06:14.650 Piensen en la persona más inteligente que jamás haya vivido. 00:06:14.667 --> 00:06:18.055 En la lista de casi todos está John Von Neumann. 00:06:18.056 --> 00:06:21.391 La impresión que hacía Von Neumann en las personas a su alrededor, 00:06:21.392 --> 00:06:25.447 incluyendo los más grandes matemáticos y físicos de su época, 00:06:25.448 --> 00:06:27.383 está bastante bien documentada. 00:06:27.384 --> 00:06:31.159 Si solo la mitad de las historias sobre él fueran una verdad a medias, 00:06:31.160 --> 00:06:32.255 no hay duda 00:06:32.256 --> 00:06:35.141 de que es una de las personas más inteligentes que ha vivido. 00:06:35.142 --> 00:06:37.560 Así que consideren el espectro de la inteligencia. 00:06:38.320 --> 00:06:39.919 Aquí tenemos a John Von Neumann. 00:06:41.560 --> 00:06:42.894 Y aquí estamos tú y yo. 00:06:44.120 --> 00:06:45.416 Y luego tenemos un pollo. 00:06:47.400 --> 00:06:48.776 Lo sentimos, una gallina. 00:06:49.920 --> 00:06:53.016 No hay por qué hacer esta charla más deprimente de lo que ya es. 00:06:53.017 --> 00:06:54.876 (Risas) 00:06:56.339 --> 00:06:59.815 Sin embargo, parece muy probable que el espectro de la inteligencia 00:06:59.816 --> 00:07:02.936 se extienda mucho más allá de lo que actualmente concebimos, 00:07:03.880 --> 00:07:07.095 y si construimos máquinas más inteligentes que nosotros, 00:07:07.096 --> 00:07:09.391 muy probablemente explorarán este espectro 00:07:09.392 --> 00:07:11.247 de maneras que no podemos imaginar, 00:07:11.248 --> 00:07:13.768 y nos superarán de maneras inimaginables. 00:07:15.000 --> 00:07:19.229 Y es importante saber que esto es cierto solo debido a la velocidad. 00:07:19.230 --> 00:07:24.415 Así que imaginen que acabamos de construir una IA superinteligente 00:07:24.416 --> 00:07:25.971 que no fuera más inteligente 00:07:25.972 --> 00:07:30.084 que el promedio del equipo de investigadores en Stanford o el MIT. 00:07:30.110 --> 00:07:31.835 Los circuitos electrónicos funcionan 00:07:31.836 --> 00:07:34.995 aproximadamente un millón de veces más rápido que los bioquímicos, 00:07:34.996 --> 00:07:37.915 así que esta máquina debe pensar un millón de veces más rápido 00:07:37.916 --> 00:07:39.615 que las mentes que la construyeron. 00:07:39.616 --> 00:07:41.305 Con una semana funcionando 00:07:41.306 --> 00:07:45.700 llevará a cabo 20 000 años de trabajo intelectual a nivel humano, 00:07:46.400 --> 00:07:48.360 semana tras semana tras semana. 00:07:49.640 --> 00:07:52.735 ¿Cómo podríamos siquiera comprender, mucho menos restringir, 00:07:52.736 --> 00:07:55.016 una mente que progresa de esta manera? 00:07:56.840 --> 00:07:58.975 Algo más que es francamente preocupante 00:07:58.976 --> 00:08:03.951 es imaginar el mejor de los casos. 00:08:03.952 --> 00:08:07.649 Imaginemos que diseñamos una IA superinteligente 00:08:07.650 --> 00:08:09.575 que no tiene problemas de seguridad. 00:08:09.576 --> 00:08:12.831 Tenemos el diseño perfecto a la primera. 00:08:12.832 --> 00:08:15.047 Es como si nos dieran un oráculo 00:08:15.048 --> 00:08:17.063 que se comporta exactamente como se espera. 00:08:17.064 --> 00:08:20.994 Esta máquina sería el dispositivo de ahorro de mano de obra perfecta. 00:08:21.520 --> 00:08:24.108 Puede diseñar la máquina que puede construir la máquina 00:08:24.109 --> 00:08:26.071 que pueda hacer cualquier trabajo físico, 00:08:26.072 --> 00:08:27.385 impulsada por la luz solar, 00:08:27.386 --> 00:08:30.071 más o menos por el costo de las materias primas. 00:08:30.072 --> 00:08:32.799 Estamos hablando del fin del trabajo pesado humano. 00:08:33.490 --> 00:08:36.840 También estamos hablando del fin de la mayoría del trabajo intelectual. 00:08:37.121 --> 00:08:40.280 Entonces, ¿qué harían simios como nosotros en estas circunstancias? 00:08:40.292 --> 00:08:44.375 Pues, podríamos jugar al Frisbee y darnos masajes. 00:08:45.840 --> 00:08:48.489 Tomar un poco de LSD e inventar modas ridículas 00:08:48.490 --> 00:08:51.305 y todo el mundo podríamos parecernos a un festival de rock. 00:08:51.306 --> 00:08:52.745 (Risas) 00:08:54.320 --> 00:08:58.726 Puede parecer muy bueno, pero hay que preguntarse 00:08:58.746 --> 00:09:02.391 qué pasaría con nuestro orden económico y político actual. 00:09:02.392 --> 00:09:04.807 Podríamos presenciar 00:09:04.808 --> 00:09:08.943 un nivel de desigualdad de la riqueza y el desempleo 00:09:08.944 --> 00:09:10.439 nunca antes visto 00:09:10.440 --> 00:09:13.605 sin la voluntad de poner esta nueva riqueza inmediatamente 00:09:13.606 --> 00:09:15.450 al servicio de toda la humanidad, 00:09:15.459 --> 00:09:19.166 y unos poco trillonarios estarían en las portadas de las revistas de negocios 00:09:19.167 --> 00:09:22.645 mientras que el resto del mundo tendría la libertad de morirse de hambre. 00:09:22.646 --> 00:09:25.196 Y ¿qué pasaría si los rusos o los chinos se enteraran 00:09:25.209 --> 00:09:27.242 de que alguna empresa en Silicon Valley 00:09:27.243 --> 00:09:29.967 está a punto de crear una IA superinteligente? 00:09:29.968 --> 00:09:32.824 Esta máquina podría ser capaz de hacer la guerra, 00:09:32.834 --> 00:09:35.039 ya sea terrestre o cibernética, 00:09:35.040 --> 00:09:37.040 con un poder sin precedentes. 00:09:37.920 --> 00:09:39.975 En este escenario el ganador se lleva todo. 00:09:39.976 --> 00:09:43.111 Seis meses adelante en la competencia 00:09:43.112 --> 00:09:45.887 sería una ventaja de 500 000 años, 00:09:45.888 --> 00:09:47.383 como mínimo. 00:09:47.384 --> 00:09:52.119 Parecería que incluso meros rumores de este tipo de avance 00:09:52.120 --> 00:09:54.495 podría causar que nuestra especie se vuelva loca. 00:09:54.496 --> 00:09:57.391 Una de las cosas más aterradoras, 00:09:57.392 --> 00:10:00.167 en mi opinión, en este momento, 00:10:00.168 --> 00:10:04.449 son el tipo de cosas que dicen los investigadores de IA 00:10:04.450 --> 00:10:06.240 cuando quieren tranquilizarnos. 00:10:06.722 --> 00:10:10.455 Y el motivo invocado más frecuentemente de que no nos preocupemos es el tiempo. 00:10:10.456 --> 00:10:12.511 Falta mucho para eso, no se preocupen. 00:10:12.512 --> 00:10:14.952 Eso será probablemente dentro de 50 o 100 años. 00:10:15.720 --> 00:10:16.835 Un investigador dijo, 00:10:16.836 --> 00:10:19.500 "Preocuparse por la seguridad y todo lo relacionado con la IA 00:10:19.501 --> 00:10:22.085 es como preocuparse por la superpoblación en Marte". 00:10:22.125 --> 00:10:25.584 Esta es la manera de Silicon Valley de mostrarse condescendiente. 00:10:25.585 --> 00:10:27.519 (Risas) 00:10:27.520 --> 00:10:29.416 Nadie parece darse cuenta 00:10:29.417 --> 00:10:32.031 que tomar el tiempo con referencia 00:10:32.032 --> 00:10:34.607 es una incongruencia total. 00:10:34.608 --> 00:10:38.259 Si la inteligencia es solo una cuestión de procesamiento de la información 00:10:38.260 --> 00:10:40.616 y seguimos mejorando nuestras máquinas, 00:10:40.626 --> 00:10:43.502 produciremos algún tipo de superinteligencia. 00:10:44.320 --> 00:10:49.165 Y no tenemos idea de cuánto tiempo nos llevará crear las condiciones 00:10:49.166 --> 00:10:50.786 para hacerlo de forma segura. 00:10:52.200 --> 00:10:53.495 Voy a decirlo de nuevo. 00:10:53.496 --> 00:10:58.561 Y no tenemos idea de cuánto tiempo nos llevará crear las condiciones 00:10:58.562 --> 00:11:00.182 para hacerlo de forma segura. 00:11:00.920 --> 00:11:04.375 Y si no lo han notado, 50 años ya no son lo que solían ser. 00:11:04.376 --> 00:11:06.831 Estos son 50 años en meses. 00:11:06.832 --> 00:11:08.992 Este es el tiempo que hemos tenido el iPhone. 00:11:09.440 --> 00:11:12.410 Este es el tiempo que "Los Simpson" ha estado en la televisión. 00:11:12.704 --> 00:11:15.079 Cincuenta años no es tanto tiempo 00:11:15.080 --> 00:11:18.880 para lograr uno de los mayores desafíos al que nuestra especie se ha enfrentado. 00:11:19.640 --> 00:11:23.655 Una vez más, parece que no tenemos una respuesta emocional adecuada 00:11:23.656 --> 00:11:26.351 para lo que, con toda probabilidad, va a pasar. 00:11:26.352 --> 00:11:30.327 El científico de la computación Stuart Russell ofrece una gran analogía: 00:11:30.328 --> 00:11:36.264 "Imaginen que recibimos un mensaje de una civilización extraterrestre que diga: 00:11:37.040 --> 00:11:38.575 'Gente de la Tierra, 00:11:38.576 --> 00:11:40.936 llegaremos en su planeta en 50 años. 00:11:41.800 --> 00:11:42.896 Prepárense'". 00:11:43.400 --> 00:11:46.780 ¿Estaremos contando los meses hasta que llegue la nave nodriza? 00:11:47.930 --> 00:11:51.190 ¿No estaríamos un poco más preocupados? 00:11:52.340 --> 00:11:54.496 Otra razón que se nos da para no preocuparnos 00:11:54.496 --> 00:11:57.381 es que estas máquinas no podrán no compartir nuestros valores 00:11:57.382 --> 00:12:00.347 porque van a ser literalmente extensiones de nosotros mismos. 00:12:00.348 --> 00:12:02.049 Se injertarán en nuestro cerebro, 00:12:02.050 --> 00:12:04.417 y prácticamente seremos su sistema límbico. 00:12:05.120 --> 00:12:06.949 Consideren por un momento 00:12:06.950 --> 00:12:09.735 que el camino más seguro y prudente hacia adelante, 00:12:09.736 --> 00:12:10.882 el recomendado, 00:12:10.882 --> 00:12:14.169 es la implantación de esta tecnología directamente en nuestro cerebro. 00:12:14.170 --> 00:12:15.939 Ahora bien, esto puede ser de hecho, 00:12:15.940 --> 00:12:18.236 la manera más segura y prudente de avanzar, 00:12:18.250 --> 00:12:21.667 pero por lo general, los problemas de seguridad de una nueva tecnología 00:12:21.668 --> 00:12:24.849 hay que resolverlos antes de implementarla en una cabeza. 00:12:24.850 --> 00:12:26.799 (Risas) 00:12:26.800 --> 00:12:28.339 El mayor problema es 00:12:28.340 --> 00:12:33.775 que construir una IA superinteligente y autónoma parece más fácil 00:12:33.776 --> 00:12:35.751 que diseñar una IA superinteligente 00:12:35.752 --> 00:12:37.528 mientras se controla la neurociencia 00:12:37.542 --> 00:12:40.209 para integrar la máquina y la mente sin problemas. 00:12:40.800 --> 00:12:43.975 Y dado que las empresas y los gobiernos que trabajan sobre ello 00:12:43.976 --> 00:12:47.631 probablemente se vean a sí mismos en una carrera contra todos los demás, 00:12:47.632 --> 00:12:50.759 y tomando en cuenta que ganar esta carrera es ganar el mundo, 00:12:50.760 --> 00:12:53.545 siempre y cuando no lo destruyan en el momento siguiente, 00:12:53.546 --> 00:12:56.055 entonces parece probable que lo más fácil de hacer 00:12:56.056 --> 00:12:57.256 se hará primero. 00:12:58.560 --> 00:13:01.416 Ahora, por desgracia, no tengo una solución a este problema, 00:13:01.417 --> 00:13:04.001 además de recomendarles que piensen más sobre ello. 00:13:04.002 --> 00:13:06.339 Creo que necesitamos un Proyecto Manhattan 00:13:06.340 --> 00:13:08.495 sobre el tema de la inteligencia artificial. 00:13:08.496 --> 00:13:11.231 No para construirlo, porque creo que eso es inevitable, 00:13:11.232 --> 00:13:14.567 sino para entender cómo evitar una carrera armamentística 00:13:14.568 --> 00:13:18.063 y construirla de manera que concuerde con nuestros intereses. 00:13:18.064 --> 00:13:20.199 Cuando hablamos de IA superinteligente 00:13:20.200 --> 00:13:22.266 que puede modificarse a sí misma, 00:13:22.890 --> 00:13:27.215 solo tenemos una oportunidad de fijar las condiciones iniciales correctas, 00:13:27.216 --> 00:13:29.271 e incluso entonces necesitaremos gestionar 00:13:29.272 --> 00:13:32.312 las consecuencias económicas y políticas de dicho diseño. 00:13:33.760 --> 00:13:35.815 Pero en el momento en que admitamos 00:13:35.816 --> 00:13:39.816 que el procesamiento de la información es la fuente de la inteligencia, 00:13:40.720 --> 00:13:45.520 que algún sistema computacional adecuado es la base de la inteligencia, 00:13:46.360 --> 00:13:50.120 y admitamos que los vamos a mejorar de forma continua, 00:13:51.280 --> 00:13:55.399 y admitamos que el horizonte del conocimiento supera por mucho 00:13:55.400 --> 00:13:56.960 lo que actualmente conocemos, 00:13:58.120 --> 00:13:59.555 entonces tenemos que admitir 00:13:59.556 --> 00:14:02.440 que estamos en el proceso de construir una especie de dios. 00:14:03.400 --> 00:14:04.975 Ahora sería un buen momento 00:14:04.976 --> 00:14:07.799 para asegurarse de que sea un dios con el que podamos vivir. 00:14:08.120 --> 00:14:09.165 Muchas gracias. 00:14:09.166 --> 00:14:10.346 (Aplausos)