1 00:00:01,000 --> 00:00:03,209 Voy a hablar de un fallo intuitivo 2 00:00:03,209 --> 00:00:04,793 que muchos sufrimos. 3 00:00:05,480 --> 00:00:08,640 En realidad es la capacidad de detectar cierto tipo de peligro. 4 00:00:09,470 --> 00:00:16,236 Describiré una situación que creo que es tan aterradora como posible 5 00:00:16,960 --> 00:00:19,216 y veremos que eso no es una buena combinación. 6 00:00:19,890 --> 00:00:21,973 Y sin embargo, en lugar de sentir miedo, 7 00:00:21,974 --> 00:00:25,209 la mayoría pensará que es algo bastante interesante. 8 00:00:25,220 --> 00:00:29,696 Describiré cómo los avances en el campo de la inteligencia artificial, 9 00:00:29,952 --> 00:00:32,037 en última instancia, podrían destruirnos. 10 00:00:32,037 --> 00:00:34,015 Y, de hecho, me resulta muy difícil ver 11 00:00:34,016 --> 00:00:37,416 que no nos destruirían o nos ayudaran a destruirnos. 12 00:00:37,424 --> 00:00:39,279 Y sin embargo, si son como yo, 13 00:00:39,280 --> 00:00:41,935 encontrarán que es divertido pensar en estas cosas. 14 00:00:41,936 --> 00:00:45,311 Y esta manera de ver las cosas es parte del problema. 15 00:00:45,312 --> 00:00:47,032 Esa reacción debería preocuparles. 16 00:00:47,918 --> 00:00:50,581 Si tuviera que convencerles con esta charla 17 00:00:50,582 --> 00:00:53,991 de que estamos al borde de sufrir una hambruna a nivel mundial, 18 00:00:53,992 --> 00:00:57,047 debido al calentamiento global o cualquier otra catástrofe, 19 00:00:57,048 --> 00:01:00,463 y que sus nietos o sus bisnietos, 20 00:01:00,464 --> 00:01:02,264 vivirán muy probablemente así, 21 00:01:03,200 --> 00:01:04,400 no pensarían: 22 00:01:05,440 --> 00:01:06,759 "Interesante. 23 00:01:06,760 --> 00:01:08,250 Me gusta esta charla TED". 24 00:01:09,200 --> 00:01:10,720 El hambre no es divertida 25 00:01:11,800 --> 00:01:15,172 La muerte en la ciencia ficción, por el contrario, es algo divertido, 26 00:01:15,173 --> 00:01:19,126 y lo más preocupante en el desarrollo de la IA hoy en día 27 00:01:19,167 --> 00:01:23,247 es que parecemos incapaces de ofrecer una respuesta emocional adecuada 28 00:01:23,248 --> 00:01:25,067 frente a los peligros que se avecinan. 29 00:01:25,187 --> 00:01:28,387 Yo mismo soy incapaz de ello y estoy dando esta charla. 30 00:01:30,125 --> 00:01:32,614 Es como si nos encontráramos ante dos puertas. 31 00:01:32,615 --> 00:01:34,176 Detrás de la puerta número uno 32 00:01:34,177 --> 00:01:37,416 detenemos el progreso de máquinas inteligentes. 33 00:01:37,417 --> 00:01:41,417 Nuestro hardware y software se estancan simplemente, por alguna razón. 34 00:01:41,432 --> 00:01:44,762 Traten de reflexionar por un momento por qué podría suceder esto. 35 00:01:45,083 --> 00:01:48,735 Dada la valía de la inteligencia y la automatización, 36 00:01:48,736 --> 00:01:52,256 seguiremos mejorando nuestra tecnología si es posible. 37 00:01:53,200 --> 00:01:54,867 ¿Qué podría impedirnos hacer eso? 38 00:01:55,800 --> 00:01:57,600 ¿Una guerra nuclear a gran escala? 39 00:01:59,000 --> 00:02:00,542 ¿Una pandemia mundial? 40 00:02:02,320 --> 00:02:03,790 ¿El impacto de un asteroide? 41 00:02:05,375 --> 00:02:08,542 ¿El hecho que Justin Bieber podría ser el presidente de los EE.UU.? 42 00:02:08,543 --> 00:02:10,205 (Risas) 43 00:02:12,760 --> 00:02:16,680 El caso es que algo tendría que destruir la civilización tal como la conocemos. 44 00:02:17,360 --> 00:02:21,655 Realmente deberíamos imaginar algo terrible 45 00:02:21,656 --> 00:02:24,991 para dejar de desarrollar nuestra tecnología 46 00:02:24,992 --> 00:02:26,207 para siempre, 47 00:02:26,208 --> 00:02:28,223 generación tras generación. 48 00:02:28,224 --> 00:02:30,359 Casi por definición, sería lo peor 49 00:02:30,360 --> 00:02:32,319 en la historia humana. 50 00:02:32,320 --> 00:02:33,815 La única alternativa, 51 00:02:33,816 --> 00:02:36,391 y esto es lo que hay detrás de la puerta número dos, 52 00:02:36,392 --> 00:02:39,335 es seguir mejorando nuestras máquinas inteligentes 53 00:02:39,336 --> 00:02:40,936 año tras año tras año. 54 00:02:41,720 --> 00:02:45,360 En algún momento construiremos máquinas más inteligentes que nosotros, 55 00:02:45,840 --> 00:02:48,765 y una vez que las tengamos 56 00:02:48,766 --> 00:02:50,625 empezarán a mejorarse a sí mismas. 57 00:02:50,626 --> 00:02:53,709 Y entonces corremos el riesgo teorizado por el matemático IJ Good 58 00:02:53,710 --> 00:02:55,386 llamado "explosión de inteligencia" 59 00:02:55,506 --> 00:02:57,620 donde el proceso podría salirse de control. 60 00:02:58,120 --> 00:03:00,935 Esto es a menudo caricaturizado, como lo he hecho aquí, 61 00:03:00,936 --> 00:03:05,142 como el miedo a que nos ataquen ejércitos de robots maliciosos. 62 00:03:05,408 --> 00:03:08,103 Pero ese no es el escenario más probable. 63 00:03:08,104 --> 00:03:12,959 No es que nuestras máquinas se volverán malignas espontáneamente. 64 00:03:12,960 --> 00:03:14,515 La preocupación verdadera 65 00:03:14,516 --> 00:03:17,631 al construir máquinas mucho más competentes que nosotros 66 00:03:17,632 --> 00:03:21,407 es que la menor diferencia entre sus objetivos y los nuestros 67 00:03:21,408 --> 00:03:22,608 nos podría destruir. 68 00:03:23,960 --> 00:03:26,629 Basta con pensar en nuestra relación con las hormigas. 69 00:03:26,630 --> 00:03:28,249 No las odiamos. 70 00:03:28,250 --> 00:03:29,991 No vamos por la vida lastimándolas. 71 00:03:29,992 --> 00:03:32,987 De hecho, a veces nos tomamos la molestia de no hacerles daño. 72 00:03:32,988 --> 00:03:34,776 Evitamos pisarlas en la acera. 73 00:03:34,792 --> 00:03:37,787 Pero cada vez que su presencia entra seriamente en conflicto 74 00:03:37,788 --> 00:03:39,407 con alguno de nuestros objetivos, 75 00:03:39,408 --> 00:03:41,897 digamos, en la construcción de un edificio como este, 76 00:03:42,017 --> 00:03:43,977 las aniquilamos sin escrúpulos. 77 00:03:44,480 --> 00:03:47,415 La preocupación es que algún día construyamos máquinas 78 00:03:47,416 --> 00:03:49,849 que, ya sea conscientemente o no, 79 00:03:49,850 --> 00:03:52,200 nos puedan tratar con una indiferencia similar. 80 00:03:53,760 --> 00:03:56,520 Sospecho que esto pueda parece inverosímil para muchos. 81 00:03:57,375 --> 00:04:03,289 Apuesto a que hay quienes dudan de que la superinteligente IA sea posible 82 00:04:03,290 --> 00:04:05,375 y mucho menos inevitable. 83 00:04:05,376 --> 00:04:08,995 Pero en este caso hay que refutar uno de los siguientes supuestos. 84 00:04:08,996 --> 00:04:10,568 Y hay solo tres. 85 00:04:11,800 --> 00:04:16,519 La inteligencia es el procesamiento de información en un sistema físico. 86 00:04:17,320 --> 00:04:19,934 En realidad, esto es poco más que una suposición. 87 00:04:19,935 --> 00:04:23,391 Ya hemos incorporado inteligencia limitada en nuestras máquinas, 88 00:04:23,392 --> 00:04:28,368 y aún así, muchas de estas máquinas actúan a un nivel de inteligencia sobrehumana. 89 00:04:28,840 --> 00:04:34,045 Y sabemos que la mera materia da lugar a lo que se llama "inteligencia general", 90 00:04:34,046 --> 00:04:37,687 la capacidad de pensar con flexibilidad en múltiples campos 91 00:04:37,688 --> 00:04:40,823 porque nuestros cerebro humano ya lo ha conseguido. 92 00:04:40,824 --> 00:04:44,759 Es decir, solo hay átomos aquí, 93 00:04:44,760 --> 00:04:49,255 y mientras continuemos construyendo sistemas de átomos 94 00:04:49,256 --> 00:04:51,951 que exhiban un comportamiento más y más inteligente, 95 00:04:51,952 --> 00:04:57,683 terminaremos implementando, a menos que lo interrumpamos, inteligencia general 96 00:04:57,684 --> 00:04:59,159 en nuestras máquinas. 97 00:04:59,160 --> 00:05:02,789 Es crucial comprender que la velocidad no es el problema 98 00:05:02,790 --> 00:05:06,255 porque cualquier velocidad es suficiente para llegar al fin. 99 00:05:06,256 --> 00:05:10,031 No necesitamos la ley de Moore para continuar ni un aumento exponencial. 100 00:05:10,032 --> 00:05:11,632 Solo tenemos que seguir adelante. 101 00:05:13,480 --> 00:05:16,400 El segundo supuesto es que vamos a seguir adelante. 102 00:05:17,000 --> 00:05:19,760 Vamos a seguir mejorando nuestras máquinas inteligentes. 103 00:05:22,590 --> 00:05:25,375 Y teniendo en cuenta el valor de la inteligencia, 104 00:05:25,376 --> 00:05:28,911 es decir, la inteligencia es o bien la fuente de todo lo que valoramos 105 00:05:28,912 --> 00:05:31,687 o la necesidad por preservar todo lo que valoramos. 106 00:05:31,688 --> 00:05:33,943 Es nuestro recurso más valioso. 107 00:05:33,944 --> 00:05:35,479 Por eso lo queremos hacer. 108 00:05:35,480 --> 00:05:38,815 Tenemos problemas que necesitamos desesperadamente resolver. 109 00:05:38,816 --> 00:05:42,490 Queremos curar enfermedades como el Alzheimer y el cáncer. 110 00:05:43,170 --> 00:05:45,179 Queremos entender los sistemas económicos. 111 00:05:45,180 --> 00:05:47,319 Queremos mejorar el clima. 112 00:05:47,320 --> 00:05:49,175 Vamos a hacer esto, si podemos. 113 00:05:49,176 --> 00:05:52,462 El tren ya salió de la estación y no hay frenos. 114 00:05:53,880 --> 00:05:59,335 Por último, no estamos en la cima de la inteligencia, 115 00:05:59,336 --> 00:06:01,136 ni siquiera cerca, probablemente. 116 00:06:01,640 --> 00:06:03,535 Y esto realmente es crucial. 117 00:06:03,536 --> 00:06:05,951 Esto es lo que hace nuestra situación tan precaria, 118 00:06:05,952 --> 00:06:08,239 y esto es lo que hace que nuestras intuiciones 119 00:06:08,240 --> 00:06:10,990 sobre los riesgos sean poco fiables. 120 00:06:11,000 --> 00:06:14,650 Piensen en la persona más inteligente que jamás haya vivido. 121 00:06:14,667 --> 00:06:18,055 En la lista de casi todos está John Von Neumann. 122 00:06:18,056 --> 00:06:21,391 La impresión que hacía Von Neumann en las personas a su alrededor, 123 00:06:21,392 --> 00:06:25,447 incluyendo los más grandes matemáticos y físicos de su época, 124 00:06:25,448 --> 00:06:27,383 está bastante bien documentada. 125 00:06:27,384 --> 00:06:31,159 Si solo la mitad de las historias sobre él fueran una verdad a medias, 126 00:06:31,160 --> 00:06:32,255 no hay duda 127 00:06:32,256 --> 00:06:35,141 de que es una de las personas más inteligentes que ha vivido. 128 00:06:35,142 --> 00:06:37,560 Así que consideren el espectro de la inteligencia. 129 00:06:38,320 --> 00:06:39,919 Aquí tenemos a John Von Neumann. 130 00:06:41,560 --> 00:06:42,894 Y aquí estamos tú y yo. 131 00:06:44,120 --> 00:06:45,416 Y luego tenemos un pollo. 132 00:06:47,400 --> 00:06:48,776 Lo sentimos, una gallina. 133 00:06:49,920 --> 00:06:53,016 No hay por qué hacer esta charla más deprimente de lo que ya es. 134 00:06:53,017 --> 00:06:54,876 (Risas) 135 00:06:56,339 --> 00:06:59,815 Sin embargo, parece muy probable que el espectro de la inteligencia 136 00:06:59,816 --> 00:07:02,936 se extienda mucho más allá de lo que actualmente concebimos, 137 00:07:03,880 --> 00:07:07,095 y si construimos máquinas más inteligentes que nosotros, 138 00:07:07,096 --> 00:07:09,391 muy probablemente explorarán este espectro 139 00:07:09,392 --> 00:07:11,247 de maneras que no podemos imaginar, 140 00:07:11,248 --> 00:07:13,768 y nos superarán de maneras inimaginables. 141 00:07:15,000 --> 00:07:19,229 Y es importante saber que esto es cierto solo debido a la velocidad. 142 00:07:19,230 --> 00:07:24,415 Así que imaginen que acabamos de construir una IA superinteligente 143 00:07:24,416 --> 00:07:25,971 que no fuera más inteligente 144 00:07:25,972 --> 00:07:30,084 que el promedio del equipo de investigadores en Stanford o el MIT. 145 00:07:30,110 --> 00:07:31,835 Los circuitos electrónicos funcionan 146 00:07:31,836 --> 00:07:34,995 aproximadamente un millón de veces más rápido que los bioquímicos, 147 00:07:34,996 --> 00:07:37,915 así que esta máquina debe pensar un millón de veces más rápido 148 00:07:37,916 --> 00:07:39,615 que las mentes que la construyeron. 149 00:07:39,616 --> 00:07:41,305 Con una semana funcionando 150 00:07:41,306 --> 00:07:45,700 llevará a cabo 20 000 años de trabajo intelectual a nivel humano, 151 00:07:46,400 --> 00:07:48,360 semana tras semana tras semana. 152 00:07:49,640 --> 00:07:52,735 ¿Cómo podríamos siquiera comprender, mucho menos restringir, 153 00:07:52,736 --> 00:07:55,016 una mente que progresa de esta manera? 154 00:07:56,840 --> 00:07:58,975 Algo más que es francamente preocupante 155 00:07:58,976 --> 00:08:03,951 es imaginar el mejor de los casos. 156 00:08:03,952 --> 00:08:07,649 Imaginemos que diseñamos una IA superinteligente 157 00:08:07,650 --> 00:08:09,575 que no tiene problemas de seguridad. 158 00:08:09,576 --> 00:08:12,831 Tenemos el diseño perfecto a la primera. 159 00:08:12,832 --> 00:08:15,047 Es como si nos dieran un oráculo 160 00:08:15,048 --> 00:08:17,063 que se comporta exactamente como se espera. 161 00:08:17,064 --> 00:08:20,994 Esta máquina sería el dispositivo de ahorro de mano de obra perfecta. 162 00:08:21,520 --> 00:08:24,108 Puede diseñar la máquina que puede construir la máquina 163 00:08:24,109 --> 00:08:26,071 que pueda hacer cualquier trabajo físico, 164 00:08:26,072 --> 00:08:27,385 impulsada por la luz solar, 165 00:08:27,386 --> 00:08:30,071 más o menos por el costo de las materias primas. 166 00:08:30,072 --> 00:08:32,799 Estamos hablando del fin del trabajo pesado humano. 167 00:08:33,490 --> 00:08:36,840 También estamos hablando del fin de la mayoría del trabajo intelectual. 168 00:08:37,121 --> 00:08:40,280 Entonces, ¿qué harían simios como nosotros en estas circunstancias? 169 00:08:40,292 --> 00:08:44,375 Pues, podríamos jugar al Frisbee y darnos masajes. 170 00:08:45,840 --> 00:08:48,489 Tomar un poco de LSD e inventar modas ridículas 171 00:08:48,490 --> 00:08:51,305 y todo el mundo podríamos parecernos a un festival de rock. 172 00:08:51,306 --> 00:08:52,745 (Risas) 173 00:08:54,320 --> 00:08:58,726 Puede parecer muy bueno, pero hay que preguntarse 174 00:08:58,746 --> 00:09:02,391 qué pasaría con nuestro orden económico y político actual. 175 00:09:02,392 --> 00:09:04,807 Podríamos presenciar 176 00:09:04,808 --> 00:09:08,943 un nivel de desigualdad de la riqueza y el desempleo 177 00:09:08,944 --> 00:09:10,439 nunca antes visto 178 00:09:10,440 --> 00:09:13,605 sin la voluntad de poner esta nueva riqueza inmediatamente 179 00:09:13,606 --> 00:09:15,450 al servicio de toda la humanidad, 180 00:09:15,459 --> 00:09:19,166 y unos poco trillonarios estarían en las portadas de las revistas de negocios 181 00:09:19,167 --> 00:09:22,645 mientras que el resto del mundo tendría la libertad de morirse de hambre. 182 00:09:22,646 --> 00:09:25,196 Y ¿qué pasaría si los rusos o los chinos se enteraran 183 00:09:25,209 --> 00:09:27,242 de que alguna empresa en Silicon Valley 184 00:09:27,243 --> 00:09:29,967 está a punto de crear una IA superinteligente? 185 00:09:29,968 --> 00:09:32,824 Esta máquina podría ser capaz de hacer la guerra, 186 00:09:32,834 --> 00:09:35,039 ya sea terrestre o cibernética, 187 00:09:35,040 --> 00:09:37,040 con un poder sin precedentes. 188 00:09:37,920 --> 00:09:39,975 En este escenario el ganador se lleva todo. 189 00:09:39,976 --> 00:09:43,111 Seis meses adelante en la competencia 190 00:09:43,112 --> 00:09:45,887 sería una ventaja de 500 000 años, 191 00:09:45,888 --> 00:09:47,383 como mínimo. 192 00:09:47,384 --> 00:09:52,119 Parecería que incluso meros rumores de este tipo de avance 193 00:09:52,120 --> 00:09:54,495 podría causar que nuestra especie se vuelva loca. 194 00:09:54,496 --> 00:09:57,391 Una de las cosas más aterradoras, 195 00:09:57,392 --> 00:10:00,167 en mi opinión, en este momento, 196 00:10:00,168 --> 00:10:04,449 son el tipo de cosas que dicen los investigadores de IA 197 00:10:04,450 --> 00:10:06,240 cuando quieren tranquilizarnos. 198 00:10:06,722 --> 00:10:10,455 Y el motivo invocado más frecuentemente de que no nos preocupemos es el tiempo. 199 00:10:10,456 --> 00:10:12,511 Falta mucho para eso, no se preocupen. 200 00:10:12,512 --> 00:10:14,952 Eso será probablemente dentro de 50 o 100 años. 201 00:10:15,720 --> 00:10:16,835 Un investigador dijo, 202 00:10:16,836 --> 00:10:19,500 "Preocuparse por la seguridad y todo lo relacionado con la IA 203 00:10:19,501 --> 00:10:22,085 es como preocuparse por la superpoblación en Marte". 204 00:10:22,125 --> 00:10:25,584 Esta es la manera de Silicon Valley de mostrarse condescendiente. 205 00:10:25,585 --> 00:10:27,519 (Risas) 206 00:10:27,520 --> 00:10:29,416 Nadie parece darse cuenta 207 00:10:29,417 --> 00:10:32,031 que tomar el tiempo con referencia 208 00:10:32,032 --> 00:10:34,607 es una incongruencia total. 209 00:10:34,608 --> 00:10:38,259 Si la inteligencia es solo una cuestión de procesamiento de la información 210 00:10:38,260 --> 00:10:40,616 y seguimos mejorando nuestras máquinas, 211 00:10:40,626 --> 00:10:43,502 produciremos algún tipo de superinteligencia. 212 00:10:44,320 --> 00:10:49,165 Y no tenemos idea de cuánto tiempo nos llevará crear las condiciones 213 00:10:49,166 --> 00:10:50,786 para hacerlo de forma segura. 214 00:10:52,200 --> 00:10:53,495 Voy a decirlo de nuevo. 215 00:10:53,496 --> 00:10:58,561 Y no tenemos idea de cuánto tiempo nos llevará crear las condiciones 216 00:10:58,562 --> 00:11:00,182 para hacerlo de forma segura. 217 00:11:00,920 --> 00:11:04,375 Y si no lo han notado, 50 años ya no son lo que solían ser. 218 00:11:04,376 --> 00:11:06,831 Estos son 50 años en meses. 219 00:11:06,832 --> 00:11:08,992 Este es el tiempo que hemos tenido el iPhone. 220 00:11:09,440 --> 00:11:12,410 Este es el tiempo que "Los Simpson" ha estado en la televisión. 221 00:11:12,704 --> 00:11:15,079 Cincuenta años no es tanto tiempo 222 00:11:15,080 --> 00:11:18,880 para lograr uno de los mayores desafíos al que nuestra especie se ha enfrentado. 223 00:11:19,640 --> 00:11:23,655 Una vez más, parece que no tenemos una respuesta emocional adecuada 224 00:11:23,656 --> 00:11:26,351 para lo que, con toda probabilidad, va a pasar. 225 00:11:26,352 --> 00:11:30,327 El científico de la computación Stuart Russell ofrece una gran analogía: 226 00:11:30,328 --> 00:11:36,264 "Imaginen que recibimos un mensaje de una civilización extraterrestre que diga: 227 00:11:37,040 --> 00:11:38,575 'Gente de la Tierra, 228 00:11:38,576 --> 00:11:40,936 llegaremos en su planeta en 50 años. 229 00:11:41,800 --> 00:11:42,896 Prepárense'". 230 00:11:43,400 --> 00:11:46,780 ¿Estaremos contando los meses hasta que llegue la nave nodriza? 231 00:11:47,930 --> 00:11:51,190 ¿No estaríamos un poco más preocupados? 232 00:11:52,340 --> 00:11:54,496 Otra razón que se nos da para no preocuparnos 233 00:11:54,496 --> 00:11:57,381 es que estas máquinas no podrán no compartir nuestros valores 234 00:11:57,382 --> 00:12:00,347 porque van a ser literalmente extensiones de nosotros mismos. 235 00:12:00,348 --> 00:12:02,049 Se injertarán en nuestro cerebro, 236 00:12:02,050 --> 00:12:04,417 y prácticamente seremos su sistema límbico. 237 00:12:05,120 --> 00:12:06,949 Consideren por un momento 238 00:12:06,950 --> 00:12:09,735 que el camino más seguro y prudente hacia adelante, 239 00:12:09,736 --> 00:12:10,882 el recomendado, 240 00:12:10,882 --> 00:12:14,169 es la implantación de esta tecnología directamente en nuestro cerebro. 241 00:12:14,170 --> 00:12:15,939 Ahora bien, esto puede ser de hecho, 242 00:12:15,940 --> 00:12:18,236 la manera más segura y prudente de avanzar, 243 00:12:18,250 --> 00:12:21,667 pero por lo general, los problemas de seguridad de una nueva tecnología 244 00:12:21,668 --> 00:12:24,849 hay que resolverlos antes de implementarla en una cabeza. 245 00:12:24,850 --> 00:12:26,799 (Risas) 246 00:12:26,800 --> 00:12:28,339 El mayor problema es 247 00:12:28,340 --> 00:12:33,775 que construir una IA superinteligente y autónoma parece más fácil 248 00:12:33,776 --> 00:12:35,751 que diseñar una IA superinteligente 249 00:12:35,752 --> 00:12:37,528 mientras se controla la neurociencia 250 00:12:37,542 --> 00:12:40,209 para integrar la máquina y la mente sin problemas. 251 00:12:40,800 --> 00:12:43,975 Y dado que las empresas y los gobiernos que trabajan sobre ello 252 00:12:43,976 --> 00:12:47,631 probablemente se vean a sí mismos en una carrera contra todos los demás, 253 00:12:47,632 --> 00:12:50,759 y tomando en cuenta que ganar esta carrera es ganar el mundo, 254 00:12:50,760 --> 00:12:53,545 siempre y cuando no lo destruyan en el momento siguiente, 255 00:12:53,546 --> 00:12:56,055 entonces parece probable que lo más fácil de hacer 256 00:12:56,056 --> 00:12:57,256 se hará primero. 257 00:12:58,560 --> 00:13:01,416 Ahora, por desgracia, no tengo una solución a este problema, 258 00:13:01,417 --> 00:13:04,001 además de recomendarles que piensen más sobre ello. 259 00:13:04,002 --> 00:13:06,339 Creo que necesitamos un Proyecto Manhattan 260 00:13:06,340 --> 00:13:08,495 sobre el tema de la inteligencia artificial. 261 00:13:08,496 --> 00:13:11,231 No para construirlo, porque creo que eso es inevitable, 262 00:13:11,232 --> 00:13:14,567 sino para entender cómo evitar una carrera armamentística 263 00:13:14,568 --> 00:13:18,063 y construirla de manera que concuerde con nuestros intereses. 264 00:13:18,064 --> 00:13:20,199 Cuando hablamos de IA superinteligente 265 00:13:20,200 --> 00:13:22,266 que puede modificarse a sí misma, 266 00:13:22,890 --> 00:13:27,215 solo tenemos una oportunidad de fijar las condiciones iniciales correctas, 267 00:13:27,216 --> 00:13:29,271 e incluso entonces necesitaremos gestionar 268 00:13:29,272 --> 00:13:32,312 las consecuencias económicas y políticas de dicho diseño. 269 00:13:33,760 --> 00:13:35,815 Pero en el momento en que admitamos 270 00:13:35,816 --> 00:13:39,816 que el procesamiento de la información es la fuente de la inteligencia, 271 00:13:40,720 --> 00:13:45,520 que algún sistema computacional adecuado es la base de la inteligencia, 272 00:13:46,360 --> 00:13:50,120 y admitamos que los vamos a mejorar de forma continua, 273 00:13:51,280 --> 00:13:55,399 y admitamos que el horizonte del conocimiento supera por mucho 274 00:13:55,400 --> 00:13:56,960 lo que actualmente conocemos, 275 00:13:58,120 --> 00:13:59,555 entonces tenemos que admitir 276 00:13:59,556 --> 00:14:02,440 que estamos en el proceso de construir una especie de dios. 277 00:14:03,400 --> 00:14:04,975 Ahora sería un buen momento 278 00:14:04,976 --> 00:14:07,799 para asegurarse de que sea un dios con el que podamos vivir. 279 00:14:08,120 --> 00:14:09,165 Muchas gracias. 280 00:14:09,166 --> 00:14:10,346 (Aplausos)