WEBVTT 00:00:00.960 --> 00:00:03.936 Esta historia empieza en 1985, 00:00:03.960 --> 00:00:05.936 cuando a mis 22 años, 00:00:05.960 --> 00:00:08.336 gané el Campeonato Mundial de Ajedrez 00:00:08.360 --> 00:00:11.560 tras vencer a Anatoli Kárpov. 00:00:12.480 --> 00:00:13.736 A principios de ese año, 00:00:13.760 --> 00:00:17.376 jugué lo que se llama partidas simultáneas 00:00:17.400 --> 00:00:21.696 contra 32 de las mejores máquinas de ajedrez en el mundo 00:00:21.720 --> 00:00:23.080 en Hamburgo, Alemania. 00:00:24.160 --> 00:00:25.360 Gané todas, 00:00:26.560 --> 00:00:29.736 y no se consideró una gran sorpresa 00:00:29.760 --> 00:00:33.800 que pudiera ganarle a 32 computadoras al mismo tiempo. 00:00:34.480 --> 00:00:37.056 Para mí, esa fue la edad de oro. 00:00:37.080 --> 00:00:39.176 (Risas) 00:00:39.200 --> 00:00:40.720 Las máquinas eran débiles, 00:00:41.680 --> 00:00:43.016 y mi cabello era fuerte. 00:00:43.040 --> 00:00:45.240 (Risas) 00:00:46.720 --> 00:00:48.776 Doce años después, 00:00:48.800 --> 00:00:53.416 luchaba a muerte contra una computadora 00:00:53.440 --> 00:00:54.640 en una partida 00:00:55.360 --> 00:00:57.416 llamada en la portada de "Newsweek" 00:00:57.440 --> 00:00:59.216 "El último combate del cerebro". 00:00:59.240 --> 00:01:00.456 Sin presión. 00:01:00.480 --> 00:01:02.000 (Risas) 00:01:03.040 --> 00:01:05.616 De la mitología a la ciencia ficción, 00:01:05.640 --> 00:01:08.376 el humano contra la máquina 00:01:08.400 --> 00:01:11.160 se ha retratado a menudo como una cuestión de vida o muerte. 00:01:11.960 --> 00:01:13.536 John Henry, 00:01:13.560 --> 00:01:15.256 llamado el "martillo de acero" 00:01:15.280 --> 00:01:19.056 en la leyenda popular de EE.UU. del siglo XIX, 00:01:19.080 --> 00:01:20.456 se enfrentó en una carrera 00:01:20.480 --> 00:01:23.216 contra un "martillo de vapor" 00:01:23.240 --> 00:01:25.600 perforando un túnel a través de la roca en la montaña. 00:01:26.800 --> 00:01:31.000 La leyenda de John Henry es parte de una larga narrativa histórica 00:01:31.680 --> 00:01:34.760 que enfrenta a la humanidad contra la tecnología. 00:01:36.200 --> 00:01:39.080 Y esa retórica competitiva ahora es algo común. 00:01:39.560 --> 00:01:41.520 Estamos en una carrera contra las máquinas, 00:01:42.360 --> 00:01:44.440 en una lucha o incluso en una guerra. 00:01:45.880 --> 00:01:47.496 Los trabajos se están acabando. 00:01:47.520 --> 00:01:51.080 Se reemplaza a la gente como si hubieran desaparecido de la Tierra. 00:01:52.240 --> 00:01:55.736 Basta pensar que las películas como "Terminador" o "Matrix", 00:01:55.760 --> 00:01:56.960 ya no son ficción. 00:01:59.640 --> 00:02:03.960 Hay muy pocas áreas 00:02:05.360 --> 00:02:09.616 en las que el cuerpo humano y la mente puedan competir de igual a igual 00:02:09.639 --> 00:02:11.480 con una computadora o un robot. 00:02:12.280 --> 00:02:14.138 En realidad, me gustaría que hubiera unas cuantas más. 00:02:15.760 --> 00:02:16.960 En cambio, 00:02:17.840 --> 00:02:22.496 fue tanto mi bendición como mi maldición 00:02:22.520 --> 00:02:25.216 literalmente convertirme en el hombre proverbial, 00:02:25.240 --> 00:02:28.336 en la lucha del hombre contra la máquina, 00:02:28.360 --> 00:02:30.240 de la que todavía hoy se sigue hablando. 00:02:33.120 --> 00:02:38.136 En el combate hombre-máquina más famoso desde la época de John Henry, 00:02:38.160 --> 00:02:40.736 jugué dos partidas 00:02:40.760 --> 00:02:44.200 contra Deep Blue, la supercomputadora de IBM. 00:02:47.040 --> 00:02:49.216 Nadie recuerda que yo gané la primer partida... 00:02:49.240 --> 00:02:51.576 (Risas) 00:02:51.600 --> 00:02:55.000 (Aplausos) 00:02:55.920 --> 00:03:00.896 en Filadelfia, antes de perder la revancha al año siguiente, en Nueva York. 00:03:00.920 --> 00:03:02.680 Pero supongo que eso es justo. 00:03:04.320 --> 00:03:09.416 No hay día en la historia, un día especial en el calendario, 00:03:09.440 --> 00:03:12.936 para cada persona que no llegó a la cima del Everest 00:03:12.960 --> 00:03:14.656 antes de que llegaran 00:03:14.657 --> 00:03:16.920 Sir Edmund Hillary y Tenzing Norgay. 00:03:17.960 --> 00:03:21.720 Y en 1997, yo todavía era el campeón del mundo 00:03:24.520 --> 00:03:28.720 cuando las computadoras de ajedrez llegaron finalmente a la mayoría de edad. 00:03:29.520 --> 00:03:31.496 Yo era el Everest, 00:03:31.520 --> 00:03:33.120 y Deep Blue llegó a la cima. 00:03:34.600 --> 00:03:38.656 Debo decir, por supuesto, que no lo hizo Deep Blue, 00:03:38.680 --> 00:03:40.816 sino sus creadores humanos... 00:03:40.840 --> 00:03:44.176 Anantharaman, Campbell, Hoane, Hsu. 00:03:44.200 --> 00:03:45.400 Me saco el sombrero ante ellos. 00:03:46.840 --> 00:03:51.256 Como siempre, el triunfo de la máquina fue un triunfo humano, 00:03:51.280 --> 00:03:56.040 algo que solemos olvidar si las máquinas superan a los humanos. 00:03:58.360 --> 00:03:59.800 Deep Blue tuvo la victoria, 00:04:01.400 --> 00:04:02.600 pero ¿era inteligente? 00:04:03.360 --> 00:04:05.120 No, no lo era, 00:04:06.200 --> 00:04:11.256 al menos no como esperaban Alan Turing y otros fundadores 00:04:11.280 --> 00:04:12.480 de la informática. 00:04:13.240 --> 00:04:18.016 Resultó que al ajedrez se le podía ganar por fuerza bruta, 00:04:18.040 --> 00:04:22.296 con un hardware suficientemente rápido 00:04:22.320 --> 00:04:25.280 y algoritmos suficientemente inteligentes. 00:04:26.760 --> 00:04:30.456 Aunque al ver el resultado que produjo, 00:04:30.480 --> 00:04:33.696 un ajedrez de nivel de gran maestro, 00:04:33.720 --> 00:04:35.000 Deep Blue era inteligente. 00:04:37.320 --> 00:04:39.720 Pero incluso con esa velocidad increíble, 00:04:40.560 --> 00:04:43.760 200 millones de posiciones por segundo, 00:04:45.360 --> 00:04:46.560 el método de Deep Blue 00:04:47.360 --> 00:04:53.960 no permitió penetrar el misterio de la inteligencia humana como soñamos. 00:04:56.960 --> 00:04:58.776 Pronto, 00:04:58.800 --> 00:05:01.376 las máquinas serán taxistas, 00:05:01.400 --> 00:05:03.816 médicos y profesores, 00:05:03.840 --> 00:05:06.440 pero ¿serán "inteligentes"? 00:05:07.840 --> 00:05:10.336 Dejaría estas definiciones 00:05:10.360 --> 00:05:13.920 a los filósofos y al diccionario. 00:05:15.440 --> 00:05:19.320 Lo que realmente importa es cómo, como humanos, 00:05:20.320 --> 00:05:23.920 nos sentimos al vivir y trabajar con estas máquinas. 00:05:26.160 --> 00:05:31.416 Cuando conocí a Deep Blue en febrero de 1996, 00:05:31.440 --> 00:05:34.040 ya había sido campeón mundial durante más de 10 años, 00:05:36.080 --> 00:05:40.096 y había jugado 182 partidas de campeonatos del mundo 00:05:40.120 --> 00:05:45.216 y cientos de partidas contra otros jugadores de alto nivel en otros torneos. 00:05:45.240 --> 00:05:50.296 Sabía qué esperar de mis oponentes 00:05:50.320 --> 00:05:52.000 y qué esperar de mí mismo. 00:05:52.680 --> 00:05:57.856 Estaba acostumbrado a medir sus movimientos 00:05:57.880 --> 00:06:01.496 y su estado emocional, 00:06:01.520 --> 00:06:05.360 a ver su lenguaje corporal y a mirarlos a los ojos. 00:06:05.880 --> 00:06:09.880 Y luego me senté frente al tablero de ajedrez de Deep Blue. 00:06:12.960 --> 00:06:15.816 De inmediato sentí algo nuevo, 00:06:15.840 --> 00:06:17.160 algo inquietante. 00:06:19.440 --> 00:06:22.240 Puede que sientan algo similar 00:06:23.320 --> 00:06:25.856 la primera vez que suban a un auto sin conductor, 00:06:25.880 --> 00:06:30.720 o la primera vez que un gerente de TI emita una orden en el trabajo. 00:06:33.800 --> 00:06:36.920 Pero en esa primera partida, 00:06:38.080 --> 00:06:40.216 no podía estar seguro 00:06:40.240 --> 00:06:43.920 de qué era capaz esta cosa. 00:06:44.920 --> 00:06:48.080 La tecnología avanza de a saltos, e IBM había invertido mucho. 00:06:48.680 --> 00:06:49.880 Perdí esa partida. 00:06:52.320 --> 00:06:54.096 Y no pude evitar preguntarme, 00:06:54.120 --> 00:06:55.680 ¿será invencible? 00:06:56.600 --> 00:06:58.960 ¿Mi amado ajedrez llegó a su fin? 00:07:00.800 --> 00:07:04.936 Estas eran dudas humanas, temores humanos, 00:07:04.960 --> 00:07:06.640 y lo único que sabía con certeza 00:07:07.400 --> 00:07:10.296 era que mi oponente Deep Blue no tenía esas preocupaciones. 00:07:10.320 --> 00:07:12.080 (Risas) 00:07:13.920 --> 00:07:15.320 Batallé 00:07:16.400 --> 00:07:18.080 tras ese golpe devastador 00:07:19.000 --> 00:07:20.200 para ganar la primera partida, 00:07:20.960 --> 00:07:22.600 pero la suerte estaba echada. 00:07:24.400 --> 00:07:26.536 Al final perdí contra la máquina 00:07:26.560 --> 00:07:29.616 pero no corrí la suerte de John Henry 00:07:29.640 --> 00:07:32.680 que ganó, pero murió con el martillo en la mano. 00:07:37.720 --> 00:07:40.256 Resultó que el mundo del ajedrez 00:07:40.280 --> 00:07:43.520 todavía quería tener un campeón humano. 00:07:44.920 --> 00:07:46.600 E incluso hoy, 00:07:48.080 --> 00:07:51.536 cuando una aplicación gratuita de ajedrez en el último móvil 00:07:51.560 --> 00:07:53.576 es más potente que Deep Blue, 00:07:53.600 --> 00:07:55.080 las personas siguen jugando ajedrez, 00:07:56.680 --> 00:07:58.920 incluso más que antes. 00:07:59.800 --> 00:08:03.016 Los alarmistas predijeron que todos abandonarían el juego, 00:08:03.040 --> 00:08:05.296 que podría ser conquistado por las máquinas, 00:08:05.320 --> 00:08:07.536 y estaban equivocados, se puede ver claramente, 00:08:07.560 --> 00:08:11.016 pero el alarmismo siempre ha sido un pasatiempo popular 00:08:11.040 --> 00:08:12.400 en materia de tecnología. 00:08:14.360 --> 00:08:17.096 De mi experiencia personal aprendí 00:08:17.120 --> 00:08:21.776 que debemos enfrentar los temores 00:08:21.800 --> 00:08:25.520 si queremos aprovechar al máximo nuestra tecnología, 00:08:26.360 --> 00:08:28.736 y debemos superar esos temores 00:08:28.760 --> 00:08:34.000 si queremos obtener lo mejor que pueda dar nuestra humanidad. 00:08:36.120 --> 00:08:37.895 Mientras asimilaba la derrota, 00:08:37.919 --> 00:08:39.880 me inspiré mucho 00:08:41.080 --> 00:08:43.775 en las batallas contra Deep Blue. 00:08:43.799 --> 00:08:46.920 Como dice el viejo refrán ruso, si no puedes vencerlos, únete a ellos. 00:08:48.880 --> 00:08:50.256 Entonces pensé, 00:08:50.280 --> 00:08:52.616 y si pudiera jugar con una computadora, 00:08:52.640 --> 00:08:55.800 con una computadora a mi lado, y combinar nuestras fortalezas, 00:08:57.160 --> 00:09:00.936 la intuición humana más el cálculo de la máquina, 00:09:00.960 --> 00:09:03.656 la estrategia humana, la táctica de la máquina, 00:09:03.680 --> 00:09:06.096 la experiencia humana, la memoria de la máquina. 00:09:06.120 --> 00:09:08.320 ¿Sería esa la partida más perfecta de la historia? 00:09:10.000 --> 00:09:11.680 Mi idea se hizo realidad 00:09:12.920 --> 00:09:16.296 en 1998, bajo el nombre de "ajedrez avanzado", 00:09:16.320 --> 00:09:22.000 cuando jugué esta partida humano y máquina contra otro jugador de élite. 00:09:23.280 --> 00:09:25.176 Pero en este primer experimento, 00:09:25.200 --> 00:09:31.560 ambos fracasamos en la combinación efectiva de elementos humano y máquina. 00:09:34.920 --> 00:09:37.160 El ajedrez avanzado encontró su hogar en Internet. 00:09:38.160 --> 00:09:43.016 Y en 2005, un estilo llamado torneo de ajedrez libre 00:09:43.040 --> 00:09:44.400 produjo una revelación. 00:09:47.240 --> 00:09:50.776 Participaron un equipo de maestros y máquinas de alto nivel, 00:09:50.800 --> 00:09:53.536 pero los ganadores no fueron ni grandes maestros, 00:09:53.560 --> 00:09:54.920 ni supercomputadoras. 00:09:55.680 --> 00:10:00.016 Ganó un dúo de aficionados estadounidenses 00:10:00.040 --> 00:10:03.200 al mando de tres PC comunes en simultáneo. 00:10:05.560 --> 00:10:08.576 El talento para acompañar a sus máquinas 00:10:08.600 --> 00:10:14.376 contrarrestó con eficacia el conocimiento superior de ajedrez 00:10:14.400 --> 00:10:15.976 de sus oponentes que eran grandes maestros 00:10:16.000 --> 00:10:20.160 y tenían mayor poder computacional. 00:10:21.600 --> 00:10:23.560 Y llegué a esta formulación. 00:10:24.560 --> 00:10:27.936 Un jugador humano débil más una máquina 00:10:27.960 --> 00:10:31.216 más un mejor proceso, es superior 00:10:31.240 --> 00:10:33.656 a una máquina muy potente sola, 00:10:33.680 --> 00:10:37.576 pero aún más notable, es superior a un jugador humano fuerte 00:10:37.600 --> 00:10:39.560 más una máquina 00:10:41.120 --> 00:10:43.520 y un proceso inferior. 00:10:46.360 --> 00:10:48.480 Esto me convenció de que necesitaríamos 00:10:50.000 --> 00:10:53.680 mejores interfaces para entrenar a nuestras máquinas 00:10:54.520 --> 00:10:56.240 hacia una inteligencia más útil. 00:10:58.320 --> 00:11:01.616 El humano más la máquina no es el futuro, 00:11:01.640 --> 00:11:02.856 es el presente. 00:11:02.880 --> 00:11:07.016 Todos hemos usado herramientas de traducción en línea 00:11:07.040 --> 00:11:11.336 para entender la idea de un artículo de la prensa extranjera, 00:11:11.360 --> 00:11:13.000 a pesar de sus imperfecciones. 00:11:13.680 --> 00:11:15.776 Después usamos la experiencia humana 00:11:15.800 --> 00:11:17.896 para darle sentido a eso, 00:11:17.920 --> 00:11:20.696 y luego la máquina aprende de nuestras correcciones. 00:11:20.720 --> 00:11:25.680 Este modelo se desarrolla en diagnóstico médico y análisis de seguridad. 00:11:26.440 --> 00:11:28.560 La máquina analiza los datos, 00:11:29.320 --> 00:11:31.056 calcula las probabilidades, 00:11:31.080 --> 00:11:34.736 hace 80 % o 90 % del camino, 00:11:34.760 --> 00:11:39.136 lo que facilita el análisis 00:11:39.160 --> 00:11:41.760 y la toma de decisión humana. 00:11:42.280 --> 00:11:47.120 Pero uno no enviaría a sus hijos 00:11:48.000 --> 00:11:51.560 a la escuela en un auto sin conductor que tuviera un 90 % de exactitud, 00:11:52.600 --> 00:11:54.200 ni uno con un 99 %. 00:11:55.560 --> 00:11:58.416 Por eso necesitamos un gran avance 00:11:58.440 --> 00:12:04.600 para ganar algunos decimales cruciales. 00:12:07.160 --> 00:12:11.200 Veinte años después de mi partida con Deep Blue, 00:12:12.200 --> 00:12:13.816 la segunda partida, 00:12:13.840 --> 00:12:20.136 la del titular sensacionalista, "El último combate del cerebro", 00:12:20.160 --> 00:12:21.736 se ha vuelto algo común 00:12:21.760 --> 00:12:24.296 conforme las máquinas inteligentes 00:12:24.320 --> 00:12:25.520 incursionan 00:12:26.560 --> 00:12:28.760 en todos los sectores, aparentemente a diario. 00:12:30.160 --> 00:12:33.256 Pero a diferencia del pasado, 00:12:33.280 --> 00:12:34.920 cuando las máquinas reemplazaban 00:12:36.480 --> 00:12:38.856 a los animales de granja, al trabajo manual, 00:12:38.880 --> 00:12:41.376 ahora vienen a reemplazar a personas con diplomas, 00:12:41.400 --> 00:12:42.680 o personas con influencia política. 00:12:44.120 --> 00:12:46.216 Como alguien que luchó contra la máquina y perdió, 00:12:46.240 --> 00:12:48.880 vine a decirles que es una noticia excelente. 00:12:51.000 --> 00:12:53.216 Un día, todas las profesiones 00:12:53.240 --> 00:12:55.336 deberán enfrentar esta presión, 00:12:55.360 --> 00:13:00.960 de lo contrario, la humanidad habrá dejado de progresar. 00:13:02.760 --> 00:13:03.960 No seremos nosotros 00:13:05.440 --> 00:13:07.160 quienes elijan, 00:13:08.480 --> 00:13:11.200 cuándo y dónde se detendrá el progreso tecnológico. 00:13:13.160 --> 00:13:14.520 No podemos 00:13:15.960 --> 00:13:17.456 desacelerar. 00:13:17.480 --> 00:13:19.296 De hecho, 00:13:19.320 --> 00:13:21.240 tenemos que acelerar. 00:13:24.600 --> 00:13:27.240 Nuestra tecnología se destaca por quitar 00:13:29.200 --> 00:13:32.560 dificultades e incertidumbres de nuestras vidas, 00:13:35.000 --> 00:13:37.816 así que tenemos que ir en busca 00:13:37.840 --> 00:13:39.696 de mayores desafíos, 00:13:39.720 --> 00:13:43.800 aún más inciertos. 00:13:48.200 --> 00:13:49.400 Las máquinas 00:13:51.880 --> 00:13:53.696 hacen cálculos. 00:13:53.720 --> 00:13:55.296 Nosotros comprendemos las cosas. 00:13:55.320 --> 00:13:57.360 Las máquinas reciben instrucciones. 00:13:58.840 --> 00:14:00.696 Nosotros tenemos propósito. 00:14:00.720 --> 00:14:03.000 Las máquinas tienen 00:14:05.080 --> 00:14:06.296 objetividad. 00:14:06.320 --> 00:14:07.520 Nosotros tenemos pasión. 00:14:08.600 --> 00:14:14.576 No deberíamos temer a lo que pueden hacer las máquinas hoy. 00:14:14.600 --> 00:14:19.176 En cambio, deberíamos preocuparnos por lo que todavía no pueden hacer, 00:14:19.200 --> 00:14:24.696 porque vamos a necesitar la ayuda de nuevas máquinas inteligentes 00:14:24.720 --> 00:14:28.800 para hacer realidad nuestros más grandes sueños. 00:14:30.000 --> 00:14:31.320 Y si fracasamos, 00:14:32.240 --> 00:14:36.896 si fallamos, no será porque nuestras máquinas sean muy inteligentes, 00:14:36.920 --> 00:14:38.320 o no lo suficientemente inteligentes. 00:14:39.200 --> 00:14:42.280 Si no lo logramos, será porque nos dejamos llevar 00:14:43.680 --> 00:14:45.240 y limitamos nuestras ambiciones. 00:14:46.520 --> 00:14:49.560 Ninguna habilidad define nuestra humanidad, 00:14:51.280 --> 00:14:53.960 ni martillar, ni siquiera jugar al ajedrez. 00:14:54.560 --> 00:14:57.576 La humanidad solo puede hacer una cosa. 00:14:57.600 --> 00:14:58.800 Soñar. 00:15:00.120 --> 00:15:02.656 Soñemos en grande. 00:15:02.680 --> 00:15:03.896 Gracias. 00:15:03.920 --> 00:15:07.807 (Aplausos)