0:00:00.960,0:00:03.936 Esta historia empieza en 1985, 0:00:03.960,0:00:05.936 cuando a mis 22 años, 0:00:05.960,0:00:08.336 gané el Campeonato Mundial de Ajedrez 0:00:08.360,0:00:11.560 tras vencer a Anatoli Kárpov. 0:00:12.480,0:00:13.736 A principios de ese año, 0:00:13.760,0:00:17.376 jugué lo que se llama [br]partidas simultáneas 0:00:17.400,0:00:21.696 contra 32 de las mejores [br]máquinas de ajedrez en el mundo 0:00:21.720,0:00:23.080 en Hamburgo, Alemania. 0:00:24.160,0:00:25.360 Gané todas, 0:00:26.560,0:00:29.736 y no se consideró una gran sorpresa 0:00:29.760,0:00:33.800 que pudiera ganarle a 32 computadoras[br]al mismo tiempo. 0:00:34.480,0:00:37.056 Para mí, esa fue la edad de oro. 0:00:37.080,0:00:39.176 (Risas) 0:00:39.200,0:00:40.720 Las máquinas eran débiles, 0:00:41.680,0:00:43.016 y mi cabello era fuerte. 0:00:43.040,0:00:45.240 (Risas) 0:00:46.720,0:00:48.776 Doce años después, 0:00:48.800,0:00:53.416 luchaba a muerte contra una computadora 0:00:53.440,0:00:54.640 en una partida 0:00:55.360,0:00:57.416 llamada en la portada de "Newsweek" 0:00:57.440,0:00:59.216 "El último combate del cerebro". 0:00:59.240,0:01:00.456 Sin presión. 0:01:00.480,0:01:02.000 (Risas) 0:01:03.040,0:01:05.616 De la mitología a la ciencia ficción, 0:01:05.640,0:01:08.376 el humano contra la máquina 0:01:08.400,0:01:11.360 se ha retratado a menudo como[br]una cuestión de vida o muerte. 0:01:11.960,0:01:13.536 John Henry, 0:01:13.560,0:01:15.256 llamado el "martillo de acero" 0:01:15.280,0:01:19.056 en la leyenda popular de EE.UU.[br]del siglo XIX, 0:01:19.080,0:01:20.456 se enfrentó en una carrera 0:01:20.480,0:01:23.216 contra un "martillo de vapor" 0:01:23.240,0:01:25.930 perforando un túnel a través [br]de la roca en la montaña. 0:01:26.800,0:01:31.000 La leyenda de John Henry es parte[br]de una larga narrativa histórica 0:01:31.680,0:01:34.760 que enfrenta a la humanidad[br]contra la tecnología. 0:01:36.200,0:01:39.080 Y esa retórica competitiva[br]ahora es algo común. 0:01:39.560,0:01:41.870 Estamos en una carrera [br]contra las máquinas, 0:01:42.360,0:01:44.440 en una lucha o incluso en una guerra. 0:01:45.880,0:01:47.496 Los trabajos se están acabando. 0:01:47.520,0:01:51.080 Se reemplaza a la gente como si [br]hubieran desaparecido de la Tierra. 0:01:52.240,0:01:55.736 Basta pensar que las películas[br]como "Terminador" o "Matrix", 0:01:55.760,0:01:56.960 ya no son ficción. 0:01:59.640,0:02:03.960 Hay muy pocas áreas 0:02:05.360,0:02:09.616 en las que el cuerpo humano y la mente [br]puedan competir de igual a igual 0:02:09.639,0:02:11.480 con una computadora o un robot. 0:02:12.280,0:02:14.948 En realidad, me gustaría [br]que hubiera unas cuantas más. 0:02:15.760,0:02:16.960 En cambio, 0:02:17.840,0:02:22.496 fue tanto mi bendición [br]como mi maldición 0:02:22.520,0:02:25.216 literalmente convertirme [br]en el hombre proverbial, 0:02:25.240,0:02:28.336 en la lucha del hombre contra la máquina, 0:02:28.360,0:02:30.750 de la que todavía hoy se sigue hablando. 0:02:33.120,0:02:38.136 En el combate hombre-máquina [br]más famoso desde la época de John Henry, 0:02:38.160,0:02:40.736 jugué dos partidas 0:02:40.760,0:02:44.200 contra Deep Blue, [br]la supercomputadora de IBM. 0:02:47.040,0:02:49.426 Nadie recuerda que yo gané [br]la primer partida... 0:02:49.426,0:02:51.576 (Risas) 0:02:51.600,0:02:55.000 (Aplausos) 0:02:55.920,0:03:00.896 en Filadelfia, antes de perder la revancha[br]al año siguiente, en Nueva York. 0:03:00.920,0:03:02.680 Pero supongo que eso es justo. 0:03:04.320,0:03:09.416 No hay día en la historia,[br]un día especial en el calendario, 0:03:09.440,0:03:12.936 para cada persona que no llegó [br]a la cima del Everest 0:03:12.960,0:03:14.656 antes de que llegaran 0:03:14.657,0:03:16.920 Sir Edmund Hillary y Tenzing Norgay. 0:03:17.960,0:03:21.720 Y en 1997, yo todavía [br]era el campeón del mundo 0:03:24.520,0:03:28.720 cuando las computadoras de ajedrez [br]llegaron finalmente a la mayoría de edad. 0:03:29.520,0:03:31.496 Yo era el Everest, 0:03:31.520,0:03:33.120 y Deep Blue llegó a la cima. 0:03:34.600,0:03:38.656 Debo decir, por supuesto,[br]que no lo hizo Deep Blue, 0:03:38.680,0:03:40.816 sino sus creadores humanos... 0:03:40.840,0:03:44.176 Anantharaman, Campbell, Hoane, Hsu. 0:03:44.200,0:03:45.870 Me quito el sombrero ante ellos. 0:03:46.840,0:03:51.256 Como siempre, el triunfo de la máquina[br]fue un triunfo humano, 0:03:51.280,0:03:56.040 algo que solemos olvidar si las máquinas [br]superan a los humanos. 0:03:58.360,0:03:59.800 Deep Blue tuvo la victoria, 0:04:01.400,0:04:02.600 pero ¿era inteligente? 0:04:03.360,0:04:05.120 No, no lo era, 0:04:06.200,0:04:11.256 al menos no como esperaban [br]Alan Turing y otros fundadores 0:04:11.280,0:04:12.480 de la informática. 0:04:13.240,0:04:18.016 Resultó que al ajedrez [br]se le podía ganar por fuerza bruta, 0:04:18.040,0:04:22.296 con un hardware suficientemente rápido 0:04:22.320,0:04:25.280 y algoritmos suficientemente inteligentes. 0:04:26.760,0:04:30.456 Aunque al ver el resultado que produjo, 0:04:30.480,0:04:33.696 un ajedrez de nivel de gran maestro, 0:04:33.720,0:04:35.000 Deep Blue era inteligente. 0:04:37.320,0:04:39.720 Pero incluso con esa velocidad increíble, 0:04:40.560,0:04:43.760 200 millones de posiciones por segundo, 0:04:45.360,0:04:46.560 el método de Deep Blue 0:04:47.360,0:04:53.960 no permitió penetrar el misterio de[br]la inteligencia humana como soñamos. 0:04:56.960,0:04:58.776 Pronto, 0:04:58.800,0:05:01.376 las máquinas serán taxistas, 0:05:01.400,0:05:03.816 médicos y profesores, 0:05:03.840,0:05:06.440 pero ¿serán "inteligentes"? 0:05:07.840,0:05:10.336 Dejaría estas definiciones 0:05:10.360,0:05:13.920 a los filósofos y al diccionario. 0:05:15.440,0:05:19.320 Lo que realmente importa [br]es cómo, como humanos, 0:05:20.320,0:05:23.920 nos sentimos al vivir y trabajar [br]con estas máquinas. 0:05:26.160,0:05:31.416 Cuando conocí a Deep Blue [br]en febrero de 1996, 0:05:31.440,0:05:34.040 ya había sido campeón mundial [br]durante más de 10 años, 0:05:36.080,0:05:40.096 y había jugado 182 partidas[br]de campeonatos del mundo 0:05:40.120,0:05:45.216 y cientos de partidas contra otros [br]jugadores de alto nivel en otros torneos. 0:05:45.240,0:05:50.296 Sabía qué esperar de mis oponentes 0:05:50.320,0:05:52.000 y qué esperar de mí mismo. 0:05:52.680,0:05:57.856 Estaba acostumbrado [br]a medir sus movimientos 0:05:57.880,0:06:01.496 y su estado emocional, 0:06:01.520,0:06:05.360 a ver su lenguaje corporal[br]y a mirarlos a los ojos. 0:06:05.880,0:06:09.880 Y luego me senté frente al tablero[br]de ajedrez de Deep Blue. 0:06:12.960,0:06:15.816 De inmediato sentí algo nuevo, 0:06:15.840,0:06:17.160 algo inquietante. 0:06:19.440,0:06:22.240 Puede que sientan algo similar 0:06:23.320,0:06:25.856 la primera vez que suban[br]a un auto sin conductor, 0:06:25.880,0:06:30.720 o la primera vez que un gerente de TI[br]emita una orden en el trabajo. 0:06:33.800,0:06:36.920 Pero en esa primera partida, 0:06:38.080,0:06:40.216 no podía estar seguro 0:06:40.240,0:06:43.920 de qué era capaz esta cosa. 0:06:44.920,0:06:48.080 La tecnología avanza de a saltos,[br]e IBM había invertido mucho. 0:06:48.680,0:06:49.880 Perdí esa partida. 0:06:52.320,0:06:54.096 Y no pude evitar preguntarme, 0:06:54.120,0:06:55.680 ¿será invencible? 0:06:56.600,0:06:58.960 ¿Mi amado ajedrez llegó a su fin? 0:07:00.800,0:07:04.936 Estas eran dudas humanas, temores humanos, 0:07:04.960,0:07:06.640 y lo único que sabía con certeza 0:07:07.400,0:07:10.296 era que mi oponente Deep Blue [br]no tenía esas preocupaciones. 0:07:10.320,0:07:12.080 (Risas) 0:07:13.920,0:07:15.320 Batallé 0:07:16.400,0:07:18.080 tras ese golpe devastador 0:07:19.000,0:07:20.620 para ganar la primera partida, 0:07:20.960,0:07:22.600 pero la suerte estaba echada. 0:07:24.400,0:07:26.536 Al final perdí contra la máquina 0:07:26.560,0:07:29.616 pero no corrí la suerte de John Henry 0:07:29.640,0:07:32.680 que ganó, pero murió [br]con el martillo en la mano. 0:07:37.720,0:07:40.256 Resultó que el mundo del ajedrez 0:07:40.280,0:07:43.520 todavía quería tener un campeón humano. 0:07:44.920,0:07:46.600 E incluso hoy, 0:07:48.080,0:07:51.536 cuando una aplicación gratuita [br]de ajedrez en el último móvil 0:07:51.560,0:07:53.576 es más potente que Deep Blue, 0:07:53.600,0:07:55.490 las personas siguen jugando ajedrez, 0:07:56.680,0:07:58.920 incluso más que antes. 0:07:59.800,0:08:03.016 Los alarmistas predijeron que[br]todos abandonarían el juego, 0:08:03.040,0:08:05.296 que podría ser conquistado [br]por las máquinas, 0:08:05.320,0:08:07.536 y estaban equivocados,[br]se puede ver claramente, 0:08:07.560,0:08:11.016 pero el alarmismo siempre ha sido[br]un pasatiempo popular 0:08:11.040,0:08:12.400 en materia de tecnología. 0:08:14.360,0:08:17.096 De mi experiencia personal aprendí 0:08:17.120,0:08:21.776 que debemos enfrentar los temores 0:08:21.800,0:08:25.520 si queremos aprovechar al máximo[br]nuestra tecnología, 0:08:26.360,0:08:28.736 y debemos superar esos temores 0:08:28.760,0:08:34.000 si queremos obtener lo mejor [br]que pueda dar nuestra humanidad. 0:08:36.120,0:08:37.895 Mientras asimilaba la derrota, 0:08:37.919,0:08:39.880 me inspiré mucho 0:08:41.080,0:08:43.775 en las batallas contra Deep Blue. 0:08:43.799,0:08:47.290 Como dice el viejo refrán ruso,[br]si no puedes vencerlos, únete a ellos. 0:08:48.880,0:08:50.256 Entonces pensé, 0:08:50.280,0:08:52.616 y si pudiera jugar con una computadora, 0:08:52.640,0:08:55.800 con una computadora a mi lado,[br]y combinar nuestras fortalezas, 0:08:57.160,0:09:00.936 la intuición humana [br]más el cálculo de la máquina, 0:09:00.960,0:09:03.656 la estrategia humana, [br]la táctica de la máquina, 0:09:03.680,0:09:06.096 la experiencia humana,[br]la memoria de la máquina. 0:09:06.120,0:09:08.980 ¿Sería esa la partida [br]más perfecta de la historia? 0:09:10.000,0:09:11.680 Mi idea se hizo realidad 0:09:12.920,0:09:16.296 en 1998, bajo el nombre [br]de "ajedrez avanzado", 0:09:16.320,0:09:22.000 cuando jugué esta partida humano y máquina[br]contra otro jugador de élite. 0:09:23.280,0:09:25.176 Pero en este primer experimento, 0:09:25.200,0:09:31.560 ambos fracasamos en la combinación[br]efectiva de elementos humano y máquina. 0:09:34.920,0:09:37.440 El ajedrez avanzado encontró [br]su hogar en Internet. 0:09:38.160,0:09:43.016 Y en 2005, un estilo llamado[br]torneo de ajedrez libre 0:09:43.040,0:09:44.400 produjo una revelación. 0:09:47.240,0:09:50.776 Participaron un equipo de maestros [br]y máquinas de alto nivel, 0:09:50.800,0:09:53.536 pero los ganadores no fueron[br]ni grandes maestros, 0:09:53.560,0:09:54.920 ni supercomputadoras. 0:09:55.680,0:10:00.016 Ganó un dúo de aficionados estadounidenses 0:10:00.040,0:10:03.200 al mando de tres PC comunes en simultáneo. 0:10:05.560,0:10:08.576 El talento para acompañar a sus máquinas 0:10:08.600,0:10:13.840 contrarrestó con eficacia [br]el conocimiento superior de ajedrez 0:10:13.840,0:10:16.206 de sus oponentes [br]que eran grandes maestros 0:10:16.206,0:10:20.160 y tenían mayor poder computacional. 0:10:21.600,0:10:23.560 Y llegué a esta formulación. 0:10:24.560,0:10:27.936 Un jugador humano débil más una máquina 0:10:27.960,0:10:31.216 más un mejor proceso, es superior 0:10:31.240,0:10:33.656 a una máquina muy potente sola, 0:10:33.680,0:10:37.576 pero aún más notable, es superior [br]a un jugador humano fuerte 0:10:37.600,0:10:39.560 más una máquina 0:10:41.120,0:10:43.520 y un proceso inferior. 0:10:46.360,0:10:48.480 Esto me convenció de que necesitaríamos 0:10:50.000,0:10:53.680 mejores interfaces para [br]entrenar a nuestras máquinas 0:10:54.520,0:10:56.240 hacia una inteligencia más útil. 0:10:58.320,0:11:01.616 El humano más la máquina no es el futuro, 0:11:01.640,0:11:02.856 es el presente. 0:11:02.880,0:11:07.016 Todos hemos usado herramientas [br]de traducción en línea 0:11:07.040,0:11:11.336 para entender la idea de [br]un artículo de la prensa extranjera, 0:11:11.360,0:11:13.000 a pesar de sus imperfecciones. 0:11:13.680,0:11:15.776 Después usamos la experiencia humana 0:11:15.800,0:11:17.896 para darle sentido a eso, 0:11:17.920,0:11:20.696 y luego la máquina aprende [br]de nuestras correcciones. 0:11:20.720,0:11:25.680 Este modelo se desarrolla en diagnóstico[br]médico y análisis de seguridad. 0:11:26.440,0:11:28.560 La máquina analiza los datos, 0:11:29.320,0:11:31.056 calcula las probabilidades, 0:11:31.080,0:11:34.736 hace 80 % o 90 % del camino, 0:11:34.760,0:11:39.136 lo que facilita el análisis 0:11:39.160,0:11:41.760 y la toma de decisión humana. 0:11:42.280,0:11:47.120 Pero uno no enviaría a sus hijos 0:11:48.000,0:11:51.560 a la escuela en un auto sin conductor[br]que tuviera un 90 % de exactitud, 0:11:52.600,0:11:54.200 ni uno con un 99 %. 0:11:55.560,0:11:58.416 Por eso necesitamos un gran avance 0:11:58.440,0:12:04.600 para ganar algunos decimales cruciales. 0:12:07.160,0:12:11.200 Veinte años después de [br]mi partida con Deep Blue, 0:12:12.200,0:12:13.816 la segunda partida, 0:12:13.840,0:12:20.136 la del titular sensacionalista,[br]"El último combate del cerebro", 0:12:20.160,0:12:21.736 se ha vuelto algo común 0:12:21.760,0:12:24.296 conforme las máquinas inteligentes 0:12:24.320,0:12:25.520 incursionan 0:12:26.560,0:12:28.760 en todos los sectores, [br]aparentemente a diario. 0:12:30.160,0:12:33.256 Pero a diferencia del pasado, 0:12:33.280,0:12:34.920 cuando las máquinas reemplazaban 0:12:36.480,0:12:38.856 a los animales de granja, [br]al trabajo manual, 0:12:38.880,0:12:41.376 ahora vienen a reemplazar [br]a personas con diplomas, 0:12:41.400,0:12:43.240 o personas con influencia política. 0:12:43.570,0:12:46.216 Como alguien que luchó [br]contra la máquina y perdió, 0:12:46.240,0:12:48.880 vine a decirles que [br]es una noticia excelente. 0:12:51.000,0:12:53.216 Un día, todas las profesiones 0:12:53.240,0:12:55.336 deberán enfrentar esta presión, 0:12:55.360,0:13:00.960 de lo contrario, la humanidad[br]habrá dejado de progresar. 0:13:02.760,0:13:03.960 No seremos nosotros 0:13:05.440,0:13:07.160 quienes elijan, 0:13:08.480,0:13:11.200 cuándo y dónde se detendrá [br]el progreso tecnológico. 0:13:13.160,0:13:14.520 No podemos 0:13:15.960,0:13:17.456 desacelerar. 0:13:17.480,0:13:19.296 De hecho, 0:13:19.320,0:13:21.240 tenemos que acelerar. 0:13:24.600,0:13:27.240 Nuestra tecnología se destaca por quitar 0:13:29.200,0:13:32.560 dificultades e incertidumbres[br]de nuestras vidas, 0:13:35.000,0:13:37.816 así que tenemos que ir en busca 0:13:37.840,0:13:39.696 de mayores desafíos, 0:13:39.720,0:13:43.800 aún más inciertos. 0:13:48.200,0:13:49.400 Las máquinas 0:13:51.880,0:13:53.696 hacen cálculos. 0:13:53.720,0:13:55.296 Nosotros comprendemos las cosas. 0:13:55.320,0:13:57.360 Las máquinas reciben instrucciones. 0:13:58.840,0:14:00.696 Nosotros tenemos propósito. 0:14:00.720,0:14:03.000 Las máquinas tienen 0:14:05.080,0:14:06.296 objetividad. 0:14:06.320,0:14:07.520 Nosotros tenemos pasión. 0:14:08.600,0:14:14.576 No deberíamos temer a lo que[br]pueden hacer las máquinas hoy. 0:14:14.600,0:14:19.176 En cambio, deberíamos preocuparnos [br]por lo que todavía no pueden hacer, 0:14:19.200,0:14:24.696 porque vamos a necesitar la ayuda[br]de nuevas máquinas inteligentes 0:14:24.720,0:14:28.800 para hacer realidad nuestros [br]más grandes sueños. 0:14:30.000,0:14:31.320 Y si fracasamos, 0:14:32.240,0:14:36.896 si fallamos, no será porque nuestras [br]máquinas sean muy inteligentes, 0:14:36.920,0:14:38.320 o no lo suficientemente inteligentes. 0:14:39.200,0:14:42.280 Si no lo logramos, será porque[br]nos dejamos llevar 0:14:43.680,0:14:45.240 y limitamos nuestras ambiciones. 0:14:46.520,0:14:49.560 Ninguna habilidad [br]define nuestra humanidad, 0:14:51.280,0:14:53.960 ni martillar, ni siquiera [br]jugar al ajedrez. 0:14:54.560,0:14:57.576 La humanidad solo puede hacer una cosa. 0:14:57.600,0:14:58.800 Soñar. 0:15:00.120,0:15:02.656 Soñemos en grande. 0:15:02.680,0:15:03.896 Gracias. 0:15:03.920,0:15:07.807 (Aplausos)