0:00:01.373,0:00:02.707 ¿Soy solo yo, 0:00:03.141,0:00:05.163 o hay otras personas aquí 0:00:05.497,0:00:08.161 que están un poco decepcionadas[br]con la democracia? 0:00:08.986,0:00:11.322 (Aplausos) 0:00:12.141,0:00:14.402 Analicemos algunas cifras. 0:00:14.934,0:00:17.107 En todo el mundo, 0:00:17.131,0:00:21.023 la participación media[br]en las elecciones presidenciales 0:00:21.047,0:00:22.698 en los últimos 30 años 0:00:22.722,0:00:25.344 ha sido solo del 67 %. 0:00:26.329,0:00:28.302 Ahora bien, en Europa 0:00:28.326,0:00:34.524 la participación media de la gente[br]en las elecciones parlamentarias de la UE, 0:00:34.873,0:00:36.817 es solo del 42 %. 0:00:38.125,0:00:39.794 Ahora vayamos a Nueva York, 0:00:39.818,0:00:44.199 y veamos cuánta gente votó[br]en la última elección para alcalde. 0:00:44.523,0:00:48.340 Veremos que solo un 24 %[br]se presentó a votar. 0:00:49.063,0:00:52.158 Eso significa que,[br]si todavía dieran "Friends", 0:00:52.182,0:00:55.530 Joey y tal vez Phoebe[br]se habrían presentado a votar. 0:00:55.554,0:00:56.844 (Risas) 0:00:57.434,0:01:01.694 Y no se los puede culpar, porque la gente [br]está cansada de los políticos. 0:01:01.784,0:01:05.115 Y está cansada de que otras[br]personas utilicen esa información 0:01:05.135,0:01:07.977 que generaron al comunicarse[br]con sus amigos y su familia 0:01:07.997,0:01:10.111 para mandarles propaganda política. 0:01:10.519,0:01:13.007 Pero esto no es algo nuevo. 0:01:13.271,0:01:16.496 Hoy en día, la gente usa los "me gusta"[br]para enviarte propaganda 0:01:16.520,0:01:19.703 antes de usar tu código postal,[br]tu género o tu edad, 0:01:19.917,0:01:24.777 porque la idea de enviar propaganda[br]política es tan vieja como la política. 0:01:25.530,0:01:27.348 Y esto es posible 0:01:27.832,0:01:31.304 porque la democracia[br]tiene una vulnerabilidad básica. 0:01:31.710,0:01:33.642 Esta es la idea de un representante. 0:01:33.979,0:01:36.837 En principio, la democracia es[br]la capacidad de las personas 0:01:36.857,0:01:37.967 de ejercer el poder. 0:01:38.017,0:01:41.835 Pero en la práctica, tenemos [br]que delegar ese poder a un representante 0:01:41.859,0:01:44.114 que pueda ejercer ese poder[br]en nuestro nombre. 0:01:44.311,0:01:47.616 Ese representante es un cuello[br]de botella, o un punto débil. 0:01:47.731,0:01:51.570 Es el lugar al que se debe apuntar[br]si se quiere atacar a la democracia, 0:01:51.644,0:01:55.193 porque se puede capturar a la democracia[br]ya sea capturando al representante 0:01:55.217,0:01:57.525 o capturando la manera[br]en que la gente lo elige. 0:01:58.065,0:01:59.481 La gran pregunta es: 0:01:59.505,0:02:01.209 ¿es el fin de la historia? 0:02:01.989,0:02:05.092 ¿Es lo mejor que podemos hacer 0:02:05.878,0:02:09.215 o, en realidad, hay alternativas? 0:02:10.130,0:02:12.484 Algunas personas han pensado[br]en alternativas 0:02:12.508,0:02:16.187 y una de las ideas que da vueltas[br]es la idea de la democracia directa. 0:02:17.000,0:02:19.493 Es la idea de evitar[br]la intervención de los políticos 0:02:19.523,0:02:22.286 y hacer que la gente vote [br]directamente sobre los asuntos, 0:02:22.316,0:02:24.255 que vote las leyes directamente. 0:02:24.415,0:02:25.751 Pero esta idea es ingenua 0:02:25.775,0:02:28.946 porque hay demasiadas cosas[br]que deberíamos elegir. 0:02:28.970,0:02:31.752 Si miran el 114° Congreso estadounidense 0:02:31.776,0:02:34.263 habrán visto que la Cámara[br]de Representantes 0:02:34.287,0:02:37.176 examinó más de 6000 proyectos de ley, 0:02:37.200,0:02:39.856 el Senado examinó más de 3000, 0:02:39.880,0:02:42.358 y aprobaron más de 300 leyes. 0:02:42.712,0:02:46.401 Esas serían las muchas decisiones[br]que cada persona debería tomar por semana 0:02:46.526,0:02:48.668 sobre temas que no son de su conocimiento. 0:02:49.109,0:02:51.660 Es decir, hay un gran [br]problema de distancia cognitiva 0:02:51.680,0:02:55.526 si pensamos en la democracia[br]directa como alternativa viable. 0:02:56.205,0:03:00.640 Algunas personas piensan en la idea[br]de la democracia líquida o delegativa, 0:03:00.664,0:03:04.440 en la que se entrega[br]el poder político a alguien 0:03:04.464,0:03:06.164 que pueda dárselo a alguien más, 0:03:06.188,0:03:08.729 y, con el tiempo, se crea[br]una gran red de seguidores 0:03:08.753,0:03:12.047 en la que, al final, unas pocas [br]personas toman las decisiones 0:03:12.071,0:03:15.214 en nombre de todos sus seguidores[br]y los seguidores de estos. 0:03:16.326,0:03:20.295 Pero esta idea tampoco [br]resuelve el problema cognitivo 0:03:20.479,0:03:24.526 y, para ser sincero, es bastante similar[br]a la idea de tener un representante. 0:03:24.795,0:03:27.707 Lo que haré hoy es ser[br]un poco provocativo, 0:03:28.067,0:03:29.647 y voy a preguntarles: 0:03:30.601,0:03:36.513 ¿y si en vez de evitar a los políticos, 0:03:37.187,0:03:39.687 tratamos de automatizarlos? 0:03:45.871,0:03:48.667 La idea de automatización no es nueva. 0:03:48.821,0:03:50.901 Comenzó hace más de 300 años, 0:03:50.925,0:03:54.153 cuando tejedores franceses[br]decidieron automatizar el telar. 0:03:54.820,0:03:58.760 El ganador de esa guerra industrial[br]fue Joseph-Marie Jacquard. 0:03:59.204,0:04:00.955 Fue un tejedor y vendedor francés 0:04:00.979,0:04:05.389 que combinó el telar con la máquina [br]de vapor para crear telares autónomos. 0:04:05.657,0:04:08.210 Y con esos telares autónomos[br]logró tener el control. 0:04:08.434,0:04:12.149 Ahora podía hacer telas que eran[br]más complejas y sofisticadas 0:04:12.343,0:04:14.721 que las que podían hacer a mano. 0:04:15.193,0:04:17.825 Pero además, al ganar[br]esa guerra industrial, 0:04:17.849,0:04:21.523 sentó la base de lo que se convirtió[br]en el modelo de la automatización. 0:04:21.955,0:04:25.005 La manera en que automatizamos [br]las cosas en los últimos 300 años 0:04:25.029,0:04:26.411 siempre ha sido la misma: 0:04:27.006,0:04:29.205 primero, identificamos una necesidad, 0:04:29.539,0:04:32.463 después creamos una herramienta[br]para satisfacer esa necesidad, 0:04:32.747,0:04:34.151 como el telar, en este caso, 0:04:34.541,0:04:37.202 y luego estudiamos cómo la gente[br]utiliza esa herramienta 0:04:37.226,0:04:38.711 para automatizar a ese usuario. 0:04:39.242,0:04:43.513 Así pasamos del telar [br]mecánico al telar autónomo, 0:04:44.247,0:04:45.827 y eso nos llevó mil años. 0:04:46.391,0:04:48.462 Ahora, solo nos llevó cien años 0:04:48.486,0:04:51.467 usar el mismo guion[br]para automatizar el coche. 0:04:53.286,0:04:55.418 La cuestión es que, en esta ocasión, 0:04:55.762,0:04:57.461 la automatización es real. 0:04:57.915,0:05:01.236 Este es un video que un colega[br]de Toshiba compartió conmigo 0:05:01.260,0:05:04.519 de la fábrica que elabora [br]unidades de estado sólido. 0:05:04.543,0:05:06.561 La fábrica entera es un robot. 0:05:06.585,0:05:08.510 No hay humanos en esa fábrica. 0:05:09.033,0:05:11.254 Y pronto, los robots dejarán las fábricas 0:05:11.278,0:05:14.960 y serán parte de nuestro mundo,[br]parte de nuestra fuerza laboral. 0:05:15.183,0:05:16.956 Lo que hago diariamente en mi trabajo 0:05:16.980,0:05:20.972 es crear herramientas que integran[br]información para países enteros 0:05:20.996,0:05:24.462 para que finalmente podamos tener[br]los cimientos que necesitamos 0:05:24.486,0:05:28.173 para un futuro en el que necesitemos[br]manejar esas máquinas. 0:05:29.195,0:05:32.101 Pero hoy no estoy aquí[br]para hablarles de estas herramientas 0:05:32.125,0:05:34.069 que integran información[br]para los países, 0:05:34.463,0:05:37.085 sino para hablarles de otra idea 0:05:37.109,0:05:41.148 que puede ayudarnos a usar [br]inteligencia artificial en la democracia. 0:05:41.998,0:05:46.731 Porque las herramientas que hago[br]están diseñadas para decisiones ejecutivas 0:05:46.755,0:05:50.597 y estas decisiones pueden encasillarse[br]en algún tipo de término de objetividad: 0:05:50.621,0:05:52.366 decisiones de inversión pública. 0:05:52.885,0:05:55.066 Pero hay decisiones legislativas, 0:05:55.540,0:05:59.241 y estas decisiones legislativas[br]requieren comunicación entre las personas 0:05:59.241,0:06:01.051 que tienen distintos puntos de vista, 0:06:01.075,0:06:04.978 requieren participación, [br]debate, deliberación. 0:06:06.241,0:06:08.555 Y durante mucho tiempo pensamos 0:06:08.619,0:06:12.209 que lo necesario para mejorar[br]la democracia es más comunicación. 0:06:12.553,0:06:15.966 Todas las tecnologías que desarrollamos[br]en el contexto de la democracia, 0:06:16.066,0:06:18.494 ya sea en los periódicos[br]o en las redes sociales, 0:06:18.568,0:06:21.470 trataron de brindarnos más comunicación. 0:06:21.813,0:06:25.989 Pero ya hemos caído en esa trampa,[br]y sabemos que no resuelve el problema. 0:06:26.071,0:06:29.951 Porque no es un problema de comunicación,[br]sino un problema de distancia cognitiva. 0:06:30.513,0:06:32.619 Si el problema es cognitivo, 0:06:32.903,0:06:37.540 agregar más comunicación[br]no será la solución. 0:06:38.282,0:06:41.395 En cambio, lo que necesitaremos[br]es tener otras tecnologías 0:06:41.419,0:06:46.355 que nos ayuden a manejar [br]la comunicación que tenemos en exceso. 0:06:46.755,0:06:48.454 Piensen en un pequeño avatar, 0:06:48.478,0:06:49.817 un agente de software, 0:06:49.841,0:06:51.719 un Pepito Grillo digital, 0:06:51.743,0:06:52.981 (Risas) 0:06:53.005,0:06:57.017 que básicamente puede[br]responder cosas por ti. 0:06:57.759,0:06:59.546 Y si tuviéramos esa tecnología, 0:06:59.570,0:07:02.048 podríamos descargar[br]parte de la comunicación 0:07:02.072,0:07:06.219 y ayudar, tal vez, a tomar mejores [br]decisiones, o a mayor escala. 0:07:06.860,0:07:10.579 La cuestión es que la idea[br]de agentes de software tampoco es nueva. 0:07:10.603,0:07:12.712 Ya la usamos todo el tiempo. 0:07:13.216,0:07:14.737 Usamos agentes de software 0:07:14.761,0:07:18.436 para saber cómo llegar a cierto lugar, 0:07:19.070,0:07:21.171 qué música vamos a escuchar 0:07:21.468,0:07:24.779 o para recibir sugerencias de los próximos[br]libros que deberíamos leer. 0:07:25.994,0:07:28.568 Hay una idea obvia en el siglo XXI 0:07:28.592,0:07:31.235 que fue tan obvia como la idea 0:07:31.259,0:07:36.840 de combinar una máquina de vapor[br]con un telar en la época de Jacquard. 0:07:37.538,0:07:41.994 Y esa idea es combinar la democracia [br]directa con agentes de software. 0:07:42.849,0:07:46.820 Imaginen, por un segundo, un mundo[br]donde, en vez de tener un representante 0:07:46.860,0:07:49.740 que los represente a ustedes[br]y a millones de otras personas, 0:07:49.838,0:07:53.228 pueden tener un representante[br]que solo los represente a Uds. 0:07:53.504,0:07:55.758 con sus opiniones políticas diferentes, 0:07:55.782,0:07:59.126 esa rara combinación[br]de libertario y liberal 0:07:59.150,0:08:01.542 y tal vez un poco conservador[br]en algunos asuntos, 0:08:01.566,0:08:03.558 y muy progresista en otros. 0:08:03.628,0:08:06.965 Hoy en día, los políticos son paquetes,[br]y están llenos de compromisos. 0:08:06.989,0:08:10.623 Pero pueden tener a alguien[br]que los represente solo a Uds. 0:08:10.647,0:08:14.709 si están dispuestos a abandonar la idea[br]de que ese representante sea un humano. 0:08:15.119,0:08:17.311 Si ese representante[br]es un agente de software, 0:08:17.335,0:08:21.175 podríamos tener un senado que tenga[br]tantos senadores como ciudadanos. 0:08:21.529,0:08:24.127 Y esos senadores podrán [br]leer cada proyecto de ley, 0:08:24.411,0:08:26.318 y podrán votar por cada uno de ellos. 0:08:27.822,0:08:30.778 Hay una idea obvia, entonces,[br]que tal vez debamos considerar. 0:08:30.802,0:08:34.954 Pero entiendo que en esta época,[br]esta idea puede ser alarmante. 0:08:36.391,0:08:39.831 De hecho, pensar en un robot[br]que venga del futuro 0:08:39.855,0:08:42.468 para ayudarnos a gobernar suena aterrador. 0:08:44.223,0:08:45.874 Pero ya lo hemos hecho. 0:08:45.898,0:08:47.171 (Risas) 0:08:47.195,0:08:49.690 Y de hecho era un buen tipo. 0:08:53.057,0:08:57.621 ¿Cómo se vería la versión del telar[br]de Jacquard en esta idea? 0:08:58.135,0:09:00.036 Sería un sistema muy simple. 0:09:00.060,0:09:03.518 Imaginen un sistema en el que [br]inician sesión y crean un avatar, 0:09:03.542,0:09:05.472 y luego comienzan a entrenar su avatar. 0:09:05.472,0:09:08.704 Podemos dotar nuestro avatar[br]con nuestros hábitos de lectura, 0:09:08.728,0:09:10.589 o conectarlo a nuestras redes sociales, 0:09:10.613,0:09:13.021 o conectarlo a otra información, 0:09:13.045,0:09:15.317 por ejemplo mediante pruebas psicológicas. 0:09:15.341,0:09:18.309 Y lo bueno de esto es que no hay engaño. 0:09:18.333,0:09:21.672 No proporcionan información para[br]comunicarse con sus amigos y familia 0:09:21.696,0:09:24.567 que luego se utiliza[br]en un sistema político. 0:09:24.871,0:09:28.575 Proporciona información a un sistema[br]que está diseñado para ser utilizado 0:09:28.599,0:09:31.025 para tomar decisiones políticas[br]en nuestro nombre. 0:09:31.264,0:09:35.244 Luego, toma esa información y elige[br]un algoritmo de entrenamiento, 0:09:35.268,0:09:36.665 porque es un mercado abierto 0:09:36.665,0:09:39.811 en el que diferentes personas[br]pueden presentar distintos algoritmos 0:09:39.821,0:09:44.059 para predecir cómo votarán, basándose[br]en la información que proporcionaron. 0:09:44.083,0:09:47.538 Y el sistema es abierto.[br]Nadie controla los algoritmos. 0:09:47.562,0:09:50.504 Hay algoritmos que se hacen [br]más populares y otros no tanto. 0:09:50.515,0:09:52.606 Con el tiempo, se puede[br]auditar el sistema. 0:09:52.626,0:09:56.611 Pueden ver cómo funciona su avatar,[br]y dejarlo en piloto automático si quieren. 0:09:56.647,0:09:58.453 Si quieren controlar un poco más, 0:09:58.593,0:10:01.985 pueden elegir que les consulte[br]cuando toma una decisión, 0:10:02.057,0:10:04.056 o puede estar entre esas opciones. 0:10:04.466,0:10:07.991 Una de las razones por las que [br]usamos tan poco la democracia 0:10:08.011,0:10:11.303 puede ser porque la democracia[br]tiene una interfaz de usuario muy mala. 0:10:11.303,0:10:13.840 Si mejoramos la interfaz [br]de usuario de la democracia, 0:10:13.870,0:10:15.841 podríamos utilizarla más. 0:10:16.452,0:10:19.369 Claro, hay muchas [br]preguntas que pueden surgir. 0:10:20.473,0:10:22.634 Por ejemplo, ¿cómo [br]entrenar a esos avatares? 0:10:22.658,0:10:24.552 ¿Cómo mantener segura la información? 0:10:24.576,0:10:27.824 ¿Cómo mantener los sistemas[br]distribuidos y auditables? 0:10:27.848,0:10:31.630 ¿Cómo hace mi abuela, que tiene [br]80 años y no sabe usar internet? 0:10:32.262,0:10:34.093 Créanme, las escuché a todas. 0:10:34.507,0:10:38.747 Cuando piensan en una idea como esta,[br]tengan cuidado con los pesimistas 0:10:39.091,0:10:43.410 porque suelen tener[br]un problema para cada solución. 0:10:43.434,0:10:45.259 (Risas) 0:10:45.283,0:10:48.113 Quiero invitarlos a pensar[br]en las ideas más grandes. 0:10:48.347,0:10:51.973 Las preguntas que acabo [br]de mostrarles son pequeñas ideas 0:10:51.997,0:10:54.899 porque son preguntas[br]sobre cómo esto no funcionaría. 0:10:55.502,0:10:59.303 Las grandes ideas son ideas sobre[br]qué más podemos hacer con esto 0:10:59.338,0:11:01.017 si funcionara. 0:11:01.774,0:11:05.219 Y una de esas ideas es:[br]¿quién redacta las leyes? 0:11:05.854,0:11:10.077 Al principio, podíamos hacer[br]que los avatares que ya tenemos 0:11:10.101,0:11:13.598 voten leyes que están redactadas[br]por los senadores o los políticos 0:11:13.622,0:11:14.973 que ya tenemos. 0:11:15.491,0:11:17.205 Pero si esto funcionara, 0:11:17.902,0:11:22.222 podrían crear un algoritmo[br]que intente redactar una ley 0:11:22.450,0:11:24.851 que obtendría un cierto [br]porcentaje de aprobación, 0:11:24.895,0:11:26.677 y pueden revertir el proceso. 0:11:26.701,0:11:30.213 Ahora bien, pueden pensar que es[br]una idea absurda y no deberíamos hacerlo, 0:11:30.237,0:11:32.797 pero no pueden negar [br]que esta idea solo es posible 0:11:32.907,0:11:36.067 en un mundo donde la democracia [br]directa y los agentes de software 0:11:36.091,0:11:38.747 son una forma viable de participación. 0:11:40.596,0:11:43.349 Pues bien, ¿cómo empezamos la revolución? 0:11:44.238,0:11:47.548 No se empieza esta revolución[br]con vallas de contención o protestas, 0:11:47.572,0:11:51.512 ni exigiendo que nuestros actuales [br]políticos se cambien por robots. 0:11:51.786,0:11:53.095 No funcionará. 0:11:53.359,0:11:57.331 Esto es mucho más sencillo,[br]más lento y mucho más humilde. 0:11:57.616,0:12:00.989 Esta revolución empieza[br]creando sistemas simples 0:12:00.989,0:12:04.069 en escuelas de posgrado, [br]en bibliotecas y en ONG. 0:12:04.107,0:12:06.761 Y tratamos de descifrar[br]todas esas pequeñas preguntas 0:12:06.785,0:12:08.006 y esos pequeños problemas 0:12:08.030,0:12:11.785 que tendremos que resolver[br]para hacer esta idea viable, 0:12:11.785,0:12:14.306 para hacer de esta idea algo confiable. 0:12:14.330,0:12:17.899 Y al crear esos sistemas que permiten[br]a cientos o miles de personas, 0:12:17.949,0:12:21.559 a cien mil personas votar de manera[br]políticamente no obligatoria, 0:12:21.783,0:12:25.031 esta idea irá sumando[br]confianza, el mundo cambiará, 0:12:25.368,0:12:29.203 y quienes ahora son tan pequeños[br]como mi hija, van a crecer. 0:12:30.580,0:12:32.949 Y para cuando mi hija tenga mi edad, 0:12:32.973,0:12:37.119 tal vez esta idea que hoy[br]parece tan absurda 0:12:37.433,0:12:41.177 no sea absurda para ella y sus amigos. 0:12:41.956,0:12:43.433 Y en ese momento, 0:12:43.817,0:12:49.060 estaremos al final de nuestra historia,[br]pero ellos estarán al comienzo de la suya. 0:12:49.646,0:12:50.829 Gracias. 0:12:50.853,0:12:53.895 (Aplausos)