1 00:00:01,373 --> 00:00:02,707 ¿Soy solo yo, 2 00:00:03,141 --> 00:00:05,163 o hay otras personas aquí 3 00:00:05,497 --> 00:00:08,161 que están un poco decepcionadas con la democracia? 4 00:00:08,986 --> 00:00:11,322 (Aplausos) 5 00:00:12,141 --> 00:00:14,402 Analicemos algunas cifras. 6 00:00:14,934 --> 00:00:17,107 En todo el mundo, 7 00:00:17,131 --> 00:00:21,023 la participación media en las elecciones presidenciales 8 00:00:21,047 --> 00:00:22,698 en los últimos 30 años 9 00:00:22,722 --> 00:00:25,344 ha sido solo del 67 %. 10 00:00:26,329 --> 00:00:28,302 Ahora bien, en Europa 11 00:00:28,326 --> 00:00:34,524 la participación media de la gente en las elecciones parlamentarias de la UE, 12 00:00:34,873 --> 00:00:36,817 es solo del 42 %. 13 00:00:38,125 --> 00:00:39,794 Ahora vayamos a Nueva York, 14 00:00:39,818 --> 00:00:44,199 y veamos cuánta gente votó en la última elección para alcalde. 15 00:00:44,523 --> 00:00:48,340 Veremos que solo un 24 % se presentó a votar. 16 00:00:49,063 --> 00:00:52,158 Eso significa que, si todavía dieran "Friends", 17 00:00:52,182 --> 00:00:55,530 Joey y tal vez Phoebe se habrían presentado a votar. 18 00:00:55,554 --> 00:00:56,844 (Risas) 19 00:00:57,434 --> 00:01:01,694 Y no se los puede culpar, porque la gente está cansada de los políticos. 20 00:01:01,784 --> 00:01:05,115 Y está cansada de que otras personas utilicen esa información 21 00:01:05,135 --> 00:01:07,977 que generaron al comunicarse con sus amigos y su familia 22 00:01:07,997 --> 00:01:10,111 para mandarles propaganda política. 23 00:01:10,519 --> 00:01:13,007 Pero esto no es algo nuevo. 24 00:01:13,271 --> 00:01:16,496 Hoy en día, la gente usa los "me gusta" para enviarte propaganda 25 00:01:16,520 --> 00:01:19,703 antes de usar tu código postal, tu género o tu edad, 26 00:01:19,917 --> 00:01:24,777 porque la idea de enviar propaganda política es tan vieja como la política. 27 00:01:25,530 --> 00:01:27,348 Y esto es posible 28 00:01:27,832 --> 00:01:31,304 porque la democracia tiene una vulnerabilidad básica. 29 00:01:31,710 --> 00:01:33,642 Esta es la idea de un representante. 30 00:01:33,979 --> 00:01:36,837 En principio, la democracia es la capacidad de las personas 31 00:01:36,857 --> 00:01:37,967 de ejercer el poder. 32 00:01:38,017 --> 00:01:41,835 Pero en la práctica, tenemos que delegar ese poder a un representante 33 00:01:41,859 --> 00:01:44,114 que pueda ejercer ese poder en nuestro nombre. 34 00:01:44,311 --> 00:01:47,616 Ese representante es un cuello de botella, o un punto débil. 35 00:01:47,731 --> 00:01:51,570 Es el lugar al que se debe apuntar si se quiere atacar a la democracia, 36 00:01:51,644 --> 00:01:55,193 porque se puede capturar a la democracia ya sea capturando al representante 37 00:01:55,217 --> 00:01:57,525 o capturando la manera en que la gente lo elige. 38 00:01:58,065 --> 00:01:59,481 La gran pregunta es: 39 00:01:59,505 --> 00:02:01,209 ¿es el fin de la historia? 40 00:02:01,989 --> 00:02:05,092 ¿Es lo mejor que podemos hacer 41 00:02:05,878 --> 00:02:09,215 o, en realidad, hay alternativas? 42 00:02:10,130 --> 00:02:12,484 Algunas personas han pensado en alternativas 43 00:02:12,508 --> 00:02:16,187 y una de las ideas que da vueltas es la idea de la democracia directa. 44 00:02:17,000 --> 00:02:19,493 Es la idea de evitar la intervención de los políticos 45 00:02:19,523 --> 00:02:22,286 y hacer que la gente vote directamente sobre los asuntos, 46 00:02:22,316 --> 00:02:24,255 que vote las leyes directamente. 47 00:02:24,415 --> 00:02:25,751 Pero esta idea es ingenua 48 00:02:25,775 --> 00:02:28,946 porque hay demasiadas cosas que deberíamos elegir. 49 00:02:28,970 --> 00:02:31,752 Si miran el 114° Congreso estadounidense 50 00:02:31,776 --> 00:02:34,263 habrán visto que la Cámara de Representantes 51 00:02:34,287 --> 00:02:37,176 examinó más de 6000 proyectos de ley, 52 00:02:37,200 --> 00:02:39,856 el Senado examinó más de 3000, 53 00:02:39,880 --> 00:02:42,358 y aprobaron más de 300 leyes. 54 00:02:42,712 --> 00:02:46,401 Esas serían las muchas decisiones que cada persona debería tomar por semana 55 00:02:46,526 --> 00:02:48,668 sobre temas que no son de su conocimiento. 56 00:02:49,109 --> 00:02:51,660 Es decir, hay un gran problema de distancia cognitiva 57 00:02:51,680 --> 00:02:55,526 si pensamos en la democracia directa como alternativa viable. 58 00:02:56,205 --> 00:03:00,640 Algunas personas piensan en la idea de la democracia líquida o delegativa, 59 00:03:00,664 --> 00:03:04,440 en la que se entrega el poder político a alguien 60 00:03:04,464 --> 00:03:06,164 que pueda dárselo a alguien más, 61 00:03:06,188 --> 00:03:08,729 y, con el tiempo, se crea una gran red de seguidores 62 00:03:08,753 --> 00:03:12,047 en la que, al final, unas pocas personas toman las decisiones 63 00:03:12,071 --> 00:03:15,214 en nombre de todos sus seguidores y los seguidores de estos. 64 00:03:16,326 --> 00:03:20,295 Pero esta idea tampoco resuelve el problema cognitivo 65 00:03:20,479 --> 00:03:24,526 y, para ser sincero, es bastante similar a la idea de tener un representante. 66 00:03:24,795 --> 00:03:27,707 Lo que haré hoy es ser un poco provocativo, 67 00:03:28,067 --> 00:03:29,647 y voy a preguntarles: 68 00:03:30,601 --> 00:03:36,513 ¿y si en vez de evitar a los políticos, 69 00:03:37,187 --> 00:03:39,687 tratamos de automatizarlos? 70 00:03:45,871 --> 00:03:48,667 La idea de automatización no es nueva. 71 00:03:48,821 --> 00:03:50,901 Comenzó hace más de 300 años, 72 00:03:50,925 --> 00:03:54,153 cuando tejedores franceses decidieron automatizar el telar. 73 00:03:54,820 --> 00:03:58,760 El ganador de esa guerra industrial fue Joseph-Marie Jacquard. 74 00:03:59,204 --> 00:04:00,955 Fue un tejedor y vendedor francés 75 00:04:00,979 --> 00:04:05,389 que combinó el telar con la máquina de vapor para crear telares autónomos. 76 00:04:05,657 --> 00:04:08,210 Y con esos telares autónomos logró tener el control. 77 00:04:08,434 --> 00:04:12,149 Ahora podía hacer telas que eran más complejas y sofisticadas 78 00:04:12,343 --> 00:04:14,721 que las que podían hacer a mano. 79 00:04:15,193 --> 00:04:17,825 Pero además, al ganar esa guerra industrial, 80 00:04:17,849 --> 00:04:21,523 sentó la base de lo que se convirtió en el modelo de la automatización. 81 00:04:21,955 --> 00:04:25,005 La manera en que automatizamos las cosas en los últimos 300 años 82 00:04:25,029 --> 00:04:26,411 siempre ha sido la misma: 83 00:04:27,006 --> 00:04:29,205 primero, identificamos una necesidad, 84 00:04:29,539 --> 00:04:32,463 después creamos una herramienta para satisfacer esa necesidad, 85 00:04:32,747 --> 00:04:34,151 como el telar, en este caso, 86 00:04:34,541 --> 00:04:37,202 y luego estudiamos cómo la gente utiliza esa herramienta 87 00:04:37,226 --> 00:04:38,711 para automatizar a ese usuario. 88 00:04:39,242 --> 00:04:43,513 Así pasamos del telar mecánico al telar autónomo, 89 00:04:44,247 --> 00:04:45,827 y eso nos llevó mil años. 90 00:04:46,391 --> 00:04:48,462 Ahora, solo nos llevó cien años 91 00:04:48,486 --> 00:04:51,467 usar el mismo guion para automatizar el coche. 92 00:04:53,286 --> 00:04:55,418 La cuestión es que, en esta ocasión, 93 00:04:55,762 --> 00:04:57,461 la automatización es real. 94 00:04:57,915 --> 00:05:01,236 Este es un video que un colega de Toshiba compartió conmigo 95 00:05:01,260 --> 00:05:04,519 de la fábrica que elabora unidades de estado sólido. 96 00:05:04,543 --> 00:05:06,561 La fábrica entera es un robot. 97 00:05:06,585 --> 00:05:08,510 No hay humanos en esa fábrica. 98 00:05:09,033 --> 00:05:11,254 Y pronto, los robots dejarán las fábricas 99 00:05:11,278 --> 00:05:14,960 y serán parte de nuestro mundo, parte de nuestra fuerza laboral. 100 00:05:15,183 --> 00:05:16,956 Lo que hago diariamente en mi trabajo 101 00:05:16,980 --> 00:05:20,972 es crear herramientas que integran información para países enteros 102 00:05:20,996 --> 00:05:24,462 para que finalmente podamos tener los cimientos que necesitamos 103 00:05:24,486 --> 00:05:28,173 para un futuro en el que necesitemos manejar esas máquinas. 104 00:05:29,195 --> 00:05:32,101 Pero hoy no estoy aquí para hablarles de estas herramientas 105 00:05:32,125 --> 00:05:34,069 que integran información para los países, 106 00:05:34,463 --> 00:05:37,085 sino para hablarles de otra idea 107 00:05:37,109 --> 00:05:41,148 que puede ayudarnos a usar inteligencia artificial en la democracia. 108 00:05:41,998 --> 00:05:46,731 Porque las herramientas que hago están diseñadas para decisiones ejecutivas 109 00:05:46,755 --> 00:05:50,597 y estas decisiones pueden encasillarse en algún tipo de término de objetividad: 110 00:05:50,621 --> 00:05:52,366 decisiones de inversión pública. 111 00:05:52,885 --> 00:05:55,066 Pero hay decisiones legislativas, 112 00:05:55,540 --> 00:05:59,241 y estas decisiones legislativas requieren comunicación entre las personas 113 00:05:59,241 --> 00:06:01,051 que tienen distintos puntos de vista, 114 00:06:01,075 --> 00:06:04,978 requieren participación, debate, deliberación. 115 00:06:06,241 --> 00:06:08,555 Y durante mucho tiempo pensamos 116 00:06:08,619 --> 00:06:12,209 que lo necesario para mejorar la democracia es más comunicación. 117 00:06:12,553 --> 00:06:15,966 Todas las tecnologías que desarrollamos en el contexto de la democracia, 118 00:06:16,066 --> 00:06:18,494 ya sea en los periódicos o en las redes sociales, 119 00:06:18,568 --> 00:06:21,470 trataron de brindarnos más comunicación. 120 00:06:21,813 --> 00:06:25,989 Pero ya hemos caído en esa trampa, y sabemos que no resuelve el problema. 121 00:06:26,071 --> 00:06:29,951 Porque no es un problema de comunicación, sino un problema de distancia cognitiva. 122 00:06:30,513 --> 00:06:32,619 Si el problema es cognitivo, 123 00:06:32,903 --> 00:06:37,540 agregar más comunicación no será la solución. 124 00:06:38,282 --> 00:06:41,395 En cambio, lo que necesitaremos es tener otras tecnologías 125 00:06:41,419 --> 00:06:46,355 que nos ayuden a manejar la comunicación que tenemos en exceso. 126 00:06:46,755 --> 00:06:48,454 Piensen en un pequeño avatar, 127 00:06:48,478 --> 00:06:49,817 un agente de software, 128 00:06:49,841 --> 00:06:51,719 un Pepito Grillo digital, 129 00:06:51,743 --> 00:06:52,981 (Risas) 130 00:06:53,005 --> 00:06:57,017 que básicamente puede responder cosas por ti. 131 00:06:57,759 --> 00:06:59,546 Y si tuviéramos esa tecnología, 132 00:06:59,570 --> 00:07:02,048 podríamos descargar parte de la comunicación 133 00:07:02,072 --> 00:07:06,219 y ayudar, tal vez, a tomar mejores decisiones, o a mayor escala. 134 00:07:06,860 --> 00:07:10,579 La cuestión es que la idea de agentes de software tampoco es nueva. 135 00:07:10,603 --> 00:07:12,712 Ya la usamos todo el tiempo. 136 00:07:13,216 --> 00:07:14,737 Usamos agentes de software 137 00:07:14,761 --> 00:07:18,436 para saber cómo llegar a cierto lugar, 138 00:07:19,070 --> 00:07:21,171 qué música vamos a escuchar 139 00:07:21,468 --> 00:07:24,779 o para recibir sugerencias de los próximos libros que deberíamos leer. 140 00:07:25,994 --> 00:07:28,568 Hay una idea obvia en el siglo XXI 141 00:07:28,592 --> 00:07:31,235 que fue tan obvia como la idea 142 00:07:31,259 --> 00:07:36,840 de combinar una máquina de vapor con un telar en la época de Jacquard. 143 00:07:37,538 --> 00:07:41,994 Y esa idea es combinar la democracia directa con agentes de software. 144 00:07:42,849 --> 00:07:46,820 Imaginen, por un segundo, un mundo donde, en vez de tener un representante 145 00:07:46,860 --> 00:07:49,740 que los represente a ustedes y a millones de otras personas, 146 00:07:49,838 --> 00:07:53,228 pueden tener un representante que solo los represente a Uds. 147 00:07:53,504 --> 00:07:55,758 con sus opiniones políticas diferentes, 148 00:07:55,782 --> 00:07:59,126 esa rara combinación de libertario y liberal 149 00:07:59,150 --> 00:08:01,542 y tal vez un poco conservador en algunos asuntos, 150 00:08:01,566 --> 00:08:03,558 y muy progresista en otros. 151 00:08:03,628 --> 00:08:06,965 Hoy en día, los políticos son paquetes, y están llenos de compromisos. 152 00:08:06,989 --> 00:08:10,623 Pero pueden tener a alguien que los represente solo a Uds. 153 00:08:10,647 --> 00:08:14,709 si están dispuestos a abandonar la idea de que ese representante sea un humano. 154 00:08:15,119 --> 00:08:17,311 Si ese representante es un agente de software, 155 00:08:17,335 --> 00:08:21,175 podríamos tener un senado que tenga tantos senadores como ciudadanos. 156 00:08:21,529 --> 00:08:24,127 Y esos senadores podrán leer cada proyecto de ley, 157 00:08:24,411 --> 00:08:26,318 y podrán votar por cada uno de ellos. 158 00:08:27,822 --> 00:08:30,778 Hay una idea obvia, entonces, que tal vez debamos considerar. 159 00:08:30,802 --> 00:08:34,954 Pero entiendo que en esta época, esta idea puede ser alarmante. 160 00:08:36,391 --> 00:08:39,831 De hecho, pensar en un robot que venga del futuro 161 00:08:39,855 --> 00:08:42,468 para ayudarnos a gobernar suena aterrador. 162 00:08:44,223 --> 00:08:45,874 Pero ya lo hemos hecho. 163 00:08:45,898 --> 00:08:47,171 (Risas) 164 00:08:47,195 --> 00:08:49,690 Y de hecho era un buen tipo. 165 00:08:53,057 --> 00:08:57,621 ¿Cómo se vería la versión del telar de Jacquard en esta idea? 166 00:08:58,135 --> 00:09:00,036 Sería un sistema muy simple. 167 00:09:00,060 --> 00:09:03,518 Imaginen un sistema en el que inician sesión y crean un avatar, 168 00:09:03,542 --> 00:09:05,472 y luego comienzan a entrenar su avatar. 169 00:09:05,472 --> 00:09:08,704 Podemos dotar nuestro avatar con nuestros hábitos de lectura, 170 00:09:08,728 --> 00:09:10,589 o conectarlo a nuestras redes sociales, 171 00:09:10,613 --> 00:09:13,021 o conectarlo a otra información, 172 00:09:13,045 --> 00:09:15,317 por ejemplo mediante pruebas psicológicas. 173 00:09:15,341 --> 00:09:18,309 Y lo bueno de esto es que no hay engaño. 174 00:09:18,333 --> 00:09:21,672 No proporcionan información para comunicarse con sus amigos y familia 175 00:09:21,696 --> 00:09:24,567 que luego se utiliza en un sistema político. 176 00:09:24,871 --> 00:09:28,575 Proporciona información a un sistema que está diseñado para ser utilizado 177 00:09:28,599 --> 00:09:31,025 para tomar decisiones políticas en nuestro nombre. 178 00:09:31,264 --> 00:09:35,244 Luego, toma esa información y elige un algoritmo de entrenamiento, 179 00:09:35,268 --> 00:09:36,665 porque es un mercado abierto 180 00:09:36,665 --> 00:09:39,811 en el que diferentes personas pueden presentar distintos algoritmos 181 00:09:39,821 --> 00:09:44,059 para predecir cómo votarán, basándose en la información que proporcionaron. 182 00:09:44,083 --> 00:09:47,538 Y el sistema es abierto. Nadie controla los algoritmos. 183 00:09:47,562 --> 00:09:50,504 Hay algoritmos que se hacen más populares y otros no tanto. 184 00:09:50,515 --> 00:09:52,606 Con el tiempo, se puede auditar el sistema. 185 00:09:52,626 --> 00:09:56,611 Pueden ver cómo funciona su avatar, y dejarlo en piloto automático si quieren. 186 00:09:56,647 --> 00:09:58,453 Si quieren controlar un poco más, 187 00:09:58,593 --> 00:10:01,985 pueden elegir que les consulte cuando toma una decisión, 188 00:10:02,057 --> 00:10:04,056 o puede estar entre esas opciones. 189 00:10:04,466 --> 00:10:07,991 Una de las razones por las que usamos tan poco la democracia 190 00:10:08,011 --> 00:10:11,303 puede ser porque la democracia tiene una interfaz de usuario muy mala. 191 00:10:11,303 --> 00:10:13,840 Si mejoramos la interfaz de usuario de la democracia, 192 00:10:13,870 --> 00:10:15,841 podríamos utilizarla más. 193 00:10:16,452 --> 00:10:19,369 Claro, hay muchas preguntas que pueden surgir. 194 00:10:20,473 --> 00:10:22,634 Por ejemplo, ¿cómo entrenar a esos avatares? 195 00:10:22,658 --> 00:10:24,552 ¿Cómo mantener segura la información? 196 00:10:24,576 --> 00:10:27,824 ¿Cómo mantener los sistemas distribuidos y auditables? 197 00:10:27,848 --> 00:10:31,630 ¿Cómo hace mi abuela, que tiene 80 años y no sabe usar internet? 198 00:10:32,262 --> 00:10:34,093 Créanme, las escuché a todas. 199 00:10:34,507 --> 00:10:38,747 Cuando piensan en una idea como esta, tengan cuidado con los pesimistas 200 00:10:39,091 --> 00:10:43,410 porque suelen tener un problema para cada solución. 201 00:10:43,434 --> 00:10:45,259 (Risas) 202 00:10:45,283 --> 00:10:48,113 Quiero invitarlos a pensar en las ideas más grandes. 203 00:10:48,347 --> 00:10:51,973 Las preguntas que acabo de mostrarles son pequeñas ideas 204 00:10:51,997 --> 00:10:54,899 porque son preguntas sobre cómo esto no funcionaría. 205 00:10:55,502 --> 00:10:59,303 Las grandes ideas son ideas sobre qué más podemos hacer con esto 206 00:10:59,338 --> 00:11:01,017 si funcionara. 207 00:11:01,774 --> 00:11:05,219 Y una de esas ideas es: ¿quién redacta las leyes? 208 00:11:05,854 --> 00:11:10,077 Al principio, podíamos hacer que los avatares que ya tenemos 209 00:11:10,101 --> 00:11:13,598 voten leyes que están redactadas por los senadores o los políticos 210 00:11:13,622 --> 00:11:14,973 que ya tenemos. 211 00:11:15,491 --> 00:11:17,205 Pero si esto funcionara, 212 00:11:17,902 --> 00:11:22,222 podrían crear un algoritmo que intente redactar una ley 213 00:11:22,450 --> 00:11:24,851 que obtendría un cierto porcentaje de aprobación, 214 00:11:24,895 --> 00:11:26,677 y pueden revertir el proceso. 215 00:11:26,701 --> 00:11:30,213 Ahora bien, pueden pensar que es una idea absurda y no deberíamos hacerlo, 216 00:11:30,237 --> 00:11:32,797 pero no pueden negar que esta idea solo es posible 217 00:11:32,907 --> 00:11:36,067 en un mundo donde la democracia directa y los agentes de software 218 00:11:36,091 --> 00:11:38,747 son una forma viable de participación. 219 00:11:40,596 --> 00:11:43,349 Pues bien, ¿cómo empezamos la revolución? 220 00:11:44,238 --> 00:11:47,548 No se empieza esta revolución con vallas de contención o protestas, 221 00:11:47,572 --> 00:11:51,512 ni exigiendo que nuestros actuales políticos se cambien por robots. 222 00:11:51,786 --> 00:11:53,095 No funcionará. 223 00:11:53,359 --> 00:11:57,331 Esto es mucho más sencillo, más lento y mucho más humilde. 224 00:11:57,616 --> 00:12:00,989 Esta revolución empieza creando sistemas simples 225 00:12:00,989 --> 00:12:04,069 en escuelas de posgrado, en bibliotecas y en ONG. 226 00:12:04,107 --> 00:12:06,761 Y tratamos de descifrar todas esas pequeñas preguntas 227 00:12:06,785 --> 00:12:08,006 y esos pequeños problemas 228 00:12:08,030 --> 00:12:11,785 que tendremos que resolver para hacer esta idea viable, 229 00:12:11,785 --> 00:12:14,306 para hacer de esta idea algo confiable. 230 00:12:14,330 --> 00:12:17,899 Y al crear esos sistemas que permiten a cientos o miles de personas, 231 00:12:17,949 --> 00:12:21,559 a cien mil personas votar de manera políticamente no obligatoria, 232 00:12:21,783 --> 00:12:25,031 esta idea irá sumando confianza, el mundo cambiará, 233 00:12:25,368 --> 00:12:29,203 y quienes ahora son tan pequeños como mi hija, van a crecer. 234 00:12:30,580 --> 00:12:32,949 Y para cuando mi hija tenga mi edad, 235 00:12:32,973 --> 00:12:37,119 tal vez esta idea que hoy parece tan absurda 236 00:12:37,433 --> 00:12:41,177 no sea absurda para ella y sus amigos. 237 00:12:41,956 --> 00:12:43,433 Y en ese momento, 238 00:12:43,817 --> 00:12:49,060 estaremos al final de nuestra historia, pero ellos estarán al comienzo de la suya. 239 00:12:49,646 --> 00:12:50,829 Gracias. 240 00:12:50,853 --> 00:12:53,895 (Aplausos)