0:00:00.612,0:00:02.217 Durante los últimos tres años 0:00:02.217,0:00:05.430 he hablado con algunas de las[br]peores personas del Internet. 0:00:06.131,0:00:08.637 Si han estado navegando[br]en Internet recientemente, 0:00:08.637,0:00:12.465 puede que hayan notado la gran[br]cantidad de basura tóxica que hay: 0:00:12.479,0:00:16.862 memes racistas, propaganda[br]misógina, desinformación viral. 0:00:16.862,0:00:19.609 Y quería saber quien[br]estaba creando estas cosas. 0:00:19.609,0:00:21.957 Quería entender cómo las difundían. 0:00:21.957,0:00:23.438 Básicamente, quería conocer 0:00:23.438,0:00:25.761 el impacto que podría [br]tener en nuestra sociedad. 0:00:25.761,0:00:29.760 Así que en 2016 comencé a buscar[br]el origen de algunos de estos memes 0:00:29.760,0:00:33.016 para llegar a quienes los creaban[br]o a quienes los hacían virales. 0:00:33.016,0:00:34.850 Me acercaba a esta gente y les decía: 0:00:34.850,0:00:37.500 "Soy periodista. ¿Puedo acompañarlo[br]y ver lo que hace?" 0:00:37.500,0:00:39.124 A menudo, la respuesta sería: 0:00:39.124,0:00:41.171 "¿Por qué diablos yo quisiera hablar 0:00:41.171,0:00:43.794 con un 'soy- boy' judío [br]globalista de Brooklyn 0:00:43.818,0:00:45.905 confabulado con el partido demócrata?". 0:00:45.929,0:00:47.181 (Risas) 0:00:47.205,0:00:50.984 Y mi respuesta sería: "Mira, [br]eso solo es un 57 % cierto". 0:00:50.984,0:00:52.376 (Risas) 0:00:52.376,0:00:54.563 Pero muchas veces [br]la respuesta era la opuesta. 0:00:54.563,0:00:55.785 "Sí, por supuesto, siga." 0:00:56.555,0:00:58.556 Y así fue cómo terminé en la sala de estar 0:00:58.556,0:01:01.855 de un propagandista[br]en el Sur de California. 0:01:02.336,0:01:04.841 Era un hombre blanco, casado,[br]cerca de los cuarenta. 0:01:04.841,0:01:07.967 Sentado ante una mesa[br]con una taza de café, 0:01:07.967,0:01:09.607 un portátil para tuitear, 0:01:09.607,0:01:11.439 un celular para textear 0:01:11.439,0:01:14.699 y un iPad para hacer directos[br]en Periscope y YouTube. 0:01:15.058,0:01:16.419 Eso era todo. 0:01:16.998,0:01:18.268 Y con esas herramientas 0:01:18.268,0:01:22.007 era capaz de impulsar[br]temas dañinos y alternativos 0:01:22.007,0:01:24.442 en medio de[br]la conversación estadounidense. 0:01:25.064,0:01:27.207 Por ejemplo, uno de los días[br]que estuve allí, 0:01:27.207,0:01:30.283 una bomba acababa de explotar[br]en Nueva York, 0:01:30.283,0:01:33.842 y el chico acusado de haberla puesto [br]tenía un sonante nombre musulmán. 0:01:33.842,0:01:38.008 El propagandista de California[br]vio esto como una oportunidad 0:01:38.008,0:01:39.748 porque una de las cosas que quería 0:01:39.748,0:01:42.394 era que EE. UU. cortara [br]casi toda la inmigración, 0:01:42.394,0:01:45.027 especialmente de los países[br]mayoritariamente musulmanes. 0:01:45.294,0:01:47.499 Así que empezó una transmisión en vivo, 0:01:47.499,0:01:49.829 haciendo que sus seguidores[br]se pusieran frenéticos 0:01:49.829,0:01:52.538 diciendo que las fronteras libres[br]nos iban a matar. 0:01:52.562,0:01:54.330 Él les pedía que tuitiaran 0:01:54.354,0:01:55.817 y usaran hashtags específicos 0:01:55.817,0:01:57.775 para intentar hacerlos tendencia. 0:01:57.775,0:01:58.948 Y tuitearon... 0:01:58.972,0:02:00.836 Cientos y cientos de tuits, 0:02:00.836,0:02:03.239 muchos de ellos mostraban[br]imágenes como esta. 0:02:03.239,0:02:04.890 Este es George Soros. 0:02:04.890,0:02:07.709 Un multimillonario y filántropo húngaro 0:02:07.709,0:02:10.328 y según varios conspiradores online, 0:02:10.328,0:02:12.920 George Soros es una especie[br]de monstruo globalista, 0:02:12.920,0:02:17.078 perteneciente a la élite que secretamente[br]manipula todos los asuntos globales. 0:02:17.078,0:02:20.694 Situémonos aquí un momento:[br]si esta idea les resulta familiar, 0:02:20.694,0:02:23.086 que existe una élite que controla el mundo 0:02:23.086,0:02:25.691 formada en su mayoría por judíos ricos, 0:02:25.691,0:02:29.419 es porque es uno de las figuras [br]más antisemitas que existen. 0:02:30.296,0:02:33.694 Debo mencionar que el hombre[br]que puso la bomba en Nueva York 0:02:33.694,0:02:35.289 era un ciudadano estadounidense. 0:02:35.785,0:02:37.989 Fuera cual fuera la razón 0:02:37.989,0:02:40.186 la inmigración no era lo importante. 0:02:41.332,0:02:44.164 El propagandista de California[br]era consciente de ello. 0:02:44.164,0:02:46.709 Era un hombre leído.[br]En realidad, era abogado. 0:02:46.709,0:02:48.420 Conocía los hechos subyacentes, 0:02:48.420,0:02:51.635 pero también sabía que[br]los hechos no dan de qué hablar. 0:02:51.635,0:02:53.366 Los que sí dan de qué hablar 0:02:53.366,0:02:54.619 es la emoción. 0:02:55.451,0:02:57.485 La premisa original de las redes sociales 0:02:57.485,0:02:59.081 era que iban a unirnos 0:02:59.081,0:03:02.137 a hacer un mundo[br]más abierto, tolerante y justo... 0:03:02.137,0:03:03.415 Y algo de eso sí hizo. 0:03:04.503,0:03:07.226 Pero los algoritmos no se crearon 0:03:07.226,0:03:09.588 para distinguir lo que es[br]verdad o mentira, 0:03:09.588,0:03:13.522 lo que es bueno o malo para la sociedad,[br]lo que es prosocial, lo que es antisocial. 0:03:13.965,0:03:16.202 Eso no es lo que hacen los algoritmos. 0:03:16.202,0:03:18.781 Lo que hacen es medir la interacción: 0:03:18.805,0:03:21.826 clics, comentarios, qué se comparte,[br]retweets, todas esas cosas. 0:03:21.850,0:03:24.551 Y si quiere que su contenido[br]genere interacción, 0:03:24.575,0:03:26.137 tiene que provocar emoción, 0:03:26.137,0:03:29.987 específicamente lo que los expertos de la[br]conducta llaman: "de alta excitación". 0:03:30.343,0:03:32.833 "Alta excitación" no se refiere[br]solo a la sexual, 0:03:32.857,0:03:35.592 aunque tratándose de internet[br]eso obviamente funciona. 0:03:35.616,0:03:39.625 Se refiere a cualquier cosa, positiva[br]o negativa, que nos eleve el pulso. 0:03:39.649,0:03:41.618 Me senté con estos propagandistas, 0:03:41.642,0:03:44.051 docenas de ellos, [br]no solo el de California, 0:03:44.075,0:03:47.823 y miraba mientras hacían esto [br]una y otra vez, con éxito, 0:03:47.847,0:03:51.455 no porque fueran hackers rusos[br]o porque fueran genios tecnológicos, 0:03:51.479,0:03:53.712 no porque tuvieran[br]conocimientos políticos... 0:03:53.712,0:03:56.308 sino porque sabían cómo[br]funcionaban las redes sociales 0:03:56.308,0:03:58.272 y estaban dispuestos a usarlo a su favor. 0:03:58.272,0:04:01.540 Al principio me decía[br]que era un fenómeno aislado, 0:04:01.540,0:04:04.361 algo que quedaba relegado al internet. 0:04:04.385,0:04:08.737 Pero, en realidad, ya no hay separación[br]entre el internet y todo lo demás. 0:04:08.761,0:04:10.945 Este anuncio recorrió múltiples cadenas 0:04:10.969,0:04:13.576 durante las elecciones [br]al congreso del 2018, 0:04:13.600,0:04:16.580 afirmando, sin casi pruebas,[br]que el manipulador internacional, 0:04:16.580,0:04:19.390 George Soros, tenía en el bolsillo[br]a uno de los candidatos, 0:04:19.390,0:04:22.666 quien aparece en este montaje[br]al lado de varias pilas de dinero. 0:04:23.296,0:04:25.910 Este es un tuit del presidente de EE. UU. 0:04:25.910,0:04:27.499 afirmando, de nuevo, sin pruebas, 0:04:27.499,0:04:31.062 que la política estadounidense[br]está siendo manipulada por George Soros. 0:04:31.086,0:04:35.060 Todo esto que antes parecía escandaloso,[br]marginal y, francamente, ignorable, 0:04:35.084,0:04:38.029 ahora está tan normalizado[br]que casi ni lo notamos. 0:04:38.053,0:04:40.061 Pasé tres años en este mundo. 0:04:40.061,0:04:41.813 Hablé con mucha gente. 0:04:41.837,0:04:44.303 Algunos parecen no tener[br]valores fundamentales. 0:04:44.327,0:04:46.910 Simplemente parecen estar[br]apostando de manera racional 0:04:46.934,0:04:49.021 a que si ellos querían[br]hacer dinero en línea 0:04:49.021,0:04:50.357 o conseguir atención online, 0:04:50.357,0:04:52.770 deberían ser lo más extravagantes posible. 0:04:52.770,0:04:55.523 Pero hablé con otros quienes [br]eran verdaderos ideólogos. 0:04:56.173,0:05:00.054 Y aclaro, su ideología [br]no era conservadurismo tradicional. 0:05:00.078,0:05:03.456 Eran personas que querían[br]revocar el sufragio femenino. 0:05:03.480,0:05:06.159 Eran personas que querían[br]volver a la segregación racial. 0:05:06.159,0:05:09.280 Algunos querían eliminar[br]la democracia de raíz. 0:05:09.304,0:05:11.929 Obviamente, esta gente[br]no nacieron creyendo estas cosas. 0:05:11.939,0:05:13.864 No lo aprendieron en el colegio. 0:05:14.856,0:05:17.848 Muchos de ellos,[br]antes de entrar en internet, 0:05:17.872,0:05:20.340 habían sido libertarios o socialistas 0:05:20.364,0:05:22.551 o algo completamente diferente. 0:05:22.575,0:05:23.866 ¿Qué estaba pasando? 0:05:24.918,0:05:26.904 No puedo generalizar cada caso, 0:05:26.904,0:05:28.715 pero muchos con los que hablé, 0:05:28.715,0:05:32.595 parecían tener una combinación[br]de coeficiente intelectual alto y bajo. 0:05:32.619,0:05:36.130 Parecían estar más cómodos[br]en espacios anónimos en línea 0:05:36.154,0:05:38.351 en vez de estar conectados[br]en el mundo real. 0:05:38.810,0:05:41.263 A menudo se refugiaban en[br]esos tableros de mensajes 0:05:41.287,0:05:42.459 o en esos subreddits, 0:05:42.483,0:05:44.937 donde se magnificaban sus peores impulsos. 0:05:44.961,0:05:48.020 Puede que comiencen [br]con alguna broma de mal gusto 0:05:48.044,0:05:50.720 y después recibirían tal[br]refuerzo positivo por esa broma, 0:05:50.730,0:05:53.970 tantos puntos de internet sin sentido, 0:05:53.970,0:05:56.589 que puede que comiencen [br]a creerse sus propias bromas. 0:05:58.014,0:06:01.538 Hablé mucho con una joven[br]que creció en Nueva Jersey 0:06:01.562,0:06:04.038 y después del bachillerato se mudó 0:06:04.062,0:06:06.316 y de repente se sintió alienada y aislada, 0:06:06.340,0:06:08.204 y comenzó a refugiarse en su celular. 0:06:08.850,0:06:10.988 Encontró alguno de estos[br]espacios en internet 0:06:10.988,0:06:13.912 donde la gente publicaba[br]las cosas más atroces. 0:06:13.936,0:06:16.205 Todo esto le pareció repulsivo 0:06:16.229,0:06:18.004 pero a la vez interesante, 0:06:18.754,0:06:20.838 no podía apartar la mirada. 0:06:21.304,0:06:23.850 Comenzó a interactuar[br]con gente en estos espacios 0:06:23.850,0:06:26.702 y la hicieron sentir inteligente,[br]la hicieron sentir válida. 0:06:26.702,0:06:28.735 Comenzó a sentirse[br]parte de una comunidad, 0:06:28.735,0:06:31.188 comenzó a preguntarse[br]si quizás alguno de esos memes 0:06:31.188,0:06:34.127 podría contener algo de verdad. 0:06:34.151,0:06:37.366 Meses después, estaba en un carro[br]con sus nuevos amigos de internet 0:06:37.366,0:06:39.240 camino a Charlottesville, en Virginia, 0:06:39.240,0:06:41.828 para marchar con antorchas[br]por la raza blanca. 0:06:43.033,0:06:45.324 En pocos meses, [br]había pasado de apoyar a Obama 0:06:45.338,0:06:47.825 a ser una radical defensora[br]de la supremacía blanca. 0:06:49.030,0:06:51.311 En su caso en particular, 0:06:51.335,0:06:55.467 ella fue capaz de salir de la secta[br]de la supremacía blanca. 0:06:56.418,0:06:58.478 Pero mucha gente con la que hablé no. 0:06:58.502,0:07:00.224 Para ser claro: 0:07:00.248,0:07:03.059 Nunca había estado tan convencido[br]de que tenía que encontrar 0:07:03.059,0:07:05.301 algo en común con todos con los que hablé 0:07:05.325,0:07:06.579 y estar dispuesto a decir: 0:07:06.603,0:07:09.744 "¿Sabes qué? Tú eres un[br]propagandista fascista, yo no, 0:07:09.768,0:07:13.058 pero da igual, démonos la mano[br]y nuestras diferencias desaparecerán". 0:07:13.058,0:07:14.922 No, por supuesto que no. 0:07:16.056,0:07:19.577 Pero sí me convencí de que [br]no podía mirar para otro lado. 0:07:19.601,0:07:22.817 Tenemos que intentar entenderlo[br]porque solo al entenderlo 0:07:22.841,0:07:26.039 podemos vacunarnos contra ello. 0:07:27.361,0:07:30.710 Durante mis tres años[br]en este mundo, recibí llamadas crueles, 0:07:30.710,0:07:32.254 incluso amenazas, 0:07:32.254,0:07:35.708 pero tan solo fue una parte[br]de lo que reciben las periodistas. 0:07:36.791,0:07:38.182 Y sí, yo soy judío, 0:07:38.206,0:07:41.855 aunque, irónicamente, muchos [br]de los Nazis no se dieron cuenta, 0:07:41.879,0:07:44.740 lo que, la verdad,[br]me pareció decepcionante. 0:07:44.764,0:07:46.564 (Risas) 0:07:46.588,0:07:50.554 En serio, se dedica a ser[br]un antisemita profesional. 0:07:51.228,0:07:53.650 ¿No ve nada que me delate? 0:07:53.674,0:07:54.750 ¿Nada? 0:07:54.774,0:07:57.077 (Risas) 0:07:57.983,0:07:59.178 No es ningún secreto. 0:07:59.202,0:08:01.885 Me llamo Andrew Marantz,[br]escribo para el "The New Yorker" 0:08:01.909,0:08:03.624 mi personalidad es como si pusieran 0:08:03.654,0:08:06.291 un episodio de Seinfeld[br]en Park Slope Food Coop. 0:08:06.315,0:08:07.477 ¿Nada? 0:08:07.501,0:08:10.014 (Risas) 0:08:12.804,0:08:15.035 En fin... básicamente, estaría bien 0:08:15.059,0:08:17.407 que hubiera una fórmula simple: 0:08:17.431,0:08:21.749 un smartphone más un niño aislado es igual[br]a un 12 % de posibilidades de ser Nazi. 0:08:21.918,0:08:23.522 Obviamente no es tan simple. 0:08:24.190,0:08:25.353 En mi forma de escribir, 0:08:25.377,0:08:28.592 me resulta mucho más cómodo[br]ser descriptivo, no prescriptivo. 0:08:29.049,0:08:31.690 Pero esto es TED, 0:08:31.714,0:08:33.701 así que seamos prácticos. 0:08:33.725,0:08:35.351 Quiero compartir unas sugerencias 0:08:35.375,0:08:38.501 de cosas que ciudadanos[br]de internet como usted y como yo 0:08:38.525,0:08:41.430 podemos hacer para [br]que las cosas no sean tan tóxicas. 0:08:41.860,0:08:42.730 [Sugerencia 1] 0:08:42.830,0:08:45.099 Lo primero es ser[br]un inteligente escéptico. 0:08:45.964,0:08:48.161 Creo que hay dos tipos de escepticismo. 0:08:48.185,0:08:52.413 No los quiero aburrir con información[br]técnica que necesite explicación, 0:08:52.437,0:08:55.065 pero lo llamo escepticismo[br]inteligente y estúpido. 0:08:56.176,0:08:58.683 Escepticismo inteligente: 0:08:58.707,0:08:59.911 pensar por uno mismo, 0:08:59.935,0:09:01.127 dudar de toda afirmación, 0:09:01.151,0:09:02.593 demandar pruebas... 0:09:02.617,0:09:04.334 es decir, escepticismo de verdad. 0:09:05.397,0:09:08.027 Escepticismo estúpido:[br]parece escepticismo, 0:09:08.051,0:09:11.042 pero está más cerca [br]de ser espíritu de contradicción. 0:09:11.817,0:09:13.390 Dicen que la tierra es redonda, 0:09:13.414,0:09:14.770 tú dices que es plana. 0:09:14.794,0:09:16.361 Dicen que el racismo es malo, 0:09:16.385,0:09:18.970 tú dices: "No sé, [br]soy escéptico en el tema". 0:09:19.682,0:09:23.225 No tienen una idea de[br]cuántos jóvenes blancos 0:09:23.275,0:09:24.981 me han dicho en los últimos años: 0:09:25.005,0:09:28.080 "Los medios, mis profesores[br]todos intentan adoctrinarme 0:09:28.110,0:09:30.536 sobre el privilegio masculino[br]y el privilegio blanco 0:09:30.556,0:09:32.595 pero no sé, yo no lo creo". 0:09:33.152,0:09:36.400 Adolescentes blancos del mundo, 0:09:36.430,0:09:37.309 escuchen: 0:09:38.755,0:09:42.468 si son escépticos acerca de que la tierra[br]es redonda, el privilegio masculino 0:09:42.492,0:09:44.802 o sobre que el racismo es malo, 0:09:44.826,0:09:47.151 no están siendo[br]escépticos sino imbéciles". 0:09:47.175,0:09:50.768 (Aplausos) 0:09:52.394,0:09:55.478 Está bien pensar por uno mismo,[br]todos deberíamos hacerlo, 0:09:55.478,0:09:56.996 pero hay que ser inteligentes. 0:09:56.996,0:09:57.896 [Sugerencia 2] 0:09:57.896,0:09:59.769 La siguiente es libertad de expresión. 0:09:59.769,0:10:01.625 Escucharán a gente inteligente decir: 0:10:01.625,0:10:03.781 "Estoy a favor de[br]la libertad de expresión" 0:10:03.781,0:10:07.054 y lo dirán como si estuvieran[br]comenzando un debate, 0:10:07.078,0:10:10.893 cuando en realidad es el inicio[br]de cualquier conversación importante. 0:10:11.454,0:10:14.027 Todas las cosas importantes [br]ocurren a partir de allí. 0:10:14.027,0:10:16.285 Bien, está a favor, ¿y eso qué significa? 0:10:16.285,0:10:18.316 ¿Significa que David Duke[br]y Richard Spencer 0:10:18.316,0:10:20.235 tienen que tener cuentas en Twitter? 0:10:20.735,0:10:23.531 ¿Significa que podemos[br]acosar en línea a cualquier persona 0:10:23.555,0:10:25.007 por cualquier razón? 0:10:25.031,0:10:27.642 He visto la lista completa[br]de oradores de TED este año. 0:10:27.672,0:10:29.977 No encontré a ningún terraplanista. 0:10:29.997,0:10:32.795 ¿Eso es una violación[br]de la libertad de expresión? 0:10:32.826,0:10:36.628 Todos estamos a favor y es maravilloso[br]estar a favor de la libertad de expresión, 0:10:36.652,0:10:39.273 pero si es lo único[br]que dicen una y otra vez, 0:10:39.297,0:10:42.288 se interpondrán a[br]una conversación más productiva. 0:10:42.756,0:10:43.996 [Sugerencia 3] 0:10:44.105,0:10:47.240 Hacer que la decencia[br]vuelva a estar de moda. 0:10:47.264,0:10:48.462 ¡Genial! 0:10:48.486,0:10:50.027 (Aplausos) 0:10:50.051,0:10:52.157 Sí. Ni siquiera tengo que explicarlo. 0:10:52.181,0:10:56.027 En mi investigación, entré a Reddit,[br]o a YouTube o a Facebook, 0:10:56.051,0:10:58.351 y busqué "ley sharia" 0:10:58.375,0:11:00.491 o "el Holocausto" 0:11:00.515,0:11:03.889 y se pueden hacer una idea[br]de lo que los algoritmos me mostraron. 0:11:04.386,0:11:07.316 "¿Se está extendiendo[br]la ley sharia en EE. UU.?" 0:11:07.340,0:11:09.434 "¿De verdad ocurrió el Holocausto?" 0:11:10.291,0:11:11.549 Escepticismo estúpido. 0:11:12.835,0:11:15.216 Estamos en una extraña dinámica en línea 0:11:15.240,0:11:17.332 donde vemos propaganda intolerante 0:11:17.356,0:11:20.022 como provocadora, peligrosa y agradable, 0:11:20.046,0:11:23.373 y vemos la verdad fundamental[br]y la decencia como chocante 0:11:23.397,0:11:25.941 como muestra de virtud[br]o simplemente aburrida. 0:11:26.329,0:11:29.618 Los algoritmos de las redes sociales,[br]intencionadamente o no, 0:11:29.618,0:11:31.665 lo han incentivado, 0:11:31.665,0:11:34.641 porque la propaganda intolerante[br]es genial para la interacción. 0:11:34.641,0:11:36.907 Todo el mundo clica, [br]todo el mundo comenta, 0:11:36.931,0:11:38.741 tanto si les gusta como si lo odian. 0:11:39.463,0:11:41.751 Lo primero que tiene que pasar 0:11:41.775,0:11:44.713 es que las redes sociales[br]arreglen sus plataformas. 0:11:45.069,0:11:49.218 (Aplausos) 0:11:49.600,0:11:53.030 Si me están escuchando[br]y trabajan para una red social 0:11:53.054,0:11:55.518 o invierten en una[br]o, no sé, es dueño de una, 0:11:56.598,0:11:58.059 este consejo va para Uds. 0:11:58.083,0:12:02.004 Si están optimizando[br]para una interacción emocional 0:12:02.028,0:12:06.141 y esta interacción resulta[br]que está dañando el mundo, 0:12:06.165,0:12:08.701 es el momento de optimizar otra cosa. 0:12:08.725,0:12:12.429 (Aplausos) 0:12:14.939,0:12:18.452 Pero además de [br]presionarlos para que lo hagan 0:12:18.476,0:12:21.110 y esperar y desear que lo hagan, 0:12:21.134,0:12:23.636 hay algo que nosotros podemos hacer. 0:12:23.660,0:12:28.157 Podemos crear mejores caminos[br]o sugerir mejores caminos 0:12:28.181,0:12:30.172 para los adolescentes enfadados. 0:12:30.196,0:12:32.800 Si ven algo que creen[br]que es creativo y considerado 0:12:32.820,0:12:35.229 y quieren compartirlo,[br]sepan que pueden compartirlo 0:12:35.259,0:12:38.146 aunque no les invada [br]una alta excitación. 0:12:38.246,0:12:40.447 Sé que es un paso pequeño 0:12:40.477,0:12:43.230 pero en conjunto esto importa, 0:12:43.254,0:12:45.587 porque estos algoritmos[br]por muy poderosos que sean 0:12:45.587,0:12:47.372 toman su comportamiento de nosotros. 0:12:49.556,0:12:51.069 Los dejo con esto. 0:12:51.701,0:12:54.190 Hace algunos años, [br]estaba muy de moda decir 0:12:54.214,0:12:56.527 que internet era[br]una herramienta revolucionaria 0:12:56.551,0:12:58.163 que iba a unirnos. 0:12:59.074,0:13:00.663 Ahora está más de moda decir 0:13:00.687,0:13:03.781 que el internet es un[br]basurero irreversible. 0:13:04.787,0:13:06.619 Ninguna afirmación es verdadera. 0:13:06.643,0:13:09.016 Sabemos que el internet[br]es muy vasto y complejo 0:13:09.040,0:13:10.539 como para ser bueno o malo. 0:13:10.563,0:13:12.650 Y el peligro de pensar así, 0:13:12.674,0:13:16.137 bien sea la visión utópica [br]de que internet nos salvará 0:13:16.161,0:13:19.609 o la visión distópica [br]de que nos destruirá, 0:13:19.633,0:13:22.077 es que nos estamos saliendo de rositas. 0:13:23.564,0:13:26.170 No hay nada inevitable en nuestro futuro. 0:13:26.878,0:13:28.879 El internet lo hace la gente. 0:13:28.903,0:13:31.887 La gente toma las decisiones[br]en las empresas de redes sociales. 0:13:31.911,0:13:34.562 La gente hace que los hashtags[br]sean o no tendencia. 0:13:34.586,0:13:37.715 La gente hace que [br]la sociedad avance o retroceda. 0:13:39.120,0:13:40.655 Cuando interioricemos esto, 0:13:40.679,0:13:43.727 podremos dejar de esperar[br]a que llegue el inevitable futuro 0:13:43.751,0:13:45.415 y ponernos a trabajar ahora. 0:13:46.842,0:13:50.013 A todos nos han enseñado [br]que el arco del universo moral es grande, 0:13:50.033,0:13:52.087 pero tiende a la justicia. 0:13:54.489,0:13:55.719 Quizás. 0:13:56.814,0:13:58.014 Quizás lo haga. 0:13:58.776,0:14:01.253 Pero eso siempre ha sido una aspiración. 0:14:01.277,0:14:02.848 No es una garantía. 0:14:03.856,0:14:06.021 El arco no se inclina solo. 0:14:06.045,0:14:09.720 No hay una fuerza misteriosa[br]que lo incline inevitablemente. 0:14:09.744,0:14:11.416 La única verdad, 0:14:11.440,0:14:13.831 que asusta, pero a la vez es liberadora, 0:14:14.847,0:14:16.472 es que nosotros lo inclinamos. 0:14:16.943,0:14:18.152 Gracias. 0:14:18.176,0:14:20.793 (Aplausos)