WEBVTT 00:00:00.910 --> 00:00:02.183 Hace algunos años, 00:00:02.207 --> 00:00:07.119 estaba en un avión con mi hijo, que tenía cinco años en aquel momento. 00:00:08.245 --> 00:00:13.340 Se encontraba tan contento de estar en un avión con su mamá. 00:00:13.364 --> 00:00:16.304 Miraba aquí y allá, fijándose en las cosas 00:00:16.328 --> 00:00:18.164 y en las personas. 00:00:18.188 --> 00:00:19.818 Entonces ve a un hombre y dice: 00:00:19.842 --> 00:00:22.703 "¡Mira, ese señor se parece a papá!". 00:00:23.882 --> 00:00:25.802 Y yo miro al hombre, 00:00:25.826 --> 00:00:29.556 y no se parecía ni por asomo a mi marido, 00:00:29.580 --> 00:00:30.949 nada que ver. 00:00:31.461 --> 00:00:33.797 Y entonces empiezo a mirar aquí y allá 00:00:33.821 --> 00:00:39.706 y me doy cuenta de que ese hombre es el único pasajero negro. 00:00:40.874 --> 00:00:41.592 Y pensé, 00:00:42.310 --> 00:00:43.130 "De acuerdo". 00:00:44.370 --> 00:00:46.874 "Llegó el momento de contarle a mi hijo 00:00:46.918 --> 00:00:49.847 que no todos los negros son iguales". 00:00:49.871 --> 00:00:54.248 Mi hijo, levanta los ojos y me dice: 00:00:56.246 --> 00:00:58.617 "Espero que no asalte el avión". 00:00:59.359 --> 00:01:01.874 Y le pregunto, "¿Cómo? ¿Qué has dicho?" 00:01:01.898 --> 00:01:05.436 Y responde, "que espero que ese hombre no asalte el avión". 00:01:07.200 --> 00:01:09.952 Y le pregunto: "¿A qué viene eso? 00:01:10.486 --> 00:01:13.149 Sabes que papá nunca asaltaría un avión". 00:01:13.173 --> 00:01:15.485 Y mi hijo dice: "Sí, sí, lo que tú digas". 00:01:16.179 --> 00:01:18.306 Y de nuevo le digo: "¿A qué viene eso?". 00:01:20.346 --> 00:01:23.303 Entonces me mira con un gesto apagado 00:01:24.168 --> 00:01:25.422 y dice: 00:01:26.890 --> 00:01:28.996 "No sé por qué lo he dicho. 00:01:30.600 --> 00:01:32.958 No sé por qué me ha venido eso a la cabeza". NOTE Paragraph 00:01:33.724 --> 00:01:37.242 Vivimos en medio de una estratificación racial tan severa 00:01:37.266 --> 00:01:42.326 que incluso un niño de cinco años se atreve a predecir lo que va a pasar, 00:01:43.990 --> 00:01:46.097 incluso en ausencia de un malhechor 00:01:46.121 --> 00:01:48.700 o de odio explícito. 00:01:50.184 --> 00:01:54.097 Esta asociación entre la raza negra y el crimen 00:01:54.121 --> 00:01:58.455 se introdujo en la mente de mi hijo de cinco años. 00:01:59.787 --> 00:02:03.050 Se abre paso hasta alcanzar a todos nuestros hijos, 00:02:04.201 --> 00:02:05.592 y a todos nosotros. 00:02:06.793 --> 00:02:10.317 Nuestra mente se moldea con las disparidades raciales 00:02:10.341 --> 00:02:11.933 que vemos en el mundo 00:02:12.752 --> 00:02:17.893 y con los relatos que nos ayudan a justificar dichas disparidades: 00:02:19.637 --> 00:02:22.163 "Esos tipos son criminales". 00:02:22.187 --> 00:02:24.112 "Son violentos". 00:02:24.136 --> 00:02:27.101 "Hay que tenerles miedo". NOTE Paragraph 00:02:27.814 --> 00:02:31.005 Cuando mi equipo de investigación trajo voluntarios al laboratorio 00:02:31.029 --> 00:02:33.312 y los expuso frente a determinados rostros, 00:02:33.336 --> 00:02:40.296 descubrimos que las caras negras estimulaban imágenes borrosas de armas 00:02:40.360 --> 00:02:43.616 con mayor claridad y rapidez. 00:02:43.640 --> 00:02:46.994 Los prejuicios no solo controlan lo que vemos 00:02:47.018 --> 00:02:48.666 sino hacia dónde miramos. 00:02:48.690 --> 00:02:52.134 Vimos que incitar a la gente a pensar en crímenes violentos 00:02:52.158 --> 00:02:56.454 puede hacerles dirigir su mirada hacia un rostro negro 00:02:56.478 --> 00:02:58.608 en vez de hacia uno blanco. 00:02:58.632 --> 00:03:03.504 Si incitamos a unos policías a pensar en persecuciones, disparos o arrestos, 00:03:03.751 --> 00:03:07.610 ocurre también que su mirada se detiene en los rostros negros. NOTE Paragraph 00:03:07.634 --> 00:03:12.700 Los prejuicios pueden infectar cada poro de nuestro sistema judicial penal. 00:03:13.100 --> 00:03:16.055 Tomando un amplio número de candidatos a pena de muerte, 00:03:16.055 --> 00:03:20.412 vimos que mirar a más gente negra duplicaba las posibilidades 00:03:20.436 --> 00:03:22.743 de que fueran sentenciados a la pena capital, 00:03:23.494 --> 00:03:25.921 al menos cuando las víctimas eran blancas. 00:03:25.945 --> 00:03:27.383 Ese efecto era significativo, 00:03:27.407 --> 00:03:30.708 y eso que filtrábamos según la gravedad del crimen 00:03:30.732 --> 00:03:33.013 o el buen porte de los acusados. 00:03:33.037 --> 00:03:35.686 Pero nuestro filtro no cambiaba nada 00:03:35.710 --> 00:03:39.055 porque vimos que el castigo dado a la gente negra 00:03:39.079 --> 00:03:43.404 iba en proporción a su tono de piel. 00:03:43.428 --> 00:03:46.589 Cuanto más oscuro, más merecían morir. 00:03:47.109 --> 00:03:49.100 Los prejuicios pueden influir además NOTE Paragraph 00:03:49.100 --> 00:03:51.459 la forma en que los profesores imponen disciplina. 00:03:51.781 --> 00:03:56.188 Mis colegas y yo hemos descubierto que los profesores son más propensos 00:03:56.212 --> 00:03:59.778 a disciplinar más duramente a un estudiante de secundaria negro 00:03:59.802 --> 00:04:00.970 que a uno blanco 00:04:00.994 --> 00:04:03.570 aunque las infracciones sean las mismas. 00:04:03.594 --> 00:04:04.888 Un estudio reciente 00:04:04.912 --> 00:04:09.270 nos muestra que los profesores tratan a los alumnos negros como grupo 00:04:09.294 --> 00:04:11.725 pero a los blancos de forma individual. 00:04:12.126 --> 00:04:13.099 Por ejemplo, 00:04:13.099 --> 00:04:15.619 si un alumno negro se porta mal 00:04:15.749 --> 00:04:19.964 y pocos días después otro alumno negro se porta mal, 00:04:20.558 --> 00:04:23.786 el profesor reacciona hacia el segundo estudiante 00:04:23.810 --> 00:04:26.435 como si este se hubiera portado doblemente mal. 00:04:26.952 --> 00:04:29.763 Es como si los pecados de un chico 00:04:29.787 --> 00:04:31.963 se apilaran en el otro. NOTE Paragraph 00:04:31.987 --> 00:04:35.281 Creamos categorías para dar sentido al mundo, 00:04:35.305 --> 00:04:39.788 para reivindicar algún tipo de control y coherencia 00:04:39.812 --> 00:04:43.902 sobre los estímulos que nos bombardean continuamente. 00:04:43.926 --> 00:04:47.894 La categorización y el sesgo que se genera 00:04:47.918 --> 00:04:52.940 permite a nuestro cerebro elaborar juicios de forma más rápida y eficaz, 00:04:52.964 --> 00:04:56.366 y lo hacemos de forma instintiva apoyándonos en patrones 00:04:56.390 --> 00:04:58.059 que parecen predecibles. 00:04:58.083 --> 00:05:03.566 Estas categorías que creamos nos permiten tomar decisiones rápidas, 00:05:04.050 --> 00:05:06.552 pero a la vez refuerzan los prejuicios. 00:05:06.576 --> 00:05:09.968 De modo que aquello que nos ayuda a ver el mundo 00:05:11.104 --> 00:05:13.084 también nos ciega ante él. 00:05:13.509 --> 00:05:16.287 Convierte nuestras opciones en algo sin esfuerzo 00:05:16.311 --> 00:05:17.680 y libre de incomodidades, 00:05:18.956 --> 00:05:21.401 pero exige un alto precio. NOTE Paragraph 00:05:22.158 --> 00:05:23.569 ¿Qué podemos hacer? 00:05:24.507 --> 00:05:26.998 Todos somos vulnerables a los prejuicios, 00:05:27.022 --> 00:05:29.702 pero no siempre nos dejamos arrastrar por ellos. 00:05:29.726 --> 00:05:33.370 Hay condiciones que los activan 00:05:33.394 --> 00:05:35.927 y otras que los silencian. NOTE Paragraph 00:05:35.951 --> 00:05:37.798 Les voy a dar un ejemplo. 00:05:38.663 --> 00:05:43.223 Muchos conocen la compañía tecnológica Nextdoor. 00:05:44.073 --> 00:05:50.526 Se dedica a crear vecindarios más fuertes, sanos y seguros, 00:05:51.468 --> 00:05:54.389 y para ello ofrece un espacio en línea 00:05:54.413 --> 00:05:57.562 donde los vecinos se reúnen y comparten información. 00:05:57.586 --> 00:06:01.712 Nexdoor se dio cuenta de que existía un problema 00:06:01.736 --> 00:06:03.404 con el perfil racial. 00:06:04.012 --> 00:06:05.979 Un ejemplo típico 00:06:06.003 --> 00:06:08.399 es el de alguien que mira por la ventana 00:06:08.423 --> 00:06:12.472 y ve a un hombre negro en su vecindario de blancos 00:06:12.496 --> 00:06:17.211 y juzga de inmediato que no lleva buenas intenciones, 00:06:17.235 --> 00:06:20.586 incluso cuando no hay indicios de comportamiento delictivo. 00:06:20.610 --> 00:06:23.544 En general, la forma de comportarnos en las redes 00:06:23.568 --> 00:06:26.682 es un reflejo de cómo nos comportamos en el mundo. 00:06:27.117 --> 00:06:31.062 Y lo que no queremos hacer es crear un sistema de uso fácil 00:06:31.086 --> 00:06:35.249 que lleve a intensificar los prejuicios y aumentar las desigualdades raciales, 00:06:36.129 --> 00:06:38.395 en vez de eliminarlas. NOTE Paragraph 00:06:38.863 --> 00:06:42.292 De modo que el cofundador de Nextdoor contactó con otros y conmigo 00:06:42.316 --> 00:06:44.447 para buscar una solución. 00:06:44.471 --> 00:06:48.311 Y vieron que para acabar con el perfil racial en la plataforma, 00:06:48.341 --> 00:06:50.427 tendrían que crear un elemento de frenado, 00:06:50.447 --> 00:06:53.369 es decir, algo para lograr que la gente frenase sus impulsos. 00:06:53.389 --> 00:06:55.264 Nextdoor debía tomar una decisión, 00:06:55.288 --> 00:06:57.766 y optaron por arriesgarse 00:06:57.790 --> 00:06:59.906 y crear un elemento de frenado. 00:07:00.397 --> 00:07:03.837 Lo hicieron añadiendo un simple cuestionario 00:07:03.861 --> 00:07:05.531 que constaba de tres apartados. 00:07:06.111 --> 00:07:09.052 Primero pedían a los usuarios que se parasen a pensar: 00:07:09.076 --> 00:07:14.193 "¿Qué estaba haciendo esa persona para parecer sospechosa?". 00:07:14.876 --> 00:07:19.409 La categoría "hombre negro" no es motivo de sospecha. 00:07:19.433 --> 00:07:24.572 Segundo, les pedían que describieran los rasgos físicos de la persona 00:07:24.596 --> 00:07:27.031 y no solamente su raza y género. 00:07:27.642 --> 00:07:30.903 Tercero, se dieron cuenta de que muchos 00:07:31.049 --> 00:07:33.977 no parecían saber lo que era el perfil racial 00:07:34.001 --> 00:07:36.462 o detectar que ellos mismos lo estaban manifestando. 00:07:36.462 --> 00:07:39.656 De modo que Nextdoor les enseñó una definición 00:07:39.680 --> 00:07:42.582 y les hizo saber que estaba totalmente prohibida. 00:07:43.071 --> 00:07:47.257 Muchos de Uds. habrán visto carteles en aeropuertos y estaciones de metro 00:07:47.277 --> 00:07:49.639 con frases como "Si ve algo, diga algo". 00:07:49.928 --> 00:07:52.742 Nextdoor sacó su propia versión: 00:07:53.584 --> 00:07:58.166 "Si ve algo sospechoso, diga algo específico". 00:07:59.491 --> 00:08:03.937 Y gracias a esa estrategia de frenar los impulsos de la gente, 00:08:03.961 --> 00:08:09.652 Nextdoor consiguió disminuir el perfil racial en un 75 %. NOTE Paragraph 00:08:10.496 --> 00:08:12.586 Ahora bien, me suelen decir, 00:08:12.610 --> 00:08:17.323 "No en todas las situaciones o contextos se puede crear un elemento de frenado, 00:08:17.347 --> 00:08:21.993 y menos aún con la gente que suele tomar decisiones en una décima de segundo". 00:08:22.730 --> 00:08:25.293 Pero sí es posible añadir este elemento 00:08:25.317 --> 00:08:27.593 en más situaciones de las que creemos. 00:08:28.031 --> 00:08:30.105 Cuando colaboraba con la policía de Oakland, 00:08:30.129 --> 00:08:31.546 en California, 00:08:31.570 --> 00:08:35.426 unos colegas míos y yo logramos ayudar a su departamento 00:08:35.450 --> 00:08:38.121 a reducir el número de personas a las que paraban 00:08:38.145 --> 00:08:41.745 sin haber cometido ningún delito grave. 00:08:41.769 --> 00:08:44.134 Y lo hicimos obligando a los oficiales 00:08:44.158 --> 00:08:48.601 a preguntarse lo siguiente antes de hacer cada parada: 00:08:49.451 --> 00:08:52.760 "¿Los servicios de inteligencia dan motivos para realizar esta parada? 00:08:52.780 --> 00:08:53.941 ¿Sí o no?". 00:08:55.353 --> 00:08:56.749 Es decir, 00:08:57.621 --> 00:09:02.105 ¿tengo información previa que relaciona a esa persona en particular 00:09:02.129 --> 00:09:03.820 con un delito específico? 00:09:04.587 --> 00:09:06.239 Simplemente añadiendo esa pregunta 00:09:06.259 --> 00:09:09.148 al formulario que los oficiales rellenan al parar a alguien, 00:09:09.172 --> 00:09:11.951 se consigue que frenen el paso, hagan una pausa y piensen 00:09:11.971 --> 00:09:15.365 "¿Por qué quiero parar a esa persona?". NOTE Paragraph 00:09:16.721 --> 00:09:22.282 En 2017, sin esa pregunta basada en los servicios de inteligencia, 00:09:23.655 --> 00:09:27.601 los oficiales pararon a unas 32.000 personas en toda la ciudad. 00:09:27.625 --> 00:09:31.740 Al año siguiente, ya con la pregunta, 00:09:31.764 --> 00:09:34.208 el número se redujo a 19.000. 00:09:34.232 --> 00:09:39.193 Simplemente los afroamericanos disminuyeron un 43 %. 00:09:39.905 --> 00:09:44.343 Y parar a menos gente negra no hizo la ciudad más peligrosa. 00:09:44.367 --> 00:09:47.101 De hecho, la tasa de delincuencia continuó descendiendo 00:09:47.125 --> 00:09:50.462 y la ciudad se hizo más segura para todos. NOTE Paragraph 00:09:50.486 --> 00:09:55.841 Así que una solución puede ser reducir el número de paradas innecesarias. 00:09:56.285 --> 00:10:02.115 Otra puede ser mejorar la calidad de las paradas policiales. 00:10:02.512 --> 00:10:05.108 Y para eso la tecnología puede ser útil. 00:10:05.132 --> 00:10:07.857 Todos conocemos la muerte de George Floyd 00:10:08.499 --> 00:10:13.271 porque todos los que acudieron en su ayuda tenían móviles con cámara 00:10:13.295 --> 00:10:18.726 y grabaron ese horrible y mortal encuentro con la policía. 00:10:18.750 --> 00:10:23.781 Pero tenemos todo tipo de tecnología que no estamos usando bien. 00:10:23.805 --> 00:10:26.308 Hoy en día los policías de todo el país 00:10:26.332 --> 00:10:29.885 deben llevar cámaras corporales, 00:10:29.909 --> 00:10:35.319 de modo que tenemos grabaciones no solo de los encuentros más radicales 00:10:35.863 --> 00:10:38.617 sino también de las acciones rutinarias. NOTE Paragraph 00:10:38.641 --> 00:10:41.418 Junto a un equipo interdisciplinar de Stanford, 00:10:41.442 --> 00:10:44.129 hemos empezado a usar técnicas de aprendizaje automático 00:10:44.153 --> 00:10:47.520 para analizar numerosos encuentros. 00:10:47.544 --> 00:10:52.155 Así podemos entender mejor qué ocurre en un control rutinario de tráfico. 00:10:52.179 --> 00:10:54.334 Y lo que hemos visto es que 00:10:54.358 --> 00:10:58.020 incluso cuando los policías se comportan de modo profesional, 00:10:58.860 --> 00:11:03.702 se dirigen a los conductores negros con menos respeto que a los blancos. 00:11:04.052 --> 00:11:08.127 De hecho, simplemente por las palabras que usan, 00:11:08.151 --> 00:11:13.313 podemos saber si hablan con un conductor negro o con uno blanco. NOTE Paragraph 00:11:13.337 --> 00:11:18.509 El problema es que la mayor parte de esas grabaciones 00:11:19.123 --> 00:11:21.210 no se usa en los departamentos policiales 00:11:21.234 --> 00:11:23.510 para entender lo que ocurre en las calles 00:11:23.534 --> 00:11:25.777 o para formar a los oficiales. 00:11:26.554 --> 00:11:28.012 Y eso es una vergüenza. 00:11:28.796 --> 00:11:33.585 ¿Cómo es que una parada rutinaria se transforma en un encuentro mortal? 00:11:33.609 --> 00:11:36.279 ¿Cómo pudo terminar así el caso de George Floyd? 00:11:37.588 --> 00:11:39.670 Y, ¿cómo ocurrió en otros casos? NOTE Paragraph 00:11:39.694 --> 00:11:43.090 Cuando mi hijo mayor tenía 16 años, 00:11:43.114 --> 00:11:47.853 se dio cuenta de que cuando los blancos le miraban, sentían miedo. 00:11:49.123 --> 00:11:51.784 Los ascensores son el peor sitio, decía. 00:11:52.313 --> 00:11:54.644 Cuando las puertas se cierran, 00:11:54.668 --> 00:11:57.751 la gente queda atrapada en ese espacio minúsculo 00:11:57.775 --> 00:12:02.242 con alguien que han aprendido a asociar con el peligro. 00:12:02.744 --> 00:12:05.964 Mi hijo siente el desasosiego de la gente 00:12:05.988 --> 00:12:09.145 y les sonríe para aliviarles, 00:12:09.169 --> 00:12:10.938 para calmar sus miedos. 00:12:11.351 --> 00:12:13.296 Al hablarles, 00:12:13.320 --> 00:12:15.003 se relajan. 00:12:15.442 --> 00:12:17.345 Respiran con más calma. 00:12:17.369 --> 00:12:19.900 Les complace su cadencia, 00:12:19.924 --> 00:12:22.241 su dicción y su elección de vocabulario. 00:12:22.986 --> 00:12:24.829 Suena como uno de ellos. 00:12:24.853 --> 00:12:28.187 Yo solía pensar que mi hijo era extrovertido por naturaleza, 00:12:28.207 --> 00:12:29.607 igual que su padre. 00:12:29.637 --> 00:12:33.157 Pero vi en ese momento y en esa conversación 00:12:34.143 --> 00:12:39.221 que su sonrisa no indicaba que él quisiera conectar 00:12:39.245 --> 00:12:41.459 con gente supuestamente extraña. 00:12:41.920 --> 00:12:45.572 Era un talismán que usaba para protegerse, 00:12:45.596 --> 00:12:51.815 un arma de supervivencia que había afinado a lo largo de miles de viajes en ascensor. 00:12:52.387 --> 00:12:57.558 Iba aprendiendo a adaptarse a la tensión que su color de piel generaba 00:12:59.026 --> 00:13:01.993 y que ponía su propia vida en peligro. NOTE Paragraph 00:13:02.619 --> 00:13:06.402 Sabemos que el cerebro tiene predisposición a los prejuicios, 00:13:06.426 --> 00:13:10.891 y una forma de interrumpir los prejuicios es pararse a reflexionar 00:13:10.915 --> 00:13:13.220 en qué se basan nuestras suposiciones. 00:13:13.244 --> 00:13:14.999 Así que necesitamos preguntarnos: 00:13:15.023 --> 00:13:19.688 ¿Cuáles son nuestras suposiciones cuando entramos en un ascensor? 00:13:21.776 --> 00:13:23.447 ¿O cuando subimos a un avión? 00:13:23.532 --> 00:13:28.131 ¿Cómo podemos darnos cuenta de nuestros prejuicios inconscientes? 00:13:28.155 --> 00:13:30.506 ¿A quién protegen esas suposiciones? 00:13:32.615 --> 00:13:34.547 ¿A quién ponen en peligro? 00:13:35.649 --> 00:13:38.003 Hasta que nos hagamos estas preguntas 00:13:38.978 --> 00:13:43.602 e insistamos para que colegios, juzgados, departamentos policiales 00:13:43.626 --> 00:13:46.168 y todas las instituciones también se las hagan, 00:13:47.835 --> 00:13:52.584 seguiremos permitiendo que los prejuicios nos cieguen. 00:13:53.348 --> 00:13:54.757 Y de esta manera, 00:13:56.066 --> 00:13:59.274 ninguno de nosotros está realmente a salvo. NOTE Paragraph 00:14:02.103 --> 00:14:03.411 Gracias.