1 00:00:00,910 --> 00:00:02,183 Hace algunos años, 2 00:00:02,207 --> 00:00:07,119 estaba en un avión con mi hijo, que tenía cinco años en aquel momento. 3 00:00:08,245 --> 00:00:13,340 Se encontraba tan contento de estar en un avión con su mamá. 4 00:00:13,364 --> 00:00:16,304 Miraba aquí y allá, fijándose en las cosas 5 00:00:16,328 --> 00:00:18,164 y en las personas. 6 00:00:18,188 --> 00:00:19,818 Entonces ve a un hombre y dice: 7 00:00:19,842 --> 00:00:22,703 "¡Mira, ese señor se parece a papá!". 8 00:00:23,882 --> 00:00:25,802 Y yo miro al hombre, 9 00:00:25,826 --> 00:00:29,556 y no se parecía ni por asomo a mi marido, 10 00:00:29,580 --> 00:00:30,949 nada que ver. 11 00:00:31,461 --> 00:00:33,797 Y entonces empiezo a mirar aquí y allá 12 00:00:33,821 --> 00:00:39,706 y me doy cuenta de que ese hombre es el único pasajero negro. 13 00:00:40,874 --> 00:00:41,592 Y pensé, 14 00:00:42,310 --> 00:00:43,130 "De acuerdo". 15 00:00:44,370 --> 00:00:46,874 "Llegó el momento de contarle a mi hijo 16 00:00:46,918 --> 00:00:49,847 que no todos los negros son iguales". 17 00:00:49,871 --> 00:00:54,248 Mi hijo, levanta los ojos y me dice: 18 00:00:56,246 --> 00:00:58,617 "Espero que no asalte el avión". 19 00:00:59,359 --> 00:01:01,874 Y le pregunto, "¿Cómo? ¿Qué has dicho?" 20 00:01:01,898 --> 00:01:05,436 Y responde, "que espero que ese hombre no asalte el avión". 21 00:01:07,200 --> 00:01:09,952 Y le pregunto: "¿A qué viene eso? 22 00:01:10,486 --> 00:01:13,149 Sabes que papá nunca asaltaría un avión". 23 00:01:13,173 --> 00:01:15,485 Y mi hijo dice: "Sí, sí, lo que tú digas". 24 00:01:16,179 --> 00:01:18,306 Y de nuevo le digo: "¿A qué viene eso?". 25 00:01:20,346 --> 00:01:23,303 Entonces me mira con un gesto apagado 26 00:01:24,168 --> 00:01:25,422 y dice: 27 00:01:26,890 --> 00:01:28,996 "No sé por qué lo he dicho. 28 00:01:30,600 --> 00:01:32,958 No sé por qué me ha venido eso a la cabeza". 29 00:01:33,724 --> 00:01:37,242 Vivimos en medio de una estratificación racial tan severa 30 00:01:37,266 --> 00:01:42,326 que incluso un niño de cinco años se atreve a predecir lo que va a pasar, 31 00:01:43,990 --> 00:01:46,097 incluso en ausencia de un malhechor 32 00:01:46,121 --> 00:01:48,700 o de odio explícito. 33 00:01:50,184 --> 00:01:54,097 Esta asociación entre la raza negra y el crimen 34 00:01:54,121 --> 00:01:58,455 se introdujo en la mente de mi hijo de cinco años. 35 00:01:59,787 --> 00:02:03,050 Se abre paso hasta alcanzar a todos nuestros hijos, 36 00:02:04,201 --> 00:02:05,592 y a todos nosotros. 37 00:02:06,793 --> 00:02:10,317 Nuestra mente se moldea con las disparidades raciales 38 00:02:10,341 --> 00:02:11,933 que vemos en el mundo 39 00:02:12,752 --> 00:02:17,893 y con los relatos que nos ayudan a justificar dichas disparidades: 40 00:02:19,637 --> 00:02:22,163 "Esos tipos son criminales". 41 00:02:22,187 --> 00:02:24,112 "Son violentos". 42 00:02:24,136 --> 00:02:27,101 "Hay que tenerles miedo". 43 00:02:27,814 --> 00:02:31,005 Cuando mi equipo de investigación trajo voluntarios al laboratorio 44 00:02:31,029 --> 00:02:33,312 y los expuso frente a determinados rostros, 45 00:02:33,336 --> 00:02:40,296 descubrimos que las caras negras estimulaban imágenes borrosas de armas 46 00:02:40,360 --> 00:02:43,616 con mayor claridad y rapidez. 47 00:02:43,640 --> 00:02:46,994 Los prejuicios no solo controlan lo que vemos 48 00:02:47,018 --> 00:02:48,666 sino hacia dónde miramos. 49 00:02:48,690 --> 00:02:52,134 Vimos que incitar a la gente a pensar en crímenes violentos 50 00:02:52,158 --> 00:02:56,454 puede hacerles dirigir su mirada hacia un rostro negro 51 00:02:56,478 --> 00:02:58,608 en vez de hacia uno blanco. 52 00:02:58,632 --> 00:03:03,504 Si incitamos a unos policías a pensar en persecuciones, disparos o arrestos, 53 00:03:03,751 --> 00:03:07,610 ocurre también que su mirada se detiene en los rostros negros. 54 00:03:07,634 --> 00:03:12,700 Los prejuicios pueden infectar cada poro de nuestro sistema judicial penal. 55 00:03:13,100 --> 00:03:16,055 Tomando un amplio número de candidatos a pena de muerte, 56 00:03:16,055 --> 00:03:20,412 vimos que mirar a más gente negra duplicaba las posibilidades 57 00:03:20,436 --> 00:03:22,743 de que fueran sentenciados a la pena capital, 58 00:03:23,494 --> 00:03:25,921 al menos cuando las víctimas eran blancas. 59 00:03:25,945 --> 00:03:27,383 Ese efecto era significativo, 60 00:03:27,407 --> 00:03:30,708 y eso que filtrábamos según la gravedad del crimen 61 00:03:30,732 --> 00:03:33,013 o el buen porte de los acusados. 62 00:03:33,037 --> 00:03:35,686 Pero nuestro filtro no cambiaba nada 63 00:03:35,710 --> 00:03:39,055 porque vimos que el castigo dado a la gente negra 64 00:03:39,079 --> 00:03:43,404 iba en proporción a su tono de piel. 65 00:03:43,428 --> 00:03:46,589 Cuanto más oscuro, más merecían morir. 66 00:03:47,109 --> 00:03:49,100 Los prejuicios pueden influir además 67 00:03:49,100 --> 00:03:51,459 la forma en que los profesores imponen disciplina. 68 00:03:51,781 --> 00:03:56,188 Mis colegas y yo hemos descubierto que los profesores son más propensos 69 00:03:56,212 --> 00:03:59,778 a disciplinar más duramente a un estudiante de secundaria negro 70 00:03:59,802 --> 00:04:00,970 que a uno blanco 71 00:04:00,994 --> 00:04:03,570 aunque las infracciones sean las mismas. 72 00:04:03,594 --> 00:04:04,888 Un estudio reciente 73 00:04:04,912 --> 00:04:09,270 nos muestra que los profesores tratan a los alumnos negros como grupo 74 00:04:09,294 --> 00:04:11,725 pero a los blancos de forma individual. 75 00:04:12,126 --> 00:04:13,099 Por ejemplo, 76 00:04:13,099 --> 00:04:15,619 si un alumno negro se porta mal 77 00:04:15,749 --> 00:04:19,964 y pocos días después otro alumno negro se porta mal, 78 00:04:20,558 --> 00:04:23,786 el profesor reacciona hacia el segundo estudiante 79 00:04:23,810 --> 00:04:26,435 como si este se hubiera portado doblemente mal. 80 00:04:26,952 --> 00:04:29,763 Es como si los pecados de un chico 81 00:04:29,787 --> 00:04:31,963 se apilaran en el otro. 82 00:04:31,987 --> 00:04:35,281 Creamos categorías para dar sentido al mundo, 83 00:04:35,305 --> 00:04:39,788 para reivindicar algún tipo de control y coherencia 84 00:04:39,812 --> 00:04:43,902 sobre los estímulos que nos bombardean continuamente. 85 00:04:43,926 --> 00:04:47,894 La categorización y el sesgo que se genera 86 00:04:47,918 --> 00:04:52,940 permite a nuestro cerebro elaborar juicios de forma más rápida y eficaz, 87 00:04:52,964 --> 00:04:56,366 y lo hacemos de forma instintiva apoyándonos en patrones 88 00:04:56,390 --> 00:04:58,059 que parecen predecibles. 89 00:04:58,083 --> 00:05:03,566 Estas categorías que creamos nos permiten tomar decisiones rápidas, 90 00:05:04,050 --> 00:05:06,552 pero a la vez refuerzan los prejuicios. 91 00:05:06,576 --> 00:05:09,968 De modo que aquello que nos ayuda a ver el mundo 92 00:05:11,104 --> 00:05:13,084 también nos ciega ante él. 93 00:05:13,509 --> 00:05:16,287 Convierte nuestras opciones en algo sin esfuerzo 94 00:05:16,311 --> 00:05:17,680 y libre de incomodidades, 95 00:05:18,956 --> 00:05:21,401 pero exige un alto precio. 96 00:05:22,158 --> 00:05:23,569 ¿Qué podemos hacer? 97 00:05:24,507 --> 00:05:26,998 Todos somos vulnerables a los prejuicios, 98 00:05:27,022 --> 00:05:29,702 pero no siempre nos dejamos arrastrar por ellos. 99 00:05:29,726 --> 00:05:33,370 Hay condiciones que los activan 100 00:05:33,394 --> 00:05:35,927 y otras que los silencian. 101 00:05:35,951 --> 00:05:37,798 Les voy a dar un ejemplo. 102 00:05:38,663 --> 00:05:43,223 Muchos conocen la compañía tecnológica Nextdoor. 103 00:05:44,073 --> 00:05:50,526 Se dedica a crear vecindarios más fuertes, sanos y seguros, 104 00:05:51,468 --> 00:05:54,389 y para ello ofrece un espacio en línea 105 00:05:54,413 --> 00:05:57,562 donde los vecinos se reúnen y comparten información. 106 00:05:57,586 --> 00:06:01,712 Nexdoor se dio cuenta de que existía un problema 107 00:06:01,736 --> 00:06:03,404 con el perfil racial. 108 00:06:04,012 --> 00:06:05,979 Un ejemplo típico 109 00:06:06,003 --> 00:06:08,399 es el de alguien que mira por la ventana 110 00:06:08,423 --> 00:06:12,472 y ve a un hombre negro en su vecindario de blancos 111 00:06:12,496 --> 00:06:17,211 y juzga de inmediato que no lleva buenas intenciones, 112 00:06:17,235 --> 00:06:20,586 incluso cuando no hay indicios de comportamiento delictivo. 113 00:06:20,610 --> 00:06:23,544 En general, la forma de comportarnos en las redes 114 00:06:23,568 --> 00:06:26,682 es un reflejo de cómo nos comportamos en el mundo. 115 00:06:27,117 --> 00:06:31,062 Y lo que no queremos hacer es crear un sistema de uso fácil 116 00:06:31,086 --> 00:06:35,249 que lleve a intensificar los prejuicios y aumentar las desigualdades raciales, 117 00:06:36,129 --> 00:06:38,395 en vez de eliminarlas. 118 00:06:38,863 --> 00:06:42,292 De modo que el cofundador de Nextdoor contactó con otros y conmigo 119 00:06:42,316 --> 00:06:44,447 para buscar una solución. 120 00:06:44,471 --> 00:06:48,311 Y vieron que para acabar con el perfil racial en la plataforma, 121 00:06:48,341 --> 00:06:50,427 tendrían que crear un elemento de frenado, 122 00:06:50,447 --> 00:06:53,369 es decir, algo para lograr que la gente frenase sus impulsos. 123 00:06:53,389 --> 00:06:55,264 Nextdoor debía tomar una decisión, 124 00:06:55,288 --> 00:06:57,766 y optaron por arriesgarse 125 00:06:57,790 --> 00:06:59,906 y crear un elemento de frenado. 126 00:07:00,397 --> 00:07:03,837 Lo hicieron añadiendo un simple cuestionario 127 00:07:03,861 --> 00:07:05,531 que constaba de tres apartados. 128 00:07:06,111 --> 00:07:09,052 Primero pedían a los usuarios que se parasen a pensar: 129 00:07:09,076 --> 00:07:14,193 "¿Qué estaba haciendo esa persona para parecer sospechosa?". 130 00:07:14,876 --> 00:07:19,409 La categoría "hombre negro" no es motivo de sospecha. 131 00:07:19,433 --> 00:07:24,572 Segundo, les pedían que describieran los rasgos físicos de la persona 132 00:07:24,596 --> 00:07:27,031 y no solamente su raza y género. 133 00:07:27,642 --> 00:07:30,903 Tercero, se dieron cuenta de que muchos 134 00:07:31,049 --> 00:07:33,977 no parecían saber lo que era el perfil racial 135 00:07:34,001 --> 00:07:36,462 o detectar que ellos mismos lo estaban manifestando. 136 00:07:36,462 --> 00:07:39,656 De modo que Nextdoor les enseñó una definición 137 00:07:39,680 --> 00:07:42,582 y les hizo saber que estaba totalmente prohibida. 138 00:07:43,071 --> 00:07:47,257 Muchos de Uds. habrán visto carteles en aeropuertos y estaciones de metro 139 00:07:47,277 --> 00:07:49,639 con frases como "Si ve algo, diga algo". 140 00:07:49,928 --> 00:07:52,742 Nextdoor sacó su propia versión: 141 00:07:53,584 --> 00:07:58,166 "Si ve algo sospechoso, diga algo específico". 142 00:07:59,491 --> 00:08:03,937 Y gracias a esa estrategia de frenar los impulsos de la gente, 143 00:08:03,961 --> 00:08:09,652 Nextdoor consiguió disminuir el perfil racial en un 75 %. 144 00:08:10,496 --> 00:08:12,586 Ahora bien, me suelen decir, 145 00:08:12,610 --> 00:08:17,323 "No en todas las situaciones o contextos se puede crear un elemento de frenado, 146 00:08:17,347 --> 00:08:21,993 y menos aún con la gente que suele tomar decisiones en una décima de segundo". 147 00:08:22,730 --> 00:08:25,293 Pero sí es posible añadir este elemento 148 00:08:25,317 --> 00:08:27,593 en más situaciones de las que creemos. 149 00:08:28,031 --> 00:08:30,105 Cuando colaboraba con la policía de Oakland, 150 00:08:30,129 --> 00:08:31,546 en California, 151 00:08:31,570 --> 00:08:35,426 unos colegas míos y yo logramos ayudar a su departamento 152 00:08:35,450 --> 00:08:38,121 a reducir el número de personas a las que paraban 153 00:08:38,145 --> 00:08:41,745 sin haber cometido ningún delito grave. 154 00:08:41,769 --> 00:08:44,134 Y lo hicimos obligando a los oficiales 155 00:08:44,158 --> 00:08:48,601 a preguntarse lo siguiente antes de hacer cada parada: 156 00:08:49,451 --> 00:08:52,760 "¿Los servicios de inteligencia dan motivos para realizar esta parada? 157 00:08:52,780 --> 00:08:53,941 ¿Sí o no?". 158 00:08:55,353 --> 00:08:56,749 Es decir, 159 00:08:57,621 --> 00:09:02,105 ¿tengo información previa que relaciona a esa persona en particular 160 00:09:02,129 --> 00:09:03,820 con un delito específico? 161 00:09:04,587 --> 00:09:06,239 Simplemente añadiendo esa pregunta 162 00:09:06,259 --> 00:09:09,148 al formulario que los oficiales rellenan al parar a alguien, 163 00:09:09,172 --> 00:09:11,951 se consigue que frenen el paso, hagan una pausa y piensen 164 00:09:11,971 --> 00:09:15,365 "¿Por qué quiero parar a esa persona?". 165 00:09:16,721 --> 00:09:22,282 En 2017, sin esa pregunta basada en los servicios de inteligencia, 166 00:09:23,655 --> 00:09:27,601 los oficiales pararon a unas 32.000 personas en toda la ciudad. 167 00:09:27,625 --> 00:09:31,740 Al año siguiente, ya con la pregunta, 168 00:09:31,764 --> 00:09:34,208 el número se redujo a 19.000. 169 00:09:34,232 --> 00:09:39,193 Simplemente los afroamericanos disminuyeron un 43 %. 170 00:09:39,905 --> 00:09:44,343 Y parar a menos gente negra no hizo la ciudad más peligrosa. 171 00:09:44,367 --> 00:09:47,101 De hecho, la tasa de delincuencia continuó descendiendo 172 00:09:47,125 --> 00:09:50,462 y la ciudad se hizo más segura para todos. 173 00:09:50,486 --> 00:09:55,841 Así que una solución puede ser reducir el número de paradas innecesarias. 174 00:09:56,285 --> 00:10:02,115 Otra puede ser mejorar la calidad de las paradas policiales. 175 00:10:02,512 --> 00:10:05,108 Y para eso la tecnología puede ser útil. 176 00:10:05,132 --> 00:10:07,857 Todos conocemos la muerte de George Floyd 177 00:10:08,499 --> 00:10:13,271 porque todos los que acudieron en su ayuda tenían móviles con cámara 178 00:10:13,295 --> 00:10:18,726 y grabaron ese horrible y mortal encuentro con la policía. 179 00:10:18,750 --> 00:10:23,781 Pero tenemos todo tipo de tecnología que no estamos usando bien. 180 00:10:23,805 --> 00:10:26,308 Hoy en día los policías de todo el país 181 00:10:26,332 --> 00:10:29,885 deben llevar cámaras corporales, 182 00:10:29,909 --> 00:10:35,319 de modo que tenemos grabaciones no solo de los encuentros más radicales 183 00:10:35,863 --> 00:10:38,617 sino también de las acciones rutinarias. 184 00:10:38,641 --> 00:10:41,418 Junto a un equipo interdisciplinar de Stanford, 185 00:10:41,442 --> 00:10:44,129 hemos empezado a usar técnicas de aprendizaje automático 186 00:10:44,153 --> 00:10:47,520 para analizar numerosos encuentros. 187 00:10:47,544 --> 00:10:52,155 Así podemos entender mejor qué ocurre en un control rutinario de tráfico. 188 00:10:52,179 --> 00:10:54,334 Y lo que hemos visto es que 189 00:10:54,358 --> 00:10:58,020 incluso cuando los policías se comportan de modo profesional, 190 00:10:58,860 --> 00:11:03,702 se dirigen a los conductores negros con menos respeto que a los blancos. 191 00:11:04,052 --> 00:11:08,127 De hecho, simplemente por las palabras que usan, 192 00:11:08,151 --> 00:11:13,313 podemos saber si hablan con un conductor negro o con uno blanco. 193 00:11:13,337 --> 00:11:18,509 El problema es que la mayor parte de esas grabaciones 194 00:11:19,123 --> 00:11:21,210 no se usa en los departamentos policiales 195 00:11:21,234 --> 00:11:23,510 para entender lo que ocurre en las calles 196 00:11:23,534 --> 00:11:25,777 o para formar a los oficiales. 197 00:11:26,554 --> 00:11:28,012 Y eso es una vergüenza. 198 00:11:28,796 --> 00:11:33,585 ¿Cómo es que una parada rutinaria se transforma en un encuentro mortal? 199 00:11:33,609 --> 00:11:36,279 ¿Cómo pudo terminar así el caso de George Floyd? 200 00:11:37,588 --> 00:11:39,670 Y, ¿cómo ocurrió en otros casos? 201 00:11:39,694 --> 00:11:43,090 Cuando mi hijo mayor tenía 16 años, 202 00:11:43,114 --> 00:11:47,853 se dio cuenta de que cuando los blancos le miraban, sentían miedo. 203 00:11:49,123 --> 00:11:51,784 Los ascensores son el peor sitio, decía. 204 00:11:52,313 --> 00:11:54,644 Cuando las puertas se cierran, 205 00:11:54,668 --> 00:11:57,751 la gente queda atrapada en ese espacio minúsculo 206 00:11:57,775 --> 00:12:02,242 con alguien que han aprendido a asociar con el peligro. 207 00:12:02,744 --> 00:12:05,964 Mi hijo siente el desasosiego de la gente 208 00:12:05,988 --> 00:12:09,145 y les sonríe para aliviarles, 209 00:12:09,169 --> 00:12:10,938 para calmar sus miedos. 210 00:12:11,351 --> 00:12:13,296 Al hablarles, 211 00:12:13,320 --> 00:12:15,003 se relajan. 212 00:12:15,442 --> 00:12:17,345 Respiran con más calma. 213 00:12:17,369 --> 00:12:19,900 Les complace su cadencia, 214 00:12:19,924 --> 00:12:22,241 su dicción y su elección de vocabulario. 215 00:12:22,986 --> 00:12:24,829 Suena como uno de ellos. 216 00:12:24,853 --> 00:12:28,187 Yo solía pensar que mi hijo era extrovertido por naturaleza, 217 00:12:28,207 --> 00:12:29,607 igual que su padre. 218 00:12:29,637 --> 00:12:33,157 Pero vi en ese momento y en esa conversación 219 00:12:34,143 --> 00:12:39,221 que su sonrisa no indicaba que él quisiera conectar 220 00:12:39,245 --> 00:12:41,459 con gente supuestamente extraña. 221 00:12:41,920 --> 00:12:45,572 Era un talismán que usaba para protegerse, 222 00:12:45,596 --> 00:12:51,815 un arma de supervivencia que había afinado a lo largo de miles de viajes en ascensor. 223 00:12:52,387 --> 00:12:57,558 Iba aprendiendo a adaptarse a la tensión que su color de piel generaba 224 00:12:59,026 --> 00:13:01,993 y que ponía su propia vida en peligro. 225 00:13:02,619 --> 00:13:06,402 Sabemos que el cerebro tiene predisposición a los prejuicios, 226 00:13:06,426 --> 00:13:10,891 y una forma de interrumpir los prejuicios es pararse a reflexionar 227 00:13:10,915 --> 00:13:13,220 en qué se basan nuestras suposiciones. 228 00:13:13,244 --> 00:13:14,999 Así que necesitamos preguntarnos: 229 00:13:15,023 --> 00:13:19,688 ¿Cuáles son nuestras suposiciones cuando entramos en un ascensor? 230 00:13:21,776 --> 00:13:23,447 ¿O cuando subimos a un avión? 231 00:13:23,532 --> 00:13:28,131 ¿Cómo podemos darnos cuenta de nuestros prejuicios inconscientes? 232 00:13:28,155 --> 00:13:30,506 ¿A quién protegen esas suposiciones? 233 00:13:32,615 --> 00:13:34,547 ¿A quién ponen en peligro? 234 00:13:35,649 --> 00:13:38,003 Hasta que nos hagamos estas preguntas 235 00:13:38,978 --> 00:13:43,602 e insistamos para que colegios, juzgados, departamentos policiales 236 00:13:43,626 --> 00:13:46,168 y todas las instituciones también se las hagan, 237 00:13:47,835 --> 00:13:52,584 seguiremos permitiendo que los prejuicios nos cieguen. 238 00:13:53,348 --> 00:13:54,757 Y de esta manera, 239 00:13:56,066 --> 00:13:59,274 ninguno de nosotros está realmente a salvo. 240 00:14:02,103 --> 00:14:03,411 Gracias.