WEBVTT 00:00:00.910 --> 00:00:02.183 Há uns anos, 00:00:02.207 --> 00:00:07.059 eu ia num avião com o meu filho que, na época, tinha apenas cinco anos. 00:00:08.245 --> 00:00:13.270 O meu filho estava muito excitado por ir naquele avião com a mãe. 00:00:13.364 --> 00:00:16.304 Olha a toda a volta, verificando as coisas 00:00:16.328 --> 00:00:18.164 e observa as pessoas. 00:00:18.188 --> 00:00:19.818 Vê um homem e diz: 00:00:19.842 --> 00:00:22.850 "Olha! Aquele homem parece o pai!" 00:00:23.882 --> 00:00:25.802 Eu olho para o homem 00:00:25.826 --> 00:00:29.556 e ele não se parece nada com o meu marido, 00:00:29.580 --> 00:00:31.319 nem um pouco. 00:00:31.461 --> 00:00:33.797 Então começo a olhar por todo o avião 00:00:33.821 --> 00:00:39.706 e reparo que aquele homem era o único homem negro no avião. 00:00:40.874 --> 00:00:42.286 E pensei: 00:00:42.310 --> 00:00:43.742 "Tudo bem. NOTE Paragraph 00:00:44.369 --> 00:00:46.894 "Vou ter de ter uma conversinha com o meu filho 00:00:46.918 --> 00:00:49.847 "sobre como nem todos os negros serem parecidos." 00:00:49.871 --> 00:00:54.248 O meu filho levanta a cabeça e diz-me: 00:00:56.246 --> 00:00:58.809 "Espero que ele não roube o avião." 00:00:59.359 --> 00:01:01.874 E eu disse: "O quê? O que é que disseste?" 00:01:01.898 --> 00:01:05.387 E ele responde: "Espero que aquele homem não roube o avião." 00:01:07.200 --> 00:01:10.358 Então eu disse: "Porque é que dizes isso? 00:01:10.486 --> 00:01:13.149 "Sabes que o pai não roubaria um avião." 00:01:13.173 --> 00:01:15.485 E ele diz: "Sim, sim, bem, eu sei." 00:01:16.179 --> 00:01:18.889 Então eu disse: "Então, por que é que disseste isso?" 00:01:20.346 --> 00:01:23.564 Ele olhou para mim com uma cara muito triste 00:01:24.168 --> 00:01:25.639 e disse: 00:01:26.890 --> 00:01:29.481 "Não sei porque é que disse isso. 00:01:30.600 --> 00:01:33.234 "Não sei porque é que pensei nisso." NOTE Paragraph 00:01:33.724 --> 00:01:37.242 Estamos a viver uma estratificação racial tão profunda 00:01:37.266 --> 00:01:42.326 que até uma criança de cinco anos pode dizer-nos o que vai acontecer em seguida 00:01:43.990 --> 00:01:46.097 mesmo sem nenhum malfeitor, 00:01:46.121 --> 00:01:48.957 mesmo sem ódio explícito. 00:01:50.184 --> 00:01:54.097 Essa associação entre pessoas negras e crime 00:01:54.121 --> 00:01:58.455 entrou na mente do meu filho de cinco anos. 00:01:59.787 --> 00:02:03.660 Entra na mente de todas as nossas crianças, 00:02:04.201 --> 00:02:05.853 de todos nós. 00:02:06.793 --> 00:02:10.317 As nossas mentes são modeladas pelas disparidades raciais 00:02:10.341 --> 00:02:12.351 que vemos no mundo 00:02:12.752 --> 00:02:18.093 e as narrativas que nos ajudam a entender as disparidades que vemos: 00:02:19.637 --> 00:02:22.163 "Aquelas pessoas são criminosas." 00:02:22.187 --> 00:02:24.112 "Aquelas pessoas são violentas." 00:02:24.136 --> 00:02:27.375 "Devemos temer aquelas pessoas." NOTE Paragraph 00:02:27.814 --> 00:02:31.596 Quando a minha equipa de investigação levou pessoas para o meu laboratório 00:02:31.616 --> 00:02:33.446 e lhes mostrou rostos, 00:02:33.446 --> 00:02:40.336 descobrimos que mostrar-lhes rostos negros levou-as a ver imagens de armas desfocadas 00:02:40.360 --> 00:02:43.616 com maior nitidez e mais depressa. 00:02:43.640 --> 00:02:46.994 O preconceito não só pode controlar o que vemos, 00:02:47.018 --> 00:02:48.995 mas também para onde olhamos. 00:02:48.995 --> 00:02:52.134 Descobrimos que induzir pessoas a pensarem em crimes violentos 00:02:52.158 --> 00:02:56.454 pode levá-las a dirigir os olhos para um rosto negro 00:02:56.478 --> 00:02:58.608 e desviá-los de um rosto branco. 00:02:58.632 --> 00:03:02.474 Estimular polícias a pensar em capturar e disparar 00:03:02.498 --> 00:03:03.727 e prender 00:03:03.751 --> 00:03:07.610 também leva os olhos deles na direção de rostos negros. NOTE Paragraph 00:03:07.634 --> 00:03:10.620 O preconceito pode infetar todos os aspetos 00:03:10.660 --> 00:03:13.100 do nosso sistema de justiça criminal. 00:03:13.100 --> 00:03:16.601 Num grande conjunto de dados de réus elegíveis para a pena morte, 00:03:16.665 --> 00:03:20.412 descobrimos que ser mais negro mais que duplicou as hipóteses desses réus 00:03:20.436 --> 00:03:23.066 de receberem uma sentença de morte, 00:03:23.494 --> 00:03:25.921 pelo menos quando as vítimas deles eram brancas. 00:03:25.945 --> 00:03:27.603 Esse efeito é significativo 00:03:27.637 --> 00:03:30.708 mesmo que controlássemos a gravidade do crime 00:03:30.732 --> 00:03:33.013 e a atração do réu. 00:03:33.037 --> 00:03:35.686 Fosse o que fosse que controlámos, 00:03:35.710 --> 00:03:39.055 descobrimos que as pessoas negras eram punidas 00:03:39.079 --> 00:03:43.244 na proporção da negritude das suas características físicas: 00:03:43.428 --> 00:03:46.899 quanto mais negras, mais merecedoras de morte. NOTE Paragraph 00:03:47.110 --> 00:03:49.281 O preconceito também pode influenciar 00:03:49.311 --> 00:03:51.871 a forma como os professores ensinam os alunos. 00:03:51.901 --> 00:03:56.188 Os meus colegas e eu descobrimos que os professores exprimem o desejo 00:03:56.212 --> 00:03:59.638 de castigar um aluno negro do ensino médio mais severamente 00:03:59.692 --> 00:04:01.150 do que um aluno branco 00:04:01.204 --> 00:04:03.570 pelas mesmas infrações repetidas. 00:04:03.594 --> 00:04:05.168 Num estudo recente, 00:04:05.192 --> 00:04:09.250 estamos a descobrir que os professores tratam os alunos negros como um grupo 00:04:09.294 --> 00:04:12.079 mas tratam os alunos brancos como indivíduos. 00:04:12.126 --> 00:04:15.725 Se, por exemplo, um aluno negro se porta mal 00:04:15.749 --> 00:04:20.323 e um aluno negro diferente se porta mal uns dias depois, 00:04:20.558 --> 00:04:23.786 o professor reage àquele segundo estudante negro 00:04:23.810 --> 00:04:26.732 como se ele se tivesse portado mal duas vezes. 00:04:26.952 --> 00:04:29.763 É como se os erros de uma criança 00:04:29.787 --> 00:04:31.963 se empilhassem em cima de outra. NOTE Paragraph 00:04:32.107 --> 00:04:35.281 Criamos categorias para entender o mundo, 00:04:35.305 --> 00:04:39.788 para impor algum controlo e coerência 00:04:39.812 --> 00:04:43.902 aos estímulos com que estamos constantemente a ser bombardeados. 00:04:43.926 --> 00:04:47.894 A categorização e o preconceito que isso semeia 00:04:47.918 --> 00:04:52.940 permite que o nosso cérebro faça julgamentos mais depressa e eficazmente, 00:04:52.964 --> 00:04:56.366 e fazemos isso instintivamente com base em padrões 00:04:56.390 --> 00:04:58.059 que parecem previsíveis. 00:04:58.193 --> 00:05:04.026 Tal como as categorias que criamos nos permitem tomar decisões rápidas, 00:05:04.050 --> 00:05:06.552 também reforçam os preconceitos. 00:05:06.576 --> 00:05:10.226 Então, as mesmas coisas que nos ajudam a ver o mundo 00:05:11.104 --> 00:05:13.444 também podem impedir-nos de o ver. 00:05:13.509 --> 00:05:16.287 Tornam simples as nossas escolhas, 00:05:16.311 --> 00:05:18.191 sem conflitos. 00:05:18.956 --> 00:05:21.688 No entanto, cobram um preço caro. NOTE Paragraph 00:05:22.158 --> 00:05:24.069 Então o que podemos fazer? 00:05:24.507 --> 00:05:26.998 Todos somos vulneráveis a preconceitos, 00:05:27.022 --> 00:05:29.702 mas não agimos sempre com preconceitos. 00:05:29.726 --> 00:05:33.370 Há certas condições que podem trazer o preconceito à tona 00:05:33.394 --> 00:05:35.927 e outras condições que podem abafá-lo. NOTE Paragraph 00:05:35.961 --> 00:05:38.153 Vou dar-vos um exemplo. 00:05:38.583 --> 00:05:43.456 Muitas pessoas conhecem a empresa de tecnologia Nextdoor. 00:05:44.073 --> 00:05:50.526 Todo o seu objetivo é criar bairros mais fortes, mais saudáveis ​​e seguros. 00:05:51.468 --> 00:05:54.389 Assim, oferecem um espaço "online" 00:05:54.413 --> 00:05:57.562 onde os vizinhos podem reunir-se e partilhar informações. 00:05:57.586 --> 00:06:01.712 No entanto, a Nextdoor cedo descobriu que tinham um problema 00:06:01.736 --> 00:06:03.732 com o perfil racial. 00:06:04.012 --> 00:06:05.979 No caso típico, 00:06:06.003 --> 00:06:08.399 as pessoas olhavam pela janela 00:06:08.423 --> 00:06:12.472 e viam um homem negro no seu bairro quase todo branco 00:06:12.496 --> 00:06:16.741 e logo julgavam rapidamente que ele estava a preparar alguma, 00:06:17.235 --> 00:06:20.586 mesmo quando não havia nenhum indício de delito criminal. 00:06:20.610 --> 00:06:23.544 De muitas formas, a forma como nos portamos "online" 00:06:23.568 --> 00:06:26.756 é um reflexo de como nos portamos no mundo. 00:06:27.117 --> 00:06:31.062 Mas não queremos criar um sistema fácil de usar 00:06:31.086 --> 00:06:35.469 que possa amplificar o preconceito e aprofundar as disparidades raciais, 00:06:36.129 --> 00:06:38.547 em vez de desmontá-los. NOTE Paragraph 00:06:38.863 --> 00:06:42.292 Então, o cofundador da Nextdoor procurou-me a mim e a outros 00:06:42.316 --> 00:06:44.447 para tentar descobrir o que fazer. 00:06:44.471 --> 00:06:48.417 E perceberam que, se restringissem o perfil racial na plataforma, 00:06:48.441 --> 00:06:50.533 iam ter de adicionar conflitos; 00:06:50.557 --> 00:06:53.045 isto é, eles teriam de acalmar as pessoas. 00:06:53.069 --> 00:06:55.731 Então, a Nextdoor teve de fazer uma escolha, 00:06:55.731 --> 00:06:57.790 e contra todos os impulsos, 00:06:57.790 --> 00:07:00.353 decidiram adicionar o conflito. 00:07:00.397 --> 00:07:03.837 Fizeram isso adicionando uma lista de verificação simples. 00:07:03.861 --> 00:07:05.966 A lista tinha três itens. 00:07:06.111 --> 00:07:10.012 Primeiro, pediam aos utilizadores que fizessem uma pausa e pensassem: 00:07:10.094 --> 00:07:14.193 "O que é que aquela pessoa estava a fazer que o tornou suspeito?" 00:07:14.876 --> 00:07:19.409 A categoria "homem negro" não é motivo para suspeita. 00:07:19.513 --> 00:07:21.676 Segundo, pediam aos utilizadores 00:07:21.676 --> 00:07:24.576 para descreverem as características físicas, 00:07:24.596 --> 00:07:27.274 não apenas a sua etnia e género. 00:07:27.642 --> 00:07:31.025 Terceiro, eles perceberam que muitas pessoas 00:07:31.049 --> 00:07:33.977 pareciam não saber o que era um perfil racial, 00:07:34.001 --> 00:07:36.400 nem que estavam envolvidos nisso. 00:07:36.542 --> 00:07:39.656 Então a Nextdoor forneceu-lhes uma definição 00:07:39.680 --> 00:07:43.045 e disse-lhes que aquilo era estritamente proibido. 00:07:43.071 --> 00:07:45.893 Muitos de vocês já viram esses sinais nos aeroportos 00:07:45.927 --> 00:07:49.515 e nas estações de metro: "Se vir alguma coisa, diga alguma coisa." 00:07:49.928 --> 00:07:53.032 A Nextdoor tentou modificar isso. 00:07:53.584 --> 00:07:56.156 "Se vir alguma coisa suspeita, 00:07:56.180 --> 00:07:58.512 "diga uma coisa específica." 00:07:59.491 --> 00:08:03.737 Usando esta estratégia, fazendo as pessoas caírem em si, 00:08:03.961 --> 00:08:09.652 a Nextdoor conseguiu conter o perfil racial em 75%. NOTE Paragraph 00:08:10.496 --> 00:08:12.586 Agora, as pessoas costumam dizer-me: 00:08:12.610 --> 00:08:17.323 "Não podemos adicionar conflitos em todas as situações, em todo o contexto, 00:08:17.347 --> 00:08:21.993 "especialmente em pessoas que tomam decisões em frações de segundos." 00:08:22.730 --> 00:08:25.293 Mas acontece que podemos adicionar conflitos 00:08:25.317 --> 00:08:27.759 em mais situações do que pensamos. 00:08:27.961 --> 00:08:31.509 Trabalhando com o Departamento de Polícia de Oakland, na Califórnia, 00:08:31.570 --> 00:08:35.426 eu e vários colegas conseguimos ajudar o departamento 00:08:35.450 --> 00:08:38.121 a reduzir o número de detenções que eles faziam 00:08:38.145 --> 00:08:41.745 de pessoas que não estavam a cometer crimes graves. 00:08:41.859 --> 00:08:44.134 Fizemos isso incentivando os agentes 00:08:44.134 --> 00:08:48.717 a interrogarem-se antes de cada detenção que fizessem: 00:08:49.451 --> 00:08:53.739 "Esta detenção é motivada pela inteligência, sim ou não? 00:08:55.353 --> 00:08:57.009 "Por outras palavras, 00:08:57.621 --> 00:09:02.105 "eu tenho informações prévias para relacionar esta pessoa em particular 00:09:02.129 --> 00:09:04.240 "com um crime específico?" 00:09:04.587 --> 00:09:06.045 Ao adicionar esta pergunta 00:09:06.069 --> 00:09:09.148 no formulário que os agentes preenchem durante uma detenção, 00:09:09.172 --> 00:09:12.045 eles caem em si, fazem uma pausa e pensam: 00:09:12.132 --> 00:09:15.425 "Porque é que estou a considerar deter esta pessoa? " NOTE Paragraph 00:09:16.721 --> 00:09:22.282 Em 2017, antes de adicionarmos esta pergunta inteligente ao formulário, 00:09:23.655 --> 00:09:27.601 os agentes fizeram cerca de 32 000 detenções pela cidade. 00:09:27.625 --> 00:09:31.740 No ano seguinte, com a adição desta pergunta, 00:09:31.764 --> 00:09:34.208 as detenções caíram para 19 000. 00:09:34.462 --> 00:09:39.193 Só as detenções de afro-americanos caíram em 43%. 00:09:39.905 --> 00:09:44.343 E deter menos pessoas negras não tornou a cidade mais perigosa. 00:09:44.367 --> 00:09:47.101 Na verdade, a taxa de criminalidade continuou a cair, 00:09:47.125 --> 00:09:50.462 e a cidade ficou mais segura para todos. NOTE Paragraph 00:09:50.486 --> 00:09:55.841 Portanto, uma solução pode vir da redução do número de detenções desnecessárias. 00:09:56.285 --> 00:10:00.555 Outra solução pode vir da melhoria da qualidade das detenções 00:10:00.579 --> 00:10:02.414 que os agentes fazem. 00:10:02.512 --> 00:10:05.108 Aqui, a tecnologia pode ajudar-nos. 00:10:05.132 --> 00:10:08.227 Todos ouvimos falar da morte de George Floyd 00:10:08.499 --> 00:10:13.271 porque aqueles que tentaram ajudá-lo seguravam câmaras de telemóvel 00:10:13.295 --> 00:10:18.360 para registar aquele terrível e fatal encontro com a polícia. 00:10:18.750 --> 00:10:23.781 Mas temos todo o tipo de tecnologia que não estamos a usar como deve ser. 00:10:23.805 --> 00:10:26.308 Os departamentos de polícia em todo o país 00:10:26.332 --> 00:10:29.885 são hoje obrigados a usar câmaras junto ao corpo 00:10:29.909 --> 00:10:35.839 por isso temos gravações não só dos encontros mais extremos e terríveis 00:10:35.863 --> 00:10:38.617 como de interações quotidianas. NOTE Paragraph 00:10:38.641 --> 00:10:41.418 Com uma equipa interdisciplinar em Stanford, 00:10:41.442 --> 00:10:44.129 começámos a usar técnicas de aprendizagem de máquinas 00:10:44.153 --> 00:10:47.520 para analisar grande quantidade de encontros. 00:10:47.544 --> 00:10:52.155 Isto é para entender melhor o que acontece nos "auto-stops" rotineiros. 00:10:52.229 --> 00:10:54.334 Descobrimos que, 00:10:54.358 --> 00:10:58.020 mesmo quando os polícias se portam profissionalmente, 00:10:58.860 --> 00:11:03.416 falam com os motoristas negros com menos respeito do que com os motoristas brancos. 00:11:04.052 --> 00:11:08.127 De facto, segundo as palavras que os agentes usam, 00:11:08.151 --> 00:11:13.313 pudemos prever se eles estavam a falar com um motorista negro ou branco. NOTE Paragraph 00:11:13.337 --> 00:11:19.099 O problema é que a grande maioria das filmagens dessas câmaras 00:11:19.099 --> 00:11:21.304 não é utilizada pelos departamentos da polícia 00:11:21.304 --> 00:11:23.510 para perceberem o que está a acontecer nas ruas 00:11:23.534 --> 00:11:26.017 ou para treinar agentes. 00:11:26.554 --> 00:11:28.321 E isso é uma pena. 00:11:28.796 --> 00:11:33.585 Como um "auto-stop" de rotina se transforma num encontro mortal? 00:11:33.609 --> 00:11:36.569 Como é que isso aconteceu no caso de George Floyd? 00:11:37.588 --> 00:11:39.670 Como é que isso aconteceu com outros? NOTE Paragraph 00:11:39.694 --> 00:11:43.150 Quando o meu filho mais velho tinha 16 anos, 00:11:43.194 --> 00:11:46.253 ele descobriu que, quando os brancos olham para ele, 00:11:46.277 --> 00:11:48.213 eles sentem medo. 00:11:49.123 --> 00:11:51.931 Os elevadores são os piores, disse ele. 00:11:52.313 --> 00:11:54.644 Quando essas portas se fecham, 00:11:54.668 --> 00:11:57.751 as pessoas ficam presas naquele pequeno espaço 00:11:57.775 --> 00:12:02.333 com alguém que aprenderam a associar com perigo. 00:12:02.744 --> 00:12:05.964 O meu filho sente o desconforto deles 00:12:05.988 --> 00:12:09.145 e sorri para os pôr à vontade, 00:12:09.169 --> 00:12:11.147 para acalmar os seus medos. 00:12:11.351 --> 00:12:13.296 Quando ele fala, 00:12:13.320 --> 00:12:15.323 os corpos deles relaxam. 00:12:15.442 --> 00:12:17.345 Eles respiram mais facilmente. 00:12:17.369 --> 00:12:19.900 Sentem prazer na sua cadência, 00:12:19.924 --> 00:12:22.603 na sua dicção, na sua escolha das palavras. 00:12:22.986 --> 00:12:24.829 Ele soa como um deles. 00:12:24.853 --> 00:12:29.583 Eu pensava que o meu filho era um extrovertido natural como o pai. 00:12:29.607 --> 00:12:34.077 Mas naquele momento, naquela conversa, percebi 00:12:34.233 --> 00:12:38.531 que o sorriso dele não era um sinal 00:12:38.555 --> 00:12:41.650 de que ele queria relacionar-se com estranhos. 00:12:41.920 --> 00:12:45.332 Era um talismã que ele usava para se proteger, 00:12:45.596 --> 00:12:51.815 uma aptidão de sobrevivência que ele aperfeiçoou nas viagens de elevador. 00:12:52.416 --> 00:12:57.587 Ele estava a aprender a ajustar a tensão que a cor da sua pele gerava 00:12:59.026 --> 00:13:02.002 e que colocava em risco a sua vida. NOTE Paragraph 00:13:02.619 --> 00:13:06.402 Sabemos que o cérebro está programado para o preconceito, 00:13:06.426 --> 00:13:10.891 e uma maneira de interromper esse preconceito é fazer uma pausa e refletir 00:13:10.915 --> 00:13:13.220 na evidência das nossas suposições. 00:13:13.244 --> 00:13:14.999 Então, precisamos de perguntar: 00:13:15.023 --> 00:13:19.688 Que suposições trazemos quando entramos num elevador? 00:13:21.776 --> 00:13:23.322 Ou num avião? 00:13:23.532 --> 00:13:28.021 Como tomamos consciência dos nossos preconceitos inconscientes? 00:13:28.155 --> 00:13:30.843 Quem é que se sente seguro com essas suposições? 00:13:32.615 --> 00:13:35.017 Quem é que elas colocam em risco? 00:13:35.649 --> 00:13:38.633 Enquanto não fizermos essas perguntas 00:13:38.978 --> 00:13:43.602 e não insistirmos que as escolas, os tribunais e os departamentos policiais 00:13:43.626 --> 00:13:46.518 e todas as instituições façam o mesmo, 00:13:47.835 --> 00:13:52.834 continuaremos a permitir que os preconceitos nos ceguem. 00:13:53.348 --> 00:13:55.497 E se assim for, 00:13:56.066 --> 00:13:59.795 nenhum de nós está verdadeiramente seguro. NOTE Paragraph 00:14:02.103 --> 00:14:03.645 Obrigada.