1 00:00:00,910 --> 00:00:02,183 Há uns anos, 2 00:00:02,207 --> 00:00:07,059 eu ia num avião com o meu filho que, na época, tinha apenas cinco anos. 3 00:00:08,245 --> 00:00:13,270 O meu filho estava muito excitado por ir naquele avião com a mãe. 4 00:00:13,364 --> 00:00:16,304 Olha a toda a volta, verificando as coisas 5 00:00:16,328 --> 00:00:18,164 e observa as pessoas. 6 00:00:18,188 --> 00:00:19,818 Vê um homem e diz: 7 00:00:19,842 --> 00:00:22,850 "Olha! Aquele homem parece o pai!" 8 00:00:23,882 --> 00:00:25,802 Eu olho para o homem 9 00:00:25,826 --> 00:00:29,556 e ele não se parece nada com o meu marido, 10 00:00:29,580 --> 00:00:31,319 nem um pouco. 11 00:00:31,461 --> 00:00:33,797 Então começo a olhar por todo o avião 12 00:00:33,821 --> 00:00:39,706 e reparo que aquele homem era o único homem negro no avião. 13 00:00:40,874 --> 00:00:42,286 E pensei: 14 00:00:42,310 --> 00:00:43,742 "Tudo bem. 15 00:00:44,369 --> 00:00:46,894 "Vou ter de ter uma conversinha com o meu filho 16 00:00:46,918 --> 00:00:49,847 "sobre como nem todos os negros serem parecidos." 17 00:00:49,871 --> 00:00:54,248 O meu filho levanta a cabeça e diz-me: 18 00:00:56,246 --> 00:00:58,809 "Espero que ele não roube o avião." 19 00:00:59,359 --> 00:01:01,874 E eu disse: "O quê? O que é que disseste?" 20 00:01:01,898 --> 00:01:05,387 E ele responde: "Espero que aquele homem não roube o avião." 21 00:01:07,200 --> 00:01:10,358 Então eu disse: "Porque é que dizes isso? 22 00:01:10,486 --> 00:01:13,149 "Sabes que o pai não roubaria um avião." 23 00:01:13,173 --> 00:01:15,485 E ele diz: "Sim, sim, bem, eu sei." 24 00:01:16,179 --> 00:01:18,889 Então eu disse: "Então, por que é que disseste isso?" 25 00:01:20,346 --> 00:01:23,564 Ele olhou para mim com uma cara muito triste 26 00:01:24,168 --> 00:01:25,639 e disse: 27 00:01:26,890 --> 00:01:29,481 "Não sei porque é que disse isso. 28 00:01:30,600 --> 00:01:33,234 "Não sei porque é que pensei nisso." 29 00:01:33,724 --> 00:01:37,242 Estamos a viver uma estratificação racial tão profunda 30 00:01:37,266 --> 00:01:42,326 que até uma criança de cinco anos pode dizer-nos o que vai acontecer em seguida 31 00:01:43,990 --> 00:01:46,097 mesmo sem nenhum malfeitor, 32 00:01:46,121 --> 00:01:48,957 mesmo sem ódio explícito. 33 00:01:50,184 --> 00:01:54,097 Essa associação entre pessoas negras e crime 34 00:01:54,121 --> 00:01:58,455 entrou na mente do meu filho de cinco anos. 35 00:01:59,787 --> 00:02:03,660 Entra na mente de todas as nossas crianças, 36 00:02:04,201 --> 00:02:05,853 de todos nós. 37 00:02:06,793 --> 00:02:10,317 As nossas mentes são modeladas pelas disparidades raciais 38 00:02:10,341 --> 00:02:12,351 que vemos no mundo 39 00:02:12,752 --> 00:02:18,093 e as narrativas que nos ajudam a entender as disparidades que vemos: 40 00:02:19,637 --> 00:02:22,163 "Aquelas pessoas são criminosas." 41 00:02:22,187 --> 00:02:24,112 "Aquelas pessoas são violentas." 42 00:02:24,136 --> 00:02:27,375 "Devemos temer aquelas pessoas." 43 00:02:27,814 --> 00:02:31,596 Quando a minha equipa de investigação levou pessoas para o meu laboratório 44 00:02:31,616 --> 00:02:33,446 e lhes mostrou rostos, 45 00:02:33,446 --> 00:02:40,336 descobrimos que mostrar-lhes rostos negros levou-as a ver imagens de armas desfocadas 46 00:02:40,360 --> 00:02:43,616 com maior nitidez e mais depressa. 47 00:02:43,640 --> 00:02:46,994 O preconceito não só pode controlar o que vemos, 48 00:02:47,018 --> 00:02:48,995 mas também para onde olhamos. 49 00:02:48,995 --> 00:02:52,134 Descobrimos que induzir pessoas a pensarem em crimes violentos 50 00:02:52,158 --> 00:02:56,454 pode levá-las a dirigir os olhos para um rosto negro 51 00:02:56,478 --> 00:02:58,608 e desviá-los de um rosto branco. 52 00:02:58,632 --> 00:03:02,474 Estimular polícias a pensar em capturar e disparar 53 00:03:02,498 --> 00:03:03,727 e prender 54 00:03:03,751 --> 00:03:07,610 também leva os olhos deles na direção de rostos negros. 55 00:03:07,634 --> 00:03:10,620 O preconceito pode infetar todos os aspetos 56 00:03:10,660 --> 00:03:13,100 do nosso sistema de justiça criminal. 57 00:03:13,100 --> 00:03:16,601 Num grande conjunto de dados de réus elegíveis para a pena morte, 58 00:03:16,665 --> 00:03:20,412 descobrimos que ser mais negro mais que duplicou as hipóteses desses réus 59 00:03:20,436 --> 00:03:23,066 de receberem uma sentença de morte, 60 00:03:23,494 --> 00:03:25,921 pelo menos quando as vítimas deles eram brancas. 61 00:03:25,945 --> 00:03:27,603 Esse efeito é significativo 62 00:03:27,637 --> 00:03:30,708 mesmo que controlássemos a gravidade do crime 63 00:03:30,732 --> 00:03:33,013 e a atração do réu. 64 00:03:33,037 --> 00:03:35,686 Fosse o que fosse que controlámos, 65 00:03:35,710 --> 00:03:39,055 descobrimos que as pessoas negras eram punidas 66 00:03:39,079 --> 00:03:43,244 na proporção da negritude das suas características físicas: 67 00:03:43,428 --> 00:03:46,899 quanto mais negras, mais merecedoras de morte. 68 00:03:47,110 --> 00:03:49,281 O preconceito também pode influenciar 69 00:03:49,311 --> 00:03:51,871 a forma como os professores ensinam os alunos. 70 00:03:51,901 --> 00:03:56,188 Os meus colegas e eu descobrimos que os professores exprimem o desejo 71 00:03:56,212 --> 00:03:59,638 de castigar um aluno negro do ensino médio mais severamente 72 00:03:59,692 --> 00:04:01,150 do que um aluno branco 73 00:04:01,204 --> 00:04:03,570 pelas mesmas infrações repetidas. 74 00:04:03,594 --> 00:04:05,168 Num estudo recente, 75 00:04:05,192 --> 00:04:09,250 estamos a descobrir que os professores tratam os alunos negros como um grupo 76 00:04:09,294 --> 00:04:12,079 mas tratam os alunos brancos como indivíduos. 77 00:04:12,126 --> 00:04:15,725 Se, por exemplo, um aluno negro se porta mal 78 00:04:15,749 --> 00:04:20,323 e um aluno negro diferente se porta mal uns dias depois, 79 00:04:20,558 --> 00:04:23,786 o professor reage àquele segundo estudante negro 80 00:04:23,810 --> 00:04:26,732 como se ele se tivesse portado mal duas vezes. 81 00:04:26,952 --> 00:04:29,763 É como se os erros de uma criança 82 00:04:29,787 --> 00:04:31,963 se empilhassem em cima de outra. 83 00:04:32,107 --> 00:04:35,281 Criamos categorias para entender o mundo, 84 00:04:35,305 --> 00:04:39,788 para impor algum controlo e coerência 85 00:04:39,812 --> 00:04:43,902 aos estímulos com que estamos constantemente a ser bombardeados. 86 00:04:43,926 --> 00:04:47,894 A categorização e o preconceito que isso semeia 87 00:04:47,918 --> 00:04:52,940 permite que o nosso cérebro faça julgamentos mais depressa e eficazmente, 88 00:04:52,964 --> 00:04:56,366 e fazemos isso instintivamente com base em padrões 89 00:04:56,390 --> 00:04:58,059 que parecem previsíveis. 90 00:04:58,193 --> 00:05:04,026 Tal como as categorias que criamos nos permitem tomar decisões rápidas, 91 00:05:04,050 --> 00:05:06,552 também reforçam os preconceitos. 92 00:05:06,576 --> 00:05:10,226 Então, as mesmas coisas que nos ajudam a ver o mundo 93 00:05:11,104 --> 00:05:13,444 também podem impedir-nos de o ver. 94 00:05:13,509 --> 00:05:16,287 Tornam simples as nossas escolhas, 95 00:05:16,311 --> 00:05:18,191 sem conflitos. 96 00:05:18,956 --> 00:05:21,688 No entanto, cobram um preço caro. 97 00:05:22,158 --> 00:05:24,069 Então o que podemos fazer? 98 00:05:24,507 --> 00:05:26,998 Todos somos vulneráveis a preconceitos, 99 00:05:27,022 --> 00:05:29,702 mas não agimos sempre com preconceitos. 100 00:05:29,726 --> 00:05:33,370 Há certas condições que podem trazer o preconceito à tona 101 00:05:33,394 --> 00:05:35,927 e outras condições que podem abafá-lo. 102 00:05:35,961 --> 00:05:38,153 Vou dar-vos um exemplo. 103 00:05:38,583 --> 00:05:43,456 Muitas pessoas conhecem a empresa de tecnologia Nextdoor. 104 00:05:44,073 --> 00:05:50,526 Todo o seu objetivo é criar bairros mais fortes, mais saudáveis ​​e seguros. 105 00:05:51,468 --> 00:05:54,389 Assim, oferecem um espaço "online" 106 00:05:54,413 --> 00:05:57,562 onde os vizinhos podem reunir-se e partilhar informações. 107 00:05:57,586 --> 00:06:01,712 No entanto, a Nextdoor cedo descobriu que tinham um problema 108 00:06:01,736 --> 00:06:03,732 com o perfil racial. 109 00:06:04,012 --> 00:06:05,979 No caso típico, 110 00:06:06,003 --> 00:06:08,399 as pessoas olhavam pela janela 111 00:06:08,423 --> 00:06:12,472 e viam um homem negro no seu bairro quase todo branco 112 00:06:12,496 --> 00:06:16,741 e logo julgavam rapidamente que ele estava a preparar alguma, 113 00:06:17,235 --> 00:06:20,586 mesmo quando não havia nenhum indício de delito criminal. 114 00:06:20,610 --> 00:06:23,544 De muitas formas, a forma como nos portamos "online" 115 00:06:23,568 --> 00:06:26,756 é um reflexo de como nos portamos no mundo. 116 00:06:27,117 --> 00:06:31,062 Mas não queremos criar um sistema fácil de usar 117 00:06:31,086 --> 00:06:35,469 que possa amplificar o preconceito e aprofundar as disparidades raciais, 118 00:06:36,129 --> 00:06:38,547 em vez de desmontá-los. 119 00:06:38,863 --> 00:06:42,292 Então, o cofundador da Nextdoor procurou-me a mim e a outros 120 00:06:42,316 --> 00:06:44,447 para tentar descobrir o que fazer. 121 00:06:44,471 --> 00:06:48,417 E perceberam que, se restringissem o perfil racial na plataforma, 122 00:06:48,441 --> 00:06:50,533 iam ter de adicionar conflitos; 123 00:06:50,557 --> 00:06:53,045 isto é, eles teriam de acalmar as pessoas. 124 00:06:53,069 --> 00:06:55,731 Então, a Nextdoor teve de fazer uma escolha, 125 00:06:55,731 --> 00:06:57,790 e contra todos os impulsos, 126 00:06:57,790 --> 00:07:00,353 decidiram adicionar o conflito. 127 00:07:00,397 --> 00:07:03,837 Fizeram isso adicionando uma lista de verificação simples. 128 00:07:03,861 --> 00:07:05,966 A lista tinha três itens. 129 00:07:06,111 --> 00:07:10,012 Primeiro, pediam aos utilizadores que fizessem uma pausa e pensassem: 130 00:07:10,094 --> 00:07:14,193 "O que é que aquela pessoa estava a fazer que o tornou suspeito?" 131 00:07:14,876 --> 00:07:19,409 A categoria "homem negro" não é motivo para suspeita. 132 00:07:19,513 --> 00:07:21,676 Segundo, pediam aos utilizadores 133 00:07:21,676 --> 00:07:24,576 para descreverem as características físicas, 134 00:07:24,596 --> 00:07:27,274 não apenas a sua etnia e género. 135 00:07:27,642 --> 00:07:31,025 Terceiro, eles perceberam que muitas pessoas 136 00:07:31,049 --> 00:07:33,977 pareciam não saber o que era um perfil racial, 137 00:07:34,001 --> 00:07:36,400 nem que estavam envolvidos nisso. 138 00:07:36,542 --> 00:07:39,656 Então a Nextdoor forneceu-lhes uma definição 139 00:07:39,680 --> 00:07:43,045 e disse-lhes que aquilo era estritamente proibido. 140 00:07:43,071 --> 00:07:45,893 Muitos de vocês já viram esses sinais nos aeroportos 141 00:07:45,927 --> 00:07:49,515 e nas estações de metro: "Se vir alguma coisa, diga alguma coisa." 142 00:07:49,928 --> 00:07:53,032 A Nextdoor tentou modificar isso. 143 00:07:53,584 --> 00:07:56,156 "Se vir alguma coisa suspeita, 144 00:07:56,180 --> 00:07:58,512 "diga uma coisa específica." 145 00:07:59,491 --> 00:08:03,737 Usando esta estratégia, fazendo as pessoas caírem em si, 146 00:08:03,961 --> 00:08:09,652 a Nextdoor conseguiu conter o perfil racial em 75%. 147 00:08:10,496 --> 00:08:12,586 Agora, as pessoas costumam dizer-me: 148 00:08:12,610 --> 00:08:17,323 "Não podemos adicionar conflitos em todas as situações, em todo o contexto, 149 00:08:17,347 --> 00:08:21,993 "especialmente em pessoas que tomam decisões em frações de segundos." 150 00:08:22,730 --> 00:08:25,293 Mas acontece que podemos adicionar conflitos 151 00:08:25,317 --> 00:08:27,759 em mais situações do que pensamos. 152 00:08:27,961 --> 00:08:31,509 Trabalhando com o Departamento de Polícia de Oakland, na Califórnia, 153 00:08:31,570 --> 00:08:35,426 eu e vários colegas conseguimos ajudar o departamento 154 00:08:35,450 --> 00:08:38,121 a reduzir o número de detenções que eles faziam 155 00:08:38,145 --> 00:08:41,745 de pessoas que não estavam a cometer crimes graves. 156 00:08:41,859 --> 00:08:44,134 Fizemos isso incentivando os agentes 157 00:08:44,134 --> 00:08:48,717 a interrogarem-se antes de cada detenção que fizessem: 158 00:08:49,451 --> 00:08:53,739 "Esta detenção é motivada pela inteligência, sim ou não? 159 00:08:55,353 --> 00:08:57,009 "Por outras palavras, 160 00:08:57,621 --> 00:09:02,105 "eu tenho informações prévias para relacionar esta pessoa em particular 161 00:09:02,129 --> 00:09:04,240 "com um crime específico?" 162 00:09:04,587 --> 00:09:06,045 Ao adicionar esta pergunta 163 00:09:06,069 --> 00:09:09,148 no formulário que os agentes preenchem durante uma detenção, 164 00:09:09,172 --> 00:09:12,045 eles caem em si, fazem uma pausa e pensam: 165 00:09:12,132 --> 00:09:15,425 "Porque é que estou a considerar deter esta pessoa? " 166 00:09:16,721 --> 00:09:22,282 Em 2017, antes de adicionarmos esta pergunta inteligente ao formulário, 167 00:09:23,655 --> 00:09:27,601 os agentes fizeram cerca de 32 000 detenções pela cidade. 168 00:09:27,625 --> 00:09:31,740 No ano seguinte, com a adição desta pergunta, 169 00:09:31,764 --> 00:09:34,208 as detenções caíram para 19 000. 170 00:09:34,462 --> 00:09:39,193 Só as detenções de afro-americanos caíram em 43%. 171 00:09:39,905 --> 00:09:44,343 E deter menos pessoas negras não tornou a cidade mais perigosa. 172 00:09:44,367 --> 00:09:47,101 Na verdade, a taxa de criminalidade continuou a cair, 173 00:09:47,125 --> 00:09:50,462 e a cidade ficou mais segura para todos. 174 00:09:50,486 --> 00:09:55,841 Portanto, uma solução pode vir da redução do número de detenções desnecessárias. 175 00:09:56,285 --> 00:10:00,555 Outra solução pode vir da melhoria da qualidade das detenções 176 00:10:00,579 --> 00:10:02,414 que os agentes fazem. 177 00:10:02,512 --> 00:10:05,108 Aqui, a tecnologia pode ajudar-nos. 178 00:10:05,132 --> 00:10:08,227 Todos ouvimos falar da morte de George Floyd 179 00:10:08,499 --> 00:10:13,271 porque aqueles que tentaram ajudá-lo seguravam câmaras de telemóvel 180 00:10:13,295 --> 00:10:18,360 para registar aquele terrível e fatal encontro com a polícia. 181 00:10:18,750 --> 00:10:23,781 Mas temos todo o tipo de tecnologia que não estamos a usar como deve ser. 182 00:10:23,805 --> 00:10:26,308 Os departamentos de polícia em todo o país 183 00:10:26,332 --> 00:10:29,885 são hoje obrigados a usar câmaras junto ao corpo 184 00:10:29,909 --> 00:10:35,839 por isso temos gravações não só dos encontros mais extremos e terríveis 185 00:10:35,863 --> 00:10:38,617 como de interações quotidianas. 186 00:10:38,641 --> 00:10:41,418 Com uma equipa interdisciplinar em Stanford, 187 00:10:41,442 --> 00:10:44,129 começámos a usar técnicas de aprendizagem de máquinas 188 00:10:44,153 --> 00:10:47,520 para analisar grande quantidade de encontros. 189 00:10:47,544 --> 00:10:52,155 Isto é para entender melhor o que acontece nos "auto-stops" rotineiros. 190 00:10:52,229 --> 00:10:54,334 Descobrimos que, 191 00:10:54,358 --> 00:10:58,020 mesmo quando os polícias se portam profissionalmente, 192 00:10:58,860 --> 00:11:03,416 falam com os motoristas negros com menos respeito do que com os motoristas brancos. 193 00:11:04,052 --> 00:11:08,127 De facto, segundo as palavras que os agentes usam, 194 00:11:08,151 --> 00:11:13,313 pudemos prever se eles estavam a falar com um motorista negro ou branco. 195 00:11:13,337 --> 00:11:19,099 O problema é que a grande maioria das filmagens dessas câmaras 196 00:11:19,099 --> 00:11:21,304 não é utilizada pelos departamentos da polícia 197 00:11:21,304 --> 00:11:23,510 para perceberem o que está a acontecer nas ruas 198 00:11:23,534 --> 00:11:26,017 ou para treinar agentes. 199 00:11:26,554 --> 00:11:28,321 E isso é uma pena. 200 00:11:28,796 --> 00:11:33,585 Como um "auto-stop" de rotina se transforma num encontro mortal? 201 00:11:33,609 --> 00:11:36,569 Como é que isso aconteceu no caso de George Floyd? 202 00:11:37,588 --> 00:11:39,670 Como é que isso aconteceu com outros? 203 00:11:39,694 --> 00:11:43,150 Quando o meu filho mais velho tinha 16 anos, 204 00:11:43,194 --> 00:11:46,253 ele descobriu que, quando os brancos olham para ele, 205 00:11:46,277 --> 00:11:48,213 eles sentem medo. 206 00:11:49,123 --> 00:11:51,931 Os elevadores são os piores, disse ele. 207 00:11:52,313 --> 00:11:54,644 Quando essas portas se fecham, 208 00:11:54,668 --> 00:11:57,751 as pessoas ficam presas naquele pequeno espaço 209 00:11:57,775 --> 00:12:02,333 com alguém que aprenderam a associar com perigo. 210 00:12:02,744 --> 00:12:05,964 O meu filho sente o desconforto deles 211 00:12:05,988 --> 00:12:09,145 e sorri para os pôr à vontade, 212 00:12:09,169 --> 00:12:11,147 para acalmar os seus medos. 213 00:12:11,351 --> 00:12:13,296 Quando ele fala, 214 00:12:13,320 --> 00:12:15,323 os corpos deles relaxam. 215 00:12:15,442 --> 00:12:17,345 Eles respiram mais facilmente. 216 00:12:17,369 --> 00:12:19,900 Sentem prazer na sua cadência, 217 00:12:19,924 --> 00:12:22,603 na sua dicção, na sua escolha das palavras. 218 00:12:22,986 --> 00:12:24,829 Ele soa como um deles. 219 00:12:24,853 --> 00:12:29,583 Eu pensava que o meu filho era um extrovertido natural como o pai. 220 00:12:29,607 --> 00:12:34,077 Mas naquele momento, naquela conversa, percebi 221 00:12:34,233 --> 00:12:38,531 que o sorriso dele não era um sinal 222 00:12:38,555 --> 00:12:41,650 de que ele queria relacionar-se com estranhos. 223 00:12:41,920 --> 00:12:45,332 Era um talismã que ele usava para se proteger, 224 00:12:45,596 --> 00:12:51,815 uma aptidão de sobrevivência que ele aperfeiçoou nas viagens de elevador. 225 00:12:52,416 --> 00:12:57,587 Ele estava a aprender a ajustar a tensão que a cor da sua pele gerava 226 00:12:59,026 --> 00:13:02,002 e que colocava em risco a sua vida. 227 00:13:02,619 --> 00:13:06,402 Sabemos que o cérebro está programado para o preconceito, 228 00:13:06,426 --> 00:13:10,891 e uma maneira de interromper esse preconceito é fazer uma pausa e refletir 229 00:13:10,915 --> 00:13:13,220 na evidência das nossas suposições. 230 00:13:13,244 --> 00:13:14,999 Então, precisamos de perguntar: 231 00:13:15,023 --> 00:13:19,688 Que suposições trazemos quando entramos num elevador? 232 00:13:21,776 --> 00:13:23,322 Ou num avião? 233 00:13:23,532 --> 00:13:28,021 Como tomamos consciência dos nossos preconceitos inconscientes? 234 00:13:28,155 --> 00:13:30,843 Quem é que se sente seguro com essas suposições? 235 00:13:32,615 --> 00:13:35,017 Quem é que elas colocam em risco? 236 00:13:35,649 --> 00:13:38,633 Enquanto não fizermos essas perguntas 237 00:13:38,978 --> 00:13:43,602 e não insistirmos que as escolas, os tribunais e os departamentos policiais 238 00:13:43,626 --> 00:13:46,518 e todas as instituições façam o mesmo, 239 00:13:47,835 --> 00:13:52,834 continuaremos a permitir que os preconceitos nos ceguem. 240 00:13:53,348 --> 00:13:55,497 E se assim for, 241 00:13:56,066 --> 00:13:59,795 nenhum de nós está verdadeiramente seguro. 242 00:14:02,103 --> 00:14:03,645 Obrigada.