1 00:00:00,910 --> 00:00:02,183 Há alguns anos, 2 00:00:02,207 --> 00:00:07,119 eu estava em um voo com meu filho, que tinha apenas cinco anos na época. 3 00:00:08,245 --> 00:00:13,340 Meu filho estava tão empolgado por estar naquele avião com a mãe dele. 4 00:00:13,364 --> 00:00:16,304 Ele olhava tudo a nossa volta, e mexia em tudo que via, 5 00:00:16,328 --> 00:00:18,164 e ficava olhando as pessoas. 6 00:00:18,188 --> 00:00:19,818 Até que viu um homem e disse: 7 00:00:19,842 --> 00:00:22,703 "Olha, esse homem parece o papai!" 8 00:00:23,882 --> 00:00:25,802 Então, olhei para o homem, 9 00:00:25,826 --> 00:00:29,556 e ele não parecia em nada com o meu marido. 10 00:00:29,580 --> 00:00:31,109 Nada mesmo. 11 00:00:31,461 --> 00:00:34,137 A seguir, comecei a reparar nas pessoas ao redor 12 00:00:34,168 --> 00:00:39,706 e notei que esse homem era o único homem preto no avião. 13 00:00:40,874 --> 00:00:42,286 Então pensei: 14 00:00:42,310 --> 00:00:43,504 "Muito bem, 15 00:00:44,369 --> 00:00:46,894 acho que terei de conversar com meu filho sobre isso, 16 00:00:46,918 --> 00:00:49,847 sobre como nem todas as pessoas pretas são iguais". 17 00:00:49,871 --> 00:00:54,248 Meu filho levanta a cabeça e me diz: 18 00:00:56,246 --> 00:00:58,617 "Espero que ele não roube o avião". 19 00:00:59,359 --> 00:01:01,874 Então falei: "O quê? O que você disse?" 20 00:01:01,898 --> 00:01:05,326 E ele respondeu: "Bem, espero que aquele homem não roube o avião". 21 00:01:07,200 --> 00:01:09,952 Daí, perguntei: "Por que você disse isso? 22 00:01:10,486 --> 00:01:12,878 Você sabe que seu pai nunca roubaria um avião". 23 00:01:13,173 --> 00:01:15,485 Então ele disse: "Sim, sim, sim, eu sei". 24 00:01:16,179 --> 00:01:18,676 "Mas por que disse isso?", perguntei. 25 00:01:20,346 --> 00:01:23,303 Daí ele me olhou com uma expressão muito triste 26 00:01:24,168 --> 00:01:25,702 e falou: 27 00:01:26,890 --> 00:01:29,586 "Não sei por que disse isso. 28 00:01:30,600 --> 00:01:32,958 Não sei por que pensei assim". 29 00:01:33,724 --> 00:01:37,242 Vivemos uma estratificação racial tão grande 30 00:01:37,266 --> 00:01:42,326 que até mesmo um menino de cinco anos conseguia prever o que esperar, 31 00:01:43,990 --> 00:01:46,097 mesmo que não houvesse malfeito algum, 32 00:01:46,121 --> 00:01:49,040 mesmo sem o ódio explícito. 33 00:01:50,184 --> 00:01:54,097 Essa associação entre pele negra e crime 34 00:01:54,121 --> 00:01:58,455 invadiu a cabecinha do meu filho de cinco anos de idade. 35 00:01:59,787 --> 00:02:03,389 Ela invade a cabecinha de todas as crianças. 36 00:02:04,201 --> 00:02:06,045 Ela está dentro de todos nós. 37 00:02:06,793 --> 00:02:10,317 Nossas mentes são moldadas pelas discrepâncias raciais 38 00:02:10,341 --> 00:02:11,933 que vemos mundo afora 39 00:02:12,752 --> 00:02:18,093 e pelas narrativas que nos ajudam a dar sentido às diferenças: 40 00:02:19,637 --> 00:02:22,163 "Essas pessoas são criminosas"; 41 00:02:22,187 --> 00:02:24,112 "Essas pessoas são violentas"; 42 00:02:24,136 --> 00:02:27,101 "Devemos ter medo dessas pessoas". 43 00:02:27,814 --> 00:02:31,005 Quando minha equipe de pesquisadores trouxe pessoas ao laboratório 44 00:02:31,029 --> 00:02:33,312 e mostrou alguns rostos a elas, 45 00:02:33,336 --> 00:02:36,300 descobrimos que elas associavam 46 00:02:36,300 --> 00:02:40,360 o rosto das pessoas pretas a armas de fogo 47 00:02:40,360 --> 00:02:43,616 com muita clareza e rapidez. 48 00:02:43,640 --> 00:02:46,994 O preconceito não controla apenas o que vemos, 49 00:02:47,018 --> 00:02:48,666 mas para onde olhamos. 50 00:02:48,690 --> 00:02:52,134 Percebemos que induzir as pessoas a pensarem sobre violência 51 00:02:52,158 --> 00:02:56,454 faz com que dirijam o olhar para o rosto de uma pessoa preta, 52 00:02:56,478 --> 00:02:58,608 e não para o rosto de uma pessoa branca. 53 00:02:58,632 --> 00:03:03,524 Induzir policiais a pensar em capturas, tiroteios e prisões 54 00:03:03,751 --> 00:03:07,610 faz com que eles pousem o olhar em rostos de pessoas pretas também. 55 00:03:07,634 --> 00:03:12,700 O preconceito infecta todos os aspectos do nosso sistema de justiça penal. 56 00:03:13,100 --> 00:03:16,055 Num grande grupo de dados de presidiários no corredor da morte, 57 00:03:16,055 --> 00:03:20,412 verificamos que parecer mais preto dobrava as chances de condenação 58 00:03:20,436 --> 00:03:22,493 a uma pena de morte, 59 00:03:23,494 --> 00:03:25,921 ao menos quando as vítimas eram brancas. 60 00:03:25,945 --> 00:03:27,383 O resultado é significante, 61 00:03:27,407 --> 00:03:30,708 embora tenhamos controlado a gravidade do crime 62 00:03:30,732 --> 00:03:33,013 e quão atraente era o réu. 63 00:03:33,037 --> 00:03:35,686 Não importa o que é controlado, 64 00:03:35,710 --> 00:03:39,055 detectamos que pessoas pretas são punidas 65 00:03:39,079 --> 00:03:43,404 na proporção da negritude das características físicas que possuem: 66 00:03:43,428 --> 00:03:45,309 quanto mais preta é a cor da pele, 67 00:03:45,333 --> 00:03:47,086 mais merecedor da pena de morte. 68 00:03:47,110 --> 00:03:51,319 O preconceito também influencia como professores disciplinam os alunos. 69 00:03:51,781 --> 00:03:56,188 Meus colegas e eu descobrimos que professores tendem 70 00:03:56,212 --> 00:03:59,685 a disciplinar com mais severidade um aluno preto do ensino fundamental 71 00:03:59,685 --> 00:04:03,594 que um branco pelas mesmas repetidas infrações. 72 00:04:03,594 --> 00:04:04,888 Num estudo recente, 73 00:04:04,912 --> 00:04:09,270 foi observado que professores lidam com alunos pretos como um grupo, 74 00:04:09,294 --> 00:04:11,725 mas tratam os brancos como indivíduos. 75 00:04:12,126 --> 00:04:15,725 Se, por exemplo, um aluno preto não se comporta adequadamente, 76 00:04:15,749 --> 00:04:20,534 e dias depois outro aluno preto apresenta o mesmo mau comportamento, 77 00:04:20,558 --> 00:04:23,786 o professor reagirá a esse segundo aluno 78 00:04:23,810 --> 00:04:26,435 como se ele tivesse se comportado mal em dobro. 79 00:04:26,952 --> 00:04:29,763 É como se os pecados de uma criança 80 00:04:29,787 --> 00:04:31,963 fossem empilhados sobre os da outra. 81 00:04:31,987 --> 00:04:35,281 Criamos categorias para dar sentido ao mundo, 82 00:04:35,305 --> 00:04:39,788 para termos algum controle e coerência 83 00:04:39,812 --> 00:04:43,902 sobre estímulos com que somos bombardeados incessantemente. 84 00:04:43,926 --> 00:04:47,894 A categorização e o preconceito que ela semeia 85 00:04:47,918 --> 00:04:52,940 permitem que nossos cérebros sejam mais rápidos e eficientes em julgar, 86 00:04:52,964 --> 00:04:56,366 e fazemos isso por causa dessa instintiva confiança em padrões 87 00:04:56,390 --> 00:04:58,059 que parecem previsíveis. 88 00:04:58,083 --> 00:05:04,026 Todavia, as mesmas classificações que nos permitem decidir com rapidez 89 00:05:04,050 --> 00:05:06,552 também reforçam estereótipos. 90 00:05:06,576 --> 00:05:09,968 Portanto, as mesmas coisas que nos ajudam a ver o mundo 91 00:05:11,104 --> 00:05:13,084 também podem nos cegar para ele. 92 00:05:13,509 --> 00:05:16,287 Elas tornam nossas escolhas automáticas, 93 00:05:16,311 --> 00:05:17,680 livres de resistência. 94 00:05:18,956 --> 00:05:21,401 Ainda assim, cobram caro por isso. 95 00:05:22,158 --> 00:05:23,839 Então, o que podemos fazer? 96 00:05:24,507 --> 00:05:26,998 Estamos todos vulneráveis ao preconceito, 97 00:05:27,022 --> 00:05:29,702 mas nem sempre agimos dessa forma. 98 00:05:29,726 --> 00:05:33,370 Existem algumas situações que trazem o preconceito à tona, 99 00:05:33,394 --> 00:05:35,927 e outras que podem camuflá-lo. 100 00:05:35,951 --> 00:05:37,798 Deixem que eu dê um exemplo a vocês. 101 00:05:38,663 --> 00:05:43,223 Muitas pessoas estão familiarizadas com a empresa de tecnologia Nextdoor. 102 00:05:44,073 --> 00:05:50,526 O objetivo deles é criar vizinhanças mais fortes, saudáveis e seguras. 103 00:05:51,468 --> 00:05:54,389 Por isso oferecem um espaço on-line 104 00:05:54,413 --> 00:05:57,562 no qual os vizinhos podem se reunir e compartilhar informações. 105 00:05:57,586 --> 00:06:01,712 No entanto, a empresa logo descobriu que havia um problema 106 00:06:01,736 --> 00:06:03,984 com discriminação por perfil racial. 107 00:06:04,012 --> 00:06:05,979 Em um caso típico, 108 00:06:06,003 --> 00:06:08,399 as pessoas olhavam pela janela 109 00:06:08,423 --> 00:06:12,472 e observavam um homem preto em uma vizinhança de maioria branca, 110 00:06:12,496 --> 00:06:17,211 faziam um julgamento rápido de que aquele homem tinha atitude suspeita 111 00:06:17,235 --> 00:06:20,586 ainda que não houvesse evidência alguma de infrações criminosas. 112 00:06:20,610 --> 00:06:23,544 Em muitos aspectos, o comportamento on-line 113 00:06:23,568 --> 00:06:26,912 é um reflexo de como agimos no dia a dia. 114 00:06:27,117 --> 00:06:31,062 Entretanto, não queremos criar uma interface amigável 115 00:06:31,086 --> 00:06:35,249 que amplifique o preconceito e aprofunde as diferenças raciais, 116 00:06:36,129 --> 00:06:38,395 ao invés de desconstruir essas questões. 117 00:06:38,843 --> 00:06:42,313 Então, um dos cofundadores da Nextdoor me contatou e outros colegas 118 00:06:42,371 --> 00:06:44,427 a fim de procurarmos uma solução. 119 00:06:44,471 --> 00:06:48,417 Eles entenderam que, para reduzir o preconceito racial na plataforma, 120 00:06:48,441 --> 00:06:50,363 teriam de adicionar resistência. 121 00:06:50,387 --> 00:06:53,045 A ideia era frear os usuários. 122 00:06:53,069 --> 00:06:55,264 Assim, a empresa tinha uma escolha a fazer 123 00:06:55,288 --> 00:06:57,766 e, para prevenir essas ações impulsivas, 124 00:06:57,790 --> 00:06:59,906 decidiram adicionar resistência. 125 00:07:00,397 --> 00:07:03,837 Eles fizeram isso criando um simples questionário. 126 00:07:03,861 --> 00:07:05,531 Havia três itens nele: 127 00:07:06,111 --> 00:07:09,052 primeiro, era pedido ao usuário para parar 128 00:07:09,076 --> 00:07:14,488 e pensar: "O que aquela pessoa estava fazendo que a tornava suspeita?" 129 00:07:14,838 --> 00:07:19,409 A resposta "homem preto" não serviria para identificar alguém como suspeito. 130 00:07:19,433 --> 00:07:21,316 Segundo, eles pediram ao usuário 131 00:07:21,316 --> 00:07:27,031 para descrever as características da pessoa, não apenas o gênero e a etnia. 132 00:07:27,642 --> 00:07:31,025 Terceiro, eles perceberam que muitas pessoas 133 00:07:31,049 --> 00:07:33,977 pareciam não saber o que era discriminação por perfil racial 134 00:07:34,001 --> 00:07:36,340 nem que elas estavam agindo dessa maneira. 135 00:07:36,462 --> 00:07:39,656 Então a Nextdoor explicou o conceito para elas 136 00:07:39,680 --> 00:07:43,062 e estabeleceu que esse tipo de coisa era completamente proibida. 137 00:07:43,071 --> 00:07:45,683 A maioria já deve ter visto essas placas nos aeroportos 138 00:07:45,707 --> 00:07:49,409 e em algumas estações de metrô: "Se vir alguma coisa, diga alguma coisa". 139 00:07:49,928 --> 00:07:52,742 A Nextdoor tentou modificar a frase: 140 00:07:53,584 --> 00:07:56,156 "Se vir algo suspeito, 141 00:07:56,180 --> 00:07:58,643 diga algo específico". 142 00:07:59,491 --> 00:08:03,937 E, ao usar a estratégia de meramente fazer os usuários pararem pra pensar, 143 00:08:03,961 --> 00:08:09,652 a Nextdoor foi capaz de reduzir a discriminação por perfil racial em 75%. 144 00:08:10,496 --> 00:08:12,586 Mas as pessoas sempre me dizem: 145 00:08:12,610 --> 00:08:17,323 "Você não pode adicionar resistência em todas as situações e contextos 146 00:08:17,347 --> 00:08:21,993 e, principalmente, com pessoas que tomam decisões rápidas o tempo todo". 147 00:08:22,730 --> 00:08:25,293 Mas, obviamente, resistência pode ser adicionada 148 00:08:25,317 --> 00:08:27,593 em mais situações do que se pode imaginar. 149 00:08:28,041 --> 00:08:31,570 Trabalhando com o departamento de polícia de Oakland, na Califórnia, 150 00:08:31,570 --> 00:08:35,426 meus colegas e eu conseguimos ajudá-los 151 00:08:35,450 --> 00:08:38,121 a reduzir o número de abordagens 152 00:08:38,145 --> 00:08:41,745 de pessoas que não estavam cometendo nenhum crime grave. 153 00:08:41,769 --> 00:08:44,134 Fizemos isso provocando os policiais 154 00:08:44,158 --> 00:08:48,601 a se perguntarem antes de cada abordagem: 155 00:08:49,451 --> 00:08:52,466 "Esta abordagem é motivada por alguma informação concreta? 156 00:08:52,490 --> 00:08:53,941 Sim ou não?" 157 00:08:55,353 --> 00:08:57,169 Em outras palavras, 158 00:08:57,621 --> 00:09:02,105 "Tenho alguma informação prévia para relacionar essa pessoa em particular 159 00:09:02,129 --> 00:09:03,730 a algum crime específico?" 160 00:09:04,587 --> 00:09:06,045 Ao adicionar essa pergunta 161 00:09:06,069 --> 00:09:09,148 ao formulário que os policiais preenchem durante uma abordagem, 162 00:09:09,172 --> 00:09:10,981 eles saem do automático, param, 163 00:09:11,005 --> 00:09:15,225 pensam: "Por que estou cogitando pedir para essa pessoa estacionar?" 164 00:09:16,721 --> 00:09:22,282 Em 2017, antes de incluirmos essa pergunta ao formulário, 165 00:09:23,655 --> 00:09:27,601 os policiais fizeram 32 mil abordagens na cidade. 166 00:09:27,625 --> 00:09:31,740 No ano seguinte, com a adição da pergunta, 167 00:09:31,764 --> 00:09:34,232 o número de abordagens caiu para 19 mil. 168 00:09:34,232 --> 00:09:39,193 Apenas as abordagens em afro-americanos caíram 43%. 169 00:09:39,905 --> 00:09:44,343 Abordar menos pessoas pretas não tornou a cidade mais perigosa. 170 00:09:44,367 --> 00:09:47,101 Na verdade, a taxa de crimes continuou a cair, 171 00:09:47,125 --> 00:09:50,462 e a cidade se tornou segura para todos. 172 00:09:50,486 --> 00:09:55,841 Então, uma das soluções pode vir da redução de abordagens desnecessárias. 173 00:09:56,285 --> 00:10:00,555 Uma outra solução pode vir da melhora na qualidade dessas abordagens 174 00:10:00,579 --> 00:10:02,224 que os policiais fazem. 175 00:10:02,512 --> 00:10:05,108 A tecnologia pode nos ajudar nesse ponto. 176 00:10:05,132 --> 00:10:07,637 Todos ficamos sabendo sobre a morte de George Floyd 177 00:10:08,499 --> 00:10:13,271 porque aqueles que tentaram ajudá-lo empunharam as câmeras dos smartphones 178 00:10:13,295 --> 00:10:18,726 para gravar aquele terrível e fatal encontro com a polícia. 179 00:10:18,750 --> 00:10:23,781 Mas temos todos os tipos de tecnologia das quais não fazemos um bom uso. 180 00:10:23,805 --> 00:10:26,308 Departamentos de polícia pelo país 181 00:10:26,332 --> 00:10:29,885 são agora obrigados a adotar câmeras acopladas ao corpo dos policiais. 182 00:10:29,909 --> 00:10:35,839 Dessa forma, há gravações não apenas dos encontros mais terríveis e violentos, 183 00:10:35,863 --> 00:10:38,617 mas também gravações das interações diárias. 184 00:10:38,641 --> 00:10:41,418 E, com uma equipe multidisciplinar em Stanford, 185 00:10:41,442 --> 00:10:44,129 começamos a usar técnicas de aprendizado de máquina 186 00:10:44,153 --> 00:10:47,520 para analisar um grande número de confrontos. 187 00:10:47,544 --> 00:10:52,155 Isso, para entendermos melhor o que ocorre em abordagens no trânsito. 188 00:10:52,179 --> 00:10:54,334 O que descobrimos foi 189 00:10:54,358 --> 00:10:58,020 que, mesmo quando os policiais se comportam com profissionalismo, 190 00:10:58,860 --> 00:11:03,599 motoristas pretos são mais desrespeitados do que motoristas brancos. 191 00:11:04,052 --> 00:11:08,127 Na verdade apenas com palavras usadas pelos policiais, 192 00:11:08,151 --> 00:11:13,313 conseguimos prever se eles estão falando com um motorista preto ou branco. 193 00:11:13,337 --> 00:11:19,099 O problema está no fato de que a grande maioria das filmagens dessas câmeras 194 00:11:19,123 --> 00:11:21,210 não são utilizadas pelas autoridades 195 00:11:21,234 --> 00:11:23,510 para entender o que está acontecendo nas ruas 196 00:11:23,534 --> 00:11:25,777 ou para treinar policiais. 197 00:11:26,554 --> 00:11:28,012 E isso é uma pena. 198 00:11:28,796 --> 00:11:33,585 Como uma abordagem de rotina acaba em um encontro mortal? 199 00:11:33,609 --> 00:11:36,279 Como isso aconteceu no caso de George Floyd? 200 00:11:37,588 --> 00:11:39,670 Como acontece em outros casos? 201 00:11:39,694 --> 00:11:43,090 Quando meu filho mais velho tinha 16 anos, 202 00:11:43,114 --> 00:11:46,253 percebeu que, quando pessoas brancas o viam, 203 00:11:46,277 --> 00:11:47,838 sentiam medo. 204 00:11:49,123 --> 00:11:51,784 "Elevadores eram os piores lugares", ele dizia. 205 00:11:52,313 --> 00:11:54,644 Quando as portas se fechavam, 206 00:11:54,668 --> 00:11:57,751 as pessoas ficavam presas naquele espaço minúsculo 207 00:11:57,775 --> 00:12:02,242 com alguém que eles foram ensinados a associar com perigo. 208 00:12:02,744 --> 00:12:05,964 Meu filho sentia o desconforto deles, 209 00:12:05,988 --> 00:12:09,145 e então sorria para tranquilizá-los, 210 00:12:09,169 --> 00:12:10,938 para acalmar o medo deles. 211 00:12:11,351 --> 00:12:13,296 Quando ele falava, 212 00:12:13,320 --> 00:12:15,003 o corpo das pessoas relaxava. 213 00:12:15,442 --> 00:12:17,345 Elas respiravam com maior facilidade. 214 00:12:17,369 --> 00:12:19,900 Sentiam prazer no seu tom de voz, 215 00:12:19,924 --> 00:12:22,241 sua dicção e na escolha das palavras: 216 00:12:22,986 --> 00:12:24,829 meu filho soava como um branco. 217 00:12:24,853 --> 00:12:29,583 Eu costumava a pensar que ele era naturalmente extrovertido como o pai, 218 00:12:29,607 --> 00:12:33,157 mas soube naquele momento, naquela conversa, 219 00:12:34,143 --> 00:12:39,221 que o sorriso dele não era um sinal de que tinha vontade de se aproximar 220 00:12:39,245 --> 00:12:41,209 de pessoas estranhas. 221 00:12:41,920 --> 00:12:45,572 Era um talismã que usava para proteção, 222 00:12:45,596 --> 00:12:51,815 uma habilidade de sobrevivência que adquiriu ao entrar nos elevadores. 223 00:12:52,387 --> 00:12:57,558 Ele aprendeu a amenizar as tensões que a sua cor da pele criava. 224 00:12:59,026 --> 00:13:01,693 E isso colocava a vida dele em risco. 225 00:13:02,619 --> 00:13:06,402 Sabemos que o cérebro está programado para criar estereótipos, 226 00:13:06,426 --> 00:13:10,891 e uma forma de interromper o preconceito é parar e pensar 227 00:13:10,915 --> 00:13:13,220 nas evidências de nossas conjeturas. 228 00:13:13,244 --> 00:13:14,999 Portanto, precisamos nos questionar: 229 00:13:15,023 --> 00:13:19,688 "Que tipo de hipóteses levantamos ao pisar dentro de um elevador? 230 00:13:21,776 --> 00:13:23,087 Ou de um avião?"; 231 00:13:23,532 --> 00:13:28,131 "Como nos tornamos conscientes dos preconceitos estruturais?"; 232 00:13:28,155 --> 00:13:30,506 "Como essas conjeturas irão nos manter seguros?"; 233 00:13:32,615 --> 00:13:34,547 "A quem elas põem em risco?" 234 00:13:35,649 --> 00:13:38,003 Até que façamos essas perguntas 235 00:13:38,978 --> 00:13:43,602 e insistamos que nossas escolas, tribunais, departamentos de polícia 236 00:13:43,626 --> 00:13:46,168 e todas as instituições façam o mesmo, 237 00:13:47,835 --> 00:13:51,664 continuamos a permitir que o preconceito 238 00:13:51,688 --> 00:13:52,966 nos deixe cegos. 239 00:13:53,348 --> 00:13:55,227 Se deixarmos isso acontecer, 240 00:13:56,066 --> 00:13:59,274 nenhum de nós está realmente a salvo. 241 00:14:02,103 --> 00:14:03,411 Obrigada.