0:00:00.910,0:00:02.183 Há uns anos, 0:00:02.207,0:00:07.059 eu ia num avião com o meu filho[br]que, na época, tinha apenas cinco anos. 0:00:08.245,0:00:13.270 O meu filho estava muito excitado[br]por ir naquele avião com a mãe. 0:00:13.364,0:00:16.304 Olha a toda a volta, verificando as coisas 0:00:16.328,0:00:18.164 e observa as pessoas. 0:00:18.188,0:00:19.818 Vê um homem e diz: 0:00:19.842,0:00:22.850 "Olha! Aquele homem parece o pai!" 0:00:23.882,0:00:25.802 Eu olho para o homem 0:00:25.826,0:00:29.556 e ele não se parece nada[br]com o meu marido, 0:00:29.580,0:00:31.319 nem um pouco. 0:00:31.461,0:00:33.797 Então começo a olhar [br]por todo o avião 0:00:33.821,0:00:39.706 e reparo que aquele homem [br]era o único homem negro no avião. 0:00:40.874,0:00:42.286 E pensei: 0:00:42.310,0:00:43.742 "Tudo bem. 0:00:44.369,0:00:46.894 "Vou ter de ter uma [br]conversinha com o meu filho 0:00:46.918,0:00:49.847 "sobre como nem todos [br]os negros serem parecidos." 0:00:49.871,0:00:54.248 O meu filho levanta a cabeça e diz-me: 0:00:56.246,0:00:58.809 "Espero que ele não roube o avião." 0:00:59.359,0:01:01.874 E eu disse: "O quê? O que é que disseste?" 0:01:01.898,0:01:05.387 E ele responde: "Espero[br]que aquele homem não roube o avião." 0:01:07.200,0:01:10.358 Então eu disse: "Porque é que dizes isso? 0:01:10.486,0:01:13.149 "Sabes que o pai não roubaria um avião." 0:01:13.173,0:01:15.485 E ele diz: "Sim, sim, bem, eu sei." 0:01:16.179,0:01:18.889 Então eu disse: "Então, [br]por que é que disseste isso?" 0:01:20.346,0:01:23.564 Ele olhou para mim[br]com uma cara muito triste 0:01:24.168,0:01:25.639 e disse: 0:01:26.890,0:01:29.481 "Não sei porque é que disse isso. 0:01:30.600,0:01:33.234 "Não sei porque é que pensei nisso." 0:01:33.724,0:01:37.242 Estamos a viver uma estratificação [br]racial tão profunda 0:01:37.266,0:01:42.326 que até uma criança de cinco anos pode[br]dizer-nos o que vai acontecer em seguida 0:01:43.990,0:01:46.097 mesmo sem nenhum malfeitor, 0:01:46.121,0:01:48.957 mesmo sem ódio explícito. 0:01:50.184,0:01:54.097 Essa associação[br]entre pessoas negras e crime 0:01:54.121,0:01:58.455 entrou na mente[br]do meu filho de cinco anos. 0:01:59.787,0:02:03.660 Entra na mente[br]de todas as nossas crianças, 0:02:04.201,0:02:05.853 de todos nós. 0:02:06.793,0:02:10.317 As nossas mentes são modeladas[br]pelas disparidades raciais 0:02:10.341,0:02:12.351 que vemos no mundo 0:02:12.752,0:02:18.093 e as narrativas que nos ajudam [br]a entender as disparidades que vemos: 0:02:19.637,0:02:22.163 "Aquelas pessoas são criminosas." 0:02:22.187,0:02:24.112 "Aquelas pessoas são violentas." 0:02:24.136,0:02:27.375 "Devemos temer aquelas pessoas." 0:02:27.814,0:02:31.596 Quando a minha equipa de investigação[br]levou pessoas para o meu laboratório 0:02:31.616,0:02:33.446 e lhes mostrou rostos, 0:02:33.446,0:02:40.336 descobrimos que mostrar-lhes rostos negros[br]levou-as a ver imagens de armas desfocadas 0:02:40.360,0:02:43.616 com maior nitidez e mais depressa. 0:02:43.640,0:02:46.994 O preconceito não só[br]pode controlar o que vemos, 0:02:47.018,0:02:48.995 mas também para onde olhamos. 0:02:48.995,0:02:52.134 Descobrimos que induzir pessoas [br]a pensarem em crimes violentos 0:02:52.158,0:02:56.454 pode levá-las a dirigir[br]os olhos para um rosto negro 0:02:56.478,0:02:58.608 e desviá-los de um rosto branco. 0:02:58.632,0:03:02.474 Estimular polícias a pensar [br]em capturar e disparar 0:03:02.498,0:03:03.727 e prender 0:03:03.751,0:03:07.610 também leva os olhos deles[br]na direção de rostos negros. 0:03:07.634,0:03:10.620 O preconceito pode infetar[br]todos os aspetos 0:03:10.660,0:03:13.100 do nosso sistema de justiça criminal. 0:03:13.100,0:03:16.601 Num grande conjunto de dados[br]de réus elegíveis para a pena morte, 0:03:16.665,0:03:20.412 descobrimos que ser mais negro[br]mais que duplicou as hipóteses desses réus 0:03:20.436,0:03:23.066 de receberem uma sentença de morte, 0:03:23.494,0:03:25.921 pelo menos quando as vítimas[br]deles eram brancas. 0:03:25.945,0:03:27.603 Esse efeito é significativo 0:03:27.637,0:03:30.708 mesmo que controlássemos [br]a gravidade do crime 0:03:30.732,0:03:33.013 e a atração do réu. 0:03:33.037,0:03:35.686 Fosse o que fosse que controlámos, 0:03:35.710,0:03:39.055 descobrimos que [br]as pessoas negras eram punidas 0:03:39.079,0:03:43.244 na proporção da negritude [br]das suas características físicas: 0:03:43.428,0:03:46.899 quanto mais negras,[br]mais merecedoras de morte. 0:03:47.110,0:03:49.281 O preconceito também pode influenciar 0:03:49.311,0:03:51.871 a forma como os professores[br]ensinam os alunos. 0:03:51.901,0:03:56.188 Os meus colegas e eu descobrimos[br]que os professores exprimem o desejo 0:03:56.212,0:03:59.638 de castigar um aluno negro [br]do ensino médio mais severamente 0:03:59.692,0:04:01.150 do que um aluno branco 0:04:01.204,0:04:03.570 pelas mesmas infrações repetidas. 0:04:03.594,0:04:05.168 Num estudo recente, 0:04:05.192,0:04:09.250 estamos a descobrir que os professores[br]tratam os alunos negros como um grupo 0:04:09.294,0:04:12.079 mas tratam os alunos brancos[br]como indivíduos. 0:04:12.126,0:04:15.725 Se, por exemplo,[br]um aluno negro se porta mal 0:04:15.749,0:04:20.323 e um aluno negro diferente[br]se porta mal uns dias depois, 0:04:20.558,0:04:23.786 o professor reage[br]àquele segundo estudante negro 0:04:23.810,0:04:26.732 como se ele se tivesse portado [br]mal duas vezes. 0:04:26.952,0:04:29.763 É como se os erros de uma criança 0:04:29.787,0:04:31.963 se empilhassem em cima de outra. 0:04:32.107,0:04:35.281 Criamos categorias[br]para entender o mundo, 0:04:35.305,0:04:39.788 para impor algum controlo e coerência 0:04:39.812,0:04:43.902 aos estímulos com que estamos [br]constantemente a ser bombardeados. 0:04:43.926,0:04:47.894 A categorização e o preconceito[br]que isso semeia 0:04:47.918,0:04:52.940 permite que o nosso cérebro faça[br]julgamentos mais depressa e eficazmente, 0:04:52.964,0:04:56.366 e fazemos isso instintivamente[br]com base em padrões 0:04:56.390,0:04:58.059 que parecem previsíveis. 0:04:58.193,0:05:04.026 Tal como as categorias que criamos[br]nos permitem tomar decisões rápidas, 0:05:04.050,0:05:06.552 também reforçam os preconceitos. 0:05:06.576,0:05:10.226 Então, as mesmas coisas[br]que nos ajudam a ver o mundo 0:05:11.104,0:05:13.444 também podem impedir-nos de o ver. 0:05:13.509,0:05:16.287 Tornam simples as nossas escolhas, 0:05:16.311,0:05:18.191 sem conflitos. 0:05:18.956,0:05:21.688 No entanto, cobram um preço caro. 0:05:22.158,0:05:24.069 Então o que podemos fazer? 0:05:24.507,0:05:26.998 Todos somos vulneráveis a preconceitos, 0:05:27.022,0:05:29.702 mas não agimos sempre com preconceitos. 0:05:29.726,0:05:33.370 Há certas condições que podem[br]trazer o preconceito à tona 0:05:33.394,0:05:35.927 e outras condições que podem abafá-lo. 0:05:35.961,0:05:38.153 Vou dar-vos um exemplo. 0:05:38.583,0:05:43.456 Muitas pessoas conhecem[br]a empresa de tecnologia Nextdoor. 0:05:44.073,0:05:50.526 Todo o seu objetivo é criar bairros[br]mais fortes, mais saudáveis ​​e seguros. 0:05:51.468,0:05:54.389 Assim, oferecem um espaço "online" 0:05:54.413,0:05:57.562 onde os vizinhos podem reunir-se[br]e partilhar informações. 0:05:57.586,0:06:01.712 No entanto, a Nextdoor cedo descobriu [br]que tinham um problema 0:06:01.736,0:06:03.732 com o perfil racial. 0:06:04.012,0:06:05.979 No caso típico, 0:06:06.003,0:06:08.399 as pessoas olhavam pela janela 0:06:08.423,0:06:12.472 e viam um homem negro[br]no seu bairro quase todo branco 0:06:12.496,0:06:16.741 e logo julgavam rapidamente[br]que ele estava a preparar alguma, 0:06:17.235,0:06:20.586 mesmo quando não havia nenhum[br]indício de delito criminal. 0:06:20.610,0:06:23.544 De muitas formas, a forma[br]como nos portamos "online" 0:06:23.568,0:06:26.756 é um reflexo de como [br]nos portamos no mundo. 0:06:27.117,0:06:31.062 Mas não queremos criar[br]um sistema fácil de usar 0:06:31.086,0:06:35.469 que possa amplificar o preconceito[br]e aprofundar as disparidades raciais, 0:06:36.129,0:06:38.547 em vez de desmontá-los. 0:06:38.863,0:06:42.292 Então, o cofundador da Nextdoor[br]procurou-me a mim e a outros 0:06:42.316,0:06:44.447 para tentar descobrir o que fazer. 0:06:44.471,0:06:48.417 E perceberam que, se restringissem[br]o perfil racial na plataforma, 0:06:48.441,0:06:50.533 iam ter de adicionar conflitos; 0:06:50.557,0:06:53.045 isto é, eles teriam de [br]acalmar as pessoas. 0:06:53.069,0:06:55.731 Então, a Nextdoor[br]teve de fazer uma escolha, 0:06:55.731,0:06:57.790 e contra todos os impulsos, 0:06:57.790,0:07:00.353 decidiram adicionar o conflito. 0:07:00.397,0:07:03.837 Fizeram isso adicionando[br]uma lista de verificação simples. 0:07:03.861,0:07:05.966 A lista tinha três itens. 0:07:06.111,0:07:10.012 Primeiro, pediam aos utilizadores[br]que fizessem uma pausa e pensassem: 0:07:10.094,0:07:14.193 "O que é que aquela pessoa [br]estava a fazer que o tornou suspeito?" 0:07:14.876,0:07:19.409 A categoria "homem negro"[br]não é motivo para suspeita. 0:07:19.513,0:07:21.676 Segundo, pediam aos utilizadores 0:07:21.676,0:07:24.576 para descreverem[br]as características físicas, 0:07:24.596,0:07:27.274 não apenas a sua etnia e género. 0:07:27.642,0:07:31.025 Terceiro, eles perceberam [br]que muitas pessoas 0:07:31.049,0:07:33.977 pareciam não saber [br]o que era um perfil racial, 0:07:34.001,0:07:36.400 nem que estavam envolvidos nisso. 0:07:36.542,0:07:39.656 Então a Nextdoor[br]forneceu-lhes uma definição 0:07:39.680,0:07:43.045 e disse-lhes que aquilo era[br]estritamente proibido. 0:07:43.071,0:07:45.893 Muitos de vocês já viram[br]esses sinais nos aeroportos 0:07:45.927,0:07:49.515 e nas estações de metro:[br]"Se vir alguma coisa, diga alguma coisa." 0:07:49.928,0:07:53.032 A Nextdoor tentou modificar isso. 0:07:53.584,0:07:56.156 "Se vir alguma coisa suspeita, 0:07:56.180,0:07:58.512 "diga uma coisa específica." 0:07:59.491,0:08:03.737 Usando esta estratégia,[br]fazendo as pessoas caírem em si, 0:08:03.961,0:08:09.652 a Nextdoor conseguiu conter[br]o perfil racial em 75%. 0:08:10.496,0:08:12.586 Agora, as pessoas costumam dizer-me: 0:08:12.610,0:08:17.323 "Não podemos adicionar conflitos[br]em todas as situações, em todo o contexto, 0:08:17.347,0:08:21.993 "especialmente em pessoas que tomam[br]decisões em frações de segundos." 0:08:22.730,0:08:25.293 Mas acontece que podemos [br]adicionar conflitos 0:08:25.317,0:08:27.759 em mais situações do que pensamos. 0:08:27.961,0:08:31.509 Trabalhando com o Departamento[br]de Polícia de Oakland, na Califórnia, 0:08:31.570,0:08:35.426 eu e vários colegas[br]conseguimos ajudar o departamento 0:08:35.450,0:08:38.121 a reduzir o número[br]de detenções que eles faziam 0:08:38.145,0:08:41.745 de pessoas que não estavam[br]a cometer crimes graves. 0:08:41.859,0:08:44.134 Fizemos isso incentivando os agentes 0:08:44.134,0:08:48.717 a interrogarem-se antes[br]de cada detenção que fizessem: 0:08:49.451,0:08:53.739 "Esta detenção é motivada[br]pela inteligência, sim ou não? 0:08:55.353,0:08:57.009 "Por outras palavras, 0:08:57.621,0:09:02.105 "eu tenho informações prévias[br]para relacionar esta pessoa em particular 0:09:02.129,0:09:04.240 "com um crime específico?" 0:09:04.587,0:09:06.045 Ao adicionar esta pergunta 0:09:06.069,0:09:09.148 no formulário que os agentes[br]preenchem durante uma detenção, 0:09:09.172,0:09:12.045 eles caem em si, fazem uma pausa e pensam: 0:09:12.132,0:09:15.425 "Porque é que estou a considerar[br]deter esta pessoa? " 0:09:16.721,0:09:22.282 Em 2017, antes de adicionarmos[br]esta pergunta inteligente ao formulário, 0:09:23.655,0:09:27.601 os agentes fizeram cerca de [br]32 000 detenções pela cidade. 0:09:27.625,0:09:31.740 No ano seguinte,[br]com a adição desta pergunta, 0:09:31.764,0:09:34.208 as detenções caíram para 19 000. 0:09:34.462,0:09:39.193 Só as detenções de afro-americanos [br]caíram em 43%. 0:09:39.905,0:09:44.343 E deter menos pessoas negras[br]não tornou a cidade mais perigosa. 0:09:44.367,0:09:47.101 Na verdade, a taxa de criminalidade [br]continuou a cair, 0:09:47.125,0:09:50.462 e a cidade ficou mais segura para todos. 0:09:50.486,0:09:55.841 Portanto, uma solução pode vir da redução[br]do número de detenções desnecessárias. 0:09:56.285,0:10:00.555 Outra solução pode vir da melhoria[br]da qualidade das detenções 0:10:00.579,0:10:02.414 que os agentes fazem. 0:10:02.512,0:10:05.108 Aqui, a tecnologia pode ajudar-nos. 0:10:05.132,0:10:08.227 Todos ouvimos falar[br]da morte de George Floyd 0:10:08.499,0:10:13.271 porque aqueles que tentaram ajudá-lo[br]seguravam câmaras de telemóvel 0:10:13.295,0:10:18.360 para registar aquele terrível[br]e fatal encontro com a polícia. 0:10:18.750,0:10:23.781 Mas temos todo o tipo de tecnologia[br]que não estamos a usar como deve ser. 0:10:23.805,0:10:26.308 Os departamentos de polícia em todo o país 0:10:26.332,0:10:29.885 são hoje obrigados a usar[br]câmaras junto ao corpo 0:10:29.909,0:10:35.839 por isso temos gravações não só[br]dos encontros mais extremos e terríveis 0:10:35.863,0:10:38.617 como de interações quotidianas. 0:10:38.641,0:10:41.418 Com uma equipa [br]interdisciplinar em Stanford, 0:10:41.442,0:10:44.129 começámos a usar[br]técnicas de aprendizagem de máquinas 0:10:44.153,0:10:47.520 para analisar grande quantidade[br]de encontros. 0:10:47.544,0:10:52.155 Isto é para entender melhor o que acontece[br]nos "auto-stops" rotineiros. 0:10:52.229,0:10:54.334 Descobrimos que, 0:10:54.358,0:10:58.020 mesmo quando os polícias[br]se portam profissionalmente, 0:10:58.860,0:11:03.416 falam com os motoristas negros com menos[br]respeito do que com os motoristas brancos. 0:11:04.052,0:11:08.127 De facto, segundo as palavras[br]que os agentes usam, 0:11:08.151,0:11:13.313 pudemos prever se eles estavam a falar[br]com um motorista negro ou branco. 0:11:13.337,0:11:19.099 O problema é que a grande maioria[br]das filmagens dessas câmaras 0:11:19.099,0:11:21.304 não é utilizada pelos [br]departamentos da polícia 0:11:21.304,0:11:23.510 para perceberem o que está[br]a acontecer nas ruas 0:11:23.534,0:11:26.017 ou para treinar agentes. 0:11:26.554,0:11:28.321 E isso é uma pena. 0:11:28.796,0:11:33.585 Como um "auto-stop" de rotina [br]se transforma num encontro mortal? 0:11:33.609,0:11:36.569 Como é que isso aconteceu[br]no caso de George Floyd? 0:11:37.588,0:11:39.670 Como é que isso aconteceu com outros? 0:11:39.694,0:11:43.150 Quando o meu filho mais velho[br]tinha 16 anos, 0:11:43.194,0:11:46.253 ele descobriu que,[br]quando os brancos olham para ele, 0:11:46.277,0:11:48.213 eles sentem medo. 0:11:49.123,0:11:51.931 Os elevadores são os piores, disse ele. 0:11:52.313,0:11:54.644 Quando essas portas se fecham, 0:11:54.668,0:11:57.751 as pessoas ficam presas [br]naquele pequeno espaço 0:11:57.775,0:12:02.333 com alguém que aprenderam[br]a associar com perigo. 0:12:02.744,0:12:05.964 O meu filho sente o desconforto deles 0:12:05.988,0:12:09.145 e sorri para os pôr à vontade, 0:12:09.169,0:12:11.147 para acalmar os seus medos. 0:12:11.351,0:12:13.296 Quando ele fala, 0:12:13.320,0:12:15.323 os corpos deles relaxam. 0:12:15.442,0:12:17.345 Eles respiram mais facilmente. 0:12:17.369,0:12:19.900 Sentem prazer na sua cadência, 0:12:19.924,0:12:22.603 na sua dicção,[br]na sua escolha das palavras. 0:12:22.986,0:12:24.829 Ele soa como um deles. 0:12:24.853,0:12:29.583 Eu pensava que o meu filho[br]era um extrovertido natural como o pai. 0:12:29.607,0:12:34.077 Mas naquele momento,[br]naquela conversa, percebi 0:12:34.233,0:12:38.531 que o sorriso dele não era um sinal 0:12:38.555,0:12:41.650 de que ele queria[br]relacionar-se com estranhos. 0:12:41.920,0:12:45.332 Era um talismã que ele usava[br]para se proteger, 0:12:45.596,0:12:51.815 uma aptidão de sobrevivência que ele [br]aperfeiçoou nas viagens de elevador. 0:12:52.416,0:12:57.587 Ele estava a aprender a ajustar a tensão[br]que a cor da sua pele gerava 0:12:59.026,0:13:02.002 e que colocava em risco a sua vida. 0:13:02.619,0:13:06.402 Sabemos que o cérebro [br]está programado para o preconceito, 0:13:06.426,0:13:10.891 e uma maneira de interromper esse [br]preconceito é fazer uma pausa e refletir 0:13:10.915,0:13:13.220 na evidência das nossas suposições. 0:13:13.244,0:13:14.999 Então, precisamos de perguntar: 0:13:15.023,0:13:19.688 Que suposições trazemos[br]quando entramos num elevador? 0:13:21.776,0:13:23.322 Ou num avião? 0:13:23.532,0:13:28.021 Como tomamos consciência[br]dos nossos preconceitos inconscientes? 0:13:28.155,0:13:30.843 Quem é que se sente seguro[br]com essas suposições? 0:13:32.615,0:13:35.017 Quem é que elas colocam em risco? 0:13:35.649,0:13:38.633 Enquanto não fizermos essas perguntas 0:13:38.978,0:13:43.602 e não insistirmos que as escolas, [br]os tribunais e os departamentos policiais 0:13:43.626,0:13:46.518 e todas as instituições façam o mesmo, 0:13:47.835,0:13:52.834 continuaremos a permitir[br]que os preconceitos nos ceguem. 0:13:53.348,0:13:55.497 E se assim for, 0:13:56.066,0:13:59.795 nenhum de nós está verdadeiramente seguro. 0:14:02.103,0:14:03.645 Obrigada.