1 00:00:00,910 --> 00:00:02,183 Acum câțiva ani, 2 00:00:02,207 --> 00:00:07,119 eram în avion cu fiul meu care avea doar cinci ani. 3 00:00:08,245 --> 00:00:13,340 Era atât de entuziasmat că zbura cu avionul cu mami! 4 00:00:13,364 --> 00:00:16,304 Își arunca privirea peste tot, verifica orice lucru 5 00:00:16,328 --> 00:00:18,164 și analiza lumea din jurul său. 6 00:00:18,188 --> 00:00:19,818 Vede un bărbat și zice: 7 00:00:19,842 --> 00:00:22,703 „Hei, tipul ăla seamănă cu tati!” 8 00:00:23,882 --> 00:00:25,802 Mă uit la acel bărbat 9 00:00:25,826 --> 00:00:29,556 și nu seamăna deloc cu soțul meu, 10 00:00:29,580 --> 00:00:30,949 absolut deloc. 11 00:00:31,461 --> 00:00:33,797 După care mă uit la lumea din avion 12 00:00:33,821 --> 00:00:39,706 și observ că acest bărbat era singurul de culoare din avion. 13 00:00:40,874 --> 00:00:42,286 Și îmi zic: 14 00:00:42,310 --> 00:00:43,504 „Bine. 15 00:00:44,369 --> 00:00:46,894 E timpul să îi explic fiului meu 16 00:00:46,918 --> 00:00:49,847 că nu toți oamenii de culoare arată la fel”. 17 00:00:49,871 --> 00:00:54,248 Fiul meu se uită la mine și îmi zice: 18 00:00:56,246 --> 00:00:58,617 „Sper să nu jefuiască avionul”. 19 00:00:59,359 --> 00:01:01,874 Îi zic: „Cum? Ce ai zis?” 20 00:01:01,898 --> 00:01:05,326 Și repetă: „Sper ca acel om nu o să jefuiască avionul”. 21 00:01:07,200 --> 00:01:09,952 Îl întreb: „Bine, dar de ce crezi asta? 22 00:01:10,486 --> 00:01:13,149 Știi că tati nu ar jefui avionul”. 23 00:01:13,173 --> 00:01:15,485 Și răspunde: „Da, da, știu”. 24 00:01:16,179 --> 00:01:18,306 Îl întreb: „Dar atunci de ce spui asta?” 25 00:01:20,346 --> 00:01:23,303 Și el se uită la mine cu o față foarte tristă 26 00:01:24,168 --> 00:01:25,422 și zice: 27 00:01:26,890 --> 00:01:28,996 „Nu știu de ce am zis așa. 28 00:01:30,600 --> 00:01:32,958 Nu știu de ce am gândit așa”. 29 00:01:33,724 --> 00:01:37,242 Trăim cu o stratificare rasială atât de severă, 30 00:01:37,266 --> 00:01:42,326 încât și un copil de cinci ani ne poate spune ce urmează să se întâmple, 31 00:01:43,990 --> 00:01:46,097 chiar în absența unui răufăcător, 32 00:01:46,121 --> 00:01:48,730 chiar în absența urii. 33 00:01:50,184 --> 00:01:54,097 Această asociere între infracțiune și culoarea pielii 34 00:01:54,121 --> 00:01:58,455 a pătruns în mintea copilului meu. 35 00:01:59,787 --> 00:02:03,050 Și a atins toți copiii noștri. 36 00:02:04,201 --> 00:02:05,592 Și pe noi toți. 37 00:02:06,793 --> 00:02:10,317 Mințile ne sunt modelate de disparitățile rasiale 38 00:02:10,341 --> 00:02:11,933 pe care le observăm 39 00:02:12,752 --> 00:02:18,093 și de relatările care ne ajută să înțelegem aceste disparități: 40 00:02:19,637 --> 00:02:22,163 „Oamenii aceia sunt răufăcători”. 41 00:02:22,187 --> 00:02:24,112 „Oamenii aceia sunt violenți”. 42 00:02:24,136 --> 00:02:27,101 „Să te ferești de oamenii aceia”. 43 00:02:27,814 --> 00:02:31,005 Când echipa mea de cercetare i-a adus pe oameni în laborator 44 00:02:31,029 --> 00:02:33,312 și le-au fost arătate diferite fețe, 45 00:02:33,336 --> 00:02:40,336 am constatat că expunerea la fețele negre îi face să vadă imagini estompate cu arme 46 00:02:40,360 --> 00:02:43,616 cu o mai mare claritate și viteză. 47 00:02:43,640 --> 00:02:46,994 Prejudecata controlează nu doar ce vedem, 48 00:02:47,018 --> 00:02:48,666 ci și unde privim. 49 00:02:48,690 --> 00:02:52,134 Am constatat că îndemnând oamenii să se gândească la o faptă violentă 50 00:02:52,158 --> 00:02:56,454 îi determină să-și îndrepte privirea spre o față neagră, 51 00:02:56,478 --> 00:02:58,608 îndepărtându-se de o față albă. 52 00:02:58,632 --> 00:03:02,474 Îndemnând polițiștii să se gândească la capturarea cuiva, la folosirea armei 53 00:03:02,498 --> 00:03:03,727 și la arest, 54 00:03:03,751 --> 00:03:07,610 îi face să-și îndrepte privirea spre fețele negre, de asemenea. 55 00:03:07,634 --> 00:03:13,100 Prejudecățile pot infecta fiecare aspect al sistemului nostru de justiție. 56 00:03:13,100 --> 00:03:16,031 Într-un set mare de date al condamnaților la moarte, 57 00:03:16,055 --> 00:03:20,412 am descoperit că trăsăturile negre îți cresc de peste două ori riscul 58 00:03:20,436 --> 00:03:22,493 de a primi o sentință la moarte, 59 00:03:23,494 --> 00:03:25,921 cel puțin în cazul în care victimele erau albe. 60 00:03:25,945 --> 00:03:27,383 Acest efect este semnificativ, 61 00:03:27,407 --> 00:03:30,708 chiar dacă am comparat infracțiuni de o gravitate asemănătoare 62 00:03:30,732 --> 00:03:33,013 și inculpați cu o atractivitate asemănătoare. 63 00:03:33,037 --> 00:03:35,686 Și indiferent ce variabile am eliminat, 64 00:03:35,710 --> 00:03:39,055 am descoperit că oamenii de culoare au fost pedepsiți 65 00:03:39,079 --> 00:03:43,404 direct proporțional cu trăsăturile fizice specifice negrilor: 66 00:03:43,428 --> 00:03:45,309 cu cât era mai negru, 67 00:03:45,333 --> 00:03:47,086 cu atât a fost pedepsit mai dur. 68 00:03:47,110 --> 00:03:51,319 Prejudecățile ne pot influența și modul în care profesorii disciplinează elevii. 69 00:03:51,781 --> 00:03:56,188 Eu și colegii mei am descoperit că profesorii manifestă o dorință 70 00:03:56,212 --> 00:03:59,778 să disciplineze un elev de gimnaziu negru mai aspru 71 00:03:59,802 --> 00:04:00,970 decât un elev alb 72 00:04:00,994 --> 00:04:03,570 pentru același comportament deviant repetat. 73 00:04:03,594 --> 00:04:04,888 Într-un studiu recent, 74 00:04:04,912 --> 00:04:09,270 am descoperit că profesorii tratează elevii negri ca pe un grup, 75 00:04:09,294 --> 00:04:11,725 iar pe elevii albi ca indivizi. 76 00:04:12,126 --> 00:04:15,725 Dacă, de exemplu, un elev negru greșește, 77 00:04:15,749 --> 00:04:20,534 apoi un alt elev negru greșește câteva zile mai târziu, 78 00:04:20,558 --> 00:04:23,786 profesorul reacționează în cazul celui de-al doilea elev negru 79 00:04:23,810 --> 00:04:26,435 ca și cum ar fi greșit de două ori. 80 00:04:26,952 --> 00:04:29,763 Este ca și cum păcatele unui copil 81 00:04:29,787 --> 00:04:31,963 se transmit următorului. 82 00:04:31,987 --> 00:04:35,281 Creăm categorii pentru a înțelege lumea, 83 00:04:35,305 --> 00:04:39,788 pentru a revendica un anumit control și coerență 84 00:04:39,812 --> 00:04:43,902 asupra stimulilor cu care suntem bombardați constant. 85 00:04:43,926 --> 00:04:47,894 Categorizarea și prejudecățile pe care le însămânțează 86 00:04:47,918 --> 00:04:52,940 permit creierului nostru să raționeze mai rapid și mai eficient, 87 00:04:52,964 --> 00:04:56,366 și facem asta instinctiv, bazându-ne pe tipare 88 00:04:56,390 --> 00:04:58,059 care par previzibile. 89 00:04:58,083 --> 00:05:04,026 Deși categoriile pe care le creăm ne permit să luăm decizii rapide, 90 00:05:04,050 --> 00:05:06,552 ele ne întăresc și prejudecățile. 91 00:05:06,576 --> 00:05:09,968 Aceleași lucruri care ne ajută să înțelegem lumea 92 00:05:11,104 --> 00:05:13,084 ne pot și orbi. 93 00:05:13,509 --> 00:05:16,287 Categoriile ne fac alegerile ușoare, 94 00:05:16,311 --> 00:05:17,680 fără efort. 95 00:05:18,956 --> 00:05:21,611 Cu toate acestea, ele presupun o povară grea. 96 00:05:22,158 --> 00:05:23,569 Deci ce putem face? 97 00:05:24,507 --> 00:05:26,998 Cu toții suntem vulnerabili la prejudecăți, 98 00:05:27,022 --> 00:05:29,702 dar nu suntem părtinitori tot timpul. 99 00:05:29,726 --> 00:05:33,370 Există anumite condiții care pot ajuta la apariția prejudecăților 100 00:05:33,394 --> 00:05:35,927 și alte condiții care le pot reprima. 101 00:05:35,951 --> 00:05:37,798 Să vă dau un exemplu. 102 00:05:38,663 --> 00:05:43,223 Mulți oameni cunosc compania de tehnologie Nextdoor. 103 00:05:44,073 --> 00:05:50,526 Întregul lor scop e să creeze cartiere mai puternice, mai sănătoase, mai sigure. 104 00:05:51,468 --> 00:05:54,389 Ei oferă un spațiu online 105 00:05:54,413 --> 00:05:57,562 unde vecinii se pot aduna și împărtăși informații. 106 00:05:57,586 --> 00:06:01,712 Totuși, Nextdoor a descoperit imediat că are o problemă 107 00:06:01,736 --> 00:06:03,404 cu profilarea rasială. 108 00:06:04,012 --> 00:06:05,979 Într-un caz obișnuit, 109 00:06:06,003 --> 00:06:08,399 oamenii privesc în afara ferestrei lor 110 00:06:08,423 --> 00:06:12,472 și văd un bărbat negru în cartierul lor alb 111 00:06:12,496 --> 00:06:17,211 și se gândesc rapid că nu are intenții bune, 112 00:06:17,235 --> 00:06:20,586 chiar și atunci când nu există semne de infracționalitate. 113 00:06:20,610 --> 00:06:23,544 În multe feluri, cum ne comportăm online 114 00:06:23,568 --> 00:06:26,682 reflectă modul în care ne comportăm în lume. 115 00:06:27,117 --> 00:06:31,062 Dar ce nu vrem să facem e să creăm un sistem ușor de utilizat 116 00:06:31,086 --> 00:06:35,249 care poate amplifica prejudecățile și adânci disparitățile rasiale, 117 00:06:36,129 --> 00:06:38,395 în loc să le demonteze. 118 00:06:38,863 --> 00:06:42,292 Cofondatorul Nextdoor m-a contactat pe mine și pe alții 119 00:06:42,316 --> 00:06:44,447 pentru a-și da seama ce să facă. 120 00:06:44,471 --> 00:06:48,417 Și și-au dat seama că pentru a limita profilarea rasială pe platformă, 121 00:06:48,441 --> 00:06:50,363 va fi nevoie să adauge fricțiune; 122 00:06:50,387 --> 00:06:53,045 adică să încetinească oamenii. 123 00:06:53,069 --> 00:06:55,264 Nextdoor a avut de ales, 124 00:06:55,288 --> 00:06:57,766 și împotriva oricărui impuls, 125 00:06:57,790 --> 00:06:59,906 au decis să adauge fricțiune. 126 00:07:00,397 --> 00:07:03,837 Și au făcut asta adăugând o simplă listă. 127 00:07:03,861 --> 00:07:05,531 Pe ea erau trei puncte. 128 00:07:06,111 --> 00:07:09,052 În primul rând, au cerut utilizatorilor să facă o pauză 129 00:07:09,076 --> 00:07:14,193 și să se gândească: „Ce făcea această persoană ca să fie suspectă?” 130 00:07:14,876 --> 00:07:19,409 Categoria „bărbat negru” nu constituie temei pentru suspiciuni. 131 00:07:19,433 --> 00:07:24,572 Apoi au cerut utilizatorilor să descrie caracteristicile fizice ale persoanei, 132 00:07:24,596 --> 00:07:27,031 nu doar rasa și sexul. 133 00:07:27,642 --> 00:07:31,025 În al treilea rând, și-au dat seama că o mulțime de oameni 134 00:07:31,049 --> 00:07:33,977 nu păreau să știe ce înseamnă profilarea rasială, 135 00:07:34,001 --> 00:07:35,960 și nici că o foloseau. 136 00:07:36,462 --> 00:07:39,656 Nextdoor le-a furnizat o definiție 137 00:07:39,680 --> 00:07:42,582 și le-a spus că e strict interzisă. 138 00:07:43,071 --> 00:07:46,097 Majoritatea dintre voi ați văzut aceste anunțuri în aeroporturi 139 00:07:46,097 --> 00:07:49,409 și în stațiile de metrou: „Dacă vezi ceva, spune ceva”. 140 00:07:49,928 --> 00:07:52,742 Nextdoor a încercat să modifice asta. 141 00:07:53,584 --> 00:07:56,156 „Dacă vezi ceva suspect, 142 00:07:56,180 --> 00:07:58,253 spune ceva specific.” 143 00:07:59,491 --> 00:08:03,937 Și folosind această strategie, prin încetinirea oamenilor, 144 00:08:03,961 --> 00:08:09,652 Nextdoor a reușit să scadă profilarea rasială cu 75 la sută. 145 00:08:10,496 --> 00:08:12,586 Oamenii îmi spun adesea: 146 00:08:12,610 --> 00:08:17,323 „Nu puteți adăuga fricțiune în fiecare situație, în fiecare context, 147 00:08:17,347 --> 00:08:21,993 și mai ales pentru persoanele care iau mereu decizii rapide”. 148 00:08:22,730 --> 00:08:25,293 Dar se dovedește că putem adăuga fricțiune 149 00:08:25,317 --> 00:08:27,833 la mai multe situații decât credem. 150 00:08:28,031 --> 00:08:30,409 Lucrând cu Departamentul de Poliție din Oakland 151 00:08:30,409 --> 00:08:31,546 în California, 152 00:08:31,570 --> 00:08:35,426 eu și câțiva colegi am putut ajuta departamentul 153 00:08:35,450 --> 00:08:38,121 să reducă numărul de opriri pe care le-au făcut 154 00:08:38,145 --> 00:08:41,745 în cazul unor oameni care nu săvârșeau nicio infracțiune gravă. 155 00:08:41,769 --> 00:08:44,134 Și am făcut asta presând polițiștii 156 00:08:44,158 --> 00:08:48,601 să-și pună o întrebare înainte de fiecare oprire pe care au făcut-o: 157 00:08:49,451 --> 00:08:52,466 „Există informații care justifică oprirea aceasta, 158 00:08:52,490 --> 00:08:53,941 da sau nu?” 159 00:08:55,353 --> 00:08:56,749 Cu alte cuvinte, 160 00:08:57,621 --> 00:09:02,105 am informații anterioare pentru a conecta această persoană 161 00:09:02,129 --> 00:09:03,730 cu o anumită infracțiune? 162 00:09:04,587 --> 00:09:06,045 Adăugând această întrebare 163 00:09:06,069 --> 00:09:09,402 la formularul pe care polițiștii îl completează în timpul unei opriri, 164 00:09:09,402 --> 00:09:10,981 încetinesc, fac o pauză, 165 00:09:11,005 --> 00:09:15,225 se gândesc: „De ce trag pe dreapta această persoană?” 166 00:09:16,721 --> 00:09:22,282 În 2017, înainte de a adăuga această întrebare în formular, 167 00:09:23,655 --> 00:09:27,601 polițiștii au făcut aproximativ 32.000 de opriri de-a lungul orașului. 168 00:09:27,625 --> 00:09:31,740 În anul următor, cu adăugarea acestei întrebări, 169 00:09:31,764 --> 00:09:34,208 a scăzut la 19.000 de opriri. 170 00:09:34,232 --> 00:09:39,193 Opririle afro-americanilor au scăzut cu 43 la sută. 171 00:09:39,905 --> 00:09:44,343 Și oprirea a mai puțini oameni de culoare nu a făcut orașul mai periculos. 172 00:09:44,367 --> 00:09:47,101 De fapt, rata criminalității a continuat să scadă, 173 00:09:47,125 --> 00:09:50,462 iar orașul a devenit mai sigur pentru toată lumea. 174 00:09:50,486 --> 00:09:55,841 Deci o soluție poate veni din reducerea numărul de opriri inutile. 175 00:09:56,285 --> 00:10:00,555 Alta poate proveni din îmbunătățirea calității opririlor 176 00:10:00,579 --> 00:10:02,204 pe care polițiștii le fac. 177 00:10:02,512 --> 00:10:05,108 Și tehnologia ne poate ajuta aici. 178 00:10:05,132 --> 00:10:07,547 Știm cu toții despre moartea lui George Floyd, 179 00:10:08,499 --> 00:10:13,271 pentru că cei care au încercat să-i vină în ajutor aveau camere de telefon mobil 180 00:10:13,295 --> 00:10:18,726 pentru a înregistra acea oribilă și fatală confruntare cu poliția. 181 00:10:18,750 --> 00:10:23,781 Dar avem tot felul de tehnologii pe care nu le folosim îndeajuns. 182 00:10:23,805 --> 00:10:26,308 Secțiile de poliție din toată țara 183 00:10:26,332 --> 00:10:29,885 sunt obligate să aibă camere purtate pe corp, 184 00:10:29,909 --> 00:10:35,839 deci avem înregistrări nu numai cu cele mai extreme și mai groaznice confruntări, 185 00:10:35,863 --> 00:10:38,617 ci și cu interacțiuni cotidiene. 186 00:10:38,641 --> 00:10:41,418 Cu o echipa interdisciplinară de la Stanford, 187 00:10:41,442 --> 00:10:44,129 am început să folosim tehnici de învățare automată 188 00:10:44,153 --> 00:10:47,520 pentru a analiza un număr mare de confruntări. 189 00:10:47,544 --> 00:10:52,155 Asta ca să înțelegem mai bine ce se întâmplă în opririle de rutină din trafic. 190 00:10:52,179 --> 00:10:54,938 Am descoperit că chiar și când 191 00:10:54,938 --> 00:10:58,020 polițiștii se comportă profesionist, 192 00:10:58,710 --> 00:11:03,322 vorbesc șoferilor negri mai puțin respectuos decât șoferilor albi. 193 00:11:04,052 --> 00:11:08,127 De fapt, numai din cuvintele pe care polițiștii le folosesc, 194 00:11:08,151 --> 00:11:13,313 putem prezice dacă vorbeau cu un șofer negru sau cu unul alb. 195 00:11:13,337 --> 00:11:19,099 Problema e că majoritatea materialelor video din aceste camere 196 00:11:19,123 --> 00:11:21,210 nu sunt folosit de departamentele de poliție 197 00:11:21,234 --> 00:11:23,510 pentru a înțelege ce se întâmplă pe stradă 198 00:11:23,534 --> 00:11:25,777 sau pentru a instrui polițiștii. 199 00:11:26,554 --> 00:11:28,012 Și asta e o rușine. 200 00:11:28,796 --> 00:11:33,585 Cum se transformă o oprire de rutină într-o confruntare mortală? 201 00:11:33,609 --> 00:11:36,279 Cum s-a întâmplat asta în cazul lui George Floyd? 202 00:11:37,588 --> 00:11:39,670 Cum s-a întâmplat în cazul altora? 203 00:11:39,694 --> 00:11:43,090 Când fiul meu cel mare avea 16 ani, 204 00:11:43,114 --> 00:11:46,253 a descoperit că atunci când oamenii albi îl privesc, 205 00:11:46,277 --> 00:11:47,838 simt frică. 206 00:11:49,123 --> 00:11:51,784 În lift este cel mai rău, a spus el. 207 00:11:52,313 --> 00:11:54,644 Când ușile se închid, 208 00:11:54,668 --> 00:11:57,751 oamenii sunt prinși în acest spațiu minuscul 209 00:11:57,775 --> 00:12:02,242 cu cineva pe care au fost învățați să îl asocieze cu pericolul. 210 00:12:02,744 --> 00:12:05,964 Fiul meu simte disconfortul lor, 211 00:12:05,988 --> 00:12:09,145 și le zâmbește ca să-i relaxeze, 212 00:12:09,169 --> 00:12:10,938 să le calmeze temerile. 213 00:12:11,351 --> 00:12:13,296 Când vorbește, 214 00:12:13,320 --> 00:12:15,003 trupurile lor se relaxează. 215 00:12:15,442 --> 00:12:17,345 Respiră mai ușor. 216 00:12:17,369 --> 00:12:19,900 Le place cadența lui, 217 00:12:19,924 --> 00:12:22,241 dicția lui, alegerea lui de cuvinte. 218 00:12:22,986 --> 00:12:24,829 Pare unul de-al lor. 219 00:12:24,853 --> 00:12:29,583 Credeam că fiul meu e un extrovertit natural ca tatăl său. 220 00:12:29,607 --> 00:12:33,157 Dar mi-am dat seama în acel moment, în acea conversație, 221 00:12:34,143 --> 00:12:39,221 că zâmbetul lui nu era un semn că voia să se conecteze 222 00:12:39,245 --> 00:12:41,209 cu niște străini. 223 00:12:41,920 --> 00:12:45,572 Era un talisman pe care-l folosea să se protejeze, 224 00:12:45,596 --> 00:12:52,345 o abilitate de supraviețuire pe care o perfecționase după mii de experiențe. 225 00:12:52,387 --> 00:12:57,558 Învățase să se adapteze tensiunii pe care culoarea pielii lui o generase 226 00:12:59,026 --> 00:13:01,693 și care îi punea propria viață în pericol. 227 00:13:02,619 --> 00:13:06,402 Știm că creierul e construit pentru a avea prejudecăți, 228 00:13:06,426 --> 00:13:10,891 și o modalitate de a întrerupe aceste prejudecăți e să ne oprim, să reflectăm 229 00:13:10,915 --> 00:13:13,220 asupra dovezilor presupunerilor noastre. 230 00:13:13,244 --> 00:13:14,999 Deci trebuie să ne întrebăm: 231 00:13:15,023 --> 00:13:19,688 ce presupuneri avem când pășim într-un lift? 232 00:13:21,776 --> 00:13:23,087 Sau într-un avion? 233 00:13:23,532 --> 00:13:28,131 Cum devenim conștienți de prejudecățile noastre inconștiente? 234 00:13:28,155 --> 00:13:30,506 Pe cine menține în siguranță aceste presupuneri? 235 00:13:32,615 --> 00:13:34,547 Pe cine pun în pericol? 236 00:13:35,649 --> 00:13:38,003 Dacă nu ne punem aceste întrebări 237 00:13:38,978 --> 00:13:43,602 și nu insistăm ca școlile și instanțele și departamentele noastre de poliție 238 00:13:43,626 --> 00:13:46,168 și fiecare instituție să facă același lucru, 239 00:13:47,835 --> 00:13:51,664 vom continua să permitem prejudecăților 240 00:13:51,688 --> 00:13:52,966 să ne orbească. 241 00:13:53,348 --> 00:13:54,757 Și dacă permitem asta, 242 00:13:56,066 --> 00:13:59,274 niciunul dintre noi nu e cu adevărat în siguranță. 243 00:14:02,103 --> 00:14:03,411 Vă mulțumesc!