1 00:00:00,910 --> 00:00:02,183 Pre nekoliko godina 2 00:00:02,207 --> 00:00:07,119 bila sam u avionu sa svojim sinom koji je tada imao pet godina. 3 00:00:08,245 --> 00:00:13,340 Moj je sin bio tako uzbuđen što je u avionu sa mamom. 4 00:00:13,364 --> 00:00:16,304 Gledao je okolo, proučavao stvari oko sebe 5 00:00:16,328 --> 00:00:18,164 i proučavao je ljude. 6 00:00:18,188 --> 00:00:19,818 Ugledao je jednog čoveka i rekao: 7 00:00:19,842 --> 00:00:22,703 "Hej! Onaj čovek liči na tatu!" 8 00:00:23,882 --> 00:00:25,802 Pogledala sam u tog čoveka 9 00:00:25,826 --> 00:00:29,556 i on uopšte nije ličio na mog muža, 10 00:00:29,580 --> 00:00:30,949 ali baš ni u čemu. 11 00:00:31,461 --> 00:00:33,797 A onda sam počela da gledam po avionu 12 00:00:33,821 --> 00:00:39,706 i primetila sam da je ovaj čovek bio jedini crnac u avionu. 13 00:00:40,874 --> 00:00:42,286 Pomislila sam: 14 00:00:42,310 --> 00:00:43,504 "U redu. 15 00:00:44,369 --> 00:00:46,894 Moraću malo da popričam sa svojim sinom 16 00:00:46,918 --> 00:00:49,847 o tome kako ne liče svi crnci jedni na druge." 17 00:00:49,871 --> 00:00:54,248 Moj je sin podigao glavu i rekao: 18 00:00:56,246 --> 00:00:58,617 "Nadam se da neće opljačkati avion." 19 00:00:59,359 --> 00:01:01,874 "Šta? Šta si to rekao?", upitala sam. 20 00:01:01,898 --> 00:01:05,326 A on će: "Pa, nadam se da taj čovek neće opljačkati avion." 21 00:01:07,200 --> 00:01:09,952 "Ali, zašto bi ti pomislio tako nešto?", pitala sam. 22 00:01:10,486 --> 00:01:13,149 "Znaš da tata ne bi opljačkao avion." 23 00:01:13,173 --> 00:01:15,485 "Da, da, da, pa znam", odgovorio je. 24 00:01:16,179 --> 00:01:18,306 "Pa, zašto bi onda to rekao?", upitah. 25 00:01:20,346 --> 00:01:23,493 A on me je pogledao sa zaista tužnim izrazom lica 26 00:01:24,168 --> 00:01:25,422 i rekao: 27 00:01:26,890 --> 00:01:28,996 "Ne znam zašto sam to rekao. 28 00:01:30,600 --> 00:01:32,958 Ne znam zašto sam to pomislio." 29 00:01:33,724 --> 00:01:37,242 Živimo u vreme tako snažne rasne stratifikacije 30 00:01:37,266 --> 00:01:42,326 da nam čak i petogodišnjak može reći šta bi trebalo da usledi, 31 00:01:43,990 --> 00:01:46,097 čak i bez prestupnika, 32 00:01:46,121 --> 00:01:48,700 čak i bez eksplicitne mržnje. 33 00:01:50,184 --> 00:01:54,097 Ova veza između crne boje kože i zločina 34 00:01:54,121 --> 00:01:58,455 uvukla se u um mog petogodišnjaka. 35 00:01:59,787 --> 00:02:03,050 Ona se uvlači u svu našu decu, 36 00:02:04,201 --> 00:02:05,592 u sve nas. 37 00:02:06,793 --> 00:02:10,317 Naši umovi se oblikuju po rasnim disparitetima 38 00:02:10,341 --> 00:02:11,933 koje vidimo u svetu 39 00:02:12,752 --> 00:02:18,093 i po narativima koji nam pomažu da shvatimo razlike koje vidimo: 40 00:02:19,637 --> 00:02:22,163 "Oni ljudi su skloni kriminalu." 41 00:02:22,187 --> 00:02:24,112 "Oni ljudi su nasilni." 42 00:02:24,136 --> 00:02:27,101 "Onih se ljudi treba bojati." 43 00:02:27,814 --> 00:02:31,005 Kada je moj istraživački tim doveo ljude u našu laboratoriju 44 00:02:31,029 --> 00:02:33,312 i pokazivao im lica, 45 00:02:33,336 --> 00:02:40,336 utvrdili smo da ih pogled na lica crnaca navodi da mutne slike oružja 46 00:02:40,360 --> 00:02:43,616 vide jasnije i uočavaju brže. 47 00:02:43,640 --> 00:02:46,994 Predrasuda ne kontroliše samo ono što vidimo, 48 00:02:47,018 --> 00:02:48,666 nego i gde gledamo. 49 00:02:48,690 --> 00:02:52,134 Utvrdili smo da podsticanje ljudi da pomisle na nasilni zločin 50 00:02:52,158 --> 00:02:56,454 može da ih navede da usmere pogled na lice crnca, 51 00:02:56,478 --> 00:02:58,608 a skrenu ga sa lica belca. 52 00:02:58,632 --> 00:03:02,474 Podsticanje policajaca da pomisle na hvatanje i pucanje 53 00:03:02,498 --> 00:03:03,727 i hapšenje 54 00:03:03,751 --> 00:03:07,610 takođe ih navodi da pogled usmere na lica crnaca. 55 00:03:07,634 --> 00:03:12,700 Predrasuda može zaraziti sve aspekte našeg krivično-pravnog sistema. 56 00:03:13,100 --> 00:03:16,055 U velikom skupu podataka vezanih za osuđenike na smrt, 57 00:03:16,055 --> 00:03:20,436 utvrdili smo da što je osoba tamnija, više nego duplo se uvećavaju šanse 58 00:03:20,436 --> 00:03:22,493 da dobije smrtnu kaznu - 59 00:03:23,494 --> 00:03:25,921 barem kada su njihove žrtve bile belci. 60 00:03:25,945 --> 00:03:27,383 Ovaj ishod je bitan, 61 00:03:27,407 --> 00:03:30,708 čak imajući u vidu da smo uzeli u obzir težinu zločina 62 00:03:30,732 --> 00:03:33,013 i privlačnost okrivljenog. 63 00:03:33,037 --> 00:03:35,686 I, bez obzira šta smo kontrolisali, 64 00:03:35,712 --> 00:03:39,079 otkrili smo da se crnci kažnjavaju 65 00:03:39,079 --> 00:03:43,404 srazmerno crnoj boji i njihovim fizičkim karakteristikama: 66 00:03:43,428 --> 00:03:45,309 što su crnji, 67 00:03:45,309 --> 00:03:47,310 to je veća šansa da će dobiti smrtnu kaznu. 68 00:03:47,310 --> 00:03:51,319 Predrasude takođe mogu uticati na to kako se nastavnici ophode prema učenicima. 69 00:03:51,781 --> 00:03:56,188 Moje kolege i ja smo utvrdili da su nastavnici skloni 70 00:03:56,212 --> 00:03:59,778 da disciplinuju crnce srednjoškolce na mnogo strožiji način 71 00:03:59,802 --> 00:04:00,970 nego belce 72 00:04:00,994 --> 00:04:03,570 za iste prekršaje. 73 00:04:03,594 --> 00:04:04,888 U skorašnjoj studiji 74 00:04:04,912 --> 00:04:09,270 utvrdili smo da nastavnici tretiraju crne učenike kao grupu, 75 00:04:09,294 --> 00:04:11,725 a bele kao pojedince. 76 00:04:12,126 --> 00:04:15,725 Ako se, na primer, crni učenik nedolično ponaša 77 00:04:15,749 --> 00:04:20,534 i onda drugi crni učenik to isto uradi nekoliko dana posle, 78 00:04:20,558 --> 00:04:23,786 reakcija nastavnika na ponašanje tog drugog crnog učenika je 79 00:04:23,810 --> 00:04:26,435 kao da se on nedolično ponašao dvaput. 80 00:04:26,952 --> 00:04:29,763 To je kao da se gresi jednog deteta 81 00:04:29,787 --> 00:04:31,963 nagomilavaju na drugo dete. 82 00:04:31,987 --> 00:04:35,281 Stvaramo kategorije da bismo svetu dali smisao, 83 00:04:35,305 --> 00:04:39,788 da bismo uspostavili neku kontrolu i koherentnost 84 00:04:39,812 --> 00:04:43,902 sa podražajima kojima nas stalno bombarduju. 85 00:04:43,926 --> 00:04:47,894 Kategorizacija i predrasude koje ona seje 86 00:04:47,918 --> 00:04:52,964 omogućava našem mozgu da brže i efikasnije pravi procene, 87 00:04:52,964 --> 00:04:56,366 a to radimo instinktivno se oslanjajući na obrasce 88 00:04:56,390 --> 00:04:58,059 koji se čine predvidivim. 89 00:04:58,083 --> 00:05:04,026 Ipak, kao što nam kategorije koje stvaramo dozvoljavaju da donosimo brze odluke, 90 00:05:04,050 --> 00:05:06,576 one takođe pojačavaju predrasude. 91 00:05:06,576 --> 00:05:09,968 Tako da upravo stvari koje nam pomažu da vidimo svet, 92 00:05:11,104 --> 00:05:13,084 isto tako nas mogu zaslepeti. 93 00:05:13,509 --> 00:05:16,287 One čine naše odluke lakim, 94 00:05:16,311 --> 00:05:17,680 bez napora. 95 00:05:18,956 --> 00:05:21,401 Ali, to dolazi uz veliku cenu. 96 00:05:22,158 --> 00:05:23,809 Pa, šta možemo da uradimo? 97 00:05:24,507 --> 00:05:26,998 Svi smo podložni predrasudama, 98 00:05:27,022 --> 00:05:29,702 ali im ipak ne podležemo stalno. 99 00:05:29,726 --> 00:05:33,370 Postoje određeni uslovi pod kojima predrasude ožive 100 00:05:33,394 --> 00:05:35,927 i oni pod kojima se one priguše. 101 00:05:35,951 --> 00:05:37,798 Da vam dam primer. 102 00:05:38,663 --> 00:05:43,223 Mnogi znaju za tehnološku kompaniju Nextdoor. 103 00:05:44,073 --> 00:05:50,526 Dakle, njihova svrha je stvoriti jače, zdravije i bezbednije susedstvo. 104 00:05:51,468 --> 00:05:54,389 I tako oni nude ovaj onlajn prostor 105 00:05:54,413 --> 00:05:57,562 gde susedi mogu dobiti i podeliti informacije. 106 00:05:57,586 --> 00:06:01,712 Ipak, Nextdoor je ubrzo shvatio da imaju problem 107 00:06:01,736 --> 00:06:03,404 sa rasnim profilisanjem. 108 00:06:04,012 --> 00:06:05,979 Kao uobičajen slučaj, 109 00:06:06,003 --> 00:06:08,399 ljudi bi pogledali kroz prozor 110 00:06:08,423 --> 00:06:12,472 i ugledali crnca u svom inače belom kvartu 111 00:06:12,496 --> 00:06:17,211 i naprečac bi zaključili da on ne smera ništa dobro, 112 00:06:17,235 --> 00:06:20,586 čak i ako ne postoji dokaz o kriminalnim aktivnostima. 113 00:06:20,610 --> 00:06:23,544 Na mnoge načine, kako se ponašamo onlajn 114 00:06:23,568 --> 00:06:26,682 je odraz onoga kako se ponašamo u stvarnom svetu. 115 00:06:27,117 --> 00:06:31,062 Ali ono što ne želimo je da stvorimo jedan jednostavan sistem 116 00:06:31,086 --> 00:06:35,249 koji može pojačati predrasude i produbiti rasne različitosti, 117 00:06:36,129 --> 00:06:38,395 umesto da ih ukloni. 118 00:06:38,863 --> 00:06:42,292 Tako je saosnivač Nextdoora kontaktirao mene i ostale 119 00:06:42,316 --> 00:06:44,471 da bismo pokušali da pronađemo rešenje. 120 00:06:44,471 --> 00:06:48,437 Shvatili su da će, u cilju suzbijanja rasnog profilisanja na platformi, 121 00:06:48,437 --> 00:06:50,387 morati dodati otpor, 122 00:06:50,387 --> 00:06:53,069 drugim rečima, moraće da nateraju korisnike da uspore. 123 00:06:53,069 --> 00:06:55,288 Prema tome, Nextdoor je morao da donese odluku 124 00:06:55,288 --> 00:06:57,766 i protivno svakom, onom unutrašnjem impulsu, 125 00:06:57,790 --> 00:06:59,906 odlučili su da ga dodaju. 126 00:07:00,397 --> 00:07:03,837 Uradili su to tako što su dodali jednostavnu čeklistu. 127 00:07:03,861 --> 00:07:05,531 Na njoj su bile tri stavke. 128 00:07:06,111 --> 00:07:09,052 Prvo, zamolili su korisnike da zastanu 129 00:07:09,076 --> 00:07:14,193 i razmisle, "Šta je ova osoba radila da se čini sumnjivom?" 130 00:07:14,876 --> 00:07:19,409 Kategorija "crnac" nije osnova za sumnju. 131 00:07:19,433 --> 00:07:24,572 Drugo, tražili su od korisnika da opišu fizičke osobine osobe, 132 00:07:24,596 --> 00:07:27,031 a ne samo njihovu rasu i pol. 133 00:07:27,642 --> 00:07:31,025 Treće, shvatili su da dosta ljudi 134 00:07:31,049 --> 00:07:33,977 ne zna šta je to rasno profilisanje 135 00:07:34,001 --> 00:07:35,960 niti da se njime bave. 136 00:07:36,462 --> 00:07:39,656 Zato im je Nextdoor dao definiciju 137 00:07:39,680 --> 00:07:42,582 i rekao im da je to strogo zabranjeno. 138 00:07:43,071 --> 00:07:45,683 Mnogi od vas su videli znakove na aerodromima 139 00:07:45,707 --> 00:07:49,409 i na metro stanicama koji kažu: "Ako vidite nešto, skrenite pažnju na to." 140 00:07:49,928 --> 00:07:52,742 Nextdoor je pokušao ovo modifikovati. 141 00:07:53,584 --> 00:07:56,156 "Ako uočite nešto sumnjivo, 142 00:07:56,180 --> 00:07:58,253 recite nešto konkretno." 143 00:07:59,491 --> 00:08:03,937 Koristeći ovu strategiju, jednostavnim usporavanjem korisnika, 144 00:08:03,961 --> 00:08:09,652 Nextdoor je uspeo da suzbije rasno profilisanje za 75 posto. 145 00:08:10,496 --> 00:08:12,586 Sada, često mi ljudi kažu, 146 00:08:12,610 --> 00:08:17,323 "Ne možete dodati tu kočnicu u svakoj situaciji, u svakom kontekstu, 147 00:08:17,347 --> 00:08:21,993 a posebno ne za one koji stalno donose odluke u deliću sekunde." 148 00:08:22,730 --> 00:08:25,293 Ali, ispostavilo se da možemo to uraditi 149 00:08:25,317 --> 00:08:27,593 u više situacija nego što mislimo. 150 00:08:28,031 --> 00:08:30,105 Radeći sa Policijskom upravom Ouklanda 151 00:08:30,129 --> 00:08:31,546 u Kaliforniji, 152 00:08:31,570 --> 00:08:35,426 ja i mnoge moje kolege smo uspeli da pomognemo policiji 153 00:08:35,450 --> 00:08:38,121 da smanji broj onih koje su zaustavljali, 154 00:08:38,145 --> 00:08:41,745 a koji nisu počinili nikakvo ozbiljno krivično delo. 155 00:08:41,769 --> 00:08:44,134 A to smo uradili tako što smo naveli policajce 156 00:08:44,158 --> 00:08:48,601 da se zapitaju pre nego što nekog zaustave radi provere: 157 00:08:49,451 --> 00:08:52,466 "Da li vršim ovu proveru na osnovu razumne odluke, 158 00:08:52,490 --> 00:08:53,941 da ili ne?" 159 00:08:55,353 --> 00:08:56,749 Drugim rečima, 160 00:08:57,621 --> 00:09:02,105 da li imam prethodne informacije koje povezuju dotičnu osobu 161 00:09:02,129 --> 00:09:03,730 sa određenim krivičnim delom? 162 00:09:04,587 --> 00:09:06,045 Dodavanjem ovog pitanja 163 00:09:06,069 --> 00:09:09,148 na formular koji policajci popunjavaju tokom provere 164 00:09:09,172 --> 00:09:10,981 postižemo da oni uspore, zastanu, 165 00:09:11,005 --> 00:09:15,225 razmisle, "Zašto želim da zaustavim ovu osobu?" 166 00:09:16,721 --> 00:09:22,282 U 2017, pre nego što smo formularu dodali ovo pitanje koje potiče na razmišljanje, 167 00:09:23,655 --> 00:09:27,601 policajci su izvršili oko 32 000 provera po gradu. 168 00:09:27,625 --> 00:09:31,740 Sledeće godine, sa dodatkom ovog pitanja, 169 00:09:31,764 --> 00:09:34,208 ovo je palo na 19 000 provera. 170 00:09:34,232 --> 00:09:39,193 Samo provera Afroamerikanaca je pala za 43 posto. 171 00:09:39,905 --> 00:09:44,343 A zaustavljanje manjeg broja crnaca nije učinilo grad ništa opasnijim. 172 00:09:44,367 --> 00:09:47,101 U stvari, stopa kriminala je nastavila da pada 173 00:09:47,125 --> 00:09:50,462 i grad je postao bezbedniji za sve. 174 00:09:50,486 --> 00:09:55,841 Tako da je jedno rešenje u smanjenju broja nepotrebnih provera. 175 00:09:56,285 --> 00:10:01,908 Drugo bi bilo bolji kvalitet provera koje policija napravi. 176 00:10:02,512 --> 00:10:05,108 I tehnologija nam može ovde pomoći. 177 00:10:05,132 --> 00:10:07,547 Svi znamo za smrt Džordža Flojda, 178 00:10:08,499 --> 00:10:13,271 jer oni koji su mu pokušali pomoći su držali mobilne telefone 179 00:10:13,295 --> 00:10:18,726 da bi snimili taj strašni, tragični susret sa policijom. 180 00:10:18,750 --> 00:10:23,781 Ali, mi imamo razne vrste tehnologije koje ne koristimo u službi dobrog. 181 00:10:23,805 --> 00:10:26,308 Od policijskih stanica širom zemlje 182 00:10:26,332 --> 00:10:29,885 sada se traži da nose kamere na sebi 183 00:10:29,909 --> 00:10:35,839 tako da imamo snimke ne samo najekstremnijih i užasnih susreta, 184 00:10:35,863 --> 00:10:38,617 nego i svakodnevnih interakcija. 185 00:10:38,641 --> 00:10:41,418 Sa interdisciplinarnim timom sa Stanforda, 186 00:10:41,442 --> 00:10:44,129 počeli smo da koristimo tehnike mašinskog učenja 187 00:10:44,153 --> 00:10:47,520 da bismo analizirali veliki broj susreta. 188 00:10:47,544 --> 00:10:52,155 Ovo smo uradili da bismo bolje razumeli šta se dešava tokom rutinskih provera. 189 00:10:52,179 --> 00:10:54,334 Došli smo do saznanja da, 190 00:10:54,358 --> 00:10:58,020 čak i onda kada se policajci ponašaju profesionalno, 191 00:10:58,860 --> 00:11:03,322 ipak razgovaraju sa vozačima crncima sa manje uvažavanja nego sa belcima. 192 00:11:04,052 --> 00:11:08,127 U stvari, po rečima koje policajci koriste u govoru, 193 00:11:08,151 --> 00:11:13,313 mogli smo pretpostaviti da li su razgovarali sa crncem ili belcem. 194 00:11:13,337 --> 00:11:19,099 Problem je što veliku većinu snimaka sa ovih kamera 195 00:11:19,123 --> 00:11:21,210 ne koriste u policijskim stanicama 196 00:11:21,234 --> 00:11:23,510 da bi razumeli šta se događa na ulici 197 00:11:23,534 --> 00:11:25,777 ili za obuku policajaca. 198 00:11:26,554 --> 00:11:28,012 A to je šteta. 199 00:11:28,796 --> 00:11:33,585 Kako se rutinska provera pretvori u susret sa smrtnim ishodom? 200 00:11:33,609 --> 00:11:36,279 Kako se to dogodilo u slučaju Džordža Flojda? 201 00:11:37,588 --> 00:11:39,670 Kako se to dogodilo u drugim slučajevima? 202 00:11:39,694 --> 00:11:43,090 Kada je moj stariji sin imao 16 godina, 203 00:11:43,114 --> 00:11:46,253 shvatio je da kada belci pogledaju u njega 204 00:11:46,277 --> 00:11:47,838 osećaju strah. 205 00:11:49,123 --> 00:11:51,784 Liftovi su najgori, kaže. 206 00:11:52,313 --> 00:11:54,644 Kada se vrata zatvore, 207 00:11:54,668 --> 00:11:57,751 ljudi se zateknu u ovom malom prostoru 208 00:11:57,775 --> 00:12:02,242 sa nekim za koga su naučeni da ima veze sa opasnošću. 209 00:12:02,744 --> 00:12:05,964 Moj sin oseća taj nemir 210 00:12:05,988 --> 00:12:09,145 i nasmeši se da ih umiri, 211 00:12:09,169 --> 00:12:10,938 da umiri njihov strah. 212 00:12:11,351 --> 00:12:13,296 Kada progovori, 213 00:12:13,320 --> 00:12:15,003 njihova se tela opuste. 214 00:12:15,442 --> 00:12:17,345 Lakše dišu. 215 00:12:17,369 --> 00:12:19,900 Prija im modulacija njegovog glasa, 216 00:12:19,924 --> 00:12:22,241 njegova dikcija, izbor reči. 217 00:12:22,986 --> 00:12:24,829 Zvuči kao jedan od njih. 218 00:12:24,853 --> 00:12:29,583 Nekada sam mislila da je moj sin prirodno ekstrovertan, kao i njegov otac. 219 00:12:29,607 --> 00:12:33,157 Ali, tada sam shvatila, u tom razgovoru, 220 00:12:34,143 --> 00:12:39,221 da njegov osmeh nije znak da on želi da stupi u kontakt 221 00:12:39,245 --> 00:12:41,209 sa potencijalnim neznancima. 222 00:12:41,920 --> 00:12:45,572 To je bio talisman kojeg je koristio da bi se zaštitio, 223 00:12:45,596 --> 00:12:51,815 veština preživljavanja koju je izgradio tokom hiljada vožnji liftom. 224 00:12:52,387 --> 00:12:57,558 Učio je kako da ublaži tenziju koju je stvarala njegova boja kože 225 00:12:59,026 --> 00:13:01,693 i to je ugrozilo i njegov vlastiti život. 226 00:13:02,619 --> 00:13:06,402 Znamo da je mozak predodređen za predrasude, 227 00:13:06,426 --> 00:13:10,891 a jedan od načina da se one nadvladaju je da se zastane i razmisli 228 00:13:10,915 --> 00:13:13,220 o dokazima za naše pretpostavke. 229 00:13:13,244 --> 00:13:14,999 Zato se moramo zapitati: 230 00:13:15,023 --> 00:13:19,688 kakve pretpostavke unosimo kad kročimo u lift? 231 00:13:21,776 --> 00:13:23,087 Ili u avion? 232 00:13:23,532 --> 00:13:28,131 Kako da postanemo svesni svojih nesvesnih predrasuda? 233 00:13:28,155 --> 00:13:30,506 Koga te pretpostavke štite? 234 00:13:32,615 --> 00:13:34,547 Koga one ugrožavaju? 235 00:13:35,649 --> 00:13:38,003 Dok se ovo ne zapitamo 236 00:13:38,978 --> 00:13:43,602 i ne budemo insistirali da naše škole i sudovi i policijske stanice 237 00:13:43,626 --> 00:13:46,168 i sve institucije ne urade isto, 238 00:13:47,835 --> 00:13:51,664 nastavićemo da dozvoljavamo predrasudama 239 00:13:51,688 --> 00:13:52,966 da nas zaslepljuju. 240 00:13:53,348 --> 00:13:54,757 Ako to učinimo, 241 00:13:56,066 --> 00:13:59,274 niko od nas neće biti zaista bezbedan. 242 00:14:02,103 --> 00:14:03,411 Hvala.