1 00:00:00,910 --> 00:00:02,183 Prije nekoliko godina 2 00:00:02,207 --> 00:00:07,119 bila sam u zrakoplovu sa svojim sinom koji je imao 5 godina u to vrijeme. 3 00:00:08,245 --> 00:00:13,340 Bio je jako uzbuđen jer je bio u avionu sa svojom mamom. 4 00:00:13,364 --> 00:00:16,304 Gledao je okolo, proučavao stvari oko sebe 5 00:00:16,328 --> 00:00:18,164 i proučavao je ljude. 6 00:00:18,188 --> 00:00:19,818 Ugledao je čovjeka i rekao: 7 00:00:19,842 --> 00:00:22,703 "Hej, ovaj čovjek izgleda kao tata!" 8 00:00:23,882 --> 00:00:25,802 Pogledala sam čovjeka 9 00:00:25,826 --> 00:00:29,556 i nije uopće izgledao kao moj muž. 10 00:00:29,580 --> 00:00:30,949 Uopće. 11 00:00:31,461 --> 00:00:33,797 I tako sam se počela osvrtati po zrakoplovu 12 00:00:33,821 --> 00:00:39,706 i primijetila da je to bila jedina crna osoba u zrakoplovu. 13 00:00:40,874 --> 00:00:42,286 Pomislila sam: 14 00:00:42,310 --> 00:00:43,504 "U redu, 15 00:00:44,369 --> 00:00:46,894 malo ću porazgovarati sa svojim sinom 16 00:00:46,918 --> 00:00:49,847 o tome kako nisu svi pripadnici crne rase jednaki. 17 00:00:49,871 --> 00:00:54,248 Moj sin je podigao glavu i rekao: 18 00:00:56,246 --> 00:00:58,617 "Nadam se da neće opljačkati zrakoplov." 19 00:00:59,359 --> 00:01:01,874 Rekla sam: "Što? Što si to rekao?" 20 00:01:01,898 --> 00:01:05,326 On je ponovio: "Nadam se da taj čovjek neće opljačkati zrakoplov." 21 00:01:07,200 --> 00:01:09,952 Rekla sam: "Zašto bi to izgovorio? 22 00:01:10,486 --> 00:01:13,149 Znaš da tvoj tata ne bi opljačkao zrakoplov." 23 00:01:13,173 --> 00:01:15,485 Odgovorio mi je: "Da, da, da, ovaj, znam." 24 00:01:16,179 --> 00:01:18,306 Rekoh: "U redu, ali zašto si to izgovorio?" 25 00:01:20,346 --> 00:01:23,303 Pogledao me zbilja tužnog pogleda 26 00:01:24,168 --> 00:01:25,422 i rekao: 27 00:01:26,890 --> 00:01:28,996 "Ne znam zašto sam to rekao. 28 00:01:30,600 --> 00:01:32,958 Ne znam zašto sam to pomislio". 29 00:01:33,724 --> 00:01:37,242 Živimo u vrijeme tako velike rasne stratifikacije 30 00:01:37,266 --> 00:01:42,326 da nam čak i petogodišnjak može reći što bi se trebalo sljedeće dogoditi, 31 00:01:43,990 --> 00:01:46,097 čak i bez zločinca, 32 00:01:46,121 --> 00:01:48,700 čak i bez eksplicitne mržnje. 33 00:01:50,184 --> 00:01:54,097 Ova asocijacija između crne boje kože i zločina 34 00:01:54,121 --> 00:01:58,455 uvukla se u um mog petogodišnjeg sina. 35 00:01:59,787 --> 00:02:03,050 Stvara put prema umovima sve naše djece, 36 00:02:04,201 --> 00:02:05,592 prema umovima svih nas. 37 00:02:06,793 --> 00:02:10,317 Naši umovi su oblikovani rasnim razlikama 38 00:02:10,341 --> 00:02:11,933 koje vidimo u svijetu 39 00:02:12,752 --> 00:02:18,093 i narativima koji nam pomažu vidjeti smisao u tim razlikama: 40 00:02:19,637 --> 00:02:22,163 "Ovi ljudi su kriminalci." 41 00:02:22,187 --> 00:02:24,112 "Ovi ljudi su nasilni." 42 00:02:24,136 --> 00:02:27,101 "Ovih ljudi se treba bojati." 43 00:02:27,814 --> 00:02:31,005 Kad je moj istraživački tim doveo ljude u naš laboratorij 44 00:02:31,029 --> 00:02:33,312 i suočio ih s raznim licima, 45 00:02:33,336 --> 00:02:37,736 uočili smo da ih suočavanje s licima crne rase vodi do toga 46 00:02:37,736 --> 00:02:43,616 da mutne slike pištolja vide puno brže i jasnije. 47 00:02:43,640 --> 00:02:46,994 Predrasuda ne kontrolira samo što vidimo, 48 00:02:47,018 --> 00:02:48,666 nego i gdje gledamo. 49 00:02:48,690 --> 00:02:52,134 Saznali smo da sugeriranje ljudima da pomisle na nasilni zločin 50 00:02:52,158 --> 00:02:56,454 može voditi tome da usmjere pogled na pripadnika crne boje kože, 51 00:02:56,478 --> 00:02:58,608 a okrenu ih od bijelaca. 52 00:02:58,632 --> 00:03:02,474 Sugestija policajcima da pomisle na zarobljavanje, pucanje 53 00:03:02,498 --> 00:03:03,727 i uhićenje 54 00:03:03,751 --> 00:03:07,610 vodi tome da također usmjeravaju pogled na pripadnika crne rase. 55 00:03:07,634 --> 00:03:12,700 Predrasude mogu zaraziti sve aspekte našeg kaznenog sudstva. 56 00:03:13,100 --> 00:03:16,031 U velikim skupovima podataka među osuđenicima na smrt 57 00:03:16,055 --> 00:03:20,412 otkrili smo da što je osoba tamnije boje kože, to se više udvostručuje šansa 58 00:03:20,436 --> 00:03:22,493 dobivanja smrtne kazne -- 59 00:03:23,494 --> 00:03:25,921 barem kada su žrtve bijelci. 60 00:03:25,945 --> 00:03:27,383 Ovaj učinak je značajan, 61 00:03:27,407 --> 00:03:30,708 iako smo kontrolirali težinu zločina 62 00:03:30,732 --> 00:03:33,013 i fizičku atraktivnost optuženika. 63 00:03:33,037 --> 00:03:35,686 I bez obzira što smo to kontrolirali, 64 00:03:35,710 --> 00:03:39,055 uočili smo da su pripadnici crne rase kažnjavani 65 00:03:39,079 --> 00:03:43,404 proporcionalno s njihovim karakteristikama crne rase: 66 00:03:43,428 --> 00:03:45,309 što su izraženije, 67 00:03:45,333 --> 00:03:47,086 veća je kazna. 68 00:03:47,110 --> 00:03:51,319 Predrasude također mogu utjecati na to kako učitelji discipliniraju učenike. 69 00:03:51,781 --> 00:03:56,188 Moje kolege i ja smo otkrili da učitelji pokazuju želju 70 00:03:56,212 --> 00:03:59,778 disciplinirati tamnije učenike srednje škole rigoroznije 71 00:03:59,802 --> 00:04:00,970 nego bijele studente 72 00:04:00,994 --> 00:04:03,570 za iste prekršaje. 73 00:04:03,594 --> 00:04:04,888 U nedavnoj studiji, 74 00:04:04,912 --> 00:04:09,270 otkrili smo da učitelji učenike tamne kože tretiraju kao grupe, 75 00:04:09,294 --> 00:04:11,725 a bijele učenike kao individue. 76 00:04:12,126 --> 00:04:15,725 Ako se, primjerice, tamniji učenik nedolično ponaša 77 00:04:15,749 --> 00:04:20,534 pa potom drugi tamnoputi učenik nedolično ponaša par dana kasnije, 78 00:04:20,558 --> 00:04:23,786 učitelj reagira kao da se drugi tamnoputi učenik 79 00:04:23,810 --> 00:04:26,435 nedolično ponašao dvaput. 80 00:04:26,952 --> 00:04:29,763 To je kao da se grijeh jednog djeteta 81 00:04:29,787 --> 00:04:31,963 nagomilava na drugo. 82 00:04:31,987 --> 00:04:35,281 Stvaramo kategorije kako bismo dali svijetu smisao, 83 00:04:35,305 --> 00:04:39,788 kako bismo imali kontrolu i sve povezali 84 00:04:39,812 --> 00:04:43,902 sa stimulansima kojima smo svakodnevno bombardirani. 85 00:04:43,926 --> 00:04:47,894 Kategorizacija i predrasude koje to stvara 86 00:04:47,918 --> 00:04:52,940 dozvoljava našim mozgovima da sude o svijetu puno brže i učinkovitije, 87 00:04:52,964 --> 00:04:56,366 i to radimo instinktivno se oslanjajući na obrasce 88 00:04:56,390 --> 00:04:58,059 koji se čine predvidivima. 89 00:04:58,083 --> 00:05:04,026 Ipak, kao što nam kategorije koje stvaramo dozvoljavaju donijeti brze odluke, 90 00:05:04,050 --> 00:05:06,552 one također ojačavaju predrasude. 91 00:05:06,576 --> 00:05:09,968 Tako da nas upravo one stvari koje nam pomažu proučavati svijet, 92 00:05:11,104 --> 00:05:13,084 mogu također zaslijepiti. 93 00:05:13,509 --> 00:05:16,287 One čine naše izbore lakima, 94 00:05:16,311 --> 00:05:17,680 bez otpora. 95 00:05:18,956 --> 00:05:21,401 Ali uz veliku cijenu. 96 00:05:22,158 --> 00:05:23,569 Što možemo napraviti? 97 00:05:24,507 --> 00:05:26,998 Svi smo podložni predrasudama, 98 00:05:27,022 --> 00:05:29,702 ali se ipak ne koristimo njima cijelo vrijeme. 99 00:05:29,726 --> 00:05:33,370 Postoji neki uvjeti koji oživljavaju predrasude 100 00:05:33,394 --> 00:05:35,927 i neki koji ih prigušuju. 101 00:05:35,951 --> 00:05:37,798 Dat ću vam primjer. 102 00:05:38,663 --> 00:05:43,223 Puno ljudi je upoznato s tehnološkom kompanijom Nextdoor. 103 00:05:44,073 --> 00:05:50,526 Dakle, njihova je svrha stvoriti jače, zdravije, sigurnije gradske četvrti. 104 00:05:51,468 --> 00:05:54,389 Prema tome, nude online prostor 105 00:05:54,413 --> 00:05:57,562 gdje susjedi mogu dobivati i dijeliti informacije. 106 00:05:57,586 --> 00:06:01,712 Ipak, Nextdoor je ubrzo otkrio da ima problem 107 00:06:01,736 --> 00:06:03,404 s rasnim profiliranjem. 108 00:06:04,012 --> 00:06:05,979 U tipičnom slučaju, 109 00:06:06,003 --> 00:06:08,399 ljudi bi pogledali kroz prozor 110 00:06:08,423 --> 00:06:12,472 i ugledali tamnoputog čovjeka u inače bjelačkoj četvrti 111 00:06:12,496 --> 00:06:17,211 i brzinski zaključili da ne smjera ništa dobro, 112 00:06:17,235 --> 00:06:20,586 iako nema nikakvog dokaza kriminalnim aktivnostima. 113 00:06:20,610 --> 00:06:23,544 Na mnogo načina, kako se ponašamo online 114 00:06:23,568 --> 00:06:26,682 je refleksija toga kako se ponašamo u stvarnom svijetu. 115 00:06:27,117 --> 00:06:31,062 Ali ono što ne želimo je kreirati jednostavan sustav 116 00:06:31,086 --> 00:06:35,249 koji bi pojačao predrasude i produbio rasne disperzije, 117 00:06:36,129 --> 00:06:38,395 radije nego što bi ih uklonio. 118 00:06:38,863 --> 00:06:42,292 Tako je suosnivač Nextdoora pristupio meni i drugima 119 00:06:42,316 --> 00:06:44,447 kako bismo pronašli rješenje. 120 00:06:44,471 --> 00:06:48,417 Shvatili su da kako bi obuzdali rasno profiliranje na platformi, 121 00:06:48,441 --> 00:06:50,363 trebaju malo pojačati otpornost; 122 00:06:50,387 --> 00:06:53,045 tj. potrebno je da ljudi malo uspore. 123 00:06:53,069 --> 00:06:55,264 Tako je Nextdoor morao izabrati 124 00:06:55,288 --> 00:06:57,766 i protiv svakog impulsa 125 00:06:57,790 --> 00:06:59,906 odlučili su se pojačati otpornost. 126 00:07:00,397 --> 00:07:03,837 To su učinili dodavanjem jednostavnog popisa. 127 00:07:03,861 --> 00:07:05,531 Na njemu su bile tri stavke. 128 00:07:06,111 --> 00:07:09,052 Prvo, zamolili su korisnike da zastanu 129 00:07:09,076 --> 00:07:14,193 i pomisle: "Što je učinila ova osoba da ju je učinilo sumnjivom?" 130 00:07:14,876 --> 00:07:19,409 Kategorija "tamnoputa osoba" nema uporišta za sumnju. 131 00:07:19,433 --> 00:07:24,572 Drugo, zamolili su korisnike da opišu fizičke osobine sumnjive osobe, 132 00:07:24,596 --> 00:07:27,031 a ne samo njihovu rasu i spol. 133 00:07:27,642 --> 00:07:31,025 Treće, shvatili su da mnogo ljudi 134 00:07:31,049 --> 00:07:33,977 nije shvaćalo što znači rasno profiliranje, 135 00:07:34,001 --> 00:07:36,180 niti da su u njega bili svjesno uključeni. 136 00:07:36,462 --> 00:07:39,656 I tako ih je Nextdoor upoznao s definicijom 137 00:07:39,680 --> 00:07:42,582 i rekao im da je to strogo zabranjeno. 138 00:07:43,071 --> 00:07:45,683 Mnogi od vas su vidjeli takve znakove u zračnim lukama 139 00:07:45,707 --> 00:07:49,409 i u postajama podzemne željeznice, "Ako nešto vidiš, reci." 140 00:07:49,928 --> 00:07:52,742 Nextdoor je ovo pokušao modificirati. 141 00:07:53,584 --> 00:07:56,156 "Ako ugledaš nešto sumnjivo, 142 00:07:56,180 --> 00:07:58,253 reci nešto specifično." 143 00:07:59,491 --> 00:08:03,937 Koristeći ovu strategiju, jednostavno obuzdavajući ljude, 144 00:08:03,961 --> 00:08:09,652 Nextdoor je uspio umanjiti rasno profiliranje za 75 posto. 145 00:08:10,496 --> 00:08:12,586 Ljudi mi često kažu, 146 00:08:12,610 --> 00:08:17,323 "Ne možeš to uvijek obuzdati - u svakoj situaciji i u svakom kontekstu, 147 00:08:17,347 --> 00:08:21,993 a posebno za ljude koji stalno donose odluke u sekundi." 148 00:08:22,730 --> 00:08:25,293 Ali se pokazalo da to možemo učiniti 149 00:08:25,317 --> 00:08:27,593 u više situacija nego mislimo. 150 00:08:28,031 --> 00:08:30,105 U radu s policijskom upravom Oaklanda 151 00:08:30,129 --> 00:08:31,546 u Kaliforniji, 152 00:08:31,570 --> 00:08:35,426 moji kolege i ja smo uspjeli pomoći upravi 153 00:08:35,450 --> 00:08:38,121 u reduciranju broja ljudi koje su zaustavljali 154 00:08:38,145 --> 00:08:41,745 a koji nisu počinili nikakav ozbiljni zločin. 155 00:08:41,769 --> 00:08:44,134 To smo učinili usmjeravanjem policajaca 156 00:08:44,158 --> 00:08:48,601 da si postave pitanje prije svakog zaustavljanja: 157 00:08:49,451 --> 00:08:52,466 "Je li ovo zaustavljanje temeljeno na prikupljenim podacima, 158 00:08:52,490 --> 00:08:53,941 da ili ne?" 159 00:08:55,353 --> 00:08:56,749 Drugim riječima, 160 00:08:57,621 --> 00:09:02,105 imam li prijašnje informacije kojima bih povezao baš ovu osobu 161 00:09:02,129 --> 00:09:03,730 sa specifičnim zločinom? 162 00:09:04,587 --> 00:09:06,045 Dodavanjem ovog pitanja 163 00:09:06,069 --> 00:09:09,148 obrascu koji su policajci morali ispuniti prilikom zaustavljanja 164 00:09:09,172 --> 00:09:10,981 oni su se ipak zaustavili 165 00:09:11,005 --> 00:09:15,225 i promislili: "Zašto uopće kanim zaustaviti ovu osobu?" 166 00:09:16,721 --> 00:09:22,282 U 2017., prije nego smo dodali ovo pitanje utemeljeno na podacima na obrazac, 167 00:09:23,655 --> 00:09:27,601 policajci su napravili 32 000 zaustavljanja ljudi u cijelom gradu. 168 00:09:27,625 --> 00:09:31,740 Sljedeće godine, uključivanjem ovog pitanja, 169 00:09:31,764 --> 00:09:34,208 broj je opao na 19 000 zaustavljanja. 170 00:09:34,232 --> 00:09:39,193 Samo zaustavljanja Afroamerikanaca su opala za 43 posto. 171 00:09:39,905 --> 00:09:44,343 A manji broj zaustavljanja osoba crne rase nije učinilo grad opasnijim. 172 00:09:44,367 --> 00:09:47,101 U stvari, stopa kriminala je nastavila opadati 173 00:09:47,125 --> 00:09:50,462 i grad je postao sigurniji za sve. 174 00:09:50,486 --> 00:09:55,841 Jedno rješenje bilo bi smanjenje broja nepotrebnih zaustavljanja. 175 00:09:56,285 --> 00:10:00,555 Drugo bi bilo povećanje kvalitete onih koje se ipak naprave 176 00:10:00,579 --> 00:10:01,884 od strane policije. 177 00:10:02,512 --> 00:10:05,108 Tu nam tehnologija može biti od pomoći. 178 00:10:05,132 --> 00:10:07,547 Svi smo čuli za smrt George Floyda, 179 00:10:08,499 --> 00:10:13,271 zato jer su oni koji su mu pokušali pomoći držali mobitele s kamerama 180 00:10:13,295 --> 00:10:18,726 kako bi snimili taj užasan i tragičan susret s policijom. 181 00:10:18,750 --> 00:10:23,781 Ali posjedujemo svakojaku tehnologiju koju ne koristimo na pravi način. 182 00:10:23,805 --> 00:10:26,308 Policijske uprave diljem zemlje 183 00:10:26,332 --> 00:10:29,885 su danas dužne nositi kamere na tijelu, 184 00:10:29,909 --> 00:10:35,839 tako da nemamo samo snimke najbrutalnijih i užasnih susreta, 185 00:10:35,863 --> 00:10:38,617 nego i svakodnevnih interakcija. 186 00:10:38,641 --> 00:10:41,418 Skupa s interdisciplinarnim timom sa Stanforda 187 00:10:41,442 --> 00:10:44,129 počeli smo koristiti tehnike strojnog učenja 188 00:10:44,153 --> 00:10:47,520 kako bismo analizirali veliki broj susreta. 189 00:10:47,544 --> 00:10:50,215 To smo napravili kako bismo bolje razumjeli što se događa 190 00:10:50,215 --> 00:10:52,108 pri rutinskim prometnim zaustavljanjima. 191 00:10:52,108 --> 00:10:54,358 Ono što smo otkrili jest 192 00:10:54,358 --> 00:10:58,020 da čak i kada se policijski službenici ponašaju profesionalno, 193 00:10:58,860 --> 00:11:03,322 ipak razgovaraju s tamnoputim vozačima uz manje poštovanja nego s bijelima. 194 00:11:04,052 --> 00:11:08,127 U stvari, prema njihovim vlastitim riječima, 195 00:11:08,151 --> 00:11:13,313 "Mogli smo predvidjeti jesu li policajci pričali s tamnoputim ili bijelim vozačem." 196 00:11:13,337 --> 00:11:19,099 Problem je što većina tih snimaka 197 00:11:19,123 --> 00:11:21,210 nije korištena od strane policijskih uprava 198 00:11:21,234 --> 00:11:23,510 kako bi shvatili što se događa na ulici 199 00:11:23,534 --> 00:11:25,777 ili kako bi uvježbali policajce. 200 00:11:26,554 --> 00:11:28,012 I to je šteta. 201 00:11:28,796 --> 00:11:33,585 Kako rutinska kontrola dovodi do ubojitih susreta? 202 00:11:33,609 --> 00:11:36,279 Kako se to dogodilo u slučaju George Floyda? 203 00:11:37,588 --> 00:11:39,670 Kako se događa i u drugima slučajevima? 204 00:11:39,694 --> 00:11:43,090 Kada je moj najstariji sin imao 16 godina, 205 00:11:43,114 --> 00:11:46,253 otkrio je da kada ga bijelci gledaju, 206 00:11:46,277 --> 00:11:47,838 osjećaju strah. 207 00:11:49,123 --> 00:11:51,784 Dizala su najgora, kaže. 208 00:11:52,313 --> 00:11:54,644 Kada se zatvore vrata, 209 00:11:54,668 --> 00:11:57,751 ljudi su zatvoreni u malom prostoru 210 00:11:57,775 --> 00:12:02,242 s nekim za koga su naučeni da osjećaju strah. 211 00:12:02,744 --> 00:12:05,964 Moj sin osjeća njihovu nelagodu 212 00:12:05,988 --> 00:12:09,145 i nasmije se da bi ih umirio, 213 00:12:09,169 --> 00:12:10,938 kako bi umanjio njihove strahove. 214 00:12:11,351 --> 00:12:13,296 Kada priča, 215 00:12:13,320 --> 00:12:15,003 njihova se tijela opuste. 216 00:12:15,442 --> 00:12:17,345 Njihov dah umiri. 217 00:12:17,369 --> 00:12:19,900 Osjećaju ugodu u njegovom ritmu, 218 00:12:19,924 --> 00:12:22,241 njegovoj dikciji, njegovom odabiru riječi. 219 00:12:22,986 --> 00:12:24,829 Zvuči kao jedan od njih. 220 00:12:24,853 --> 00:12:29,583 Mislila sam da je moj sin prirodni ekstrovert kao i njegov otac. 221 00:12:29,607 --> 00:12:33,157 Ali sam tog trenutka shvatila, kroz taj razgovor, 222 00:12:34,143 --> 00:12:39,221 da njegov osmijeh nije znak da se želi povezati 223 00:12:39,245 --> 00:12:41,209 sa strancima. 224 00:12:41,920 --> 00:12:45,572 To je bio medaljon koji je koristio kako bi se zaštitio, 225 00:12:45,596 --> 00:12:51,815 metoda preživljavanja koju je usvojio tijekom tisuća vožnji dizalom. 226 00:12:52,387 --> 00:12:57,558 Naučio je kako ublažiti tenzije koje je proizvodila njegova boja kože 227 00:12:59,026 --> 00:13:01,693 i koja mu je ugrožavala život. 228 00:13:02,619 --> 00:13:06,402 Znamo da je mozak programiran za predrasude 229 00:13:06,426 --> 00:13:10,891 i jedan od načina kako ih nadvladati je zaustaviti se i promisliti 230 00:13:10,915 --> 00:13:13,220 o dokazima naših pretpostavki. 231 00:13:13,244 --> 00:13:14,999 Stoga se moramo zapitati: 232 00:13:15,023 --> 00:13:19,688 Koje pretpostavke unosimo sa sobom kada ulazimo u dizalo? 233 00:13:21,776 --> 00:13:23,087 Ili u zrakoplov? 234 00:13:23,532 --> 00:13:28,131 Kako spoznati naše nesvjesne predrasude? 235 00:13:28,155 --> 00:13:30,506 Koga te pretpostavke štite? 236 00:13:32,615 --> 00:13:34,547 Koga ugrožavaju? 237 00:13:35,649 --> 00:13:38,003 Dokle god ne postavimo ta pitanja 238 00:13:38,978 --> 00:13:43,602 i ne inzistiramo da naše škole, naši sudovi, naše policijske uprave 239 00:13:43,626 --> 00:13:46,168 i sve druge institucije učine isto, 240 00:13:47,835 --> 00:13:51,664 nastavit ćemo dozvoljavati predrasudama 241 00:13:51,688 --> 00:13:52,966 da nas zaslijepljuju. 242 00:13:53,348 --> 00:13:54,757 Ako nastave, 243 00:13:56,066 --> 00:13:59,274 nitko od nas nije istinski siguran. 244 00:14:02,103 --> 00:14:03,411 Hvala.