1 00:00:00,910 --> 00:00:02,183 幾年前, 2 00:00:02,207 --> 00:00:07,119 我和我兒子一起搭飛機, 他當時五歲。 3 00:00:08,245 --> 00:00:13,340 對於能和媽咪一起搭飛機, 我兒子感到很興奮。 4 00:00:13,364 --> 00:00:16,304 他環視周圍,到處看看, 5 00:00:16,328 --> 00:00:18,164 他也在打量其他人。 6 00:00:18,188 --> 00:00:19,936 然後他看到一名男子,說: 7 00:00:19,936 --> 00:00:22,703 「嘿!那個人看起來像爹地!」 8 00:00:23,882 --> 00:00:25,669 我看向那名男子, 9 00:00:25,826 --> 00:00:29,556 他看起來完全不像我丈夫, 10 00:00:29,580 --> 00:00:31,128 一點也不像。 11 00:00:31,461 --> 00:00:33,797 所以我開始環視飛機內部, 12 00:00:33,821 --> 00:00:36,015 我發現這名男子 13 00:00:36,035 --> 00:00:39,706 是機上唯一的黑人男性。 14 00:00:40,874 --> 00:00:43,193 我心想:「好。 15 00:00:44,369 --> 00:00:46,894 我要和我的兒子談一下, 16 00:00:46,918 --> 00:00:49,847 讓他知道不是所有的黑人 看起來都一樣。」 17 00:00:49,871 --> 00:00:54,248 我兒子抬起頭,對我說: 18 00:00:56,246 --> 00:00:58,790 「我希望他不會在這架飛機上搶劫。」 19 00:00:59,359 --> 00:01:01,874 我說:「什麼?你剛才說什麼?」 20 00:01:01,898 --> 00:01:05,548 他說:「我希望那個人 不會在這架飛機上搶劫。」 21 00:01:07,200 --> 00:01:10,122 我說:「你為什麼會那樣說? 22 00:01:10,486 --> 00:01:13,149 你知道爹地不可能會在飛機上搶劫。」 23 00:01:13,173 --> 00:01:15,622 他說:「是啊,是啊,我知道。」 24 00:01:16,179 --> 00:01:18,899 我說:「嗯,那你為什麼那樣說?」 25 00:01:20,346 --> 00:01:23,303 他看著我,表情很悲傷, 26 00:01:24,168 --> 00:01:25,538 他回答: 27 00:01:26,890 --> 00:01:29,319 「我不知道我為什麼那樣說。 28 00:01:30,600 --> 00:01:33,217 我不知道我為什麼那樣想。」 29 00:01:33,724 --> 00:01:37,242 我們生活在如此 嚴重的種族分層當中, 30 00:01:37,266 --> 00:01:42,326 就連五歲小孩也會告訴我們 接下來應該會發生什麼事, 31 00:01:43,990 --> 00:01:46,097 即使當下沒有作惡者, 32 00:01:46,121 --> 00:01:48,700 也沒有明確的恨意。 33 00:01:50,184 --> 00:01:53,819 黑人和犯罪之間的連結 34 00:01:54,121 --> 00:01:58,455 進入了我五歲兒子的腦中。 35 00:01:59,787 --> 00:02:03,143 它找到路進入了所有孩子的腦中, 36 00:02:04,201 --> 00:02:06,028 我們所有人的腦中。 37 00:02:06,793 --> 00:02:10,157 我們在世界上所看到的種族差異 38 00:02:10,191 --> 00:02:12,275 形塑了我們的大腦, 39 00:02:12,752 --> 00:02:18,205 這些說法協助我們理解 我們所看見的差異: 40 00:02:19,637 --> 00:02:21,831 「那些人是罪犯。」 41 00:02:22,187 --> 00:02:24,112 「那些人很暴力。」 42 00:02:24,136 --> 00:02:27,101 「要害怕那些人。」 43 00:02:27,814 --> 00:02:31,005 我的研究團隊把受試者 帶到我們的實驗室, 44 00:02:31,029 --> 00:02:33,113 讓他們接觸不同的臉孔, 45 00:02:33,152 --> 00:02:36,774 我們發現,若他們 接觸的是黑人的臉孔, 46 00:02:36,794 --> 00:02:40,088 他們會更快、更清楚地 47 00:02:40,098 --> 00:02:43,381 看出槍枝的模糊影像。 48 00:02:43,640 --> 00:02:46,672 偏見不僅會控制我們看見什麼, 49 00:02:47,018 --> 00:02:48,666 也會控制我們往哪裡看。 50 00:02:48,690 --> 00:02:52,134 我們發現,若促使 受試者去想像暴力罪行, 51 00:02:52,158 --> 00:02:56,454 他們會把視線轉向黑人臉孔, 52 00:02:56,478 --> 00:02:58,385 而非白人臉孔。 53 00:02:58,632 --> 00:03:03,341 若促使警察去想像 追捕、槍擊,以及逮捕, 54 00:03:03,751 --> 00:03:07,495 也會導致他們把視線 落在黑人的臉孔上。 55 00:03:07,634 --> 00:03:12,877 偏見會影響我們 刑事司法體系的每一方面。 56 00:03:13,100 --> 00:03:16,031 在一個可判死刑之被告的 大型資料集中, 57 00:03:16,055 --> 00:03:18,268 我們發現,膚色比較黑的人 58 00:03:18,288 --> 00:03:22,493 被判死刑的機會高達兩倍以上—— 59 00:03:23,494 --> 00:03:25,921 至少當被害人是白人時。 60 00:03:25,945 --> 00:03:27,383 這個影響非常顯著, 61 00:03:27,407 --> 00:03:30,708 就算我們控制了犯罪的嚴重程度 62 00:03:30,732 --> 00:03:33,013 以及被告的吸引力也一樣。 63 00:03:33,037 --> 00:03:35,334 不論我們控制哪些變數, 64 00:03:35,710 --> 00:03:39,055 我們都發現黑人受的懲罰 65 00:03:39,079 --> 00:03:43,404 和他們身體膚色有多黑成比例: 66 00:03:43,428 --> 00:03:44,919 越黑的人, 67 00:03:45,333 --> 00:03:47,034 越有可能被判死刑。 68 00:03:47,110 --> 00:03:51,319 偏見也會影響老師如何懲戒學生。 69 00:03:51,781 --> 00:03:53,705 我和我同事發現, 70 00:03:53,705 --> 00:03:57,958 老師會想要對黑人中學生施以 71 00:03:57,978 --> 00:04:00,970 比白人學生更嚴厲的懲罰, 72 00:04:00,994 --> 00:04:03,570 即使他們重犯相同的錯誤。 73 00:04:03,594 --> 00:04:05,770 在近期的一項研究中,我們發現 74 00:04:05,790 --> 00:04:09,270 老師會把黑人學生 當作一個群體來對待, 75 00:04:09,294 --> 00:04:11,940 卻把白人學生當作 單獨的個體來對待。 76 00:04:12,126 --> 00:04:15,725 比如說,一個黑人學生 做出了不當的行為, 77 00:04:15,749 --> 00:04:20,096 幾天後,有另一個黑人學生 也做了不當的行為, 78 00:04:20,558 --> 00:04:23,564 老師對第二個黑人學生的反應 79 00:04:23,810 --> 00:04:26,582 會像是他做了兩次不當的行為。 80 00:04:26,952 --> 00:04:29,546 就彷彿一個孩子的罪過 81 00:04:29,787 --> 00:04:31,963 可以疊加在另一個孩子身上。 82 00:04:31,987 --> 00:04:35,281 為了理解世界,我們會創造分類, 83 00:04:35,305 --> 00:04:39,788 為了稍微控制和整理 84 00:04:39,812 --> 00:04:43,902 每天不斷轟炸我們的刺激物。 85 00:04:43,926 --> 00:04:47,673 分類以及它所種下的偏見 86 00:04:47,918 --> 00:04:52,940 讓我們的大腦能快速 且有效地做出判斷, 87 00:04:52,964 --> 00:04:58,056 我們會本能地依賴 看似可預測的模式。 88 00:04:58,083 --> 00:05:03,625 但,雖然我們創造的分類 能讓我們快速地做決策, 89 00:05:04,050 --> 00:05:06,552 卻也會強化偏見。 90 00:05:06,576 --> 00:05:10,120 所以,協助我們 理解世界的那些東西, 91 00:05:11,104 --> 00:05:13,084 也能矇蔽我們。 92 00:05:13,509 --> 00:05:16,287 它們輕鬆地幫我們做出選擇, 93 00:05:16,311 --> 00:05:17,927 完全沒有阻力。 94 00:05:18,956 --> 00:05:21,512 但要付出的代價也很大。 95 00:05:22,158 --> 00:05:23,757 我們能怎麼做? 96 00:05:24,507 --> 00:05:26,895 我們大家都無法抵抗偏見, 97 00:05:27,022 --> 00:05:29,702 但我們不見得時時刻刻 都會依偏見行事。 98 00:05:29,726 --> 00:05:33,370 有些條件會讓偏見活躍起來, 99 00:05:33,394 --> 00:05:35,927 有些則會抑制偏見。 100 00:05:35,951 --> 00:05:37,798 讓我舉個例子。 101 00:05:38,663 --> 00:05:43,223 許多人都很熟悉 Nextdoor 這間科技公司。 102 00:05:44,073 --> 00:05:46,762 他們的目的是要創造出 103 00:05:46,782 --> 00:05:50,526 更堅強、更健康、更安全的鄰里。 104 00:05:51,468 --> 00:05:54,389 他們便提供這個線上空間, 105 00:05:54,413 --> 00:05:57,562 讓鄰居可以聚集並分享資訊。 106 00:05:57,586 --> 00:06:00,523 但,Nextdoor 很快就發現 107 00:06:00,543 --> 00:06:03,485 他們有種族歸納方面的問題。 108 00:06:04,012 --> 00:06:05,639 在典型的情況中, 109 00:06:06,003 --> 00:06:08,237 當居民看向窗外, 110 00:06:08,423 --> 00:06:12,200 看到他們的白人鄰里中有個黑人, 111 00:06:12,496 --> 00:06:16,601 就會快速判斷這個黑人不懷好意, 112 00:06:17,235 --> 00:06:20,586 即便沒有任何證據顯示 他有打算要犯罪。 113 00:06:20,610 --> 00:06:23,544 我們在線上的許多行為方式 114 00:06:23,568 --> 00:06:26,820 都反映出我們在真實世界的行為。 115 00:06:27,117 --> 00:06:31,062 但我們並不想要創造 一個操作簡易的系統 116 00:06:31,086 --> 00:06:35,322 來放大偏見、加深種族差異, 117 00:06:36,129 --> 00:06:38,395 而無法瓦解它們。 118 00:06:38,863 --> 00:06:40,825 Nextdoor 的共同創辦人 119 00:06:40,845 --> 00:06:44,233 便向我及他人求助, 希望能想出辦法來。 120 00:06:44,471 --> 00:06:48,407 他們知道,若要在平台上 抑制種族歸納, 121 00:06:48,441 --> 00:06:50,363 他們就得增加阻力; 122 00:06:50,387 --> 00:06:53,045 意即,他們要讓大家慢下來。 123 00:06:53,069 --> 00:06:55,264 所以,Nextdoor 要做出選擇, 124 00:06:55,288 --> 00:06:57,766 他們決定不衝動行事, 125 00:06:57,790 --> 00:07:00,078 選擇加上阻力。 126 00:07:00,397 --> 00:07:03,837 他們的做法是增添一個簡單的清單。 127 00:07:03,861 --> 00:07:05,703 清單上有三個項目。 128 00:07:06,111 --> 00:07:09,052 首先,他們請使用者暫停一下, 129 00:07:09,076 --> 00:07:14,193 想想:「這個人做了什麼 讓他顯得可疑?」 130 00:07:14,876 --> 00:07:19,295 「黑人」這個分類並不是 懷疑的基礎理由。 131 00:07:19,433 --> 00:07:24,383 接著,他們請使用者描述 這個人的身體特徵, 132 00:07:24,596 --> 00:07:27,115 不單單是種族和性別。 133 00:07:27,642 --> 00:07:31,025 第三,他們發現很多人 134 00:07:31,049 --> 00:07:33,977 似乎不知道種族歸納是什麼, 135 00:07:34,001 --> 00:07:36,324 也不知道他們自己參與其中。 136 00:07:36,462 --> 00:07:39,656 所以 Nextdoor 為他們提供定義, 137 00:07:39,680 --> 00:07:42,865 告訴他們種族歸納 是被嚴格禁止的。 138 00:07:43,071 --> 00:07:45,683 大部分的人在機場和地鐵站 139 00:07:45,707 --> 00:07:49,662 都看過這類標牌:「如果 你看到了什麼事,說出來。」 140 00:07:49,928 --> 00:07:52,742 Nextdoor 把這個標牌改成: 141 00:07:53,584 --> 00:07:56,156 「如果你看見了什麼可疑的事, 142 00:07:56,180 --> 00:07:58,253 明確地說出來。」 143 00:07:59,491 --> 00:08:03,756 光是用這種讓大家慢下來的策略, 144 00:08:03,961 --> 00:08:09,652 Nextdoor 就讓 種族歸納減少了 75%。 145 00:08:10,496 --> 00:08:12,586 現在,大家通常會對我說: 146 00:08:12,610 --> 00:08:17,323 「你不可能在所有情況、 所有情境中加上阻力, 147 00:08:17,347 --> 00:08:21,993 更不可能改變那些總是 瞬間做決定的人。」 148 00:08:22,730 --> 00:08:25,553 但結果發現,我們能添加阻力的情況 149 00:08:25,587 --> 00:08:27,593 比我們想像中的還要多。 150 00:08:28,031 --> 00:08:31,348 和加州的奧克蘭警局合作之後, 151 00:08:31,570 --> 00:08:35,426 我和幾位同事能夠協助該警局 152 00:08:35,450 --> 00:08:41,735 減少攔檢沒有犯下 任何嚴重罪行者的次數。 153 00:08:41,769 --> 00:08:44,134 我們的做法是要求警員 154 00:08:44,158 --> 00:08:48,601 在做每次攔檢時 都要先問自己一個問題: 155 00:08:49,451 --> 00:08:52,466 「這次攔檢是有思考過 才決定要做的, 156 00:08:52,490 --> 00:08:53,941 是或否?」 157 00:08:55,353 --> 00:08:56,749 換言之, 158 00:08:57,621 --> 00:09:00,615 我在攔檢之前是否有任何資訊, 159 00:09:00,615 --> 00:09:03,730 能將這個人和特定的 犯罪連結在一起? 160 00:09:04,587 --> 00:09:08,900 把那個問題加到警員 在攔檢時要填寫的表格上, 161 00:09:09,172 --> 00:09:10,981 就會讓警員慢下來,暫停一下, 162 00:09:11,005 --> 00:09:15,225 他們會想:「我為什麼 會想要把這個人攔下來?」 163 00:09:16,721 --> 00:09:22,347 在 2017 年,我們把 那個思考問題納入表格之前, 164 00:09:23,655 --> 00:09:27,601 全市的警員進行了 大約 32,000 次攔檢。 165 00:09:27,625 --> 00:09:31,740 隔年,加上了那個問題之後, 166 00:09:31,764 --> 00:09:34,208 數字減少至 19,000 次攔檢。 167 00:09:34,232 --> 00:09:39,193 光是對非裔美國人 所做的攔檢就減少了 43%。 168 00:09:39,905 --> 00:09:44,343 且減少對黑人的攔檢次數 並沒有讓城市變得比較危險。 169 00:09:44,367 --> 00:09:47,101 事實上,犯罪率持續下降, 170 00:09:47,125 --> 00:09:50,462 該城市變得讓每個人都更安全。 171 00:09:50,486 --> 00:09:55,841 一個解決方案是減少 不必要的攔檢數目。 172 00:09:56,285 --> 00:09:59,725 另一個解決方案則是必須攔檢時, 173 00:09:59,745 --> 00:10:02,018 改善攔檢的品質。 174 00:10:02,512 --> 00:10:05,108 此時科技就能派上用場。 175 00:10:05,132 --> 00:10:07,763 我們都知道喬治.佛洛伊德的死亡, 176 00:10:08,499 --> 00:10:11,628 因為當時試圖協助他的人 177 00:10:11,648 --> 00:10:14,592 用手機攝影機拍下 178 00:10:14,621 --> 00:10:18,054 這段和警方可怕、致命的遭遇。 179 00:10:18,750 --> 00:10:23,572 我們有各種科技, 但我們沒有善用。 180 00:10:23,805 --> 00:10:26,106 全國各地的警局 181 00:10:26,332 --> 00:10:29,885 現在都被要求在身上戴攝影機, 182 00:10:29,909 --> 00:10:35,413 這麼一來,我們會記錄到的 不僅是最可怕極端的遭遇, 183 00:10:35,863 --> 00:10:38,617 還會記錄日常的互動。 184 00:10:38,641 --> 00:10:41,529 我們和史丹佛大學的 一個跨領域團隊合作, 185 00:10:41,549 --> 00:10:44,129 開始使用機器學習技術 186 00:10:44,153 --> 00:10:47,424 來分析大量相遇的情境。 187 00:10:47,544 --> 00:10:52,155 目的是要更了解在例行的 交通攔檢時會發生什麼事。 188 00:10:52,179 --> 00:10:54,347 我們發現, 189 00:10:54,358 --> 00:10:58,055 即使警員的行為表現非常專業, 190 00:10:58,860 --> 00:11:03,791 比起白人司機,他們對黑人司機的 說話方式仍然比較不尊重。 191 00:11:04,052 --> 00:11:07,610 事實上,單單從警員的用詞, 192 00:11:08,151 --> 00:11:13,050 我們就能預測出他們是在 和黑人司機或白人司機說話。 193 00:11:13,337 --> 00:11:18,485 問題是,這些攝影機 所拍攝的大部分影片 194 00:11:19,123 --> 00:11:23,513 並沒有被警局用來 了解街上發生的狀況 195 00:11:23,534 --> 00:11:25,777 或用來訓練警員。 196 00:11:26,554 --> 00:11:28,089 那很可惜。 197 00:11:28,796 --> 00:11:33,585 例行的攔檢怎麼會 變成致命的遭遇? 198 00:11:33,609 --> 00:11:36,600 在喬治.佛洛伊德的案例中 這是怎麼發生的? 199 00:11:37,588 --> 00:11:39,670 在其他的案例中呢? 200 00:11:39,694 --> 00:11:42,605 我的長子 16 歲時, 201 00:11:43,114 --> 00:11:45,956 他發現當白人看著他時, 202 00:11:46,277 --> 00:11:47,913 他們會感到恐懼。 203 00:11:49,123 --> 00:11:51,919 他說,最糟的時候是在電梯裡。 204 00:11:52,313 --> 00:11:54,261 當電梯門關上, 205 00:11:54,668 --> 00:11:57,551 大家被困在這個小小的空間裡, 206 00:11:57,775 --> 00:12:02,425 和他們認為危險的人困在一起。 207 00:12:02,744 --> 00:12:05,815 我兒子能感受到他們的不適, 208 00:12:05,988 --> 00:12:08,885 並用微笑讓他們感到自在些, 209 00:12:09,169 --> 00:12:10,938 降低他們的恐懼。 210 00:12:11,351 --> 00:12:12,879 當他說話時, 211 00:12:13,320 --> 00:12:15,260 他們的身體放鬆了。 212 00:12:15,442 --> 00:12:17,212 他們比較能呼吸。 213 00:12:17,369 --> 00:12:19,900 他們喜歡他的抑揚頓挫、 214 00:12:19,924 --> 00:12:22,241 他的發音、他的用字遣詞。 215 00:12:22,986 --> 00:12:24,829 他聽起來就像他們的一份子。 216 00:12:24,853 --> 00:12:29,583 我以前認為我兒子 和他爸爸一樣天生外向。 217 00:12:29,607 --> 00:12:33,490 但,在那一刻, 我從那段談話中了解到, 218 00:12:34,143 --> 00:12:38,227 他的微笑並不表示他想要 219 00:12:38,247 --> 00:12:41,339 和那些本來會是陌生人的人連結。 220 00:12:41,920 --> 00:12:45,193 他的微笑是個護身符, 用來保護他自己, 221 00:12:45,596 --> 00:12:51,815 是他搭電梯搭了數千次 而磨練出來的生存技能。 222 00:12:52,387 --> 00:12:57,841 他的膚色會產生緊張感, 讓他自己有生命危險, 223 00:12:59,026 --> 00:13:02,020 他便學習去調解這樣的緊張感。 224 00:13:02,619 --> 00:13:06,219 我們知道大腦天生就會有偏見, 225 00:13:06,426 --> 00:13:10,891 打破那偏見的一種方式 就是先暫停下來做反思, 226 00:13:10,915 --> 00:13:13,220 想想我們的假設有什麼依據。 227 00:13:13,244 --> 00:13:14,999 我們得要問問自己: 228 00:13:15,023 --> 00:13:19,688 我們帶著什麼假設踏進電梯? 229 00:13:21,776 --> 00:13:23,302 或上飛機? 230 00:13:23,532 --> 00:13:28,131 我們要如何察覺到 自己無意識的偏見? 231 00:13:28,155 --> 00:13:30,680 那些假設能保護誰的安全? 232 00:13:32,615 --> 00:13:34,751 那些假設讓誰有危險? 233 00:13:35,649 --> 00:13:38,003 若我們不去問這些問題, 234 00:13:38,978 --> 00:13:43,602 不去堅持我們的學校、法庭、警局, 235 00:13:43,626 --> 00:13:46,312 及其他機構都要問這些問題, 236 00:13:47,835 --> 00:13:51,664 那麼我們就會讓偏見繼續 237 00:13:51,688 --> 00:13:53,108 矇蔽我們。 238 00:13:53,348 --> 00:13:54,838 這麼一來, 239 00:13:56,066 --> 00:13:59,274 沒有誰是真正安全的。 240 00:14:02,103 --> 00:14:03,411 謝謝。