幾年前, 我和我兒子一起搭飛機, 他當時五歲。 對於能和媽咪一起搭飛機, 我兒子感到很興奮。 他環視周圍,到處看看, 他也在打量其他人。 然後他看到一名男子,說: 「嘿!那個人看起來像爹地!」 我看向那名男子, 他看起來完全不像我丈夫, 一點也不像。 所以我開始環視飛機內部, 我發現這名男子 是機上唯一的黑人男性。 我心想:「好。 我要和我的兒子談一下, 讓他知道不是所有的黑人 看起來都一樣。」 我兒子抬起頭,對我說: 「我希望他不會在這架飛機上搶劫。」 我說:「什麼?你剛才說什麼?」 他說:「我希望那個人 不會在這架飛機上搶劫。」 我說:「你為什麼會那樣說? 你知道爹地不可能會在飛機上搶劫。」 他說:「是啊,是啊,我知道。」 我說:「嗯,那你為什麼那樣說?」 他看著我,表情很悲傷, 他回答: 「我不知道我為什麼那樣說。 我不知道我為什麼那樣想。」 我們生活在如此 嚴重的種族分層當中, 就連五歲小孩也會告訴我們 接下來應該會發生什麼事, 即使當下沒有作惡者, 也沒有明確的恨意。 黑人和犯罪之間的連結 進入了我五歲兒子的腦中。 它找到路進入了所有孩子的腦中, 我們所有人的腦中。 我們在世界上所看到的種族差異 形塑了我們的大腦, 這些說法協助我們理解 我們所看見的差異: 「那些人是罪犯。」 「那些人很暴力。」 「要害怕那些人。」 我的研究團隊把受試者 帶到我們的實驗室, 讓他們接觸不同的臉孔, 我們發現,若他們 接觸的是黑人的臉孔, 他們會更快、更清楚地 看出槍枝的模糊影像。 偏見不僅會控制我們看見什麼, 也會控制我們往哪裡看。 我們發現,若促使 受試者去想像暴力罪行, 他們會把視線轉向黑人臉孔, 而非白人臉孔。 若促使警察去想像 追捕、槍擊,以及逮捕, 也會導致他們把視線 落在黑人的臉孔上。 偏見會影響我們 刑事司法體系的每一方面。 在一個可判死刑之被告的 大型資料集中, 我們發現,膚色比較黑的人 被判死刑的機會高達兩倍以上—— 至少當被害人是白人時。 這個影響非常顯著, 就算我們控制了犯罪的嚴重程度 以及被告的吸引力也一樣。 不論我們控制哪些變數, 我們都發現黑人受的懲罰 和他們身體膚色有多黑成比例: 越黑的人, 越有可能被判死刑。 偏見也會影響老師如何懲戒學生。 我和我同事發現, 老師會想要對黑人中學生施以 比白人學生更嚴厲的懲罰, 即使他們重犯相同的錯誤。 在近期的一項研究中,我們發現 老師會把黑人學生 當作一個群體來對待, 卻把白人學生當作 單獨的個體來對待。 比如說,一個黑人學生 做出了不當的行為, 幾天後,有另一個黑人學生 也做了不當的行為, 老師對第二個黑人學生的反應 會像是他做了兩次不當的行為。 就彷彿一個孩子的罪過 可以疊加在另一個孩子身上。 為了理解世界,我們會創造分類, 為了稍微控制和整理 每天不斷轟炸我們的刺激物。 分類以及它所種下的偏見 讓我們的大腦能快速 且有效地做出判斷, 我們會本能地依賴 看似可預測的模式。 但,雖然我們創造的分類 能讓我們快速地做決策, 卻也會強化偏見。 所以,協助我們 理解世界的那些東西, 也能矇蔽我們。 它們輕鬆地幫我們做出選擇, 完全沒有阻力。 但要付出的代價也很大。 我們能怎麼做? 我們大家都無法抵抗偏見, 但我們不見得時時刻刻 都會依偏見行事。 有些條件會讓偏見活躍起來, 有些則會抑制偏見。 讓我舉個例子。 許多人都很熟悉 Nextdoor 這間科技公司。 他們的目的是要創造出 更堅強、更健康、更安全的鄰里。 他們便提供這個線上空間, 讓鄰居可以聚集並分享資訊。 但,Nextdoor 很快就發現 他們有種族歸納方面的問題。 在典型的情況中, 當居民看向窗外, 看到他們的白人鄰里中有個黑人, 就會快速判斷這個黑人不懷好意, 即便沒有任何證據顯示 他有打算要犯罪。 我們在線上的許多行為方式 都反映出我們在真實世界的行為。 但我們並不想要創造 一個操作簡易的系統 來放大偏見、加深種族差異, 而無法瓦解它們。 Nextdoor 的共同創辦人 便向我及他人求助, 希望能想出辦法來。 他們知道,若要在平台上 抑制種族歸納, 他們就得增加阻力; 意即,他們要讓大家慢下來。 所以,Nextdoor 要做出選擇, 他們決定不衝動行事, 選擇加上阻力。 他們的做法是增添一個簡單的清單。 清單上有三個項目。 首先,他們請使用者暫停一下, 想想:「這個人做了什麼 讓他顯得可疑?」 「黑人」這個分類並不是 懷疑的基礎理由。 接著,他們請使用者描述 這個人的身體特徵, 不單單是種族和性別。 第三,他們發現很多人 似乎不知道種族歸納是什麼, 也不知道他們自己參與其中。 所以 Nextdoor 為他們提供定義, 告訴他們種族歸納 是被嚴格禁止的。 大部分的人在機場和地鐵站 都看過這類標牌:「如果 你看到了什麼事,說出來。」 Nextdoor 把這個標牌改成: 「如果你看見了什麼可疑的事, 明確地說出來。」 光是用這種讓大家慢下來的策略, Nextdoor 就讓 種族歸納減少了 75%。 現在,大家通常會對我說: 「你不可能在所有情況、 所有情境中加上阻力, 更不可能改變那些總是 瞬間做決定的人。」 但結果發現,我們能添加阻力的情況 比我們想像中的還要多。 和加州的奧克蘭警局合作之後, 我和幾位同事能夠協助該警局 減少攔檢沒有犯下 任何嚴重罪行者的次數。 我們的做法是要求警員 在做每次攔檢時 都要先問自己一個問題: 「這次攔檢是有思考過 才決定要做的, 是或否?」 換言之, 我在攔檢之前是否有任何資訊, 能將這個人和特定的 犯罪連結在一起? 把那個問題加到警員 在攔檢時要填寫的表格上, 就會讓警員慢下來,暫停一下, 他們會想:「我為什麼 會想要把這個人攔下來?」 在 2017 年,我們把 那個思考問題納入表格之前, 全市的警員進行了 大約 32,000 次攔檢。 隔年,加上了那個問題之後, 數字減少至 19,000 次攔檢。 光是對非裔美國人 所做的攔檢就減少了 43%。 且減少對黑人的攔檢次數 並沒有讓城市變得比較危險。 事實上,犯罪率持續下降, 該城市變得讓每個人都更安全。 一個解決方案是減少 不必要的攔檢數目。 另一個解決方案則是必須攔檢時, 改善攔檢的品質。 此時科技就能派上用場。 我們都知道喬治.佛洛伊德的死亡, 因為當時試圖協助他的人 用手機攝影機拍下 這段和警方可怕、致命的遭遇。 我們有各種科技, 但我們沒有善用。 全國各地的警局 現在都被要求在身上戴攝影機, 這麼一來,我們會記錄到的 不僅是最可怕極端的遭遇, 還會記錄日常的互動。 我們和史丹佛大學的 一個跨領域團隊合作, 開始使用機器學習技術 來分析大量相遇的情境。 目的是要更了解在例行的 交通攔檢時會發生什麼事。 我們發現, 即使警員的行為表現非常專業, 比起白人司機,他們對黑人司機的 說話方式仍然比較不尊重。 事實上,單單從警員的用詞, 我們就能預測出他們是在 和黑人司機或白人司機說話。 問題是,這些攝影機 所拍攝的大部分影片 並沒有被警局用來 了解街上發生的狀況 或用來訓練警員。 那很可惜。 例行的攔檢怎麼會 變成致命的遭遇? 在喬治.佛洛伊德的案例中 這是怎麼發生的? 在其他的案例中呢? 我的長子 16 歲時, 他發現當白人看著他時, 他們會感到恐懼。 他說,最糟的時候是在電梯裡。 當電梯門關上, 大家被困在這個小小的空間裡, 和他們認為危險的人困在一起。 我兒子能感受到他們的不適, 並用微笑讓他們感到自在些, 降低他們的恐懼。 當他說話時, 他們的身體放鬆了。 他們比較能呼吸。 他們喜歡他的抑揚頓挫、 他的發音、他的用字遣詞。 他聽起來就像他們的一份子。 我以前認為我兒子 和他爸爸一樣天生外向。 但,在那一刻, 我從那段談話中了解到, 他的微笑並不表示他想要 和那些本來會是陌生人的人連結。 他的微笑是個護身符, 用來保護他自己, 是他搭電梯搭了數千次 而磨練出來的生存技能。 他的膚色會產生緊張感, 讓他自己有生命危險, 他便學習去調解這樣的緊張感。 我們知道大腦天生就會有偏見, 打破那偏見的一種方式 就是先暫停下來做反思, 想想我們的假設有什麼依據。 我們得要問問自己: 我們帶著什麼假設踏進電梯? 或上飛機? 我們要如何察覺到 自己無意識的偏見? 那些假設能保護誰的安全? 那些假設讓誰有危險? 若我們不去問這些問題, 不去堅持我們的學校、法庭、警局, 及其他機構都要問這些問題, 那麼我們就會讓偏見繼續 矇蔽我們。 這麼一來, 沒有誰是真正安全的。 謝謝。