0:00:00.910,0:00:02.183 몇 년 전 0:00:02.183,0:00:07.119 저는 당시 다섯 살 밖에 안된[br]아들과 비행기를 탔습니다. 0:00:08.245,0:00:13.340 아이는 엄마와 비행기를 탄다는 것에[br]너무 신이 나있었죠. 0:00:13.340,0:00:16.304 여기저기 두리번 거리며[br]이것저것 살펴보고 0:00:16.304,0:00:18.164 사람들도 둘러보고요. 0:00:18.164,0:00:19.630 그러더니 한 남성을 보고는 0:00:19.630,0:00:22.703 "어, 우리 아빠랑[br]닮았어요!"하는 거예요. 0:00:23.882,0:00:25.802 그래서 그 남성 쪽을 봤는데 0:00:25.802,0:00:29.556 제 남편이랑 하나도 안 닮은 거예요. 0:00:29.556,0:00:30.949 전혀요. 0:00:31.461,0:00:33.797 그래서 비행기 안을 둘러봤는데 0:00:33.797,0:00:39.706 그가 기내에 유일한 흑인 남성이라는[br]사실을 깨달았죠. 0:00:40.874,0:00:42.286 그래서 생각했죠. 0:00:42.286,0:00:43.504 "좋아. 0:00:44.369,0:00:46.918 우리 아들이랑 얘기 좀 해야겠어. 0:00:46.918,0:00:49.847 흑인이 다 똑같이 생긴 건[br]아니라고 말이야."라고요. 0:00:49.847,0:00:54.248 아이가 고개를 들더니 저에게 0:00:56.246,0:00:58.617 "저 아저씨가 비행기를[br]강탈하지 않아야할텐데."하는 거예요. 0:00:59.359,0:01:01.874 "뭐? 뭐라고 했니?"라고 했더니 0:01:01.874,0:01:05.326 "저 아저씨가 비행기를 강탈하지[br]않았으면 한다고요."라고 하더군요. 0:01:07.200,0:01:09.952 "왜 그런 말을 하는 거니? 0:01:10.486,0:01:13.149 아빠가 비행기를 털지[br]않을 거라는 걸 알잖아."라고 했더니 0:01:13.149,0:01:15.485 "네, 네, 네, 알죠."라고 하더군요. 0:01:16.179,0:01:18.306 "그럼 왜 그런 말을[br]한 거니?"라고 물었더니 0:01:20.346,0:01:23.303 아들이 정말 슬픈 얼굴로 저를 쳐다보며 0:01:24.168,0:01:25.422 이렇게 말했어요. 0:01:26.890,0:01:28.996 "저도 제가 왜 그런 말을[br]했는지 모르겠어요. 0:01:30.600,0:01:32.958 제가 왜 그런 생각을 했는지요." 0:01:33.724,0:01:37.242 우리는 이렇게 심각한[br]인종적 계층화 속에 살고 있어서 0:01:37.242,0:01:42.326 다섯 살짜리라도 어떤 일이[br]일어날지를 알고 있습니다. 0:01:43.990,0:01:46.097 나쁜 짓을 하는 사람이 없더라도 0:01:46.097,0:01:48.700 노골적인 증오심이 없더라도 말이죠. 0:01:50.184,0:01:54.097 흑인과 범죄를 연관짓는 이 편견이 0:01:54.097,0:01:58.455 다섯 살 짜리 아들의[br]머릿속에까지 자리잡은 겁니다. 0:01:59.787,0:02:03.050 이런 생각은 우리 모두의 아이들, 0:02:04.201,0:02:05.592 우리 모두의 머릿속에 자리잡습니다. 0:02:06.793,0:02:07.982 우리의 생각은 0:02:07.982,0:02:11.933 우리가 세상에서 보는[br]인종차별에 의해 형성되고 0:02:12.752,0:02:18.093 이런 차별을 합리화시키는[br]이야기들에 길들여지죠. 0:02:19.637,0:02:22.163 "저 사람들은 범죄자들이야." 0:02:22.163,0:02:24.112 "저 사람들은 폭력적이야." 0:02:24.112,0:02:27.101 "저 사람들은 공포의 대상이야." 0:02:27.814,0:02:31.005 저희 연구팀이 사람들을[br]실험실로 데려와서 0:02:31.005,0:02:33.057 사람들의 얼굴을 보여줬는데 0:02:33.057,0:02:40.336 참가자들이 흑인의 얼굴을 볼 때[br]흐릿한 총의 이미지를 0:02:40.336,0:02:43.616 더 빨리, 더 선명하게 볼 수[br]있다는 걸 발견했습니다. 0:02:43.616,0:02:46.994 편견은 우리가 무엇을 보느냐를[br]통제할 뿐 아니라 0:02:46.994,0:02:48.666 어디를 보느냐까지도 통제합니다. 0:02:48.666,0:02:52.134 사람들에게 폭력적인 범죄를[br]생각해보라고 지시하면 0:02:52.134,0:02:56.454 흑인의 얼굴로 시선을 옮기고 0:02:56.454,0:02:58.608 백인의 얼굴에선 시선을[br]떼는걸 발견했습니다. 0:02:58.608,0:03:03.751 경찰관들에게 범인을 잡고[br]총을 쏘고 체포하라고 지시하는 것도 0:03:03.751,0:03:07.610 그들의 시선을 흑인에게 옮겨가게 하죠. 0:03:07.610,0:03:12.700 편견은 형사사법제도의[br]모든 측면을 병들게 할수도 있습니다. 0:03:13.100,0:03:16.031 사형선고를 받을 수 있는[br]피고인들의 대규모 데이터 세트에서 0:03:16.031,0:03:20.388 피부색이 더 검을수록[br]사형선고를 받을 확률이 0:03:20.388,0:03:22.493 두 배 이상 증가한다는 것을[br]발견했습니다. 0:03:23.494,0:03:25.921 적어도 피해자가[br]백인일 경우에는 말이죠. 0:03:25.921,0:03:27.383 피부색이 미치는 영향은 엄청납니다. 0:03:27.383,0:03:30.708 범죄의 심각성과 0:03:30.708,0:03:33.013 피고인의 매력을 통제했음에도[br]불구하고 말입니다. 0:03:33.013,0:03:35.686 무엇을 통제하든 0:03:35.686,0:03:39.055 흑인은 그들의 흑인성과 신체적 특징에 0:03:39.055,0:03:43.404 비례적으로 처벌받는다는[br]사실을 발견했습니다. 0:03:43.404,0:03:45.309 피부 색이 더 검을수록 0:03:45.309,0:03:47.086 더 죽어 마땅하다는 거죠. 0:03:47.086,0:03:51.319 편견은 선생님이 학생들을 훈육하는[br]방식에 영향을 끼치기도 합니다. 0:03:51.781,0:03:53.526 저와 동료들은 0:03:53.526,0:03:56.987 아이들이 계속해서[br]같은 규칙을 어겼을 때 0:03:56.987,0:03:59.668 선생님들은 백인 학생보다 0:03:59.668,0:04:03.570 흑인 학생을 더 엄격하게 훈육하려[br]한다는 것을 발견했습니다. 0:04:03.570,0:04:04.888 최근 연구에서는 0:04:04.888,0:04:09.270 선생님들이 흑인 학생들은[br]한 집단으로 묶어서 대하면서 0:04:09.270,0:04:11.725 백인 학생들은 개개인으로[br]대한다는 걸 발견했습니다. 0:04:12.126,0:04:15.725 예를 들어 흑인 학생[br]한 명이 잘못을 하고 0:04:15.725,0:04:19.900 며칠 뒤 다른 흑인 학생이 잘못을 하면 0:04:20.498,0:04:23.786 선생님은 두 번째 학생에게 0:04:23.786,0:04:26.435 마치 그 학생이 두 번째로 규칙을[br]어긴 것처럼 벌을 주는 거죠. 0:04:26.952,0:04:29.763 마치 한 아이의 잘못이 0:04:29.763,0:04:31.963 다른 아이에게 전가되기라도[br]하는 것처럼요. 0:04:31.963,0:04:35.281 우리는 세상을 이해하기 위해[br]분류를 하는데 0:04:35.281,0:04:39.788 우리가 끊임없이 받는[br]자극에 대해서 0:04:39.788,0:04:43.902 어느정도 통제와 일관성을[br]주장하기 위해서입니다. 0:04:43.902,0:04:47.894 분류에서 오는 편견은 0:04:47.894,0:04:52.940 뇌가 더 빠르고 효율적으로[br]판단을 내릴 수 있게 해주며, 0:04:52.940,0:04:56.366 본능적으로 예측가능해 보이는 0:04:56.366,0:04:58.059 패턴에 의존함으로써 이뤄집니다. 0:04:58.059,0:05:04.026 하지만 우리가 만들어내는 이 범주는[br]빠른 판단을 할 수 있게 해주는 동시에 0:05:04.026,0:05:06.552 편견을 강화시키기도 합니다. 0:05:06.552,0:05:09.968 우리가 세상을 볼 수 있도록[br]도와주는 것들이 0:05:11.104,0:05:13.084 동시에 세상을 제대로 볼 수 없게[br]만들기도 하는거죠. 0:05:13.509,0:05:16.287 별 힘 들이지 않고 0:05:16.287,0:05:17.680 선택을 할 수 있게 해주지만 0:05:18.956,0:05:21.401 동시에 많은 사람들이 희생자가 됩니다. 0:05:22.158,0:05:23.569 그럼 우리가 할 수 있는 게 뭘까요? 0:05:24.507,0:05:26.998 우린 모두 편견에 취약하지만 0:05:26.998,0:05:29.702 항상 편견에 따라 행동하진 않죠. 0:05:29.702,0:05:33.370 그 편견을 끌어내는 상황이 있는가 하면 0:05:33.370,0:05:35.927 편견을 잠재우는 상황이 있습니다. 0:05:35.927,0:05:37.798 예를 들어볼게요. 0:05:38.663,0:05:43.223 넥스트도어는 꽤 잘 알려진[br]기술 회사입니다. 0:05:44.073,0:05:50.526 더 단단하고, 건강하고, 안전한 동네를[br]만드는 것이 이 회사의 목표죠. 0:05:51.468,0:05:54.389 그래서 그들은 이웃들이 한 곳에 모여 0:05:54.389,0:05:57.562 정보를 공유할 수 있는 온라인 공간을[br]만들어 제공합니다. 0:05:57.562,0:05:59.522 그런데 넥스트도어는 0:05:59.522,0:06:03.404 곧 이 공간에 인종 프로파일링 문제가[br]있다는 걸 알게됐습니다. 0:06:04.012,0:06:05.979 전형적인 경우를 들자면 0:06:05.979,0:06:08.399 사람들이 창 밖을 내다봤을 때 0:06:08.399,0:06:12.472 주로 백인이 사는 그 동네에[br]흑인 남자가 있는 걸 봤을 때 0:06:12.472,0:06:17.211 그 남자가 뭔가 꿍꿍이가[br]있다고 빠른 판단을 내립니다. 0:06:17.211,0:06:20.586 그 남자가 범죄를 저질렀다는[br]증거도 없는데 말이죠. 0:06:20.586,0:06:23.544 어떻게 보면 사람들이[br]온라인에서 하는 행동은 0:06:23.544,0:06:26.682 우리가 세상에서 어떻게[br]행동하는지를 반영합니다. 0:06:27.117,0:06:31.062 하지만 우리가 원한건[br]이런 편견을 해소하기보다 0:06:31.062,0:06:35.249 편견을 증폭시키고[br]인종격차를 심화시킬 수 있는 0:06:36.129,0:06:38.395 사용하기 쉬운 시스템을[br]만드는 것을 원하진 않잖아요. 0:06:38.863,0:06:42.292 그래서 넥스트도어의 공동설립자는[br]저를 포함한 다른 사람들에게 0:06:42.292,0:06:44.447 어떻게 하면 좋을지[br]자문을 구해왔습니다. 0:06:44.447,0:06:48.417 그리고 이 공간에서의[br]인종 프로파일링을 방지하려면 0:06:48.417,0:06:50.363 제동을 걸어야한다는 것을 깨달았죠. 0:06:50.363,0:06:53.045 사람들이 속도를 줄일 수 있도록요. 0:06:53.045,0:06:55.264 그리고 넥스트도어는[br]선택의 기로에 놓였고 0:06:55.264,0:06:57.766 모든 충동을 거스르고 0:06:57.766,0:06:59.906 제동을 걸기로 했습니다. 0:07:00.397,0:07:03.837 간단한 체크리스트를 포함시킴으로써요. 0:07:03.837,0:07:05.531 세 가지 조항이 있었는데 0:07:06.111,0:07:09.052 첫째, 사용자들에게 잠시 멈추고 0:07:09.052,0:07:14.193 "이 사람이 뭘 하고있었길래 수상하다고[br]생각한 걸까?"라고 생각해보길 권했어요. 0:07:14.876,0:07:19.409 단지 "검은 피부색"은[br]의심의 이유가 될 수 없습니다. 0:07:19.409,0:07:24.572 둘째, 그 사람의 신체적 특징을[br]묘사하도록 권했습니다. 0:07:24.572,0:07:27.031 단순히 인종이나 성별만이 아니라요. 0:07:27.642,0:07:31.025 셋째, 넥스트도어는 곧 많은 사람들이 0:07:31.025,0:07:33.977 인종 프로파일링이 뭔지 모르고 0:07:33.977,0:07:35.960 일조하고 있다는 사실조차[br]모른다는 것을 발견했습니다. 0:07:36.462,0:07:39.656 그래서 넥스트도어는[br]인종 프로파일링의 의미를 설명하고 0:07:39.656,0:07:42.582 이는 엄격히 금지되어있다고[br]공지했습니다. 0:07:43.071,0:07:45.683 공항이나 지하철역에서[br]이런 문구를 본 적이 있으실겁니다. 0:07:45.683,0:07:49.409 "뭔가 보이면 신고하세요." 0:07:49.928,0:07:52.742 넥스트도어는 이걸 수정하고자 했습니다. 0:07:53.584,0:07:56.156 "뭔가 수상한 걸 본다면 0:07:56.156,0:07:58.253 상세히 얘기하세요."라고요. 0:07:59.491,0:08:03.937 이런 방법으로 사람들을[br]천천히 생각해보게 함으로써 0:08:03.937,0:08:09.652 인종 프로파일링을 75%까지[br]줄일 수 있었습니다. 0:08:10.496,0:08:12.586 사람들이 제게 자주 하는[br]말 중에 하나가 0:08:12.586,0:08:17.323 "모든 상황, 모든 맥락에[br]제동을 걸 수는 없잖아요. 0:08:17.323,0:08:21.993 순간적인 판단으로 행동하는[br]사람들은 특히나요."라는 말입니다. 0:08:22.730,0:08:25.293 하지만 알고보면 우리가 생각하는 것보다 0:08:25.293,0:08:27.593 훨씬 많은 상황에[br]제동을 걸 수 있습니다. 0:08:28.031,0:08:30.105 캘리포니아에 있는 0:08:30.105,0:08:31.546 오클랜드 경찰국과 일하면서 0:08:31.546,0:08:35.426 저와 제 동료들은 이곳의 경찰관들이 0:08:35.426,0:08:38.121 심각한 범죄를 [br]저지르는 게 아닌 사람들을 0:08:38.121,0:08:41.745 불러세우는 일을 줄이도록 도왔습니다. 0:08:41.745,0:08:44.134 바로 누군가를 불러세우기 전 0:08:44.134,0:08:48.601 스스로에게 이렇게[br]질문하도록 함으로써요: 0:08:49.451,0:08:52.466 "이게 정보 주도형 판단인가? 0:08:52.466,0:08:53.941 아닌가?" 0:08:55.353,0:08:56.749 말하자면 0:08:57.621,0:09:02.105 이 사람과 연관된[br]어떤 특정 범죄에 대한 0:09:02.105,0:09:03.730 사전 정보가 있는가? 0:09:04.587,0:09:06.045 경찰관이 누군가의 차를 불러세울 때 0:09:06.045,0:09:09.148 써내야하는 양식 중[br]이 질문을 포함시킴으로써 0:09:09.148,0:09:10.981 경찰관들을 천천히, 잠시 멈추고 0:09:10.981,0:09:15.225 "내가 왜 이 사람을 세우려고 하지?"[br]하고 생각할 수 있도록 한 겁니다. 0:09:16.721,0:09:22.282 그 양식에 이런 정보 주도형 질문을[br]추가하기 전인 2017년에는 0:09:23.655,0:09:27.601 경찰관들은 도시 내에서 [br]약 32,000번 차를 세웠습니다. 0:09:27.601,0:09:31.740 그 다음 해에 이 질문을 추가하자 0:09:31.740,0:09:34.208 19,000번으로 현저히 줄었죠. 0:09:34.208,0:09:39.193 흑인을 불러세우는 건[br]43%나 감소했습니다. 0:09:39.905,0:09:44.343 흑인들을 덜 세운다고 해서[br]도시가 더 위험해진 것도 아니었죠. 0:09:44.343,0:09:47.101 사실은 범죄율은 계속해서 줄어들었고 0:09:47.101,0:09:50.462 모두에게 더욱 안전한[br]도시가 되었습니다. 0:09:50.462,0:09:55.841 그러니까 해결방안 중 하나는 쓸데없이[br]차를 세우는 일을 줄이는거예요. 0:09:56.285,0:10:00.555 다른 방법은 경찰관들이 차를 세우면 0:10:00.555,0:10:01.884 타당한 이유가 있도록[br]분명히 하는 것입니다. 0:10:02.512,0:10:05.108 현대기술의 도움을 받아서요. 0:10:05.108,0:10:07.547 우리 모두 조지 플로이드의[br]죽음에 대해 알고 있죠. 0:10:08.499,0:10:13.271 그를 도와주려던 사람들이[br]휴대폰 카메라를 들고 0:10:13.271,0:10:18.726 그와 경찰간의 끔찍하고 치명적인[br]만남을 기록했기 때문에요. 0:10:18.726,0:10:23.781 하지만 좋은 방향으로 쓰이고 있지 않는 [br]기술들이 많아요. 0:10:23.781,0:10:26.308 전국의 경찰서에서는 0:10:26.308,0:10:29.885 바디 카메라를 착용하도록 되어있는데 0:10:29.885,0:10:35.839 극단적이고 끔찍한 대치뿐만 아니라 0:10:35.839,0:10:38.617 일상적인 대치까지 모든 상황을[br]녹화할 수 있도록 말이죠. 0:10:38.617,0:10:41.418 스탠포드 대학의 학제간 팀과 함께 0:10:41.418,0:10:44.129 우리는 이 많은 대치들을 분석하기 위해 0:10:44.129,0:10:47.520 기계 학습 기술을[br]사용하기 시작했습니다. 0:10:47.520,0:10:52.155 일상에서 경찰이 차를 불러세울 때[br]일어나는 일을 잘 이해하기 위해서요. 0:10:52.155,0:10:54.334 연구 결과 0:10:54.334,0:10:58.020 경찰관이 전문적으로 행동할 때에도 0:10:58.860,0:11:03.322 흑인 운전자에게는 백인 운전자에게보다[br]덜 격식을 갖춰 대한다는 거였습니다. 0:11:04.052,0:11:08.127 경찰관들이 사용하는 단어 자체만 봐도 0:11:08.127,0:11:13.313 흑인 운전자를 대하는지 백인 운전자를[br]대하는지 추측할 수 있을 정도였죠. 0:11:13.313,0:11:19.099 문제는 카메라에 담긴[br]이 영상 대부분들이 0:11:19.099,0:11:21.210 경찰서에서 0:11:21.210,0:11:23.510 길 위에서 실제로 어떤 일이[br]일어나고 있는지 이해하거나 0:11:23.510,0:11:25.777 경찰관들을 훈련시키는 데에[br]사용되고 있지 않다는 점입니다. 0:11:26.554,0:11:28.012 안타까운 일이죠. 0:11:28.796,0:11:33.585 일상적인 이 일이 어떻게[br]죽음에 다다르는 대치가 되는걸까요? 0:11:33.585,0:11:36.279 조지 플로이드 사건에선[br]어떻게 이런 일이 생긴걸까요? 0:11:37.588,0:11:39.670 다른 사건에서는요? 0:11:39.670,0:11:43.090 저희 큰 아들이 열 여섯살이었을 때 0:11:43.090,0:11:46.253 아이는 백인들이 자신을 볼 때 0:11:46.253,0:11:47.838 두려워한다는 걸 발견했습니다. 0:11:49.123,0:11:51.784 그 중 엘리베이터가 최악이라고요. 0:11:52.313,0:11:54.644 문이 닫히면 0:11:54.644,0:11:57.751 그 협소한 공간에서 0:11:57.751,0:12:02.242 위험하다고 생각하도록 교육받은 사람과[br]함께 갇혀있어야하니까요. 0:12:02.744,0:12:05.964 저희 아들은 그 사람들이[br]불편해하는 걸 알아채고 0:12:05.964,0:12:09.145 미소를 지어 안심시키려고 합니다. 0:12:09.145,0:12:10.938 두려움을 좀 가라앉혀주려고요. 0:12:11.351,0:12:13.296 그가 얘기하기 시작하면 0:12:13.296,0:12:15.003 사람들이 안심을 합니다. 0:12:15.442,0:12:17.345 숨도 조금 편하게 쉬고요. 0:12:17.345,0:12:19.900 그들은 그의 지적 능력, 0:12:19.900,0:12:22.241 그의 어법, 그의 단어 선택에[br]안도합니다. 0:12:22.986,0:12:24.829 자기들과 같다는 거죠. 0:12:24.829,0:12:29.583 저는 아들이 아빠를 닮아[br]선천적으로 외향적이라고 생각했는데 0:12:29.583,0:12:33.157 아들과 그 대화를 하면서 0:12:34.143,0:12:35.993 아들이 미소 짓는 건 0:12:35.993,0:12:41.209 그 낯선 이들과 친해지고싶어서가[br]아니라는 걸 깨달았습니다. 0:12:41.920,0:12:45.572 그건 아들이 자신을 보호하기 위해[br]사용한 부적같은 것이었습니다. 0:12:45.572,0:12:51.815 수천 번 엘리베이터를 타고 내리며[br]갈고 닦은 생존 기술이었습니다. 0:12:52.387,0:12:57.558 자신의 피부색이 만들어 내는 긴장감과[br]이로 자신의 생명이 위험에 처하게 되는 0:12:59.026,0:13:01.693 긴장감을 수용하는 법을[br]배우고 있었던 거죠. 0:13:02.619,0:13:06.402 우리는 우리 뇌가 편견을 갖도록[br]설계돼있다는 걸 알고 있습니다. 0:13:06.402,0:13:08.903 그 편견을 깰 수 있는 방법 중 하나는 0:13:08.903,0:13:13.220 잠시 멈추고 가정의 증거에 대한[br]반성을 해보는 것입니다. 0:13:13.220,0:13:14.999 스스로에게 이렇게 물어봐야합니다: 0:13:14.999,0:13:19.688 엘리베이터에 탈 때[br]어떤 편견을 가지고 타나요? 0:13:21.776,0:13:23.087 비행기는요? 0:13:23.532,0:13:28.131 스스로가 무의식 중 가지고 있는[br]편견을 어떻게 자각할 수 있을까요? 0:13:28.131,0:13:30.506 이런 편견으로 인해[br]보호받게 될 사람은 누구이며 0:13:32.615,0:13:34.547 위험에 처하게 될 사람은 누구일까요? 0:13:35.649,0:13:38.003 우리 스스로에게 이런 질문을 하고 0:13:38.978,0:13:43.602 학교와 법정, 경찰서, 0:13:43.602,0:13:46.168 그리고 모든 기관이 그렇게[br]하도록 주장할 때까지 0:13:47.835,0:13:51.664 우리는 이런 편견들로 0:13:51.664,0:13:52.966 눈이 가려지게 될 것입니다. 0:13:53.348,0:13:54.757 그리고 그렇게 된다면 0:13:56.066,0:13:59.274 우리 모두 안전하지 못하게 될테죠. 0:14:02.103,0:14:03.411 감사합니다.