1 00:00:00,784 --> 00:00:03,840 여러분들께서도 다른 사람들처럼 2 00:00:03,840 --> 00:00:07,496 우리나라에서 양극화가 더 심각해지고 있다고 느끼실 겁니다. 3 00:00:07,520 --> 00:00:10,976 좌익과우익의 단절이 4 00:00:11,000 --> 00:00:14,536 여태까지 살면서 이만큼 나빴던 적이 없었다고요. 5 00:00:14,560 --> 00:00:19,840 하지만 이런 생각을 뒷받침해주는 타당한 연구가 있는지도 궁금하실 겁니다. 6 00:00:20,560 --> 00:00:25,240 결론부터 말씀드리자면, 슬프지만 존재합니다. 7 00:00:26,920 --> 00:00:28,936 거듭된 연구에서 우리는 진보주의자와 보수주의자가 8 00:00:28,960 --> 00:00:32,640 점점 더 멀어지고 있다는 사실을 발견했습니다. 9 00:00:33,440 --> 00:00:38,216 그들은 자신들을 사상적인 공간 안에 가두고, 10 00:00:38,240 --> 00:00:42,376 서로 다른 뉴스를 보고, 비슷한 생각을 가진 사람들하고만 이야기를 나누며, 11 00:00:42,400 --> 00:00:45,640 더 나아가서는 한 나라에서도 다른 지역에 살고 싶어합니다. 12 00:00:46,720 --> 00:00:49,936 하지만 제가 가장 위험하다고 생각하는 것은 13 00:00:49,960 --> 00:00:53,760 서로에 대한 증오가 커져만간다는 것입니다. 14 00:00:54,440 --> 00:00:56,096 진보주의자와 보수주의자, 15 00:00:56,120 --> 00:00:58,016 민주당원과 공화당원, 16 00:00:58,040 --> 00:01:01,160 계속해서 그들은 서로를 싫어하기만 합니다. 17 00:01:02,320 --> 00:01:04,336 다방면에서 이를 찾아볼 수 있습니다. 18 00:01:04,360 --> 00:01:08,016 서로 친구가 되고 싶어하지도, 상대방과 연애를 하고 싶어하지도 않죠. 19 00:01:08,040 --> 00:01:11,336 설사 그렇다 할지라도 알게 되는 순간부터 서로에 대한 매력이 떨어지고, 20 00:01:11,360 --> 00:01:14,456 자녀들이 자신들과 다른 정당을 21 00:01:14,480 --> 00:01:16,176 지지하는 사람을 만나는 걸 원치 않습니다. 22 00:01:16,200 --> 00:01:17,960 특히 충격적인 통계였죠. 23 00:01:19,640 --> 00:01:22,456 저와 같이 연구실에 있는 학생들은 24 00:01:22,480 --> 00:01:25,936 가끔 사회적인 패턴에 대해서 이야기하곤 합니다. 25 00:01:25,960 --> 00:01:29,496 저는 영화광이라 종종 이러한 패턴이 있었던 영화는 26 00:01:29,520 --> 00:01:32,480 어떤 것이었는지에 대한 질문을 합니다. 27 00:01:33,080 --> 00:01:36,360 그렇다면 정치적인 양극화가 나온 영화에는 어떤 것이 있을까요? 28 00:01:37,080 --> 00:01:39,800 재난 영화일 수도 있죠. 29 00:01:40,880 --> 00:01:42,560 확실히 재앙이긴 하니까요. 30 00:01:42,920 --> 00:01:44,920 전쟁 영화일 수도 있습니다. 31 00:01:45,640 --> 00:01:46,840 적당하겠네요. 32 00:01:47,480 --> 00:01:51,296 하지만 제 머릿속에 떠오르는 것은 좀비가 나오는 재난 영화입니다. 33 00:01:51,320 --> 00:01:52,776 (웃음) 34 00:01:52,800 --> 00:01:55,096 그렇죠? 여러분도 아시죠? 35 00:01:55,120 --> 00:01:57,536 이성적인 판단도 없이 36 00:01:57,560 --> 00:01:59,336 좀비 바이러스를 퍼트려 37 00:01:59,360 --> 00:02:00,976 사회를 파괴하려는 생각에 사로잡힌 사람들이 38 00:02:01,000 --> 00:02:04,240 단체로 무리지어 돌아다닙니다. 39 00:02:05,480 --> 00:02:07,816 그리고 여러분들도 저와 마찬가지로 우리가 좀비 재난 영화에서 40 00:02:07,840 --> 00:02:11,296 착한 사람이라고 생각하실 겁니다. 41 00:02:11,320 --> 00:02:15,016 그리고 이 모든 증오와 양극화는 다른 사람들로부터 시작되었습니다. 42 00:02:15,040 --> 00:02:16,920 왜냐면 우리가 주인공이니까요, 그렇죠? 43 00:02:17,760 --> 00:02:20,656 자유롭게 생각하고, 옳으며, 44 00:02:20,680 --> 00:02:22,976 우리가 사랑하는 것을 잡으려 노력하죠. 45 00:02:23,000 --> 00:02:26,576 좀비 군대 말고요. 46 00:02:26,600 --> 00:02:28,056 그건 아니에요. 47 00:02:28,080 --> 00:02:29,280 절대로 아니죠. 48 00:02:30,080 --> 00:02:31,576 하지만 이게 중요한 부분입니다. 49 00:02:31,600 --> 00:02:34,320 상대방은 자신이 어떤 영화에 있다고 생각할까요? 50 00:02:35,480 --> 00:02:36,696 그렇죠? 51 00:02:36,720 --> 00:02:39,256 그들도 당연히 자신들이 52 00:02:39,280 --> 00:02:41,136 좀비 영화의 주인공이라고 생각할 겁니다. 53 00:02:41,160 --> 00:02:44,136 그리고 그들이 좀비 영화의 브래드 피트고 54 00:02:44,160 --> 00:02:46,280 우리는 좀비라고 생각하시는게 좋을 겁니다. 55 00:02:49,120 --> 00:02:51,480 그 누구가 그들이 틀렸다고 말할 수 있을까요? 56 00:02:52,440 --> 00:02:55,560 제 생각에는 우리 모두가 그 일부라고 봅니다. 57 00:02:56,240 --> 00:02:59,400 좋은 점은 우리가 해결책이 될 수도 있다는 겁니다. 58 00:03:00,280 --> 00:03:02,280 그럼 이제 어떻게 해야할까요? 59 00:03:03,320 --> 00:03:07,576 일상생활에서의 양극화를 없애기 위해선 뭘 해야 할까요? 60 00:03:07,600 --> 00:03:11,416 우리의 정치적인 생각과 반대편에 있는 사람하고 61 00:03:11,440 --> 00:03:13,160 관계를 맺고 소통하기 위해선 무엇을 해야 할까요? 62 00:03:13,720 --> 00:03:17,856 저와 제 동료인 맷 파인버그는 63 00:03:17,880 --> 00:03:19,738 몇 년 전 이 질문들에 빠져들어 64 00:03:19,762 --> 00:03:21,962 연구를 시작했습니다. 65 00:03:22,920 --> 00:03:25,896 양극화를 이해하는데에 있어서 굉장히 도움이 된다고 생각했던 것을 66 00:03:25,920 --> 00:03:29,376 하나 발견했는데, 그것은 바로 우리나라의 정치적인 분열이 67 00:03:29,400 --> 00:03:30,616 더 깊은 도덕적 분열에 의해 68 00:03:30,640 --> 00:03:35,056 강화되었다는 사실입니다. 69 00:03:35,080 --> 00:03:39,856 정치심리학의 역사상 가장 위대한 발견 중 하나는 70 00:03:39,880 --> 00:03:43,576 심리학자인 존 하이트와 71 00:03:43,600 --> 00:03:44,816 제시 그레이엄이 발견했는데 72 00:03:44,840 --> 00:03:48,856 진보주의자와 보수주의자는 지지하는 73 00:03:48,880 --> 00:03:50,080 가치와 정도가 서로 다르다는 것입니다. 74 00:03:50,600 --> 00:03:56,096 예를 들어, 진보주의자는 보수주의자보다 75 00:03:56,120 --> 00:03:59,776 평등과 공정성, 복지, 위험으로부터의 보호를 76 00:03:59,800 --> 00:04:01,936 더 지지하는 경향이 있습니다. 77 00:04:01,960 --> 00:04:07,216 보수주의자들은 충성심, 애국심, 78 00:04:07,240 --> 00:04:10,696 권위에 대한 존경, 도덕적 결백 등을 79 00:04:10,720 --> 00:04:12,800 진보주의자들보다 높이 평가합니다. 80 00:04:13,920 --> 00:04:17,976 그리고 맷과 저는 아마도 이러한 도덕적 차이가 81 00:04:18,000 --> 00:04:21,096 진보주의자와 보수주의자가 82 00:04:21,120 --> 00:04:23,536 서로 이야기를 나누는 방법이나, 엇갈리는 이유에 대해 83 00:04:23,560 --> 00:04:25,976 이해할 수 있도록 84 00:04:26,000 --> 00:04:27,216 도움을 않을까하는 생각을 했습니다. 85 00:04:27,240 --> 00:04:29,216 그래서 저희는 진보주의자들을 모아서 86 00:04:29,240 --> 00:04:32,336 연구를 시작했는데, 87 00:04:32,360 --> 00:04:34,816 내용은 동성 결혼에 대해 88 00:04:34,840 --> 00:04:39,280 보수주의자들을 설득하는 글을 쓰는 것이었습니다. 89 00:04:39,800 --> 00:04:43,056 저희는 진보주의자들이 자신들이 높이 평가하는 도덕적 가치인 90 00:04:43,080 --> 00:04:47,256 평등과 공평함의 관점에서 주장을 펼쳐나간다는 것을 발견했습니다. 91 00:04:47,280 --> 00:04:49,016 내용은 다음과 같았습니다. 92 00:04:49,040 --> 00:04:52,416 "사람은 누구나 자신이 사랑할 사람을 선택할 권리가 있어요." 93 00:04:52,440 --> 00:04:55,016 "동성을 사랑하는 미국인들도 94 00:04:55,040 --> 00:04:57,800 다른 미국인들과 같은 권리를 보장받아야 합니다." 95 00:04:58,360 --> 00:05:01,576 전체적으로, 보수주의자들을 설득하는 글을 쓰는 것임에도 불구하고 96 00:05:01,600 --> 00:05:07,016 그들의 69%가 글을 쓰는데에 있어서 더 진보적인 도덕적 가치를 인용했고, 97 00:05:07,040 --> 00:05:10,736 더 보수적인 도덕적 가치를 98 00:05:10,760 --> 00:05:14,176 인용한 사람은 9%에 불과했습니다. 99 00:05:14,200 --> 00:05:18,496 그리고 저희가 보수주의자들에게 설득적인 글쓰기의 주제로 100 00:05:18,520 --> 00:05:21,416 전형적인 보수주의 정책의 입장인 영어를 미국의 공식 언어로 지정하는 것을 101 00:05:21,440 --> 00:05:23,976 지지해달라는 내용을 쓰도록 했을 때, 102 00:05:24,000 --> 00:05:26,216 그 사람들도 별반 다르진 않았습니다. 103 00:05:26,240 --> 00:05:27,856 진보주의자들을 설득하는 글이었지만 104 00:05:27,880 --> 00:05:30,576 그들의 59%가 더 보수적인 도덕적 가치를 이용해 주장을 펼쳤고 105 00:05:30,600 --> 00:05:34,756 오직 8%만이 진보적인 도덕적 가치에 해당하는 106 00:05:34,756 --> 00:05:36,480 단어를 사용했습니다. 107 00:05:37,480 --> 00:05:41,520 여러분은 문제점이 무엇인지 간파하셨을 겁니다. 108 00:05:42,280 --> 00:05:45,776 우리에게 도덕적 가치란 가장 강한 신념과도 같습니다. 109 00:05:45,800 --> 00:05:49,200 그러한 가치를 위해 싸우기도, 죽기도 하죠. 110 00:05:49,720 --> 00:05:52,416 어차피 다른 사람들의 동의를 구할 필요도 없는 것들을 위해 111 00:05:52,440 --> 00:05:55,976 왜 그러한 것들을 포기하겠어요? 112 00:05:56,000 --> 00:05:59,256 여러분의 보수주의자 삼촌을 설득하기 위한 말이 113 00:05:59,280 --> 00:06:01,696 단지 삼촌의 관점만이 아니라 114 00:06:01,720 --> 00:06:03,886 본인의 신념도 바꿔야만 한다면 115 00:06:03,910 --> 00:06:05,470 그 대화는 길게 이어질 수 없을 겁니다. 116 00:06:06,080 --> 00:06:07,400 더 나은 방법은 무엇이 있을까요? 117 00:06:08,200 --> 00:06:12,496 음, 저희는 도덕적 재구조화라고 부르는 기법을 118 00:06:12,520 --> 00:06:15,136 여러 실험에 걸쳐 연구해왔습니다. 119 00:06:15,160 --> 00:06:16,656 이 실험들 중 하나에서 120 00:06:16,680 --> 00:06:19,816 저희는 진보주의자와 보수주의자를 불러서 121 00:06:19,840 --> 00:06:22,136 그들의 환경 태도를 연구하기 전에 122 00:06:22,160 --> 00:06:25,200 세 가지 글 중 하나를 읽게했습니다. 123 00:06:25,640 --> 00:06:27,136 첫 번째 에세이는 진보적 가치 중 124 00:06:27,160 --> 00:06:30,536 보살핌과 상해로부터의 보호를 호소하는 125 00:06:30,560 --> 00:06:34,576 조금은 상투적인 친환경적인 것이었습니다. 126 00:06:34,600 --> 00:06:37,136 다음과 같은 내용을 담고 있었죠. 127 00:06:37,160 --> 00:06:39,976 "우리는 많은 중요한 방법으로 우리가 살고 있는 환경에 엄청난 해악을 끼치고 있다." 128 00:06:40,000 --> 00:06:42,816 "이제는 우리 지구에 더이상의 파괴를 129 00:06:42,840 --> 00:06:45,760 막으려는 노력을 시작해야만 한다." 130 00:06:47,120 --> 00:06:48,536 다른 참가자들에게는 131 00:06:48,560 --> 00:06:50,776 보수적인 가치인 132 00:06:50,800 --> 00:06:55,240 도덕적 순수성을 건드리는 에세이를 줬습니다. 133 00:06:56,190 --> 00:06:58,176 이 또한 친환경적인 글이었고 134 00:06:58,200 --> 00:06:59,696 다음과 같은 말을 했습니다. 135 00:06:59,720 --> 00:07:03,960 "우리의 숲과 식수, 그리고 하늘을 깨끗하게 유지하는 것은 굉장히 중요합니다." 136 00:07:05,000 --> 00:07:06,496 "우리가 살고 있는 곳을 역겹게 만드는 137 00:07:06,520 --> 00:07:08,560 오염에 대해 생각해야 합니다." 138 00:07:09,160 --> 00:07:11,256 "오염을 줄이는 것은 우리가 살고 있는 곳을 139 00:07:11,280 --> 00:07:14,440 깨끗하고 아름답게 보존하는 것을 도와줍니다." 140 00:07:15,880 --> 00:07:17,296 그리고 세 번째 집단은 141 00:07:17,320 --> 00:07:19,816 정치적이지 않은 글을 읽게 했습니다. 142 00:07:19,840 --> 00:07:22,576 이 집단은 실험을 위한 대조군이었습니다. 143 00:07:22,600 --> 00:07:24,553 저희가 이 연구를 통해 사람들의 환경 태도에 대해 알게된 것은 144 00:07:24,577 --> 00:07:26,776 진보주의자들에게 글의 종류는 145 00:07:26,800 --> 00:07:29,736 크게 상관이 없었다는 것입니다. 146 00:07:29,760 --> 00:07:32,856 그들은 글과는 무관하게 친환경적인 성향을 더 높게 보였습니다. 147 00:07:32,880 --> 00:07:35,296 진보주의자들은 이미 환경 보존에 신경쓰고 있었죠. 148 00:07:35,320 --> 00:07:36,536 하지만 보수주의자들은 149 00:07:36,560 --> 00:07:40,976 도덕적 순결에 대한 글을 읽었을 때 150 00:07:41,000 --> 00:07:42,536 다른 글을 읽은 경우보다 151 00:07:42,560 --> 00:07:44,616 진보적인 환경 정책을 152 00:07:44,640 --> 00:07:47,040 훨씬 더 지지하는 것으로 나타났습니다. 153 00:07:48,160 --> 00:07:51,256 심지어 도덕적 순결에 대한 글을 읽은 보수주의자들은 154 00:07:51,280 --> 00:07:54,776 글에서는 언급되지도 않은 지구 온난화에 대해 155 00:07:54,800 --> 00:07:56,705 더 높은 빈도로 지구 온난화를 믿고 156 00:07:56,729 --> 00:07:59,456 그것을 걱정한다고 했습니다. 157 00:07:59,480 --> 00:08:01,936 그저 관련있는 환경 문제일 뿐인데도요. 158 00:08:01,960 --> 00:08:05,040 도덕적 재구조가 이렇게나 강력합니다. 159 00:08:05,960 --> 00:08:09,696 저희는 굉장히 다양한 정치적 문제에 대해 연구를 해왔습니다. 160 00:08:09,720 --> 00:08:13,456 여러분이 동성 결혼이나 건강 보험과 같은 사안에 대해 161 00:08:13,480 --> 00:08:16,576 보수주의자들을 설득코자 하신다면 162 00:08:16,600 --> 00:08:20,056 이러한 진보적 정치 문제를 보수적 가치인 애국심이나 163 00:08:20,080 --> 00:08:22,880 도덕적 순결과 연관짓는 것이 도움이 됩니다. 164 00:08:23,800 --> 00:08:25,896 그리고 반대의 경우도 연구했습니다. 165 00:08:25,920 --> 00:08:29,736 여러분이 국방비나 영어를 미국의 공용어로 지정하는 것과 같은 166 00:08:29,760 --> 00:08:34,376 보수주의적인 정책 사안들에 대해 진보주의자들을 설득하려고 하신다면 167 00:08:34,400 --> 00:08:36,056 이러한 사안들을 평등이나 168 00:08:36,080 --> 00:08:39,416 공정함과 같은 진보주의적 가치와 169 00:08:39,440 --> 00:08:41,320 연관시켜보세요. 170 00:08:42,640 --> 00:08:45,496 이 모든 연구는 동일한 메시지를 담고 있습니다. 171 00:08:45,520 --> 00:08:48,456 여러분이 다른 사람을 어떤 정책에 대해 설득하려고 한다면 172 00:08:48,480 --> 00:08:52,320 그 정책을 그들이 기반하는 도덕적인 가치와 연결하는 것이 도움이 된다는 것입니다. 173 00:08:53,520 --> 00:08:55,696 그렇게 말한다면 174 00:08:55,720 --> 00:08:57,216 굉장히 알기 쉽지 않나요? 175 00:08:57,240 --> 00:08:59,016 에를 들자면, 오늘밤 여기 왜 오셨나요? 176 00:08:59,040 --> 00:09:00,256 왜죠? 177 00:09:00,280 --> 00:09:01,816 (웃음) 178 00:09:01,840 --> 00:09:03,880 굉장히 직관적이죠. 179 00:09:05,400 --> 00:09:08,696 그렇다고 하더라도, 실천하기는 꽤나 어렵습니다. 180 00:09:08,720 --> 00:09:12,576 우리가 정치적인 문제에 대해 상대방을 설득하려고 한다고 해도 181 00:09:12,600 --> 00:09:15,336 쇠 귀에 경 읽기가 되는 경우가 많습니다. 182 00:09:15,360 --> 00:09:19,736 우리는 스스로 믿고 있는 정치적인 입장에 대해 183 00:09:19,760 --> 00:09:22,640 혼자서 연습했던 것만큼 잘 설득하지 못합니다. 184 00:09:23,400 --> 00:09:27,816 이러한 재구조화된 도덕적 주장을 만들면서 스스로 계속 말합니다. 185 00:09:27,840 --> 00:09:30,480 "공감하고 존중해야해, 공감하고 존중하자." 186 00:09:31,040 --> 00:09:32,496 이를 잘 활용한다면 187 00:09:32,520 --> 00:09:34,176 다른 사람과 소통할 수 있고 188 00:09:34,200 --> 00:09:37,000 어쩌면 이 나라에서 누군가를 설득할 수 있을지도 모릅니다. 189 00:09:37,560 --> 00:09:39,976 자, 그렇다면 다시 190 00:09:40,000 --> 00:09:42,280 우리가 찍고 있는 영화를 생각해봅시다. 191 00:09:43,200 --> 00:09:44,776 이미 목숨을 잃었을지도 모르겠네요. 192 00:09:44,800 --> 00:09:46,760 아니면 좀비 재난 영화가 아닐지도 모릅니다. 193 00:09:47,520 --> 00:09:49,440 대신 경찰 동료 영화일 수도 있습니다. 194 00:09:50,040 --> 00:09:52,056 (웃음) 195 00:09:52,080 --> 00:09:54,096 그냥 그렇다고 쳐주세요. 자연스레 넘어 가자고요. 196 00:09:54,120 --> 00:09:55,560 (웃음) 197 00:09:56,480 --> 00:09:59,176 다들 어떤 내용인지 아실 겁니다. 백인 경찰과 흑인 경찰 198 00:09:59,200 --> 00:10:01,336 아니면 개판인 경찰과 질서있는 경찰 199 00:10:01,360 --> 00:10:03,416 어쨌건 간에 서로 다르기 때문에 200 00:10:03,440 --> 00:10:04,726 잘 어울리지 못합니다. 201 00:10:05,520 --> 00:10:08,736 하지만 영화 후반부에 보시면 서로 뭉쳐서 협조하는 순간 202 00:10:08,760 --> 00:10:10,696 그들이 느끼는 연대는 203 00:10:10,720 --> 00:10:14,360 훨씬 더 클 겁니다. 험난한 바다를 건너 왔으니까요. 204 00:10:15,280 --> 00:10:17,256 그리고 이런 영화에 있어서 205 00:10:17,280 --> 00:10:20,176 주인공들은 항상 중반부 쯤에 206 00:10:20,200 --> 00:10:22,600 가장 사이가 안 좋다는 걸 기억하세요. 207 00:10:23,440 --> 00:10:25,776 우리가 지금 이런 상황일지도 모르겠네요. 208 00:10:25,800 --> 00:10:27,976 경찰 영화의 초중반부 끝자락이요. 209 00:10:28,000 --> 00:10:30,576 (웃음) 210 00:10:30,600 --> 00:10:33,680 서로 앙숙이 되지만 조만간 다시 결합할 겁니다. 211 00:10:35,400 --> 00:10:37,056 좋게 들리지만 212 00:10:37,080 --> 00:10:38,936 이런 일이 일어나기 위해서는 213 00:10:38,960 --> 00:10:41,680 우리부터 그 책임감을 느끼고 시작해야만 합니다. 214 00:10:42,520 --> 00:10:44,680 여러분께 이런 말씀을 드리고 싶습니다. 215 00:10:45,480 --> 00:10:47,480 이 나라를 다시 합칩시다. 216 00:10:49,080 --> 00:10:52,136 정치인, 방송, 페이스북, 트위터, 217 00:10:52,160 --> 00:10:55,016 그리고 의회 재구획 등 218 00:10:55,040 --> 00:10:56,576 우리를 갈라놓는 모든 것들을 이겨내고 219 00:10:56,600 --> 00:10:59,320 시작합시다. 220 00:11:00,360 --> 00:11:02,600 옳은 일을 시작합시다. 221 00:11:03,920 --> 00:11:08,336 매일 우리가 겪는 이러한 증오와 분노가 222 00:11:08,360 --> 00:11:10,520 우리를 못나게 만들고, 부패하게 만들며 223 00:11:11,400 --> 00:11:14,576 우리 사회의 가장 작은 구조부터 병들게 하기 때문에 224 00:11:14,600 --> 00:11:17,920 우리는 시작해야합니다. 225 00:11:19,960 --> 00:11:22,616 우리는 서로와 국가에게 다가가 226 00:11:22,640 --> 00:11:24,800 관계를 맺을 의무를 지니고 있습니다. 227 00:11:26,000 --> 00:11:29,160 우리는 더이상 상대방을 싫어하거나 228 00:11:30,200 --> 00:11:32,400 상대방이 우리를 싫어하게 놔둬서는안 됩니다. 229 00:11:33,880 --> 00:11:35,240 공감과 존중. 230 00:11:35,880 --> 00:11:37,120 공감하고 존중하십시오. 231 00:11:37,920 --> 00:11:41,720 이는 우리 친애하는 시민들에 대한 최소한의 의무라고 생각하실 겁니다. 232 00:11:42,400 --> 00:11:43,616 감사합니다. 233 00:11:43,640 --> 00:11:48,325 (박수)