1 00:00:00,535 --> 00:00:03,302 [본 강연에 성인용 내용이 포함되어 있음] 2 00:00:05,762 --> 00:00:08,754 라나 아이윱은 인도의 언론인으로, 3 00:00:08,778 --> 00:00:11,380 정부의 부정부패와 4 00:00:12,411 --> 00:00:14,568 인권침해를 폭로해왔습니다. 5 00:00:14,990 --> 00:00:16,157 그리고 그녀는 수년간, 6 00:00:16,181 --> 00:00:17,832 자신의 보도를 둘러싼 논쟁과 독설에 익숙해졌죠. 7 00:00:20,149 --> 00:00:25,258 하지만 그 어떤 것도 2018년 4월 그녀가 마주한 것과 비할 수 없었습니다. 8 00:00:26,125 --> 00:00:29,776 그녀가 친구와 카페에 있다가 9 00:00:29,800 --> 00:00:34,743 자신이 나오는 2분 20초짜리 성관계 영상을 본 것입니다. 10 00:00:35,188 --> 00:00:37,537 그녀는 자신의 눈을 믿을 수가 없었습니다. 11 00:00:37,561 --> 00:00:39,834 성관계 영상을 촬영한 적이 없었으니까요. 12 00:00:40,506 --> 00:00:43,971 하지만 불행히도, 영상을 본 수천 명의 사람들이 13 00:00:43,995 --> 00:00:45,661 그녀라고 믿었겠죠. 14 00:00:46,673 --> 00:00:49,617 저는 약 3개월 전에 성적 사생활에 대한 제 책과 관련해 15 00:00:49,641 --> 00:00:52,145 아이윱 씨를 인터뷰했습니다. 16 00:00:52,681 --> 00:00:55,879 저는 법학 교수이며, 변호사이자 시민권 옹호자입니다. 17 00:00:56,204 --> 00:01:00,815 지금 당장 그녀를 돕기 위해 법적으로 할 수 있는 일이 18 00:01:00,839 --> 00:01:03,077 많지 않다는 것이 정말 답답할 따름이에요. 19 00:01:03,458 --> 00:01:05,005 이야기 중 그녀는 20 00:01:05,029 --> 00:01:09,541 가짜 성관계 영상이 떠돌 것을 진작 알아차렸어야 했다고 말했죠. 21 00:01:10,038 --> 00:01:15,634 그리고 종종 섹스가 여성을 비하하고 망신시키기 위해 악용된다고 했죠. 22 00:01:15,658 --> 00:01:18,086 특히 소수 여성, 그리고 23 00:01:18,110 --> 00:01:22,422 그 여성들이 권력 있는 남자들에게 맞서는 경우에는 더욱이 그렇다고요. 24 00:01:22,446 --> 00:01:23,979 아이윱 씨가 그랬던 것처럼요. 25 00:01:25,191 --> 00:01:29,167 가짜 성관계 영상은 48시간 만에 인터넷에 퍼졌습니다. 26 00:01:30,064 --> 00:01:35,371 그녀의 온라인 계정은 온통 영상의 스크린샷, 적나라한 강간 장면과 27 00:01:35,395 --> 00:01:38,022 살인 협박, 그리고 그녀의 이슬람 신앙을 28 00:01:38,046 --> 00:01:40,579 비방하는 말들로 도배되었습니다. 29 00:01:41,426 --> 00:01:45,990 온라인 게시물들은 그녀가 "헤픈" 여자라는 의미를 내포했죠. 30 00:01:46,014 --> 00:01:47,624 그녀는 해킹을 당했습니다. 31 00:01:47,648 --> 00:01:50,426 그녀의 집 주소와 전화 번호까지 32 00:01:50,450 --> 00:01:52,196 인터넷에 퍼졌습니다. 33 00:01:52,879 --> 00:01:56,963 영상은 4만 회 이상 공유되었습니다. 34 00:01:57,760 --> 00:02:01,696 누군가가 이러한 사이버 공격의 대상이 된다면 35 00:02:01,720 --> 00:02:03,783 그 피해는 심각합니다. 36 00:02:04,482 --> 00:02:07,521 라나 아이윱의 인생은 송두리채 뒤바뀌었습니다. 37 00:02:08,211 --> 00:02:11,545 몇 주 동안 그녀는 거의 먹지도, 말하지도 못했습니다. 38 00:02:11,919 --> 00:02:15,608 글 쓰는 것을 멈추고 모든 소셜 미디어 계정을 폐쇄했죠. 39 00:02:15,632 --> 00:02:18,790 저널리스트로서 정말 힘든 일이었을 거예요. 40 00:02:19,188 --> 00:02:22,672 그녀는 부모님의 집을 벗어나는 것이 두려웠습니다. 41 00:02:22,696 --> 00:02:25,718 만약 게시물대로 위협이 생기면요? 42 00:02:26,395 --> 00:02:30,760 유엔 인권 위원회는 그녀의 걱정이 과민 반응이 아니라고 결론지었습니다. 43 00:02:30,784 --> 00:02:35,421 위원회는 그녀의 안전이 걱정된다는 공식 성명서를 발표하였습니다. 44 00:02:36,776 --> 00:02:41,005 라나 아이윱이 본 것은 딥 페이크(deepfake)였습니다. 45 00:02:41,029 --> 00:02:43,569 딥 페이크는 머신 러닝 기술의 일종으로, 46 00:02:43,593 --> 00:02:47,704 사람이 등장하는 영상과 음성파일을 조작해 47 00:02:47,728 --> 00:02:50,451 실제로 하지 않은 말이나 행동이 48 00:02:50,475 --> 00:02:52,341 이루어진 것처럼 보여주는 기술입니다. 49 00:02:52,807 --> 00:02:56,168 딥페이크는 실제처럼 보이지만, 실상은 그렇지 않습니다. 50 00:02:56,192 --> 00:02:57,964 완전한 가짜인 것이죠. 51 00:02:59,228 --> 00:03:03,022 아직 이 기술은 발달 단계이지만, 52 00:03:03,046 --> 00:03:04,660 많은 사람들이 사용할 수 있는 상태입니다. 53 00:03:05,371 --> 00:03:08,443 온라인상의 많은 것들이 그러듯이, 54 00:03:08,467 --> 00:03:10,628 딥페이크는 포르노그래피와 관련한 55 00:03:10,652 --> 00:03:11,907 관심을 많이 받게 되었습니다. 56 00:03:12,498 --> 00:03:14,609 2018년 초에, 57 00:03:14,633 --> 00:03:17,101 어떤 사람이 레딧(Reddit)에 58 00:03:17,125 --> 00:03:21,537 포르노 비디오에 얼굴을 삽입할 수 있도록 하는 도구를 올렸습니다. 59 00:03:21,561 --> 00:03:25,001 그 후, 각자가 가장 좋아하는 여성 연예인을 합성한 60 00:03:25,025 --> 00:03:27,822 가짜 포르노 영상들이 인터넷을 휩쓸게 되었죠. 61 00:03:28,712 --> 00:03:32,189 오늘날, 유튜브에 검색하면 데스크톱을 사용한 62 00:03:32,213 --> 00:03:34,499 딥페이크 영상을 만드는 방법이 63 00:03:34,523 --> 00:03:37,686 단계별로 설명되어 있는 튜토리얼이 정말 많습니다. 64 00:03:38,260 --> 00:03:41,966 곧, 휴대폰으로 만들 수 있을지도 모릅니다. 65 00:03:43,072 --> 00:03:48,454 인간의 약점과 네트워크 도구의 66 00:03:48,478 --> 00:03:50,160 상호작용이 67 00:03:50,184 --> 00:03:52,850 딥페이크를 무기로 만들 수 있는 것입니다. 68 00:03:52,874 --> 00:03:54,074 설명해 드리겠습니다. 69 00:03:54,875 --> 00:03:59,441 인간으로서, 우리는 영상과 음성에 본능적으로 반응합니다. 70 00:03:59,860 --> 00:04:01,348 우리는 그것이 사실이라고 받아들입니다. 71 00:04:01,372 --> 00:04:03,450 왜냐하면 자신의 눈과 귀가 보여주는 것은 72 00:04:03,474 --> 00:04:05,952 당연히 믿을 수 있기 때문이죠. 73 00:04:06,476 --> 00:04:08,175 그리고 이 방법이 74 00:04:08,199 --> 00:04:11,897 우리의 현실 감각을 약화시키는 것입니다. 75 00:04:11,921 --> 00:04:15,068 우리는 딥페이크가 사실이라고 믿지만, 이는 사실이 아닙니다. 76 00:04:15,604 --> 00:04:19,761 또, 우리는 음란하고 눈에 띄는 것에 끌리기 마련이죠. 77 00:04:20,365 --> 00:04:23,412 우리는 부정적이고 새로운 정보를 78 00:04:23,436 --> 00:04:25,459 믿고 공유하려는 습성이 있습니다. 79 00:04:25,809 --> 00:04:30,828 연구자들은 온라인 조작이 실제 이야기보다 80 00:04:30,852 --> 00:04:32,479 10배나 빨리 퍼진다는 것을 밝혔습니다. 81 00:04:34,015 --> 00:04:38,395 또, 우리는 우리의 관점과 잘 들어맞는 82 00:04:38,419 --> 00:04:40,311 정보에 이끌리는 본능이 있습니다. 83 00:04:40,950 --> 00:04:44,511 심리학자들은 이 현상을 "확증 편향"이라 부릅니다. 84 00:04:45,300 --> 00:04:49,687 소셜 미디어 플랫폼은 이 본능을 자극하게 되죠. 85 00:04:49,711 --> 00:04:53,592 우리의 관점과 잘 들어맞는 정보를 즉각적으로, 86 00:04:53,616 --> 00:04:55,408 널리 퍼뜨릴 수 있게 해 주니까요. 87 00:04:56,735 --> 00:05:02,303 딥페이크는 심각한 개인, 사회적 피해를 초래할 수 있습니다. 88 00:05:03,204 --> 00:05:09,538 아프가니스탄에 있는 미군들이 코란을 태우는 딥페이크가 있다고 상상해 보세요. 89 00:05:10,807 --> 00:05:13,831 그 딥페이크는 영상 속 미군들에 대한 90 00:05:13,855 --> 00:05:15,388 폭력을 낳을 것이라고 예상할 수 있죠. 91 00:05:15,847 --> 00:05:18,720 바로 그 다음 날, 92 00:05:18,744 --> 00:05:20,998 런던의 한 이맘(성직자)이 93 00:05:21,022 --> 00:05:24,339 군인들을 향한 폭력을 찬양하는 94 00:05:24,363 --> 00:05:26,830 딥페이크 영상이 만들어지면 어떨까요? 95 00:05:27,617 --> 00:05:30,780 어쩌면 아프가니스탄과 미국 뿐만이 아닌, 96 00:05:30,804 --> 00:05:34,053 전 세계에 걸친 97 00:05:34,077 --> 00:05:35,592 폭력과 시민 소요가 일어날 수도 있습니다. 98 00:05:36,251 --> 00:05:37,409 여러분들은 저에게 99 00:05:37,433 --> 00:05:39,680 "에이, 다니엘, 그건 너무 억지다." 라고 말하실 수도 있습니다. 100 00:05:39,704 --> 00:05:40,854 하지만 아닙니다. 101 00:05:41,293 --> 00:05:43,484 우리는 왓츠앱(WhatsApp)과 여러 다른 메시지 서비스에서 102 00:05:43,508 --> 00:05:46,230 거짓 정보가 퍼지는 것을 확인했고, 103 00:05:46,254 --> 00:05:49,015 그것이 소수 민족에 대한 폭력으로 이어지는 것을 보았습니다. 104 00:05:49,039 --> 00:05:50,926 그리고 그것은 단지 글 형태에 불과했죠. 105 00:05:50,950 --> 00:05:52,974 그것이 영상이라면 어떨까요? 106 00:05:54,593 --> 00:05:59,950 딥페이크는 우리가 가지고 있는 민주주의적 제도에 대한 믿음을 107 00:05:59,974 --> 00:06:01,966 약화시킬 수 있는 가능성을 가지고 있습니다. 108 00:06:03,006 --> 00:06:05,673 선거 전날이라고 생각해 보세요. 109 00:06:05,996 --> 00:06:09,234 주요 후보자 중 한 명이 아주 아픈 모습을 보여주는 110 00:06:09,258 --> 00:06:10,408 딥페이크가 있다고 가정합시다. 111 00:06:11,202 --> 00:06:13,535 그 딥페이크는 선거를 뒤바꿀 수 있고 112 00:06:13,559 --> 00:06:16,934 선거가 정당하다는 우리의 믿음을 뒤흔들 수 있습니다. 113 00:06:18,515 --> 00:06:21,841 큰 세계적인 은행의 신규 상장 전날이라고 생각해 보세요. 114 00:06:21,865 --> 00:06:24,198 그 은행의 CEO가 술에 취한 채로 115 00:06:24,222 --> 00:06:27,371 음모론 이야기들을 내뱉는 116 00:06:27,395 --> 00:06:30,092 딥페이크가 떠돌고 있다고 생각해 보세요. 117 00:06:30,887 --> 00:06:33,934 그 딥페이크는 신규 상장을 완전히 망하게 할 수 있습니다. 118 00:06:33,958 --> 00:06:38,073 혹은, 금융 시장이 안정적일 것이라는 우리의 믿음을 뒤흔들 수 있죠. 119 00:06:39,385 --> 00:06:46,374 따라서, 딥페이크는 우리가 이미 가지고 있는 120 00:06:46,398 --> 00:06:50,612 정치인, 사업가, 리더들에 대한 불신을 강화시킬 수 있습니다. 121 00:06:50,945 --> 00:06:54,229 딥페이크는 그것을 믿을 만한 관객을 찾아내어 유인하죠. 122 00:06:55,287 --> 00:06:58,052 또, 진리의 추구 또한 위태롭습니다. 123 00:06:59,077 --> 00:07:02,641 기술인들은 인공지능의 발전 속도를 보았을 때, 124 00:07:02,665 --> 00:07:06,347 곧 진짜와 가짜 영상을 구분하는 것이 125 00:07:06,371 --> 00:07:10,140 아주 힘들거나 불가능할 것이라고 예측하고 있습니다. 126 00:07:11,022 --> 00:07:16,363 그렇다면 어떻게 진실이 딥페이크가 난무한 정보 속에서 빛을 발할 수 있을까요? 127 00:07:16,752 --> 00:07:20,172 아무 노력도 들이지 않은 채 128 00:07:20,196 --> 00:07:22,633 우리가 원하는 것만을 믿고, 129 00:07:22,657 --> 00:07:23,807 사실로부터 완전히 등을 돌릴까요? 130 00:07:24,831 --> 00:07:26,418 어쩌면 우리는 가짜를 믿는 것 뿐만 아니라 131 00:07:28,030 --> 00:07:31,356 사실을 거절하게 될 수도 있습니다. 132 00:07:31,887 --> 00:07:35,966 우리는 이미 사람들이 딥페이크를 이유로 들며 133 00:07:35,990 --> 00:07:39,910 실제 증거 자료에게 의문을 제기하는 모습을 보았습니다. 134 00:07:39,934 --> 00:07:45,903 정치인들은 자신의 발언이 담긴 음성 파일을 두고 이렇게 말합니다. 135 00:07:45,927 --> 00:07:47,673 "이봐, 그건 가짜 뉴스라고. 136 00:07:47,697 --> 00:07:51,617 여러분의 눈과 귀가 보여주는 것이 전부가 아니란 말입니다." 137 00:07:52,402 --> 00:07:54,133 그리고 로버트 체스니 교수와 저는 138 00:07:54,157 --> 00:07:59,593 이 위험을 "거짓말쟁이의 배당금" 이라고 부릅니다. 139 00:07:59,617 --> 00:08:01,295 거짓말쟁이들이 딥페이크를 이유로 들며 140 00:08:02,998 --> 00:08:05,903 자신의 잘못에 대한 책임을 회피하는 것이죠. 141 00:08:06,963 --> 00:08:10,034 이제 우리가 무엇을 해야 할지 확실해졌습니다. 142 00:08:10,606 --> 00:08:12,268 기술회사들과 입법자들, 143 00:08:13,955 --> 00:08:17,466 집행관들과 미디어 사용자들은 144 00:08:17,490 --> 00:08:19,474 방지책을 내야 합니다. 145 00:08:20,093 --> 00:08:24,109 건강한 사회의 유연성 또한 필요합니다. 146 00:08:25,506 --> 00:08:29,402 우리는 지금 기술 회사들의 책임에 대한 147 00:08:29,426 --> 00:08:32,339 토론에 참여하고 있습니다. 148 00:08:32,926 --> 00:08:35,958 소셜 미디어 플랫폼에게 주는 제 조언은 다음과 같습니다. 149 00:08:35,982 --> 00:08:39,855 서비스 약관과 공동체 규칙을 바꾸어 150 00:08:39,879 --> 00:08:42,215 해를 주는 딥페이크를 막는 것이죠. 151 00:08:42,712 --> 00:08:46,672 이를 위해서는 의지력과 인간의 판단력이 필요하고, 152 00:08:46,696 --> 00:08:48,267 비싸기도 합니다. 153 00:08:48,673 --> 00:08:50,958 하지만 우리는 딥 페이크의 154 00:08:50,982 --> 00:08:54,855 내용과 맥락을 보고 155 00:08:54,879 --> 00:08:58,561 사람에게 해를 주는 것인지 156 00:08:58,585 --> 00:09:02,967 가치있는 풍자나 예술인지 판단할 사람들이 필요합니다. 157 00:09:04,118 --> 00:09:05,613 그렇다면, 법은 어떨까요? 158 00:09:06,666 --> 00:09:09,015 법은 우리의 교육자입니다. 159 00:09:09,515 --> 00:09:13,553 어떤 것이 해롭고 어떤 것이 잘못인지 가르쳐 주죠. 160 00:09:13,577 --> 00:09:18,132 그리고 가해자를 처벌하고 피해자를 보호해 주며 161 00:09:18,156 --> 00:09:20,423 올바른 행동을 할 수 있게 지도해 줍니다. 162 00:09:21,148 --> 00:09:25,428 현재의 법은 딥페이크에 대항할 수 없습니다. 163 00:09:26,116 --> 00:09:27,506 전 세계적으로 보았을 때, 164 00:09:27,530 --> 00:09:29,974 성적 사생활을 침해하고 165 00:09:29,998 --> 00:09:33,568 명예를 훼손하고 166 00:09:33,592 --> 00:09:35,823 정신적인 고통을 유발하는 167 00:09:35,847 --> 00:09:37,234 딥페이크를 제어할 수 있는 168 00:09:37,258 --> 00:09:39,209 적절한 법률은 전무합니다. 169 00:09:39,725 --> 00:09:43,598 라나 아이윱에게 일어났던 일은 점점 흔해지고 있습니다. 170 00:09:44,074 --> 00:09:46,288 하지만 그녀가 델리의 법 집행기관에 갔을 때, 171 00:09:46,312 --> 00:09:48,447 아무것도 할 수 없다는 말을 들었습니다. 172 00:09:49,101 --> 00:09:52,284 슬픈 것은, 미국과 영국에서도 173 00:09:52,308 --> 00:09:54,574 똑같을 것이라는 사실입니다. 174 00:09:55,300 --> 00:09:59,656 우리가 채워야 하는 법의 빈 공간이 존재합니다. 175 00:10:00,292 --> 00:10:04,384 제 동료인 마리 안네 프랑크 박사와 저는 미국 입법자들과 함께 일하며 176 00:10:04,408 --> 00:10:09,212 신분 도용이나 다름없는 디지털 사칭을 177 00:10:09,236 --> 00:10:11,769 막을 수 있는 법을 고안하고 있습니다. 178 00:10:12,252 --> 00:10:14,378 그리고 아이슬랜드, 영국, 호주에서 179 00:10:14,402 --> 00:10:17,703 비슷한 시도가 일어나는 것을 보았습니다. 180 00:10:18,157 --> 00:10:21,416 하지만 이는 아주 작은 퍼즐 조각에 불과하죠. 181 00:10:22,911 --> 00:10:26,080 법은 만병통치약이 아닙니다. 그렇죠? 182 00:10:26,104 --> 00:10:27,704 그저 둔한 몽둥이일 뿐입니다. 183 00:10:28,346 --> 00:10:29,885 우리는 이를 현명하게 다루어야 하죠. 184 00:10:30,411 --> 00:10:31,817 또, 법은 실질적인 어려움을 담고 있습니다. 185 00:10:33,330 --> 00:10:39,230 찾을 수 없는 사람에 대해서 법의 처벌을 내릴 수 없죠. 186 00:10:39,463 --> 00:10:44,509 그리고 가해자가 피해자가 사는 나라에 살지 않는다면, 187 00:10:44,551 --> 00:10:46,180 가해자가 처벌을 받을 수 있게 188 00:10:46,204 --> 00:10:48,553 법정에 데려오는 것 자체가 189 00:10:48,577 --> 00:10:49,727 가능하지 않을 수 있습니다. 190 00:10:50,236 --> 00:10:54,299 따라서 국제적인 대응이 필요합니다. 191 00:10:55,819 --> 00:10:59,152 교육도 그 일부가 되어야겠지요. 192 00:10:59,803 --> 00:11:03,534 법 집행관들은 본인이 모르는 법을 193 00:11:03,558 --> 00:11:05,016 집행하지 않을 것이고, 194 00:11:05,040 --> 00:11:07,636 본인이 이해하지 못한 문제를 지지하려 하지 않을 것입니다. 195 00:11:08,376 --> 00:11:10,567 사이버 스토킹에 대한 제 연구에서, 196 00:11:10,591 --> 00:11:14,090 저는 법 집행기관들에는 197 00:11:14,114 --> 00:11:16,696 온라인 문제들과 관련 법률을 이해하도록 하는 198 00:11:16,720 --> 00:11:19,069 훈련 과정이 없다는 것을 알게 되었습니다. 199 00:11:19,093 --> 00:11:21,775 그래서 그들은 피해자들에게 이렇게 말한 것이죠. 200 00:11:21,799 --> 00:11:25,770 "그냥 당신의 컴퓨터를 끄고 무시하세요. 그러면 문제가 없어질 것입니다." 201 00:11:26,261 --> 00:11:28,727 그리고 우리는 이를 라나 아이윱의 사례에서도 보았습니다. 202 00:11:29,102 --> 00:11:32,570 "에이, 너무 과민반응하시네요. 남자들이 그런 거잖아요." 203 00:11:32,594 --> 00:11:34,337 라나 아이윱은 이 말을 들어야 했습니다. 204 00:11:35,268 --> 00:11:40,520 따라서 우리는 훈련 과정을 새 법률과 발맞추어야 합니다. 205 00:11:42,053 --> 00:11:45,482 또, 교육은 미디어에서도 이루어져야 하죠. 206 00:11:46,180 --> 00:11:50,440 저널리스트들은 딥페이크 현상에 대한 교육이 필요합니다. 207 00:11:50,464 --> 00:11:53,503 그들이 딥페이크를 퍼뜨리는 것을 막기 위해서죠. 208 00:11:54,583 --> 00:11:56,751 그리고 우리는 이 부분에서 모두 노력을 기울여야 합니다. 209 00:11:56,775 --> 00:12:00,630 우리 모두는 교육이 필요합니다. 210 00:12:01,375 --> 00:12:05,050 우리는 생각없이 클릭하고, 공유하고, 좋아요를 누릅니다. 211 00:12:05,551 --> 00:12:07,098 우리는 이보다 더 잘해야 합니다. 212 00:12:07,726 --> 00:12:10,535 우리는 가짜에 대한 더 좋은 탐지 능력이 필요합니다. 213 00:12:13,744 --> 00:12:17,585 우리가 이 해결책을 설계하며, 214 00:12:17,609 --> 00:12:20,172 많은 피해 사례가 일어날 것입니다. 215 00:12:21,093 --> 00:12:22,466 라나 아이윱은 아직도 후유증에 맞서 싸우고 있습니다. 216 00:12:22,466 --> 00:12:29,566 그녀는 온/오프라인에서 자신을 자유롭게 표출하지 못합니다. 217 00:12:29,566 --> 00:12:30,931 그리고 그녀가 저에게 말해주었듯이, 218 00:12:30,955 --> 00:12:36,029 그녀는 수천 개의 눈이 자신의 나체를 주시하고 있는 것처럼 느낍니다. 219 00:12:36,053 --> 00:12:39,714 비록 머리로는 그것이 본인의 몸이 아니라는 것을 알면서도요. 220 00:12:40,371 --> 00:12:42,720 그리고 가끔씩 그녀에게 발작이 찾아오기도 합니다. 221 00:12:42,744 --> 00:12:46,844 특히, 그녀가 모르는 사람이 그녀를 사진 찍으려 할 때 말입니다. 222 00:12:46,868 --> 00:12:50,379 "저 사람이 또 다른 딥페이크를 만들면 어떡하지?"라고 그녀는 생각합니다. 223 00:12:51,082 --> 00:12:55,003 그래서 라나 아이윱같은 사람들을 위해, 224 00:12:55,027 --> 00:12:57,333 또 우리의 민주주의를 위해, 225 00:12:57,357 --> 00:12:59,539 우리는 지금 당장 조치를 취해야 합니다. 226 00:12:59,563 --> 00:13:00,714 감사합니다. 227 00:13:00,738 --> 00:13:03,246 (박수)