0:00:00.535,0:00:03.302 [본 강연에 성인용 내용이 [br]포함되어 있음] 0:00:05.762,0:00:08.754 라나 아이윱은 인도의 언론인으로, 0:00:08.778,0:00:11.380 정부의 부정부패와 0:00:12.411,0:00:14.568 인권침해를 폭로해왔습니다. 0:00:14.990,0:00:16.157 그리고 그녀는 수년간, 0:00:16.181,0:00:17.832 자신의 보도를 둘러싼 논쟁과[br]독설에 익숙해졌죠. 0:00:20.149,0:00:25.258 하지만 그 어떤 것도 2018년 4월[br]그녀가 마주한 것과 비할 수 없었습니다. 0:00:26.125,0:00:29.776 그녀가 친구와 카페에 있다가 0:00:29.800,0:00:34.743 자신이 나오는 2분 20초짜리[br]성관계 영상을 본 것입니다. 0:00:35.188,0:00:37.537 그녀는 자신의 눈을[br]믿을 수가 없었습니다. 0:00:37.561,0:00:39.834 성관계 영상을 촬영한 적이[br]없었으니까요. 0:00:40.506,0:00:43.971 하지만 불행히도, 영상을 본[br]수천 명의 사람들이 0:00:43.995,0:00:45.661 그녀라고 믿었겠죠. 0:00:46.673,0:00:49.617 저는 약 3개월 전에 [br]성적 사생활에 대한 제 책과 관련해 0:00:49.641,0:00:52.145 아이윱 씨를 인터뷰했습니다. 0:00:52.681,0:00:55.879 저는 법학 교수이며, 변호사이자 [br]시민권 옹호자입니다. 0:00:56.204,0:01:00.815 지금 당장 그녀를 돕기 위해 [br]법적으로 할 수 있는 일이 0:01:00.839,0:01:03.077 많지 않다는 것이 [br]정말 답답할 따름이에요. 0:01:03.458,0:01:05.005 이야기 중 그녀는 0:01:05.029,0:01:09.541 가짜 성관계 영상이 떠돌 것을[br]진작 알아차렸어야 했다고 말했죠. 0:01:10.038,0:01:15.634 그리고 종종 섹스가 여성을 비하하고 [br]망신시키기 위해 악용된다고 했죠. 0:01:15.658,0:01:18.086 특히 소수 여성, 그리고 0:01:18.110,0:01:22.422 그 여성들이 권력 있는 남자들에게[br]맞서는 경우에는 더욱이 그렇다고요. 0:01:22.446,0:01:23.979 아이윱 씨가 그랬던 것처럼요. 0:01:25.191,0:01:29.167 가짜 성관계 영상은 48시간 만에 [br]인터넷에 퍼졌습니다. 0:01:30.064,0:01:35.371 그녀의 온라인 계정은 온통 영상의 [br]스크린샷, 적나라한 강간 장면과 0:01:35.395,0:01:38.022 살인 협박, 그리고 [br]그녀의 이슬람 신앙을 0:01:38.046,0:01:40.579 비방하는 말들로 도배되었습니다. 0:01:41.426,0:01:45.990 온라인 게시물들은 그녀가 "헤픈" [br]여자라는 의미를 내포했죠. 0:01:46.014,0:01:47.624 그녀는 해킹을 당했습니다. 0:01:47.648,0:01:50.426 그녀의 집 주소와 전화 번호까지 0:01:50.450,0:01:52.196 인터넷에 퍼졌습니다. 0:01:52.879,0:01:56.963 영상은 4만 회 이상 공유되었습니다. 0:01:57.760,0:02:01.696 누군가가 이러한 사이버 공격의 [br]대상이 된다면 0:02:01.720,0:02:03.783 그 피해는 심각합니다. 0:02:04.482,0:02:07.521 라나 아이윱의 인생은[br]송두리채 뒤바뀌었습니다. 0:02:08.211,0:02:11.545 몇 주 동안 그녀는 거의 먹지도,[br]말하지도 못했습니다. 0:02:11.919,0:02:15.608 글 쓰는 것을 멈추고 [br]모든 소셜 미디어 계정을 폐쇄했죠. 0:02:15.632,0:02:18.790 저널리스트로서 [br]정말 힘든 일이었을 거예요. 0:02:19.188,0:02:22.672 그녀는 부모님의 집을 [br]벗어나는 것이 두려웠습니다. 0:02:22.696,0:02:25.718 만약 게시물대로 위협이 생기면요? 0:02:26.395,0:02:30.760 유엔 인권 위원회는 그녀의 걱정이[br]과민 반응이 아니라고 결론지었습니다. 0:02:30.784,0:02:35.421 위원회는 그녀의 안전이 걱정된다는[br]공식 성명서를 발표하였습니다. 0:02:36.776,0:02:41.005 라나 아이윱이 본 것은[br]딥 페이크(deepfake)였습니다. 0:02:41.029,0:02:43.569 딥 페이크는 [br]머신 러닝 기술의 일종으로, 0:02:43.593,0:02:47.704 사람이 등장하는[br]영상과 음성파일을 조작해 0:02:47.728,0:02:50.451 실제로 하지 않은 말이나 행동이 0:02:50.475,0:02:52.341 이루어진 것처럼 보여주는 기술입니다. 0:02:52.807,0:02:56.168 딥페이크는 실제처럼 보이지만,[br]실상은 그렇지 않습니다. 0:02:56.192,0:02:57.964 완전한 가짜인 것이죠. 0:02:59.228,0:03:03.022 아직 이 기술은 발달 단계이지만, 0:03:03.046,0:03:04.660 많은 사람들이 [br]사용할 수 있는 상태입니다. 0:03:05.371,0:03:08.443 온라인상의 많은 것들이 그러듯이, 0:03:08.467,0:03:10.628 딥페이크는 포르노그래피와 관련한 0:03:10.652,0:03:11.907 관심을 많이 받게 되었습니다. 0:03:12.498,0:03:14.609 2018년 초에, 0:03:14.633,0:03:17.101 어떤 사람이 레딧(Reddit)에 0:03:17.125,0:03:21.537 포르노 비디오에 얼굴을 삽입할 수[br]있도록 하는 도구를 올렸습니다. 0:03:21.561,0:03:25.001 그 후, 각자가 가장 좋아하는[br]여성 연예인을 합성한 0:03:25.025,0:03:27.822 가짜 포르노 영상들이[br]인터넷을 휩쓸게 되었죠. 0:03:28.712,0:03:32.189 오늘날, 유튜브에 검색하면[br]데스크톱을 사용한 0:03:32.213,0:03:34.499 딥페이크 영상을 만드는 방법이 0:03:34.523,0:03:37.686 단계별로 설명되어 있는[br]튜토리얼이 정말 많습니다. 0:03:38.260,0:03:41.966 곧, 휴대폰으로 만들 수[br]있을지도 모릅니다. 0:03:43.072,0:03:48.454 인간의 약점과 네트워크 도구의 0:03:48.478,0:03:50.160 상호작용이 0:03:50.184,0:03:52.850 딥페이크를 무기로 만들 수[br]있는 것입니다. 0:03:52.874,0:03:54.074 설명해 드리겠습니다. 0:03:54.875,0:03:59.441 인간으로서, 우리는[br]영상과 음성에 본능적으로 반응합니다. 0:03:59.860,0:04:01.348 우리는 그것이 사실이라고 받아들입니다. 0:04:01.372,0:04:03.450 왜냐하면 자신의 눈과 귀가[br]보여주는 것은 0:04:03.474,0:04:05.952 당연히 믿을 수 있기 때문이죠. 0:04:06.476,0:04:08.175 그리고 이 방법이 0:04:08.199,0:04:11.897 우리의 현실 감각을 [br]약화시키는 것입니다. 0:04:11.921,0:04:15.068 우리는 딥페이크가 사실이라고 믿지만,[br]이는 사실이 아닙니다. 0:04:15.604,0:04:19.761 또, 우리는 음란하고 [br]눈에 띄는 것에 끌리기 마련이죠. 0:04:20.365,0:04:23.412 우리는 부정적이고 새로운 정보를 0:04:23.436,0:04:25.459 믿고 공유하려는 습성이 있습니다. 0:04:25.809,0:04:30.828 연구자들은 온라인 조작이[br]실제 이야기보다 0:04:30.852,0:04:32.479 10배나 빨리 퍼진다는 것을 밝혔습니다. 0:04:34.015,0:04:38.395 또, 우리는 우리의 관점과 잘 들어맞는 0:04:38.419,0:04:40.311 정보에 이끌리는 본능이 있습니다. 0:04:40.950,0:04:44.511 심리학자들은 이 현상을[br]"확증 편향"이라 부릅니다. 0:04:45.300,0:04:49.687 소셜 미디어 플랫폼은[br]이 본능을 자극하게 되죠. 0:04:49.711,0:04:53.592 우리의 관점과 잘 들어맞는[br]정보를 즉각적으로, 0:04:53.616,0:04:55.408 널리 퍼뜨릴 수 있게 해 주니까요. 0:04:56.735,0:05:02.303 딥페이크는 심각한 개인,[br]사회적 피해를 초래할 수 있습니다. 0:05:03.204,0:05:09.538 아프가니스탄에 있는 미군들이[br]코란을 태우는 딥페이크가 있다고 상상해 보세요. 0:05:10.807,0:05:13.831 그 딥페이크는 영상 속 미군들에 대한 0:05:13.855,0:05:15.388 폭력을 낳을 것이라고 예상할 수 있죠. 0:05:15.847,0:05:18.720 바로 그 다음 날, 0:05:18.744,0:05:20.998 런던의 한 이맘(성직자)이 0:05:21.022,0:05:24.339 군인들을 향한 폭력을 찬양하는 0:05:24.363,0:05:26.830 딥페이크 영상이 만들어지면 어떨까요? 0:05:27.617,0:05:30.780 어쩌면 아프가니스탄과 [br]미국 뿐만이 아닌, 0:05:30.804,0:05:34.053 전 세계에 걸친 0:05:34.077,0:05:35.592 폭력과 시민 소요가[br]일어날 수도 있습니다. 0:05:36.251,0:05:37.409 여러분들은 저에게 0:05:37.433,0:05:39.680 "에이, 다니엘, 그건 너무 억지다."[br]라고 말하실 수도 있습니다. 0:05:39.704,0:05:40.854 하지만 아닙니다. 0:05:41.293,0:05:43.484 우리는 왓츠앱(WhatsApp)과[br]여러 다른 메시지 서비스에서 0:05:43.508,0:05:46.230 거짓 정보가 퍼지는 것을 확인했고, 0:05:46.254,0:05:49.015 그것이 소수 민족에 대한 폭력으로[br]이어지는 것을 보았습니다. 0:05:49.039,0:05:50.926 그리고 그것은 단지 [br]글 형태에 불과했죠. 0:05:50.950,0:05:52.974 그것이 영상이라면 어떨까요? 0:05:54.593,0:05:59.950 딥페이크는 우리가 가지고 있는[br]민주주의적 제도에 대한 믿음을 0:05:59.974,0:06:01.966 약화시킬 수 있는 가능성을[br]가지고 있습니다. 0:06:03.006,0:06:05.673 선거 전날이라고 생각해 보세요. 0:06:05.996,0:06:09.234 주요 후보자 중 한 명이[br]아주 아픈 모습을 보여주는 0:06:09.258,0:06:10.408 딥페이크가 있다고 가정합시다. 0:06:11.202,0:06:13.535 그 딥페이크는 선거를 뒤바꿀 수 있고 0:06:13.559,0:06:16.934 선거가 정당하다는 우리의 믿음을[br]뒤흔들 수 있습니다. 0:06:18.515,0:06:21.841 큰 세계적인 은행의[br]신규 상장 전날이라고 생각해 보세요. 0:06:21.865,0:06:24.198 그 은행의 CEO가 술에 취한 채로 0:06:24.222,0:06:27.371 음모론 이야기들을 내뱉는 0:06:27.395,0:06:30.092 딥페이크가 떠돌고 있다고[br]생각해 보세요. 0:06:30.887,0:06:33.934 그 딥페이크는 신규 상장을[br]완전히 망하게 할 수 있습니다. 0:06:33.958,0:06:38.073 혹은, 금융 시장이 안정적일 것이라는[br]우리의 믿음을 뒤흔들 수 있죠. 0:06:39.385,0:06:46.374 따라서, 딥페이크는 [br]우리가 이미 가지고 있는 0:06:46.398,0:06:50.612 정치인, 사업가, 리더들에 대한[br]불신을 강화시킬 수 있습니다. 0:06:50.945,0:06:54.229 딥페이크는 그것을 믿을 만한[br]관객을 찾아내어 유인하죠. 0:06:55.287,0:06:58.052 또, 진리의 추구 또한 위태롭습니다. 0:06:59.077,0:07:02.641 기술인들은 인공지능의 [br]발전 속도를 보았을 때, 0:07:02.665,0:07:06.347 곧 진짜와 가짜 영상을 구분하는 것이 0:07:06.371,0:07:10.140 아주 힘들거나 불가능할 것이라고[br]예측하고 있습니다. 0:07:11.022,0:07:16.363 그렇다면 어떻게 진실이 딥페이크가 난무한 [br]정보 속에서 빛을 발할 수 있을까요? 0:07:16.752,0:07:20.172 아무 노력도 들이지 않은 채 0:07:20.196,0:07:22.633 우리가 원하는 것만을 믿고, 0:07:22.657,0:07:23.807 사실로부터 완전히 등을 돌릴까요? 0:07:24.831,0:07:26.418 어쩌면 우리는 가짜를[br]믿는 것 뿐만 아니라 0:07:28.030,0:07:31.356 사실을 거절하게 될 수도 있습니다. 0:07:31.887,0:07:35.966 우리는 이미 사람들이[br]딥페이크를 이유로 들며 0:07:35.990,0:07:39.910 실제 증거 자료에게 의문을[br]제기하는 모습을 보았습니다. 0:07:39.934,0:07:45.903 정치인들은 자신의 발언이 담긴 [br]음성 파일을 두고 이렇게 말합니다. 0:07:45.927,0:07:47.673 "이봐, 그건 가짜 뉴스라고. 0:07:47.697,0:07:51.617 여러분의 눈과 귀가 보여주는 것이[br]전부가 아니란 말입니다." 0:07:52.402,0:07:54.133 그리고 로버트 체스니 교수와 저는 0:07:54.157,0:07:59.593 이 위험을 "거짓말쟁이의 배당금"[br]이라고 부릅니다. 0:07:59.617,0:08:01.295 거짓말쟁이들이 딥페이크를 이유로 들며 0:08:02.998,0:08:05.903 자신의 잘못에 대한[br]책임을 회피하는 것이죠. 0:08:06.963,0:08:10.034 이제 우리가 무엇을 해야 할지[br]확실해졌습니다. 0:08:10.606,0:08:12.268 기술회사들과 입법자들, 0:08:13.955,0:08:17.466 집행관들과 미디어 사용자들은 0:08:17.490,0:08:19.474 방지책을 내야 합니다. 0:08:20.093,0:08:24.109 건강한 사회의 유연성 [br]또한 필요합니다. 0:08:25.506,0:08:29.402 우리는 지금 기술 회사들의 책임에 대한 0:08:29.426,0:08:32.339 토론에 참여하고 있습니다. 0:08:32.926,0:08:35.958 소셜 미디어 플랫폼에게 주는[br]제 조언은 다음과 같습니다. 0:08:35.982,0:08:39.855 서비스 약관과 공동체 규칙을 바꾸어 0:08:39.879,0:08:42.215 해를 주는 딥페이크를 막는 것이죠. 0:08:42.712,0:08:46.672 이를 위해서는 의지력과[br]인간의 판단력이 필요하고, 0:08:46.696,0:08:48.267 비싸기도 합니다. 0:08:48.673,0:08:50.958 하지만 우리는 딥 페이크의 0:08:50.982,0:08:54.855 내용과 맥락을 보고 0:08:54.879,0:08:58.561 사람에게 해를 주는 것인지 0:08:58.585,0:09:02.967 가치있는 풍자나 예술인지[br]판단할 사람들이 필요합니다. 0:09:04.118,0:09:05.613 그렇다면, 법은 어떨까요? 0:09:06.666,0:09:09.015 법은 우리의 교육자입니다. 0:09:09.515,0:09:13.553 어떤 것이 해롭고[br]어떤 것이 잘못인지 가르쳐 주죠. 0:09:13.577,0:09:18.132 그리고 가해자를 처벌하고[br]피해자를 보호해 주며 0:09:18.156,0:09:20.423 올바른 행동을 할 수 있게[br]지도해 줍니다. 0:09:21.148,0:09:25.428 현재의 법은 딥페이크에[br]대항할 수 없습니다. 0:09:26.116,0:09:27.506 전 세계적으로 보았을 때, 0:09:27.530,0:09:29.974 성적 사생활을 침해하고 0:09:29.998,0:09:33.568 명예를 훼손하고 0:09:33.592,0:09:35.823 정신적인 고통을 유발하는 0:09:35.847,0:09:37.234 딥페이크를 제어할 수 있는 0:09:37.258,0:09:39.209 적절한 법률은 전무합니다. 0:09:39.725,0:09:43.598 라나 아이윱에게 일어났던 일은[br]점점 흔해지고 있습니다. 0:09:44.074,0:09:46.288 하지만 그녀가 델리의[br]법 집행기관에 갔을 때, 0:09:46.312,0:09:48.447 아무것도 할 수 없다는 [br]말을 들었습니다. 0:09:49.101,0:09:52.284 슬픈 것은, 미국과 영국에서도 0:09:52.308,0:09:54.574 똑같을 것이라는 사실입니다. 0:09:55.300,0:09:59.656 우리가 채워야 하는[br]법의 빈 공간이 존재합니다. 0:10:00.292,0:10:04.384 제 동료인 마리 안네 프랑크 박사와[br]저는 미국 입법자들과 함께 일하며 0:10:04.408,0:10:09.212 신분 도용이나 다름없는 디지털 사칭을 0:10:09.236,0:10:11.769 막을 수 있는 법을 고안하고 있습니다. 0:10:12.252,0:10:14.378 그리고 아이슬랜드, 영국, 호주에서 0:10:14.402,0:10:17.703 비슷한 시도가 [br]일어나는 것을 보았습니다. 0:10:18.157,0:10:21.416 하지만 이는 아주 작은[br]퍼즐 조각에 불과하죠. 0:10:22.911,0:10:26.080 법은 만병통치약이 아닙니다.[br]그렇죠? 0:10:26.104,0:10:27.704 그저 둔한 몽둥이일 뿐입니다. 0:10:28.346,0:10:29.885 우리는 이를 현명하게 다루어야 하죠. 0:10:30.411,0:10:31.817 또, 법은 실질적인 어려움을[br]담고 있습니다. 0:10:33.330,0:10:39.230 찾을 수 없는 사람에 대해서[br]법의 처벌을 내릴 수 없죠. 0:10:39.463,0:10:44.509 그리고 가해자가 피해자가 사는 [br]나라에 살지 않는다면, 0:10:44.551,0:10:46.180 가해자가 처벌을 받을 수 있게 0:10:46.204,0:10:48.553 법정에 데려오는 것 자체가 0:10:48.577,0:10:49.727 가능하지 않을 수 있습니다. 0:10:50.236,0:10:54.299 따라서 국제적인 대응이 필요합니다. 0:10:55.819,0:10:59.152 교육도 그 일부가 되어야겠지요. 0:10:59.803,0:11:03.534 법 집행관들은 본인이 모르는 법을 0:11:03.558,0:11:05.016 집행하지 않을 것이고, 0:11:05.040,0:11:07.636 본인이 이해하지 못한 문제를 [br]지지하려 하지 않을 것입니다. 0:11:08.376,0:11:10.567 사이버 스토킹에 대한 제 연구에서, 0:11:10.591,0:11:14.090 저는 법 집행기관들에는 0:11:14.114,0:11:16.696 온라인 문제들과 [br]관련 법률을 이해하도록 하는 0:11:16.720,0:11:19.069 훈련 과정이 없다는 것을 [br]알게 되었습니다. 0:11:19.093,0:11:21.775 그래서 그들은 피해자들에게[br]이렇게 말한 것이죠. 0:11:21.799,0:11:25.770 "그냥 당신의 컴퓨터를 끄고 무시하세요.[br]그러면 문제가 없어질 것입니다." 0:11:26.261,0:11:28.727 그리고 우리는 이를 라나 아이윱의[br]사례에서도 보았습니다. 0:11:29.102,0:11:32.570 "에이, 너무 과민반응하시네요.[br]남자들이 그런 거잖아요." 0:11:32.594,0:11:34.337 라나 아이윱은 [br]이 말을 들어야 했습니다. 0:11:35.268,0:11:40.520 따라서 우리는 훈련 과정을[br]새 법률과 발맞추어야 합니다. 0:11:42.053,0:11:45.482 또, 교육은 미디어에서도[br]이루어져야 하죠. 0:11:46.180,0:11:50.440 저널리스트들은 딥페이크 현상에 대한[br]교육이 필요합니다. 0:11:50.464,0:11:53.503 그들이 딥페이크를 퍼뜨리는 것을[br]막기 위해서죠. 0:11:54.583,0:11:56.751 그리고 우리는 이 부분에서[br]모두 노력을 기울여야 합니다. 0:11:56.775,0:12:00.630 우리 모두는 교육이 필요합니다. 0:12:01.375,0:12:05.050 우리는 생각없이 클릭하고, [br]공유하고, 좋아요를 누릅니다. 0:12:05.551,0:12:07.098 우리는 이보다 더 잘해야 합니다. 0:12:07.726,0:12:10.535 우리는 가짜에 대한 [br]더 좋은 탐지 능력이 필요합니다. 0:12:13.744,0:12:17.585 우리가 이 해결책을 설계하며, 0:12:17.609,0:12:20.172 많은 피해 사례가 일어날 것입니다. 0:12:21.093,0:12:22.466 라나 아이윱은 아직도[br]후유증에 맞서 싸우고 있습니다. 0:12:22.466,0:12:29.566 그녀는 온/오프라인에서[br]자신을 자유롭게 표출하지 못합니다. 0:12:29.566,0:12:30.931 그리고 그녀가 저에게 말해주었듯이, 0:12:30.955,0:12:36.029 그녀는 수천 개의 눈이 자신의 나체를 [br]주시하고 있는 것처럼 느낍니다. 0:12:36.053,0:12:39.714 비록 머리로는 그것이[br]본인의 몸이 아니라는 것을 알면서도요. 0:12:40.371,0:12:42.720 그리고 가끔씩 그녀에게[br]발작이 찾아오기도 합니다. 0:12:42.744,0:12:46.844 특히, 그녀가 모르는 사람이[br]그녀를 사진 찍으려 할 때 말입니다. 0:12:46.868,0:12:50.379 "저 사람이 또 다른 딥페이크를 만들면[br]어떡하지?"라고 그녀는 생각합니다. 0:12:51.082,0:12:55.003 그래서 라나 아이윱같은 사람들을 위해, 0:12:55.027,0:12:57.333 또 우리의 민주주의를 위해, 0:12:57.357,0:12:59.539 우리는 지금 당장[br]조치를 취해야 합니다. 0:12:59.563,0:13:00.714 감사합니다. 0:13:00.738,0:13:03.246 (박수)