Return to Video

진실을 해치고 민주주의를 위협하는 딥페이크

  • 0:01 - 0:03
    [본 강연에 성인용 내용이
    포함되어 있음]
  • 0:06 - 0:09
    라나 아이윱은 인도의 언론인으로,
  • 0:09 - 0:11
    정부의 부정부패와
  • 0:12 - 0:15
    인권침해를 폭로해왔습니다.
  • 0:15 - 0:16
    그리고 그녀는 수년간,
  • 0:16 - 0:18
    자신의 보도를 둘러싼 논쟁과
    독설에 익숙해졌죠.
  • 0:20 - 0:25
    하지만 그 어떤 것도 2018년 4월
    그녀가 마주한 것과 비할 수 없었습니다.
  • 0:26 - 0:30
    그녀가 친구와 카페에 있다가
  • 0:30 - 0:35
    자신이 나오는 2분 20초짜리
    성관계 영상을 본 것입니다.
  • 0:35 - 0:38
    그녀는 자신의 눈을
    믿을 수가 없었습니다.
  • 0:38 - 0:40
    성관계 영상을 촬영한 적이
    없었으니까요.
  • 0:41 - 0:44
    하지만 불행히도, 영상을 본
    수천 명의 사람들이
  • 0:44 - 0:46
    그녀라고 믿었겠죠.
  • 0:47 - 0:50
    저는 약 3개월 전에
    성적 사생활에 대한 제 책과 관련해
  • 0:50 - 0:52
    아이윱 씨를 인터뷰했습니다.
  • 0:53 - 0:56
    저는 법학 교수이며, 변호사이자
    시민권 옹호자입니다.
  • 0:56 - 1:01
    지금 당장 그녀를 돕기 위해
    법적으로 할 수 있는 일이
  • 1:01 - 1:03
    많지 않다는 것이
    정말 답답할 따름이에요.
  • 1:03 - 1:05
    이야기 중 그녀는
  • 1:05 - 1:10
    가짜 성관계 영상이 떠돌 것을
    진작 알아차렸어야 했다고 말했죠.
  • 1:10 - 1:16
    그리고 종종 섹스가 여성을 비하하고
    망신시키기 위해 악용된다고 했죠.
  • 1:16 - 1:18
    특히 소수 여성, 그리고
  • 1:18 - 1:22
    그 여성들이 권력 있는 남자들에게
    맞서는 경우에는 더욱이 그렇다고요.
  • 1:22 - 1:24
    아이윱 씨가 그랬던 것처럼요.
  • 1:25 - 1:29
    가짜 성관계 영상은 48시간 만에
    인터넷에 퍼졌습니다.
  • 1:30 - 1:35
    그녀의 온라인 계정은 온통 영상의
    스크린샷, 적나라한 강간 장면과
  • 1:35 - 1:38
    살인 협박, 그리고
    그녀의 이슬람 신앙을
  • 1:38 - 1:41
    비방하는 말들로 도배되었습니다.
  • 1:41 - 1:46
    온라인 게시물들은 그녀가 "헤픈"
    여자라는 의미를 내포했죠.
  • 1:46 - 1:48
    그녀는 해킹을 당했습니다.
  • 1:48 - 1:50
    그녀의 집 주소와 전화 번호까지
  • 1:50 - 1:52
    인터넷에 퍼졌습니다.
  • 1:53 - 1:57
    영상은 4만 회 이상 공유되었습니다.
  • 1:58 - 2:02
    누군가가 이러한 사이버 공격의
    대상이 된다면
  • 2:02 - 2:04
    그 피해는 심각합니다.
  • 2:04 - 2:08
    라나 아이윱의 인생은
    송두리채 뒤바뀌었습니다.
  • 2:08 - 2:12
    몇 주 동안 그녀는 거의 먹지도,
    말하지도 못했습니다.
  • 2:12 - 2:16
    글 쓰는 것을 멈추고
    모든 소셜 미디어 계정을 폐쇄했죠.
  • 2:16 - 2:19
    저널리스트로서
    정말 힘든 일이었을 거예요.
  • 2:19 - 2:23
    그녀는 부모님의 집을
    벗어나는 것이 두려웠습니다.
  • 2:23 - 2:26
    만약 게시물대로 위협이 생기면요?
  • 2:26 - 2:31
    유엔 인권 위원회는 그녀의 걱정이
    과민 반응이 아니라고 결론지었습니다.
  • 2:31 - 2:35
    위원회는 그녀의 안전이 걱정된다는
    공식 성명서를 발표하였습니다.
  • 2:37 - 2:41
    라나 아이윱이 본 것은
    딥 페이크(deepfake)였습니다.
  • 2:41 - 2:44
    딥 페이크는
    머신 러닝 기술의 일종으로,
  • 2:44 - 2:48
    사람이 등장하는
    영상과 음성파일을 조작해
  • 2:48 - 2:50
    실제로 하지 않은 말이나 행동이
  • 2:50 - 2:52
    이루어진 것처럼 보여주는 기술입니다.
  • 2:53 - 2:56
    딥페이크는 실제처럼 보이지만,
    실상은 그렇지 않습니다.
  • 2:56 - 2:58
    완전한 가짜인 것이죠.
  • 2:59 - 3:03
    아직 이 기술은 발달 단계이지만,
  • 3:03 - 3:05
    많은 사람들이
    사용할 수 있는 상태입니다.
  • 3:05 - 3:08
    온라인상의 많은 것들이 그러듯이,
  • 3:08 - 3:11
    딥페이크는 포르노그래피와 관련한
  • 3:11 - 3:12
    관심을 많이 받게 되었습니다.
  • 3:12 - 3:15
    2018년 초에,
  • 3:15 - 3:17
    어떤 사람이 레딧(Reddit)에
  • 3:17 - 3:22
    포르노 비디오에 얼굴을 삽입할 수
    있도록 하는 도구를 올렸습니다.
  • 3:22 - 3:25
    그 후, 각자가 가장 좋아하는
    여성 연예인을 합성한
  • 3:25 - 3:28
    가짜 포르노 영상들이
    인터넷을 휩쓸게 되었죠.
  • 3:29 - 3:32
    오늘날, 유튜브에 검색하면
    데스크톱을 사용한
  • 3:32 - 3:34
    딥페이크 영상을 만드는 방법이
  • 3:35 - 3:38
    단계별로 설명되어 있는
    튜토리얼이 정말 많습니다.
  • 3:38 - 3:42
    곧, 휴대폰으로 만들 수
    있을지도 모릅니다.
  • 3:43 - 3:48
    인간의 약점과 네트워크 도구의
  • 3:48 - 3:50
    상호작용이
  • 3:50 - 3:53
    딥페이크를 무기로 만들 수
    있는 것입니다.
  • 3:53 - 3:54
    설명해 드리겠습니다.
  • 3:55 - 3:59
    인간으로서, 우리는
    영상과 음성에 본능적으로 반응합니다.
  • 4:00 - 4:01
    우리는 그것이 사실이라고 받아들입니다.
  • 4:01 - 4:03
    왜냐하면 자신의 눈과 귀가
    보여주는 것은
  • 4:03 - 4:06
    당연히 믿을 수 있기 때문이죠.
  • 4:06 - 4:08
    그리고 이 방법이
  • 4:08 - 4:12
    우리의 현실 감각을
    약화시키는 것입니다.
  • 4:12 - 4:15
    우리는 딥페이크가 사실이라고 믿지만,
    이는 사실이 아닙니다.
  • 4:16 - 4:20
    또, 우리는 음란하고
    눈에 띄는 것에 끌리기 마련이죠.
  • 4:20 - 4:23
    우리는 부정적이고 새로운 정보를
  • 4:23 - 4:25
    믿고 공유하려는 습성이 있습니다.
  • 4:26 - 4:31
    연구자들은 온라인 조작이
    실제 이야기보다
  • 4:31 - 4:32
    10배나 빨리 퍼진다는 것을 밝혔습니다.
  • 4:34 - 4:38
    또, 우리는 우리의 관점과 잘 들어맞는
  • 4:38 - 4:40
    정보에 이끌리는 본능이 있습니다.
  • 4:41 - 4:45
    심리학자들은 이 현상을
    "확증 편향"이라 부릅니다.
  • 4:45 - 4:50
    소셜 미디어 플랫폼은
    이 본능을 자극하게 되죠.
  • 4:50 - 4:54
    우리의 관점과 잘 들어맞는
    정보를 즉각적으로,
  • 4:54 - 4:55
    널리 퍼뜨릴 수 있게 해 주니까요.
  • 4:57 - 5:02
    딥페이크는 심각한 개인,
    사회적 피해를 초래할 수 있습니다.
  • 5:03 - 5:10
    아프가니스탄에 있는 미군들이
    코란을 태우는 딥페이크가 있다고 상상해 보세요.
  • 5:11 - 5:14
    그 딥페이크는 영상 속 미군들에 대한
  • 5:14 - 5:15
    폭력을 낳을 것이라고 예상할 수 있죠.
  • 5:16 - 5:19
    바로 그 다음 날,
  • 5:19 - 5:21
    런던의 한 이맘(성직자)이
  • 5:21 - 5:24
    군인들을 향한 폭력을 찬양하는
  • 5:24 - 5:27
    딥페이크 영상이 만들어지면 어떨까요?
  • 5:28 - 5:31
    어쩌면 아프가니스탄과
    미국 뿐만이 아닌,
  • 5:31 - 5:34
    전 세계에 걸친
  • 5:34 - 5:36
    폭력과 시민 소요가
    일어날 수도 있습니다.
  • 5:36 - 5:37
    여러분들은 저에게
  • 5:37 - 5:40
    "에이, 다니엘, 그건 너무 억지다."
    라고 말하실 수도 있습니다.
  • 5:40 - 5:41
    하지만 아닙니다.
  • 5:41 - 5:43
    우리는 왓츠앱(WhatsApp)과
    여러 다른 메시지 서비스에서
  • 5:44 - 5:46
    거짓 정보가 퍼지는 것을 확인했고,
  • 5:46 - 5:49
    그것이 소수 민족에 대한 폭력으로
    이어지는 것을 보았습니다.
  • 5:49 - 5:51
    그리고 그것은 단지
    글 형태에 불과했죠.
  • 5:51 - 5:53
    그것이 영상이라면 어떨까요?
  • 5:55 - 6:00
    딥페이크는 우리가 가지고 있는
    민주주의적 제도에 대한 믿음을
  • 6:00 - 6:02
    약화시킬 수 있는 가능성을
    가지고 있습니다.
  • 6:03 - 6:06
    선거 전날이라고 생각해 보세요.
  • 6:06 - 6:09
    주요 후보자 중 한 명이
    아주 아픈 모습을 보여주는
  • 6:09 - 6:10
    딥페이크가 있다고 가정합시다.
  • 6:11 - 6:14
    그 딥페이크는 선거를 뒤바꿀 수 있고
  • 6:14 - 6:17
    선거가 정당하다는 우리의 믿음을
    뒤흔들 수 있습니다.
  • 6:19 - 6:22
    큰 세계적인 은행의
    신규 상장 전날이라고 생각해 보세요.
  • 6:22 - 6:24
    그 은행의 CEO가 술에 취한 채로
  • 6:24 - 6:27
    음모론 이야기들을 내뱉는
  • 6:27 - 6:30
    딥페이크가 떠돌고 있다고
    생각해 보세요.
  • 6:31 - 6:34
    그 딥페이크는 신규 상장을
    완전히 망하게 할 수 있습니다.
  • 6:34 - 6:38
    혹은, 금융 시장이 안정적일 것이라는
    우리의 믿음을 뒤흔들 수 있죠.
  • 6:39 - 6:46
    따라서, 딥페이크는
    우리가 이미 가지고 있는
  • 6:46 - 6:51
    정치인, 사업가, 리더들에 대한
    불신을 강화시킬 수 있습니다.
  • 6:51 - 6:54
    딥페이크는 그것을 믿을 만한
    관객을 찾아내어 유인하죠.
  • 6:55 - 6:58
    또, 진리의 추구 또한 위태롭습니다.
  • 6:59 - 7:03
    기술인들은 인공지능의
    발전 속도를 보았을 때,
  • 7:03 - 7:06
    곧 진짜와 가짜 영상을 구분하는 것이
  • 7:06 - 7:10
    아주 힘들거나 불가능할 것이라고
    예측하고 있습니다.
  • 7:11 - 7:16
    그렇다면 어떻게 진실이 딥페이크가 난무한
    정보 속에서 빛을 발할 수 있을까요?
  • 7:17 - 7:20
    아무 노력도 들이지 않은 채
  • 7:20 - 7:23
    우리가 원하는 것만을 믿고,
  • 7:23 - 7:24
    사실로부터 완전히 등을 돌릴까요?
  • 7:25 - 7:26
    어쩌면 우리는 가짜를
    믿는 것 뿐만 아니라
  • 7:28 - 7:31
    사실을 거절하게 될 수도 있습니다.
  • 7:32 - 7:36
    우리는 이미 사람들이
    딥페이크를 이유로 들며
  • 7:36 - 7:40
    실제 증거 자료에게 의문을
    제기하는 모습을 보았습니다.
  • 7:40 - 7:46
    정치인들은 자신의 발언이 담긴
    음성 파일을 두고 이렇게 말합니다.
  • 7:46 - 7:48
    "이봐, 그건 가짜 뉴스라고.
  • 7:48 - 7:52
    여러분의 눈과 귀가 보여주는 것이
    전부가 아니란 말입니다."
  • 7:52 - 7:54
    그리고 로버트 체스니 교수와 저는
  • 7:54 - 8:00
    이 위험을 "거짓말쟁이의 배당금"
    이라고 부릅니다.
  • 8:00 - 8:01
    거짓말쟁이들이 딥페이크를 이유로 들며
  • 8:03 - 8:06
    자신의 잘못에 대한
    책임을 회피하는 것이죠.
  • 8:07 - 8:10
    이제 우리가 무엇을 해야 할지
    확실해졌습니다.
  • 8:11 - 8:12
    기술회사들과 입법자들,
  • 8:14 - 8:17
    집행관들과 미디어 사용자들은
  • 8:17 - 8:19
    방지책을 내야 합니다.
  • 8:20 - 8:24
    건강한 사회의 유연성
    또한 필요합니다.
  • 8:26 - 8:29
    우리는 지금 기술 회사들의 책임에 대한
  • 8:29 - 8:32
    토론에 참여하고 있습니다.
  • 8:33 - 8:36
    소셜 미디어 플랫폼에게 주는
    제 조언은 다음과 같습니다.
  • 8:36 - 8:40
    서비스 약관과 공동체 규칙을 바꾸어
  • 8:40 - 8:42
    해를 주는 딥페이크를 막는 것이죠.
  • 8:43 - 8:47
    이를 위해서는 의지력과
    인간의 판단력이 필요하고,
  • 8:47 - 8:48
    비싸기도 합니다.
  • 8:49 - 8:51
    하지만 우리는 딥 페이크의
  • 8:51 - 8:55
    내용과 맥락을 보고
  • 8:55 - 8:59
    사람에게 해를 주는 것인지
  • 8:59 - 9:03
    가치있는 풍자나 예술인지
    판단할 사람들이 필요합니다.
  • 9:04 - 9:06
    그렇다면, 법은 어떨까요?
  • 9:07 - 9:09
    법은 우리의 교육자입니다.
  • 9:10 - 9:14
    어떤 것이 해롭고
    어떤 것이 잘못인지 가르쳐 주죠.
  • 9:14 - 9:18
    그리고 가해자를 처벌하고
    피해자를 보호해 주며
  • 9:18 - 9:20
    올바른 행동을 할 수 있게
    지도해 줍니다.
  • 9:21 - 9:25
    현재의 법은 딥페이크에
    대항할 수 없습니다.
  • 9:26 - 9:28
    전 세계적으로 보았을 때,
  • 9:28 - 9:30
    성적 사생활을 침해하고
  • 9:30 - 9:34
    명예를 훼손하고
  • 9:34 - 9:36
    정신적인 고통을 유발하는
  • 9:36 - 9:37
    딥페이크를 제어할 수 있는
  • 9:37 - 9:39
    적절한 법률은 전무합니다.
  • 9:40 - 9:44
    라나 아이윱에게 일어났던 일은
    점점 흔해지고 있습니다.
  • 9:44 - 9:46
    하지만 그녀가 델리의
    법 집행기관에 갔을 때,
  • 9:46 - 9:48
    아무것도 할 수 없다는
    말을 들었습니다.
  • 9:49 - 9:52
    슬픈 것은, 미국과 영국에서도
  • 9:52 - 9:55
    똑같을 것이라는 사실입니다.
  • 9:55 - 10:00
    우리가 채워야 하는
    법의 빈 공간이 존재합니다.
  • 10:00 - 10:04
    제 동료인 마리 안네 프랑크 박사와
    저는 미국 입법자들과 함께 일하며
  • 10:04 - 10:09
    신분 도용이나 다름없는 디지털 사칭을
  • 10:09 - 10:12
    막을 수 있는 법을 고안하고 있습니다.
  • 10:12 - 10:14
    그리고 아이슬랜드, 영국, 호주에서
  • 10:14 - 10:18
    비슷한 시도가
    일어나는 것을 보았습니다.
  • 10:18 - 10:21
    하지만 이는 아주 작은
    퍼즐 조각에 불과하죠.
  • 10:23 - 10:26
    법은 만병통치약이 아닙니다.
    그렇죠?
  • 10:26 - 10:28
    그저 둔한 몽둥이일 뿐입니다.
  • 10:28 - 10:30
    우리는 이를 현명하게 다루어야 하죠.
  • 10:30 - 10:32
    또, 법은 실질적인 어려움을
    담고 있습니다.
  • 10:33 - 10:39
    찾을 수 없는 사람에 대해서
    법의 처벌을 내릴 수 없죠.
  • 10:39 - 10:45
    그리고 가해자가 피해자가 사는
    나라에 살지 않는다면,
  • 10:45 - 10:46
    가해자가 처벌을 받을 수 있게
  • 10:46 - 10:49
    법정에 데려오는 것 자체가
  • 10:49 - 10:50
    가능하지 않을 수 있습니다.
  • 10:50 - 10:54
    따라서 국제적인 대응이 필요합니다.
  • 10:56 - 10:59
    교육도 그 일부가 되어야겠지요.
  • 11:00 - 11:04
    법 집행관들은 본인이 모르는 법을
  • 11:04 - 11:05
    집행하지 않을 것이고,
  • 11:05 - 11:08
    본인이 이해하지 못한 문제를
    지지하려 하지 않을 것입니다.
  • 11:08 - 11:11
    사이버 스토킹에 대한 제 연구에서,
  • 11:11 - 11:14
    저는 법 집행기관들에는
  • 11:14 - 11:17
    온라인 문제들과
    관련 법률을 이해하도록 하는
  • 11:17 - 11:19
    훈련 과정이 없다는 것을
    알게 되었습니다.
  • 11:19 - 11:22
    그래서 그들은 피해자들에게
    이렇게 말한 것이죠.
  • 11:22 - 11:26
    "그냥 당신의 컴퓨터를 끄고 무시하세요.
    그러면 문제가 없어질 것입니다."
  • 11:26 - 11:29
    그리고 우리는 이를 라나 아이윱의
    사례에서도 보았습니다.
  • 11:29 - 11:33
    "에이, 너무 과민반응하시네요.
    남자들이 그런 거잖아요."
  • 11:33 - 11:34
    라나 아이윱은
    이 말을 들어야 했습니다.
  • 11:35 - 11:41
    따라서 우리는 훈련 과정을
    새 법률과 발맞추어야 합니다.
  • 11:42 - 11:45
    또, 교육은 미디어에서도
    이루어져야 하죠.
  • 11:46 - 11:50
    저널리스트들은 딥페이크 현상에 대한
    교육이 필요합니다.
  • 11:50 - 11:54
    그들이 딥페이크를 퍼뜨리는 것을
    막기 위해서죠.
  • 11:55 - 11:57
    그리고 우리는 이 부분에서
    모두 노력을 기울여야 합니다.
  • 11:57 - 12:01
    우리 모두는 교육이 필요합니다.
  • 12:01 - 12:05
    우리는 생각없이 클릭하고,
    공유하고, 좋아요를 누릅니다.
  • 12:06 - 12:07
    우리는 이보다 더 잘해야 합니다.
  • 12:08 - 12:11
    우리는 가짜에 대한
    더 좋은 탐지 능력이 필요합니다.
  • 12:14 - 12:18
    우리가 이 해결책을 설계하며,
  • 12:18 - 12:20
    많은 피해 사례가 일어날 것입니다.
  • 12:21 - 12:22
    라나 아이윱은 아직도
    후유증에 맞서 싸우고 있습니다.
  • 12:22 - 12:30
    그녀는 온/오프라인에서
    자신을 자유롭게 표출하지 못합니다.
  • 12:30 - 12:31
    그리고 그녀가 저에게 말해주었듯이,
  • 12:31 - 12:36
    그녀는 수천 개의 눈이 자신의 나체를
    주시하고 있는 것처럼 느낍니다.
  • 12:36 - 12:40
    비록 머리로는 그것이
    본인의 몸이 아니라는 것을 알면서도요.
  • 12:40 - 12:43
    그리고 가끔씩 그녀에게
    발작이 찾아오기도 합니다.
  • 12:43 - 12:47
    특히, 그녀가 모르는 사람이
    그녀를 사진 찍으려 할 때 말입니다.
  • 12:47 - 12:50
    "저 사람이 또 다른 딥페이크를 만들면
    어떡하지?"라고 그녀는 생각합니다.
  • 12:51 - 12:55
    그래서 라나 아이윱같은 사람들을 위해,
  • 12:55 - 12:57
    또 우리의 민주주의를 위해,
  • 12:57 - 13:00
    우리는 지금 당장
    조치를 취해야 합니다.
  • 13:00 - 13:01
    감사합니다.
  • 13:01 - 13:03
    (박수)
Title:
진실을 해치고 민주주의를 위협하는 딥페이크
Speaker:
다니엘 시트론(Danielle Citron)
Description:

딥페이크 기술을 이용하여 영상과 음성 파일을 조작하는 것은, 그것이 폭력을 유도하기 위해서든 정치인과 기자들의 명예를 훼손시키기 위해서든, 실제로 위협을 끼치고 있습니다. 이 도구들이 더욱 접근하기 쉬워지고 결과물이 점점 실제와 비슷해지고 있는 와중, 딥페이크는 우리의 세상에 대한 관점을 어떻게 바꿀까요? 이 강연에서 법학 교수 다니엘 시트론은 딥페이크가 우리의 불신을 증폭시킨다는 사실을 밝힙니다. 또, 진실을 지켜내기 위한 여러 해결책들을 제시합니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Korean subtitles

Revisions