진실을 해치고 민주주의를 위협하는 딥페이크
-
0:01 - 0:03[본 강연에 성인용 내용이
포함되어 있음] -
0:06 - 0:09라나 아이윱은 인도의 언론인으로,
-
0:09 - 0:11정부의 부정부패와
-
0:12 - 0:15인권침해를 폭로해왔습니다.
-
0:15 - 0:16그리고 그녀는 수년간,
-
0:16 - 0:18자신의 보도를 둘러싼 논쟁과
독설에 익숙해졌죠. -
0:20 - 0:25하지만 그 어떤 것도 2018년 4월
그녀가 마주한 것과 비할 수 없었습니다. -
0:26 - 0:30그녀가 친구와 카페에 있다가
-
0:30 - 0:35자신이 나오는 2분 20초짜리
성관계 영상을 본 것입니다. -
0:35 - 0:38그녀는 자신의 눈을
믿을 수가 없었습니다. -
0:38 - 0:40성관계 영상을 촬영한 적이
없었으니까요. -
0:41 - 0:44하지만 불행히도, 영상을 본
수천 명의 사람들이 -
0:44 - 0:46그녀라고 믿었겠죠.
-
0:47 - 0:50저는 약 3개월 전에
성적 사생활에 대한 제 책과 관련해 -
0:50 - 0:52아이윱 씨를 인터뷰했습니다.
-
0:53 - 0:56저는 법학 교수이며, 변호사이자
시민권 옹호자입니다. -
0:56 - 1:01지금 당장 그녀를 돕기 위해
법적으로 할 수 있는 일이 -
1:01 - 1:03많지 않다는 것이
정말 답답할 따름이에요. -
1:03 - 1:05이야기 중 그녀는
-
1:05 - 1:10가짜 성관계 영상이 떠돌 것을
진작 알아차렸어야 했다고 말했죠. -
1:10 - 1:16그리고 종종 섹스가 여성을 비하하고
망신시키기 위해 악용된다고 했죠. -
1:16 - 1:18특히 소수 여성, 그리고
-
1:18 - 1:22그 여성들이 권력 있는 남자들에게
맞서는 경우에는 더욱이 그렇다고요. -
1:22 - 1:24아이윱 씨가 그랬던 것처럼요.
-
1:25 - 1:29가짜 성관계 영상은 48시간 만에
인터넷에 퍼졌습니다. -
1:30 - 1:35그녀의 온라인 계정은 온통 영상의
스크린샷, 적나라한 강간 장면과 -
1:35 - 1:38살인 협박, 그리고
그녀의 이슬람 신앙을 -
1:38 - 1:41비방하는 말들로 도배되었습니다.
-
1:41 - 1:46온라인 게시물들은 그녀가 "헤픈"
여자라는 의미를 내포했죠. -
1:46 - 1:48그녀는 해킹을 당했습니다.
-
1:48 - 1:50그녀의 집 주소와 전화 번호까지
-
1:50 - 1:52인터넷에 퍼졌습니다.
-
1:53 - 1:57영상은 4만 회 이상 공유되었습니다.
-
1:58 - 2:02누군가가 이러한 사이버 공격의
대상이 된다면 -
2:02 - 2:04그 피해는 심각합니다.
-
2:04 - 2:08라나 아이윱의 인생은
송두리채 뒤바뀌었습니다. -
2:08 - 2:12몇 주 동안 그녀는 거의 먹지도,
말하지도 못했습니다. -
2:12 - 2:16글 쓰는 것을 멈추고
모든 소셜 미디어 계정을 폐쇄했죠. -
2:16 - 2:19저널리스트로서
정말 힘든 일이었을 거예요. -
2:19 - 2:23그녀는 부모님의 집을
벗어나는 것이 두려웠습니다. -
2:23 - 2:26만약 게시물대로 위협이 생기면요?
-
2:26 - 2:31유엔 인권 위원회는 그녀의 걱정이
과민 반응이 아니라고 결론지었습니다. -
2:31 - 2:35위원회는 그녀의 안전이 걱정된다는
공식 성명서를 발표하였습니다. -
2:37 - 2:41라나 아이윱이 본 것은
딥 페이크(deepfake)였습니다. -
2:41 - 2:44딥 페이크는
머신 러닝 기술의 일종으로, -
2:44 - 2:48사람이 등장하는
영상과 음성파일을 조작해 -
2:48 - 2:50실제로 하지 않은 말이나 행동이
-
2:50 - 2:52이루어진 것처럼 보여주는 기술입니다.
-
2:53 - 2:56딥페이크는 실제처럼 보이지만,
실상은 그렇지 않습니다. -
2:56 - 2:58완전한 가짜인 것이죠.
-
2:59 - 3:03아직 이 기술은 발달 단계이지만,
-
3:03 - 3:05많은 사람들이
사용할 수 있는 상태입니다. -
3:05 - 3:08온라인상의 많은 것들이 그러듯이,
-
3:08 - 3:11딥페이크는 포르노그래피와 관련한
-
3:11 - 3:12관심을 많이 받게 되었습니다.
-
3:12 - 3:152018년 초에,
-
3:15 - 3:17어떤 사람이 레딧(Reddit)에
-
3:17 - 3:22포르노 비디오에 얼굴을 삽입할 수
있도록 하는 도구를 올렸습니다. -
3:22 - 3:25그 후, 각자가 가장 좋아하는
여성 연예인을 합성한 -
3:25 - 3:28가짜 포르노 영상들이
인터넷을 휩쓸게 되었죠. -
3:29 - 3:32오늘날, 유튜브에 검색하면
데스크톱을 사용한 -
3:32 - 3:34딥페이크 영상을 만드는 방법이
-
3:35 - 3:38단계별로 설명되어 있는
튜토리얼이 정말 많습니다. -
3:38 - 3:42곧, 휴대폰으로 만들 수
있을지도 모릅니다. -
3:43 - 3:48인간의 약점과 네트워크 도구의
-
3:48 - 3:50상호작용이
-
3:50 - 3:53딥페이크를 무기로 만들 수
있는 것입니다. -
3:53 - 3:54설명해 드리겠습니다.
-
3:55 - 3:59인간으로서, 우리는
영상과 음성에 본능적으로 반응합니다. -
4:00 - 4:01우리는 그것이 사실이라고 받아들입니다.
-
4:01 - 4:03왜냐하면 자신의 눈과 귀가
보여주는 것은 -
4:03 - 4:06당연히 믿을 수 있기 때문이죠.
-
4:06 - 4:08그리고 이 방법이
-
4:08 - 4:12우리의 현실 감각을
약화시키는 것입니다. -
4:12 - 4:15우리는 딥페이크가 사실이라고 믿지만,
이는 사실이 아닙니다. -
4:16 - 4:20또, 우리는 음란하고
눈에 띄는 것에 끌리기 마련이죠. -
4:20 - 4:23우리는 부정적이고 새로운 정보를
-
4:23 - 4:25믿고 공유하려는 습성이 있습니다.
-
4:26 - 4:31연구자들은 온라인 조작이
실제 이야기보다 -
4:31 - 4:3210배나 빨리 퍼진다는 것을 밝혔습니다.
-
4:34 - 4:38또, 우리는 우리의 관점과 잘 들어맞는
-
4:38 - 4:40정보에 이끌리는 본능이 있습니다.
-
4:41 - 4:45심리학자들은 이 현상을
"확증 편향"이라 부릅니다. -
4:45 - 4:50소셜 미디어 플랫폼은
이 본능을 자극하게 되죠. -
4:50 - 4:54우리의 관점과 잘 들어맞는
정보를 즉각적으로, -
4:54 - 4:55널리 퍼뜨릴 수 있게 해 주니까요.
-
4:57 - 5:02딥페이크는 심각한 개인,
사회적 피해를 초래할 수 있습니다. -
5:03 - 5:10아프가니스탄에 있는 미군들이
코란을 태우는 딥페이크가 있다고 상상해 보세요. -
5:11 - 5:14그 딥페이크는 영상 속 미군들에 대한
-
5:14 - 5:15폭력을 낳을 것이라고 예상할 수 있죠.
-
5:16 - 5:19바로 그 다음 날,
-
5:19 - 5:21런던의 한 이맘(성직자)이
-
5:21 - 5:24군인들을 향한 폭력을 찬양하는
-
5:24 - 5:27딥페이크 영상이 만들어지면 어떨까요?
-
5:28 - 5:31어쩌면 아프가니스탄과
미국 뿐만이 아닌, -
5:31 - 5:34전 세계에 걸친
-
5:34 - 5:36폭력과 시민 소요가
일어날 수도 있습니다. -
5:36 - 5:37여러분들은 저에게
-
5:37 - 5:40"에이, 다니엘, 그건 너무 억지다."
라고 말하실 수도 있습니다. -
5:40 - 5:41하지만 아닙니다.
-
5:41 - 5:43우리는 왓츠앱(WhatsApp)과
여러 다른 메시지 서비스에서 -
5:44 - 5:46거짓 정보가 퍼지는 것을 확인했고,
-
5:46 - 5:49그것이 소수 민족에 대한 폭력으로
이어지는 것을 보았습니다. -
5:49 - 5:51그리고 그것은 단지
글 형태에 불과했죠. -
5:51 - 5:53그것이 영상이라면 어떨까요?
-
5:55 - 6:00딥페이크는 우리가 가지고 있는
민주주의적 제도에 대한 믿음을 -
6:00 - 6:02약화시킬 수 있는 가능성을
가지고 있습니다. -
6:03 - 6:06선거 전날이라고 생각해 보세요.
-
6:06 - 6:09주요 후보자 중 한 명이
아주 아픈 모습을 보여주는 -
6:09 - 6:10딥페이크가 있다고 가정합시다.
-
6:11 - 6:14그 딥페이크는 선거를 뒤바꿀 수 있고
-
6:14 - 6:17선거가 정당하다는 우리의 믿음을
뒤흔들 수 있습니다. -
6:19 - 6:22큰 세계적인 은행의
신규 상장 전날이라고 생각해 보세요. -
6:22 - 6:24그 은행의 CEO가 술에 취한 채로
-
6:24 - 6:27음모론 이야기들을 내뱉는
-
6:27 - 6:30딥페이크가 떠돌고 있다고
생각해 보세요. -
6:31 - 6:34그 딥페이크는 신규 상장을
완전히 망하게 할 수 있습니다. -
6:34 - 6:38혹은, 금융 시장이 안정적일 것이라는
우리의 믿음을 뒤흔들 수 있죠. -
6:39 - 6:46따라서, 딥페이크는
우리가 이미 가지고 있는 -
6:46 - 6:51정치인, 사업가, 리더들에 대한
불신을 강화시킬 수 있습니다. -
6:51 - 6:54딥페이크는 그것을 믿을 만한
관객을 찾아내어 유인하죠. -
6:55 - 6:58또, 진리의 추구 또한 위태롭습니다.
-
6:59 - 7:03기술인들은 인공지능의
발전 속도를 보았을 때, -
7:03 - 7:06곧 진짜와 가짜 영상을 구분하는 것이
-
7:06 - 7:10아주 힘들거나 불가능할 것이라고
예측하고 있습니다. -
7:11 - 7:16그렇다면 어떻게 진실이 딥페이크가 난무한
정보 속에서 빛을 발할 수 있을까요? -
7:17 - 7:20아무 노력도 들이지 않은 채
-
7:20 - 7:23우리가 원하는 것만을 믿고,
-
7:23 - 7:24사실로부터 완전히 등을 돌릴까요?
-
7:25 - 7:26어쩌면 우리는 가짜를
믿는 것 뿐만 아니라 -
7:28 - 7:31사실을 거절하게 될 수도 있습니다.
-
7:32 - 7:36우리는 이미 사람들이
딥페이크를 이유로 들며 -
7:36 - 7:40실제 증거 자료에게 의문을
제기하는 모습을 보았습니다. -
7:40 - 7:46정치인들은 자신의 발언이 담긴
음성 파일을 두고 이렇게 말합니다. -
7:46 - 7:48"이봐, 그건 가짜 뉴스라고.
-
7:48 - 7:52여러분의 눈과 귀가 보여주는 것이
전부가 아니란 말입니다." -
7:52 - 7:54그리고 로버트 체스니 교수와 저는
-
7:54 - 8:00이 위험을 "거짓말쟁이의 배당금"
이라고 부릅니다. -
8:00 - 8:01거짓말쟁이들이 딥페이크를 이유로 들며
-
8:03 - 8:06자신의 잘못에 대한
책임을 회피하는 것이죠. -
8:07 - 8:10이제 우리가 무엇을 해야 할지
확실해졌습니다. -
8:11 - 8:12기술회사들과 입법자들,
-
8:14 - 8:17집행관들과 미디어 사용자들은
-
8:17 - 8:19방지책을 내야 합니다.
-
8:20 - 8:24건강한 사회의 유연성
또한 필요합니다. -
8:26 - 8:29우리는 지금 기술 회사들의 책임에 대한
-
8:29 - 8:32토론에 참여하고 있습니다.
-
8:33 - 8:36소셜 미디어 플랫폼에게 주는
제 조언은 다음과 같습니다. -
8:36 - 8:40서비스 약관과 공동체 규칙을 바꾸어
-
8:40 - 8:42해를 주는 딥페이크를 막는 것이죠.
-
8:43 - 8:47이를 위해서는 의지력과
인간의 판단력이 필요하고, -
8:47 - 8:48비싸기도 합니다.
-
8:49 - 8:51하지만 우리는 딥 페이크의
-
8:51 - 8:55내용과 맥락을 보고
-
8:55 - 8:59사람에게 해를 주는 것인지
-
8:59 - 9:03가치있는 풍자나 예술인지
판단할 사람들이 필요합니다. -
9:04 - 9:06그렇다면, 법은 어떨까요?
-
9:07 - 9:09법은 우리의 교육자입니다.
-
9:10 - 9:14어떤 것이 해롭고
어떤 것이 잘못인지 가르쳐 주죠. -
9:14 - 9:18그리고 가해자를 처벌하고
피해자를 보호해 주며 -
9:18 - 9:20올바른 행동을 할 수 있게
지도해 줍니다. -
9:21 - 9:25현재의 법은 딥페이크에
대항할 수 없습니다. -
9:26 - 9:28전 세계적으로 보았을 때,
-
9:28 - 9:30성적 사생활을 침해하고
-
9:30 - 9:34명예를 훼손하고
-
9:34 - 9:36정신적인 고통을 유발하는
-
9:36 - 9:37딥페이크를 제어할 수 있는
-
9:37 - 9:39적절한 법률은 전무합니다.
-
9:40 - 9:44라나 아이윱에게 일어났던 일은
점점 흔해지고 있습니다. -
9:44 - 9:46하지만 그녀가 델리의
법 집행기관에 갔을 때, -
9:46 - 9:48아무것도 할 수 없다는
말을 들었습니다. -
9:49 - 9:52슬픈 것은, 미국과 영국에서도
-
9:52 - 9:55똑같을 것이라는 사실입니다.
-
9:55 - 10:00우리가 채워야 하는
법의 빈 공간이 존재합니다. -
10:00 - 10:04제 동료인 마리 안네 프랑크 박사와
저는 미국 입법자들과 함께 일하며 -
10:04 - 10:09신분 도용이나 다름없는 디지털 사칭을
-
10:09 - 10:12막을 수 있는 법을 고안하고 있습니다.
-
10:12 - 10:14그리고 아이슬랜드, 영국, 호주에서
-
10:14 - 10:18비슷한 시도가
일어나는 것을 보았습니다. -
10:18 - 10:21하지만 이는 아주 작은
퍼즐 조각에 불과하죠. -
10:23 - 10:26법은 만병통치약이 아닙니다.
그렇죠? -
10:26 - 10:28그저 둔한 몽둥이일 뿐입니다.
-
10:28 - 10:30우리는 이를 현명하게 다루어야 하죠.
-
10:30 - 10:32또, 법은 실질적인 어려움을
담고 있습니다. -
10:33 - 10:39찾을 수 없는 사람에 대해서
법의 처벌을 내릴 수 없죠. -
10:39 - 10:45그리고 가해자가 피해자가 사는
나라에 살지 않는다면, -
10:45 - 10:46가해자가 처벌을 받을 수 있게
-
10:46 - 10:49법정에 데려오는 것 자체가
-
10:49 - 10:50가능하지 않을 수 있습니다.
-
10:50 - 10:54따라서 국제적인 대응이 필요합니다.
-
10:56 - 10:59교육도 그 일부가 되어야겠지요.
-
11:00 - 11:04법 집행관들은 본인이 모르는 법을
-
11:04 - 11:05집행하지 않을 것이고,
-
11:05 - 11:08본인이 이해하지 못한 문제를
지지하려 하지 않을 것입니다. -
11:08 - 11:11사이버 스토킹에 대한 제 연구에서,
-
11:11 - 11:14저는 법 집행기관들에는
-
11:14 - 11:17온라인 문제들과
관련 법률을 이해하도록 하는 -
11:17 - 11:19훈련 과정이 없다는 것을
알게 되었습니다. -
11:19 - 11:22그래서 그들은 피해자들에게
이렇게 말한 것이죠. -
11:22 - 11:26"그냥 당신의 컴퓨터를 끄고 무시하세요.
그러면 문제가 없어질 것입니다." -
11:26 - 11:29그리고 우리는 이를 라나 아이윱의
사례에서도 보았습니다. -
11:29 - 11:33"에이, 너무 과민반응하시네요.
남자들이 그런 거잖아요." -
11:33 - 11:34라나 아이윱은
이 말을 들어야 했습니다. -
11:35 - 11:41따라서 우리는 훈련 과정을
새 법률과 발맞추어야 합니다. -
11:42 - 11:45또, 교육은 미디어에서도
이루어져야 하죠. -
11:46 - 11:50저널리스트들은 딥페이크 현상에 대한
교육이 필요합니다. -
11:50 - 11:54그들이 딥페이크를 퍼뜨리는 것을
막기 위해서죠. -
11:55 - 11:57그리고 우리는 이 부분에서
모두 노력을 기울여야 합니다. -
11:57 - 12:01우리 모두는 교육이 필요합니다.
-
12:01 - 12:05우리는 생각없이 클릭하고,
공유하고, 좋아요를 누릅니다. -
12:06 - 12:07우리는 이보다 더 잘해야 합니다.
-
12:08 - 12:11우리는 가짜에 대한
더 좋은 탐지 능력이 필요합니다. -
12:14 - 12:18우리가 이 해결책을 설계하며,
-
12:18 - 12:20많은 피해 사례가 일어날 것입니다.
-
12:21 - 12:22라나 아이윱은 아직도
후유증에 맞서 싸우고 있습니다. -
12:22 - 12:30그녀는 온/오프라인에서
자신을 자유롭게 표출하지 못합니다. -
12:30 - 12:31그리고 그녀가 저에게 말해주었듯이,
-
12:31 - 12:36그녀는 수천 개의 눈이 자신의 나체를
주시하고 있는 것처럼 느낍니다. -
12:36 - 12:40비록 머리로는 그것이
본인의 몸이 아니라는 것을 알면서도요. -
12:40 - 12:43그리고 가끔씩 그녀에게
발작이 찾아오기도 합니다. -
12:43 - 12:47특히, 그녀가 모르는 사람이
그녀를 사진 찍으려 할 때 말입니다. -
12:47 - 12:50"저 사람이 또 다른 딥페이크를 만들면
어떡하지?"라고 그녀는 생각합니다. -
12:51 - 12:55그래서 라나 아이윱같은 사람들을 위해,
-
12:55 - 12:57또 우리의 민주주의를 위해,
-
12:57 - 13:00우리는 지금 당장
조치를 취해야 합니다. -
13:00 - 13:01감사합니다.
-
13:01 - 13:03(박수)
- Title:
- 진실을 해치고 민주주의를 위협하는 딥페이크
- Speaker:
- 다니엘 시트론(Danielle Citron)
- Description:
-
딥페이크 기술을 이용하여 영상과 음성 파일을 조작하는 것은, 그것이 폭력을 유도하기 위해서든 정치인과 기자들의 명예를 훼손시키기 위해서든, 실제로 위협을 끼치고 있습니다. 이 도구들이 더욱 접근하기 쉬워지고 결과물이 점점 실제와 비슷해지고 있는 와중, 딥페이크는 우리의 세상에 대한 관점을 어떻게 바꿀까요? 이 강연에서 법학 교수 다니엘 시트론은 딥페이크가 우리의 불신을 증폭시킨다는 사실을 밝힙니다. 또, 진실을 지켜내기 위한 여러 해결책들을 제시합니다.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Jihyeon J. Kim approved Korean subtitles for How deepfakes undermine truth and threaten democracy | ||
Jihyeon J. Kim edited Korean subtitles for How deepfakes undermine truth and threaten democracy | ||
Jihyeon J. Kim accepted Korean subtitles for How deepfakes undermine truth and threaten democracy | ||
Jihyeon J. Kim edited Korean subtitles for How deepfakes undermine truth and threaten democracy | ||
Jihyeon J. Kim edited Korean subtitles for How deepfakes undermine truth and threaten democracy | ||
Jihyeon J. Kim edited Korean subtitles for How deepfakes undermine truth and threaten democracy | ||
Jihyeon J. Kim edited Korean subtitles for How deepfakes undermine truth and threaten democracy | ||
Jihyeon J. Kim edited Korean subtitles for How deepfakes undermine truth and threaten democracy |