인터넷에서 아동 성폭력 자료를 근절하기 위한 방법
-
0:01 - 0:03[본 강연에는 성인용 내용이
포함되어 있습니다] -
0:06 - 0:075년 전
-
0:07 - 0:11제 삶을 뒤흔든 연락을
한 통 받았습니다. -
0:12 - 0:14그 날을 무척 선명하게 기억합니다.
-
0:15 - 0:17당시 이맘때 쯤
-
0:17 - 0:19저는 사무실에 앉아있었습니다.
-
0:20 - 0:23햇빛이 창을 너머와
비치고 있었습니다. -
0:24 - 0:25전화벨이 울렸고
-
0:26 - 0:27저는 전화를 받았습니다.
-
0:28 - 0:32두 명의 연방 요원이 한 어린 소녀의
신원을 확인해야 한다고 -
0:32 - 0:34도움을 요청하고 있었습니다.
-
0:34 - 0:40그 소녀는 온라인에서 확보된 성폭력
이미지 수백 건의 희생양이었습니다. -
0:41 - 0:44연방 요원들은 막 조사에
착수한 상태였고 -
0:44 - 0:47그들이 확인한 내용은
-
0:47 - 0:51아이가 학대당하는 장면이 몇 년이나
전 세계로 중계되었다는 사실이었습니다. -
0:51 - 0:57아동 성폭력 자료를 전문적으로
다루는 다크웹을 통해서 말이죠 -
0:58 - 1:02소녀를 학대한 범인은 믿기지 않을
정도로 정교한 기술을 사용했습니다. -
1:02 - 1:07새로운 사진과 동영상을
몇 주마다 한 번씩 올렸지만 -
1:07 - 1:10단서는 거의 남기지 않았습니다.
그 아이의 신원도 -
1:10 - 1:12어디 있는지도 찾을 수 없었습니다.
-
1:13 - 1:15그래서 우리에게 도움을 요청했습니다.
-
1:15 - 1:18우리가 새로운 비영리 회사로
아동 성폭력에 맞서 싸우기 위한 -
1:18 - 1:21기술을 개발한다고 들었기 때문입니다.
-
1:22 - 1:24하지만 저희는 고작 2년밖에
되지 않은 상태였고 -
1:24 - 1:27당시 아동·청소년 성매매 범죄를
대상으로 일한 경험밖에 없었습니다. -
1:28 - 1:30그래서 저는 그 분들에게
-
1:30 - 1:31할 수 있는 게 없다고 말해야 했죠.
-
1:32 - 1:36이러한 학대를 막기 위해 저희가
도울 수 있는 일이 없었습니다. -
1:37 - 1:41연방 요원이 마침내
그 아이를 찾아내기까지 -
1:41 - 1:44한 해가 더 걸렸습니다.
-
1:45 - 1:47아이가 구출되었을 당시
-
1:47 - 1:54그녀가 강간당하는 장면을 기록한
수백 건의 사진과 영상이 퍼진 상태였습니다. -
1:54 - 1:55다크웹에서 시작해
-
1:55 - 1:58P2P 네트워크와 사설 채팅방
-
1:58 - 2:02그리고 여러분과 제가
아주 일상적으로 사용하는 -
2:02 - 2:04웹사이트들로 말이죠.
-
2:05 - 2:09그리고 오늘날, 그 소녀는
회복을 위해 몸부림치며 -
2:09 - 2:13전 세계 수천 명이 지켜보리라는
사실과 함께 살아가야 합니다. -
2:13 - 2:16그녀가 학대당하는 모습을요.
-
2:18 - 2:20저는 지난 5년간
-
2:20 - 2:23이러한 사건이 드물지
않다는 것을 알게 되었습니다. -
2:24 - 2:28어쩌다 사회가 이 모양이 되었을까요?
-
2:29 - 2:331980년 후반 아동 음란물은
-
2:33 - 2:39더 정확히, 아동 성폭력 자료는
-
2:39 - 2:40거의 근절되었습니다.
-
2:41 - 2:45새 법안이 발의되고
기소가 증가하며 단순히 -
2:45 - 2:47편지로 거래하는 행위가
너무 위험해졌기 때문입니다. -
2:48 - 2:52그러나 인터넷 시대가 열리며
시장이 폭발했습니다. -
2:53 - 2:57오늘날 돌고 도는 아동 성폭력 자료는
-
2:57 - 3:00양이 엄청날 뿐 아니라
증가하고 있습니다. -
3:00 - 3:04이는 정말로 국제적 문제입니다만
-
3:04 - 3:06미국만 예로 들어 보겠습니다.
-
3:06 - 3:082018년 미국에서만
-
3:08 - 3:144천 5백만 건이 넘는
아동 성폭력 사진·영상 자료가 -
3:14 - 3:17미 국립 실종 학대 아동방지센터
(NCMEC)로 신고되었고 -
3:17 - 3:22이는 거의 그 전년도의 두 배에
해당하는 양입니다. -
3:23 - 3:28이 수치 이면에 있는 세부사항은
생각하기조차 고통스럽습니다. -
3:28 - 3:34이미지의 60% 이상이 12살 미만의
어린이를 대상으로 하고 있으며 -
3:34 - 3:38그 대부분이 극심한
성폭력을 담고 있습니다. -
3:39 - 3:44학대범들은 아동 성폭력 자료 교환을
위해 개설된 채팅방에서 환호하며 -
3:44 - 3:47더 많은 희생양을 학대할수록
-
3:47 - 3:50그 채팅방 안에서 계급과
명성을 얻습니다. -
3:50 - 3:53이 시장에서
-
3:53 - 3:57교환에 사용하는 화폐는
성폭력 자료 자체입니다. -
3:58 - 4:02학대범들은 새로운 기술에
빠르게 적응했지만 -
4:02 - 4:05사회의 대응책은 그렇게
적응하지 못했습니다. -
4:06 - 4:10이 학대범들은 웹사이트의
이용약관을 읽지 않으며 -
4:10 - 4:14그들이 공유하는 자료는
지리적 경계에 묶이지 않습니다. -
4:15 - 4:21우리가 단서를 한 조각씩
보는 동안 그들은 승리합니다. -
4:21 - 4:25오늘날 사회의 대응책이 이렇게
설계되어있기 때문입니다. -
4:25 - 4:28법 집행은 특정 관할권에서만
효력을 발휘합니다. -
4:28 - 4:32회사는 자신의 플랫폼만 관리합니다.
-
4:32 - 4:34그리고 그 과정에서 그들이
얻는 정보가 무엇이든 -
4:35 - 4:37좀처럼 공유하지 않습니다.
-
4:37 - 4:43이렇게 서로 분절된 접근으로는
문제를 결코 해결할 수 없습니다. -
4:44 - 4:48대응책을 새롭게 설계해야만
이 디지털 시대의 전염병에 -
4:48 - 4:49맞설 수 있습니다.
-
4:50 - 4:53그것이 쏜(Thorn)에서
하는 일입니다. -
4:53 - 4:57우리는 연결점을 서로
이어주는 기술을 개발해 -
4:57 - 4:59최전선의 모든 기관
-
4:59 - 5:02집행기관과 비정부기구(NGO)
그리고 기업을 -
5:02 - 5:06아동 성폭력 자료를
인터넷에서 근절하는데 -
5:06 - 5:08필요한 도구로 무장시키고자 합니다.
-
5:10 - 5:11이 기술에 대해
잠시 이야기하겠습니다. -
5:11 - 5:12(박수)
-
5:12 - 5:14감사합니다.
-
5:14 - 5:16(박수)
-
5:18 - 5:20먼저 연결점들이 무엇인지
말씀드리겠습니다. -
5:21 - 5:25상상이 가시겠지만 여기서
다루는 자료들은 끔찍합니다. -
5:25 - 5:28꼭 봐야 할 필요가 없다면
보고싶지 않을 자료들입니다. -
5:28 - 5:33따라서 이런 자료를 확보한
-
5:33 - 5:35회사나 사법 당국 대부분이
-
5:35 - 5:39그 파일을 모두 고유한
수열로 변환 할 수 있습니다. -
5:39 - 5:40이 수열을 ‘해시(hash)’라고 합니다.
-
5:40 - 5:42해시는 기본적으로 각 파일과 동영상의
-
5:42 - 5:45지문과 같은 역할을 합니다.
-
5:45 - 5:49해시를 사용하여 수사 과정에서
파일의 정보를 사용하거나 -
5:49 - 5:52회사가 자기 플랫폼에서
자료를 제거할 수 있습니다. -
5:52 - 5:58그 과정에서 사진과 영상을
매번 다시 보지 않아도 됩니다. -
5:58 - 6:00하지만 문제는
-
6:00 - 6:04수백, 수천만 개나 되는 해시가
-
6:04 - 6:08전 세계에 있는 데이터베이스에
각각 나뉘어 있다는 겁니다. -
6:08 - 6:09고립된 해시가
-
6:09 - 6:12이를 통제하는 단체에는
도움이 될지 몰라도 -
6:12 - 6:17정보를 통합하지 못하면 얼마나 많은
개별 해시가 있는지 알 수 없습니다. -
6:17 - 6:20즉 해시가 이미 구조된 아동에게
관계되어 있는지, 아니면 여전히 -
6:20 - 6:23구조가 필요한 아동에게 관계되어
있는지를 알 수 없다는 뜻입니다. -
6:23 - 6:27따라서 첫 번째 가장 기본적인
전제는 이 모든 정보가 -
6:27 - 6:30반드시 연결되어야 한다는 점입니다.
-
6:30 - 6:36두 가지 방법으로 이 데이터를
국제적 규모의 소프트웨어와 결합해 -
6:37 - 6:40피해 아동을 돕는 데 혁신적인
영향을 미칠 수 있습니다. -
6:40 - 6:43하나는 집행기관에 연계하여
-
6:43 - 6:47새로운 희생자를 더 빠르게 식별하고
-
6:47 - 6:48학대를 멈춰
-
6:48 - 6:51아동 성폭력 자료 생산을
제재하는 것입니다. -
6:51 - 6:54두 번째는 기업과 연계하여
-
6:54 - 6:58오늘날 돌고 도는 수백
수천만 개의 파일을 -
6:58 - 6:59식별하는 단서로 사용해
-
6:59 - 7:01자료를 끌어내리고
-
7:01 - 7:07애초에 퍼져나가지 못하도록 새로운
자료의 업로드를 막는 것입니다. -
7:10 - 7:114년 전
-
7:11 - 7:13그 사건이 종료되고
-
7:14 - 7:18저희 팀은 그곳에 앉아
어떤 감정을 느꼈습니다. -
7:20 - 7:23깊은 좌절감 정도가 적당하겠네요.
-
7:23 - 7:27그해 내내 연방 요원들이
그 아이를 찾는 과정을 -
7:27 - 7:28지켜보았기 때문입니다.
-
7:28 - 7:32저희 팀이 수사 과정에서
주목한 모든 지점이 -
7:32 - 7:34만약 기술만 있었더라면
-
7:34 - 7:37그 아이를 더 빨리 찾을 수도
있었다고 말하고 있었습니다. -
7:38 - 7:40그래서 거기서 물러나
-
7:40 - 7:43우리가 할 줄 아는 유일한
일을 하기로 했습니다. -
7:43 - 7:45소프트웨어를 짜기 시작했습니다.
-
7:46 - 7:48먼저 집행 기관과 함께 시작했습니다.
-
7:48 - 7:52우리의 목표는 전 세계 경찰관의
책상 위에 놓인 자명종이 되어 -
7:52 - 7:57누구라도 감히 새로운
희생자를 인터넷에 올리면 -
7:57 - 8:00즉시 그들을 추적하는 것이었습니다.
-
8:01 - 8:04물론 이 소프트웨어의 자세한
사항을 말씀드릴 수는 없지만 -
8:04 - 8:07이제 38개 나라에서
이 소프트웨어를 사용하고 -
8:07 - 8:10아이들을 찾아내는 데 걸리는 시간을
-
8:10 - 8:1265% 이상 단축했습니다.
-
8:12 - 8:17(박수)
-
8:21 - 8:24이제 두 번째 목표에
착수하고 있습니다. -
8:24 - 8:30회사에서 자료를 식별하고 제거하는 데
도움을 주는 소프트웨어를 만들고 있습니다. -
8:31 - 8:34이 회사들에 관해 이야기 해 봅시다.
-
8:34 - 8:40앞서 말했듯 2018년 미국에서만
4천5백만 건의 사진과 동영상이 보고되었습니다. -
8:40 - 8:44이는 겨우 12개의
회사에서 나왔습니다. -
8:46 - 8:5212개의 회사에서 아동 성폭력
자료가 4천5백만건 나온 겁니다. -
8:52 - 8:55이 자료를 보고한 회사들은
-
8:55 - 9:00아동 성폭력 자료를 끌어내리기 위한
인프라를 구축할 자금이 있습니다. -
9:00 - 9:02하지만 수백 개의 다른 회사들
-
9:02 - 9:05전 세계의 규모가 작거나
중간 정도인 회사는 -
9:05 - 9:07아동 음란물을 근절시켜야 하지만
-
9:07 - 9:121) 그들의 플랫폼이 학대를 위해
사용되리라 생각하지 못하거나 -
9:12 - 9:182) 수익을 창출하지 못하는
사업에 투자할 자금이 없습니다. -
9:19 - 9:22그래서 우리가 나서서 만들었습니다.
-
9:22 - 9:27이제 이 시스템은 더 많은
회사가 참여할수록 똑똑해집니다. -
9:28 - 9:30예를 들어보겠습니다.
-
9:30 - 9:34우리의 첫 번째 파트너 이미져(Imgur),
생소하신 분을 위해 덧붙이자면 -
9:34 - 9:38이 회사는 미국에서 가장 많이
방문하는 웹사이트 중 하나로 -
9:38 - 9:43매일 사용자 제작 이미지
수 백만 개가 등록되며 -
9:43 - 9:45인터넷을 더 재미있는 공간으로
만들자는 목표를 가지고 있습니다. -
9:46 - 9:48우리는 이미져와 처음으로
파트너 관계를 맺었습니다. -
9:48 - 9:51시스템을 시작한 지 20분 만에
-
9:51 - 9:55누군가 저희 쪽에 해시가 있는
성폭행 자료를 올리려고 시도했습니다. -
9:55 - 9:57이미져 측에서 멈출 수
있었고 자료를 내렸으며 -
9:57 - 10:00미 국립 실종 학대 아동방지센터에
신고했습니다. -
10:00 - 10:02하지만 한발 더 나아갔습니다.
-
10:02 - 10:07이미져측에서 그 자료를 올린
사람의 계정을 조사했습니다. -
10:07 - 10:12수백 건의 아동 성폭력
자료가 더 있었는데 -
10:12 - 10:14한 번도 보지 못한 것들 이었습니다.
-
10:14 - 10:18여기에서 우리는 기하급수적인
효과를 보기 시작했습니다. -
10:18 - 10:19그 자료를 플랫폼에서 내리고
-
10:20 - 10:23미 국립 실종 학대 아동방지센터에
신고한 뒤 -
10:23 - 10:26그 해시들을 시스템에 기록하여
-
10:26 - 10:28다른 모든 회사에서도
사용할 수 있게 했습니다. -
10:28 - 10:33우리가 확보한 수 백만의 해시가 다른
수 백만의 해시에 실시간으로 연결되고 -
10:33 - 10:37전 세계의 회사가 그 자료를
식별한 뒤 플랫폼에서 내려 -
10:37 - 10:42전 세계의 인터넷에서
극적으로 속도를 높여 -
10:42 - 10:46아동 성폭력 자료를 제거할 것입니다.
-
10:46 - 10:52(박수)
-
10:54 - 10:57하지만 이것이 소프트웨어와
데이터에만 머무를 수 없는 이유입니다. -
10:57 - 10:59규모를 넓혀야 합니다.
-
10:59 - 11:03수천 명의 경찰에게 알리고
-
11:03 - 11:05전 세계 수백 개의 회사에
도입해야 합니다. -
11:05 - 11:09기술을 활용해 가해자들을 잡고
-
11:09 - 11:13오늘날 전 세계에서 아동 성폭력을
일반적인 현상으로 만드는 -
11:13 - 11:15커뮤니티를 해체할 수 있을 것입니다.
-
11:15 - 11:18지금 당장 시작해야 합니다.
-
11:18 - 11:24더 이상 이러한 일들이 우리 아이들에게
미치는 영향을 모른다고 할 수 없습니다. -
11:25 - 11:29성폭행당한 자료가 퍼진
아이들 중 첫 번째 세대는 -
11:29 - 11:31이제 청년기에 들어섰습니다.
-
11:31 - 11:34캐나다 아동보호 센터는
-
11:34 - 11:37최근 이 청소년들을 조사하여
-
11:37 - 11:41그들이 극복하고자 노력하는
트라우마를 이해하고자 했습니다. -
11:41 - 11:44그들은 자신이 받은 학대와
함께 살아가고 있었습니다. -
11:45 - 11:50그들 중 80%가 자살에 대해
생각한 적이 있었고. -
11:51 - 11:5560% 이상이 자살을 시도했습니다.
-
11:56 - 12:01대부분 매일 공포를
느끼며 살아갑니다. -
12:01 - 12:05길을 걷거나 면접을 보다가
-
12:05 - 12:08혹은 학교에 가거나
-
12:08 - 12:10온라인으로 사람을 만날 때
-
12:10 - 12:14자기가 성폭행 당하는 모습을
봤을지도 모른다는 공포를 느낍니다. -
12:15 - 12:19그리고 30% 이상에게
그 공포는 현실이 되었습니다. -
12:20 - 12:25누군가 온라인상의 파일을 통해
그들을 알아본 것입니다. -
12:26 - 12:29아동 성폭력 자료 근절은
쉽지 않겠지만 -
12:29 - 12:32불가능하지 않습니다.
-
12:32 - 12:35이제 이 과업은 의지에 달려있습니다.
-
12:35 - 12:36우리 사회의 의지
-
12:37 - 12:40정말로 직시하기
힘든 것을 보고자 하고 -
12:40 - 12:42어둠으로부터 무언가를 끌고 나와
-
12:42 - 12:45이 아이들이 목소리를
낼 수 있게 하는 의지 -
12:46 - 12:51조치를 취하여 그들의 플랫폼이
아동 성폭력 자료로부터 -
12:51 - 12:54깨끗하게 유지되도록
노력하는 기업의 의지. -
12:55 - 12:59집행 기관이 디지털 범죄를
수사하는 데 필요한 -
12:59 - 13:04기술을 제공하는 정부의 의지.
-
13:04 - 13:08심지어 피해자들이 자신을 위해 목소리
조차 낼 수 없는 디지털 범죄일지라도. -
13:10 - 13:13TED의 대담한 헌신이
그 의지의 일부입니다. -
13:14 - 13:20이는 인류의 가장 어두운
악에게 선포하는 전쟁입니다. -
13:20 - 13:22하지만 제가 가장 의지하는 것은
-
13:22 - 13:26이게 미래를 위한
투자라는 사실입니다. -
13:26 - 13:29모든 아이가 그저 아이로 남을 수 있는
미래가 오기를 바랍니다. -
13:29 - 13:31감사합니다.
-
13:31 - 13:37(박수)
- Title:
- 인터넷에서 아동 성폭력 자료를 근절하기 위한 방법
- Speaker:
- 줄리 코르두아(Julie Cordua)
- Description:
-
사회적 기업가 줄리 코르두아(Julie Cordua)는 차마 입 밖으로 꺼내기 힘든 문제를 해결하기 위해 힘쓴다. 인터넷에 퍼져있는 아동 성폭력 사진과 영상이다. 코르두아는 쏜(Thorn)에서 첨단 산업과 집행기관 그리고 정부를 연결하기 위한 기술을 개발해 성폭력 자료가 퍼지지 않도록 신속하게 막고 학대 당하는 아이들을 구조하고자 한다. 어떻게 이 기술이 규모를 확장하여 오늘날 전 세계의 각종 커뮤니티에서 아동 성폭력 자료가 퍼져나가는 현상을 막아낼 수 있는지 알아보자. (이 야심찬 계획은 세계적 변화를 고무하고 재정적으로 지원하는 TED ‘The Audacious Project’의 일환이다.)
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:50
Jihyeon J. Kim approved Korean subtitles for How we can eliminate child sexual abuse material from the internet | ||
Jihyeon J. Kim accepted Korean subtitles for How we can eliminate child sexual abuse material from the internet | ||
Jihyeon J. Kim edited Korean subtitles for How we can eliminate child sexual abuse material from the internet | ||
Jihyeon J. Kim edited Korean subtitles for How we can eliminate child sexual abuse material from the internet | ||
Jihyeon J. Kim edited Korean subtitles for How we can eliminate child sexual abuse material from the internet | ||
Jihyeon J. Kim edited Korean subtitles for How we can eliminate child sexual abuse material from the internet | ||
Jihyeon J. Kim rejected Korean subtitles for How we can eliminate child sexual abuse material from the internet | ||
Jihye Hwang accepted Korean subtitles for How we can eliminate child sexual abuse material from the internet |