1 00:00:00,836 --> 00:00:03,384 [본 강연에는 성인용 내용이 포함되어 있습니다] 2 00:00:05,741 --> 00:00:07,361 5년 전 3 00:00:07,385 --> 00:00:10,639 제 삶을 뒤흔든 연락을 한 통 받았습니다. 4 00:00:11,795 --> 00:00:14,461 그 날을 무척 선명하게 기억합니다. 5 00:00:15,245 --> 00:00:17,146 당시 이맘때 쯤 6 00:00:17,170 --> 00:00:19,128 저는 사무실에 앉아있었습니다. 7 00:00:19,692 --> 00:00:22,758 햇빛이 창을 너머와 비치고 있었습니다. 8 00:00:23,592 --> 00:00:24,912 전화벨이 울렸고 9 00:00:25,565 --> 00:00:26,752 저는 전화를 받았습니다. 10 00:00:27,594 --> 00:00:31,572 두 명의 연방 요원이 한 어린 소녀의 신원을 확인해야 한다고 11 00:00:31,596 --> 00:00:34,302 도움을 요청하고 있었습니다. 12 00:00:34,326 --> 00:00:39,693 그 소녀는 온라인에서 확보된 성폭력 이미지 수백 건의 희생양이었습니다. 13 00:00:41,145 --> 00:00:43,721 연방 요원들은 막 조사에 착수한 상태였고 14 00:00:43,745 --> 00:00:46,615 그들이 확인한 내용은 15 00:00:46,639 --> 00:00:51,462 아이가 학대당하는 장면이 몇 년이나 전 세계로 중계되었다는 사실이었습니다. 16 00:00:51,486 --> 00:00:56,635 아동 성폭력 자료를 전문적으로 다루는 다크웹을 통해서 말이죠 17 00:00:57,605 --> 00:01:01,990 소녀를 학대한 범인은 믿기지 않을 정도로 정교한 기술을 사용했습니다. 18 00:01:02,014 --> 00:01:06,602 새로운 사진과 동영상을 몇 주마다 한 번씩 올렸지만 19 00:01:06,626 --> 00:01:10,345 단서는 거의 남기지 않았습니다. 그 아이의 신원도 20 00:01:10,345 --> 00:01:12,375 어디 있는지도 찾을 수 없었습니다. 21 00:01:13,324 --> 00:01:14,710 그래서 우리에게 도움을 요청했습니다. 22 00:01:14,734 --> 00:01:17,824 우리가 새로운 비영리 회사로 아동 성폭력에 맞서 싸우기 위한 23 00:01:17,824 --> 00:01:20,906 기술을 개발한다고 들었기 때문입니다. 24 00:01:21,596 --> 00:01:23,883 하지만 저희는 고작 2년밖에 되지 않은 상태였고 25 00:01:23,907 --> 00:01:27,039 당시 아동·청소년 성매매 범죄를 대상으로 일한 경험밖에 없었습니다. 26 00:01:27,944 --> 00:01:30,067 그래서 저는 그 분들에게 27 00:01:30,091 --> 00:01:31,288 할 수 있는 게 없다고 말해야 했죠. 28 00:01:32,280 --> 00:01:36,235 이러한 학대를 막기 위해 저희가 도울 수 있는 일이 없었습니다. 29 00:01:37,263 --> 00:01:40,837 연방 요원이 마침내 그 아이를 찾아내기까지 30 00:01:40,861 --> 00:01:43,862 한 해가 더 걸렸습니다. 31 00:01:44,853 --> 00:01:47,128 아이가 구출되었을 당시 32 00:01:47,152 --> 00:01:53,640 그녀가 강간당하는 장면을 기록한 수백 건의 사진과 영상이 퍼진 상태였습니다. 33 00:01:53,664 --> 00:01:55,355 다크웹에서 시작해 34 00:01:55,379 --> 00:01:58,396 P2P 네트워크와 사설 채팅방 35 00:01:58,420 --> 00:02:01,640 그리고 여러분과 제가 아주 일상적으로 사용하는 36 00:02:01,664 --> 00:02:04,266 웹사이트들로 말이죠. 37 00:02:05,216 --> 00:02:09,031 그리고 오늘날, 그 소녀는 회복을 위해 몸부림치며 38 00:02:09,055 --> 00:02:13,194 전 세계 수천 명이 지켜보리라는 사실과 함께 살아가야 합니다. 39 00:02:13,218 --> 00:02:16,306 그녀가 학대당하는 모습을요. 40 00:02:17,994 --> 00:02:20,422 저는 지난 5년간 41 00:02:20,446 --> 00:02:22,963 이러한 사건이 드물지 않다는 것을 알게 되었습니다. 42 00:02:24,119 --> 00:02:27,962 어쩌다 사회가 이 모양이 되었을까요? 43 00:02:29,490 --> 00:02:33,249 1980년 후반 아동 음란물은 44 00:02:33,273 --> 00:02:38,526 더 정확히, 아동 성폭력 자료는 45 00:02:38,550 --> 00:02:40,401 거의 근절되었습니다. 46 00:02:41,209 --> 00:02:44,537 새 법안이 발의되고 기소가 증가하며 단순히 47 00:02:44,537 --> 00:02:47,309 편지로 거래하는 행위가 너무 위험해졌기 때문입니다. 48 00:02:48,233 --> 00:02:52,378 그러나 인터넷 시대가 열리며 시장이 폭발했습니다. 49 00:02:53,310 --> 00:02:56,666 오늘날 돌고 도는 아동 성폭력 자료는 50 00:02:56,690 --> 00:02:59,534 양이 엄청날 뿐 아니라 증가하고 있습니다. 51 00:03:00,421 --> 00:03:03,665 이는 정말로 국제적 문제입니다만 52 00:03:03,689 --> 00:03:05,522 미국만 예로 들어 보겠습니다. 53 00:03:05,546 --> 00:03:08,257 2018년 미국에서만 54 00:03:08,281 --> 00:03:13,555 4천 5백만 건이 넘는 아동 성폭력 사진·영상 자료가 55 00:03:13,579 --> 00:03:17,257 미 국립 실종 학대 아동방지센터 (NCMEC)로 신고되었고 56 00:03:17,281 --> 00:03:21,662 이는 거의 그 전년도의 두 배에 해당하는 양입니다. 57 00:03:22,627 --> 00:03:27,913 이 수치 이면에 있는 세부사항은 생각하기조차 고통스럽습니다. 58 00:03:27,937 --> 00:03:33,657 이미지의 60% 이상이 12살 미만의 어린이를 대상으로 하고 있으며 59 00:03:33,681 --> 00:03:38,183 그 대부분이 극심한 성폭력을 담고 있습니다. 60 00:03:38,850 --> 00:03:44,150 학대범들은 아동 성폭력 자료 교환을 위해 개설된 채팅방에서 환호하며 61 00:03:44,174 --> 00:03:46,657 더 많은 희생양을 학대할수록 62 00:03:46,681 --> 00:03:49,587 그 채팅방 안에서 계급과 명성을 얻습니다. 63 00:03:50,243 --> 00:03:52,838 이 시장에서 64 00:03:52,862 --> 00:03:56,820 교환에 사용하는 화폐는 성폭력 자료 자체입니다. 65 00:03:58,023 --> 00:04:01,829 학대범들은 새로운 기술에 빠르게 적응했지만 66 00:04:01,853 --> 00:04:04,868 사회의 대응책은 그렇게 적응하지 못했습니다. 67 00:04:05,671 --> 00:04:09,842 이 학대범들은 웹사이트의 이용약관을 읽지 않으며 68 00:04:09,866 --> 00:04:13,668 그들이 공유하는 자료는 지리적 경계에 묶이지 않습니다. 69 00:04:14,656 --> 00:04:20,769 우리가 단서를 한 조각씩 보는 동안 그들은 승리합니다. 70 00:04:20,793 --> 00:04:24,810 오늘날 사회의 대응책이 이렇게 설계되어있기 때문입니다. 71 00:04:24,834 --> 00:04:28,321 법 집행은 특정 관할권에서만 효력을 발휘합니다. 72 00:04:28,345 --> 00:04:31,759 회사는 자신의 플랫폼만 관리합니다. 73 00:04:31,783 --> 00:04:34,487 그리고 그 과정에서 그들이 얻는 정보가 무엇이든 74 00:04:34,511 --> 00:04:36,513 좀처럼 공유하지 않습니다. 75 00:04:37,402 --> 00:04:43,003 이렇게 서로 분절된 접근으로는 문제를 결코 해결할 수 없습니다. 76 00:04:43,643 --> 00:04:47,627 대응책을 새롭게 설계해야만 이 디지털 시대의 전염병에 77 00:04:47,627 --> 00:04:49,299 맞설 수 있습니다. 78 00:04:49,702 --> 00:04:52,644 그것이 쏜(Thorn)에서 하는 일입니다. 79 00:04:53,311 --> 00:04:56,928 우리는 연결점을 서로 이어주는 기술을 개발해 80 00:04:56,952 --> 00:04:59,274 최전선의 모든 기관 81 00:04:59,298 --> 00:05:02,122 집행기관과 비정부기구(NGO) 그리고 기업을 82 00:05:02,146 --> 00:05:05,655 아동 성폭력 자료를 인터넷에서 근절하는데 83 00:05:05,679 --> 00:05:08,172 필요한 도구로 무장시키고자 합니다. 84 00:05:09,571 --> 00:05:10,842 이 기술에 대해 잠시 이야기하겠습니다. 85 00:05:10,866 --> 00:05:12,385 (박수) 86 00:05:12,409 --> 00:05:13,713 감사합니다. 87 00:05:13,737 --> 00:05:16,077 (박수) 88 00:05:17,800 --> 00:05:20,317 먼저 연결점들이 무엇인지 말씀드리겠습니다. 89 00:05:21,323 --> 00:05:24,534 상상이 가시겠지만 여기서 다루는 자료들은 끔찍합니다. 90 00:05:24,558 --> 00:05:28,406 꼭 봐야 할 필요가 없다면 보고싶지 않을 자료들입니다. 91 00:05:28,430 --> 00:05:33,399 따라서 이런 자료를 확보한 92 00:05:33,423 --> 00:05:35,086 회사나 사법 당국 대부분이 93 00:05:35,110 --> 00:05:38,562 그 파일을 모두 고유한 수열로 변환 할 수 있습니다. 94 00:05:38,586 --> 00:05:40,060 이 수열을 ‘해시(hash)’라고 합니다. 95 00:05:40,084 --> 00:05:42,227 해시는 기본적으로 각 파일과 동영상의 96 00:05:42,251 --> 00:05:44,649 지문과 같은 역할을 합니다. 97 00:05:44,673 --> 00:05:49,286 해시를 사용하여 수사 과정에서 파일의 정보를 사용하거나 98 00:05:49,310 --> 00:05:52,337 회사가 자기 플랫폼에서 자료를 제거할 수 있습니다. 99 00:05:52,361 --> 00:05:57,535 그 과정에서 사진과 영상을 매번 다시 보지 않아도 됩니다. 100 00:05:58,196 --> 00:06:00,347 하지만 문제는 101 00:06:00,371 --> 00:06:04,122 수백, 수천만 개나 되는 해시가 102 00:06:04,146 --> 00:06:07,756 전 세계에 있는 데이터베이스에 각각 나뉘어 있다는 겁니다. 103 00:06:08,214 --> 00:06:09,365 고립된 해시가 104 00:06:09,389 --> 00:06:12,465 이를 통제하는 단체에는 도움이 될지 몰라도 105 00:06:12,489 --> 00:06:16,619 정보를 통합하지 못하면 얼마나 많은 개별 해시가 있는지 알 수 없습니다. 106 00:06:16,643 --> 00:06:20,159 즉 해시가 이미 구조된 아동에게 관계되어 있는지, 아니면 여전히 107 00:06:20,183 --> 00:06:23,072 구조가 필요한 아동에게 관계되어 있는지를 알 수 없다는 뜻입니다. 108 00:06:23,096 --> 00:06:27,266 따라서 첫 번째 가장 기본적인 전제는 이 모든 정보가 109 00:06:27,290 --> 00:06:29,693 반드시 연결되어야 한다는 점입니다. 110 00:06:30,318 --> 00:06:36,487 두 가지 방법으로 이 데이터를 국제적 규모의 소프트웨어와 결합해 111 00:06:36,511 --> 00:06:39,919 피해 아동을 돕는 데 혁신적인 영향을 미칠 수 있습니다. 112 00:06:40,464 --> 00:06:43,086 하나는 집행기관에 연계하여 113 00:06:43,110 --> 00:06:46,741 새로운 희생자를 더 빠르게 식별하고 114 00:06:46,765 --> 00:06:47,981 학대를 멈춰 115 00:06:48,005 --> 00:06:50,909 아동 성폭력 자료 생산을 제재하는 것입니다. 116 00:06:51,441 --> 00:06:54,107 두 번째는 기업과 연계하여 117 00:06:54,131 --> 00:06:57,752 오늘날 돌고 도는 수백 수천만 개의 파일을 118 00:06:57,776 --> 00:06:59,370 식별하는 단서로 사용해 119 00:06:59,394 --> 00:07:00,581 자료를 끌어내리고 120 00:07:00,605 --> 00:07:07,423 애초에 퍼져나가지 못하도록 새로운 자료의 업로드를 막는 것입니다. 121 00:07:09,694 --> 00:07:11,340 4년 전 122 00:07:11,364 --> 00:07:12,903 그 사건이 종료되고 123 00:07:14,300 --> 00:07:18,039 저희 팀은 그곳에 앉아 어떤 감정을 느꼈습니다. 124 00:07:19,635 --> 00:07:22,973 깊은 좌절감 정도가 적당하겠네요. 125 00:07:22,997 --> 00:07:26,648 그해 내내 연방 요원들이 그 아이를 찾는 과정을 126 00:07:26,672 --> 00:07:27,992 지켜보았기 때문입니다. 127 00:07:28,016 --> 00:07:31,983 저희 팀이 수사 과정에서 주목한 모든 지점이 128 00:07:32,007 --> 00:07:34,395 만약 기술만 있었더라면 129 00:07:34,419 --> 00:07:36,723 그 아이를 더 빨리 찾을 수도 있었다고 말하고 있었습니다. 130 00:07:37,684 --> 00:07:39,620 그래서 거기서 물러나 131 00:07:39,644 --> 00:07:42,599 우리가 할 줄 아는 유일한 일을 하기로 했습니다. 132 00:07:42,623 --> 00:07:45,257 소프트웨어를 짜기 시작했습니다. 133 00:07:45,689 --> 00:07:47,941 먼저 집행 기관과 함께 시작했습니다. 134 00:07:47,965 --> 00:07:52,386 우리의 목표는 전 세계 경찰관의 책상 위에 놓인 자명종이 되어 135 00:07:52,410 --> 00:07:56,954 누구라도 감히 새로운 희생자를 인터넷에 올리면 136 00:07:56,978 --> 00:08:00,467 즉시 그들을 추적하는 것이었습니다. 137 00:08:01,324 --> 00:08:04,281 물론 이 소프트웨어의 자세한 사항을 말씀드릴 수는 없지만 138 00:08:04,305 --> 00:08:06,914 이제 38개 나라에서 이 소프트웨어를 사용하고 139 00:08:06,938 --> 00:08:09,912 아이들을 찾아내는 데 걸리는 시간을 140 00:08:09,936 --> 00:08:12,266 65% 이상 단축했습니다. 141 00:08:12,290 --> 00:08:16,660 (박수) 142 00:08:21,442 --> 00:08:24,457 이제 두 번째 목표에 착수하고 있습니다. 143 00:08:24,481 --> 00:08:30,146 회사에서 자료를 식별하고 제거하는 데 도움을 주는 소프트웨어를 만들고 있습니다. 144 00:08:31,193 --> 00:08:33,725 이 회사들에 관해 이야기 해 봅시다. 145 00:08:34,270 --> 00:08:39,502 앞서 말했듯 2018년 미국에서만 4천5백만 건의 사진과 동영상이 보고되었습니다. 146 00:08:40,280 --> 00:08:44,167 이는 겨우 12개의 회사에서 나왔습니다. 147 00:08:45,883 --> 00:08:52,311 12개의 회사에서 아동 성폭력 자료가 4천5백만건 나온 겁니다. 148 00:08:52,335 --> 00:08:55,135 이 자료를 보고한 회사들은 149 00:08:55,159 --> 00:08:59,716 아동 성폭력 자료를 끌어내리기 위한 인프라를 구축할 자금이 있습니다. 150 00:08:59,740 --> 00:09:02,151 하지만 수백 개의 다른 회사들 151 00:09:02,175 --> 00:09:04,841 전 세계의 규모가 작거나 중간 정도인 회사는 152 00:09:04,865 --> 00:09:06,919 아동 음란물을 근절시켜야 하지만 153 00:09:06,943 --> 00:09:12,368 1) 그들의 플랫폼이 학대를 위해 사용되리라 생각하지 못하거나 154 00:09:12,392 --> 00:09:18,237 2) 수익을 창출하지 못하는 사업에 투자할 자금이 없습니다. 155 00:09:18,932 --> 00:09:22,221 그래서 우리가 나서서 만들었습니다. 156 00:09:22,245 --> 00:09:27,214 이제 이 시스템은 더 많은 회사가 참여할수록 똑똑해집니다. 157 00:09:27,965 --> 00:09:29,690 예를 들어보겠습니다. 158 00:09:30,459 --> 00:09:34,337 우리의 첫 번째 파트너 이미져(Imgur), 생소하신 분을 위해 덧붙이자면 159 00:09:34,361 --> 00:09:37,503 이 회사는 미국에서 가장 많이 방문하는 웹사이트 중 하나로 160 00:09:37,527 --> 00:09:42,535 매일 사용자 제작 이미지 수 백만 개가 등록되며 161 00:09:42,559 --> 00:09:45,417 인터넷을 더 재미있는 공간으로 만들자는 목표를 가지고 있습니다. 162 00:09:46,012 --> 00:09:47,864 우리는 이미져와 처음으로 파트너 관계를 맺었습니다. 163 00:09:47,888 --> 00:09:51,231 시스템을 시작한 지 20분 만에 164 00:09:51,255 --> 00:09:54,827 누군가 저희 쪽에 해시가 있는 성폭행 자료를 올리려고 시도했습니다. 165 00:09:54,851 --> 00:09:56,959 이미져 측에서 멈출 수 있었고 자료를 내렸으며 166 00:09:56,983 --> 00:10:00,449 미 국립 실종 학대 아동방지센터에 신고했습니다. 167 00:10:00,473 --> 00:10:02,381 하지만 한발 더 나아갔습니다. 168 00:10:02,405 --> 00:10:06,538 이미져측에서 그 자료를 올린 사람의 계정을 조사했습니다. 169 00:10:07,086 --> 00:10:11,797 수백 건의 아동 성폭력 자료가 더 있었는데 170 00:10:11,821 --> 00:10:13,639 한 번도 보지 못한 것들 이었습니다. 171 00:10:14,152 --> 00:10:17,684 여기에서 우리는 기하급수적인 효과를 보기 시작했습니다. 172 00:10:17,708 --> 00:10:19,476 그 자료를 플랫폼에서 내리고 173 00:10:19,500 --> 00:10:23,050 미 국립 실종 학대 아동방지센터에 신고한 뒤 174 00:10:23,074 --> 00:10:25,585 그 해시들을 시스템에 기록하여 175 00:10:25,609 --> 00:10:28,073 다른 모든 회사에서도 사용할 수 있게 했습니다. 176 00:10:28,097 --> 00:10:32,881 우리가 확보한 수 백만의 해시가 다른 수 백만의 해시에 실시간으로 연결되고 177 00:10:32,905 --> 00:10:37,443 전 세계의 회사가 그 자료를 식별한 뒤 플랫폼에서 내려 178 00:10:37,467 --> 00:10:42,028 전 세계의 인터넷에서 극적으로 속도를 높여 179 00:10:42,052 --> 00:10:46,346 아동 성폭력 자료를 제거할 것입니다. 180 00:10:46,370 --> 00:10:51,842 (박수) 181 00:10:54,208 --> 00:10:57,428 하지만 이것이 소프트웨어와 데이터에만 머무를 수 없는 이유입니다. 182 00:10:57,452 --> 00:10:59,224 규모를 넓혀야 합니다. 183 00:10:59,248 --> 00:11:02,761 수천 명의 경찰에게 알리고 184 00:11:02,785 --> 00:11:05,162 전 세계 수백 개의 회사에 도입해야 합니다. 185 00:11:05,186 --> 00:11:08,794 기술을 활용해 가해자들을 잡고 186 00:11:08,818 --> 00:11:12,943 오늘날 전 세계에서 아동 성폭력을 일반적인 현상으로 만드는 187 00:11:12,967 --> 00:11:14,519 커뮤니티를 해체할 수 있을 것입니다. 188 00:11:15,064 --> 00:11:17,714 지금 당장 시작해야 합니다. 189 00:11:18,288 --> 00:11:24,085 더 이상 이러한 일들이 우리 아이들에게 미치는 영향을 모른다고 할 수 없습니다. 190 00:11:24,688 --> 00:11:29,146 성폭행당한 자료가 퍼진 아이들 중 첫 번째 세대는 191 00:11:29,170 --> 00:11:30,880 이제 청년기에 들어섰습니다. 192 00:11:31,451 --> 00:11:34,036 캐나다 아동보호 센터는 193 00:11:34,060 --> 00:11:36,756 최근 이 청소년들을 조사하여 194 00:11:36,780 --> 00:11:41,416 그들이 극복하고자 노력하는 트라우마를 이해하고자 했습니다. 195 00:11:41,440 --> 00:11:44,263 그들은 자신이 받은 학대와 함께 살아가고 있었습니다. 196 00:11:45,213 --> 00:11:50,059 그들 중 80%가 자살에 대해 생각한 적이 있었고. 197 00:11:50,566 --> 00:11:54,628 60% 이상이 자살을 시도했습니다. 198 00:11:55,572 --> 00:12:00,789 대부분 매일 공포를 느끼며 살아갑니다. 199 00:12:00,813 --> 00:12:05,276 길을 걷거나 면접을 보다가 200 00:12:05,300 --> 00:12:07,590 혹은 학교에 가거나 201 00:12:07,614 --> 00:12:10,039 온라인으로 사람을 만날 때 202 00:12:10,063 --> 00:12:13,721 자기가 성폭행 당하는 모습을 봤을지도 모른다는 공포를 느낍니다. 203 00:12:14,547 --> 00:12:19,452 그리고 30% 이상에게 그 공포는 현실이 되었습니다. 204 00:12:20,256 --> 00:12:24,842 누군가 온라인상의 파일을 통해 그들을 알아본 것입니다. 205 00:12:26,022 --> 00:12:29,298 아동 성폭력 자료 근절은 쉽지 않겠지만 206 00:12:29,322 --> 00:12:32,165 불가능하지 않습니다. 207 00:12:32,189 --> 00:12:34,865 이제 이 과업은 의지에 달려있습니다. 208 00:12:34,889 --> 00:12:36,478 우리 사회의 의지 209 00:12:36,502 --> 00:12:40,056 정말로 직시하기 힘든 것을 보고자 하고 210 00:12:40,080 --> 00:12:42,423 어둠으로부터 무언가를 끌고 나와 211 00:12:42,447 --> 00:12:44,542 이 아이들이 목소리를 낼 수 있게 하는 의지 212 00:12:46,110 --> 00:12:51,056 조치를 취하여 그들의 플랫폼이 아동 성폭력 자료로부터 213 00:12:51,080 --> 00:12:54,393 깨끗하게 유지되도록 노력하는 기업의 의지. 214 00:12:55,205 --> 00:12:59,156 집행 기관이 디지털 범죄를 수사하는 데 필요한 215 00:12:59,180 --> 00:13:04,274 기술을 제공하는 정부의 의지. 216 00:13:04,298 --> 00:13:08,381 심지어 피해자들이 자신을 위해 목소리 조차 낼 수 없는 디지털 범죄일지라도. 217 00:13:09,746 --> 00:13:13,444 TED의 대담한 헌신이 그 의지의 일부입니다. 218 00:13:14,269 --> 00:13:19,676 이는 인류의 가장 어두운 악에게 선포하는 전쟁입니다. 219 00:13:20,263 --> 00:13:22,203 하지만 제가 가장 의지하는 것은 220 00:13:22,227 --> 00:13:25,676 이게 미래를 위한 투자라는 사실입니다. 221 00:13:25,700 --> 00:13:28,774 모든 아이가 그저 아이로 남을 수 있는 미래가 오기를 바랍니다. 222 00:13:29,357 --> 00:13:30,551 감사합니다. 223 00:13:30,896 --> 00:13:37,040 (박수)