1 00:00:00,720 --> 00:00:05,000 사람들은 오래 전부터 미디어를 이용해 성에 관한 이야기를 했어요. 2 00:00:05,600 --> 00:00:09,040 폰섹스를 하거나 연애편지, 야한 사진 등을 보냈죠. 3 00:00:09,480 --> 00:00:15,536 심지어 전보로 만난 남친과 야반도주한 여자아이도 있었어요. 4 00:00:15,560 --> 00:00:17,200 무려 1886년에요. 5 00:00:18,560 --> 00:00:23,656 오늘 주제는 섹스팅(sexting)이고 전 섹스팅 전문가예요 6 00:00:23,680 --> 00:00:25,560 제가 섹스팅을 잘한다는 게 아니예요 7 00:00:26,800 --> 00:00:30,976 이게 뭔지는 알지만요. 여러분도 아실 거예요. 8 00:00:31,000 --> 00:00:32,375 (이것은 성기다) 9 00:00:32,400 --> 00:00:34,760 (웃음) 10 00:00:36,360 --> 00:00:42,696 2008년부터 미디어가 섹스팅에 주목하자 저도 연구하기 시작했어요. 11 00:00:42,720 --> 00:00:45,696 섹스팅과 도덕적 혼란을 주제로 책도 냈어요. 12 00:00:45,720 --> 00:00:47,336 그리고 이걸 알아냈죠. 13 00:00:47,360 --> 00:00:50,576 사람들은 엉뚱한 것을 걱정을 하고 있어요. 14 00:00:50,600 --> 00:00:54,776 섹스팅을 완전히 없애려 노력하죠. 15 00:00:54,800 --> 00:00:56,336 그런데 질문 하나 드릴게요. 16 00:00:56,360 --> 00:01:01,216 서로 합의 하에 하는 한 왜 섹스팅이 문제가 되는 거죠? 17 00:01:01,240 --> 00:01:05,256 여러분에겐 흥미없는 일이지만 그것에 열광하는 사람도 많아요. 18 00:01:05,280 --> 00:01:08,456 블루 치즈나 고수같은 거 말이죠. 19 00:01:08,456 --> 00:01:09,630 (웃음) 20 00:01:10,600 --> 00:01:14,736 섹스팅은 분명히 위험한 취미죠. 다른 재밌는 취미와 마찬가지로요. 21 00:01:14,760 --> 00:01:21,456 하지만 원치 않는 사람에게만 보내지 않으면 22 00:01:21,480 --> 00:01:23,256 해가 될 일은 없어요. 23 00:01:23,280 --> 00:01:25,896 제 생각에 심각한 문제가 발생하는 경우는 24 00:01:25,920 --> 00:01:30,776 사람들이 허락없이 타인의 사적인 사진을 공유할 때예요. 25 00:01:31,360 --> 00:01:33,696 섹스팅하는 걸 걱정하기보단 26 00:01:33,720 --> 00:01:38,280 디지털 프라이버시에 대해 생각해보아야 합니다. 27 00:01:38,880 --> 00:01:41,080 핵심은 동의입니다. 28 00:01:41,680 --> 00:01:44,976 요즘 사람들은 대부분 동의에 대해 생각해보지 않은 채로 29 00:01:45,000 --> 00:01:47,960 섹스팅 자체가 문제라고 생각하고 있습니다. 30 00:01:48,400 --> 00:01:52,080 요즘 10대 섹스팅이 불법인 거 아시나요? 31 00:01:53,400 --> 00:01:56,856 18세 미만의 사진이 있으면 아동포르노에 해당되기 때문에 32 00:01:56,880 --> 00:01:59,590 범죄가 될 수 있어요. 33 00:01:59,590 --> 00:02:01,756 그리고 아이들이 본인의 의지로 34 00:02:01,756 --> 00:02:05,320 자기 사진을 찍어서 공유한 것인지 아닌지는 중요치 않아요. 35 00:02:05,800 --> 00:02:08,776 그래서 우리는 미국에서 17세가 36 00:02:08,800 --> 00:02:13,336 성관계를 하는 건 합법이지만 사진을 찍는 건 불법인 37 00:02:13,360 --> 00:02:15,240 이상한 법적인 상황에 부딪히게 됩니다. 38 00:02:16,560 --> 00:02:20,816 몇몇 지역에선 섹스팅 경범죄 법을 통과시키려는 노력을 하기도 했죠. 39 00:02:20,840 --> 00:02:23,856 하지만 이 법도 똑같은 문제를 반복할 뿐이었어요. 40 00:02:23,880 --> 00:02:27,640 왜냐하면 합의 하에 한 섹스팅이 여전히 불법이었으니까요. 41 00:02:28,520 --> 00:02:29,776 사생활 침해 문제를 해결하기 위해 42 00:02:29,800 --> 00:02:34,536 섹스팅을 모두 금지하는 것은 말이 안 됩니다. 43 00:02:34,560 --> 00:02:36,056 그건 이런 말과 같아요. 44 00:02:36,080 --> 00:02:41,520 "데이트 강간을 해결하기 위해 데이트 자체를 완전히 불법화하자." 45 00:02:43,120 --> 00:02:48,496 섹스팅을 한다고 십대들이 구속되지는 않아요. 누가 구속되게요? 46 00:02:48,520 --> 00:02:53,496 섹스팅 상대의 부모들이 십대들을 좋아하지 않습니다. 47 00:02:53,520 --> 00:02:58,320 계급적 편견이나 인종차별 동성애혐모 때문이기도 하죠. 48 00:02:58,960 --> 00:03:01,736 물론 대부분의 검찰은 똑똑해서 십대를 아동포르노 혐의로 49 00:03:01,760 --> 00:03:07,240 기소하지 않아요. 몇몇은 하지만요. 50 00:03:07,720 --> 00:03:11,376 뉴 햄프셔 대학의 연구에 따르면 51 00:03:11,400 --> 00:03:17,056 아동 포르노를 소장한 죄로 채포당한 사람 중 7%가 10대라고 합니다. 52 00:03:17,080 --> 00:03:20,080 또래 친구와 합의 하에 한 섹스팅인데도 말이죠. 53 00:03:21,480 --> 00:03:24,016 아동 포르노는 심각한 범죄지만 54 00:03:24,040 --> 00:03:27,720 10대 섹스팅과는 다른 겁니다. 55 00:03:29,040 --> 00:03:32,456 부모와 교육자들 또한 합의라는 것은 무시한 채 56 00:03:32,480 --> 00:03:35,616 섹스팅 문제에 대응합니다. 57 00:03:35,640 --> 00:03:39,760 보통 아이에게 이렇게 가르치죠. "그냥 하지 말거라" 58 00:03:40,200 --> 00:03:43,696 저도 전적으로 이해는 합니다 심각한 법적 위험이 있고 59 00:03:43,720 --> 00:03:47,376 물론 사생활 침해의 가능성도 있죠. 60 00:03:47,400 --> 00:03:48,656 그리고 여러분이 10대였을 때 61 00:03:48,680 --> 00:03:52,080 분명히 어른들 말씀을 고분고분 들으셨을 거예요, 맞죠? 62 00:03:53,440 --> 00:03:56,896 그리고 여러분들도 내 아이는 안 하겠지라고 생각하실 겁니다. 63 00:03:56,920 --> 00:04:00,376 맞아요, 여러분의 착한 아기는 섹스팅을 안 할지도 모릅니다. 64 00:04:00,400 --> 00:04:03,536 왜냐하면 16-17세 중에 섹스팅하는 아이는 65 00:04:03,560 --> 00:04:05,920 고작 33%밖에 안 되거든요. 66 00:04:07,200 --> 00:04:11,816 하지만 죄송해요, 아이들이 크면 이걸 할 확률도 높아져요. 67 00:04:11,840 --> 00:04:18,040 제가 여태껏 봐온 모든 연구에 따르면 18-24세의 경우는 50%이상이에요. 68 00:04:18,720 --> 00:04:21,776 하지만 대부분의 경우 아무 문제도 생기지 않아요. 69 00:04:21,800 --> 00:04:26,980 주변에서 항상 이렇게 물어봐요. "섹스팅 자체가 위험한 거 아니야?" 70 00:04:26,980 --> 00:04:30,776 이건 공원 벤치에 지갑을 두고 오지 않는 거하고 비슷한 거예요. 71 00:04:30,800 --> 00:04:34,240 지갑을 벤치에 놓고 왔으면 누가 훔쳐갔을거라 생각하시겠죠. 72 00:04:34,880 --> 00:04:36,336 저는 이렇게 생각해요. 73 00:04:36,360 --> 00:04:40,296 섹스팅은 남자친구 집에 지갑을 놓고 오는 것과 같다고요. 74 00:04:40,320 --> 00:04:42,096 그래서 다음날 찾으러 갔는데 75 00:04:42,120 --> 00:04:44,400 돈이 다 없어졌다면 76 00:04:45,040 --> 00:04:47,160 정말 그 인간을 차버려야죠. 77 00:04:47,690 --> 00:04:49,860 (웃음) 78 00:04:51,360 --> 00:04:53,680 그러니 사생활 침해를 막으려고 79 00:04:53,720 --> 00:04:56,336 섹스팅을 범죄화하기보다는 80 00:04:56,360 --> 00:04:59,656 개인 정보의 유포에 관해 81 00:04:59,680 --> 00:05:03,760 합의라는 걸 중요시해야 해요. 82 00:05:04,480 --> 00:05:08,736 새로운 미디어 기술이 생길 때마다 사생활에 대한 우려가 제기됩니다. 83 00:05:08,760 --> 00:05:13,376 실제로 미국에서 당시 비교적 최신인 기술이 등장했을 때 84 00:05:13,400 --> 00:05:17,896 최초로 사생활 문제를 주제로 한 대규모 논쟁이 일어났죠. 85 00:05:17,920 --> 00:05:21,816 1800년대 말 사람들은 신문의 가십란과, 86 00:05:21,840 --> 00:05:25,296 한순간에 예전보다 휴대하기 편해진 87 00:05:25,320 --> 00:05:27,816 카메라를 걱정했어요. 88 00:05:27,840 --> 00:05:31,656 왜냐하면 카메라로 자기를 찍어 89 00:05:31,680 --> 00:05:34,880 전후 설명없이 신문에 실어서 널리 퍼뜨릴까봐 걱정된거죠. 90 00:05:35,240 --> 00:05:36,856 익숙한 상황이죠? 91 00:05:36,880 --> 00:05:41,736 우리가 요즘 SNS나 드론 카메라에 대해 걱정하는 것과 동일합니다. 92 00:05:41,760 --> 00:05:43,400 물론 섹스팅도 그렇고요. 93 00:05:43,920 --> 00:05:45,990 신기술에 대한 두려움은 94 00:05:45,990 --> 00:05:47,376 모두 공감할 거예요. 95 00:05:47,400 --> 00:05:50,080 왜냐하면 기술은 우리의 나쁜 행동이나 단점을 96 00:05:50,080 --> 00:05:53,560 부풀려서 폭로해버릴 수 있으니까요. 97 00:05:54,160 --> 00:05:56,536 그래도 해결책은 있어요. 98 00:05:56,560 --> 00:06:00,120 그리고 이전에도 위험한 신기술때문에 이런 상황에 처해본 적 있잖아요. 99 00:06:00,720 --> 00:06:04,496 1908년에 포드는 모델 T 차량을 선보였고, 100 00:06:04,520 --> 00:06:07,096 교통사고 사망자 수가 증가했어요. 101 00:06:07,120 --> 00:06:09,920 심각한 문제였죠. 보기엔 안전한 것 같은데, 그렇죠? 102 00:06:12,080 --> 00:06:16,056 그래서 우리가 처음 한 일은 운전자의 행동을 바꾸는 거였어요. 103 00:06:16,080 --> 00:06:19,800 그래서 속도 제한을 만들고 벌금을 물어 지키게 만들었죠. 104 00:06:20,240 --> 00:06:22,096 하지만 수십 년을 지나오면서 105 00:06:22,120 --> 00:06:27,616 자동차 기술은 중립적이지 않다는 걸 깨달았어요. 106 00:06:27,640 --> 00:06:30,856 차량을 더 안전하게 제작할 수 있었죠. 107 00:06:30,880 --> 00:06:34,336 그래서 1920년에 비산방지 앞유리를 만듭니다. 108 00:06:34,360 --> 00:06:36,856 50년대에 안전벨트를 만들고요. 109 00:06:36,880 --> 00:06:39,960 그리고 90년대엔 에어백을요. 110 00:06:40,440 --> 00:06:42,816 세월이 흐르면서 111 00:06:42,840 --> 00:06:47,616 법, 개인 그리고 업계의 3개 영역 힘을 합쳐 112 00:06:47,640 --> 00:06:51,416 신기술이 야기하는 문제를 해결하기 위해 나섰죠. 113 00:06:51,440 --> 00:06:54,680 디지털 사생활 문제도 똑같이 해결할 수 있습니다. 114 00:06:55,160 --> 00:06:57,920 물론 "합의"라는 것으로 돌아가서 말이죠. 115 00:06:58,360 --> 00:06:59,576 이런 방법이 있어요. 116 00:06:59,600 --> 00:07:03,416 누군가 여러분 개인 정보를 퍼트리기 전에 117 00:07:03,440 --> 00:07:05,680 여러분의 허락이 있어야 하는 거예요. 118 00:07:06,240 --> 00:07:11,056 적극적 합의란 개념은 모든 성행위에는 합의가 있어야 한다고 주장하는 119 00:07:11,080 --> 00:07:14,856 성폭행 반대운동가들에게서 파생된 거예요. 120 00:07:14,880 --> 00:07:19,456 여타 많은 분야에서도 합의에 대한 기준이 상당히 높아요. 121 00:07:19,480 --> 00:07:21,336 외과수술을 예를 들어보죠. 122 00:07:21,360 --> 00:07:23,196 주치의는 의료 행위를 하기 전 123 00:07:23,196 --> 00:07:27,040 환자가 내용을 알고 동의했다는 걸 확실히 해둬야 하죠. 124 00:07:27,520 --> 00:07:31,216 이건 아이튠즈 약관 동의처럼 맨 밑으로 스크롤 내리고 125 00:07:31,240 --> 00:07:34,896 동의 란에 체크, 체크하는 것과는 달라요. 126 00:07:34,920 --> 00:07:36,640 (웃음) 127 00:07:37,160 --> 00:07:42,416 합의에 대해 더 고민해보면 더 개선된 사생활 보호법을 만들 수 있어요. 128 00:07:42,440 --> 00:07:45,856 지금은 별로 보호 장치가 많지 않아요. 129 00:07:45,880 --> 00:07:49,456 전남편이나 전부인이 끔찍한 사람이면 130 00:07:49,480 --> 00:07:53,696 여러분의 나체사진을 포르노 사이트에 올려버릴 수도 있죠. 131 00:07:53,720 --> 00:07:56,936 이 사진들을 없애려면 정말 애를 먹죠. 132 00:07:56,960 --> 00:07:58,176 많은 주에서 133 00:07:58,200 --> 00:08:00,020 내 사진을 내가 직접 찍는 게 더 나아요. 134 00:08:00,020 --> 00:08:04,840 그러면 저작권을 주장할 수 있어서요. 135 00:08:05,320 --> 00:08:07,376 (웃음) 136 00:08:07,400 --> 00:08:10,376 요즘은 누가 여러분 사생활을 침해하면 137 00:08:10,400 --> 00:08:14,600 그게 개인이나 기업, 혹은 국정원일지라도 138 00:08:15,280 --> 00:08:18,016 고소할 수 있어요. 139 00:08:18,040 --> 00:08:20,766 다수의 법원이 디지털 사생활은 140 00:08:20,766 --> 00:08:24,976 불가능하다고 가정하기 때문에 승소하긴 어렵지만요. 141 00:08:25,000 --> 00:08:28,440 그래서 사생활을 침해해도 처벌하진 않으려고 합니다. 142 00:08:29,200 --> 00:08:32,096 주변에서는 제게 여전히 물어봐요. 143 00:08:32,120 --> 00:08:36,790 인터넷에 올린 이미지는 디지털이라서 사적인건지와 공적인건지의 144 00:08:36,790 --> 00:08:39,080 구분이 애매해지지 않아요? 145 00:08:39,600 --> 00:08:40,780 절대! 아닙니다! 146 00:08:40,780 --> 00:08:44,296 디지털이라고해서 공적인 것은 아닙니다. 147 00:08:44,320 --> 00:08:46,216 전혀 말도 안 되는 말입니다. 148 00:08:46,240 --> 00:08:49,736 뉴욕대 법학자 헬렌 니센바움은 149 00:08:49,760 --> 00:08:52,376 우리에겐 사적인 정보면 어떤 종류든 보호해주는 150 00:08:52,400 --> 00:08:55,536 법과 정책, 규범이 있기 때문에 151 00:08:55,560 --> 00:08:58,976 디지털이든 아니든 달라질 게 없다고 말합니다. 152 00:08:59,000 --> 00:09:01,656 모든 건강 기록도 디지털화 되어있지만 153 00:09:01,680 --> 00:09:04,816 의사는 그걸 누구와도 공유할 수 없죠. 154 00:09:04,840 --> 00:09:09,296 여러분의 모든 재무 정보는 디지털 데이터베이스에 저장돼 있지만 155 00:09:09,320 --> 00:09:13,560 카드사는 여러분의 구매기록을 공개할 수 없습니다. 156 00:09:15,080 --> 00:09:20,536 더 좋은 법제는 사생활 침해에 사후 대응을 할 수 있겠지만 157 00:09:20,560 --> 00:09:24,520 저희가 할 수 있는 것 중 가장 쉬운 방법 하나는 158 00:09:24,520 --> 00:09:27,640 타인이 사생활을 지킬 수 있게 해주는 거예요. 159 00:09:28,360 --> 00:09:30,256 항상 사생활 문제는 160 00:09:30,280 --> 00:09:33,336 완전히 개인 책임이라고 말하죠. 161 00:09:33,360 --> 00:09:37,616 계속 개인정보를 업데이트하고 검사하고 162 00:09:37,640 --> 00:09:42,440 온세상에 알리고 싶지 않은 것은 절대 공유하지 말라고 합니다. 163 00:09:43,400 --> 00:09:44,616 말도 안 돼요. 164 00:09:44,640 --> 00:09:47,616 디지털 미디어는 사회와 같아서 165 00:09:47,640 --> 00:09:51,920 신뢰하는 사람들과 매일 정보를 공유해요. 166 00:09:52,760 --> 00:09:55,736 프린스턴대 연구원 쟈넷 버테시는 167 00:09:55,760 --> 00:09:59,776 개인 정보와 사생활은 그냥 개인적인 것이 아니라 168 00:09:59,800 --> 00:10:02,376 실제론 대인적인 것이라고 주장합니다. 169 00:10:02,400 --> 00:10:05,656 그러니 정말로 쉽게 할 수 있는 일은 170 00:10:05,680 --> 00:10:10,776 그냥 타인의 정보를 공유하기 전에 허락받기 시작하는 거예요. 171 00:10:10,800 --> 00:10:15,336 누군가의 사진을 인터넷에 올리고 싶으시면 허락을 받으세요. 172 00:10:15,360 --> 00:10:17,816 이메일을 전달하고 싶으시면 173 00:10:17,840 --> 00:10:19,216 허락을 받으세요. 174 00:10:19,240 --> 00:10:22,016 누군가의 나체 셀카를 공유하고 싶으면 175 00:10:22,040 --> 00:10:24,320 물론 허락을 받으세요. 176 00:10:25,560 --> 00:10:30,016 개개인의 변화가 사생활 보호에 많은 도움이 됩니다. 177 00:10:30,040 --> 00:10:33,840 하지만 기술개발사들도 동참해야 합니다. 178 00:10:34,360 --> 00:10:38,856 기술개발사들은 사생활 보호를 위해 노력할 동기가 없습니다. 179 00:10:38,880 --> 00:10:42,176 왜냐하면 사업이 성공하려면 사람들이 최대한 많은 이들과 180 00:10:42,200 --> 00:10:44,440 모든 걸 공유해주어야 되니까요. 181 00:10:45,080 --> 00:10:47,016 제가 여러분께 사진 하나를 보내면 182 00:10:47,040 --> 00:10:50,136 여러분은 그 사진을 누구에게든 보낼 수 있어요. 183 00:10:50,160 --> 00:10:54,416 하지만 보내도 되는지의 결정권이 제게 있게 된다면요? 184 00:10:54,440 --> 00:10:58,496 그럼 이 이미지를 전송해도 된다고 허락하지 않았다는 걸 알 수 있겠죠. 185 00:10:58,520 --> 00:11:02,656 저작권을 보호하기 위해선 항상 이런 일들을 하죠. 186 00:11:02,680 --> 00:11:07,456 전자책을 구입하면 많은 사람들과 공유해서는 안되죠. 187 00:11:07,480 --> 00:11:10,040 그럼 핸드폰에서도 그렇게 하는 건 어떨까요? 188 00:11:10,960 --> 00:11:15,736 우리는 기술개발사에게 이런 보호 장치가 자동으로 189 00:11:15,760 --> 00:11:19,496 기기와 플랫폼에 적용되게 추가해달라고 요구할 수 있어요. 190 00:11:19,520 --> 00:11:22,936 차량 색깔은 선택할 수 있지만 191 00:11:22,960 --> 00:11:25,800 애어백은 항상 들어있잖아요. 192 00:11:28,080 --> 00:11:31,896 디지털 사생활과 합의에 대해 더 고민하지 않으면 193 00:11:31,920 --> 00:11:34,640 심각한 결과를 초래할 거예요. 194 00:11:35,360 --> 00:11:37,616 오하이오에 사는 10대 아이가 있는데, 195 00:11:37,640 --> 00:11:40,480 개인정보 보호를 위해 제니퍼라고 할게요. 196 00:11:41,120 --> 00:11:44,696 자신의 나체 사진을 고등학교 남친과 공유했죠. 197 00:11:44,720 --> 00:11:46,240 남친을 믿었거든요. 198 00:11:47,720 --> 00:11:49,656 불행히도 남자친구는 199 00:11:49,680 --> 00:11:52,656 제니퍼를 배신하고 사진을 학교 전체에 뿌렸어요. 200 00:11:52,680 --> 00:11:56,200 제니퍼는 너무 당황스럽고 수치심을 느꼈지만 201 00:11:56,800 --> 00:12:00,936 동정받기는커녕 반 친구들로부터 괴롭힘을 당했어요. 202 00:12:00,960 --> 00:12:02,816 걸레고 창녀라고 불렀고 203 00:12:02,840 --> 00:12:04,800 제니퍼를 비참하게 만들었어요. 204 00:12:05,360 --> 00:12:09,040 제니퍼는 학교를 빠지기 시작했고 성적은 떨어졌어요. 205 00:12:09,520 --> 00:12:13,320 결국 제니퍼는 자살을 선택했어요. 206 00:12:14,720 --> 00:12:17,416 그 아이는 잘못한 게 없어요. 207 00:12:17,440 --> 00:12:19,696 믿을 수 있다고 생각한 사람에게 208 00:12:19,720 --> 00:12:22,536 단지 나체 사진 하나 보냈을 뿐이에요. 209 00:12:22,560 --> 00:12:25,176 그런데도 법은 제니퍼에게 210 00:12:25,200 --> 00:12:29,360 아동 포르노와 동등한 끔찍한 범죄를 저질렀다고 합니다. 211 00:12:29,770 --> 00:12:31,416 우리의 성관념은 212 00:12:31,440 --> 00:12:34,656 자신의 나체 사진을 찍은 건 213 00:12:34,680 --> 00:12:37,880 가장 더럽고 추잡한 짓이라며 제니퍼를 비난합니다. 214 00:12:38,400 --> 00:12:42,616 그리고 디지털 매체에서 사생활은 불가능하다고 가정하게 되면 215 00:12:42,640 --> 00:12:48,160 그 남학생의 악행을 면죄하고 변명해주는 꼴이 될 뿐이죠. 216 00:12:49,200 --> 00:12:54,936 사람들은 여전히 사생활 침해 피해자에게 이렇게 말합니다. 217 00:12:54,960 --> 00:12:56,216 "무슨 생각으로 그런 거야? 218 00:12:56,240 --> 00:12:58,720 그런 사진은 절대 보내지 말았어야지." 219 00:12:59,640 --> 00:13:03,640 그 대신에 무슨 말을 해야할지 고민이라면 이렇게 해보세요. 220 00:13:04,160 --> 00:13:07,680 여러분 친구가 스키 타다가 다리가 부러졌다고 상상해보세요. 221 00:13:08,240 --> 00:13:12,816 재미로 위험한 짓을 하다가 끝이 좋지 않았어요 222 00:13:12,840 --> 00:13:15,376 하지만 거기다 대고 멍청이처럼 이렇게 말하진 않겠죠. 223 00:13:15,400 --> 00:13:17,840 "그러니까 스키를 타지 말았어야지." 224 00:13:20,080 --> 00:13:22,216 합의에 대해 좀 더 생각해본다면 225 00:13:22,240 --> 00:13:25,496 사생활 침해 피해자는 226 00:13:25,520 --> 00:13:28,856 범죄자의 낙인이나 수치심, 괴롭힘, 처벌이 아니라 227 00:13:28,856 --> 00:13:31,880 우리의 연민을 받아야한다는 걸 알 수 있을 거예요. 228 00:13:32,440 --> 00:13:36,936 우리는 법적, 개인적, 기술적 변화를 통해 229 00:13:36,960 --> 00:13:41,280 피해자들을 지지하고 사생활 침해를 예방할 수 있어요. 230 00:13:41,840 --> 00:13:47,656 섹스팅이 문제가 아니라 디지털 사생활이 문제이니까요. 231 00:13:47,680 --> 00:13:50,040 유일한 해결책은 합의예요. 232 00:13:50,680 --> 00:13:55,256 다음번에 사생활 침해 피해자가 여러분에게 오거든 233 00:13:55,280 --> 00:13:58,016 피해자 탓을 하는 대신 이렇게 해보세요. 234 00:13:58,040 --> 00:14:01,456 디지털 사생활에 대한 생각을 바꾸고 235 00:14:01,480 --> 00:14:04,120 동정심을 가지고 대해 주세요. 236 00:14:04,680 --> 00:14:05,896 감사합니다. 237 00:14:05,920 --> 00:14:12,056 (박수)