0:00:00.720,0:00:05.000 사람들은 오래 전부터 미디어를[br]이용해 성에 관한 이야기를 했어요. 0:00:05.600,0:00:09.040 폰섹스를 하거나 연애편지,[br]야한 사진 등을 보냈죠. 0:00:09.480,0:00:15.536 심지어 전보로 만난 남친과[br]야반도주한 여자아이도 있었어요. 0:00:15.560,0:00:17.200 무려 1886년에요. 0:00:18.560,0:00:23.656 오늘 주제는 섹스팅(sexting)이고[br]전 섹스팅 전문가예요 0:00:23.680,0:00:25.560 제가 섹스팅을 잘한다는 게 아니예요 0:00:26.800,0:00:30.976 이게 뭔지는 알지만요.[br]여러분도 아실 거예요. 0:00:31.000,0:00:32.375 (이것은 성기다) 0:00:32.400,0:00:34.760 (웃음) 0:00:36.360,0:00:42.696 2008년부터 미디어가 섹스팅에[br]주목하자 저도 연구하기 시작했어요. 0:00:42.720,0:00:45.696 섹스팅과 도덕적 혼란을[br]주제로 책도 냈어요. 0:00:45.720,0:00:47.336 그리고 이걸 알아냈죠. 0:00:47.360,0:00:50.576 사람들은 엉뚱한 것을 [br]걱정을 하고 있어요. 0:00:50.600,0:00:54.776 섹스팅을 완전히 없애려 노력하죠. 0:00:54.800,0:00:56.336 그런데 질문 하나 드릴게요. 0:00:56.360,0:01:01.216 서로 합의 하에 하는 한[br]왜 섹스팅이 문제가 되는 거죠? 0:01:01.240,0:01:05.256 여러분에겐 흥미없는 일이지만 [br]그것에 열광하는 사람도 많아요. 0:01:05.280,0:01:08.456 블루 치즈나 고수같은 거 말이죠. 0:01:08.456,0:01:09.630 (웃음) 0:01:10.600,0:01:14.736 섹스팅은 분명히 위험한 취미죠.[br]다른 재밌는 취미와 마찬가지로요. 0:01:14.760,0:01:21.456 하지만 원치 않는 사람에게만[br]보내지 않으면 0:01:21.480,0:01:23.256 해가 될 일은 없어요. 0:01:23.280,0:01:25.896 제 생각에 심각한 문제가[br]발생하는 경우는 0:01:25.920,0:01:30.776 사람들이 허락없이 타인의[br]사적인 사진을 공유할 때예요. 0:01:31.360,0:01:33.696 섹스팅하는 걸 걱정하기보단 0:01:33.720,0:01:38.280 디지털 프라이버시에 대해[br]생각해보아야 합니다. 0:01:38.880,0:01:41.080 핵심은 동의입니다. 0:01:41.680,0:01:44.976 요즘 사람들은 대부분[br]동의에 대해 생각해보지 않은 채로 0:01:45.000,0:01:47.960 섹스팅 자체가 문제라고[br]생각하고 있습니다. 0:01:48.400,0:01:52.080 요즘 10대 섹스팅이[br]불법인 거 아시나요? 0:01:53.400,0:01:56.856 18세 미만의 사진이 있으면[br]아동포르노에 해당되기 때문에 0:01:56.880,0:01:59.590 범죄가 될 수 있어요. 0:01:59.590,0:02:01.756 그리고 아이들이 본인의 의지로 0:02:01.756,0:02:05.320 자기 사진을 찍어서 공유한 것인지[br]아닌지는 중요치 않아요. 0:02:05.800,0:02:08.776 그래서 우리는 미국에서 17세가 0:02:08.800,0:02:13.336 성관계를 하는 건 합법이지만[br]사진을 찍는 건 불법인 0:02:13.360,0:02:15.240 이상한 법적인 상황에 부딪히게 됩니다. 0:02:16.560,0:02:20.816 몇몇 지역에선 섹스팅 경범죄 법을[br]통과시키려는 노력을 하기도 했죠. 0:02:20.840,0:02:23.856 하지만 이 법도 똑같은[br]문제를 반복할 뿐이었어요. 0:02:23.880,0:02:27.640 왜냐하면 합의 하에 한 섹스팅이[br]여전히 불법이었으니까요. 0:02:28.520,0:02:29.776 사생활 침해 문제를 해결하기 위해 0:02:29.800,0:02:34.536 섹스팅을 모두 금지하는 것은[br]말이 안 됩니다. 0:02:34.560,0:02:36.056 그건 이런 말과 같아요. 0:02:36.080,0:02:41.520 "데이트 강간을 해결하기 위해[br]데이트 자체를 완전히 불법화하자." 0:02:43.120,0:02:48.496 섹스팅을 한다고 십대들이 구속되지는[br]않아요. 누가 구속되게요? 0:02:48.520,0:02:53.496 섹스팅 상대의 부모들이 십대들을[br]좋아하지 않습니다. 0:02:53.520,0:02:58.320 계급적 편견이나 인종차별[br]동성애혐모 때문이기도 하죠. 0:02:58.960,0:03:01.736 물론 대부분의 검찰은 똑똑해서[br]십대를 아동포르노 혐의로 0:03:01.760,0:03:07.240 기소하지 않아요. 몇몇은 하지만요. 0:03:07.720,0:03:11.376 뉴 햄프셔 대학의 연구에 따르면 0:03:11.400,0:03:17.056 아동 포르노를 소장한 죄로 채포당한[br]사람 중 7%가 10대라고 합니다. 0:03:17.080,0:03:20.080 또래 친구와 합의 하에 한[br]섹스팅인데도 말이죠. 0:03:21.480,0:03:24.016 아동 포르노는 심각한 범죄지만 0:03:24.040,0:03:27.720 10대 섹스팅과는 다른 겁니다. 0:03:29.040,0:03:32.456 부모와 교육자들 또한[br]합의라는 것은 무시한 채 0:03:32.480,0:03:35.616 섹스팅 문제에 대응합니다. 0:03:35.640,0:03:39.760 보통 아이에게 이렇게 가르치죠.[br]"그냥 하지 말거라" 0:03:40.200,0:03:43.696 저도 전적으로 이해는 합니다[br]심각한 법적 위험이 있고 0:03:43.720,0:03:47.376 물론 사생활 침해의 가능성도 있죠. 0:03:47.400,0:03:48.656 그리고 여러분이 10대였을 때 0:03:48.680,0:03:52.080 분명히 어른들 말씀을 [br]고분고분 들으셨을 거예요, 맞죠? 0:03:53.440,0:03:56.896 그리고 여러분들도 내 아이는[br]안 하겠지라고 생각하실 겁니다. 0:03:56.920,0:04:00.376 맞아요, 여러분의 착한 아기는[br]섹스팅을 안 할지도 모릅니다. 0:04:00.400,0:04:03.536 왜냐하면 16-17세 중에[br]섹스팅하는 아이는 0:04:03.560,0:04:05.920 고작 33%밖에 안 되거든요. 0:04:07.200,0:04:11.816 하지만 죄송해요, 아이들이 크면[br]이걸 할 확률도 높아져요. 0:04:11.840,0:04:18.040 제가 여태껏 봐온 모든 연구에 따르면[br]18-24세의 경우는 50%이상이에요. 0:04:18.720,0:04:21.776 하지만 대부분의 경우[br]아무 문제도 생기지 않아요. 0:04:21.800,0:04:26.980 주변에서 항상 이렇게 물어봐요.[br]"섹스팅 자체가 위험한 거 아니야?" 0:04:26.980,0:04:30.776 이건 공원 벤치에 지갑을[br]두고 오지 않는 거하고 비슷한 거예요. 0:04:30.800,0:04:34.240 지갑을 벤치에 놓고 왔으면[br]누가 훔쳐갔을거라 생각하시겠죠. 0:04:34.880,0:04:36.336 저는 이렇게 생각해요. 0:04:36.360,0:04:40.296 섹스팅은 남자친구 집에 지갑을[br]놓고 오는 것과 같다고요. 0:04:40.320,0:04:42.096 그래서 다음날 찾으러 갔는데 0:04:42.120,0:04:44.400 돈이 다 없어졌다면 0:04:45.040,0:04:47.160 정말 그 인간을 차버려야죠. 0:04:47.690,0:04:49.860 (웃음) 0:04:51.360,0:04:53.680 그러니 사생활 침해를 막으려고 0:04:53.720,0:04:56.336 섹스팅을 범죄화하기보다는 0:04:56.360,0:04:59.656 개인 정보의 유포에 관해 0:04:59.680,0:05:03.760 합의라는 걸 중요시해야 해요. 0:05:04.480,0:05:08.736 새로운 미디어 기술이 생길 때마다[br]사생활에 대한 우려가 제기됩니다. 0:05:08.760,0:05:13.376 실제로 미국에서 당시 비교적[br]최신인 기술이 등장했을 때 0:05:13.400,0:05:17.896 최초로 사생활 문제를 주제로 한[br]대규모 논쟁이 일어났죠. 0:05:17.920,0:05:21.816 1800년대 말 사람들은[br]신문의 가십란과, 0:05:21.840,0:05:25.296 한순간에 예전보다 휴대하기 편해진 0:05:25.320,0:05:27.816 카메라를 걱정했어요. 0:05:27.840,0:05:31.656 왜냐하면 카메라로 자기를 찍어 0:05:31.680,0:05:34.880 전후 설명없이 신문에 실어서[br]널리 퍼뜨릴까봐 걱정된거죠. 0:05:35.240,0:05:36.856 익숙한 상황이죠? 0:05:36.880,0:05:41.736 우리가 요즘 SNS나 드론 카메라에 대해[br]걱정하는 것과 동일합니다. 0:05:41.760,0:05:43.400 물론 섹스팅도 그렇고요. 0:05:43.920,0:05:45.990 신기술에 대한 두려움은 0:05:45.990,0:05:47.376 모두 공감할 거예요. 0:05:47.400,0:05:50.080 왜냐하면 기술은[br]우리의 나쁜 행동이나 단점을 0:05:50.080,0:05:53.560 부풀려서 폭로해버릴 수 있으니까요. 0:05:54.160,0:05:56.536 그래도 해결책은 있어요. 0:05:56.560,0:06:00.120 그리고 이전에도 위험한 신기술때문에[br]이런 상황에 처해본 적 있잖아요. 0:06:00.720,0:06:04.496 1908년에 포드는[br]모델 T 차량을 선보였고, 0:06:04.520,0:06:07.096 교통사고 사망자 수가 증가했어요. 0:06:07.120,0:06:09.920 심각한 문제였죠.[br]보기엔 안전한 것 같은데, 그렇죠? 0:06:12.080,0:06:16.056 그래서 우리가 처음 한 일은[br]운전자의 행동을 바꾸는 거였어요. 0:06:16.080,0:06:19.800 그래서 속도 제한을 만들고[br]벌금을 물어 지키게 만들었죠. 0:06:20.240,0:06:22.096 하지만 수십 년을 지나오면서 0:06:22.120,0:06:27.616 자동차 기술은 중립적이지[br]않다는 걸 깨달았어요. 0:06:27.640,0:06:30.856 차량을 더 안전하게 제작할 수 있었죠. 0:06:30.880,0:06:34.336 그래서 1920년에[br]비산방지 앞유리를 만듭니다. 0:06:34.360,0:06:36.856 50년대에 안전벨트를 만들고요. 0:06:36.880,0:06:39.960 그리고 90년대엔 에어백을요. 0:06:40.440,0:06:42.816 세월이 흐르면서 0:06:42.840,0:06:47.616 법, 개인 그리고 업계의[br]3개 영역 힘을 합쳐 0:06:47.640,0:06:51.416 신기술이 야기하는 문제를[br]해결하기 위해 나섰죠. 0:06:51.440,0:06:54.680 디지털 사생활 문제도[br]똑같이 해결할 수 있습니다. 0:06:55.160,0:06:57.920 물론 "합의"라는 것으로[br]돌아가서 말이죠. 0:06:58.360,0:06:59.576 이런 방법이 있어요. 0:06:59.600,0:07:03.416 누군가 여러분 개인 정보를[br]퍼트리기 전에 0:07:03.440,0:07:05.680 여러분의 허락이 있어야 하는 거예요. 0:07:06.240,0:07:11.056 적극적 합의란 개념은 모든 성행위에는[br]합의가 있어야 한다고 주장하는 0:07:11.080,0:07:14.856 성폭행 반대운동가들에게서[br]파생된 거예요. 0:07:14.880,0:07:19.456 여타 많은 분야에서도 합의에 대한[br]기준이 상당히 높아요. 0:07:19.480,0:07:21.336 외과수술을 예를 들어보죠. 0:07:21.360,0:07:23.196 주치의는 의료 행위를 하기 전 0:07:23.196,0:07:27.040 환자가 내용을 알고 동의했다는 걸[br]확실히 해둬야 하죠. 0:07:27.520,0:07:31.216 이건 아이튠즈 약관 동의처럼[br]맨 밑으로 스크롤 내리고 0:07:31.240,0:07:34.896 동의 란에 체크, 체크하는[br]것과는 달라요. 0:07:34.920,0:07:36.640 (웃음) 0:07:37.160,0:07:42.416 합의에 대해 더 고민해보면 더 개선된[br]사생활 보호법을 만들 수 있어요. 0:07:42.440,0:07:45.856 지금은 별로 보호 장치가 많지 않아요. 0:07:45.880,0:07:49.456 전남편이나 전부인이 끔찍한 사람이면 0:07:49.480,0:07:53.696 여러분의 나체사진을[br]포르노 사이트에 올려버릴 수도 있죠. 0:07:53.720,0:07:56.936 이 사진들을 없애려면[br]정말 애를 먹죠. 0:07:56.960,0:07:58.176 많은 주에서 0:07:58.200,0:08:00.020 내 사진을 내가 직접[br]찍는 게 더 나아요. 0:08:00.020,0:08:04.840 그러면 저작권을 주장할 수 있어서요. 0:08:05.320,0:08:07.376 (웃음) 0:08:07.400,0:08:10.376 요즘은 누가 여러분 사생활을 침해하면 0:08:10.400,0:08:14.600 그게 개인이나 기업,[br]혹은 국정원일지라도 0:08:15.280,0:08:18.016 고소할 수 있어요. 0:08:18.040,0:08:20.766 다수의 법원이 디지털 사생활은 0:08:20.766,0:08:24.976 불가능하다고 가정하기 때문에[br]승소하긴 어렵지만요. 0:08:25.000,0:08:28.440 그래서 사생활을 침해해도[br]처벌하진 않으려고 합니다. 0:08:29.200,0:08:32.096 주변에서는 제게 여전히 물어봐요. 0:08:32.120,0:08:36.790 인터넷에 올린 이미지는 디지털이라서[br]사적인건지와 공적인건지의 0:08:36.790,0:08:39.080 구분이 애매해지지 않아요? 0:08:39.600,0:08:40.780 절대! 아닙니다! 0:08:40.780,0:08:44.296 디지털이라고해서[br]공적인 것은 아닙니다. 0:08:44.320,0:08:46.216 전혀 말도 안 되는 말입니다. 0:08:46.240,0:08:49.736 뉴욕대 법학자 헬렌 니센바움은 0:08:49.760,0:08:52.376 우리에겐 사적인 정보면[br]어떤 종류든 보호해주는 0:08:52.400,0:08:55.536 법과 정책, 규범이 있기 때문에 0:08:55.560,0:08:58.976 디지털이든 아니든 달라질 게[br]없다고 말합니다. 0:08:59.000,0:09:01.656 모든 건강 기록도 디지털화 되어있지만 0:09:01.680,0:09:04.816 의사는 그걸 누구와도 공유할 수 없죠. 0:09:04.840,0:09:09.296 여러분의 모든 재무 정보는[br]디지털 데이터베이스에 저장돼 있지만 0:09:09.320,0:09:13.560 카드사는 여러분의 구매기록을[br]공개할 수 없습니다. 0:09:15.080,0:09:20.536 더 좋은 법제는 사생활 침해에[br]사후 대응을 할 수 있겠지만 0:09:20.560,0:09:24.520 저희가 할 수 있는 것 중[br]가장 쉬운 방법 하나는 0:09:24.520,0:09:27.640 타인이 사생활을 지킬 수 있게[br]해주는 거예요. 0:09:28.360,0:09:30.256 항상 사생활 문제는 0:09:30.280,0:09:33.336 완전히 개인 책임이라고 말하죠. 0:09:33.360,0:09:37.616 계속 개인정보를 업데이트하고 검사하고 0:09:37.640,0:09:42.440 온세상에 알리고 싶지 않은 것은[br]절대 공유하지 말라고 합니다. 0:09:43.400,0:09:44.616 말도 안 돼요. 0:09:44.640,0:09:47.616 디지털 미디어는 사회와 같아서 0:09:47.640,0:09:51.920 신뢰하는 사람들과[br]매일 정보를 공유해요. 0:09:52.760,0:09:55.736 프린스턴대 연구원 쟈넷 버테시는 0:09:55.760,0:09:59.776 개인 정보와 사생활은[br]그냥 개인적인 것이 아니라 0:09:59.800,0:10:02.376 실제론 대인적인 것이라고 주장합니다. 0:10:02.400,0:10:05.656 그러니 정말로 쉽게 할 수 있는 일은 0:10:05.680,0:10:10.776 그냥 타인의 정보를 공유하기 전에[br]허락받기 시작하는 거예요. 0:10:10.800,0:10:15.336 누군가의 사진을 인터넷에 올리고[br]싶으시면 허락을 받으세요. 0:10:15.360,0:10:17.816 이메일을 전달하고 싶으시면 0:10:17.840,0:10:19.216 허락을 받으세요. 0:10:19.240,0:10:22.016 누군가의 나체 셀카를 공유하고 싶으면 0:10:22.040,0:10:24.320 물론 허락을 받으세요. 0:10:25.560,0:10:30.016 개개인의 변화가 사생활 보호에[br]많은 도움이 됩니다. 0:10:30.040,0:10:33.840 하지만 기술개발사들도 동참해야 합니다. 0:10:34.360,0:10:38.856 기술개발사들은 사생활 보호를 위해[br]노력할 동기가 없습니다. 0:10:38.880,0:10:42.176 왜냐하면 사업이 성공하려면[br]사람들이 최대한 많은 이들과 0:10:42.200,0:10:44.440 모든 걸 공유해주어야 되니까요. 0:10:45.080,0:10:47.016 제가 여러분께 사진 하나를 보내면 0:10:47.040,0:10:50.136 여러분은 그 사진을[br]누구에게든 보낼 수 있어요. 0:10:50.160,0:10:54.416 하지만 보내도 되는지의[br]결정권이 제게 있게 된다면요? 0:10:54.440,0:10:58.496 그럼 이 이미지를 전송해도 된다고[br]허락하지 않았다는 걸 알 수 있겠죠. 0:10:58.520,0:11:02.656 저작권을 보호하기 위해선[br]항상 이런 일들을 하죠. 0:11:02.680,0:11:07.456 전자책을 구입하면[br]많은 사람들과 공유해서는 안되죠. 0:11:07.480,0:11:10.040 그럼 핸드폰에서도[br]그렇게 하는 건 어떨까요? 0:11:10.960,0:11:15.736 우리는 기술개발사에게[br]이런 보호 장치가 자동으로 0:11:15.760,0:11:19.496 기기와 플랫폼에 적용되게[br]추가해달라고 요구할 수 있어요. 0:11:19.520,0:11:22.936 차량 색깔은 선택할 수 있지만 0:11:22.960,0:11:25.800 애어백은 항상 들어있잖아요. 0:11:28.080,0:11:31.896 디지털 사생활과 합의에 대해[br]더 고민하지 않으면 0:11:31.920,0:11:34.640 심각한 결과를 초래할 거예요. 0:11:35.360,0:11:37.616 오하이오에 사는 10대 아이가 있는데, 0:11:37.640,0:11:40.480 개인정보 보호를 위해[br]제니퍼라고 할게요. 0:11:41.120,0:11:44.696 자신의 나체 사진을[br]고등학교 남친과 공유했죠. 0:11:44.720,0:11:46.240 남친을 믿었거든요. 0:11:47.720,0:11:49.656 불행히도 남자친구는 0:11:49.680,0:11:52.656 제니퍼를 배신하고[br]사진을 학교 전체에 뿌렸어요. 0:11:52.680,0:11:56.200 제니퍼는 너무 당황스럽고[br]수치심을 느꼈지만 0:11:56.800,0:12:00.936 동정받기는커녕 반 친구들로부터[br]괴롭힘을 당했어요. 0:12:00.960,0:12:02.816 걸레고 창녀라고 불렀고 0:12:02.840,0:12:04.800 제니퍼를 비참하게 만들었어요. 0:12:05.360,0:12:09.040 제니퍼는 학교를 빠지기 시작했고[br]성적은 떨어졌어요. 0:12:09.520,0:12:13.320 결국 제니퍼는 자살을 선택했어요. 0:12:14.720,0:12:17.416 그 아이는 잘못한 게 없어요. 0:12:17.440,0:12:19.696 믿을 수 있다고 생각한 사람에게 0:12:19.720,0:12:22.536 단지 나체 사진 하나 보냈을 뿐이에요. 0:12:22.560,0:12:25.176 그런데도 법은 제니퍼에게 0:12:25.200,0:12:29.360 아동 포르노와 동등한[br]끔찍한 범죄를 저질렀다고 합니다. 0:12:29.770,0:12:31.416 우리의 성관념은 0:12:31.440,0:12:34.656 자신의 나체 사진을 찍은 건 0:12:34.680,0:12:37.880 가장 더럽고 추잡한[br]짓이라며 제니퍼를 비난합니다. 0:12:38.400,0:12:42.616 그리고 디지털 매체에서 사생활은[br]불가능하다고 가정하게 되면 0:12:42.640,0:12:48.160 그 남학생의 악행을 면죄하고[br]변명해주는 꼴이 될 뿐이죠. 0:12:49.200,0:12:54.936 사람들은 여전히 사생활 침해[br]피해자에게 이렇게 말합니다. 0:12:54.960,0:12:56.216 "무슨 생각으로 그런 거야? 0:12:56.240,0:12:58.720 그런 사진은 절대 보내지 말았어야지." 0:12:59.640,0:13:03.640 그 대신에 무슨 말을 해야할지[br]고민이라면 이렇게 해보세요. 0:13:04.160,0:13:07.680 여러분 친구가 스키 타다가[br]다리가 부러졌다고 상상해보세요. 0:13:08.240,0:13:12.816 재미로 위험한 짓을 하다가[br]끝이 좋지 않았어요 0:13:12.840,0:13:15.376 하지만 거기다 대고[br]멍청이처럼 이렇게 말하진 않겠죠. 0:13:15.400,0:13:17.840 "그러니까 스키를 타지 말았어야지." 0:13:20.080,0:13:22.216 합의에 대해 좀 더 생각해본다면 0:13:22.240,0:13:25.496 사생활 침해 피해자는 0:13:25.520,0:13:28.856 범죄자의 낙인이나 수치심,[br]괴롭힘, 처벌이 아니라 0:13:28.856,0:13:31.880 우리의 연민을 받아야한다는 걸[br]알 수 있을 거예요. 0:13:32.440,0:13:36.936 우리는 법적, 개인적,[br]기술적 변화를 통해 0:13:36.960,0:13:41.280 피해자들을 지지하고[br]사생활 침해를 예방할 수 있어요. 0:13:41.840,0:13:47.656 섹스팅이 문제가 아니라[br]디지털 사생활이 문제이니까요. 0:13:47.680,0:13:50.040 유일한 해결책은 합의예요. 0:13:50.680,0:13:55.256 다음번에 사생활 침해 피해자가[br]여러분에게 오거든 0:13:55.280,0:13:58.016 피해자 탓을 하는 대신[br]이렇게 해보세요. 0:13:58.040,0:14:01.456 디지털 사생활에 대한 생각을 바꾸고 0:14:01.480,0:14:04.120 동정심을 가지고 대해 주세요. 0:14:04.680,0:14:05.896 감사합니다. 0:14:05.920,0:14:12.056 (박수)