WEBVTT 00:00:00.792 --> 00:00:03.059 매일, 매주 00:00:03.083 --> 00:00:05.268 우리는 이용약관에 동의합니다. 00:00:05.292 --> 00:00:06.768 우리는 이 행위를 함으로써 00:00:06.792 --> 00:00:09.268 기업에게 법적 권한을 부여하게 됩니다. 00:00:09.292 --> 00:00:12.976 우리 정보를 맘대로 사용할 권한이죠. 00:00:13.000 --> 00:00:15.375 우리 아이들의 정보도 포함해서요. 00:00:16.792 --> 00:00:19.768 그럼 우리는 이런 생각을 하게 되죠. 00:00:19.792 --> 00:00:22.684 나는 아이들에 대한 정보를 얼마만큼이나 제공하고 있으며 00:00:22.708 --> 00:00:24.708 그로 인한 결과는 무엇일까? NOTE Paragraph 00:00:26.500 --> 00:00:27.893 저는 인류학자이자 00:00:27.917 --> 00:00:30.518 동시에 두 여자아이의 엄마입니다. 00:00:30.542 --> 00:00:35.018 제가 이 질문에 관해 관심을 두기 시작한 건 2015년 즈음이었습니다. 00:00:35.042 --> 00:00:37.768 그 정보의 양이 엄청나다는 걸 불현듯 깨달았거든요. 00:00:37.792 --> 00:00:42.310 상상하기 힘들 정도로 많은 정보 추적을 통해서 00:00:42.310 --> 00:00:44.220 아이들에 대한 정보가 수집되고 있었습니다. 00:00:44.792 --> 00:00:49.278 그래서 저는 '아동 정보 시민'이라는 연구 프로젝트를 시작하였고 00:00:49.292 --> 00:00:51.417 이 문제를 풀고자 했습니다. NOTE Paragraph 00:00:52.583 --> 00:00:54.681 제가 이 자리에 선 이유가 00:00:54.681 --> 00:00:58.393 SNS에 아이 사진을 올리는 걸 비난하기 위한 거라고 생각하실 텐데요. 00:00:58.417 --> 00:01:00.559 하지만 문제는 그게 아닙니다. 00:01:00.583 --> 00:01:04.140 소위 말하는 '육아 블로그' 보다 훨씬 더 큰 문제입니다. 00:01:04.792 --> 00:01:08.893 문제는 개인이 아니라 시스템에 관한 거예요. 00:01:08.917 --> 00:01:12.238 비난받아야 할 것은 여러분과 여러분의 습관이 아닙니다. NOTE Paragraph 00:01:12.833 --> 00:01:15.684 역사상 처음으로 00:01:15.708 --> 00:01:18.268 아이들의 개인 정보가 추적되고 있습니다. 00:01:18.292 --> 00:01:20.059 아이가 태어나기도 전부터요. 00:01:20.083 --> 00:01:22.768 어떨 땐 임신을 한 순간부터 00:01:22.792 --> 00:01:25.143 그 아이들의 생애에 걸쳐서요. 00:01:25.167 --> 00:01:28.268 부모들은 임신을 결정한 순간부터 00:01:28.292 --> 00:01:31.268 인터넷에 임신하는 법을 검색하거나 00:01:31.292 --> 00:01:34.042 배란기를 알려주는 앱을 내려받습니다. 00:01:35.250 --> 00:01:37.851 그리고 실제로 임신했을 땐 00:01:37.875 --> 00:01:41.018 아이의 초음파 사진을 SNS에 올리고 00:01:41.042 --> 00:01:43.059 임신 관련 앱을 내려받거나 00:01:43.083 --> 00:01:46.809 구글에 이런저런 증상들을 검색하죠. 00:01:46.833 --> 00:01:48.351 예를 들면 00:01:48.375 --> 00:01:50.934 비행기 여행 시의 유산 가능성이나 00:01:50.958 --> 00:01:53.726 혹은 임신 초기 복통 같은 것이죠. 00:01:53.750 --> 00:01:57.231 저도 많이 해봤기 때문에 잘 압니다. NOTE Paragraph 00:01:58.458 --> 00:02:00.278 그리고 아이가 태어나면 00:02:00.278 --> 00:02:03.919 아이의 모든 낮잠과 식사, 아이의 일거수일투족을 00:02:03.919 --> 00:02:05.927 온갖 기술로 추적합니다. 00:02:06.083 --> 00:02:07.559 그리고 이 기술들은 00:02:07.583 --> 00:02:13.726 아이의 가장 사적인 행동과 건강 정보를 다른 사람들에게 제공함으로써 00:02:13.750 --> 00:02:15.542 이익을 창출합니다. NOTE Paragraph 00:02:16.583 --> 00:02:18.726 이게 어떻게 일어나는지 알려드릴게요. 00:02:18.750 --> 00:02:23.364 2019년, 영국 의학 학술지가 발표한 자료에서는 00:02:23.364 --> 00:02:27.601 24개의 모바일 건강 앱을 조사한 결과 00:02:27.625 --> 00:02:31.083 19개가 제3자에게 정보를 제공했다고 밝혔습니다. 00:02:32.083 --> 00:02:37.917 그 제3자들은 다시 216개의 다른 업체에 정보를 제공했죠. 00:02:38.875 --> 00:02:42.309 그런데 216개의 제4자 기관들 중에서 00:02:42.333 --> 00:02:45.476 오직 3개의 기관만이 건강과 관련된 곳이었습니다. 00:02:45.500 --> 00:02:50.018 그 정보를 가져간 기업에는 대형 IT 기업인 00:02:50.042 --> 00:02:53.559 구글, 페이스북 그리고 오라클이 포함되어 있었습니다. 00:02:53.583 --> 00:02:56.184 디지털 광고 회사들도 있었고 00:02:56.208 --> 00:03:00.333 심지어 소비자 신용 평가 기관도 있었습니다. 00:03:01.125 --> 00:03:02.559 그러니까 여러분 생각이 맞아요. 00:03:02.583 --> 00:03:07.708 광고 회사와 신용평가사는 이미 아이들의 정보를 갖고 있을 것입니다. 00:03:09.125 --> 00:03:12.450 모바일 앱, 검색 사이트, SNS는 00:03:12.450 --> 00:03:15.018 그저 빙산의 일각일 뿐이죠. 00:03:15.042 --> 00:03:17.893 왜냐하면 아이들은 매일같이 다수의 기술에 의해 00:03:17.917 --> 00:03:19.643 추적당하고 있기 때문입니다. 00:03:19.667 --> 00:03:23.809 아이들은 집에서 사용하는 기술과 가상의 도우미들에 의해 추적당합니다. 00:03:23.833 --> 00:03:28.042 학교의 교육 기반과 교육 기술로도 추적을 당하고 있어요. 00:03:28.042 --> 00:03:32.673 병원의 온라인상 기록과 병원 포털로도 추적당합니다. 00:03:32.708 --> 00:03:35.059 인터넷과 연결된 장난감과 00:03:35.083 --> 00:03:36.393 온라인 게임 외에도 00:03:36.417 --> 00:03:39.083 정말 정말 많은 기술로 추적 당합니다. NOTE Paragraph 00:03:40.250 --> 00:03:44.383 제가 연구하는 동안 부모님의 반응들은 대개 이랬어요. 00:03:44.408 --> 00:03:46.059 "그래서 뭐 어쩌라고요? 00:03:46.083 --> 00:03:49.000 우리 아이들이 추적당하는 게 왜 그리 문제가 되는 건가요? 00:03:50.042 --> 00:03:51.375 별로 숨길 것도 없어요." 00:03:52.958 --> 00:03:54.458 음, 문제가 됩니다. 00:03:55.083 --> 00:04:01.101 왜냐하면 오늘날의 개개인은 그저 추적만 당하는 것이 아니라 00:04:01.125 --> 00:04:05.226 추적당한 정보에 기초하여 분석되고 있기 때문입니다. 00:04:05.250 --> 00:04:09.179 인공지능과 예측 분석을 이용해서 00:04:09.179 --> 00:04:12.726 개인의 일생에 관한 정보를 최대한 끌어 모으고 있죠. 00:04:12.750 --> 00:04:14.601 온갖 경로를 통해서요. 00:04:14.625 --> 00:04:19.143 가족 이력, 소비 습관, 그리고 SNS 댓글들. 00:04:19.167 --> 00:04:21.018 기업들은 이 정보들을 모아 00:04:21.042 --> 00:04:24.322 그 정보에 기반하여 개인을 판단합니다. 00:04:24.792 --> 00:04:28.226 이 기술들은 우리의 일상 모든 곳에서 사용되고 있습니다. 00:04:28.250 --> 00:04:30.643 은행이 대출액을 결정할 때 사용하고 00:04:30.667 --> 00:04:33.042 보험회사에서는 보험료 결정에 사용하죠. 00:04:34.208 --> 00:04:36.888 고용주들은 그걸 이용해서 00:04:36.888 --> 00:04:39.625 입사 지원자가 일에 적합한 사람인지 판단합니다. 00:04:40.750 --> 00:04:44.175 또한 경찰과 법원에서는 이를 이용해서 00:04:44.175 --> 00:04:47.393 이 사람이 잠재적인 범죄자인지 00:04:47.417 --> 00:04:50.042 혹은 또다시 범행을 저지를지 판단하죠. NOTE Paragraph 00:04:52.458 --> 00:04:55.416 우리는 이에 대한 어떠한 지식도 없고 00:04:55.416 --> 00:04:58.229 그런 기업에 대한 통제력도 없습니다. 00:04:58.229 --> 00:05:02.927 우리와 아이들에 대한 정보가 거래되고 사용되는 과정을 막을 수 없습니다. 00:05:03.625 --> 00:05:07.667 하지만 이 정보들은 우리 권리에 큰 영향을 끼칩니다. NOTE Paragraph 00:05:08.917 --> 00:05:11.125 예를 들어 볼게요. 00:05:13.792 --> 00:05:17.922 2018년 뉴욕타임스에 실린 기사가 있는데요. 00:05:17.922 --> 00:05:23.218 대입 정보 온라인 서비스로 이용자 정보가 수집되었고 00:05:23.218 --> 00:05:27.878 미국 전역의 그야말로 수만 명의 고등학생들의 00:05:27.878 --> 00:05:31.585 대학 교육 프로그램 또는 장학금을 조회한 정보들이 00:05:31.585 --> 00:05:34.417 교육 자료 중개인에게 팔렸다는 내용이었습니다. 00:05:35.792 --> 00:05:41.226 교육 자료 중개인에 대해 연구하던 포드햄대학교의 연구원들은 00:05:41.226 --> 00:05:46.476 이들 기업은 적게는 두 살 아이들 정보까지도 수집했다고 밝혔습니다. 00:05:46.500 --> 00:05:49.559 여러 항목으로 분류까지 해서 말이죠. 00:05:49.583 --> 00:05:53.768 민족성, 종교, 소득수준 00:05:53.792 --> 00:05:55.851 사교성 00:05:55.875 --> 00:05:58.809 그 외에도 다양한 항목으로 구분해서요. 00:05:58.833 --> 00:06:01.541 그리고 그들은 그 분석 자료들을 00:06:01.541 --> 00:06:06.684 아이의 이름, 집 주소, 연락처 등의 세부 정보와 묶어서 00:06:06.708 --> 00:06:08.559 다른 기업들에 팔았습니다. 00:06:08.583 --> 00:06:11.042 직업 및 경력 관리 기관을 포함해서 00:06:12.083 --> 00:06:13.351 학자금 대출 기관 00:06:13.375 --> 00:06:15.525 학생 신용카드 회사에 팔렸죠. 00:06:16.542 --> 00:06:17.893 연구 범위를 넓히기 위해 00:06:17.917 --> 00:06:23.556 포드햄대학교의 연구원들은 한 교육 자료 중개인에게 연락해서 00:06:23.556 --> 00:06:27.559 14살에서 15살 여자아이들 중에서 00:06:27.583 --> 00:06:30.958 가족 계획 서비스에 관심 있는 아이들 명단을 부탁했습니다. 00:06:32.208 --> 00:06:34.684 그 중개인은 명단을 줄 수 있다고 했죠. 00:06:34.708 --> 00:06:39.583 이것이 우리 아이들의 사생활을 얼마나 침해하는 일인지 생각해보세요. 00:06:40.833 --> 00:06:44.809 하지만 교육 자료 중개인들은 그저 단 하나의 예시일 뿐입니다. 00:06:44.833 --> 00:06:49.518 문제는 우리가 통제할 수 없는 방식으로 아이들에 대한 정보가 분석되고 있고 00:06:49.542 --> 00:06:53.075 아이들이 살면서 얻게 될 기회에 그것이 큰 영향을 끼친다는 것이죠. NOTE Paragraph 00:06:54.167 --> 00:06:57.643 따라서 우리는 스스로에게 질문해야만 합니다. 00:06:57.667 --> 00:07:02.351 우리 아이들을 분석하는 문제에 있어서 우리는 이 기술들을 믿어도 되는가? 00:07:02.375 --> 00:07:03.625 정말 그래도 되는 걸까? 00:07:05.708 --> 00:07:06.958 저의 대답은 '아니오' 입니다. 00:07:07.792 --> 00:07:09.656 인류학자로서 저는 00:07:09.656 --> 00:07:12.851 인공지능과 예측 분석이 큰 도움이 될 거라고 믿습니다. 00:07:12.875 --> 00:07:14.893 병의 진행을 예측하고 00:07:14.917 --> 00:07:16.750 기후 변화에 대비하는 문제에 있어서요. 00:07:18.000 --> 00:07:23.375 그러나 이러한 기술들이 객관적으로 인간을 분석할 거라 믿어선 안 됩니다. 00:07:23.375 --> 00:07:28.499 그것으로 개인의 삶을 판단할 수 있다는 생각은 버려야 합니다. 00:07:28.500 --> 00:07:31.059 왜냐하면 이것들은 인간을 분석할 수 없기 때문입니다. 00:07:31.083 --> 00:07:34.434 정보의 흔적들은 우리가 누구인지를 보여주는 거울이 아닙니다. 00:07:34.458 --> 00:07:38.959 인간은 생각과 다른 말을 하고 느끼는 감정과 달리 행동합니다. 00:07:39.042 --> 00:07:41.518 알고리즘 예측 혹은 디지털 관행은 00:07:41.542 --> 00:07:46.708 사람의 경험에 존재하는 비예측성과 복잡성까지 파악할 수 없어요. NOTE Paragraph 00:07:48.417 --> 00:07:49.976 그뿐만 아니라 00:07:50.000 --> 00:07:52.684 이러한 기술들은 언제나 00:07:52.708 --> 00:07:53.976 언제나 00:07:54.000 --> 00:07:55.917 어떤 식으로든 편향되어 있다는 것입니다. 00:07:57.125 --> 00:07:59.857 자, 알고리즘은 의미 자체가 00:07:59.857 --> 00:08:05.127 특정한 결과를 달성하기 위해 설계된 규칙 혹은 단계의 집합입니다. 00:08:05.127 --> 00:08:06.208 그렇죠? 00:08:06.833 --> 00:08:09.559 하지만 이 규칙 혹은 단계의 집합은 객관적일 수가 없습니다. 00:08:09.583 --> 00:08:11.464 왜냐하면 이것은 인간이 설계했고 00:08:11.464 --> 00:08:16.036 그도 특정한 문화적 맥락 안에서 특정한 문화적 가치를 갖기 때문입니다. 00:08:16.667 --> 00:08:18.393 따라서 기계들이 정보를 습득할 때 00:08:18.417 --> 00:08:20.667 편향된 알고리즘에서 습득하게 되고 00:08:21.625 --> 00:08:24.833 이로 인해 기계는 종종 편향된 자료의 정보를 습득하게 되는 것입니다. NOTE Paragraph 00:08:25.833 --> 00:08:29.559 바로 이 순간, 우린 편향된 알고리즘의 첫 번째 사례를 보고 있는 겁니다. 00:08:29.583 --> 00:08:33.083 이 사례 중 몇 가지는 솔직히 굉장히 무섭습니다. 00:08:34.500 --> 00:08:38.559 올해, 뉴욕의 AI Now가 발표한 보고서에 따르면 00:08:38.583 --> 00:08:44.466 예측 치안 유지 활동에 사용된 인공지능 기술이 00:08:44.500 --> 00:08:47.625 '더러운' 정보로 훈련되었다고 합니다. 00:08:48.333 --> 00:08:51.453 이 정보들이 수집된 시기는 00:08:51.453 --> 00:08:55.520 역사적으로 인종 편견이 심하고 00:08:55.520 --> 00:08:57.708 불투명한 경찰 관행이 난무하던 때였습니다. 00:08:58.542 --> 00:09:02.601 이러한 기술들은 더러운 정보들로 훈련된 것이기 때문에 00:09:02.625 --> 00:09:04.059 객관적이지 않습니다. 00:09:04.083 --> 00:09:06.228 이러한 정보로는 00:09:06.228 --> 00:09:10.250 경찰에게 있어서 편견과 오류를 증폭시킬 뿐입니다. NOTE Paragraph 00:09:13.167 --> 00:09:14.650 저는 현재 우리가 00:09:14.650 --> 00:09:17.976 우리 사회의 근본적인 문제에 직면하고 있다고 생각합니다. 00:09:18.000 --> 00:09:22.792 우리는 사람을 분석할 때 기술을 믿기 시작했습니다. 00:09:23.750 --> 00:09:25.115 하지만 우리도 알죠. 00:09:25.115 --> 00:09:29.101 사람을 분석함에 있어서 이런 기술들은 늘 편향되어 있고 00:09:29.125 --> 00:09:31.851 절대로 정확할 수 없다는 것을요. 00:09:31.875 --> 00:09:34.809 따라서 지금 정말로 필요한 건 정치적 해결책입니다. 00:09:34.833 --> 00:09:36.672 정부도 이제 깨달아아야 합니다. 00:09:36.672 --> 00:09:39.542 정보에 대한 우리의 권리가 곧 인권이라는 사실을요. NOTE Paragraph 00:09:40.292 --> 00:09:44.375 (박수와 환호) NOTE Paragraph 00:09:47.833 --> 00:09:49.575 이것이 실현되기 전까지는 00:09:49.575 --> 00:09:52.504 우리는 더 정당한 미래를 꿈꿀 수 없습니다. 00:09:52.504 --> 00:09:59.250 저는 제 딸들이 알고리즘에 의한 차별과 오류에 노출될까봐 걱정됩니다. 00:09:59.250 --> 00:10:01.451 저와 제 딸들의 차이점은 00:10:01.451 --> 00:10:04.851 제 청소년기에 대한 공식적인 기록은 어디에도 남아있지 않다는 거죠. 00:10:04.875 --> 00:10:08.893 제가 십 대 시절 저지른 또는 저지를 뻔 한 온갖 바보 같은 일이 00:10:08.917 --> 00:10:11.059 자료로 남아있진 않습니다. NOTE Paragraph 00:10:11.083 --> 00:10:12.583 (웃음) NOTE Paragraph 00:10:13.833 --> 00:10:16.583 하지만 제 딸들의 경우 상황이 조금 다를 수 있습니다. 00:10:17.292 --> 00:10:20.476 현재 제 딸들로부터 수집되고 있는 정보들은 00:10:20.500 --> 00:10:24.309 미래에 그들을 판단하는 데 쓰일 수 있고 00:10:24.333 --> 00:10:27.292 그들의 희망과 꿈을 가로막을 수도 있습니다. NOTE Paragraph 00:10:28.583 --> 00:10:30.101 이제 때가 온 것 같습니다. 00:10:30.125 --> 00:10:31.559 이젠 앞으로 나아갈 때입니다. 00:10:31.583 --> 00:10:34.059 우리는 함께 노력해야 합니다. 00:10:34.083 --> 00:10:35.518 개인으로서 00:10:35.542 --> 00:10:38.059 조직으로서 그리고 기관으로서 00:10:38.083 --> 00:10:41.184 더욱 나은 개인 정보의 정당성을 요구해야 합니다. 00:10:41.208 --> 00:10:42.601 우리와 우리 아이들을 위해서요. 00:10:42.625 --> 00:10:44.143 더 늦기 전에요. NOTE Paragraph 00:10:44.167 --> 00:10:45.434 감사합니다. NOTE Paragraph 00:10:45.458 --> 00:10:46.875 (박수)