Return to Video

IT 기업들이 당신의 아이에 대해 알고 있는 것들

  • 0:01 - 0:03
    매일, 매주
  • 0:03 - 0:05
    우리는 이용약관에 동의합니다.
  • 0:05 - 0:07
    우리는 이 행위를 함으로써
  • 0:07 - 0:09
    기업에게 법적 권한을 부여하게 됩니다.
  • 0:09 - 0:13
    우리 정보를 맘대로 사용할 권한이죠.
  • 0:13 - 0:15
    우리 아이들의 정보도 포함해서요.
  • 0:17 - 0:20
    그럼 우리는 이런 생각을 하게 되죠.
  • 0:20 - 0:23
    나는 아이들에 대한 정보를
    얼마만큼이나 제공하고 있으며
  • 0:23 - 0:25
    그로 인한 결과는 무엇일까?
  • 0:26 - 0:28
    저는 인류학자이자
  • 0:28 - 0:31
    동시에 두 여자아이의 엄마입니다.
  • 0:31 - 0:35
    제가 이 질문에 관해 관심을 두기
    시작한 건 2015년 즈음이었습니다.
  • 0:35 - 0:38
    그 정보의 양이 엄청나다는 걸
    불현듯 깨달았거든요.
  • 0:38 - 0:42
    상상하기 힘들 정도로 많은
    정보 추적을 통해서
  • 0:42 - 0:44
    아이들에 대한 정보가
    수집되고 있었습니다.
  • 0:45 - 0:49
    그래서 저는 '아동 정보 시민'이라는
    연구 프로젝트를 시작하였고
  • 0:49 - 0:51
    이 문제를 풀고자 했습니다.
  • 0:53 - 0:55
    제가 이 자리에 선 이유가
  • 0:55 - 0:58
    SNS에 아이 사진을 올리는 걸
    비난하기 위한 거라고 생각하실 텐데요.
  • 0:58 - 1:01
    하지만 문제는 그게 아닙니다.
  • 1:01 - 1:04
    소위 말하는 '육아 블로그' 보다
    훨씬 더 큰 문제입니다.
  • 1:05 - 1:09
    문제는 개인이 아니라
    시스템에 관한 거예요.
  • 1:09 - 1:12
    비난받아야 할 것은 여러분과
    여러분의 습관이 아닙니다.
  • 1:13 - 1:16
    역사상 처음으로
  • 1:16 - 1:18
    아이들의 개인 정보가
    추적되고 있습니다.
  • 1:18 - 1:20
    아이가 태어나기도 전부터요.
  • 1:20 - 1:23
    어떨 땐 임신을 한 순간부터
  • 1:23 - 1:25
    그 아이들의 생애에 걸쳐서요.
  • 1:25 - 1:28
    부모들은 임신을 결정한 순간부터
  • 1:28 - 1:31
    인터넷에 임신하는 법을 검색하거나
  • 1:31 - 1:34
    배란기를 알려주는 앱을 내려받습니다.
  • 1:35 - 1:38
    그리고 실제로 임신했을 땐
  • 1:38 - 1:41
    아이의 초음파 사진을 SNS에 올리고
  • 1:41 - 1:43
    임신 관련 앱을 내려받거나
  • 1:43 - 1:47
    구글에 이런저런 증상들을 검색하죠.
  • 1:47 - 1:48
    예를 들면
  • 1:48 - 1:51
    비행기 여행 시의 유산 가능성이나
  • 1:51 - 1:54
    혹은 임신 초기 복통 같은 것이죠.
  • 1:54 - 1:57
    저도 많이 해봤기 때문에 잘 압니다.
  • 1:58 - 2:00
    그리고 아이가 태어나면
  • 2:00 - 2:04
    아이의 모든 낮잠과 식사,
    아이의 일거수일투족을
  • 2:04 - 2:06
    온갖 기술로 추적합니다.
  • 2:06 - 2:08
    그리고 이 기술들은
  • 2:08 - 2:14
    아이의 가장 사적인 행동과 건강 정보를
    다른 사람들에게 제공함으로써
  • 2:14 - 2:16
    이익을 창출합니다.
  • 2:17 - 2:19
    이게 어떻게 일어나는지 알려드릴게요.
  • 2:19 - 2:23
    2019년, 영국 의학 학술지가
    발표한 자료에서는
  • 2:23 - 2:28
    24개의 모바일 건강 앱을 조사한 결과
  • 2:28 - 2:31
    19개가 제3자에게
    정보를 제공했다고 밝혔습니다.
  • 2:32 - 2:38
    그 제3자들은 다시 216개의
    다른 업체에 정보를 제공했죠.
  • 2:39 - 2:42
    그런데 216개의 제4자 기관들 중에서
  • 2:42 - 2:45
    오직 3개의 기관만이
    건강과 관련된 곳이었습니다.
  • 2:46 - 2:50
    그 정보를 가져간 기업에는
    대형 IT 기업인
  • 2:50 - 2:54
    구글, 페이스북 그리고 오라클이
    포함되어 있었습니다.
  • 2:54 - 2:56
    디지털 광고 회사들도 있었고
  • 2:56 - 3:00
    심지어 소비자 신용 평가 기관도
    있었습니다.
  • 3:01 - 3:03
    그러니까 여러분 생각이 맞아요.
  • 3:03 - 3:08
    광고 회사와 신용평가사는 이미
    아이들의 정보를 갖고 있을 것입니다.
  • 3:09 - 3:12
    모바일 앱, 검색 사이트, SNS는
  • 3:12 - 3:15
    그저 빙산의 일각일 뿐이죠.
  • 3:15 - 3:18
    왜냐하면 아이들은 매일같이
    다수의 기술에 의해
  • 3:18 - 3:20
    추적당하고 있기 때문입니다.
  • 3:20 - 3:24
    아이들은 집에서 사용하는 기술과
    가상의 도우미들에 의해 추적당합니다.
  • 3:24 - 3:28
    학교의 교육 기반과 교육 기술로도
    추적을 당하고 있어요.
  • 3:28 - 3:33
    병원의 온라인상 기록과
    병원 포털로도 추적당합니다.
  • 3:33 - 3:35
    인터넷과 연결된 장난감과
  • 3:35 - 3:36
    온라인 게임 외에도
  • 3:36 - 3:39
    정말 정말 많은 기술로 추적 당합니다.
  • 3:40 - 3:44
    제가 연구하는 동안
    부모님의 반응들은 대개 이랬어요.
  • 3:44 - 3:46
    "그래서 뭐 어쩌라고요?
  • 3:46 - 3:49
    우리 아이들이 추적당하는 게
    왜 그리 문제가 되는 건가요?
  • 3:50 - 3:51
    별로 숨길 것도 없어요."
  • 3:53 - 3:54
    음, 문제가 됩니다.
  • 3:55 - 4:01
    왜냐하면 오늘날의 개개인은
    그저 추적만 당하는 것이 아니라
  • 4:01 - 4:05
    추적당한 정보에 기초하여
    분석되고 있기 때문입니다.
  • 4:05 - 4:09
    인공지능과 예측 분석을 이용해서
  • 4:09 - 4:13
    개인의 일생에 관한 정보를
    최대한 끌어 모으고 있죠.
  • 4:13 - 4:15
    온갖 경로를 통해서요.
  • 4:15 - 4:19
    가족 이력, 소비 습관,
    그리고 SNS 댓글들.
  • 4:19 - 4:21
    기업들은 이 정보들을 모아
  • 4:21 - 4:24
    그 정보에 기반하여 개인을 판단합니다.
  • 4:25 - 4:28
    이 기술들은 우리의 일상
    모든 곳에서 사용되고 있습니다.
  • 4:28 - 4:31
    은행이 대출액을 결정할 때 사용하고
  • 4:31 - 4:33
    보험회사에서는 보험료 결정에 사용하죠.
  • 4:34 - 4:37
    고용주들은 그걸 이용해서
  • 4:37 - 4:40
    입사 지원자가 일에 적합한
    사람인지 판단합니다.
  • 4:41 - 4:44
    또한 경찰과 법원에서는 이를 이용해서
  • 4:44 - 4:47
    이 사람이 잠재적인 범죄자인지
  • 4:47 - 4:50
    혹은 또다시 범행을 저지를지 판단하죠.
  • 4:52 - 4:55
    우리는 이에 대한 어떠한 지식도 없고
  • 4:55 - 4:58
    그런 기업에 대한 통제력도 없습니다.
  • 4:58 - 5:03
    우리와 아이들에 대한 정보가 거래되고
    사용되는 과정을 막을 수 없습니다.
  • 5:04 - 5:08
    하지만 이 정보들은 우리 권리에
    큰 영향을 끼칩니다.
  • 5:09 - 5:11
    예를 들어 볼게요.
  • 5:14 - 5:18
    2018년 뉴욕타임스에 실린
    기사가 있는데요.
  • 5:18 - 5:23
    대입 정보 온라인 서비스로
    이용자 정보가 수집되었고
  • 5:23 - 5:28
    미국 전역의 그야말로
    수만 명의 고등학생들의
  • 5:28 - 5:32
    대학 교육 프로그램 또는
    장학금을 조회한 정보들이
  • 5:32 - 5:34
    교육 자료 중개인에게
    팔렸다는 내용이었습니다.
  • 5:36 - 5:41
    교육 자료 중개인에 대해 연구하던
    포드햄대학교의 연구원들은
  • 5:41 - 5:46
    이들 기업은 적게는 두 살 아이들
    정보까지도 수집했다고 밝혔습니다.
  • 5:46 - 5:50
    여러 항목으로 분류까지 해서 말이죠.
  • 5:50 - 5:54
    민족성, 종교, 소득수준
  • 5:54 - 5:56
    사교성
  • 5:56 - 5:59
    그 외에도 다양한 항목으로 구분해서요.
  • 5:59 - 6:02
    그리고 그들은 그 분석 자료들을
  • 6:02 - 6:07
    아이의 이름, 집 주소, 연락처 등의
    세부 정보와 묶어서
  • 6:07 - 6:09
    다른 기업들에 팔았습니다.
  • 6:09 - 6:11
    직업 및 경력 관리 기관을 포함해서
  • 6:12 - 6:13
    학자금 대출 기관
  • 6:13 - 6:16
    학생 신용카드 회사에 팔렸죠.
  • 6:17 - 6:18
    연구 범위를 넓히기 위해
  • 6:18 - 6:24
    포드햄대학교의 연구원들은
    한 교육 자료 중개인에게 연락해서
  • 6:24 - 6:28
    14살에서 15살 여자아이들 중에서
  • 6:28 - 6:31
    가족 계획 서비스에 관심 있는
    아이들 명단을 부탁했습니다.
  • 6:32 - 6:35
    그 중개인은 명단을
    줄 수 있다고 했죠.
  • 6:35 - 6:40
    이것이 우리 아이들의 사생활을
    얼마나 침해하는 일인지 생각해보세요.
  • 6:41 - 6:45
    하지만 교육 자료 중개인들은
    그저 단 하나의 예시일 뿐입니다.
  • 6:45 - 6:50
    문제는 우리가 통제할 수 없는 방식으로
    아이들에 대한 정보가 분석되고 있고
  • 6:50 - 6:53
    아이들이 살면서 얻게 될 기회에
    그것이 큰 영향을 끼친다는 것이죠.
  • 6:54 - 6:58
    따라서 우리는 스스로에게
    질문해야만 합니다.
  • 6:58 - 7:02
    우리 아이들을 분석하는 문제에 있어서
    우리는 이 기술들을 믿어도 되는가?
  • 7:02 - 7:04
    정말 그래도 되는 걸까?
  • 7:06 - 7:07
    저의 대답은 '아니오' 입니다.
  • 7:08 - 7:10
    인류학자로서 저는
  • 7:10 - 7:13
    인공지능과 예측 분석이
    큰 도움이 될 거라고 믿습니다.
  • 7:13 - 7:15
    병의 진행을 예측하고
  • 7:15 - 7:17
    기후 변화에 대비하는 문제에 있어서요.
  • 7:18 - 7:23
    그러나 이러한 기술들이 객관적으로
    인간을 분석할 거라 믿어선 안 됩니다.
  • 7:23 - 7:28
    그것으로 개인의 삶을 판단할 수
    있다는 생각은 버려야 합니다.
  • 7:28 - 7:31
    왜냐하면 이것들은 인간을
    분석할 수 없기 때문입니다.
  • 7:31 - 7:34
    정보의 흔적들은 우리가 누구인지를
    보여주는 거울이 아닙니다.
  • 7:34 - 7:39
    인간은 생각과 다른 말을 하고
    느끼는 감정과 달리 행동합니다.
  • 7:39 - 7:42
    알고리즘 예측 혹은 디지털 관행은
  • 7:42 - 7:47
    사람의 경험에 존재하는 비예측성과
    복잡성까지 파악할 수 없어요.
  • 7:48 - 7:50
    그뿐만 아니라
  • 7:50 - 7:53
    이러한 기술들은 언제나
  • 7:53 - 7:54
    언제나
  • 7:54 - 7:56
    어떤 식으로든
    편향되어 있다는 것입니다.
  • 7:57 - 8:00
    자, 알고리즘은 의미 자체가
  • 8:00 - 8:05
    특정한 결과를 달성하기 위해 설계된
    규칙 혹은 단계의 집합입니다.
  • 8:05 - 8:06
    그렇죠?
  • 8:07 - 8:10
    하지만 이 규칙 혹은 단계의 집합은
    객관적일 수가 없습니다.
  • 8:10 - 8:11
    왜냐하면 이것은 인간이 설계했고
  • 8:11 - 8:16
    그도 특정한 문화적 맥락 안에서
    특정한 문화적 가치를 갖기 때문입니다.
  • 8:17 - 8:18
    따라서 기계들이 정보를 습득할 때
  • 8:18 - 8:21
    편향된 알고리즘에서 습득하게 되고
  • 8:22 - 8:25
    이로 인해 기계는 종종 편향된 자료의
    정보를 습득하게 되는 것입니다.
  • 8:26 - 8:30
    바로 이 순간, 우린 편향된 알고리즘의
    첫 번째 사례를 보고 있는 겁니다.
  • 8:30 - 8:33
    이 사례 중 몇 가지는
    솔직히 굉장히 무섭습니다.
  • 8:34 - 8:39
    올해, 뉴욕의 AI Now가 발표한
    보고서에 따르면
  • 8:39 - 8:44
    예측 치안 유지 활동에 사용된
    인공지능 기술이
  • 8:44 - 8:48
    '더러운' 정보로 훈련되었다고 합니다.
  • 8:48 - 8:51
    이 정보들이 수집된 시기는
  • 8:51 - 8:56
    역사적으로 인종 편견이 심하고
  • 8:56 - 8:58
    불투명한 경찰 관행이
    난무하던 때였습니다.
  • 8:59 - 9:03
    이러한 기술들은 더러운 정보들로
    훈련된 것이기 때문에
  • 9:03 - 9:04
    객관적이지 않습니다.
  • 9:04 - 9:06
    이러한 정보로는
  • 9:06 - 9:10
    경찰에게 있어서 편견과 오류를
    증폭시킬 뿐입니다.
  • 9:13 - 9:15
    저는 현재 우리가
  • 9:15 - 9:18
    우리 사회의 근본적인 문제에
    직면하고 있다고 생각합니다.
  • 9:18 - 9:23
    우리는 사람을 분석할 때
    기술을 믿기 시작했습니다.
  • 9:24 - 9:25
    하지만 우리도 알죠.
  • 9:25 - 9:29
    사람을 분석함에 있어서
    이런 기술들은 늘 편향되어 있고
  • 9:29 - 9:32
    절대로 정확할 수 없다는 것을요.
  • 9:32 - 9:35
    따라서 지금 정말로 필요한 건
    정치적 해결책입니다.
  • 9:35 - 9:37
    정부도 이제 깨달아아야 합니다.
  • 9:37 - 9:40
    정보에 대한 우리의 권리가 곧
    인권이라는 사실을요.
  • 9:40 - 9:44
    (박수와 환호)
  • 9:48 - 9:50
    이것이 실현되기 전까지는
  • 9:50 - 9:53
    우리는 더 정당한 미래를
    꿈꿀 수 없습니다.
  • 9:53 - 9:59
    저는 제 딸들이 알고리즘에 의한
    차별과 오류에 노출될까봐 걱정됩니다.
  • 9:59 - 10:01
    저와 제 딸들의 차이점은
  • 10:01 - 10:05
    제 청소년기에 대한 공식적인 기록은
    어디에도 남아있지 않다는 거죠.
  • 10:05 - 10:09
    제가 십 대 시절 저지른 또는
    저지를 뻔 한 온갖 바보 같은 일이
  • 10:09 - 10:11
    자료로 남아있진 않습니다.
  • 10:11 - 10:13
    (웃음)
  • 10:14 - 10:17
    하지만 제 딸들의 경우
    상황이 조금 다를 수 있습니다.
  • 10:17 - 10:20
    현재 제 딸들로부터
    수집되고 있는 정보들은
  • 10:20 - 10:24
    미래에 그들을 판단하는 데
    쓰일 수 있고
  • 10:24 - 10:27
    그들의 희망과 꿈을
    가로막을 수도 있습니다.
  • 10:29 - 10:30
    이제 때가 온 것 같습니다.
  • 10:30 - 10:32
    이젠 앞으로 나아갈 때입니다.
  • 10:32 - 10:34
    우리는 함께 노력해야 합니다.
  • 10:34 - 10:36
    개인으로서
  • 10:36 - 10:38
    조직으로서 그리고 기관으로서
  • 10:38 - 10:41
    더욱 나은 개인 정보의 정당성을
    요구해야 합니다.
  • 10:41 - 10:43
    우리와 우리 아이들을 위해서요.
  • 10:43 - 10:44
    더 늦기 전에요.
  • 10:44 - 10:45
    감사합니다.
  • 10:45 - 10:47
    (박수)
Title:
IT 기업들이 당신의 아이에 대해 알고 있는 것들
Speaker:
베로니카 바라씨(Veronica Barassi)
Description:

인류학자인 베로니카 바라씨는 여러분과 여러분의 가족이 매일 사용하는 디지털 플랫폼, 온라인 게임부터 교육 앱과 의료 포탈들이 여러분의 아이들에 대한 정보를 수집해서 팔고 있을지 모른다고 말합니다. 바라씨는 자신의 놀라운 연구를 소개하면서, 부모들에게 디지털 이용약관에 동의를 누르기 전에 두 번 확인하고, 아이들의 정보가 아이들의 미래를 망치지 않도록 보호받을 것을 요구하도록 권고하고 있습니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:01

Korean subtitles

Revisions Compare revisions