IT 기업들이 당신의 아이에 대해 알고 있는 것들
-
0:01 - 0:03매일, 매주
-
0:03 - 0:05우리는 이용약관에 동의합니다.
-
0:05 - 0:07우리는 이 행위를 함으로써
-
0:07 - 0:09기업에게 법적 권한을 부여하게 됩니다.
-
0:09 - 0:13우리 정보를 맘대로 사용할 권한이죠.
-
0:13 - 0:15우리 아이들의 정보도 포함해서요.
-
0:17 - 0:20그럼 우리는 이런 생각을 하게 되죠.
-
0:20 - 0:23나는 아이들에 대한 정보를
얼마만큼이나 제공하고 있으며 -
0:23 - 0:25그로 인한 결과는 무엇일까?
-
0:26 - 0:28저는 인류학자이자
-
0:28 - 0:31동시에 두 여자아이의 엄마입니다.
-
0:31 - 0:35제가 이 질문에 관해 관심을 두기
시작한 건 2015년 즈음이었습니다. -
0:35 - 0:38그 정보의 양이 엄청나다는 걸
불현듯 깨달았거든요. -
0:38 - 0:42상상하기 힘들 정도로 많은
정보 추적을 통해서 -
0:42 - 0:44아이들에 대한 정보가
수집되고 있었습니다. -
0:45 - 0:49그래서 저는 '아동 정보 시민'이라는
연구 프로젝트를 시작하였고 -
0:49 - 0:51이 문제를 풀고자 했습니다.
-
0:53 - 0:55제가 이 자리에 선 이유가
-
0:55 - 0:58SNS에 아이 사진을 올리는 걸
비난하기 위한 거라고 생각하실 텐데요. -
0:58 - 1:01하지만 문제는 그게 아닙니다.
-
1:01 - 1:04소위 말하는 '육아 블로그' 보다
훨씬 더 큰 문제입니다. -
1:05 - 1:09문제는 개인이 아니라
시스템에 관한 거예요. -
1:09 - 1:12비난받아야 할 것은 여러분과
여러분의 습관이 아닙니다. -
1:13 - 1:16역사상 처음으로
-
1:16 - 1:18아이들의 개인 정보가
추적되고 있습니다. -
1:18 - 1:20아이가 태어나기도 전부터요.
-
1:20 - 1:23어떨 땐 임신을 한 순간부터
-
1:23 - 1:25그 아이들의 생애에 걸쳐서요.
-
1:25 - 1:28부모들은 임신을 결정한 순간부터
-
1:28 - 1:31인터넷에 임신하는 법을 검색하거나
-
1:31 - 1:34배란기를 알려주는 앱을 내려받습니다.
-
1:35 - 1:38그리고 실제로 임신했을 땐
-
1:38 - 1:41아이의 초음파 사진을 SNS에 올리고
-
1:41 - 1:43임신 관련 앱을 내려받거나
-
1:43 - 1:47구글에 이런저런 증상들을 검색하죠.
-
1:47 - 1:48예를 들면
-
1:48 - 1:51비행기 여행 시의 유산 가능성이나
-
1:51 - 1:54혹은 임신 초기 복통 같은 것이죠.
-
1:54 - 1:57저도 많이 해봤기 때문에 잘 압니다.
-
1:58 - 2:00그리고 아이가 태어나면
-
2:00 - 2:04아이의 모든 낮잠과 식사,
아이의 일거수일투족을 -
2:04 - 2:06온갖 기술로 추적합니다.
-
2:06 - 2:08그리고 이 기술들은
-
2:08 - 2:14아이의 가장 사적인 행동과 건강 정보를
다른 사람들에게 제공함으로써 -
2:14 - 2:16이익을 창출합니다.
-
2:17 - 2:19이게 어떻게 일어나는지 알려드릴게요.
-
2:19 - 2:232019년, 영국 의학 학술지가
발표한 자료에서는 -
2:23 - 2:2824개의 모바일 건강 앱을 조사한 결과
-
2:28 - 2:3119개가 제3자에게
정보를 제공했다고 밝혔습니다. -
2:32 - 2:38그 제3자들은 다시 216개의
다른 업체에 정보를 제공했죠. -
2:39 - 2:42그런데 216개의 제4자 기관들 중에서
-
2:42 - 2:45오직 3개의 기관만이
건강과 관련된 곳이었습니다. -
2:46 - 2:50그 정보를 가져간 기업에는
대형 IT 기업인 -
2:50 - 2:54구글, 페이스북 그리고 오라클이
포함되어 있었습니다. -
2:54 - 2:56디지털 광고 회사들도 있었고
-
2:56 - 3:00심지어 소비자 신용 평가 기관도
있었습니다. -
3:01 - 3:03그러니까 여러분 생각이 맞아요.
-
3:03 - 3:08광고 회사와 신용평가사는 이미
아이들의 정보를 갖고 있을 것입니다. -
3:09 - 3:12모바일 앱, 검색 사이트, SNS는
-
3:12 - 3:15그저 빙산의 일각일 뿐이죠.
-
3:15 - 3:18왜냐하면 아이들은 매일같이
다수의 기술에 의해 -
3:18 - 3:20추적당하고 있기 때문입니다.
-
3:20 - 3:24아이들은 집에서 사용하는 기술과
가상의 도우미들에 의해 추적당합니다. -
3:24 - 3:28학교의 교육 기반과 교육 기술로도
추적을 당하고 있어요. -
3:28 - 3:33병원의 온라인상 기록과
병원 포털로도 추적당합니다. -
3:33 - 3:35인터넷과 연결된 장난감과
-
3:35 - 3:36온라인 게임 외에도
-
3:36 - 3:39정말 정말 많은 기술로 추적 당합니다.
-
3:40 - 3:44제가 연구하는 동안
부모님의 반응들은 대개 이랬어요. -
3:44 - 3:46"그래서 뭐 어쩌라고요?
-
3:46 - 3:49우리 아이들이 추적당하는 게
왜 그리 문제가 되는 건가요? -
3:50 - 3:51별로 숨길 것도 없어요."
-
3:53 - 3:54음, 문제가 됩니다.
-
3:55 - 4:01왜냐하면 오늘날의 개개인은
그저 추적만 당하는 것이 아니라 -
4:01 - 4:05추적당한 정보에 기초하여
분석되고 있기 때문입니다. -
4:05 - 4:09인공지능과 예측 분석을 이용해서
-
4:09 - 4:13개인의 일생에 관한 정보를
최대한 끌어 모으고 있죠. -
4:13 - 4:15온갖 경로를 통해서요.
-
4:15 - 4:19가족 이력, 소비 습관,
그리고 SNS 댓글들. -
4:19 - 4:21기업들은 이 정보들을 모아
-
4:21 - 4:24그 정보에 기반하여 개인을 판단합니다.
-
4:25 - 4:28이 기술들은 우리의 일상
모든 곳에서 사용되고 있습니다. -
4:28 - 4:31은행이 대출액을 결정할 때 사용하고
-
4:31 - 4:33보험회사에서는 보험료 결정에 사용하죠.
-
4:34 - 4:37고용주들은 그걸 이용해서
-
4:37 - 4:40입사 지원자가 일에 적합한
사람인지 판단합니다. -
4:41 - 4:44또한 경찰과 법원에서는 이를 이용해서
-
4:44 - 4:47이 사람이 잠재적인 범죄자인지
-
4:47 - 4:50혹은 또다시 범행을 저지를지 판단하죠.
-
4:52 - 4:55우리는 이에 대한 어떠한 지식도 없고
-
4:55 - 4:58그런 기업에 대한 통제력도 없습니다.
-
4:58 - 5:03우리와 아이들에 대한 정보가 거래되고
사용되는 과정을 막을 수 없습니다. -
5:04 - 5:08하지만 이 정보들은 우리 권리에
큰 영향을 끼칩니다. -
5:09 - 5:11예를 들어 볼게요.
-
5:14 - 5:182018년 뉴욕타임스에 실린
기사가 있는데요. -
5:18 - 5:23대입 정보 온라인 서비스로
이용자 정보가 수집되었고 -
5:23 - 5:28미국 전역의 그야말로
수만 명의 고등학생들의 -
5:28 - 5:32대학 교육 프로그램 또는
장학금을 조회한 정보들이 -
5:32 - 5:34교육 자료 중개인에게
팔렸다는 내용이었습니다. -
5:36 - 5:41교육 자료 중개인에 대해 연구하던
포드햄대학교의 연구원들은 -
5:41 - 5:46이들 기업은 적게는 두 살 아이들
정보까지도 수집했다고 밝혔습니다. -
5:46 - 5:50여러 항목으로 분류까지 해서 말이죠.
-
5:50 - 5:54민족성, 종교, 소득수준
-
5:54 - 5:56사교성
-
5:56 - 5:59그 외에도 다양한 항목으로 구분해서요.
-
5:59 - 6:02그리고 그들은 그 분석 자료들을
-
6:02 - 6:07아이의 이름, 집 주소, 연락처 등의
세부 정보와 묶어서 -
6:07 - 6:09다른 기업들에 팔았습니다.
-
6:09 - 6:11직업 및 경력 관리 기관을 포함해서
-
6:12 - 6:13학자금 대출 기관
-
6:13 - 6:16학생 신용카드 회사에 팔렸죠.
-
6:17 - 6:18연구 범위를 넓히기 위해
-
6:18 - 6:24포드햄대학교의 연구원들은
한 교육 자료 중개인에게 연락해서 -
6:24 - 6:2814살에서 15살 여자아이들 중에서
-
6:28 - 6:31가족 계획 서비스에 관심 있는
아이들 명단을 부탁했습니다. -
6:32 - 6:35그 중개인은 명단을
줄 수 있다고 했죠. -
6:35 - 6:40이것이 우리 아이들의 사생활을
얼마나 침해하는 일인지 생각해보세요. -
6:41 - 6:45하지만 교육 자료 중개인들은
그저 단 하나의 예시일 뿐입니다. -
6:45 - 6:50문제는 우리가 통제할 수 없는 방식으로
아이들에 대한 정보가 분석되고 있고 -
6:50 - 6:53아이들이 살면서 얻게 될 기회에
그것이 큰 영향을 끼친다는 것이죠. -
6:54 - 6:58따라서 우리는 스스로에게
질문해야만 합니다. -
6:58 - 7:02우리 아이들을 분석하는 문제에 있어서
우리는 이 기술들을 믿어도 되는가? -
7:02 - 7:04정말 그래도 되는 걸까?
-
7:06 - 7:07저의 대답은 '아니오' 입니다.
-
7:08 - 7:10인류학자로서 저는
-
7:10 - 7:13인공지능과 예측 분석이
큰 도움이 될 거라고 믿습니다. -
7:13 - 7:15병의 진행을 예측하고
-
7:15 - 7:17기후 변화에 대비하는 문제에 있어서요.
-
7:18 - 7:23그러나 이러한 기술들이 객관적으로
인간을 분석할 거라 믿어선 안 됩니다. -
7:23 - 7:28그것으로 개인의 삶을 판단할 수
있다는 생각은 버려야 합니다. -
7:28 - 7:31왜냐하면 이것들은 인간을
분석할 수 없기 때문입니다. -
7:31 - 7:34정보의 흔적들은 우리가 누구인지를
보여주는 거울이 아닙니다. -
7:34 - 7:39인간은 생각과 다른 말을 하고
느끼는 감정과 달리 행동합니다. -
7:39 - 7:42알고리즘 예측 혹은 디지털 관행은
-
7:42 - 7:47사람의 경험에 존재하는 비예측성과
복잡성까지 파악할 수 없어요. -
7:48 - 7:50그뿐만 아니라
-
7:50 - 7:53이러한 기술들은 언제나
-
7:53 - 7:54언제나
-
7:54 - 7:56어떤 식으로든
편향되어 있다는 것입니다. -
7:57 - 8:00자, 알고리즘은 의미 자체가
-
8:00 - 8:05특정한 결과를 달성하기 위해 설계된
규칙 혹은 단계의 집합입니다. -
8:05 - 8:06그렇죠?
-
8:07 - 8:10하지만 이 규칙 혹은 단계의 집합은
객관적일 수가 없습니다. -
8:10 - 8:11왜냐하면 이것은 인간이 설계했고
-
8:11 - 8:16그도 특정한 문화적 맥락 안에서
특정한 문화적 가치를 갖기 때문입니다. -
8:17 - 8:18따라서 기계들이 정보를 습득할 때
-
8:18 - 8:21편향된 알고리즘에서 습득하게 되고
-
8:22 - 8:25이로 인해 기계는 종종 편향된 자료의
정보를 습득하게 되는 것입니다. -
8:26 - 8:30바로 이 순간, 우린 편향된 알고리즘의
첫 번째 사례를 보고 있는 겁니다. -
8:30 - 8:33이 사례 중 몇 가지는
솔직히 굉장히 무섭습니다. -
8:34 - 8:39올해, 뉴욕의 AI Now가 발표한
보고서에 따르면 -
8:39 - 8:44예측 치안 유지 활동에 사용된
인공지능 기술이 -
8:44 - 8:48'더러운' 정보로 훈련되었다고 합니다.
-
8:48 - 8:51이 정보들이 수집된 시기는
-
8:51 - 8:56역사적으로 인종 편견이 심하고
-
8:56 - 8:58불투명한 경찰 관행이
난무하던 때였습니다. -
8:59 - 9:03이러한 기술들은 더러운 정보들로
훈련된 것이기 때문에 -
9:03 - 9:04객관적이지 않습니다.
-
9:04 - 9:06이러한 정보로는
-
9:06 - 9:10경찰에게 있어서 편견과 오류를
증폭시킬 뿐입니다. -
9:13 - 9:15저는 현재 우리가
-
9:15 - 9:18우리 사회의 근본적인 문제에
직면하고 있다고 생각합니다. -
9:18 - 9:23우리는 사람을 분석할 때
기술을 믿기 시작했습니다. -
9:24 - 9:25하지만 우리도 알죠.
-
9:25 - 9:29사람을 분석함에 있어서
이런 기술들은 늘 편향되어 있고 -
9:29 - 9:32절대로 정확할 수 없다는 것을요.
-
9:32 - 9:35따라서 지금 정말로 필요한 건
정치적 해결책입니다. -
9:35 - 9:37정부도 이제 깨달아아야 합니다.
-
9:37 - 9:40정보에 대한 우리의 권리가 곧
인권이라는 사실을요. -
9:40 - 9:44(박수와 환호)
-
9:48 - 9:50이것이 실현되기 전까지는
-
9:50 - 9:53우리는 더 정당한 미래를
꿈꿀 수 없습니다. -
9:53 - 9:59저는 제 딸들이 알고리즘에 의한
차별과 오류에 노출될까봐 걱정됩니다. -
9:59 - 10:01저와 제 딸들의 차이점은
-
10:01 - 10:05제 청소년기에 대한 공식적인 기록은
어디에도 남아있지 않다는 거죠. -
10:05 - 10:09제가 십 대 시절 저지른 또는
저지를 뻔 한 온갖 바보 같은 일이 -
10:09 - 10:11자료로 남아있진 않습니다.
-
10:11 - 10:13(웃음)
-
10:14 - 10:17하지만 제 딸들의 경우
상황이 조금 다를 수 있습니다. -
10:17 - 10:20현재 제 딸들로부터
수집되고 있는 정보들은 -
10:20 - 10:24미래에 그들을 판단하는 데
쓰일 수 있고 -
10:24 - 10:27그들의 희망과 꿈을
가로막을 수도 있습니다. -
10:29 - 10:30이제 때가 온 것 같습니다.
-
10:30 - 10:32이젠 앞으로 나아갈 때입니다.
-
10:32 - 10:34우리는 함께 노력해야 합니다.
-
10:34 - 10:36개인으로서
-
10:36 - 10:38조직으로서 그리고 기관으로서
-
10:38 - 10:41더욱 나은 개인 정보의 정당성을
요구해야 합니다. -
10:41 - 10:43우리와 우리 아이들을 위해서요.
-
10:43 - 10:44더 늦기 전에요.
-
10:44 - 10:45감사합니다.
-
10:45 - 10:47(박수)
- Title:
- IT 기업들이 당신의 아이에 대해 알고 있는 것들
- Speaker:
- 베로니카 바라씨(Veronica Barassi)
- Description:
-
인류학자인 베로니카 바라씨는 여러분과 여러분의 가족이 매일 사용하는 디지털 플랫폼, 온라인 게임부터 교육 앱과 의료 포탈들이 여러분의 아이들에 대한 정보를 수집해서 팔고 있을지 모른다고 말합니다. 바라씨는 자신의 놀라운 연구를 소개하면서, 부모들에게 디지털 이용약관에 동의를 누르기 전에 두 번 확인하고, 아이들의 정보가 아이들의 미래를 망치지 않도록 보호받을 것을 요구하도록 권고하고 있습니다.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
JY Kang edited Korean subtitles for What tech companies know about your kids | ||
JY Kang approved Korean subtitles for What tech companies know about your kids | ||
JY Kang edited Korean subtitles for What tech companies know about your kids | ||
NAYEUN KIM accepted Korean subtitles for What tech companies know about your kids | ||
NAYEUN KIM edited Korean subtitles for What tech companies know about your kids | ||
NAYEUN KIM edited Korean subtitles for What tech companies know about your kids | ||
NAYEUN KIM edited Korean subtitles for What tech companies know about your kids | ||
NAYEUN KIM edited Korean subtitles for What tech companies know about your kids |