페이스북 당신은 민주주의를 이렇게 망치고 있습니다
-
0:01 - 0:03약 5년 전쯤에
-
0:03 - 0:05저는 제 사상을
공유하지 않는 사람들과 -
0:05 - 0:08소통할 능력을 상실하고 있음을
알게 되었습니다. -
0:09 - 0:13제 동료 미국인들과 민감한
문제에 대해 논의하는 것이 -
0:13 - 0:19바다 건너편에 있는 극단주의자들과
논의하는 것보다 더 답답할 때가 많았죠. -
0:20 - 0:23이 문제는 저를 더욱 더 찜찜하고
불편하게 만들었습니다. -
0:23 - 0:25그래서
-
0:25 - 0:27저는 제 초점을
-
0:27 - 0:29범세계적 국가 안보 위협에서
-
0:29 - 0:32미국의 극단적 양극화에 대한
-
0:32 - 0:36근본적인 원인 분석으로 옮겼습니다.
-
0:36 - 0:38지난 몇 년간 양극화 이슈에 관한
연구를 해오던 -
0:38 - 0:41전 CIA 요원과 외교관으로서
-
0:41 - 0:45저는 이 양극화가 우리 민주주의의
그 어느 적보다 더 큰 -
0:45 - 0:48위협이 될 수 있음을 직감했습니다.
-
0:48 - 0:50그래서 저는 이 문제에 깊숙이 파고들고
-
0:50 - 0:51제 목소리를 높이기 시작했죠.
-
0:51 - 0:54이런 일들을 바탕으로 저는
페이스북에 고용이 됐고 -
0:54 - 0:57지금 이 기회를 통해
-
0:57 - 1:00여러분들에게 이 플랫폼들이
어떻게 우리의 사상을 -
1:00 - 1:04극단적으로 치우치게 만드는지,
그리고 어떻게 하면 이 플랫폼들을 -
1:04 - 1:07다시 우리의 것으로 만드는지에
대한 대화를 나누고자합니다. -
1:08 - 1:10저는 9/11 테러
사건으로부터 몇 년 후 -
1:10 - 1:13케냐에 외무직 요원으로 일하면서
-
1:13 - 1:15많은 사람들이 말하길
"마음과 사상" 이라 하는 캠페인을 -
1:15 - 1:17소말리아 국경 근처에서 주도했습니다.
-
1:17 - 1:21이 일의 큰 부분은 극단주의적 사상에
잠식될 가능성이 가장 높은 -
1:21 - 1:23커뮤니티 내에서
신뢰를 쌓는 것에 있었습니다. -
1:24 - 1:28저는 반서방주의인 성직자들과
몇 시간이나 차를 마시고 -
1:28 - 1:32심지어 테러범으로 의심되는 자들과도
대화를 나눴습니다. -
1:32 - 1:35이러한 대화 중 다수는
상호적 의심으로부터 시작됐으나 -
1:35 - 1:39이것이 욕설이 난무하는
경우로 변한 적은 기억하지 못합니다. -
1:39 - 1:43몇몇 사례에서는
상호 이해관계를 맺고 협력했죠. -
1:44 - 1:48우리가 가지고 있던 가장
강력한 대화수단은 경청하는 것과 배우는 것, -
1:48 - 1:50그리고 상대방을 이해하는 것이었습니다.
-
1:50 - 1:53이것이 우리 캠페인의 본질이었죠.
-
1:53 - 1:56제가 보았을 때 이 사람들이
우리한테 가장 바랬던 것은 -
1:56 - 2:00우리가 자신들의 이야기를
들어주는 것과 존중받는 것이었습니다. -
2:00 - 2:03대부분 우리는 이것들을 원하죠.
-
2:03 - 2:06그렇기에 지금 일어나고 있는 일들이
특히나 가슴 아프고 -
2:06 - 2:08해결하기 어려운 문제이기도합니다.
-
2:09 - 2:13우리들은 현재 이 정보 네트워크에 의해
한쪽 사상으로 극단적으로 치우치고 -
2:13 - 2:16절대주의에 깊이 빠지어
타협은 생각도 못하게 -
2:16 - 2:19교묘히 이용당하고있습니다.
-
2:20 - 2:21왜냐면 지금 현재
-
2:21 - 2:23페이스북을 비롯한 많은 기업들이
-
2:23 - 2:27우리의 편견에서 비롯된
개인화된 콘텐츠로 -
2:27 - 2:31우리를 분열시킴으로써
이득을 보기 때문입니다. -
2:31 - 2:34이런 회사들은 격한 감정을 이끌어 내고,
우리의 시선을 끄는 콘텐츠를 -
2:34 - 2:36제공하는데 의존하기 때문에
-
2:36 - 2:40극단론자들의 콘텐츠를 우선적으로
제공함으로써 우리들에게 -
2:40 - 2:45협상과 타협이 불가능하다는
생각이 들게끔 유도합니다. -
2:45 - 2:49하지만 많은 요구에도 불구하고
이 회사들이 이런 정책들을 -
2:49 - 2:52바꾸지 않을 것임이 너무나도 뻔합니다.
-
2:52 - 2:55그러므로 이제는 정부에서
-
2:55 - 2:59기업들의 이런 정책들이
-
2:59 - 3:02우리의 사회, 민주주의와
공중보건에 끼치는 -
3:02 - 3:07악영향에 대해 책임지게 할 때입니다.
-
3:07 - 3:12유감스럽게도, 이런 제재는 다음 대통령
선거 전까지는 이행되지 못할 겁니다. -
3:12 - 3:15그래서 제가 계속 상기시켜 드리는 겁니다.
-
3:15 - 3:18왜냐하면 어느날 강경한 규율이
세워진다 한들 -
3:18 - 3:20우리 모두가 고쳐나가야 할
문제이기 때문입니다. -
3:21 - 3:24제가 제 초점을 국가 안보 위협에서
-
3:24 - 3:26우리의 사회적 분열으로 옮겼을 때
-
3:26 - 3:30저는 "마음과 사상" 캠페인을 재활용해
-
3:30 - 3:32이 분열을 치유해보면
어떨지 생각했습니다. -
3:32 - 3:36우리의 200년 된 민주주의가
성공 할 수 있었던 가장 큰 이유는 -
3:36 - 3:40우리가 우리들의 생각에 대해
자유롭게 토론하고 해답을 -
3:40 - 3:43찾을 수 있었기 때문입니다.
-
3:43 - 3:45저는 지금도 대면 방식의
-
3:45 - 3:47시민 담론의 힘을 믿습니다만
-
3:47 - 3:49SNS가 우리에게 끼치는
-
3:49 - 3:53악영향에 비해서는 역부족입니다.
-
3:53 - 3:56이런 기업들의 술책에
속수무책으로 빠져드는 사람들은 -
3:56 - 4:00제가 케냐에서 보았던
사람들보다 더욱 더 -
4:00 - 4:03자신의 극단화된 사상으로부터
해어 나오기 힘들어합니다. -
4:04 - 4:06그래서 저는 2018년
페이스북으로부터 -
4:06 - 4:07선거 광고 운영 총괄자로
-
4:07 - 4:11고용 오퍼가 들어왔을 때
-
4:11 - 4:13저는 수락해야만 했습니다.
-
4:13 - 4:16이 상황을 다 바로잡으리라
예상하지는 않았지만 -
4:16 - 4:18우리가 탄 배를 정확한 방향으로
-
4:18 - 4:20바꾸는 기회가 주어졌을 때
-
4:20 - 4:21그래도 시도는 해봐야겠다고
생각했습니다. -
4:23 - 4:25양분화에 대하여 직접적으로
일을 한 것은 아니지만 -
4:25 - 4:29우리 사회에서 가장 분열화된 쟁점들을
관찰할 수 있었습니다. -
4:29 - 4:33가장 유리하게 이용할 수 있는
선거 개입 활동들도 말이죠. -
4:33 - 4:362016년 이전의 러시아의 전략처럼요.
-
4:36 - 4:39그래서 질문을 하기 시작했습니다.
-
4:39 - 4:42어떤 조직적 기반 문제들이
-
4:42 - 4:44이것들을 가능하게 했고,
-
4:44 - 4:46어떻게 고칠 수 있는지요.
-
4:48 - 4:50그래도 저는 인터넷이
더 많은 의견들이 표출되게 -
4:50 - 4:53도와준다고 생각합니다.
-
4:53 - 4:56하지만 그들이 하나된 공동체를
만든다는 목표와 상반되어, -
4:56 - 4:59현재의 대기업 SNS들은
-
4:59 - 5:03이유에 근거한 담론이
살아남기 힘들게 구조화되어 있습니다. -
5:03 - 5:05사용자, 활동량 증가가
성공의 키인 사업체에서 -
5:05 - 5:07경청을 옹호하고,
-
5:07 - 5:11정중한 토론을 장려하고,
-
5:11 - 5:14진정성 있는 질문자들을
-
5:14 - 5:17보호할 일은 없을 겁니다.
-
5:17 - 5:21사람들이 더 천천히 생각하고
-
5:21 - 5:24사람들이 멈출 때를 알게 해주고
-
5:24 - 5:27어떤 것에 대한 자신의 반응을 관찰하고
-
5:27 - 5:29자신의 편견들을
되돌아 보게 할 필요가 없거든요. -
5:31 - 5:33바로 안타까운 현실은
-
5:33 - 5:36온라인에서 거짓말은
진실보다 매혹적이고, -
5:36 - 5:39빠르고 급속적인 세상에서
-
5:39 - 5:42추잡스러움은 시시하고
사실적인 추론을 이깁니다. -
5:43 - 5:47알고리즘의 목표가 우리가 계속
SNS를 하게 만드는 것인 이상, -
5:47 - 5:51우리의 최악의 본능과 약점을 이끌어내는
-
5:51 - 5:52독을 계속 먹일 것입니다.
-
5:53 - 5:56분노, 불신,
-
5:56 - 5:58그리고 무서움과 증오의 문화,
-
5:58 - 6:01다 미국에서 있던 것이지만,
-
6:01 - 6:04최근에 SNS 는 그것들을 포용하고,
-
6:04 - 6:08제가 보기에는, 극단화 시켰습니다.
-
6:08 - 6:10그리고 페이스북도 압니다.
-
6:10 - 6:12최근에 월 스트리트
저널에서 나온 기사가 -
6:12 - 6:16페이스북 사내에서 2018년에
이루어진 발표를 폭로했는데 -
6:16 - 6:20바로 여기서 회사의 알고리즘을 통해
-
6:20 - 6:23극단주의 단체들의 존재감을 높이고
-
6:23 - 6:26사용자들을 분열시키자는
내용이 나왔습니다. -
6:27 - 6:30우리 활동을 부추기는 것이 바로
그들이 돈을 버는 방법이기 때문이죠. -
6:30 - 6:35현재의 정보 세상은
우리의 자료를 수집하고, -
6:35 - 6:38더 좁은 카테고리로 분류하여
-
6:38 - 6:41개인화 과정을 다지는것에 따라
형성되었습니다. -
6:41 - 6:45그 다음에 우리의 사상을 검증하고,
-
6:45 - 6:47편견들을 강화시키고
-
6:47 - 6:50소속감을 주는 정보로 공격당합니다.
-
6:50 - 6:54이것들은 테러리스트 모집원들이
-
6:54 - 6:56그들에게 사상을 주입하기 위해
-
6:56 - 7:00SNS 이전에 더 작고,
지역적인 방법으로 -
7:00 - 7:03취약한 청년층에게
사용하는 방법과 같습니다. -
7:03 - 7:08불행하게도, 전 변화를 줄 수 있을 정도로
페이스북에서 권한을 부여받지 못했습니다. -
7:08 - 7:12사실 제 두 번째 날,
제 직책과 업무 내용이 바뀌어 있었으며 -
7:12 - 7:15중대한 회의들에서 제외되었습니다.
-
7:15 - 7:16제 가장 큰 노력들,
-
7:16 - 7:21계흭적으로 허위정보와
정치적 광고를 통한 유권자 억압을 막는 것, -
7:22 - 7:23모두 거절당했습니다.
-
7:23 - 7:26그래서 약 6개월 후
회사를 그만뒀습니다. -
7:26 - 7:30제가 이 경험에서 배운 건 이것입니다.
-
7:30 - 7:32바로 열정적으로 제품 개발에 몰두하는
-
7:32 - 7:34몇천명의 페이스북 직원들은
-
7:34 - 7:38세상을 더 좋은 곳으로
만들 수 있다고 믿지만, -
7:38 - 7:42회사가 계속 컨텐츠 관리와 정책에
-
7:42 - 7:44소홀이 행동하고
-
7:44 - 7:47수익 창출과 플랫폼 설계에만
-
7:47 - 7:49집중하는 이상,
-
7:49 - 7:52이 플랫폼이 어떻게
혐오, 분열과 급진화에 앞장서는지 -
7:52 - 7:57신경써서 고치려 하진 않을 겁니다.
-
7:57 - 8:01제가 거기서 일할 때
이런 것에 대한 언급은 듣지를 못했습니다. -
8:01 - 8:04그러기 위해서는
-
8:04 - 8:08그들이 만든게 근본적으로
사회에 해가 되는것을 인정하고 -
8:08 - 8:11제품 전체와 수익 창출 방법을
바꿔야 하기 때문일 겁니다. -
8:12 - 8:14그래서 우린 무얼 할 수 있을까요?
-
8:15 - 8:19전 지금 이 상황에 놓이게 된 것이
-
8:19 - 8:21SNS만의 책임이라고
하는 것은 아닙니다. -
8:21 - 8:26분명히, 우리는 풀어나가야 할
뿌리 깊은 사회적 문제들이 많죠. -
8:26 - 8:30하지만 페이스북이 이건 모두 다 사회의
본모습일 뿐이라고 주장하는 것은, -
8:30 - 8:33그들의 플랫폼이
해로운 콘텐츠를 확산하고 -
8:34 - 8:38몇몇 유저들을 극단적인 사상으로
밀어넣는 것에 대한 -
8:38 - 8:41책임 회피일 뿐입니다.
-
8:42 - 8:44페이스북이 원한다면,
-
8:44 - 8:46어느 정도는 고칠 수 있을 겁니다.
-
8:46 - 8:50그들이 음모론자들, 증오 집단들,
-
8:50 - 8:53그리고 가짜 뉴스를 조달하는 사람들을
그만 부추기고 추천하면 됩니다. -
8:53 - 8:57심지어 우리의 대통령도 말이죠.
-
8:57 - 9:00그들이 우리에게 운동화를 광고하듯이
-
9:00 - 9:04정치적으로 설득하는 것을
그만하면 됩니다. -
9:04 - 9:06그들이 알고리즘을
재훈련 시키면 될 겁니다. -
9:06 - 9:08활동량이 아닌 다른 지표를 세우고,
-
9:08 - 9:12특정 콘텐츠가 인기를 얻지 못하게
-
9:12 - 9:14안전 장치를 설치함으로써 말이죠.
-
9:15 - 9:17이것을 다 하면서도
-
9:17 - 9:21그들이 지칭하는 "진실의 중재자"가
되지 않을 수 있습니다. -
9:21 - 9:24하지만 그들이 강제되지 않는 이상
-
9:24 - 9:27옮은 일을 하지 않을 것이라고
명백히 밝혔습니다. -
9:27 - 9:30솔직히, 그들이 굳이
그럴 이유도 없으니까요. -
9:30 - 9:34시장에서 계속 수익이 나며,
법을 어기는 것도 아니기 때문이죠. -
9:34 - 9:35왜냐하면 현재 상황에서는
-
9:35 - 9:40미국의 어느 법도
페이스북이나 다른 SNS업체들이 -
9:40 - 9:42우리의 의견을 내는 공간
-
9:42 - 9:44우리의 민주주의나 선거를 보호하도록
-
9:44 - 9:46강제하지 않기 때문입니다.
-
9:46 - 9:50우리는 지금까지
영리 인터넷 기업들의 CEO들에게 -
9:50 - 9:53무슨 규칙을 세우고
무엇을 강제할지 맡겨왔습니다. -
9:54 - 9:56서로 독이 되고 분열되어
-
9:56 - 9:59유대감 없이 교감만 찾아 헤매는
진실을 외면하는 세상, -
9:59 - 10:02이게 정말 우리가 원하는 것일까요?
-
10:03 - 10:07그래도 아직은 우리가
SNS에서 보이는 것보다는 -
10:07 - 10:10서로 닮은 점이 많다라고
긍정적으로 생각합니다. -
10:10 - 10:14그리고 더 많은 관점들을 수용하는 것이
-
10:14 - 10:17더욱 건강하고 포용적인
민주주의를 만든다고 믿습니다. -
10:17 - 10:20하지만 지금처럼은 아닙니다.
-
10:20 - 10:24강조하는데, 저는 이 회사들을
죽이고 싶은 마음이 없습니다. -
10:24 - 10:28그냥 어느 정도의 책임감만
질 수 있었으면 좋겠습니다. -
10:28 - 10:29사회의 다른 것들처럼 말이죠.
-
10:31 - 10:35이제 우리의 정부들이 일어서서
-
10:35 - 10:37우리의 시민성을 지킬 때가 됐습니다.
-
10:37 - 10:40이걸 모두 고쳐줄 마법같은 법안이
-
10:40 - 10:41존재하는 것은 아니지만
-
10:41 - 10:46정부가 표현의 자유 보장과
SNS가 사회에 미치는 영향에 대해 -
10:46 - 10:49책임을 지게 하는 것, 그 사이에
균형을 찾을 수 있으며, -
10:49 - 10:52찾아야 한다고 생각합니다.
-
10:52 - 10:57그리고 그들은 이걸 추천 알고리즘과
-
10:57 - 11:00개인화, 증폭과 타겟팅을 어떻게 하는지
-
11:00 - 11:05투명하게 밝힘으로써 도울 수 있습니다.
-
11:05 - 11:07이 회사들이
-
11:07 - 11:10개개인이 가짜 정보나
-
11:10 - 11:12극단적인 사상을 개재하는것이 아닌
-
11:12 - 11:15그들의 알고리즘이
이걸 어떻게 퍼트리고, -
11:16 - 11:19사람들을 끌어들이며,
-
11:19 - 11:22타겟팅을 하는지에 대하여
책임을 졌으면 좋겠습니다. -
11:23 - 11:27제가 페이스북 안에서
변화를 주는 것에 실패했지만, -
11:27 - 11:30지난 몇 년간 다시 목소리를 내어
-
11:30 - 11:33사람들이 회사들에게
이런 책임을 요구하기를 원하며 -
11:34 - 11:37계속 경고를 하고 있는 중입니다.
-
11:37 - 11:40제가 여러분에게
하고 싶은 말은 간단합니다: -
11:40 - 11:42정부에게 압력을 주어
-
11:42 - 11:47우리가 목소리를 내는 공간을
영리 법인들에게 양도하는 것을 멈추라고 말이죠. -
11:47 - 11:49친구들과 가족들에게
-
11:49 - 11:52그들이 온라인상에서
어떻게 이용당하는지 알려주고, -
11:52 - 11:56비슷한 사상을 가지지 않은 사람들과
어울리도록 노력하세요. -
11:56 - 11:59이 문제를 우선시켜 주세요.
-
11:59 - 12:02사회 모두가 참여해야
고칠 수 있습니다. -
12:03 - 12:09제 전 직장인 페이스북의
총수들에게 바칩니다: -
12:09 - 12:15지금도 사람들은 당신들이 만든 도구들로
-
12:15 - 12:17증오, 분단과 불신을 퍼트리고 있으며
-
12:17 - 12:21당신들은 그것들을 허락하는 것을 넘어서
유도하고 있습니다. -
12:21 - 12:24물론 당신들의 플랫폼에는
전 세계에서 나오는 -
12:24 - 12:28긍정적이고 근사한 이야기들이
많이 있지만, -
12:28 - 12:31이것들을 정당화시키는 것은 아닙니다.
-
12:31 - 12:34이제 선거에 더 가까워질수록
더욱 나빠지고 있는데 -
12:34 - 12:36더욱더 걱정인 것은
-
12:36 - 12:38가장 큰 국면이 일어날 경우
-
12:38 - 12:42바로 결과를 받아들이지 못하고
폭력 시위가 일어날 경우입니다. -
12:42 - 12:47그러니 2021년에 또
"우리가 더 잘하겠습니다" 라고 할 때, -
12:47 - 12:50이 순간을 기억해주세요.
-
12:50 - 12:53왜냐하면 이제는 소수의 목소리가 아닌
-
12:53 - 12:56인권운동 지도자, 교수와 학생,
-
12:56 - 12:59기자, 광고주와 당신의 직원들이
-
12:59 - 13:01당신들의 정책과 운영 방식이
-
13:01 - 13:03사람들과 민주주의에 해악을 끼친다고
-
13:03 - 13:06외치고 있으니까요.
-
13:07 - 13:09당신들의 결정은 당신들이 한 것이지만,
-
13:09 - 13:13이렇게 될 걸 예측하지 못했다고
말할 수는 없을 겁니다. -
13:14 - 13:15감사합니다.
- Title:
- 페이스북 당신은 민주주의를 이렇게 망치고 있습니다
- Speaker:
- 야엘 아이센스탓(Yaël Eisenstat)
- Description:
-
"온라인에서 거짓말은 진실보다 더 이목을 끈다"라고 전 CIA 요원과 외교관 야엘 아이센스타트가 말합니다. "[SNS] 알고리즘들이 바뀌지 않는 한, 그들은 언제까지나 우리들의 악한 본능을 이끌어내는 독을 먹일 것입니다." 아이센스탓은 이 토크에서 페이스북같은 SNS 기업들이 어떻게 우리 사회를 정치적으로 갈라놓고 불신으로 가득하게 만드는지 알아보면서, 동시에 정부에게 이런 기업들로부터 우리의 민주주의와 시민 담론을 보호할 제재를 이행하라고 촉구하고 있습니다.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
Jihyeon J. Kim approved Korean subtitles for Dear Facebook, this is how you're breaking democracy | ||
Jihyeon J. Kim accepted Korean subtitles for Dear Facebook, this is how you're breaking democracy | ||
Jihyeon J. Kim edited Korean subtitles for Dear Facebook, this is how you're breaking democracy | ||
Jihyeon J. Kim edited Korean subtitles for Dear Facebook, this is how you're breaking democracy | ||
Jihyeon J. Kim edited Korean subtitles for Dear Facebook, this is how you're breaking democracy | ||
Jihyeon J. Kim edited Korean subtitles for Dear Facebook, this is how you're breaking democracy | ||
Jihyeon J. Kim edited Korean subtitles for Dear Facebook, this is how you're breaking democracy | ||
Jihyeon J. Kim edited Korean subtitles for Dear Facebook, this is how you're breaking democracy |