Return to Video

페이스북 당신은 민주주의를 이렇게 망치고 있습니다

  • 0:01 - 0:03
    약 5년 전쯤에
  • 0:03 - 0:05
    저는 제 사상을
    공유하지 않는 사람들과
  • 0:05 - 0:08
    소통할 능력을 상실하고 있음을
    알게 되었습니다.
  • 0:09 - 0:13
    제 동료 미국인들과 민감한
    문제에 대해 논의하는 것이
  • 0:13 - 0:19
    바다 건너편에 있는 극단주의자들과
    논의하는 것보다 더 답답할 때가 많았죠.
  • 0:20 - 0:23
    이 문제는 저를 더욱 더 찜찜하고
    불편하게 만들었습니다.
  • 0:23 - 0:25
    그래서
  • 0:25 - 0:27
    저는 제 초점을
  • 0:27 - 0:29
    범세계적 국가 안보 위협에서
  • 0:29 - 0:32
    미국의 극단적 양극화에 대한
  • 0:32 - 0:36
    근본적인 원인 분석으로 옮겼습니다.
  • 0:36 - 0:38
    지난 몇 년간 양극화 이슈에 관한
    연구를 해오던
  • 0:38 - 0:41
    전 CIA 요원과 외교관으로서
  • 0:41 - 0:45
    저는 이 양극화가 우리 민주주의의
    그 어느 적보다 더 큰
  • 0:45 - 0:48
    위협이 될 수 있음을 직감했습니다.
  • 0:48 - 0:50
    그래서 저는 이 문제에 깊숙이 파고들고
  • 0:50 - 0:51
    제 목소리를 높이기 시작했죠.
  • 0:51 - 0:54
    이런 일들을 바탕으로 저는
    페이스북에 고용이 됐고
  • 0:54 - 0:57
    지금 이 기회를 통해
  • 0:57 - 1:00
    여러분들에게 이 플랫폼들이
    어떻게 우리의 사상을
  • 1:00 - 1:04
    극단적으로 치우치게 만드는지,
    그리고 어떻게 하면 이 플랫폼들을
  • 1:04 - 1:07
    다시 우리의 것으로 만드는지에
    대한 대화를 나누고자합니다.
  • 1:08 - 1:10
    저는 9/11 테러
    사건으로부터 몇 년 후
  • 1:10 - 1:13
    케냐에 외무직 요원으로 일하면서
  • 1:13 - 1:15
    많은 사람들이 말하길
    "마음과 사상" 이라 하는 캠페인을
  • 1:15 - 1:17
    소말리아 국경 근처에서 주도했습니다.
  • 1:17 - 1:21
    이 일의 큰 부분은 극단주의적 사상에
    잠식될 가능성이 가장 높은
  • 1:21 - 1:23
    커뮤니티 내에서
    신뢰를 쌓는 것에 있었습니다.
  • 1:24 - 1:28
    저는 반서방주의인 성직자들과
    몇 시간이나 차를 마시고
  • 1:28 - 1:32
    심지어 테러범으로 의심되는 자들과도
    대화를 나눴습니다.
  • 1:32 - 1:35
    이러한 대화 중 다수는
    상호적 의심으로부터 시작됐으나
  • 1:35 - 1:39
    이것이 욕설이 난무하는
    경우로 변한 적은 기억하지 못합니다.
  • 1:39 - 1:43
    몇몇 사례에서는
    상호 이해관계를 맺고 협력했죠.
  • 1:44 - 1:48
    우리가 가지고 있던 가장
    강력한 대화수단은 경청하는 것과 배우는 것,
  • 1:48 - 1:50
    그리고 상대방을 이해하는 것이었습니다.
  • 1:50 - 1:53
    이것이 우리 캠페인의 본질이었죠.
  • 1:53 - 1:56
    제가 보았을 때 이 사람들이
    우리한테 가장 바랬던 것은
  • 1:56 - 2:00
    우리가 자신들의 이야기를
    들어주는 것과 존중받는 것이었습니다.
  • 2:00 - 2:03
    대부분 우리는 이것들을 원하죠.
  • 2:03 - 2:06
    그렇기에 지금 일어나고 있는 일들이
    특히나 가슴 아프고
  • 2:06 - 2:08
    해결하기 어려운 문제이기도합니다.
  • 2:09 - 2:13
    우리들은 현재 이 정보 네트워크에 의해
    한쪽 사상으로 극단적으로 치우치고
  • 2:13 - 2:16
    절대주의에 깊이 빠지어
    타협은 생각도 못하게
  • 2:16 - 2:19
    교묘히 이용당하고있습니다.
  • 2:20 - 2:21
    왜냐면 지금 현재
  • 2:21 - 2:23
    페이스북을 비롯한 많은 기업들이
  • 2:23 - 2:27
    우리의 편견에서 비롯된
    개인화된 콘텐츠로
  • 2:27 - 2:31
    우리를 분열시킴으로써
    이득을 보기 때문입니다.
  • 2:31 - 2:34
    이런 회사들은 격한 감정을 이끌어 내고,
    우리의 시선을 끄는 콘텐츠를
  • 2:34 - 2:36
    제공하는데 의존하기 때문에
  • 2:36 - 2:40
    극단론자들의 콘텐츠를 우선적으로
    제공함으로써 우리들에게
  • 2:40 - 2:45
    협상과 타협이 불가능하다는
    생각이 들게끔 유도합니다.
  • 2:45 - 2:49
    하지만 많은 요구에도 불구하고
    이 회사들이 이런 정책들을
  • 2:49 - 2:52
    바꾸지 않을 것임이 너무나도 뻔합니다.
  • 2:52 - 2:55
    그러므로 이제는 정부에서
  • 2:55 - 2:59
    기업들의 이런 정책들이
  • 2:59 - 3:02
    우리의 사회, 민주주의와
    공중보건에 끼치는
  • 3:02 - 3:07
    악영향에 대해 책임지게 할 때입니다.
  • 3:07 - 3:12
    유감스럽게도, 이런 제재는 다음 대통령
    선거 전까지는 이행되지 못할 겁니다.
  • 3:12 - 3:15
    그래서 제가 계속 상기시켜 드리는 겁니다.
  • 3:15 - 3:18
    왜냐하면 어느날 강경한 규율이
    세워진다 한들
  • 3:18 - 3:20
    우리 모두가 고쳐나가야 할
    문제이기 때문입니다.
  • 3:21 - 3:24
    제가 제 초점을 국가 안보 위협에서
  • 3:24 - 3:26
    우리의 사회적 분열으로 옮겼을 때
  • 3:26 - 3:30
    저는 "마음과 사상" 캠페인을 재활용해
  • 3:30 - 3:32
    이 분열을 치유해보면
    어떨지 생각했습니다.
  • 3:32 - 3:36
    우리의 200년 된 민주주의가
    성공 할 수 있었던 가장 큰 이유는
  • 3:36 - 3:40
    우리가 우리들의 생각에 대해
    자유롭게 토론하고 해답을
  • 3:40 - 3:43
    찾을 수 있었기 때문입니다.
  • 3:43 - 3:45
    저는 지금도 대면 방식의
  • 3:45 - 3:47
    시민 담론의 힘을 믿습니다만
  • 3:47 - 3:49
    SNS가 우리에게 끼치는
  • 3:49 - 3:53
    악영향에 비해서는 역부족입니다.
  • 3:53 - 3:56
    이런 기업들의 술책에
    속수무책으로 빠져드는 사람들은
  • 3:56 - 4:00
    제가 케냐에서 보았던
    사람들보다 더욱 더
  • 4:00 - 4:03
    자신의 극단화된 사상으로부터
    해어 나오기 힘들어합니다.
  • 4:04 - 4:06
    그래서 저는 2018년
    페이스북으로부터
  • 4:06 - 4:07
    선거 광고 운영 총괄자로
  • 4:07 - 4:11
    고용 오퍼가 들어왔을 때
  • 4:11 - 4:13
    저는 수락해야만 했습니다.
  • 4:13 - 4:16
    이 상황을 다 바로잡으리라
    예상하지는 않았지만
  • 4:16 - 4:18
    우리가 탄 배를 정확한 방향으로
  • 4:18 - 4:20
    바꾸는 기회가 주어졌을 때
  • 4:20 - 4:21
    그래도 시도는 해봐야겠다고
    생각했습니다.
  • 4:23 - 4:25
    양분화에 대하여 직접적으로
    일을 한 것은 아니지만
  • 4:25 - 4:29
    우리 사회에서 가장 분열화된 쟁점들을
    관찰할 수 있었습니다.
  • 4:29 - 4:33
    가장 유리하게 이용할 수 있는
    선거 개입 활동들도 말이죠.
  • 4:33 - 4:36
    2016년 이전의 러시아의 전략처럼요.
  • 4:36 - 4:39
    그래서 질문을 하기 시작했습니다.
  • 4:39 - 4:42
    어떤 조직적 기반 문제들이
  • 4:42 - 4:44
    이것들을 가능하게 했고,
  • 4:44 - 4:46
    어떻게 고칠 수 있는지요.
  • 4:48 - 4:50
    그래도 저는 인터넷이
    더 많은 의견들이 표출되게
  • 4:50 - 4:53
    도와준다고 생각합니다.
  • 4:53 - 4:56
    하지만 그들이 하나된 공동체를
    만든다는 목표와 상반되어,
  • 4:56 - 4:59
    현재의 대기업 SNS들은
  • 4:59 - 5:03
    이유에 근거한 담론이
    살아남기 힘들게 구조화되어 있습니다.
  • 5:03 - 5:05
    사용자, 활동량 증가가
    성공의 키인 사업체에서
  • 5:05 - 5:07
    경청을 옹호하고,
  • 5:07 - 5:11
    정중한 토론을 장려하고,
  • 5:11 - 5:14
    진정성 있는 질문자들을
  • 5:14 - 5:17
    보호할 일은 없을 겁니다.
  • 5:17 - 5:21
    사람들이 더 천천히 생각하고
  • 5:21 - 5:24
    사람들이 멈출 때를 알게 해주고
  • 5:24 - 5:27
    어떤 것에 대한 자신의 반응을 관찰하고
  • 5:27 - 5:29
    자신의 편견들을
    되돌아 보게 할 필요가 없거든요.
  • 5:31 - 5:33
    바로 안타까운 현실은
  • 5:33 - 5:36
    온라인에서 거짓말은
    진실보다 매혹적이고,
  • 5:36 - 5:39
    빠르고 급속적인 세상에서
  • 5:39 - 5:42
    추잡스러움은 시시하고
    사실적인 추론을 이깁니다.
  • 5:43 - 5:47
    알고리즘의 목표가 우리가 계속
    SNS를 하게 만드는 것인 이상,
  • 5:47 - 5:51
    우리의 최악의 본능과 약점을 이끌어내는
  • 5:51 - 5:52
    독을 계속 먹일 것입니다.
  • 5:53 - 5:56
    분노, 불신,
  • 5:56 - 5:58
    그리고 무서움과 증오의 문화,
  • 5:58 - 6:01
    다 미국에서 있던 것이지만,
  • 6:01 - 6:04
    최근에 SNS 는 그것들을 포용하고,
  • 6:04 - 6:08
    제가 보기에는, 극단화 시켰습니다.
  • 6:08 - 6:10
    그리고 페이스북도 압니다.
  • 6:10 - 6:12
    최근에 월 스트리트
    저널에서 나온 기사가
  • 6:12 - 6:16
    페이스북 사내에서 2018년에
    이루어진 발표를 폭로했는데
  • 6:16 - 6:20
    바로 여기서 회사의 알고리즘을 통해
  • 6:20 - 6:23
    극단주의 단체들의 존재감을 높이고
  • 6:23 - 6:26
    사용자들을 분열시키자는
    내용이 나왔습니다.
  • 6:27 - 6:30
    우리 활동을 부추기는 것이 바로
    그들이 돈을 버는 방법이기 때문이죠.
  • 6:30 - 6:35
    현재의 정보 세상은
    우리의 자료를 수집하고,
  • 6:35 - 6:38
    더 좁은 카테고리로 분류하여
  • 6:38 - 6:41
    개인화 과정을 다지는것에 따라
    형성되었습니다.
  • 6:41 - 6:45
    그 다음에 우리의 사상을 검증하고,
  • 6:45 - 6:47
    편견들을 강화시키고
  • 6:47 - 6:50
    소속감을 주는 정보로 공격당합니다.
  • 6:50 - 6:54
    이것들은 테러리스트 모집원들이
  • 6:54 - 6:56
    그들에게 사상을 주입하기 위해
  • 6:56 - 7:00
    SNS 이전에 더 작고,
    지역적인 방법으로
  • 7:00 - 7:03
    취약한 청년층에게
    사용하는 방법과 같습니다.
  • 7:03 - 7:08
    불행하게도, 전 변화를 줄 수 있을 정도로
    페이스북에서 권한을 부여받지 못했습니다.
  • 7:08 - 7:12
    사실 제 두 번째 날,
    제 직책과 업무 내용이 바뀌어 있었으며
  • 7:12 - 7:15
    중대한 회의들에서 제외되었습니다.
  • 7:15 - 7:16
    제 가장 큰 노력들,
  • 7:16 - 7:21
    계흭적으로 허위정보와
    정치적 광고를 통한 유권자 억압을 막는 것,
  • 7:22 - 7:23
    모두 거절당했습니다.
  • 7:23 - 7:26
    그래서 약 6개월 후
    회사를 그만뒀습니다.
  • 7:26 - 7:30
    제가 이 경험에서 배운 건 이것입니다.
  • 7:30 - 7:32
    바로 열정적으로 제품 개발에 몰두하는
  • 7:32 - 7:34
    몇천명의 페이스북 직원들은
  • 7:34 - 7:38
    세상을 더 좋은 곳으로
    만들 수 있다고 믿지만,
  • 7:38 - 7:42
    회사가 계속 컨텐츠 관리와 정책에
  • 7:42 - 7:44
    소홀이 행동하고
  • 7:44 - 7:47
    수익 창출과 플랫폼 설계에만
  • 7:47 - 7:49
    집중하는 이상,
  • 7:49 - 7:52
    이 플랫폼이 어떻게
    혐오, 분열과 급진화에 앞장서는지
  • 7:52 - 7:57
    신경써서 고치려 하진 않을 겁니다.
  • 7:57 - 8:01
    제가 거기서 일할 때
    이런 것에 대한 언급은 듣지를 못했습니다.
  • 8:01 - 8:04
    그러기 위해서는
  • 8:04 - 8:08
    그들이 만든게 근본적으로
    사회에 해가 되는것을 인정하고
  • 8:08 - 8:11
    제품 전체와 수익 창출 방법을
    바꿔야 하기 때문일 겁니다.
  • 8:12 - 8:14
    그래서 우린 무얼 할 수 있을까요?
  • 8:15 - 8:19
    전 지금 이 상황에 놓이게 된 것이
  • 8:19 - 8:21
    SNS만의 책임이라고
    하는 것은 아닙니다.
  • 8:21 - 8:26
    분명히, 우리는 풀어나가야 할
    뿌리 깊은 사회적 문제들이 많죠.
  • 8:26 - 8:30
    하지만 페이스북이 이건 모두 다 사회의
    본모습일 뿐이라고 주장하는 것은,
  • 8:30 - 8:33
    그들의 플랫폼이
    해로운 콘텐츠를 확산하고
  • 8:34 - 8:38
    몇몇 유저들을 극단적인 사상으로
    밀어넣는 것에 대한
  • 8:38 - 8:41
    책임 회피일 뿐입니다.
  • 8:42 - 8:44
    페이스북이 원한다면,
  • 8:44 - 8:46
    어느 정도는 고칠 수 있을 겁니다.
  • 8:46 - 8:50
    그들이 음모론자들, 증오 집단들,
  • 8:50 - 8:53
    그리고 가짜 뉴스를 조달하는 사람들을
    그만 부추기고 추천하면 됩니다.
  • 8:53 - 8:57
    심지어 우리의 대통령도 말이죠.
  • 8:57 - 9:00
    그들이 우리에게 운동화를 광고하듯이
  • 9:00 - 9:04
    정치적으로 설득하는 것을
    그만하면 됩니다.
  • 9:04 - 9:06
    그들이 알고리즘을
    재훈련 시키면 될 겁니다.
  • 9:06 - 9:08
    활동량이 아닌 다른 지표를 세우고,
  • 9:08 - 9:12
    특정 콘텐츠가 인기를 얻지 못하게
  • 9:12 - 9:14
    안전 장치를 설치함으로써 말이죠.
  • 9:15 - 9:17
    이것을 다 하면서도
  • 9:17 - 9:21
    그들이 지칭하는 "진실의 중재자"가
    되지 않을 수 있습니다.
  • 9:21 - 9:24
    하지만 그들이 강제되지 않는 이상
  • 9:24 - 9:27
    옮은 일을 하지 않을 것이라고
    명백히 밝혔습니다.
  • 9:27 - 9:30
    솔직히, 그들이 굳이
    그럴 이유도 없으니까요.
  • 9:30 - 9:34
    시장에서 계속 수익이 나며,
    법을 어기는 것도 아니기 때문이죠.
  • 9:34 - 9:35
    왜냐하면 현재 상황에서는
  • 9:35 - 9:40
    미국의 어느 법도
    페이스북이나 다른 SNS업체들이
  • 9:40 - 9:42
    우리의 의견을 내는 공간
  • 9:42 - 9:44
    우리의 민주주의나 선거를 보호하도록
  • 9:44 - 9:46
    강제하지 않기 때문입니다.
  • 9:46 - 9:50
    우리는 지금까지
    영리 인터넷 기업들의 CEO들에게
  • 9:50 - 9:53
    무슨 규칙을 세우고
    무엇을 강제할지 맡겨왔습니다.
  • 9:54 - 9:56
    서로 독이 되고 분열되어
  • 9:56 - 9:59
    유대감 없이 교감만 찾아 헤매는
    진실을 외면하는 세상,
  • 9:59 - 10:02
    이게 정말 우리가 원하는 것일까요?
  • 10:03 - 10:07
    그래도 아직은 우리가
    SNS에서 보이는 것보다는
  • 10:07 - 10:10
    서로 닮은 점이 많다라고
    긍정적으로 생각합니다.
  • 10:10 - 10:14
    그리고 더 많은 관점들을 수용하는 것이
  • 10:14 - 10:17
    더욱 건강하고 포용적인
    민주주의를 만든다고 믿습니다.
  • 10:17 - 10:20
    하지만 지금처럼은 아닙니다.
  • 10:20 - 10:24
    강조하는데, 저는 이 회사들을
    죽이고 싶은 마음이 없습니다.
  • 10:24 - 10:28
    그냥 어느 정도의 책임감만
    질 수 있었으면 좋겠습니다.
  • 10:28 - 10:29
    사회의 다른 것들처럼 말이죠.
  • 10:31 - 10:35
    이제 우리의 정부들이 일어서서
  • 10:35 - 10:37
    우리의 시민성을 지킬 때가 됐습니다.
  • 10:37 - 10:40
    이걸 모두 고쳐줄 마법같은 법안이
  • 10:40 - 10:41
    존재하는 것은 아니지만
  • 10:41 - 10:46
    정부가 표현의 자유 보장과
    SNS가 사회에 미치는 영향에 대해
  • 10:46 - 10:49
    책임을 지게 하는 것, 그 사이에
    균형을 찾을 수 있으며,
  • 10:49 - 10:52
    찾아야 한다고 생각합니다.
  • 10:52 - 10:57
    그리고 그들은 이걸 추천 알고리즘과
  • 10:57 - 11:00
    개인화, 증폭과 타겟팅을 어떻게 하는지
  • 11:00 - 11:05
    투명하게 밝힘으로써 도울 수 있습니다.
  • 11:05 - 11:07
    이 회사들이
  • 11:07 - 11:10
    개개인이 가짜 정보나
  • 11:10 - 11:12
    극단적인 사상을 개재하는것이 아닌
  • 11:12 - 11:15
    그들의 알고리즘이
    이걸 어떻게 퍼트리고,
  • 11:16 - 11:19
    사람들을 끌어들이며,
  • 11:19 - 11:22
    타겟팅을 하는지에 대하여
    책임을 졌으면 좋겠습니다.
  • 11:23 - 11:27
    제가 페이스북 안에서
    변화를 주는 것에 실패했지만,
  • 11:27 - 11:30
    지난 몇 년간 다시 목소리를 내어
  • 11:30 - 11:33
    사람들이 회사들에게
    이런 책임을 요구하기를 원하며
  • 11:34 - 11:37
    계속 경고를 하고 있는 중입니다.
  • 11:37 - 11:40
    제가 여러분에게
    하고 싶은 말은 간단합니다:
  • 11:40 - 11:42
    정부에게 압력을 주어
  • 11:42 - 11:47
    우리가 목소리를 내는 공간을
    영리 법인들에게 양도하는 것을 멈추라고 말이죠.
  • 11:47 - 11:49
    친구들과 가족들에게
  • 11:49 - 11:52
    그들이 온라인상에서
    어떻게 이용당하는지 알려주고,
  • 11:52 - 11:56
    비슷한 사상을 가지지 않은 사람들과
    어울리도록 노력하세요.
  • 11:56 - 11:59
    이 문제를 우선시켜 주세요.
  • 11:59 - 12:02
    사회 모두가 참여해야
    고칠 수 있습니다.
  • 12:03 - 12:09
    제 전 직장인 페이스북의
    총수들에게 바칩니다:
  • 12:09 - 12:15
    지금도 사람들은 당신들이 만든 도구들로
  • 12:15 - 12:17
    증오, 분단과 불신을 퍼트리고 있으며
  • 12:17 - 12:21
    당신들은 그것들을 허락하는 것을 넘어서
    유도하고 있습니다.
  • 12:21 - 12:24
    물론 당신들의 플랫폼에는
    전 세계에서 나오는
  • 12:24 - 12:28
    긍정적이고 근사한 이야기들이
    많이 있지만,
  • 12:28 - 12:31
    이것들을 정당화시키는 것은 아닙니다.
  • 12:31 - 12:34
    이제 선거에 더 가까워질수록
    더욱 나빠지고 있는데
  • 12:34 - 12:36
    더욱더 걱정인 것은
  • 12:36 - 12:38
    가장 큰 국면이 일어날 경우
  • 12:38 - 12:42
    바로 결과를 받아들이지 못하고
    폭력 시위가 일어날 경우입니다.
  • 12:42 - 12:47
    그러니 2021년에 또
    "우리가 더 잘하겠습니다" 라고 할 때,
  • 12:47 - 12:50
    이 순간을 기억해주세요.
  • 12:50 - 12:53
    왜냐하면 이제는 소수의 목소리가 아닌
  • 12:53 - 12:56
    인권운동 지도자, 교수와 학생,
  • 12:56 - 12:59
    기자, 광고주와 당신의 직원들이
  • 12:59 - 13:01
    당신들의 정책과 운영 방식이
  • 13:01 - 13:03
    사람들과 민주주의에 해악을 끼친다고
  • 13:03 - 13:06
    외치고 있으니까요.
  • 13:07 - 13:09
    당신들의 결정은 당신들이 한 것이지만,
  • 13:09 - 13:13
    이렇게 될 걸 예측하지 못했다고
    말할 수는 없을 겁니다.
  • 13:14 - 13:15
    감사합니다.
Title:
페이스북 당신은 민주주의를 이렇게 망치고 있습니다
Speaker:
야엘 아이센스탓(Yaël Eisenstat)
Description:

"온라인에서 거짓말은 진실보다 더 이목을 끈다"라고 전 CIA 요원과 외교관 야엘 아이센스타트가 말합니다. "[SNS] 알고리즘들이 바뀌지 않는 한, 그들은 언제까지나 우리들의 악한 본능을 이끌어내는 독을 먹일 것입니다." 아이센스탓은 이 토크에서 페이스북같은 SNS 기업들이 어떻게 우리 사회를 정치적으로 갈라놓고 불신으로 가득하게 만드는지 알아보면서, 동시에 정부에게 이런 기업들로부터 우리의 민주주의와 시민 담론을 보호할 제재를 이행하라고 촉구하고 있습니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Korean subtitles

Revisions