Return to Video

인터넷을 신뢰의 장소로 변화시키는 방법

  • 0:02 - 0:04
    여러분이 누구든, 어디에서 살든
  • 0:04 - 0:06
    그런 이메일을 전달하기
    좋아하는 친척이 적어도
  • 0:06 - 0:09
    한 명은 있을 거라 예상합니다.
  • 0:09 - 0:11
    제가 어떤 이메일 말하는지
    아실 텐데요.
  • 0:11 - 0:14
    이상한 주장이나 음모론 영상을 담은
    그런 이메일 말입니다.
  • 0:14 - 0:17
    그리고 여러분은 아마도
    이런 게시글을 공유하는
  • 0:17 - 0:19
    그 친척을 페이스북에서
    음소거 처리 하셨을 겁니다.
  • 0:19 - 0:21
    이상한 빨간 십자가가
    중간을 가로지르고 있는
  • 0:21 - 0:23
    바나나의 사진입니다.
  • 0:23 - 0:26
    주변에 있는 텍스트를 보시면,
  • 0:26 - 0:28
    이렇게 생긴 과일을 먹지 말라고
    경고하고 있는데요,
  • 0:28 - 0:30
    여기에 HIV 바이러스로 감염된
  • 0:30 - 0:32
    혈액이 주입되었다면서 말이죠.
  • 0:32 - 0:35
    그리고 사진 위의 사회적 공유
    메시지에는 이렇게 되어 있습니다.
  • 0:35 - 0:37
    "널리 퍼뜨려 생명을 구해주세요."
  • 0:38 - 0:41
    팩트 체크하는 사람들이
    이것을 몇 년째 바로잡고 있지만,
  • 0:41 - 0:44
    절대 사라지지 않고 있는
    루머 중 하나입니다.
  • 0:44 - 0:45
    좀비 루머인 것이죠.
  • 0:46 - 0:48
    그리고, 당연하게도,
    완전히 틀린 말이죠.
  • 0:48 - 0:51
    이런 예를 보고 비웃을 수도 있습니다.
  • 0:51 - 0:53
    "누가 이런걸 실제로 믿을까?"
    하면서요.
  • 0:53 - 0:55
    하지만 이런 사진들이
    좀비 루머인 이유는
  • 0:55 - 0:59
    사람들로 하여금
    그들 자신의 안전, 그리고
  • 0:59 - 1:01
    사랑하는 이들의 안전에 대해
    깊이 걱정하도록 만들기 때문입니다.
  • 1:02 - 1:05
    그리고 잘못된 정보를
    살피는데 저만큼 시간을 쓰신다면,
  • 1:05 - 1:08
    이것이 사람들의 공포심과 취약점을
    건드리는 수많은 잘못된 정보 중
  • 1:08 - 1:11
    하나일 뿐이라는 것을
    알게 되실 겁니다.
  • 1:11 - 1:16
    매일 전 세계에서 수십 개의 인스타그램
    밈(meme)이 올라오는데요,
  • 1:16 - 1:19
    자녀들 백신접종을 시키지 말라고
    부모들을 부추기는 내용이죠.
  • 1:19 - 1:23
    기후변화가 거짓이라는 내용의
    유튜브 영상도 매일 업로드됩니다.
  • 1:23 - 1:28
    또, 모든 소셜 미디어 플랫폼에서
    타인을 인종, 종교, 성 정체성에 따라
  • 1:28 - 1:31
    악마취급하고자 작성된 글이
    끝도 없이 올라옵니다.
  • 1:32 - 1:35
    우리 시대에 가장 핵심적인
    문제 중 하나가 이것입니다.
  • 1:36 - 1:40
    어떻게 하면 표현의 자유에
    중점을 두면서도
  • 1:40 - 1:43
    온라인상에서 퍼져나가는 내용들이
    우리의 민주주의와 커뮤니티,
  • 1:43 - 1:47
    우리의 신체적, 정신적 건강의 안녕에
    돌이킬 수 없는 해를 끼치지 하는
  • 1:47 - 1:49
    인터넷 환경을 유지할 수 있을까요?
  • 1:50 - 1:52
    우리는 정보화 시대에 살고 있지만,
  • 1:52 - 1:56
    우리 모두가 의존하는 중앙통화,
    즉 정보는,
  • 1:56 - 1:58
    더 이상 전적으로 신뢰할 만하다고
    여겨지지 않습니다.
  • 1:58 - 2:00
    어쩔 때는 완전
    위험해보이기까지 하죠.
  • 2:01 - 2:05
    이는 걷잡을 수 없이 성장한
    사회공유플랫폼에 일부 원인이 있는데요.
  • 2:05 - 2:06
    스크롤을 통해
    이것 저것 볼 수 있게 되었지만,
  • 2:06 - 2:09
    이 곳엔 거짓과 사실이
    나란히 공존하는 반면,
  • 2:09 - 2:12
    전통적인 신뢰의 흔적은 찾기 힘들죠.
  • 2:12 - 2:16
    그리고 우리의 언어는 이 현상을
    정확하게 설명해 주지 못합니다.
  • 2:16 - 2:19
    사람들은 아직도 "가짜 뉴스"라는
    말에 집착하고 있습니다.
  • 2:19 - 2:22
    이 말이 상황 설명에
    특별히 도움이 되지 않을 뿐더러,
  • 2:22 - 2:25
    실제론 서로 다른 것들을 설명하는데
    쓰이고 있음에도 말이죠.
  • 2:25 - 2:28
    거짓말, 루머, 날조, 음모,
    프로파간다와 같은 개념들이요.
  • 2:29 - 2:32
    저는 우리가
    전 세계 좌파, 우파 정치인들이
  • 2:32 - 2:35
    자유 독립 언론을 공격하기 위해
  • 2:35 - 2:36
    사용하기 시작한 이 문구를
  • 2:36 - 2:39
    그만 사용했으면 좋겠습니다.
  • 2:40 - 2:45
    (박수)
  • 2:45 - 2:48
    왜냐하면 지금 우리에겐 그 어느 때보다
    전문 뉴스 미디어가 필요하기 때문입니다.
  • 2:49 - 2:52
    게다가, 이런 내용들은 뉴스로
    둔갑하지도 않은 채 돌아다닙니다.
  • 2:52 - 2:55
    밈(meme), 비디오, 쇼셜미디어에
    올라오는 게시물 같은 것들인데요.
  • 2:55 - 2:58
    대부분은 가짜가 아니라,
    사람들을 호도하는 것들입니다.
  • 2:58 - 3:01
    우리는 주로 어떤 글의
    진위여부를 가려내려고 합니다.
  • 3:01 - 3:05
    하지만 가장 큰 문제는
    내용이 무기화된다는 것입니다.
  • 3:07 - 3:09
    왜냐하면 가장 효과적인 거짓 정보들은
  • 3:09 - 3:12
    항상 조금의 사실을
    포함하고 있기 마련이죠.
  • 3:12 - 3:15
    이 예를 한번 들어 보죠.
    2017년 3월, 런던에서
  • 3:15 - 3:17
    한 트윗이 널리 유포됐는데요,
  • 3:17 - 3:21
    웨스트민스터 다리에서 일어난
    테러사건의 여파였죠.
  • 3:21 - 3:23
    이 사진은 진짜 사진입니다.
    가짜가 아니라요.
  • 3:23 - 3:26
    이 사진에 등장한 여성은
    이후에 인터뷰에 응했는데요,
  • 3:26 - 3:29
    완전히 정신적 충격을 받았다고
    설명을 하더군요.
  • 3:29 - 3:30
    그녀는 애인과 통화하는 중이었고,
  • 3:30 - 3:33
    피해자를 제대로 보고 있지 않았습니다.
  • 3:33 - 3:37
    하지만 이 사진은 이슬람 혐오
    프레임이 씌워진 채 유포되었습니다.
  • 3:37 - 3:40
    #BanIslam(이슬람금지) 등
    여러 해시태그가 달린 채 말이죠.
  • 3:40 - 3:43
    여러분이 트위터 직원이라면,
    어떤 조치를 취하실 건가요?
  • 3:43 - 3:45
    이 사진을 내리실 건가요,
    아니면 내버려두실 것인가요?
  • 3:47 - 3:50
    제 본능적 반응, 감정적 반응은
    사진을 내린다는 것입니다.
  • 3:50 - 3:52
    저는 이 사진에 씌워진
    프레임이 싫습니다.
  • 3:53 - 3:55
    하지만 표현의 자유는 인권이며,
  • 3:55 - 3:58
    불편하다는 이유로
    게시글을 내리기 시작한다면
  • 3:58 - 3:59
    이 또한 문제가 될 수 있습니다.
  • 4:00 - 4:02
    이 예시의 경우 명백해 보이지만,
  • 4:02 - 4:04
    대부분의 게시물은 그렇지 않습니다.
  • 4:04 - 4:06
    옳고 그름의 선을 긋기
    매우 어렵습니다.
  • 4:06 - 4:08
    어떤 사람이 좋은 의도로
    내려진 결정이
  • 4:08 - 4:10
    다른 사람에게는 완전한 검열로
    될 수 있습니다.
  • 4:11 - 4:14
    이제 우리는 이 계정,
    Texas Lone Star가
  • 4:14 - 4:17
    러시아의 거짓 정보 캠페인의 일부였고,
  • 4:17 - 4:19
    그 때 이후 내려진
    상태라는 걸 압니다.
  • 4:19 - 4:21
    이것이 여러분의 관점을
    바꿀 수 있을까요?
  • 4:21 - 4:22
    제 관점은 변화시킬 듯 합니다.
  • 4:23 - 4:25
    왜냐하면 이제 이 글은
    불화를 초래하기 위해서
  • 4:25 - 4:26
    설계된 캠페인의 일부이기 때문입니다.
  • 4:26 - 4:28
    여러분 중에서 혹시
  • 4:28 - 4:31
    인공지능이 우리의 문제를 해결해 줄 수
    있다고 믿으시는 분이 있다면,
  • 4:31 - 4:33
    아마 이런 사건을 해결할 수 있는
    인공지능이 등장하기 전까지는
  • 4:33 - 4:36
    오랜 시간이 걸릴 것이라고
    동의하실 겁니다.
  • 4:37 - 4:39
    그래서 저는 이 문제를
    복잡하게 만드는
  • 4:39 - 4:42
    세 가지 서로 맞물린 이슈에 대해
    설명하고자 합니다.
  • 4:42 - 4:45
    그리고 우리가 이 문제의
    해결 방법을 생각해보도록 하죠.
  • 4:45 - 4:49
    첫째로, 우리는 정보를 이성적으로
    받아들이지 않습니다.
  • 4:49 - 4:51
    감정으로 받아들이죠.
  • 4:51 - 4:55
    사실이 더 많아지면 모든 것이
    괜찮아질 것이라는 건 사실이 아닙니다.
  • 4:55 - 4:58
    왜냐하면 우리가 어떤 콘텐츠를
    볼지를 정하는 알고리즘은
  • 4:58 - 5:01
    우리의 감정적인 반응을
    우선시하게 되어 있습니다.
  • 5:01 - 5:02
    그리고 우리가 공포를 느낄 때,
  • 5:02 - 5:05
    지나치게 축소된 이야기들,
    음모론적인 설명들,
  • 5:05 - 5:09
    그리고 다른 사람을 탓하는 언어가
    훨씬 효과적입니다.
  • 5:10 - 5:11
    게다가, 많은 이런 회사들의
  • 5:11 - 5:14
    비즈니스 모델은 관심을 받는
    정도에 따라 결정됩니다.
  • 5:14 - 5:18
    따라서 이 알고리즘들은 감정 변화에
    치우쳐서 반응하게 됩니다.
  • 5:18 - 5:23
    둘째로, 제가 말하는 대부분의
    내용은 법적인 문제입니다.
  • 5:23 - 5:25
    아동 성범죄 관련 사진 혹은
  • 5:25 - 5:27
    폭력을 일으키는 내용이라면
  • 5:27 - 5:29
    다른 문제가 될 수 있습니다.
  • 5:29 - 5:32
    노골적인 거짓을 업로드하면
    완벽히 법적인 문제가 될 수 있습니다.
  • 5:33 - 5:37
    하지만 사람들은 "문제가 되는" 또는
    "해로운" 글을 내려야 한다고 합니다.
  • 5:37 - 5:40
    그 말이 무슨 뜻인지 명확한
    정의를 내리지 못한 채 말이죠.
  • 5:40 - 5:41
    마크 저커버그를 포함해서요.
  • 5:41 - 5:45
    그는 최근에 온건한 표현에 대한
    국제적 규제를 촉구했습니다.
  • 5:45 - 5:47
    제가 걱겅되는 것은,
  • 5:47 - 5:48
    전 세계 정부들이
  • 5:48 - 5:51
    우리가 올리는 게시물, 표현에 있어
  • 5:51 - 5:54
    훨씬 더 큰 결과를
    촉발할수 있는 정책결정을
  • 5:54 - 5:56
    성급하게 내놓고 있다는 것입니다.
  • 5:56 - 6:00
    심지어 우리가 어떤 표현을 허용하고,
    어떤 표현을 규제할지 정한다 해도
  • 6:00 - 6:02
    이보다 더 많았던 적이
    없었다는 게 문제죠.
  • 6:02 - 6:04
    매 초 마다, 수 백만 개의 게시글이
  • 6:04 - 6:06
    세계 각지에서 업로드됩니다.
  • 6:06 - 6:07
    여러 언어로 말이죠.
  • 6:07 - 6:10
    수 천개의 다른
    문화적 맥락이 들어간 것들이죠.
  • 6:10 - 6:13
    이런 규모의 표현을 제어할 수 있는
  • 6:13 - 6:14
    효율적인 방법이 현재로선 없습니다.
  • 6:15 - 6:17
    인간이 되었든,
    기계가 되었든 간에 말이죠.
  • 6:18 - 6:22
    셋째로, 구글, 트위터,
    페이스북, 왓츠앱과 같은 회사들은
  • 6:22 - 6:25
    정보 생태계의 일부분을
    차지할 뿐이라는 겁니다.
  • 6:25 - 6:28
    우리는 이 회사들을 탓하기 쉽지만,
  • 6:28 - 6:32
    사실은, 매스미디어와 지도자들도
    그들이 원할 때
  • 6:32 - 6:35
    루머와 음모론을 확산할 수
    있다는 것입니다.
  • 6:36 - 6:42
    우리도 마찬가지로 생각없이
    오해의 소지가 있는 글을 공유합니다.
  • 6:42 - 6:44
    우리도 정보 생태계의 오염에
    한 몫을 하는 겁니다.
  • 6:45 - 6:48
    우리는 모두 쉬운 해결책을
    갈구하고 있습니다.
  • 6:48 - 6:50
    하지만 그런 건 존재하지 않습니다.
  • 6:50 - 6:54
    어떤 해결책이든, 넓은 범위로,
    인터넷 범위로 적용되어야 합니다.
  • 6:54 - 6:58
    그리고 소셜네트워크 플랫폼은
    그 단계에 최적화되어 있습니다.
  • 6:58 - 7:01
    하지만 그렇다고 그들이 이 문제를 해결하도록
    둘 수 있을까요? 그래야 할까요?
  • 7:02 - 7:03
    그들도 물론 노력하고 있긴 하죠.
  • 7:03 - 7:07
    하지만 우리 대부분은
    글로벌 기업들이 온라인에서
  • 7:07 - 7:09
    진실과 공정의 수호자가 되는 것을
    원치 않을 것입니다.
  • 7:09 - 7:12
    소셜플랫폼들도 이에 동의할 것입니다.
  • 7:12 - 7:15
    지금 그들은, 스스로에게
    내 준 숙제를 채점하고 있습니다.
  • 7:15 - 7:16
    그들은 우리에게
  • 7:16 - 7:19
    그들이 설치한 제어 장치들이
    작동하고 있다고 뻐기죠.
  • 7:19 - 7:22
    하지만 그들이 스스로
    투명성 보고서를 쓰기 때문에,
  • 7:22 - 7:25
    무엇이 진짜로 일어나는지
    우리가 확인할 길이 없습니다.
  • 7:26 - 7:30
    (박수)
  • 7:30 - 7:33
    또, 우리가 보는 변화의 대부분은
  • 7:33 - 7:36
    저널리스트들이 조사를 통해
    편향되었다는 증거를 발견하거나,
  • 7:36 - 7:37
    커뮤니티 가이드라인을 위반하는
    콘텐츠를
  • 7:37 - 7:40
    발견한 이후에나 나타납니다.
  • 7:41 - 7:45
    네, 이 회사들은 문제해결을 위해
    아주 중요한 역할을 해야 하지만,
  • 7:45 - 7:47
    그것을 통제하지는 못합니다.
  • 7:48 - 7:49
    정부는 어떨까요?
  • 7:50 - 7:53
    많은 사람들은 우리의
    정보 생태계를 정화시키기 위해서는
  • 7:53 - 7:56
    전세계적인 규율이 필요하다고
    믿고 있습니다.
  • 7:56 - 7:59
    하지만 정책 입안자들은
    빠른 기술의 발전을
  • 7:59 - 8:01
    따라가지 못하고 있습니다.
  • 8:01 - 8:03
    설상가상으로, 정부는
    암흑 속에서 일하고 있습니다.
  • 8:03 - 8:05
    이런 플랫폼에서 무슨 일이
    일어나는지 알 길이 없습니다.
  • 8:05 - 8:08
    알 수 있는 데이터에
    접근할 수 없으니까요.
  • 8:08 - 8:11
    게다가, 어떤 정부를
    믿을 수 있을까요?
  • 8:11 - 8:14
    우리는 국가적인 대응보다는
    세계적인 대응이 필요합니다.
  • 8:15 - 8:18
    여기서 빠진 연결고리가
    바로 우리입니다.
  • 8:18 - 8:21
    이 기술을 매일매일 사용하는
    우리들이지요.
  • 8:21 - 8:26
    양질의 정보를 지지하기 위한
    새로운 인프라를 만들 수 있을까요?
  • 8:26 - 8:28
    저는 가능하다고 믿습니다.
  • 8:28 - 8:31
    우리가 실제로 할 수 있는 일에 대한
    몇 가지 아이디어가 있습니다.
  • 8:31 - 8:34
    첫째로, 사람들의 참여가
    정말로 필요하다면,
  • 8:34 - 8:37
    위키피디아에서 영감을
    얻을 수 없을까요?
  • 8:37 - 8:38
    그들은 무엇이 가능한지
    우리에게 보여주었습니다.
  • 8:38 - 8:40
    네, 완벽하진 않지만,
  • 8:40 - 8:42
    위키피디아는 투명성이 보장되고
  • 8:42 - 8:45
    전 세계 사람들이 참여할 수 있는
    기초적인 구조가 있다면
  • 8:45 - 8:48
    사람들이 신뢰할 수 있는 플랫폼을
    만들 수 있다는 것을 보여주었습니다.
  • 8:48 - 8:51
    왜냐하면 우리는 집단적 지혜와
    모든 사용자들의 경험을 활용할
  • 8:51 - 8:53
    방법을 찾아야 하기 때문입니다.
  • 8:54 - 8:56
    이는 여성, 유색인종들, 그리고
    대표성을 갖지 못하는 소수자들에게
  • 8:56 - 8:58
    더욱 필요한 방법입니다.
  • 8:58 - 8:59
    왜냐하면
  • 8:59 - 9:01
    그들은 혐오와 허위 정보에
    관해서라면 전문가니까요.
  • 9:02 - 9:05
    그들이야말로 오랫동안 혐오 캠페인의
    표적이 되어왔기 때문이죠.
  • 9:05 - 9:07
    몇 년 전부터 그들은
    의문을 제기하기 시작하였지만,
  • 9:07 - 9:09
    그들의 목소리는 아무도
    듣지 않았습니다.
  • 9:09 - 9:10
    이는 바뀌어야 합니다.
  • 9:11 - 9:15
    신뢰의 위키피디아
    같은 것을 우리가 만들 수 있을까요?
  • 9:15 - 9:19
    사용자들이 자신의 통찰을
    제시하게끔 할 방법을 찾을 수 있을까요?
  • 9:19 - 9:23
    그들은 어떤 표현이 온건한지와 같은,
    판단이 어려운 결정에 통찰을 줄 수 있습니다.
  • 9:23 - 9:25
    플랫폼들이 새로운
    변경사항을 출시할 때,
  • 9:25 - 9:28
    피드백을 줄 수도 있습니다.
  • 9:28 - 9:32
    둘째로, 정보에 대한 사람들의 경험은
    개인적이라는 것입니다.
  • 9:32 - 9:35
    저의 페이스북 피드는 여러분의 것과
    아주 다릅니다.
  • 9:35 - 9:38
    여러분의 유튜브 추천목록은
    제 것과 많이 다릅니다.
  • 9:38 - 9:40
    그래서 사람들이 무슨 정보를
    보고 있는지 조사하는 것은
  • 9:40 - 9:42
    불가능합니다.
  • 9:43 - 9:44
    그렇다면
  • 9:44 - 9:49
    익명화된 데이터를 위한 일종의
    개방형 중앙 저장소를 개발해서
  • 9:49 - 9:52
    개인 정보와 윤리를 보호할 수 있도록
    할 수 있을까요?
  • 9:52 - 9:54
    예를 들어, 이런 경우 우리가 무엇을
    배울 수 있을지 상상해볼까요.
  • 9:54 - 9:57
    이런 문제에 관심이 있고,
    자신의 소셜데이터를 연구에 기부하려는
  • 9:57 - 10:01
    시민들로 구성된
    글로벌 네트워크를 만든다면 말이죠.
  • 10:01 - 10:03
    혐오와 허위 정보가
  • 10:03 - 10:06
    장기적으로 사람들의 태도와 행동에
    어떤 영향을 미치는지,
  • 10:06 - 10:08
    우리는 잘 알고 있지 못합니다..
  • 10:08 - 10:09
    우리가 아는 것들은
  • 10:09 - 10:12
    미국 한정으로 밝혀진 연구입니다.
  • 10:12 - 10:14
    이 문제는 전 세계적인
    문제인데 말이죠.
  • 10:14 - 10:16
    이 문제도 해결해야 합니다.
  • 10:16 - 10:17
    세 번째로,
  • 10:17 - 10:20
    점과 점을 서로 이을 방법을
    찾을 수 있을까요?
  • 10:20 - 10:23
    어떤 한 비영리단체, 스타트업, 정부도
  • 10:23 - 10:25
    이 문제를
    스스로 해결할 수는 없습니다.
  • 10:25 - 10:27
    하지만 이 문제를 해결하기 위해
    일하고 있는 아주 똑똑한 사람들이
  • 10:27 - 10:29
    전 세계에 있습니다.
  • 10:29 - 10:32
    뉴스 편집국에서부터 시민 사회,
    학계, 권익 보호 운동 단체까지요.
  • 10:32 - 10:34
    여기 그들 중 일부를 보실 수 있습니다.
  • 10:34 - 10:37
    몇 명은 콘텐츠 신뢰성을 나타내는
    지표를 개발 중입니다.
  • 10:37 - 10:38
    몇 명은 팩트체크를 하고 있습니다.
  • 10:38 - 10:42
    거짓 정보, 비디오와 사진들이
    순위에서 멀어질 수 있게 말이죠.
  • 10:42 - 10:44
    제가 설립을 도운 비영리단체인
    퍼스트 드래프트(First Draft)는
  • 10:44 - 10:47
    평균적으로 경쟁력있는
    뉴스 편집국들과 함께 일하며
  • 10:47 - 10:51
    그들이 협력할 수 있는
    프로그램을 세울 수 있도록 돕습니다.
  • 10:51 - 10:54
    소프트웨어 설계자인
    대니 힐즈(Danny Hillls)는
  • 10:54 - 10:56
    언더레이(The Underlay)라고 불리는
    새로운 시스템을 만들고 있습니다.
  • 10:56 - 10:59
    이는 인터넷 상의
    모든 발언들과 그 출처를 엮은
  • 10:59 - 11:00
    기록물입니다.
  • 11:00 - 11:04
    사람들과 알고리즘이 믿을 만한 정보를
    가려내는 것을 도와주죠.
  • 11:05 - 11:08
    전 세계의 교육자들은
    사람들이 접하는 정보들을
  • 11:08 - 11:12
    비판적으로 받아들일 수 있게
    교육하는 방법을 찾고 있습니다.
  • 11:13 - 11:16
    이 모든 노력들은 대단하지만
    그들은 지하에서 일하고 있습니다.
  • 11:16 - 11:18
    대부분은 자금 부족을 겪고 있죠.
  • 11:19 - 11:21
    또한 수백 명의 정말 똑똑한 인재들이
  • 11:21 - 11:22
    이들 회사에서 일하고 있지만,
  • 11:22 - 11:25
    이들의 노력이 서로 연결되고 있지
    않은 느낌입니다.
  • 11:25 - 11:29
    같은 문제에 대해 서로 다른
    해결책을 만들고 있기 때문이죠.
  • 11:29 - 11:31
    어떻게 하면 이 사람들을
    며칠 혹은 몇 주 간,
  • 11:31 - 11:35
    하나의 물리적인 공간에 모아서,
  • 11:35 - 11:37
    그들이 자신들의 견해와 관점을 제시하며
  • 11:37 - 11:39
    이 문제를 함께 해결하도록
    할 수 있을까요?
  • 11:39 - 11:40
    이것이 가능할까요?
  • 11:40 - 11:44
    우리의 문제가 복잡하고 큰 만큼
  • 11:44 - 11:47
    우리도 잘 설계된 해결 방법을
    야심차게 내놓을 수 있을까요?
  • 11:48 - 11:49
    저는 이것이 가능하다고 믿습니다.
  • 11:49 - 11:52
    함께 안전한 정보 공동체를
    재구축해 봅시다.
  • 11:53 - 11:54
    감사합니다.
  • 11:54 - 11:58
    (박수)
Title:
인터넷을 신뢰의 장소로 변화시키는 방법
Speaker:
클레어 워들(Claire Wardle)
Description:

어떻게 하면 표현의 자유를 보장하면서도 오해의 소지가 있고 때로는 위험한 내용이 확산되는 것을 막을 수 있을까요? 거짓 정보 전문가인 클레어 워들은 우리의 오염된 온라인 생태계 상의 새로운 문제들을 탐구하고, 사용자들의 도움으로 인터넷을 신뢰의 장소로 변화시키려는 계획을 구상합니다. "다같이 우리의 정보 공동체를 재구축합시다."라고 그녀는 말합니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Korean subtitles

Revisions