인터넷을 신뢰의 장소로 변화시키는 방법
-
0:02 - 0:04여러분이 누구든, 어디에서 살든
-
0:04 - 0:06그런 이메일을 전달하기
좋아하는 친척이 적어도 -
0:06 - 0:09한 명은 있을 거라 예상합니다.
-
0:09 - 0:11제가 어떤 이메일 말하는지
아실 텐데요. -
0:11 - 0:14이상한 주장이나 음모론 영상을 담은
그런 이메일 말입니다. -
0:14 - 0:17그리고 여러분은 아마도
이런 게시글을 공유하는 -
0:17 - 0:19그 친척을 페이스북에서
음소거 처리 하셨을 겁니다. -
0:19 - 0:21이상한 빨간 십자가가
중간을 가로지르고 있는 -
0:21 - 0:23바나나의 사진입니다.
-
0:23 - 0:26주변에 있는 텍스트를 보시면,
-
0:26 - 0:28이렇게 생긴 과일을 먹지 말라고
경고하고 있는데요, -
0:28 - 0:30여기에 HIV 바이러스로 감염된
-
0:30 - 0:32혈액이 주입되었다면서 말이죠.
-
0:32 - 0:35그리고 사진 위의 사회적 공유
메시지에는 이렇게 되어 있습니다. -
0:35 - 0:37"널리 퍼뜨려 생명을 구해주세요."
-
0:38 - 0:41팩트 체크하는 사람들이
이것을 몇 년째 바로잡고 있지만, -
0:41 - 0:44절대 사라지지 않고 있는
루머 중 하나입니다. -
0:44 - 0:45좀비 루머인 것이죠.
-
0:46 - 0:48그리고, 당연하게도,
완전히 틀린 말이죠. -
0:48 - 0:51이런 예를 보고 비웃을 수도 있습니다.
-
0:51 - 0:53"누가 이런걸 실제로 믿을까?"
하면서요. -
0:53 - 0:55하지만 이런 사진들이
좀비 루머인 이유는 -
0:55 - 0:59사람들로 하여금
그들 자신의 안전, 그리고 -
0:59 - 1:01사랑하는 이들의 안전에 대해
깊이 걱정하도록 만들기 때문입니다. -
1:02 - 1:05그리고 잘못된 정보를
살피는데 저만큼 시간을 쓰신다면, -
1:05 - 1:08이것이 사람들의 공포심과 취약점을
건드리는 수많은 잘못된 정보 중 -
1:08 - 1:11하나일 뿐이라는 것을
알게 되실 겁니다. -
1:11 - 1:16매일 전 세계에서 수십 개의 인스타그램
밈(meme)이 올라오는데요, -
1:16 - 1:19자녀들 백신접종을 시키지 말라고
부모들을 부추기는 내용이죠. -
1:19 - 1:23기후변화가 거짓이라는 내용의
유튜브 영상도 매일 업로드됩니다. -
1:23 - 1:28또, 모든 소셜 미디어 플랫폼에서
타인을 인종, 종교, 성 정체성에 따라 -
1:28 - 1:31악마취급하고자 작성된 글이
끝도 없이 올라옵니다. -
1:32 - 1:35우리 시대에 가장 핵심적인
문제 중 하나가 이것입니다. -
1:36 - 1:40어떻게 하면 표현의 자유에
중점을 두면서도 -
1:40 - 1:43온라인상에서 퍼져나가는 내용들이
우리의 민주주의와 커뮤니티, -
1:43 - 1:47우리의 신체적, 정신적 건강의 안녕에
돌이킬 수 없는 해를 끼치지 하는 -
1:47 - 1:49인터넷 환경을 유지할 수 있을까요?
-
1:50 - 1:52우리는 정보화 시대에 살고 있지만,
-
1:52 - 1:56우리 모두가 의존하는 중앙통화,
즉 정보는, -
1:56 - 1:58더 이상 전적으로 신뢰할 만하다고
여겨지지 않습니다. -
1:58 - 2:00어쩔 때는 완전
위험해보이기까지 하죠. -
2:01 - 2:05이는 걷잡을 수 없이 성장한
사회공유플랫폼에 일부 원인이 있는데요. -
2:05 - 2:06스크롤을 통해
이것 저것 볼 수 있게 되었지만, -
2:06 - 2:09이 곳엔 거짓과 사실이
나란히 공존하는 반면, -
2:09 - 2:12전통적인 신뢰의 흔적은 찾기 힘들죠.
-
2:12 - 2:16그리고 우리의 언어는 이 현상을
정확하게 설명해 주지 못합니다. -
2:16 - 2:19사람들은 아직도 "가짜 뉴스"라는
말에 집착하고 있습니다. -
2:19 - 2:22이 말이 상황 설명에
특별히 도움이 되지 않을 뿐더러, -
2:22 - 2:25실제론 서로 다른 것들을 설명하는데
쓰이고 있음에도 말이죠. -
2:25 - 2:28거짓말, 루머, 날조, 음모,
프로파간다와 같은 개념들이요. -
2:29 - 2:32저는 우리가
전 세계 좌파, 우파 정치인들이 -
2:32 - 2:35자유 독립 언론을 공격하기 위해
-
2:35 - 2:36사용하기 시작한 이 문구를
-
2:36 - 2:39그만 사용했으면 좋겠습니다.
-
2:40 - 2:45(박수)
-
2:45 - 2:48왜냐하면 지금 우리에겐 그 어느 때보다
전문 뉴스 미디어가 필요하기 때문입니다. -
2:49 - 2:52게다가, 이런 내용들은 뉴스로
둔갑하지도 않은 채 돌아다닙니다. -
2:52 - 2:55밈(meme), 비디오, 쇼셜미디어에
올라오는 게시물 같은 것들인데요. -
2:55 - 2:58대부분은 가짜가 아니라,
사람들을 호도하는 것들입니다. -
2:58 - 3:01우리는 주로 어떤 글의
진위여부를 가려내려고 합니다. -
3:01 - 3:05하지만 가장 큰 문제는
내용이 무기화된다는 것입니다. -
3:07 - 3:09왜냐하면 가장 효과적인 거짓 정보들은
-
3:09 - 3:12항상 조금의 사실을
포함하고 있기 마련이죠. -
3:12 - 3:15이 예를 한번 들어 보죠.
2017년 3월, 런던에서 -
3:15 - 3:17한 트윗이 널리 유포됐는데요,
-
3:17 - 3:21웨스트민스터 다리에서 일어난
테러사건의 여파였죠. -
3:21 - 3:23이 사진은 진짜 사진입니다.
가짜가 아니라요. -
3:23 - 3:26이 사진에 등장한 여성은
이후에 인터뷰에 응했는데요, -
3:26 - 3:29완전히 정신적 충격을 받았다고
설명을 하더군요. -
3:29 - 3:30그녀는 애인과 통화하는 중이었고,
-
3:30 - 3:33피해자를 제대로 보고 있지 않았습니다.
-
3:33 - 3:37하지만 이 사진은 이슬람 혐오
프레임이 씌워진 채 유포되었습니다. -
3:37 - 3:40#BanIslam(이슬람금지) 등
여러 해시태그가 달린 채 말이죠. -
3:40 - 3:43여러분이 트위터 직원이라면,
어떤 조치를 취하실 건가요? -
3:43 - 3:45이 사진을 내리실 건가요,
아니면 내버려두실 것인가요? -
3:47 - 3:50제 본능적 반응, 감정적 반응은
사진을 내린다는 것입니다. -
3:50 - 3:52저는 이 사진에 씌워진
프레임이 싫습니다. -
3:53 - 3:55하지만 표현의 자유는 인권이며,
-
3:55 - 3:58불편하다는 이유로
게시글을 내리기 시작한다면 -
3:58 - 3:59이 또한 문제가 될 수 있습니다.
-
4:00 - 4:02이 예시의 경우 명백해 보이지만,
-
4:02 - 4:04대부분의 게시물은 그렇지 않습니다.
-
4:04 - 4:06옳고 그름의 선을 긋기
매우 어렵습니다. -
4:06 - 4:08어떤 사람이 좋은 의도로
내려진 결정이 -
4:08 - 4:10다른 사람에게는 완전한 검열로
될 수 있습니다. -
4:11 - 4:14이제 우리는 이 계정,
Texas Lone Star가 -
4:14 - 4:17러시아의 거짓 정보 캠페인의 일부였고,
-
4:17 - 4:19그 때 이후 내려진
상태라는 걸 압니다. -
4:19 - 4:21이것이 여러분의 관점을
바꿀 수 있을까요? -
4:21 - 4:22제 관점은 변화시킬 듯 합니다.
-
4:23 - 4:25왜냐하면 이제 이 글은
불화를 초래하기 위해서 -
4:25 - 4:26설계된 캠페인의 일부이기 때문입니다.
-
4:26 - 4:28여러분 중에서 혹시
-
4:28 - 4:31인공지능이 우리의 문제를 해결해 줄 수
있다고 믿으시는 분이 있다면, -
4:31 - 4:33아마 이런 사건을 해결할 수 있는
인공지능이 등장하기 전까지는 -
4:33 - 4:36오랜 시간이 걸릴 것이라고
동의하실 겁니다. -
4:37 - 4:39그래서 저는 이 문제를
복잡하게 만드는 -
4:39 - 4:42세 가지 서로 맞물린 이슈에 대해
설명하고자 합니다. -
4:42 - 4:45그리고 우리가 이 문제의
해결 방법을 생각해보도록 하죠. -
4:45 - 4:49첫째로, 우리는 정보를 이성적으로
받아들이지 않습니다. -
4:49 - 4:51감정으로 받아들이죠.
-
4:51 - 4:55사실이 더 많아지면 모든 것이
괜찮아질 것이라는 건 사실이 아닙니다. -
4:55 - 4:58왜냐하면 우리가 어떤 콘텐츠를
볼지를 정하는 알고리즘은 -
4:58 - 5:01우리의 감정적인 반응을
우선시하게 되어 있습니다. -
5:01 - 5:02그리고 우리가 공포를 느낄 때,
-
5:02 - 5:05지나치게 축소된 이야기들,
음모론적인 설명들, -
5:05 - 5:09그리고 다른 사람을 탓하는 언어가
훨씬 효과적입니다. -
5:10 - 5:11게다가, 많은 이런 회사들의
-
5:11 - 5:14비즈니스 모델은 관심을 받는
정도에 따라 결정됩니다. -
5:14 - 5:18따라서 이 알고리즘들은 감정 변화에
치우쳐서 반응하게 됩니다. -
5:18 - 5:23둘째로, 제가 말하는 대부분의
내용은 법적인 문제입니다. -
5:23 - 5:25아동 성범죄 관련 사진 혹은
-
5:25 - 5:27폭력을 일으키는 내용이라면
-
5:27 - 5:29다른 문제가 될 수 있습니다.
-
5:29 - 5:32노골적인 거짓을 업로드하면
완벽히 법적인 문제가 될 수 있습니다. -
5:33 - 5:37하지만 사람들은 "문제가 되는" 또는
"해로운" 글을 내려야 한다고 합니다. -
5:37 - 5:40그 말이 무슨 뜻인지 명확한
정의를 내리지 못한 채 말이죠. -
5:40 - 5:41마크 저커버그를 포함해서요.
-
5:41 - 5:45그는 최근에 온건한 표현에 대한
국제적 규제를 촉구했습니다. -
5:45 - 5:47제가 걱겅되는 것은,
-
5:47 - 5:48전 세계 정부들이
-
5:48 - 5:51우리가 올리는 게시물, 표현에 있어
-
5:51 - 5:54훨씬 더 큰 결과를
촉발할수 있는 정책결정을 -
5:54 - 5:56성급하게 내놓고 있다는 것입니다.
-
5:56 - 6:00심지어 우리가 어떤 표현을 허용하고,
어떤 표현을 규제할지 정한다 해도 -
6:00 - 6:02이보다 더 많았던 적이
없었다는 게 문제죠. -
6:02 - 6:04매 초 마다, 수 백만 개의 게시글이
-
6:04 - 6:06세계 각지에서 업로드됩니다.
-
6:06 - 6:07여러 언어로 말이죠.
-
6:07 - 6:10수 천개의 다른
문화적 맥락이 들어간 것들이죠. -
6:10 - 6:13이런 규모의 표현을 제어할 수 있는
-
6:13 - 6:14효율적인 방법이 현재로선 없습니다.
-
6:15 - 6:17인간이 되었든,
기계가 되었든 간에 말이죠. -
6:18 - 6:22셋째로, 구글, 트위터,
페이스북, 왓츠앱과 같은 회사들은 -
6:22 - 6:25정보 생태계의 일부분을
차지할 뿐이라는 겁니다. -
6:25 - 6:28우리는 이 회사들을 탓하기 쉽지만,
-
6:28 - 6:32사실은, 매스미디어와 지도자들도
그들이 원할 때 -
6:32 - 6:35루머와 음모론을 확산할 수
있다는 것입니다. -
6:36 - 6:42우리도 마찬가지로 생각없이
오해의 소지가 있는 글을 공유합니다. -
6:42 - 6:44우리도 정보 생태계의 오염에
한 몫을 하는 겁니다. -
6:45 - 6:48우리는 모두 쉬운 해결책을
갈구하고 있습니다. -
6:48 - 6:50하지만 그런 건 존재하지 않습니다.
-
6:50 - 6:54어떤 해결책이든, 넓은 범위로,
인터넷 범위로 적용되어야 합니다. -
6:54 - 6:58그리고 소셜네트워크 플랫폼은
그 단계에 최적화되어 있습니다. -
6:58 - 7:01하지만 그렇다고 그들이 이 문제를 해결하도록
둘 수 있을까요? 그래야 할까요? -
7:02 - 7:03그들도 물론 노력하고 있긴 하죠.
-
7:03 - 7:07하지만 우리 대부분은
글로벌 기업들이 온라인에서 -
7:07 - 7:09진실과 공정의 수호자가 되는 것을
원치 않을 것입니다. -
7:09 - 7:12소셜플랫폼들도 이에 동의할 것입니다.
-
7:12 - 7:15지금 그들은, 스스로에게
내 준 숙제를 채점하고 있습니다. -
7:15 - 7:16그들은 우리에게
-
7:16 - 7:19그들이 설치한 제어 장치들이
작동하고 있다고 뻐기죠. -
7:19 - 7:22하지만 그들이 스스로
투명성 보고서를 쓰기 때문에, -
7:22 - 7:25무엇이 진짜로 일어나는지
우리가 확인할 길이 없습니다. -
7:26 - 7:30(박수)
-
7:30 - 7:33또, 우리가 보는 변화의 대부분은
-
7:33 - 7:36저널리스트들이 조사를 통해
편향되었다는 증거를 발견하거나, -
7:36 - 7:37커뮤니티 가이드라인을 위반하는
콘텐츠를 -
7:37 - 7:40발견한 이후에나 나타납니다.
-
7:41 - 7:45네, 이 회사들은 문제해결을 위해
아주 중요한 역할을 해야 하지만, -
7:45 - 7:47그것을 통제하지는 못합니다.
-
7:48 - 7:49정부는 어떨까요?
-
7:50 - 7:53많은 사람들은 우리의
정보 생태계를 정화시키기 위해서는 -
7:53 - 7:56전세계적인 규율이 필요하다고
믿고 있습니다. -
7:56 - 7:59하지만 정책 입안자들은
빠른 기술의 발전을 -
7:59 - 8:01따라가지 못하고 있습니다.
-
8:01 - 8:03설상가상으로, 정부는
암흑 속에서 일하고 있습니다. -
8:03 - 8:05이런 플랫폼에서 무슨 일이
일어나는지 알 길이 없습니다. -
8:05 - 8:08알 수 있는 데이터에
접근할 수 없으니까요. -
8:08 - 8:11게다가, 어떤 정부를
믿을 수 있을까요? -
8:11 - 8:14우리는 국가적인 대응보다는
세계적인 대응이 필요합니다. -
8:15 - 8:18여기서 빠진 연결고리가
바로 우리입니다. -
8:18 - 8:21이 기술을 매일매일 사용하는
우리들이지요. -
8:21 - 8:26양질의 정보를 지지하기 위한
새로운 인프라를 만들 수 있을까요? -
8:26 - 8:28저는 가능하다고 믿습니다.
-
8:28 - 8:31우리가 실제로 할 수 있는 일에 대한
몇 가지 아이디어가 있습니다. -
8:31 - 8:34첫째로, 사람들의 참여가
정말로 필요하다면, -
8:34 - 8:37위키피디아에서 영감을
얻을 수 없을까요? -
8:37 - 8:38그들은 무엇이 가능한지
우리에게 보여주었습니다. -
8:38 - 8:40네, 완벽하진 않지만,
-
8:40 - 8:42위키피디아는 투명성이 보장되고
-
8:42 - 8:45전 세계 사람들이 참여할 수 있는
기초적인 구조가 있다면 -
8:45 - 8:48사람들이 신뢰할 수 있는 플랫폼을
만들 수 있다는 것을 보여주었습니다. -
8:48 - 8:51왜냐하면 우리는 집단적 지혜와
모든 사용자들의 경험을 활용할 -
8:51 - 8:53방법을 찾아야 하기 때문입니다.
-
8:54 - 8:56이는 여성, 유색인종들, 그리고
대표성을 갖지 못하는 소수자들에게 -
8:56 - 8:58더욱 필요한 방법입니다.
-
8:58 - 8:59왜냐하면
-
8:59 - 9:01그들은 혐오와 허위 정보에
관해서라면 전문가니까요. -
9:02 - 9:05그들이야말로 오랫동안 혐오 캠페인의
표적이 되어왔기 때문이죠. -
9:05 - 9:07몇 년 전부터 그들은
의문을 제기하기 시작하였지만, -
9:07 - 9:09그들의 목소리는 아무도
듣지 않았습니다. -
9:09 - 9:10이는 바뀌어야 합니다.
-
9:11 - 9:15신뢰의 위키피디아
같은 것을 우리가 만들 수 있을까요? -
9:15 - 9:19사용자들이 자신의 통찰을
제시하게끔 할 방법을 찾을 수 있을까요? -
9:19 - 9:23그들은 어떤 표현이 온건한지와 같은,
판단이 어려운 결정에 통찰을 줄 수 있습니다. -
9:23 - 9:25플랫폼들이 새로운
변경사항을 출시할 때, -
9:25 - 9:28피드백을 줄 수도 있습니다.
-
9:28 - 9:32둘째로, 정보에 대한 사람들의 경험은
개인적이라는 것입니다. -
9:32 - 9:35저의 페이스북 피드는 여러분의 것과
아주 다릅니다. -
9:35 - 9:38여러분의 유튜브 추천목록은
제 것과 많이 다릅니다. -
9:38 - 9:40그래서 사람들이 무슨 정보를
보고 있는지 조사하는 것은 -
9:40 - 9:42불가능합니다.
-
9:43 - 9:44그렇다면
-
9:44 - 9:49익명화된 데이터를 위한 일종의
개방형 중앙 저장소를 개발해서 -
9:49 - 9:52개인 정보와 윤리를 보호할 수 있도록
할 수 있을까요? -
9:52 - 9:54예를 들어, 이런 경우 우리가 무엇을
배울 수 있을지 상상해볼까요. -
9:54 - 9:57이런 문제에 관심이 있고,
자신의 소셜데이터를 연구에 기부하려는 -
9:57 - 10:01시민들로 구성된
글로벌 네트워크를 만든다면 말이죠. -
10:01 - 10:03혐오와 허위 정보가
-
10:03 - 10:06장기적으로 사람들의 태도와 행동에
어떤 영향을 미치는지, -
10:06 - 10:08우리는 잘 알고 있지 못합니다..
-
10:08 - 10:09우리가 아는 것들은
-
10:09 - 10:12미국 한정으로 밝혀진 연구입니다.
-
10:12 - 10:14이 문제는 전 세계적인
문제인데 말이죠. -
10:14 - 10:16이 문제도 해결해야 합니다.
-
10:16 - 10:17세 번째로,
-
10:17 - 10:20점과 점을 서로 이을 방법을
찾을 수 있을까요? -
10:20 - 10:23어떤 한 비영리단체, 스타트업, 정부도
-
10:23 - 10:25이 문제를
스스로 해결할 수는 없습니다. -
10:25 - 10:27하지만 이 문제를 해결하기 위해
일하고 있는 아주 똑똑한 사람들이 -
10:27 - 10:29전 세계에 있습니다.
-
10:29 - 10:32뉴스 편집국에서부터 시민 사회,
학계, 권익 보호 운동 단체까지요. -
10:32 - 10:34여기 그들 중 일부를 보실 수 있습니다.
-
10:34 - 10:37몇 명은 콘텐츠 신뢰성을 나타내는
지표를 개발 중입니다. -
10:37 - 10:38몇 명은 팩트체크를 하고 있습니다.
-
10:38 - 10:42거짓 정보, 비디오와 사진들이
순위에서 멀어질 수 있게 말이죠. -
10:42 - 10:44제가 설립을 도운 비영리단체인
퍼스트 드래프트(First Draft)는 -
10:44 - 10:47평균적으로 경쟁력있는
뉴스 편집국들과 함께 일하며 -
10:47 - 10:51그들이 협력할 수 있는
프로그램을 세울 수 있도록 돕습니다. -
10:51 - 10:54소프트웨어 설계자인
대니 힐즈(Danny Hillls)는 -
10:54 - 10:56언더레이(The Underlay)라고 불리는
새로운 시스템을 만들고 있습니다. -
10:56 - 10:59이는 인터넷 상의
모든 발언들과 그 출처를 엮은 -
10:59 - 11:00기록물입니다.
-
11:00 - 11:04사람들과 알고리즘이 믿을 만한 정보를
가려내는 것을 도와주죠. -
11:05 - 11:08전 세계의 교육자들은
사람들이 접하는 정보들을 -
11:08 - 11:12비판적으로 받아들일 수 있게
교육하는 방법을 찾고 있습니다. -
11:13 - 11:16이 모든 노력들은 대단하지만
그들은 지하에서 일하고 있습니다. -
11:16 - 11:18대부분은 자금 부족을 겪고 있죠.
-
11:19 - 11:21또한 수백 명의 정말 똑똑한 인재들이
-
11:21 - 11:22이들 회사에서 일하고 있지만,
-
11:22 - 11:25이들의 노력이 서로 연결되고 있지
않은 느낌입니다. -
11:25 - 11:29같은 문제에 대해 서로 다른
해결책을 만들고 있기 때문이죠. -
11:29 - 11:31어떻게 하면 이 사람들을
며칠 혹은 몇 주 간, -
11:31 - 11:35하나의 물리적인 공간에 모아서,
-
11:35 - 11:37그들이 자신들의 견해와 관점을 제시하며
-
11:37 - 11:39이 문제를 함께 해결하도록
할 수 있을까요? -
11:39 - 11:40이것이 가능할까요?
-
11:40 - 11:44우리의 문제가 복잡하고 큰 만큼
-
11:44 - 11:47우리도 잘 설계된 해결 방법을
야심차게 내놓을 수 있을까요? -
11:48 - 11:49저는 이것이 가능하다고 믿습니다.
-
11:49 - 11:52함께 안전한 정보 공동체를
재구축해 봅시다. -
11:53 - 11:54감사합니다.
-
11:54 - 11:58(박수)
- Title:
- 인터넷을 신뢰의 장소로 변화시키는 방법
- Speaker:
- 클레어 워들(Claire Wardle)
- Description:
-
어떻게 하면 표현의 자유를 보장하면서도 오해의 소지가 있고 때로는 위험한 내용이 확산되는 것을 막을 수 있을까요? 거짓 정보 전문가인 클레어 워들은 우리의 오염된 온라인 생태계 상의 새로운 문제들을 탐구하고, 사용자들의 도움으로 인터넷을 신뢰의 장소로 변화시키려는 계획을 구상합니다. "다같이 우리의 정보 공동체를 재구축합시다."라고 그녀는 말합니다.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
Jihyeon J. Kim approved Korean subtitles for How you can help transform the internet into a place of trust | ||
Jihyeon J. Kim edited Korean subtitles for How you can help transform the internet into a place of trust | ||
Jihyeon J. Kim edited Korean subtitles for How you can help transform the internet into a place of trust | ||
Whayoung Cha accepted Korean subtitles for How you can help transform the internet into a place of trust | ||
Whayoung Cha edited Korean subtitles for How you can help transform the internet into a place of trust | ||
Whayoung Cha edited Korean subtitles for How you can help transform the internet into a place of trust | ||
Whayoung Cha edited Korean subtitles for How you can help transform the internet into a place of trust | ||
Whayoung Cha edited Korean subtitles for How you can help transform the internet into a place of trust |