Return to Video

트위터는 어떻게 바뀌어야 할까요

  • 0:01 - 0:04
    크리스 앤더슨:
    지금 걱정하는 건 무엇인가요?
  • 0:04 - 0:06
    트위터에 관한 다양한 이슈를
    알고 계실 겁니다
  • 0:06 - 0:11
    현재 상황에서 가장
    걱정하는 것은 무엇인가요?
  • 0:11 - 0:14
    잭 도시: 지금 당장은,
    대화의 건전성이요.
  • 0:14 - 0:18
    저희의 목적은 대중의 대화에
    기여하는 것이지만
  • 0:18 - 0:23
    대화 중 일어나는
    많은 공격을 봤습니다.
  • 0:23 - 0:26
    우리는 욕설도 봤고, 괴롭힘도 봤으며,
  • 0:26 - 0:29
    조작도 봤었고,
  • 0:29 - 0:33
    자동화나, 인간의 조직화,
    또는 허위정보도 있었습니다.
  • 0:34 - 0:38
    모두 저희가 예상치 못했던 상황입니다.
  • 0:38 - 0:42
    13년 전에 회사를 세웠을 때는
    예상치 못했던 것들이죠.
  • 0:42 - 0:45
    하지만 이런 문제의 규모가
    점점 커졌습니다.
  • 0:45 - 0:50
    가장 걱정하는 건
    이 문제를 다루는 저희의 능력입니다.
  • 0:50 - 0:53
    확장 가능하고 체계적인 방법이어야 하고
  • 0:53 - 1:00
    저희가 조치를 취하는 방법을
    철저히 이해해야 해요.
  • 1:00 - 1:03
    즉, 행동을 취하는 방법에 대한
    확실한 이해가 필요해요.
  • 1:03 - 1:06
    그리고 저희가 잘못했을 때
    확실한 항소 절차가 필요하죠.
  • 1:06 - 1:08
    저희는 잘못을
    저지를 수밖에 없으니까요.
  • 1:09 - 1:13
    휘트니 페닝턴 로저스:
    그런 걱정을 들으니 정말 기쁘네요.
  • 1:13 - 1:16
    왜냐하면 트위터에서 욕설을 듣거나
    괴롭힘을 당하는
  • 1:16 - 1:18
    사람들에 대한 글이 많았거든요.
  • 1:18 - 1:22
    특히나 여성, 유색인 여성,
  • 1:22 - 1:23
    흑인 여성에게요.
  • 1:23 - 1:25
    국제 앰네스티에서
  • 1:25 - 1:28
    몇 달 전 발표한 보고서에 따르면
  • 1:28 - 1:33
    흑인 여성 트위터 사용자의 일부가
  • 1:33 - 1:36
    트윗할 때마다
    평균적으로 10번 중에 1번은
  • 1:36 - 1:38
    괴롭힘을 당하고 있다고 합니다.
  • 1:38 - 1:42
    건강한 트위터 커뮤니티에 대한
    생각을 말씀하실 때
  • 1:42 - 1:46
    "모두를 위한 건강"이라는 말을
    흥미롭게 들었습니다.
  • 1:46 - 1:49
    하지만 구체적으로 어떻게
    여성, 유색인종인 여성과
  • 1:49 - 1:54
    흑인 여성에게도 안전한 장소로
    만들 계획이신가요?
  • 1:54 - 1:55
    잭: 맞아요.
  • 1:55 - 1:57
    그건 정말 끔찍한 상황이죠.
  • 1:57 - 1:59
    사람들은 트위터를 이용하면서
  • 1:59 - 2:03
    세계에 대해 더 배우는 걸 꿈꿨지만,
  • 2:03 - 2:09
    그 시간의 대부분을 욕을 듣거나,
    비방 받거나, 괴롭힘을 당하고
  • 2:09 - 2:11
    신고를 하며 보내죠.
  • 2:11 - 2:18
    그래서 가장 자세히 보려는 것은
    플랫폼과 서비스가
  • 2:18 - 2:22
    자연스럽게 제공하는 장려책입니다.
  • 2:22 - 2:27
    지금 당장은, 괴롬힘이 일어나기
    너무 쉬운 시스템이죠.
  • 2:27 - 2:31
    다른 사람을 비방하는 것도요.
  • 2:31 - 2:34
    불행히도, 과거에
    저희 시스템의 대부분은
  • 2:34 - 2:39
    온전히 사람들이 비방과 남용을
    신고하는 것에만 의지했었죠.
  • 2:39 - 2:45
    그래서 작년 중반에 저희는 그 문제에
  • 2:45 - 2:49
    더 많은 기계학습과
    딥 러닝을 적용해 보기로 결정했습니다.
  • 2:49 - 2:53
    또 어디서 비방이 일어나고 있는지에
    대해 사전 대책을 찾으려 했습니다.
  • 2:53 - 2:57
    피해자의 부담을
    완전히 덜어버리기 위해서요.
  • 2:57 - 3:00
    그리고 최근에 어느 정도
    진전이 있었습니다.
  • 3:00 - 3:06
    기계학습 알고리즘을 통해서
    비방 트윗 중 38%를
  • 3:06 - 3:08
    사전에 파악할 수 있습니다.
  • 3:08 - 3:10
    그래서 더 이상
    신고할 필요가 없어졌습니다.
  • 3:10 - 3:14
    하지만 그렇게 파악한 트윗들은
    여전히 사람이 검토합니다
  • 3:14 - 3:19
    사람이 직접 확인하지 않으면
    컨텐츠나 계정을 삭제하지 않습니다.
  • 3:19 - 3:22
    하지만 불과
    일 년 전만 해도 0%였죠.
  • 3:22 - 3:24
    다시 말해, 비율이 0%였을 때는
  • 3:24 - 3:28
    비방을 받은 사람이
    직접 신고해야만 했고,
  • 3:28 - 3:31
    그건 그들에게도 저희에게도
    너무 복잡한 일이었습니다.
  • 3:31 - 3:33
    그리고 정말 부당한 일이었죠.
  • 3:35 - 3:38
    또 회사에서 진행 중인 다른 작업으로는
  • 3:38 - 3:42
    반드시 모든 공동체가
    표현할 수 있게 만드는 겁니다.
  • 3:42 - 3:44
    실제로 저희 장벽 안에서
  • 3:44 - 3:47
    이런 문제를 매일 느끼는
    다양한 시각이 없다면
  • 3:47 - 3:51
    저희는 성공적인 비즈니스를
    구축할 수 없습니다.
  • 3:51 - 3:55
    단순히 그 작업을 하는 팀뿐만 아니라
  • 3:55 - 3:57
    저희 리더십 안에서도
    이뤄져야 하는 거죠.
  • 3:57 - 4:03
    그래서 사람들이 경험한 것에
    공감대를 형성하고
  • 4:03 - 4:06
    사람들이 이용할 수 있는
    더 나은 도구를 주려는 겁니다.
  • 4:06 - 4:10
    또 고객이 보고 있는 걸
    처리할 수 있는
  • 4:10 - 4:13
    더 쉽고 좋은 접근 방식도
    제공해야 합니다.
  • 4:13 - 4:16
    대부분의 작업은
    기술과 관련된 것이지만
  • 4:16 - 4:20
    장려 제도 역시 검토하고 있습니다.
  • 4:20 - 4:25
    트위터를 처음 켰을 때
    무엇을 하도록 유도하나요?
  • 4:25 - 4:27
    예전에는,
  • 4:29 - 4:34
    큰 분노를 일으키고
    많은 군중 행위를 일으켰으며
  • 4:34 - 4:37
    집단 폭력을 많이 일으켰죠.
  • 4:37 - 4:40
    큰 변화를 일으키기 위해서는
    서비스가 하는 일의
  • 4:40 - 4:43
    기본 원칙을 자세히 살펴봐야 합니다.
  • 4:43 - 4:47
    제가 말씀드렸듯이, 기술을 이용해
    수많은 작은 변화를 만들 수 있습니다.
  • 4:47 - 4:52
    하지만 궁극적으로는 네트워크 그 자체의
    역학관계를 자세히 살펴봐야 합니다.
  • 4:52 - 4:53
    그게 저희가 하는 거죠.
  • 4:53 - 4:55
    크리스: 그렇다면 어떤...
  • 4:55 - 4:59
    어떤 게 실제로 행동의 근본적인 변화를
  • 4:59 - 5:02
    만들어낼 수 있을까요?
  • 5:03 - 5:05
    잭: 글쎄요, 저희 서비스는
  • 5:05 - 5:10
    계정을 팔로우하는 발상과
    함께 시작했죠.
  • 5:10 - 5:12
    예를 들면 말이죠.
  • 5:12 - 5:16
    하지만 사람들이 트위터를 이용하는 건
    그것 때문이 아니라고 생각해요.
  • 5:16 - 5:21
    흥미 기반의 네트워크로써는
    트위터가 최고라고 생각합니다.
  • 5:21 - 5:25
    사람들은 특정한 흥미를 가지고 와요.
  • 5:25 - 5:30
    그들의 흥미와 관련된 계정을 찾고
    팔로우하기까지 할 일이 너무 많죠.
  • 5:30 - 5:34
    대신 트위터에선 흥미를 팔로우하고,
  • 5:34 - 5:36
    해쉬태그, 트렌드를 팔로우하고
  • 5:36 - 5:38
    공동체를 팔로우해요.
  • 5:38 - 5:42
    그러면 특정한 주제와 흥미에 관련된
  • 5:42 - 5:46
    모든 계정, 토픽, 모멘트, 해쉬태그를
  • 5:46 - 5:50
    보여줄 기회가 생겨요.
  • 5:50 - 5:54
    보는 시각을 넓혀주는 것이죠.
  • 5:54 - 5:56
    하지만 전체적인 네트워크에 집중한
  • 5:56 - 6:00
    단순히 계정에 편향된 게 아니라
    주제와 흥미에 기댄
  • 6:00 - 6:03
    거대한 기본 원리의 변화에요.
  • 6:03 - 6:06
    크리스: 하지만 트위터에 그렇게
  • 6:07 - 6:11
    많은 컨텐츠가 있는 건 결국
  • 6:11 - 6:15
    전 세계의 이용자 수백만 명이
  • 6:15 - 6:18
    서로 싸움을 벌이고 있기
    때문이지 않나요?
  • 6:18 - 6:20
    팔로워와 관심을 얻기 위해서요.
  • 6:20 - 6:24
    트위터를 방금 본 사람의
    시각에서 봤을 때는요.
  • 6:24 - 6:25
    별로 문제가 아니에요.
  • 6:25 - 6:29
    하지만 싸움을 일으키는
    사람들은 실제로 이렇게 말해요.
  • 6:29 - 6:32
    "난 더 많은 '좋아요'와
    팔로워, 리트윗을 얻고 싶어" 라고요.
  • 6:32 - 6:34
    그래서 더 많이 얻을 방법을
  • 6:34 - 6:36
    계속 시험해보고 찾아내려 하죠.
  • 6:36 - 6:40
    그리고 관심을 얻을 수 있는
    최고의 방법은
  • 6:40 - 6:44
    일부러 도발하고,
  • 6:44 - 6:47
    능란한 말솜씨로
    불쾌하게 만드는 거였어요.
  • 6:47 - 6:50
    트위터에서 설득력 있게 모욕하는 걸
    꿈꾸는 사람들이죠.
  • 6:50 - 6:53
    그렇게 쌓아올리다 보면
  • 6:53 - 6:57
    이 분개에 기름을
    붓는 꼴이 되는 거죠.
  • 6:57 - 7:00
    이 문제는 어떻게 완화시키나요?
  • 7:01 - 7:04
    잭: 네, 정확히 말씀해주셨어요.
  • 7:04 - 7:05
    장려책 이야기로
    다시 돌아 가는데요.
  • 7:06 - 7:08
    예전에 저희가 했던 선택 중 하나는
  • 7:08 - 7:13
    팔로워 숫자를 보여주는 거였어요.
  • 7:13 - 7:16
    그 숫자는 크고 굵은 볼드체여야 했고
  • 7:16 - 7:20
    크고 굵다는 건 중요하다는 뜻이죠.
  • 7:20 - 7:22
    그럼 그것들을 가지고 싶어지고요.
  • 7:22 - 7:24
    그게 옳은 결정이었냐고요?
  • 7:24 - 7:25
    아마 아니겠죠.
  • 7:25 - 7:27
    만약 이 서비스를 다시 시작한다면
  • 7:27 - 7:29
    지금처럼 팔로워 숫자를
    강조하진 않을 거예요.
  • 7:29 - 7:32
    "좋아요" 수도 이렇게
    강조하지 않을 거고요.
  • 7:32 - 7:35
    애초에 "좋아요"를
    만들지도 않을 것 같네요.
  • 7:35 - 7:38
    왜냐하면 지금은 그게
  • 7:38 - 7:41
    가장 중요한 게 아니라고
    생각하기 때문이에요.
  • 7:41 - 7:44
    반대로 네트워크에
    건전하게 기여하는 것,
  • 7:44 - 7:47
    대화에서 네트워크로,
  • 7:47 - 7:49
    대화에 참여하는 것,
  • 7:49 - 7:52
    대화를 통해 무언가를
    배우는 것이 가장 중요하죠.
  • 7:52 - 7:54
    13년 전에는
    생각하지 못했던 것들이지만
  • 7:54 - 7:57
    지금은 굉장히
    중요하게 여기는 것이에요.
  • 7:57 - 8:00
    그래서 우리가 생각봐야 할 건
    어떻게 팔로워 수를 표시하고
  • 8:00 - 8:04
    어떻게 리트윗 수와 "좋아요" 수를
    표시할지 입니다.
  • 8:04 - 8:06
    그래서 심층적인 질문을 하죠.
  • 8:06 - 8:09
    우리는 정말 사람들이
    이 숫자들을 높이길 원하는 걸까요?
  • 8:09 - 8:12
    트위터를 켰을 때
    그 숫자를 보고 이러실 수 있죠.
  • 8:12 - 8:14
    "저게 내가 높여야 하는 거야?"
  • 8:14 - 8:16
    지금은 전혀 그렇지 않다고 생각해요.
  • 8:16 - 8:19
    (박수)
  • 8:19 - 8:21
    휘트니: 현장에 계신 관객 분들이
  • 8:21 - 8:23
    올려주신 트윗들도 봐야할 것 같네요.
  • 8:24 - 8:26
    크리스: 어떤 질문을 하셨는지 보죠.
  • 8:26 - 8:30
    이런 점이 트위터의 놀라운 점 같아요.
  • 8:30 - 8:32
    집단 지성을 활용하는 방식이요.
  • 8:32 - 8:37
    생각보다
    훨씬 더 많은 지식, 더 많은 질문,
  • 8:37 - 8:38
    더 넓은 시각을 볼 수 있죠.
  • 8:38 - 8:42
    그리고 대부분이
    건강한 내용일 때도 있고요.
  • 8:42 - 8:45
    휘트니: 지금 막 지나간 트윗들 중에
    이런 질문이 있네요.
  • 8:45 - 8:49
    "트위터는 2020년 미국 대선에 대한
    외부 간섭을 어떻게 방지할 계획이죠?"
  • 8:49 - 8:51
    인터넷에서 일반적으로 볼 수 있는
  • 8:51 - 8:53
    논쟁거리인 것 같아요.
  • 8:53 - 8:56
    악의를 가진 자동화된 활동도
    많이 보게 되죠.
  • 8:56 - 9:02
    트위터로 예를 들어보자면요.
  • 9:02 - 9:05
    지그널 연구소에 있는 친구에게
    자료를 받았는데
  • 9:05 - 9:07
    제가 말씀드리는 내용의 예시를
  • 9:07 - 9:09
    볼 수 있을 것 같네요.
  • 9:09 - 9:12
    트위터 봇이나
  • 9:13 - 9:17
    악의를 가진 자동 계정의 활동이
  • 9:17 - 9:20
    선거 등에 영향을 미치기 위해
    사용되고 있습니다.
  • 9:20 - 9:24
    지그널에서 공유한 이 예시는
  • 9:24 - 9:26
    트위터의 데이터를 이용한 건데요.
  • 9:26 - 9:28
    이 사례에서도 실제로 나타납니다.
  • 9:28 - 9:33
    각각의 흰색 점은
    실제 사람의 계정을 뜻해요
  • 9:33 - 9:34
    더 진한 분홍색 점일수록
  • 9:34 - 9:36
    자동화된 계정의 활동이죠.
  • 9:36 - 9:42
    사람들이 봇들과 얼마나
    교류하는지 보이실 겁니다.
  • 9:42 - 9:46
    이 예시는 이스라엘의
    선거 데이터인데요.
  • 9:46 - 9:49
    베니 간츠에 대한 허위정보를
    퍼뜨리고 있습니다.
  • 9:49 - 9:52
    아시다시피, 결국 그 선거는
  • 9:52 - 9:56
    간발의 차로 네타냐후가 승리했죠.
  • 9:56 - 9:59
    이것의 영향도 받았을 수도 있습니다.
  • 9:59 - 10:01
    트위터에서 일어나는 일에 대해
    생각해보셨을 때
  • 10:01 - 10:04
    특히 이런 식으로 잘못된 정보가 퍼져서
  • 10:04 - 10:07
    사람들과 민주주의에
    영향을 미치지 않도록
  • 10:07 - 10:12
    어떤 일을 하고 있나요?
  • 10:12 - 10:13
    잭: 다시 말씀드리자면,
  • 10:13 - 10:16
    저희는 스스로에게 질문을 던졌습니다.
  • 10:16 - 10:20
    실제로 대화의 건전성을
    측정할 수 있을까?
  • 10:20 - 10:22
    그건 무슨 의미가 있을까?
  • 10:22 - 10:25
    여러분이 지표를 가지고 계신 것처럼
  • 10:25 - 10:28
    인간 역시 건강한지 아닌지를 나타내는
    척도를 가지고 있습니다.
  • 10:28 - 10:33
    체온과 얼굴의 홍조 같은 거죠.
  • 10:33 - 10:38
    저희는 대화의 건전성 역시
    측정할 수 있다고 믿습니다.
  • 10:38 - 10:42
    MIT의 코르티코 연구실과도
    협업하고 있습니다.
  • 10:42 - 10:49
    궁극적으로 시스템에서
    측정할 수 있다고 믿는
  • 10:49 - 10:52
    네 가지 기본 지표를
    제시하기 위해서요.
  • 10:53 - 10:59
    첫 번째 지표는 공동의 관심사라고
    부르는 것인데요.
  • 10:59 - 11:02
    같은 주제와 전혀 다른 주제에 대한
    대화에 대해서 각각
  • 11:02 - 11:05
    얼마나 주의를 기울이는지
    측정하는 지수입니다.
  • 11:06 - 11:09
    두 번째는 공유되는 현실이라는
    지표인데요.
  • 11:09 - 11:11
    이것은 대화의 몇 퍼센트가
  • 11:12 - 11:14
    같은 사실을 공유하는지 나타내요.
  • 11:14 - 11:17
    그 사실이 얼마나 믿을만한지가 아니라
  • 11:17 - 11:20
    대화할 때 같은 사실을
    공유하고 있는지 말이죠.
  • 11:20 - 11:23
    세 번째는 수용성입니다.
  • 11:23 - 11:27
    대화가 얼마나 수용적이고 호의적인지,
  • 11:27 - 11:30
    또는 정반대이고 유독한지 측정하죠.
  • 11:30 - 11:33
    그리고 네 번째는 관점의 다양성입니다.
  • 11:33 - 11:37
    필터버블이나 에코챔버 효과를
    경험하고 있는 건지,
  • 11:37 - 11:40
    아니면 실제로 대화에서 다양한 의견을
  • 11:40 - 11:41
    보고 있는 건지 측정하죠.
  • 11:41 - 11:45
    그리고 이 네 가지 지표에서
    암묵적으로 나타나는 건
  • 11:45 - 11:49
    지표들이 높아질수록
    대화도 더 건강해진다는 거죠.
  • 11:49 - 11:54
    그래서 그 첫 걸음은 온라인에서
    측정 가능한지 확인하는 것이며,
  • 11:54 - 11:55
    실제로 가능하다고 생각합니다.
  • 11:55 - 11:58
    수용성 지표에는
    가장 높은 가속도가 붙고 있어요.
  • 11:58 - 12:03
    유독성 점수와 유독성 모델도
    시스템 상에 보유하고 있습니다.
  • 12:03 - 12:07
    트위터 상에서 대화화던 도중
  • 12:07 - 12:09
    꽤나 높은 수준의
  • 12:09 - 12:11
    유해함을 느꼈을 때
  • 12:11 - 12:13
    대화에서 떠나버릴지 측정하는 도구죠.
  • 12:14 - 12:17
    다른 것도 측정하기 위해 노력중이며,
  • 12:17 - 12:19
    해결 방안 구축의
  • 12:19 - 12:22
    다음 단계는,
  • 12:22 - 12:25
    이 측정치들이 시간이 지나면서
    어떤 추세를 보이는지 확인하고
  • 12:25 - 12:27
    계속해서 실험해보는 겁니다.
  • 12:27 - 12:31
    저희의 목표는 이 지수들이
    균형을 이루는 것입니다.
  • 12:31 - 12:35
    어느 한 지수가 증가하면,
    다른 지수는 떨어지기 때문이죠.
  • 12:35 - 12:37
    관점의 다양성이 증가하면
  • 12:37 - 12:40
    공유 현실 지수는 낮아집니다.
  • 12:40 - 12:45
    크리스: 올라오는 질문들 중에서
    골라보죠.
  • 12:45 - 12:47
    잭: 계속 질문이 올라오네요.
  • 12:47 - 12:51
    크리스: 많은 사람들이
  • 12:51 - 12:55
    트위터 상의 나치를 처리하는 게
    얼마나 힘든 건지 궁금해하네요.
  • 12:56 - 12:58
    잭: (웃음)
  • 12:58 - 13:05
    저희도 폭력적인 극단주의자들에 관한
    정책이 있습니다.
  • 13:05 - 13:09
    그리고 대부분의 업무와 이용약관은
  • 13:09 - 13:13
    내용이 아니라 행동에 따라
    이루어집니다.
  • 13:13 - 13:15
    그래서 실제로 행동을 관찰하죠.
  • 13:15 - 13:18
    반복적으로 또는 단편적으로
  • 13:18 - 13:22
    다른 사람을 괴롭히기 위해서
  • 13:22 - 13:28
    KKK단 혹은 나치당원과
    관련될 수 있는
  • 13:28 - 13:30
    혐오스러운 이미지를
    사용하는 행동들이요.
  • 13:30 - 13:34
    이런 행동은 저희가
    즉시 조치를 취합니다.
  • 13:35 - 13:40
    지금은 그 용어가 꽤 막연하게
    사용되곤 하지만
  • 13:40 - 13:46
    저희는 그 누구도 그 단어를
    다른 사람을 비난하기 위해
  • 13:46 - 13:48
    사용하는 걸 용납할 수 없어요.
  • 13:48 - 13:52
    그런 사람들이 모두 플랫폼에서
    제거되야 한다는 사실에 입각해서요.
  • 13:52 - 13:54
    그래서 저희의 모델은
    이런 수칙에 기반하고 있습니다.
  • 13:54 - 13:58
    첫 번째로, 이 계정이 폭력적인
    극단주의자들과 연관되어 있는가?
  • 13:58 - 14:00
    그렇다면, 조치를 취할 수 있습니다.
  • 14:00 - 14:03
    실제로도 수많은 KKK단과
    미국 나치당원 등을 처리했죠.
  • 14:03 - 14:08
    두 번째는, 마찬가지로 위의 단체와
    연관될 수 있는 사진이나 행동을
  • 14:08 - 14:10
    사용하는지 확인합니다.
  • 14:10 - 14:15
    크리스: 그럼 이를 확인하는
    사람들은 얼마나 있나요?
  • 14:15 - 14:16
    잭: 때에 따라 다릅니다.
  • 14:16 - 14:18
    저희는 유연하게 대처하려 해요.
  • 14:18 - 14:20
    왜냐하면 첫째로, 단순히
    수많은 사람들을 고용하기보다
  • 14:20 - 14:25
    알고리즘을 만들고 싶었기 때문입니다.
  • 14:25 - 14:28
    왜냐하면 이것들을 측정 가능성을
    확신하고 싶었고
  • 14:28 - 14:31
    또 실제로 이걸 다 측정하려면
    너무 많은 사람이 필요하기 때문입니다.
  • 14:31 - 14:38
    그래서 실제로 사람이 확인해야만 하는
    비방을 사전적으로 탐지하기 위해
  • 14:38 - 14:39
    많은 노력을 쏟고 있죠.
  • 14:39 - 14:42
    저희는 알고리즘이 끊임없이
  • 14:42 - 14:46
    모든 트윗 하나하나를 샅샅이 뒤져서
  • 14:46 - 14:48
    가장 흥미로운 것을
    제일 위쪽으로 올리면
  • 14:48 - 14:52
    이용약관에 따라 사람이 직접
    조치를 취할지 말지 결정하는
  • 14:52 - 14:54
    시스템을 갖고 싶습니다.
  • 14:54 - 14:57
    휘트니: 실제로 측정할 수 있는
    인원은 없다고 하셨지만,
  • 14:57 - 15:00
    현재 이런 계정들을 모티터링하는
    요원들은 얼마나 있나요?
  • 15:00 - 15:03
    그리고 어느 정도가 충분한지
    어떻게 알죠?
  • 15:03 - 15:05
    잭: 그건 정말 유동적이에요.
  • 15:05 - 15:08
    어떨 땐 일반적인 사람들을
    스팸으로 분류하고
  • 15:08 - 15:12
    어떨 땐 평범한 사람을
    비방과 괴롭힘으로 분류할 때도 있어요.
  • 15:12 - 15:15
    저희는 직원이 가장 필요한 곳에서
    곧바로 일할 수 있게
  • 15:15 - 15:17
    직원들이 융통성을
    가질 수 있게 하고 싶어요.
  • 15:17 - 15:18
    그게 선거일 수도 있죠.
  • 15:19 - 15:23
    멕시코에서 연이은 선거가 있었고,
    인도에서도 곧 선거가 있죠.
  • 15:23 - 15:28
    작년의 선거와 중간 선거도 그렇고요.
  • 15:28 - 15:30
    그래서 저희의 자원을
    유연하게 사용하고 싶어요.
  • 15:30 - 15:33
    그래서 예를 들면,
  • 15:33 - 15:39
    지금 저희 이용약관 페이지를
  • 15:39 - 15:41
    확인해보시면,
  • 15:41 - 15:44
    방금 받은 비방과 괴롭힘이
  • 15:44 - 15:48
    이용약관을 어겨서 신고해야 하는 건지
    궁금해져서 확인해보면
  • 15:48 - 15:51
    이용약관 첫 페이지가
  • 15:51 - 15:54
    지적재산권에 관련되었다는 걸
    알 수 있습니다.
  • 15:55 - 16:00
    스크롤을 내리면 비방과 괴롭힘,
    그 외에도 경험할 수 있는 것에 관한
  • 16:00 - 16:02
    이용약관이 나옵니다.
  • 16:02 - 16:05
    이 회사가 어떤 역사를 거쳐서
    그렇게 되었는지 모르지만,
  • 16:05 - 16:10
    사람들이 가장 원하는 정보이자
    조치를 취해줬으면 하는 것을
  • 16:12 - 16:15
    가장 위에 올려놓습니다.
  • 16:15 - 16:21
    그 순서는 세상 사람들이
    가장 중요하게 생각하는 것들의 순서죠.
  • 16:21 - 16:24
    그래서 모두 바꾸려고 노력 중입니다.
  • 16:24 - 16:25
    올바른 순서대로요.
  • 16:25 - 16:29
    그와 동시에 언제 약관을 어기고
    언제 어기지 않았는지
  • 16:29 - 16:33
    실제로 이용약관을
    이해할 수 있도록
  • 16:33 - 16:36
    사람들이 알아보기 쉽게
    규칙을 단순화하려고 합니다.
  • 16:36 - 16:38
    그리고 다시 말씀드리지만 저희는
  • 16:38 - 16:44
    피해자의 짐을 덜어주는 것에
    집중하고 있습니다.
  • 16:44 - 16:47
    사람이 직접 일하기보다는
  • 16:47 - 16:49
    점점 더 기술에 집중한다는 뜻이죠.
  • 16:49 - 16:52
    사람이 직접 비방을 듣고,
  • 16:52 - 16:55
    사람이 또 검토하는 것에서
    벗어나려는 거죠.
  • 16:55 - 16:56
    그래서 저희는 절대로
  • 16:56 - 16:59
    굉장히 부정적인 내용을 관한 일을
  • 16:59 - 17:02
    장려하기 보다는
  • 17:02 - 17:05
    기술과 사람의 창의성 사이에서
  • 17:05 - 17:08
    규칙을 판단하는
  • 17:08 - 17:11
    좋은 균형을 가져오려 합니다.
  • 17:11 - 17:14
    그저 문제 계정을 발견하고 신고하는
    메커니즘에 그치지 않을 겁니다.
  • 17:14 - 17:15
    그게 저희의 생각입니다.
  • 17:15 - 17:18
    크리스: 말씀하신 것에 대해
    더 궁금한게 있어요.
  • 17:18 - 17:21
    반작용을 보이는 행동을 저지하는
  • 17:21 - 17:29
    시스템의 기초적인 디자인을
    바꾸는 방법을 찾고 계신다니 기쁩니다.
  • 17:29 - 17:32
    사람들이 더 성찰할 수 있게 만드는
  • 17:32 - 17:36
    트리스탄 해리스씨의 화법처럼요.
  • 17:36 - 17:38
    지금까지 그건 얼마나 발전했죠?
  • 17:38 - 17:42
    "좋아요" 버튼의 대안은 무엇일까요?
  • 17:44 - 17:47
    잭: 글쎄요, 첫째로 가장 중요한 건
  • 17:47 - 17:53
    서비스의 개인적인 목표는 기본적으로
  • 17:53 - 17:56
    대중적인 논의가 중요해지는 거예요.
  • 17:56 - 17:58
    세계가 직면한 실존적 문제에
  • 17:58 - 18:02
    전세계의 대중적인 논의는
    도움을 줄 수 있습니다.
  • 18:02 - 18:05
    특정 국가만이 아니라
    전세계가 직면한 문제요.
  • 18:05 - 18:08
    그게 트위터가 가진 독특한 원동력이죠.
  • 18:08 - 18:09
    누구나 참여할 수 있고
  • 18:09 - 18:11
    충분히 대중적이며,
  • 18:11 - 18:12
    엄청난 유동성을 지녔죠.
  • 18:12 - 18:16
    누구나 어느 대화든 볼 수 있고
    대화에 참여할 수 있어요.
  • 18:16 - 18:19
    기후 변화에 관한 대화도 있고요.
  • 18:19 - 18:21
    인공지능 때문에 발생하는
  • 18:21 - 18:23
    해고와 관련된 대화도 있죠.
  • 18:23 - 18:26
    경제 격차에 대한 대화도 있습니다.
  • 18:26 - 18:29
    어느 국가가 되었든지,
  • 18:29 - 18:32
    혼자서 문제를 해결할 수는 없습니다.
  • 18:32 - 18:34
    세계의 협력이 필요하고,
  • 18:34 - 18:37
    제 생각엔 거기에 트위터가
    일조할 수 있다는 겁니다.
  • 18:37 - 18:43
    두 번째로는,
    지금 트위터에 들어갔을 때
  • 18:43 - 18:47
    꼭 뭔가를 배웠다는 생각을 가지고
    떠나진 않죠.
  • 18:47 - 18:48
    누군가는 그러겠지만요.
  • 18:48 - 18:51
    어떤 사람은 엄청난 네트워크를 가지고,
  • 18:51 - 18:54
    다양한 공동체에 속해서 뭔가를
    매일 배우기도 하겠죠.
  • 18:54 - 18:58
    하지만 그런 네트워크를 만들기 위해선
    많은 노력과 시간이 필요합니다.
  • 18:58 - 19:02
    그래서 저희는 사람들이
    그런 주제와 흥미를
  • 19:02 - 19:03
    훨씬 더 빠르게 얻어갔으면 좋겠어요.
  • 19:03 - 19:06
    그리고 사람들이 트위터에서
    몇 시간을 있든
  • 19:07 - 19:09
    그런 주제와 흥미를 찾았으면 좋겠어요.
  • 19:09 - 19:11
    사람들이 트위터에 머무르는
    시간을 최대화하기보다
  • 19:11 - 19:14
    대신 사람들이 뭔가를 얻어가고
  • 19:14 - 19:16
    배워가는 걸 최대화했으면 좋겠어요.
  • 19:18 - 19:19
    크리스: 당신도 그런가요?
  • 19:19 - 19:22
    왜냐하면 많은 사람들이 알고 싶어하는
    핵심 질문이거든요.
  • 19:22 - 19:26
    확실히, 상장기업이기 때문인지
  • 19:26 - 19:28
    잭씨는 강요받을 수밖에 없어요.
  • 19:28 - 19:30
    당신을 압박하는 투자자들이 있고
  • 19:30 - 19:33
    돈을 버는 가장 큰 방법은
  • 19:33 - 19:36
    사용자 참여에 의존하는 광고잖아요.
  • 19:36 - 19:41
    사색적인 대화를 장려하기 위해서
  • 19:41 - 19:45
    사용자 이용시간을 희생하겠단
    말씀이신가요?
  • 19:45 - 19:48
    잭: 네, 사회적 타당성이 높아지면
    서비스 이용시간이 줄겠죠.
  • 19:48 - 19:50
    정말 그래도 괜찮아요.
  • 19:50 - 19:53
    왜냐하면 트위터를 이용할 때
  • 19:53 - 19:57
    누르는 즉시 뭔가를
    배워갔으면 좋겠어요.
  • 19:57 - 20:01
    저희는 그래도 광고를
    할 수 있으니까요.
  • 20:01 - 20:04
    더 보기 위해 더 많은 시간을
    써야 한다는 의미는 아녜요.
  • 20:04 - 20:05
    두 번째로 저희는,
  • 20:05 - 20:08
    크리스: 하지만, 그 목표는,
    일일 사용량이 많다고
  • 20:08 - 20:11
    사람들이 그걸 매일 소중하게
    여긴다는 뜻은 아니잖아요.
  • 20:11 - 20:13
    사용량을 측정하신다면 말이죠.
  • 20:13 - 20:14
    그건 사람들이
  • 20:14 - 20:18
    나방이 불꽃에 이끌리는 것처럼
    매일 끌려가는 거죠.
  • 20:18 - 20:21
    중독되었으니까요.
    매일 저를 열받게 하는 일을 보면
  • 20:21 - 20:24
    거기에 참여해서 화력을 키우죠.
  • 20:24 - 20:26
    그럼 일일 사용량도 증가하고
  • 20:26 - 20:28
    더 많은 광고수익을 얻겠죠.
  • 20:28 - 20:30
    저희는 더 화나기만 하고요.
  • 20:30 - 20:33
    "일일 사용량"이란 단어를
  • 20:33 - 20:37
    낙관적으로 보기엔
    너무 위험한 단어 같네요.
  • 20:37 - 20:42
    (박수)
  • 20:42 - 20:44
    잭: 그것만 봐도 그렇죠.
  • 20:44 - 20:46
    측정에 관한 이야기를 마저 하자면
  • 20:46 - 20:50
    저희는 대화 및 연결된 대화를
  • 20:50 - 20:52
    지켜보고 있습니다.
  • 20:52 - 20:57
    그래서 저희는 네트워크에
    건강한 기여를 할 수 있게끔
  • 20:57 - 21:02
    장려하고 싶고, 저희는 그 방법이
    건강한 대화에 참여하는 거라 생각해요.
  • 21:02 - 21:07
    아까 말씀드린
    4가지 지표로 정의된 건강한 대화요.
  • 21:07 - 21:10
    그래서 한 가지 지표만을
    활용할 순 없습니다.
  • 21:10 - 21:13
    균형을 맞추고 꾸준히 지켜봐야 하죠.
  • 21:13 - 21:17
    어떤 게 실제로 네트워크에
    건강한 기여를 하고
  • 21:17 - 21:19
    사람들이 건강한 경험을 할지를 말이죠.
  • 21:19 - 21:21
    궁극적으로 저희는 사람들이
  • 21:21 - 21:25
    "나 트위터에서 뭔가를 배우고
    가치있는 걸 가지고 떠나게 됐어"
  • 21:25 - 21:27
    라고 말하는 측정 기준을 얻고 싶어요.
  • 21:27 - 21:29
    이게 저희의 장기적이고
    궁극적인 목표예요.
  • 21:29 - 21:31
    하지만 시간이 걸리겠죠.
  • 21:31 - 21:36
    크리스: 저에겐 많은 수수께끼로
    다가오네요.
  • 21:36 - 21:41
    불공평할 수도 있겠지만
    어느 날 밤에 제가 일어나서
  • 21:41 - 21:45
    제가 당신과 당신의 상황에 대해서
    어떻게 생각하는지 그림을 그려보자면
  • 21:45 - 21:52
    "트위타닉" 호에 당신과 함께
    멋진 여행을 떠나는 그림이 떠올라요.
  • 21:52 - 21:53
    (웃음)
  • 21:53 - 21:57
    3등 선실에는 불평을 토로하는
  • 21:57 - 22:00
    사람들이 있고,
  • 22:00 - 22:02
    당신은 다른 선장과는 다르게
  • 22:02 - 22:06
    "말해봐요. 듣고 있어요.
    듣고 싶어요."라고 말하죠.
  • 22:06 - 22:09
    그 사람들이 "앞에 있는 빙하 때문에
    걱정돼요."라고 말하면
  • 22:09 - 22:11
    당신은 말하죠.
    "정말 중요한 이야기네요.
  • 22:11 - 22:14
    그런데 저희 배는 솔직히 말하면
  • 22:14 - 22:17
    조종하기 적절하지 않죠"
    저희는 말하죠. "뭐라도 좀 해봐요."
  • 22:17 - 22:19
    당신은 함교에 올라가고
  • 22:19 - 22:21
    저흰 기다리죠.
  • 22:21 - 22:26
    저희가 올려다보면
    당신은 놀랍도록 평온하게 보이고
  • 22:26 - 22:30
    저희는 밖에 서서
    "젠장, 키를 돌려요!"라고 소리치죠.
  • 22:30 - 22:31
    안 그런가요?
  • 22:31 - 22:32
    (웃음)
  • 22:32 - 22:34
    (박수)
  • 22:34 - 22:36
    제 말은...
  • 22:36 - 22:37
    (박수)
  • 22:37 - 22:42
    민주주의가 위태로운 상태예요.
  • 22:42 - 22:45
    저희 문화가 위태롭고,
    이 세상이 위태로워요.
  • 22:45 - 22:50
    트위터는 정말 놀랍고
    많은 부분을 형성하고 있죠.
  • 22:50 - 22:52
    다른 플랫폼만큼 크진 않지만
  • 22:52 - 22:55
    영향력 있는 사람들이
    안건을 제시하는 데 이용해요.
  • 22:55 - 23:01
    그보다 더 중요한 역할을 맡는 건
    상상하기 힘들죠.
  • 23:02 - 23:05
    제 말은, 잭, 당신은 사람들의 말을
    들어주는 훌륭한 일을 한다는 거예요.
  • 23:05 - 23:10
    하지만 긴급한 요구에 대해 말하자면,
    그 문제로 넘어가려는데
  • 23:10 - 23:12
    이런 것도 해주실 건가요?
  • 23:13 - 23:17
    잭: 네, 저희는 많이 움직이고 있죠.
  • 23:17 - 23:20
    트위터 역사 상 몇몇
    큰 변화가 있었어요.
  • 23:20 - 23:22
    제가 회사로 돌아왔을 때는
  • 23:23 - 23:30
    미래를 생각해보면
    꽤 심각한 상황이었죠.
  • 23:30 - 23:34
    사람들이 저희 플랫폼을 어떻게
    쓰는지 뿐만 아니라
  • 23:34 - 23:36
    회사 측면에서도 마찬가지였어요.
  • 23:36 - 23:40
    회사 상황을 호전시키기 위해서
  • 23:40 - 23:42
    많은 토대를 고쳐야만 했습니다.
  • 23:42 - 23:45
    두 번의 말도 안 되는 해고도 거쳤죠.
  • 23:45 - 23:49
    왜냐하면 저희가 하는 일에 비해
    회사가 너무 커졌고
  • 23:49 - 23:51
    모든 에너지를 대중적인 논의에
  • 23:51 - 23:54
    기여한다는 것에 집중했거든요.
  • 23:54 - 23:56
    그 과정에서 많은 노력을 했죠.
  • 23:56 - 23:58
    그 과정에 뛰어들면서
  • 23:58 - 24:01
    본질에 관한 몇 가지 쟁점을
    깨달았습니다.
  • 24:02 - 24:07
    말씀하신 것들을 해결하기 위해선
    여러 피상적인 것 할 수 있었지만
  • 24:07 - 24:09
    지속 가능한 변화가 필요했어요.
  • 24:09 - 24:11
    즉, 정말 깊이 살펴보고
  • 24:11 - 24:15
    13년 전에 시작한 것들에
    관심을 가지고
  • 24:15 - 24:18
    진심으로
  • 24:18 - 24:20
    어떻게 시스템과 뼈대가 작동하는지,
  • 24:20 - 24:24
    또 오늘날 이 세상에 필요한 게
    뭔지 질문을 던지는 걸 뜻하죠.
  • 24:24 - 24:28
    모든 게 엄청나게 빨리 변하고 사람들이
    그걸 어떻게 쓰는지 고려하면서 말이죠.
  • 24:28 - 24:35
    그래서 가능한 한 빨리 하려고 하지만
    빠르기만 해서는 해결할 수 없습니다.
  • 24:35 - 24:37
    집중과 우선순위죠.
  • 24:37 - 24:40
    네트워크의 본질을 이해하고
  • 24:40 - 24:43
    규모가 변화하는 뼈대를 짓고
  • 24:43 - 24:46
    그 뼈대는 변화에도 빠르게 적응하죠.
  • 24:46 - 24:51
    신뢰를 계속해서 얻기 위해
    우리가 어디에 있는지 받아들이고
  • 24:51 - 24:53
    어디에 있는지 솔직해져야 하고요.
  • 24:54 - 24:57
    저는 제가 배치한
    모든 체계가 자랑스러워요.
  • 24:57 - 25:00
    저희의 방향성도 자랑스럽고요.
  • 25:01 - 25:04
    저희는 분명히 더 빠르게
    움직일 수 있지만
  • 25:04 - 25:08
    그러려면 과거부터 해온
    여러 바보같은 일도 멈춰야 해요.
  • 25:09 - 25:10
    크리스: 그렇군요.
  • 25:10 - 25:14
    여기에 기회가 주어진다면
    당신이 다루고 있는
  • 25:14 - 25:18
    변화를 만들려는 안건을 기꺼이 도울
    사람들이 많을 거예요.
  • 25:18 - 25:20
    휘트니도 그럴 것 같고요.
  • 25:20 - 25:23
    잭, 여기까지 와주셔서
    솔직하게 말씀해주셔서 감사합니다.
  • 25:23 - 25:24
    대단한 용기였어요.
  • 25:24 - 25:28
    말씀해주신 바에 감동했고,
    원하시는 목표를 이루시기 바랍니다.
  • 25:28 - 25:30
    잭: 감사합니다.
    초대해주셔서 감사합니다.
  • 25:30 - 25:33
    (박수)
  • 25:33 - 25:34
    감사합니다.
Title:
트위터는 어떻게 바뀌어야 할까요
Speaker:
잭 도시(Jack Dorsey)
Description:

트위터는 구조될 수 있을까요? 광범위한 대화를 통해 TED의 크리스 앤더슨(Chris Anderson)과 휘트니 페닝턴 로저스(Whitney Pennington Rodgers), 트위터 CEO 잭 도시(Jack Dorsey)가 플랫폼의 미래에 대해 논의합니다. 괴롭힘과 중재에 대한 문제를 인식하고, 건강하고 존중할 줄 아는 대화를 장려할 근본적인 변화를 제시합니다. "저희가 정말 사람들이 매일 가치있게 생각하는 무언가를 전달하고 있을까요?" 도시가 묻습니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47
Jihyeon J. Kim approved Korean subtitles for How Twitter needs to change
Jihyeon J. Kim edited Korean subtitles for How Twitter needs to change
Jihyeon J. Kim edited Korean subtitles for How Twitter needs to change
Yunjung Nam accepted Korean subtitles for How Twitter needs to change
Yunjung Nam edited Korean subtitles for How Twitter needs to change
Yunjung Nam edited Korean subtitles for How Twitter needs to change
Yunjung Nam edited Korean subtitles for How Twitter needs to change
Yunjung Nam edited Korean subtitles for How Twitter needs to change
Show all

Korean subtitles

Revisions