Return to Video

정치인을 대체할 대담한 생각

  • 0:01 - 0:03
    오직 저 뿐 인가요,
  • 0:03 - 0:05
    아니면 여기 계신분들 중
  • 0:05 - 0:08
    민주주의에 조금 실망한
    사람들이 더 있나요?
  • 0:09 - 0:11
    (박수)
  • 0:12 - 0:14
    수치를 조금 살펴 보도록 하죠.
  • 0:15 - 0:17
    전 세계적으로
  • 0:17 - 0:21
    지난 30 년간의 대통령
    선거에서 나타난
  • 0:21 - 0:23
    투표율의 중간값이
  • 0:23 - 0:25
    오직 67% 정도밖에 되지 않았습니다.
  • 0:26 - 0:28
    유럽의 경우,
  • 0:28 - 0:33
    EU 의회 선거에 참가한
    사람들을 살펴 보았을 때
  • 0:33 - 0:35
    선거율의 중간 값은
  • 0:35 - 0:37
    42%에 불과했습니다.
  • 0:38 - 0:40
    그럼 뉴욕을 살펴 볼까요.
  • 0:40 - 0:44
    저번 뉴욕 시장 선거에 사람들이
    얼마나 투표에 참여했는지 보면
  • 0:45 - 0:49
    단 24%만이 투표하러 갔다는
    사실을 알 수 있습니다.
  • 0:49 - 0:52
    이 의미는 만약 "프렌즈"가
    아직 방영 중이었다면
  • 0:52 - 0:56
    조이와 피비도
    투표를 하러 왔을 거라는 거죠.
  • 0:56 - 0:57
    (웃음)
  • 0:57 - 1:02
    우리는 그들을 비난할 수 없어요.
    사람들은 정치인들에게 지쳐있으니까요.
  • 1:02 - 1:06
    사람들은 자신이 생성한 테이터를 이용해
  • 1:06 - 1:08
    친구, 가족과 소통하려 하며,
  • 1:08 - 1:10
    정치적 선전을 선동하는
    사람들에 지쳐있습니다.
  • 1:11 - 1:13
    하지만 여기서 요점은
    이 문제가 새롭지 않다는 거죠.
  • 1:13 - 1:16
    현재 사람들은 '좋아요'를 사용하여
    정치적 선전을 여러분에게 선동하죠.
  • 1:17 - 1:20
    우리의 우편번호, 성별,
    또는 나이를 사용하기 전에요.
  • 1:20 - 1:23
    정치적 목적으로 사람들에게
    선전을 선동하는 것은
  • 1:24 - 1:26
    정치만큼 오래 되었기 때문이죠.
  • 1:26 - 1:28
    그리고 이런 생각을 하는 이유는
  • 1:28 - 1:31
    민주주의가 근본적인 취약점을
    지니고 있기 때문입니다.
  • 1:32 - 1:34
    그것은 대표자의 생각입니다.
  • 1:34 - 1:38
    원칙적으로 민주주의는 사람들이
    권력을 행사할 수 있는 능력입니다.
  • 1:38 - 1:44
    하지만 실제로는 대표자에게 우리를 대신해
    그 힘을 행사하도록 위임해야 합니다
  • 1:45 - 1:46
    그 대표는 극 소수이거나,
  • 1:46 - 1:48
    취약점이 되기도 합니다.
  • 1:48 - 1:52
    민주주의를 공략할 때 겨냥하는 곳으로
  • 1:52 - 1:55
    대표자 또는 대표자를
    선택하는 방법을 억류하여
  • 1:55 - 1:58
    민주주의 전체를
    함락시킬 수 있기 때문입니다.
  • 1:58 - 1:59
    여기서 중요한 질문은
  • 2:00 - 2:01
    이것이 역사의 끝인가?
  • 2:02 - 2:05
    이것이 우리가 할 수 있는 최선인가,
  • 2:06 - 2:09
    아니면 사실 대안책이 있는가?
  • 2:10 - 2:12
    몇몇 사람들은
    대안책에 대해 생각해왔고,
  • 2:13 - 2:16
    그 중 한 가지는 바로
    직접 민주주의 개념입니다.
  • 2:17 - 2:19
    정치인을 완전히 따돌리고
  • 2:19 - 2:22
    사람들이 문제에 대해
    직접 투표를 하도록 함으로써
  • 2:22 - 2:24
    법안에 대해 직접 투표할 수
    있게 하는 개념입니다.
  • 2:24 - 2:26
    하지만 순진한 생각이죠.
  • 2:26 - 2:29
    우리가 정해야 할 일들이
    너무 많기 때문입니다.
  • 2:29 - 2:32
    제114차 미국 의회를 살펴 보자면
  • 2:32 - 2:34
    하원이 6,000개 이상의
  • 2:34 - 2:37
    법안을 제안했고,
  • 2:37 - 2:40
    상원은 3,000개 이상의
    법안을 제안했으며,
  • 2:40 - 2:43
    300건 이상 승인되었습니다.
  • 2:43 - 2:44
    많은 결정들은
  • 2:44 - 2:47
    사람들은 잘 알지 못하는 주제에 대해
  • 2:47 - 2:49
    일주일을 투자해 만들어진 것입니다.
  • 2:49 - 2:52
    우리가 실행 가능한 대안으로서
    직접 민주주의를 제안했을 때
  • 2:52 - 2:56
    발생하는 큰 인식의
    대역폭 문제가 있습니다.
  • 2:56 - 3:01
    몇몇 사람들은 유동적인 민주주의를
    실행할 것을 제안하는데,
  • 3:01 - 3:04
    이는 여러분이 누군가에게 자신의
    정치적 권력을 위임하면
  • 3:04 - 3:06
    그 사람은 또 다시 그 권력을
    다른 사람에게 위임할 수 있어서
  • 3:06 - 3:09
    결과적으로 큰 지지자
    네트워크를 형성하게 되고,
  • 3:09 - 3:12
    이 네트워크에서 마지막에는
    그들의 지지자들의 대신하여
  • 3:12 - 3:15
    결정을 내리는 소수의 사람만
    남게 되는 제도입니다.
  • 3:16 - 3:20
    하지만 이 개념 또한 인지적
    대역폭의 문제를 해결하지는 못하며,
  • 3:20 - 3:24
    또한, 솔직히 말해 이는 대표자를
    뽑는 개념과도 유사합니다.
  • 3:25 - 3:28
    따라서 오늘 전 약간 도발적인
    행동을 하려 합니다.
  • 3:28 - 3:31
    그리고 여러분께 묻고
    싶은 것이 있습니다.
  • 3:31 - 3:37
    만일 정치인들을 퇴각시키는 대신
  • 3:37 - 3:39
    그들을 자동화한다면 어떨까요?
  • 3:46 - 3:49
    자동화의 개념은 새로운 것이 아닙니다.
  • 3:49 - 3:51
    300년도 더 전에
  • 3:51 - 3:54
    프랑스의 방직공들은 방직기을
    자동화하기로 결심했죠.
  • 3:55 - 3:59
    그리고 그 산업 전쟁의 승자는
    조제프-마리 자카르였습니다.
  • 3:59 - 4:01
    그는 프랑스인 방직공이자 상인이었으며
  • 4:01 - 4:03
    자동 방직기를 만들기 위해
  • 4:03 - 4:06
    방직기와 증기 기관을 결합하였습니다.
  • 4:06 - 4:08
    그리고 그는 자동 방직기의
    통제권을 쥐었습니다.
  • 4:08 - 4:12
    그는 이제 손으로 만든 것보다
    더 복잡하고 정교한
  • 4:12 - 4:14
    천을 만들 수 있게 되었습니다.
  • 4:15 - 4:18
    또한 산업 전쟁에서 승리함으로써
  • 4:18 - 4:21
    무엇이 자동화의 청사진이 되었는지
    제시하였습니다.
  • 4:22 - 4:25
    지난 300년 간
    사물을 자동화한 방식은
  • 4:25 - 4:26
    언제나 같았습니다.
  • 4:27 - 4:30
    우리는 처음으로 필요성을 확인하고
  • 4:30 - 4:33
    필요성을 충족시킬 도구를 만듭니다.
  • 4:33 - 4:35
    이 경우에는 방직기가 되겠죠.
  • 4:35 - 4:37
    그 후 사용자를 자동화하기 위해
  • 4:37 - 4:39
    사람들이 도구를
    어떻게 사용할지 탐구했습니다.
  • 4:39 - 4:42
    이렇게 기계로 작동되는 방직기에서
  • 4:42 - 4:44
    자동 방직기로 발전하였고
  • 4:44 - 4:46
    이것을 실천하는 데
    천 년이 걸렸습니다.
  • 4:46 - 4:49
    차를 자동화할 때
    같은 스크립터를 사용하는데
  • 4:49 - 4:52
    고작 백년 밖에 걸리지 않았습니다.
  • 4:53 - 4:56
    하지만 중요한 점은
  • 4:56 - 4:58
    이제 자동화는 실제라는 것입니다.
  • 4:58 - 5:01
    이 영상은 도시바에 다니는
    저의 동료가 저와 공유한 것이며,
  • 5:01 - 5:05
    SSD를 만드는 공장을 보여 줍니다.
  • 5:05 - 5:07
    공장 전체가 로봇이라고 할 수 있죠.
  • 5:07 - 5:09
    저 공장에 사람은 없습니다.
  • 5:09 - 5:11
    그리고 저 로봇들은
    곧 공장 밖으로 나와
  • 5:11 - 5:13
    우리 세상의 일부가 되고,
  • 5:13 - 5:15
    우리 노동 인구의 일부가 될 것입니다.
  • 5:15 - 5:17
    제가 본업으로 하는 일은
  • 5:17 - 5:21
    사실 국가 전체의 테이터를 통합하는
    도구를 만드는 것 입니다.
  • 5:21 - 5:24
    그렇게 함으로써
    우리가 미래에 이 기계들을
  • 5:24 - 5:28
    관리할 기반을 다질 수
    있도록 하는 것입니다.
  • 5:29 - 5:32
    하지만 오늘 저는
    국가들을 위해 데이터를 통합하는
  • 5:32 - 5:34
    도구에 대해 말하기 위해
    이 자리에 선 것이 아닙니다.
  • 5:34 - 5:37
    인공지능을 민주주의에
    적용하는 것을 도와 줄 만한
  • 5:37 - 5:42
    다른 견해를 말씀드리기
    위해 이 곳에 왔습니다.
  • 5:42 - 5:47
    왜냐하면 제가 만든 도구가
    행정상의 결정을 위해 만들어 졌고
  • 5:47 - 5:51
    이 결정은 일종의 객관성 띠며
    공공 투자 결정의 측면에서
  • 5:51 - 5:52
    제시될 수 있습니다.
  • 5:53 - 5:56
    하지만 입법적 결정이 존재하고,
  • 5:56 - 5:59
    이 입법적 결정들은
    서로 다른 시각을 가진
  • 5:59 - 6:01
    사람들 사이의 의사소통과,
  • 6:01 - 6:04
    참여와 토론,
  • 6:04 - 6:05
    심사숙고함을 요합니다.
  • 6:06 - 6:09
    민주주의를 발전하기 위해
    우리가 해야 할 일은
  • 6:09 - 6:13
    사실 소통을 늘리는 것이라고
    오랫동안 생각해 왔습니다.
  • 6:13 - 6:16
    따라서 민주주의라는 이름으로
    발전한 모든 기술들은
  • 6:16 - 6:19
    그것이 신문이든,
    소셜미디어든 상관없이
  • 6:19 - 6:21
    우리가 더 많은 소통을
    할 수 있도록 도왔습니다.
  • 6:22 - 6:24
    하지만 우리는 혼돈에 빠져있고
  • 6:24 - 6:27
    이것이 문제를 해결해 주지
    않을 것이란 것을 알고 있습니다.
  • 6:27 - 6:29
    왜냐하면 이것이 소통의 문제가 아닌,
  • 6:29 - 6:30
    인지 대역폭의 문제이기 때문입니다.
  • 6:31 - 6:33
    만약에 인지 대역폭이 문제라면,
  • 6:33 - 6:35
    사람들 간의 소통을 늘리는 것은
  • 6:36 - 6:38
    문제를 해결하는 방법이
    되지 못할 것입니다.
  • 6:38 - 6:41
    대신 우리가 해야 할 일은
    과부화된 소통의 일부를
  • 6:41 - 6:44
    처리하는 것을 도와줄 만한
  • 6:44 - 6:47
    기술을 가지는 것입니다.
  • 6:47 - 6:48
    작은 아바타,
  • 6:48 - 6:50
    소프트웨어 에이전트,
  • 6:50 - 6:52
    디지털로 된 지미니 크리켓
    을 떠올려보세요.
  • 6:52 - 6:53
    (웃음)
  • 6:53 - 6:57
    여러분을 대신해
    질문에 대답을 할 수 있는 것들이죠.
  • 6:58 - 7:00
    그리고 만약 우리에게
    그런 기술이 있었다면
  • 7:00 - 7:02
    우리는 소통을 조금
    줄일 수 있을 것이고
  • 7:02 - 7:06
    어쩌면 더 나은 결정을 내리거나
    더 큰 규모의 결정을 내릴 수 있도록 돕겠죠.
  • 7:07 - 7:11
    중요한 것은 소프트웨어 에이전트
    또한 새로운 것이 아닙니다.
  • 7:11 - 7:13
    우리는 이미 굉장히 자주
    이용하고 있습니다.
  • 7:13 - 7:15
    우린 소프트웨어 에이전트를 통해
  • 7:15 - 7:18
    어떠한 장소를 가기 위한
    경로를 고르기도 하고,
  • 7:19 - 7:21
    어떤 음악을 들을지 정하기도 하며,
  • 7:22 - 7:25
    다음엔 무슨 책을 읽을 지
    추천을 받기도 합니다.
  • 7:26 - 7:29
    이렇듯 21세기에도 마찬가지로
  • 7:29 - 7:31
    자카르가 살던 시대에
    증기기관과 방직기를
  • 7:31 - 7:37
    결합한 것만큼 명확한
    발상이 있습니다.
  • 7:38 - 7:42
    그것은 바로 직접 민주주의와
    소프트웨어 에이전트를 결합하는 것입니다.
  • 7:43 - 7:45
    잠시 상상해 보세요.
  • 7:45 - 7:48
    여러분과 수많은 다른 사람들을 대신하는
  • 7:48 - 7:50
    대표자가 아니라
  • 7:50 - 7:53
    오직 여러분만을 대신하는
    대표자를 가지는 세상을요.
  • 7:54 - 7:56
    그 대표자는 여러분의 미묘한 정치관,
  • 7:56 - 7:59
    즉 자유의지론과 진보주의의
    이상한 결합,
  • 7:59 - 8:02
    그리고 몇몇 문제들에
    대해선 보수적이고,
  • 8:02 - 8:04
    또 다른 문제들에 대해선 매우
    진보적인 것을 대표할 것입니다.
  • 8:04 - 8:07
    오늘날의 정치인들은 일괄적이며,
    온갖 타협들로 가득차 있습니다.
  • 8:07 - 8:11
    하지만 오직 여러분만을 대표하는
    누군가가 있는 겁니다.
  • 8:11 - 8:15
    만약 여러분이 그 대표자가
    사람일 것이라는 생각만 버린다면요.
  • 8:15 - 8:17
    만약 그 대표자가
    소프트웨어 에이전트라면,
  • 8:17 - 8:22
    우리는 시민들 만큼 많은
    상원 의원을 가진 상원을 가질 수 있죠.
  • 8:22 - 8:24
    그리고 그 의원들은 모든 법안들을
    읽을 수 있을 것이며,
  • 8:24 - 8:27
    그 각각의 법안들에 대해
    투표를 할 수도 있을 것입니다.
  • 8:28 - 8:31
    우리가 한 번쯤
    고려해 볼 만한 발상이죠.
  • 8:31 - 8:33
    하지만 저는 현재, 이 시대에
  • 8:33 - 8:36
    이 발상이 꽤나 무섭게
    느껴질 것임을 이해합니다.
  • 8:36 - 8:40
    사실 미래에서 온 로봇이
    정부를 운영하는 것을
  • 8:40 - 8:42
    도와주는 것을 상상하는 것 만으로도
  • 8:42 - 8:43
    겁이 나죠.
  • 8:44 - 8:46
    하지만 우리는
    그곳에 가본 적이 있어요.
  • 8:46 - 8:47
    (웃음)
  • 8:47 - 8:50
    그리고 실제로 그는
    꽤 친절한 사람이었죠.
  • 8:52 - 8:58
    그럼 자카르 방직기 버전의
    이 발상은 어떤 것 일까요?
  • 8:58 - 9:00
    그것은 아마도
    아주 간단한 시스템일 겁니다.
  • 9:00 - 9:04
    로그인을 한 뒤 아바타를 만들고.
  • 9:04 - 9:06
    그 아바타를 훈련시키는
    시스템을 상상해 보세요.
  • 9:06 - 9:09
    아바타에게 여러분의
    독서 습관을 제공할 수 있고,
  • 9:09 - 9:11
    자신의 소셜미디어에
    연결할 수도 있을 것이며,
  • 9:11 - 9:13
    다른 데이터에 연결할 수도 있습니다.
  • 9:13 - 9:15
    예를 들어 심리테스트를 통해서요.
  • 9:15 - 9:18
    그리고 이 시스템의 장점은
    속일 수가 없다는 점입니다.
  • 9:18 - 9:22
    친구, 가족과 소통하기 위해
    정치 시스템에 사용되는 데이터를
  • 9:22 - 9:25
    여러분은 제공하지 않을 것입니다.
  • 9:25 - 9:29
    여러분을 대신하여
    정치적 결정을 내리도록 만들어진
  • 9:29 - 9:31
    시스템에 데이터를 제공할 것입니다.
  • 9:31 - 9:35
    그리고 그 데이터를 가져가
    훈련 알고리즘을 선택합니다.
  • 9:35 - 9:37
    여러분이 제공한 데이터를 바탕으로
  • 9:37 - 9:40
    어떻게 투표할 것인지 예측하기 위해
    서로 다른 사람이
  • 9:40 - 9:44
    다른 알고리즘을 제출할 수 있는
    열린 시장이기 때문이죠.
  • 9:44 - 9:48
    그리고 그 시스템은 공개적이어서
    아무도 알고리즘을 제어할 수 없죠.
  • 9:48 - 9:50
    더 인기 있는 알고리즘과
  • 9:50 - 9:51
    그렇지 않은 알고리즘을 있지만요.
  • 9:51 - 9:53
    궁극적으로 여러분은
    그 시스템을 감시할 수 있습니다.
  • 9:53 - 9:55
    본인의 아바타가
    어떻게 작동하고 있는지 볼 수 있고,
  • 9:55 - 9:57
    만약 마음에 든다면,
    아바타를 자동 상태로 둘 수 있으며,
  • 9:57 - 9:59
    만약 약간의 통제를 원한다면,
  • 9:59 - 10:01
    사실 아바타들이 결정을 내릴 때마다
  • 10:01 - 10:04
    여러분에게 묻도록 선택할 수도 있고,
  • 10:04 - 10:05
    또는 그 중간 쯤으로
    지정해 놓을 수 있습니다.
  • 10:05 - 10:08
    우리가 민주주의를 잘 활용하지
    않는 이유 중 하나는
  • 10:08 - 10:11
    아마 민주주의가 매우 열악한 사용자
    인터페이스를 가지고 있기 때문입니다.
  • 10:11 - 10:14
    만약 우리가 민주주의 사용자
    인터페이스를 개선한다면
  • 10:14 - 10:16
    우리는 민주주의를
    더 활용할 수도 있습니다.
  • 10:16 - 10:20
    물론 여러분은 많은 의문점이
    있을 수도 있습니다.
  • 10:20 - 10:23
    이 아바타들은 어떻게 훈련시켜야 하지?
  • 10:23 - 10:25
    데이터는 어떻게 보안상태를 유지하지?
  • 10:25 - 10:28
    이 시스템을 어떻게 분포하고
    회계 감사되도록 유지하지?
  • 10:28 - 10:30
    그럼 80살에 인터넷도 쓰실 줄 모르는
  • 10:30 - 10:32
    우리 할머니는 어떡하지?
  • 10:32 - 10:34
    절 믿으세요.
    전 그 모든 질문을 들어봤습니다.
  • 10:35 - 10:39
    이러한 발상을 떠올릴 때는
    비관주의자들을 주의해야 합니다.
  • 10:39 - 10:43
    그들은 모든 해결책에 대해
    문제를 제기하기로 유명하기 때문이죠.
  • 10:43 - 10:45
    (웃음)
  • 10:45 - 10:48
    저는 여러분이 더 크게 생각해
    보셨으면 합니다.
  • 10:48 - 10:52
    제가 방금 언급한 질문들은
    작은 생각입니다.
  • 10:52 - 10:55
    어떻게 하면 작동하지
    않는가에 대한 질문이기 때문이죠.
  • 10:56 - 10:57
    큰 생각이란 이런 것 입니다.
  • 10:58 - 10:59
    만약 이것이 정말 작동하게 된다면
  • 10:59 - 11:01
    이걸 가지고 어떤 것을
    더 할 수 있을까?
  • 11:02 - 11:05
    또 다른 큰 생각은,
    그럼 누가 법안을 작성하지?
  • 11:06 - 11:10
    초기에 우리는 이미 가지고 있는
    아바타를 통해
  • 11:10 - 11:14
    상원 의원이나 정치인들이 작성한 법안에
  • 11:14 - 11:15
    투표를 할 수 있었습니다.
  • 11:15 - 11:17
    그러나 만약 이 발상이 현실이 된다면,
  • 11:18 - 11:20
    우리는 법안을 작성할 수 있는
  • 11:20 - 11:22
    알고리즘을 만들어
  • 11:22 - 11:25
    특정 비율의 승인을 얻은 뒤,
  • 11:25 - 11:27
    절차를 뒤집을 수도 있습니다.
  • 11:27 - 11:30
    지금 여러분은 이 발상이 터무니 없으며
    시행해서는 안된다고 생각할 수도 있지만,
  • 11:30 - 11:33
    직접 민주주의와 소프트웨어 에이전트가
  • 11:33 - 11:36
    성공적인 참여의 형태인
    세상에서만 이 발상이
  • 11:36 - 11:39
    실현 가능하다는 것은
    부정할 수 없을 것입니다.
  • 11:41 - 11:43
    그럼 어떻게 하면
    혁명을 일으킬 수 있을까요?
  • 11:44 - 11:48
    우리는 피켓 울타리를 치거나
    시위를 하거나
  • 11:48 - 11:52
    현재 정치인을 로봇으로 바꾸라고
    혁명을 시작하진 않을 것입니다.
  • 11:52 - 11:53
    이런 건 통하지 않을 테니까요.
  • 11:53 - 11:55
    대신 우리가 택하는
    방식은 더 간단하고,
  • 11:55 - 11:56
    훨씬 느리고
  • 11:56 - 11:58
    훨씬 더 변변찮습니다.
  • 11:58 - 12:01
    우리는 이 혁명을
    대학원, 도서관, 비영리 단체와 같은
  • 12:01 - 12:04
    간단한 시스템을
    만드는 것으로 시작합니다.
  • 12:04 - 12:07
    이 발상을 실현 가능하게
    만들고, 믿을 수 있도록
  • 12:07 - 12:08
    우리가 꼭 알아야 할
  • 12:08 - 12:11
    작은 질문과 문제들을
  • 12:11 - 12:14
    이해하도록 우리는 애써야 합니다.
  • 12:14 - 12:18
    그리고 우리가 백 명, 천 명,
    수십만 명의 사람들이
  • 12:18 - 12:22
    정치적으로 구속력이 없는 방법으로
    선거하는 시스템을 개발한다면,
  • 12:22 - 12:24
    이 발상에 대한 믿음을
    쌓게 될 것입니다.
  • 12:24 - 12:25
    그리고 세상은 바뀌고
  • 12:25 - 12:28
    현재 제 딸만큼 작은 것들이
  • 12:28 - 12:30
    성장하게 될 것입니다.
  • 12:31 - 12:33
    그리고 저의 딸이
    제 나이가 되어 있을 즘에
  • 12:33 - 12:37
    지금은 굉장히 미친 소리로
    들릴지 모를 이 발상이
  • 12:37 - 12:42
    제 딸과 친구들에게는
    미친 소리가 아닐지도 모르죠.
  • 12:42 - 12:44
    그리고 이 관점에서
  • 12:44 - 12:46
    우리 역사의 마지막 시점에
    남게 될 것입니다.
  • 12:46 - 12:49
    하지만 다음 세대의
    첫 걸음이 될 것입니다.
  • 12:50 - 12:51
    감사합니다.
  • 12:51 - 12:54
    (박수)
Title:
정치인을 대체할 대담한 생각
Speaker:
세자르 히달고(César Hidalgo)
Description:

세자르 히달고는 우리의 망가진 정치 체제를 바로잡기 위해 급진적인 제안을 한다: 자동화 시켜라! 이 도발적인 강연에서 그는 시민들이 직접 민주적 결정에 참여하는 개인화된 AI 대표단을 만들 수 있도록 함으로써 정치인들을 퇴각시키겠다는 대담한 생각을 간략하게 설명한다. 집단적인 결정을 내리고 민주주의에 대한 이해를 넓히는 새로운 방법을 탐구해 보자.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:08

Korean subtitles

Revisions