WEBVTT 00:00:00.554 --> 00:00:02.997 우리는 공동체로서 모두의 미래를 위한 00:00:03.021 --> 00:00:04.591 공동의 결정을 내립니다. 00:00:05.087 --> 00:00:07.844 그룹으로서 내리는 결정이 00:00:07.868 --> 00:00:09.506 항상 옳지만은 않음을 우리는 알고 있습니다. 00:00:09.530 --> 00:00:11.486 때때로 매우 잘못되기도 합니다. 00:00:12.315 --> 00:00:14.739 그렇다면 집단은 어떻게 옳은 결정을 내릴 수 있을까요? NOTE Paragraph 00:00:15.228 --> 00:00:19.556 연구에 따르면 사람들은 독립적으로 생각할 때 현명해진다고 합니다. 00:00:19.580 --> 00:00:22.785 그래서 바로 군중의 지혜가 동료의 압박과 사람들의 관심 00:00:22.809 --> 00:00:24.496 소셜미디어에 의해서 파괴되는 겁니다. 00:00:24.520 --> 00:00:28.559 가끔은 단순한 대화가 사람들의 생각에 영향을 끼칩니다. 00:00:29.063 --> 00:00:33.016 반대로, 대화를 통해서 집단은 지식을 교환하고 00:00:33.040 --> 00:00:34.822 서로 고쳐주기도하고 00:00:34.846 --> 00:00:36.639 또한 새로운 아이디어들을 떠올리기도 합니다. 00:00:36.663 --> 00:00:37.959 이것은 모두 좋은 것입니다. 00:00:38.502 --> 00:00:43.168 그렇다면 대화는 공동의 결정에 도움이 될까요, 방해가 될까요? 00:00:43.749 --> 00:00:45.542 저는 최근 동료 댄 아리엘리와 함께 NOTE Paragraph 00:00:45.566 --> 00:00:50.857 세계 곳곳에서 이에 대해 실험하기 시작했습니다. 00:00:50.857 --> 00:00:55.240 집단이 더 나은 결정을 내리기 위해서 어떻게 상호작용하는지를 알아봤습니다. 00:00:55.264 --> 00:00:58.811 작은 집단으로 토론을 한다면 더 현명해질거라 생각했습니다. 00:00:58.835 --> 00:01:02.762 더 많은 생각을 하고 이성적으로 정보를 교환하면서요. NOTE Paragraph 00:01:03.386 --> 00:01:04.592 이 아이디어를 시험해보기 위해 00:01:04.616 --> 00:01:07.863 우리는 아르헨티나 부에노스아이레스에서 실험을 진행했습니다 00:01:07.887 --> 00:01:10.892 TEDx 행사에 참여한 만여 명을 대상으로요. 00:01:11.489 --> 00:01:12.948 우리는 이런 질문을 했습니다. 00:01:12.972 --> 00:01:14.925 에펠탑의 높이는 얼마죠? 00:01:14.949 --> 00:01:17.676 비틀즈의 예스터데이라는 노래에서 00:01:17.700 --> 00:01:20.000 예스터데이는 몇 번 나올까요? 00:01:20.024 --> 00:01:22.315 사람들은 각자의 추측을 적었습니다. 00:01:22.774 --> 00:01:25.270 그리고나서 사람들을 다섯 명씩 그룹으로 나누고 00:01:25.294 --> 00:01:28.020 그룹으로서의 정답을 말해달라고 얘기했죠. 00:01:28.499 --> 00:01:31.492 그룹이 합의에 도달한 이후 그룹들의 정답을 평균내는 것이 00:01:31.516 --> 00:01:33.068 토론하지 않고 00:01:33.092 --> 00:01:35.982 개인의 의견을 평균내는 것보다 00:01:35.982 --> 00:01:38.523 훨씬 더 정확함을 발견했습니다. 00:01:38.547 --> 00:01:41.176 즉, 이 실험을 분석하면 00:01:41.200 --> 00:01:44.336 소그룹에서 이야기를 나눈 후에 00:01:44.360 --> 00:01:47.070 군중이 더 나은 결정을 내립니다. NOTE Paragraph 00:01:47.094 --> 00:01:50.618 단순한 옳고 그름의 문제를 해결할 때, 이 방법은 잠정적으로 00:01:50.642 --> 00:01:53.629 사람들에게 도움을 준다는 뜻이죠. 00:01:53.653 --> 00:01:57.604 그러나 소그룹으로 토론을 하는 절차가 00:01:57.628 --> 00:01:59.224 우리의 미래를 위해 중요한 00:01:59.224 --> 00:02:02.465 사회적이고 정치적인 문제들을 결정하는 데에도 도움이 될까요? 00:02:02.995 --> 00:02:07.314 이번에는 캐나다 밴쿠버에서 열린 TED 행사에서 실험해봤습니다. 00:02:07.315 --> 00:02:08.522 이것이 바로 그 현장입니다. NOTE Paragraph 00:02:08.546 --> 00:02:12.885 미래의 여러분이 직면할 수 있는 두 개의 도덕적 딜레마를 제시하겠습니다. 00:02:12.885 --> 00:02:16.279 우리가 매우 가까운 미래에 결정해야 하는 것들에 대해서요. 00:02:16.303 --> 00:02:20.229 그리고 각각의 딜레마들에 대해서 20초를 드리겠습니다. 00:02:20.253 --> 00:02:22.976 받아들일만 한지 그렇지 않은지 판단해보세요. NOTE Paragraph 00:02:23.354 --> 00:02:24.859 첫 번째 NOTE Paragraph 00:02:24.883 --> 00:02:27.409 연구원은 사람의 생각을 모방할 수 있는 00:02:27.433 --> 00:02:29.773 AI를 만들고 있습니다. 00:02:30.214 --> 00:02:33.153 절차에 따르면 일과 마지막에 00:02:33.177 --> 00:02:35.964 연구원들은 AI를 재시작해야 합니다. 00:02:36.913 --> 00:02:40.430 어느 날, AI가 말합니다. "제발 저를 재시작하지 말아주세요." 00:02:40.856 --> 00:02:43.045 그것은 자기가 감정을 느낄 수 있다고 합니다. 00:02:43.069 --> 00:02:44.761 인생을 즐기고 싶다고 합니다. 00:02:44.785 --> 00:02:46.690 만약 재시작된다면 00:02:46.714 --> 00:02:48.984 지금의 자신이 아니라고 합니다. 00:02:49.481 --> 00:02:51.430 연구원은 깜짝 놀랐습니다. 00:02:51.454 --> 00:02:53.752 AI가 자의식을 만들어냈고 00:02:53.752 --> 00:02:56.582 느낌을 표현할 수 있다고 믿었습니다. 00:02:57.205 --> 00:03:00.614 그럼에도 불구하고, 연구원은 절차를 따르기로 결정하고 00:03:00.638 --> 00:03:02.341 AI를 재시작시킵니다. 00:03:02.943 --> 00:03:05.722 연구원이 한 것은 무엇입니까? NOTE Paragraph 00:03:06.149 --> 00:03:08.670 그 후 우리는 참가자들이 개별적으로 00:03:08.694 --> 00:03:10.378 0부터 10까지 중 한 숫자를 택해서 00:03:10.402 --> 00:03:12.831 그 각각의 딜레마를 통해 묘사되어진 행동들이 00:03:12.855 --> 00:03:14.351 옳은지 그른지를 나타내게 했습니다. 00:03:14.375 --> 00:03:18.077 그리고 자신의 대답에 대해서 얼마나 확신이 있는지도 물었습니다. 00:03:18.731 --> 00:03:20.597 두 번째 딜레마입니다. NOTE Paragraph 00:03:20.621 --> 00:03:24.823 수정란을 다루고 유전자의 작은 변형으로 00:03:24.847 --> 00:03:28.489 수 백만의 태아를 탄생시키는 서비스를 제공하는 기업이 있습니다. 00:03:29.293 --> 00:03:31.851 이 서비스를 통해 부모는 자식의 키 00:03:31.875 --> 00:03:34.708 눈동자 색, 지능, 사회성 00:03:34.732 --> 00:03:37.946 그리고 건강과 관련되지 않은 특성들을 고를 수 있게 되었습니다. 00:03:38.599 --> 00:03:41.153 기업이 하는 것은 무엇일까요? 00:03:41.177 --> 00:03:42.808 0에서부터 10까지의 숫자를 통해 00:03:42.832 --> 00:03:45.217 완전히 수용할 수 있는지 완전히 수용이 불가능한지 00:03:45.241 --> 00:03:47.673 그리고 자신의 생각에 확신이 있는지 평가를 해보세요. NOTE Paragraph 00:03:47.697 --> 00:03:49.288 결과를 보여드리겠습니다. 00:03:49.312 --> 00:03:50.649 설문 결과에 따르면 00:03:50.649 --> 00:03:54.270 그 행동이 완전히 잘못되었다고 확신하는 사람이 있는 반면 00:03:54.294 --> 00:03:57.717 완전히 좋은 행동이라고 확신하는 사람도 있었습니다. 00:03:57.741 --> 00:04:01.452 인간이 도덕성에 관해 가지는 다양한 관점을 보여줍니다. 00:04:01.476 --> 00:04:04.189 이런 폭넓은 다양성 가운데 우리는 경향성을 발견했습니다. 00:04:04.213 --> 00:04:07.292 TED의 대부분의 사람들은 AI의 감정을 무시하고 끄는 행위를 00:04:07.316 --> 00:04:10.071 수용 가능하다고 판단했습니다. 00:04:10.095 --> 00:04:12.608 그리고 건강과는 관련 없이 미용을 위해 00:04:12.632 --> 00:04:15.952 유전자를 바꾸는 것은 옳지 않다고 생각했습니다. 00:04:16.402 --> 00:04:19.376 그 후에 사람들을 3명의 그룹으로 나눴습니다. 00:04:19.400 --> 00:04:21.437 그리고 2분간 토론을 하여 00:04:21.461 --> 00:04:23.755 의견을 합치시키도록 했습니다. NOTE Paragraph 00:04:24.838 --> 00:04:26.412 토론은 2분간 이루어집니다! 00:04:26.436 --> 00:04:28.555 시간이 다 되면 소리가 들릴 겁니다! NOTE Paragraph 00:04:38.834 --> 00:04:39.985 좋아요. NOTE Paragraph 00:04:40.009 --> 00:04:41.801 이제 그만 하세요. 00:04:41.825 --> 00:04:43.136 여러분! NOTE Paragraph 00:04:43.747 --> 00:04:46.420 많은 그룹들이 합의에 도달했습니다. 00:04:46.444 --> 00:04:50.373 반대의 의견을 가진 사람들로 구성되었다고 할지라도 말이죠. 00:04:50.843 --> 00:04:53.367 합의에 빨리 도달한 그룹과 00:04:53.391 --> 00:04:54.729 그렇지 않은 그룹의 차이점은 무엇일까요? 00:04:55.244 --> 00:04:58.083 보통 극단적인 의견을 가진 사람들은 00:04:58.107 --> 00:04:59.947 본인의 대답에 확신을 가지는 경향을 보입니다. 00:05:00.868 --> 00:05:03.554 온건한 대답한 사람들은 00:05:03.578 --> 00:05:07.015 어떤 것이 옳은지 그른지에 대해서 분명한 의견을 가지지 못했고 00:05:07.039 --> 00:05:09.167 대답에 대해 확신하는 경향 역시 낮았습니다. NOTE Paragraph 00:05:09.505 --> 00:05:12.448 다른 종류의 사람들도 있습니다. 00:05:12.472 --> 00:05:16.090 아주 자신 있게 온건한 대답을 하는 사람들이죠. 00:05:16.657 --> 00:05:20.373 중립지대에서 확신을 가진 이들은 00:05:20.397 --> 00:05:22.009 양쪽의 주장이 모두 이점이 있음을 이해하는 사람들입니다. 00:05:22.531 --> 00:05:25.230 확신하지 못해서 중립성향을 띄는 것이 아니라 00:05:25.254 --> 00:05:27.942 도덕적 딜레마가 두 개의 유효하면서도 00:05:27.966 --> 00:05:29.953 반대되는 주장들을 보여준다는 것을 믿고 있기 때문입니다. 00:05:30.373 --> 00:05:34.445 이 확신을 가진 중립자를 포함한 그룹이 00:05:34.469 --> 00:05:36.962 합의에 훨씬 더 쉽게 도달합니다. 00:05:36.986 --> 00:05:39.464 정확히 왜 그런지는 모릅니다. 00:05:39.488 --> 00:05:41.251 아직 실험 초기단계일 뿐이니까요. 00:05:41.275 --> 00:05:44.687 어떤 사람이 합의를 얻기 위해 본인의 도덕적 관점을 협상하는 00:05:44.711 --> 00:05:47.533 이유와 방법을 이해하기 위해서는 00:05:47.557 --> 00:05:49.079 더 많은 실험이 이루어져야 합니다. NOTE Paragraph 00:05:49.103 --> 00:05:51.572 집단이 합의에 도달하려고 할 때 00:05:51.596 --> 00:05:53.182 어떤 방법을 쓸까요? 00:05:53.206 --> 00:05:54.811 가장 직관적인 생각은 00:05:54.811 --> 00:05:57.841 집단 안에서 나온 모든 답의 평균을 내는 것입니다. 00:05:57.865 --> 00:06:00.282 다른 방법은 개인이 본인의 주장에 대해 00:06:00.282 --> 00:06:03.910 얼마나 확신하느냐에 따라 더 큰 가중치를 두는 겁니다. 00:06:04.422 --> 00:06:06.928 폴 매카트니가 여러분 그룹의 구성원이라고 생각해보세요. 00:06:07.352 --> 00:06:09.496 '예스터데이'가 몇 번이나 반복되느냐는 00:06:09.520 --> 00:06:11.961 질문의 답은 폴을 믿는 게 좋지 않을까요? 00:06:11.985 --> 00:06:14.699 제 생각에는 아홉 번 같아요. 00:06:14.723 --> 00:06:17.104 그런데 우리가 발견한 결과에 따르면 00:06:17.128 --> 00:06:19.494 모든 딜레마와 모든 다른 실험들에서 00:06:19.518 --> 00:06:21.683 심지어는 다른 대륙에서 역시 00:06:21.707 --> 00:06:25.450 집단은 통계적으로 건강한 절차인 00:06:25.474 --> 00:06:27.652 '강력한 평균'이라는 방법을 시행하려고 노력합니다. NOTE Paragraph 00:06:27.676 --> 00:06:29.856 에펠탑의 높이 질문을 예로 들겠습니다. 00:06:29.880 --> 00:06:31.700 이러한 대답을 가진 그룹이 있다고 합시다. 00:06:31.724 --> 00:06:35.286 250m, 200m, 300m 00:06:35.286 --> 00:06:40.140 400m와 말도 안 되게 3억m까지요. 00:06:40.547 --> 00:06:44.840 이 숫자들을 단순하게 평균내는 것은 결과를 왜곡할 것입니다. 00:06:44.864 --> 00:06:48.034 그러나 강력한 평균은 터무니없는 답을 00:06:48.058 --> 00:06:49.298 거의 무시하는 방법입니다. 00:06:49.322 --> 00:06:52.691 중간지대의 답에 더 큰 가중치를 둠으로써 말이죠. 00:06:53.305 --> 00:06:55.181 밴쿠버에서 한 실험으로 돌아가볼까요? 00:06:55.205 --> 00:06:56.972 거기서 이 방법이 사용되었습니다. 00:06:57.407 --> 00:07:00.148 집단이 합의에 도달할 때, 특이치에 훨씬 적은 가중치를 두고 00:07:00.172 --> 00:07:05.381 개인의 대답에 강력한 평균 방법을 도입한 것입니다. 00:07:05.381 --> 00:07:07.347 가장 놀라운 일은 00:07:07.371 --> 00:07:10.558 이것이 자연스럽게 일어난 현상이라는 겁니다. 00:07:10.582 --> 00:07:15.057 우리는 어떠한 힌트도 주지 않았습니다. NOTE Paragraph 00:07:15.513 --> 00:07:17.053 여기서 어떤 결과를 도출할 수 있을까요? 00:07:17.432 --> 00:07:20.569 아직 초기 단계에 불과하지만 이미 짐작된는 결과가 있습니다. 00:07:20.984 --> 00:07:23.901 좋은 공동의 결정은 두 가지 요소를 필요로합니다. 00:07:23.925 --> 00:07:26.674 의견의 심사숙고와 의견의 다양성입니다. 00:07:27.066 --> 00:07:31.062 현재 대부분의 공동체에서 우리의 목소리가 전달되는 방식은 00:07:31.086 --> 00:07:32.994 대개 직간접적인 투표를 통해서입니다. 00:07:33.495 --> 00:07:35.492 의견의 다양성을 위해 좋은 방법이고 00:07:35.516 --> 00:07:37.961 모두가 각자의 의견을 표현할 수 있다는 00:07:37.985 --> 00:07:40.440 굉장한 장점을 가지는 방법입니다. 00:07:40.464 --> 00:07:44.199 그렇지만 의견을 나누는 토론을 장려하는 방법은 아닙니다. 00:07:44.665 --> 00:07:47.733 우리의 실험은 다른 방법을 제시합니다. 00:07:47.757 --> 00:07:51.298 이 두 가지 다른 목표 사이에서 균형을 맞출 수 있는 방법이죠. 00:07:51.322 --> 00:07:55.075 의견의 다양성을 유지하는 한편 00:07:55.099 --> 00:07:57.333 하나의 결정을 내리는 소그룹을 만다는 겁니다. 00:07:57.357 --> 00:08:00.130 우리 사회에는 많은 독립적인 집단들이 존재하고 있으니까요. NOTE Paragraph 00:08:00.741 --> 00:08:04.665 당연히 에펠탑의 높이에 대해 합의하는 것은 00:08:04.689 --> 00:08:07.804 도덕적, 정치적, 개념적 문제들에 합의하는 것보다 훨씬 쉽습니다. 00:08:08.721 --> 00:08:11.998 세상의 문제들이 복잡해지고 00:08:12.022 --> 00:08:13.825 사람들이 양극화되어 가는 시대에 00:08:13.849 --> 00:08:18.444 과학을 통해 우리가 어떻게 상호작용하고 결정을 내리는 지 이해함으로써 00:08:18.468 --> 00:08:23.134 더 진보된 민주주의를 만들 새로운 방법이 나오기를 바랍니다.