0:00:00.554,0:00:02.997 우리는 공동체로서 모두의 미래를 위한 0:00:03.021,0:00:04.591 공동의 결정을 내립니다. 0:00:05.087,0:00:07.844 그룹으로서 내리는 결정이 0:00:07.868,0:00:09.506 항상 옳지만은 않음을[br]우리는 알고 있습니다. 0:00:09.530,0:00:11.486 때때로 매우 잘못되기도 합니다. 0:00:12.315,0:00:14.739 그렇다면 집단은 어떻게[br]옳은 결정을 내릴 수 있을까요? 0:00:15.228,0:00:19.556 연구에 따르면 사람들은 독립적으로 [br]생각할 때 현명해진다고 합니다. 0:00:19.580,0:00:22.785 그래서 바로 군중의 지혜가[br]동료의 압박과 사람들의 관심 0:00:22.809,0:00:24.496 소셜미디어에 의해서 파괴되는 겁니다. 0:00:24.520,0:00:28.559 가끔은 단순한 대화가[br]사람들의 생각에 영향을 끼칩니다. 0:00:29.063,0:00:33.016 반대로, 대화를 통해서[br]집단은 지식을 교환하고 0:00:33.040,0:00:34.822 서로 고쳐주기도하고 0:00:34.846,0:00:36.639 또한 새로운 아이디어들을 [br]떠올리기도 합니다. 0:00:36.663,0:00:37.959 이것은 모두 좋은 것입니다. 0:00:38.502,0:00:43.168 그렇다면 대화는 공동의 결정에 [br]도움이 될까요, 방해가 될까요? 0:00:43.749,0:00:45.542 저는 최근 동료 댄 아리엘리와 함께 0:00:45.566,0:00:50.857 세계 곳곳에서 이에 대해[br]실험하기 시작했습니다. 0:00:50.857,0:00:55.240 집단이 더 나은 결정을 내리기 위해서[br]어떻게 상호작용하는지를 알아봤습니다. 0:00:55.264,0:00:58.811 작은 집단으로 토론을 한다면[br]더 현명해질거라 생각했습니다. 0:00:58.835,0:01:02.762 더 많은 생각을 하고[br]이성적으로 정보를 교환하면서요. 0:01:03.386,0:01:04.592 이 아이디어를 시험해보기 위해 0:01:04.616,0:01:07.863 우리는 아르헨티나 부에노스아이레스에서[br]실험을 진행했습니다 0:01:07.887,0:01:10.892 TEDx 행사에 참여한[br]만여 명을 대상으로요. 0:01:11.489,0:01:12.948 우리는 이런 질문을 했습니다. 0:01:12.972,0:01:14.925 에펠탑의 높이는 얼마죠? 0:01:14.949,0:01:17.676 비틀즈의 예스터데이라는 노래에서 0:01:17.700,0:01:20.000 예스터데이는 몇 번 나올까요? 0:01:20.024,0:01:22.315 사람들은 각자의 추측을 적었습니다. 0:01:22.774,0:01:25.270 그리고나서 사람들을[br]다섯 명씩 그룹으로 나누고 0:01:25.294,0:01:28.020 그룹으로서의 정답을[br]말해달라고 얘기했죠. 0:01:28.499,0:01:31.492 그룹이 합의에 도달한 이후[br]그룹들의 정답을 평균내는 것이 0:01:31.516,0:01:33.068 토론하지 않고 0:01:33.092,0:01:35.982 개인의 의견을 평균내는 것보다 0:01:35.982,0:01:38.523 훨씬 더 정확함을 발견했습니다. 0:01:38.547,0:01:41.176 즉, 이 실험을 분석하면 0:01:41.200,0:01:44.336 소그룹에서 이야기를 나눈 후에 0:01:44.360,0:01:47.070 군중이 더 나은 결정을 내립니다. 0:01:47.094,0:01:50.618 단순한 옳고 그름의 문제를 해결할 때,[br]이 방법은 잠정적으로 0:01:50.642,0:01:53.629 사람들에게 도움을 준다는 뜻이죠. 0:01:53.653,0:01:57.604 그러나 소그룹으로 토론을 하는 절차가 0:01:57.628,0:01:59.224 우리의 미래를 위해 중요한 0:01:59.224,0:02:02.465 사회적이고 정치적인 문제들을[br]결정하는 데에도 도움이 될까요? 0:02:02.995,0:02:07.314 이번에는 캐나다 밴쿠버에서 열린[br]TED 행사에서 실험해봤습니다. 0:02:07.315,0:02:08.522 이것이 바로 그 현장입니다. 0:02:08.546,0:02:12.885 미래의 여러분이 직면할 수 있는[br]두 개의 도덕적 딜레마를 제시하겠습니다. 0:02:12.885,0:02:16.279 우리가 매우 가까운 미래에[br]결정해야 하는 것들에 대해서요. 0:02:16.303,0:02:20.229 그리고 각각의 딜레마들에 대해서[br]20초를 드리겠습니다. 0:02:20.253,0:02:22.976 받아들일만 한지[br]그렇지 않은지 판단해보세요. 0:02:23.354,0:02:24.859 첫 번째 0:02:24.883,0:02:27.409 연구원은 사람의 생각을 모방할 수 있는 0:02:27.433,0:02:29.773 AI를 만들고 있습니다. 0:02:30.214,0:02:33.153 절차에 따르면 일과 마지막에 0:02:33.177,0:02:35.964 연구원들은 AI를 재시작해야 합니다. 0:02:36.913,0:02:40.430 어느 날, AI가 말합니다.[br]"제발 저를 재시작하지 말아주세요." 0:02:40.856,0:02:43.045 그것은 자기가[br]감정을 느낄 수 있다고 합니다. 0:02:43.069,0:02:44.761 인생을 즐기고 싶다고 합니다. 0:02:44.785,0:02:46.690 만약 재시작된다면 0:02:46.714,0:02:48.984 지금의 자신이 아니라고 합니다. 0:02:49.481,0:02:51.430 연구원은 깜짝 놀랐습니다. 0:02:51.454,0:02:53.752 AI가 자의식을 만들어냈고 0:02:53.752,0:02:56.582 느낌을 표현할 수 있다고 믿었습니다. 0:02:57.205,0:03:00.614 그럼에도 불구하고,[br]연구원은 절차를 따르기로 결정하고 0:03:00.638,0:03:02.341 AI를 재시작시킵니다. 0:03:02.943,0:03:05.722 연구원이 한 것은 무엇입니까? 0:03:06.149,0:03:08.670 그 후 우리는 참가자들이 개별적으로 0:03:08.694,0:03:10.378 0부터 10까지 중 한 숫자를 택해서 0:03:10.402,0:03:12.831 그 각각의 딜레마를 통해[br]묘사되어진 행동들이 0:03:12.855,0:03:14.351 옳은지 그른지를 나타내게 했습니다. 0:03:14.375,0:03:18.077 그리고 자신의 대답에 대해서[br]얼마나 확신이 있는지도 물었습니다. 0:03:18.731,0:03:20.597 두 번째 딜레마입니다. 0:03:20.621,0:03:24.823 수정란을 다루고 유전자의 작은 변형으로 0:03:24.847,0:03:28.489 수 백만의 태아를 탄생시키는[br]서비스를 제공하는 기업이 있습니다. 0:03:29.293,0:03:31.851 이 서비스를 통해 부모는 자식의 키 0:03:31.875,0:03:34.708 눈동자 색, 지능, 사회성 0:03:34.732,0:03:37.946 그리고 건강과 관련되지 않은 특성들을[br]고를 수 있게 되었습니다. 0:03:38.599,0:03:41.153 기업이 하는 것은 무엇일까요? 0:03:41.177,0:03:42.808 0에서부터 10까지의 숫자를 통해 0:03:42.832,0:03:45.217 완전히 수용할 수 있는지[br]완전히 수용이 불가능한지 0:03:45.241,0:03:47.673 그리고 자신의 생각에[br]확신이 있는지 평가를 해보세요. 0:03:47.697,0:03:49.288 결과를 보여드리겠습니다. 0:03:49.312,0:03:50.649 설문 결과에 따르면 0:03:50.649,0:03:54.270 그 행동이 완전히 잘못되었다고[br]확신하는 사람이 있는 반면 0:03:54.294,0:03:57.717 완전히 좋은 행동이라고[br]확신하는 사람도 있었습니다. 0:03:57.741,0:04:01.452 인간이 도덕성에 관해 가지는[br]다양한 관점을 보여줍니다. 0:04:01.476,0:04:04.189 이런 폭넓은 다양성 가운데[br]우리는 경향성을 발견했습니다. 0:04:04.213,0:04:07.292 TED의 대부분의 사람들은[br]AI의 감정을 무시하고 끄는 행위를 0:04:07.316,0:04:10.071 수용 가능하다고 판단했습니다. 0:04:10.095,0:04:12.608 그리고 건강과는 관련 없이 미용을 위해 0:04:12.632,0:04:15.952 유전자를 바꾸는 것은[br]옳지 않다고 생각했습니다. 0:04:16.402,0:04:19.376 그 후에 사람들을[br]3명의 그룹으로 나눴습니다. 0:04:19.400,0:04:21.437 그리고 2분간 토론을 하여 0:04:21.461,0:04:23.755 의견을 합치시키도록 했습니다. 0:04:24.838,0:04:26.412 토론은 2분간 이루어집니다! 0:04:26.436,0:04:28.555 시간이 다 되면 소리가 들릴 겁니다! 0:04:38.834,0:04:39.985 좋아요. 0:04:40.009,0:04:41.801 이제 그만 하세요. 0:04:41.825,0:04:43.136 여러분! 0:04:43.747,0:04:46.420 많은 그룹들이 합의에 도달했습니다. 0:04:46.444,0:04:50.373 반대의 의견을 가진 사람들로[br]구성되었다고 할지라도 말이죠. 0:04:50.843,0:04:53.367 합의에 빨리 도달한 그룹과 0:04:53.391,0:04:54.729 그렇지 않은 그룹의[br]차이점은 무엇일까요? 0:04:55.244,0:04:58.083 보통 극단적인 의견을 가진 사람들은 0:04:58.107,0:04:59.947 본인의 대답에 확신을 가지는[br]경향을 보입니다. 0:05:00.868,0:05:03.554 온건한 대답한 사람들은 0:05:03.578,0:05:07.015 어떤 것이 옳은지 그른지에 대해서[br]분명한 의견을 가지지 못했고 0:05:07.039,0:05:09.167 대답에 대해 확신하는[br]경향 역시 낮았습니다. 0:05:09.505,0:05:12.448 다른 종류의 사람들도 있습니다. 0:05:12.472,0:05:16.090 아주 자신 있게[br]온건한 대답을 하는 사람들이죠. 0:05:16.657,0:05:20.373 중립지대에서 확신을 가진 이들은 0:05:20.397,0:05:22.009 양쪽의 주장이 모두 이점이 있음을[br]이해하는 사람들입니다. 0:05:22.531,0:05:25.230 확신하지 못해서[br]중립성향을 띄는 것이 아니라 0:05:25.254,0:05:27.942 도덕적 딜레마가 두 개의 유효하면서도 0:05:27.966,0:05:29.953 반대되는 주장들을 보여준다는 것을[br]믿고 있기 때문입니다. 0:05:30.373,0:05:34.445 이 확신을 가진 중립자를 포함한 그룹이 0:05:34.469,0:05:36.962 합의에 훨씬 더 쉽게 도달합니다. 0:05:36.986,0:05:39.464 정확히 왜 그런지는 모릅니다. 0:05:39.488,0:05:41.251 아직 실험 초기단계일 뿐이니까요. 0:05:41.275,0:05:44.687 어떤 사람이 합의를 얻기 위해[br]본인의 도덕적 관점을 협상하는 0:05:44.711,0:05:47.533 이유와 방법을 이해하기 위해서는 0:05:47.557,0:05:49.079 더 많은 실험이 이루어져야 합니다. 0:05:49.103,0:05:51.572 집단이 합의에 도달하려고 할 때 0:05:51.596,0:05:53.182 어떤 방법을 쓸까요? 0:05:53.206,0:05:54.811 가장 직관적인 생각은 0:05:54.811,0:05:57.841 집단 안에서 나온 모든 답의[br]평균을 내는 것입니다. 0:05:57.865,0:06:00.282 다른 방법은 개인이 본인의 주장에 대해 0:06:00.282,0:06:03.910 얼마나 확신하느냐에 따라[br]더 큰 가중치를 두는 겁니다. 0:06:04.422,0:06:06.928 폴 매카트니가 여러분 그룹의[br]구성원이라고 생각해보세요. 0:06:07.352,0:06:09.496 '예스터데이'가 몇 번이나 반복되느냐는 0:06:09.520,0:06:11.961 질문의 답은[br]폴을 믿는 게 좋지 않을까요? 0:06:11.985,0:06:14.699 제 생각에는 아홉 번 같아요. 0:06:14.723,0:06:17.104 그런데 우리가 발견한 결과에 따르면 0:06:17.128,0:06:19.494 모든 딜레마와 모든 다른 실험들에서 0:06:19.518,0:06:21.683 심지어는 다른 대륙에서 역시 0:06:21.707,0:06:25.450 집단은 통계적으로 건강한 절차인 0:06:25.474,0:06:27.652 '강력한 평균'이라는 방법을[br]시행하려고 노력합니다. 0:06:27.676,0:06:29.856 에펠탑의 높이 질문을 예로 들겠습니다. 0:06:29.880,0:06:31.700 이러한 대답을 가진[br]그룹이 있다고 합시다. 0:06:31.724,0:06:35.286 250m, 200m, 300m 0:06:35.286,0:06:40.140 400m와 말도 안 되게 3억m까지요. 0:06:40.547,0:06:44.840 이 숫자들을 단순하게 평균내는 것은[br]결과를 왜곡할 것입니다. 0:06:44.864,0:06:48.034 그러나 강력한 평균은 터무니없는 답을 0:06:48.058,0:06:49.298 거의 무시하는 방법입니다. 0:06:49.322,0:06:52.691 중간지대의 답에[br]더 큰 가중치를 둠으로써 말이죠. 0:06:53.305,0:06:55.181 밴쿠버에서 한 실험으로 돌아가볼까요? 0:06:55.205,0:06:56.972 거기서 이 방법이 사용되었습니다. 0:06:57.407,0:07:00.148 집단이 합의에 도달할 때,[br]특이치에 훨씬 적은 가중치를 두고 0:07:00.172,0:07:05.381 개인의 대답에 강력한 평균 방법을[br]도입한 것입니다. 0:07:05.381,0:07:07.347 가장 놀라운 일은 0:07:07.371,0:07:10.558 이것이 자연스럽게[br]일어난 현상이라는 겁니다. 0:07:10.582,0:07:15.057 우리는 어떠한 힌트도 주지 않았습니다. 0:07:15.513,0:07:17.053 여기서 어떤 결과를[br]도출할 수 있을까요? 0:07:17.432,0:07:20.569 아직 초기 단계에 불과하지만[br]이미 짐작된는 결과가 있습니다. 0:07:20.984,0:07:23.901 좋은 공동의 결정은[br]두 가지 요소를 필요로합니다. 0:07:23.925,0:07:26.674 의견의 심사숙고와 의견의 다양성입니다. 0:07:27.066,0:07:31.062 현재 대부분의 공동체에서[br]우리의 목소리가 전달되는 방식은 0:07:31.086,0:07:32.994 대개 직간접적인 투표를 통해서입니다. 0:07:33.495,0:07:35.492 의견의 다양성을 위해 좋은 방법이고 0:07:35.516,0:07:37.961 모두가 각자의 의견을 표현할 수 있다는 0:07:37.985,0:07:40.440 굉장한 장점을 가지는 방법입니다. 0:07:40.464,0:07:44.199 그렇지만 의견을 나누는 토론을[br]장려하는 방법은 아닙니다. 0:07:44.665,0:07:47.733 우리의 실험은 다른 방법을 제시합니다. 0:07:47.757,0:07:51.298 이 두 가지 다른 목표 사이에서[br]균형을 맞출 수 있는 방법이죠. 0:07:51.322,0:07:55.075 의견의 다양성을 유지하는 한편 0:07:55.099,0:07:57.333 하나의 결정을 내리는[br]소그룹을 만다는 겁니다. 0:07:57.357,0:08:00.130 우리 사회에는 많은 독립적인 집단들이[br]존재하고 있으니까요. 0:08:00.741,0:08:04.665 당연히 에펠탑의 높이에 대해[br]합의하는 것은 0:08:04.689,0:08:07.804 도덕적, 정치적, 개념적 문제들에[br]합의하는 것보다 훨씬 쉽습니다. 0:08:08.721,0:08:11.998 세상의 문제들이 복잡해지고 0:08:12.022,0:08:13.825 사람들이 양극화되어 가는 시대에 0:08:13.849,0:08:18.444 과학을 통해 우리가 어떻게 상호작용하고[br]결정을 내리는 지 이해함으로써 0:08:18.468,0:08:23.134 더 진보된 민주주의를 만들[br]새로운 방법이 나오기를 바랍니다.