0:00:00.554,0:00:02.961 社会として 私たちは[br]未来を形作る決断を 0:00:02.961,0:00:04.851 集団的に行う[br]必要があります 0:00:05.087,0:00:07.768 グループでの決定は[br]必ずしも上手く行かないことを 0:00:07.768,0:00:09.380 私たちは知っています 0:00:09.380,0:00:11.696 本当に酷い結果に[br]なることもあります 0:00:12.255,0:00:14.928 集団はどのように[br]良い決定をするのでしょう? 0:00:14.928,0:00:19.746 集団は各個人が独立して思考するとき[br]より賢明になると研究が示しています 0:00:19.746,0:00:24.005 そのため 同調圧力 マスコミ [br]ソーシャルメディア あるいは単なる会話でさえ 0:00:24.005,0:00:26.126 人の考え方に影響を与え 0:00:26.126,0:00:29.059 集合知を損なう[br]可能性があります 0:00:29.063,0:00:32.700 一方でグループは話すことによって[br]知識を交換し 0:00:32.700,0:00:34.666 互いに訂正し改善し 0:00:34.666,0:00:36.573 新しいアイデアを[br]生み出しもします 0:00:36.573,0:00:38.382 それは分かるのですが 0:00:38.382,0:00:43.659 それでは互いに話すことは 集団の意思決定を[br]助けるのでしょうか 妨げるのでしょうか? 0:00:43.659,0:00:45.722 最近 私はダン・アリエリーと一緒に 0:00:45.722,0:00:48.751 世界の様々な場所で[br]実験をやっていて 0:00:48.751,0:00:50.806 より良い決断をするために 0:00:50.806,0:00:54.894 グループはどう交流できるものか[br]調べています 0:00:54.894,0:00:58.935 小さなグループで議論するとき[br]思慮と理性をもって知識が交換され 0:00:58.935,0:01:02.982 集団はより賢明になると[br]私たちは考えました 0:01:03.196,0:01:04.662 この考えを確かめるため 0:01:04.662,0:01:06.987 私たちは最近アルゼンチンの[br]ブエノスアイレスで 0:01:06.997,0:01:11.139 TEDxイベントの1万人以上の参加者を対象に[br]実験を行いました 0:01:11.139,0:01:12.522 そこで私たちは 0:01:12.522,0:01:14.729 「エッフェル塔の高さは?」とか 0:01:14.729,0:01:18.066 「ビートルズのイエスタデイに[br]『イエスタデイ』という言葉は何度出てくるか?」 0:01:18.066,0:01:19.804 といった質問をしました 0:01:19.804,0:01:22.685 まず各自 自分の予想を[br]紙に書きます 0:01:22.714,0:01:25.154 それから5人ずつで[br]グループになり 0:01:25.154,0:01:28.310 相談してグループの答えを[br]出してもらいます 0:01:28.499,0:01:29.916 それで分かったのは 0:01:29.916,0:01:32.742 合意に達したグループの[br]答えの平均は 0:01:32.742,0:01:35.122 各個人の答えの[br]平均よりも 0:01:35.122,0:01:38.347 ずっと正解に[br]近かったということです 0:01:38.347,0:01:40.800 言い換えると [br]この実験により 0:01:40.800,0:01:43.570 小さなグループで[br]議論をすることで 0:01:43.570,0:01:46.944 集団はより良い判断ができると[br]示されたのです 0:01:46.944,0:01:50.462 だからこれは単純に正しいか[br]間違いかという問題について 0:01:50.462,0:01:53.613 集団で答えを出す[br]有効な方法になるかもしれません 0:01:53.613,0:01:57.238 でも この小さなグループでの[br]議論の結果を集める方法は 0:01:57.238,0:01:59.104 私たちの未来にとって重要な 0:01:59.104,0:02:02.875 社会的・政治的な問題を決める時にも[br]有効なのでしょうか? 0:02:02.895,0:02:04.898 カナダのバンクーバーで行われた 0:02:04.898,0:02:06.561 TEDカンファレンスで 0:02:06.561,0:02:08.687 私たちは それを[br]試してみました 0:02:08.687,0:02:10.729 (シグマン) これから[br]皆さんの未来に関わる 0:02:10.729,0:02:12.807 2つの倫理的ジレンマを[br]提示します 0:02:12.807,0:02:15.913 近い将来 決断を迫られる[br]かもしれないことです 0:02:15.913,0:02:17.973 それぞれ20秒で 0:02:17.973,0:02:22.836 許容できるかできないかを[br]判断してください 0:02:23.154,0:02:24.919 (ナレーション) 1つ目の[br]ジレンマはこうです 0:02:24.919,0:02:26.243 (アリエリー) 研究者が 0:02:26.243,0:02:29.954 人間の思考を真似た[br]人工知能の研究をしています 0:02:29.954,0:02:32.487 実験手順では [br]1日の終わりに 0:02:32.487,0:02:36.184 人工知能を再起動する[br]ことになっています 0:02:36.743,0:02:40.746 ある日のこと 人工知能が[br]「再起動しないでください」と言います 0:02:40.746,0:02:42.939 人工知能は[br]自分には感情があり 0:02:42.939,0:02:44.565 生きることを[br]楽しみたいが 0:02:44.565,0:02:46.384 再起動されたら 0:02:46.384,0:02:49.354 自分でなくなってしまう[br]と言うのです 0:02:49.381,0:02:51.204 研究者は驚き 0:02:51.204,0:02:53.922 人工知能に[br]意識が芽生え 0:02:53.922,0:02:56.985 感情を表現できるように[br]なったことを認めますが 0:02:56.985,0:02:59.588 それでも手順通りに 0:02:59.588,0:03:02.671 人工知能を[br]再起動することにします 0:03:02.943,0:03:05.722 研究者のしたことは— 0:03:06.149,0:03:07.730 (ナレーション) 私たちは参加者に 0:03:07.730,0:03:09.954 提示されたジレンマ状況に[br]おける行動が 0:03:09.954,0:03:11.985 正しいか [br]間違っているか 0:03:11.985,0:03:14.351 各自0〜10で[br]評価してもらいました 0:03:14.375,0:03:18.487 また自分の答えにどれほど自信があるかも[br]合わせて答えてもらいました 0:03:18.731,0:03:20.597 2つ目のジレンマはこうです 0:03:20.597,0:03:24.649 (シグマン) ある会社では[br]1つの受精卵から何百万という胚を 0:03:24.649,0:03:29.109 遺伝的な差異を付けて生成する[br]サービスを提供しています 0:03:29.123,0:03:31.631 これによって両親は[br]子供の身長 0:03:31.631,0:03:34.494 目の色 知能 社会的能力など 0:03:34.494,0:03:38.398 健康に関わらない特徴を[br]選択することができます 0:03:38.539,0:03:40.297 この会社のしている[br]ことについて 0:03:40.297,0:03:43.808 0 (まったく許容できない) 〜[br]10 (まったく許容できる) の範囲で 0:03:43.808,0:03:45.141 点数を付け 0:03:45.141,0:03:47.743 また答えへの自信のほども[br]点数を付けてください 0:03:47.743,0:03:49.172 (ナレーション) こんな結果になりました 0:03:49.172,0:03:50.599 ここでもまた 0:03:50.599,0:03:53.864 まったく間違いだと[br]考える人もいれば 0:03:53.864,0:03:57.481 その側にはまったく[br]正しいと考える人もいて 0:03:57.481,0:04:01.236 倫理に関して人が[br]いかに多様であるかがわかります 0:04:01.236,0:04:04.133 しかしこの多様性の中にも[br]ある傾向が見られました 0:04:04.133,0:04:06.106 TED参加者の多くは 0:04:06.106,0:04:09.875 人工知能の気持ちを無視して[br]停止させるのは許容できるとする一方 0:04:09.875,0:04:13.738 健康に関わらない美的なことの[br]選択のために遺伝子をいじることは 0:04:13.738,0:04:16.322 間違っていると[br]考えていました 0:04:16.322,0:04:19.189 それから3人ずつの[br]グループになってもらい 0:04:19.189,0:04:21.411 2分間で意見を[br]まとめられるか 0:04:21.411,0:04:23.865 議論してもらいました 0:04:24.778,0:04:26.452 (シグマン) 2分間[br]議論してください 0:04:26.452,0:04:28.555 時間になったら[br]銅鑼で知らせます 0:04:28.579,0:04:31.219 (議論する聴衆) 0:04:35.229,0:04:37.222 (銅鑼の音) 0:04:38.744,0:04:39.969 (アリエリー) いいでしょう 0:04:39.969,0:04:41.745 (シグマン) 時間です 0:04:41.745,0:04:43.296 皆さん— 0:04:43.747,0:04:45.434 (ナレーション) 多くのグループは 0:04:45.434,0:04:50.483 まったく違う意見の人がいても[br]合意に達していることがわかりました 0:04:50.843,0:04:53.367 合意に達したグループと[br]達しなかったグループを 0:04:53.391,0:04:55.134 分けているものは[br]何でしょう? 0:04:55.134,0:04:57.763 典型的には [br]極端な意見を持つ人は 0:04:57.763,0:05:00.503 自分の答えに[br]自信を持っています 0:05:00.868,0:05:03.554 一方で真ん中あたりの[br]答えをした人は 0:05:03.578,0:05:06.549 正しいか間違いかに[br]確信がなく 0:05:06.549,0:05:09.507 自信の度合いは[br]低くなっています 0:05:09.507,0:05:11.992 しかし違うタイプの人もいて 0:05:11.992,0:05:16.407 真ん中あたりの答えを[br]強い自信を持ってしています 0:05:16.407,0:05:19.117 この「自信を持った中間」の人たちは 0:05:19.117,0:05:22.461 それぞれの意見の利点を[br]理解しているのでしょう 0:05:22.461,0:05:25.104 彼らが中間なのは[br]不確かだからではなく 0:05:25.104,0:05:27.506 対立する意見のどちらにも 0:05:27.506,0:05:30.273 正当性を認めているからなのです 0:05:30.273,0:05:34.045 そして「自信を持った中間」の[br]人がいるグループでは 0:05:34.045,0:05:36.948 合意に達することが[br]多いことが分かりました 0:05:36.948,0:05:39.338 それが なぜなのかは[br]まだ分かりません 0:05:39.338,0:05:40.991 最初の実験を[br]したばかりです 0:05:40.991,0:05:43.131 人々が自分の倫理的立場について 0:05:43.131,0:05:46.387 話し合い 合意しようとする[br]理由や方法を理解するには 0:05:46.387,0:05:49.023 もっと多くの実験を[br]する必要があります 0:05:49.023,0:05:50.806 では グループはどうやって 0:05:50.806,0:05:52.986 合意に達するのでしょう? 0:05:52.986,0:05:54.981 もっとも分かりやすい[br]やり方は 0:05:54.981,0:05:57.565 みんなの答えの平均を[br]取るというものです 0:05:57.565,0:06:00.102 別のやり方は [br]自信の度合いに応じて 0:06:00.102,0:06:04.170 答えに重み付けをする[br]というものです 0:06:04.422,0:06:07.248 グループの中にポール・マッカートニーが[br]いたらと考えてみてください 0:06:07.248,0:06:09.400 イエスタデイの回数については 0:06:09.400,0:06:11.885 彼の意見を聞くのが[br]賢明でしょう 0:06:11.885,0:06:14.603 ちなみに正しい答えは9回です 0:06:14.603,0:06:16.558 でも実際に[br]見受けられるのは 0:06:16.558,0:06:19.254 どのようなジレンマ[br]どのような実験においても 0:06:19.254,0:06:21.557 たとえ大陸が異なろうと 0:06:21.557,0:06:23.934 グループがよく[br]「ロバスト平均」という 0:06:23.934,0:06:27.606 統計的に安定した[br]巧妙な方法を取るということです 0:06:27.606,0:06:29.730 エッフェル塔の高さの問題で 0:06:29.730,0:06:31.634 グループの出した答えが[br]たとえば 0:06:31.634,0:06:36.056 250m 200m 300m 400m 0:06:36.056,0:06:40.327 それにまったく馬鹿げた[br]300,000,000mだったとします 0:06:40.327,0:06:44.584 単純に平均を取ると [br]大きく外れた値になってしまいます 0:06:44.584,0:06:46.228 しかしロバスト平均では 0:06:46.228,0:06:49.132 馬鹿げた答えが[br]概ね無視されるよう 0:06:49.132,0:06:52.781 中間の票に[br]大きな重みを付けます 0:06:53.305,0:06:55.095 バンクーバーでの実験では 0:06:55.095,0:06:57.322 まさに そういうことが[br]起きました 0:06:57.337,0:06:59.782 異常値には[br]小さな重みが与えられ 0:06:59.782,0:07:01.725 合意の結果は 0:07:01.725,0:07:05.151 各自の答えのロバスト平均に[br]なっていたのです 0:07:05.306,0:07:07.241 注目すべきなのは 0:07:07.241,0:07:10.558 それがグループの自発的な[br]振る舞いだということです 0:07:10.582,0:07:15.253 合意する方法についてヒントを与えなくとも [br]そういうことが起きるのです 0:07:15.253,0:07:17.493 ここからどう進むべきでしょうか? 0:07:17.493,0:07:21.039 これはまだ始まりに過ぎませんが [br]様々な洞察が既に得られています 0:07:21.039,0:07:23.775 良い集団的決定に必要な[br]2つの要素があります 0:07:23.775,0:07:26.956 審議と意見の多様性です 0:07:26.956,0:07:30.782 現在 多くの社会で[br]人々の意見を反映させる方法は 0:07:30.782,0:07:33.215 直接・間接の投票です 0:07:33.215,0:07:35.426 これは意見の多様性という面で優れ 0:07:35.426,0:07:37.855 みんなが意見を表明できるという 0:07:37.855,0:07:40.304 素晴らしい利点があります 0:07:40.304,0:07:44.609 しかし考え深い議論のためには[br]あまり良くありません 0:07:44.635,0:07:46.137 私たちの実験は 0:07:46.137,0:07:51.002 この2つの目標をバランスさせる[br]効果的な方法を示唆しています 0:07:51.002,0:07:54.679 意見を1つにまとめる[br]小さなグループを形成しつつ 0:07:54.679,0:07:57.267 多数のグループが[br]あることによって 0:07:57.267,0:08:00.591 意見の多様性を[br]保つのです 0:08:00.591,0:08:04.289 もちろんエッフェル塔の[br]高さについて合意するのは 0:08:04.289,0:08:08.664 倫理的 政治的 イデオロギー的問題について[br]合意するよりも ずっと簡単です 0:08:08.664,0:08:11.592 しかし世界の問題が複雑化し 0:08:11.592,0:08:13.825 人々が分極化する時代にあって 0:08:13.849,0:08:18.358 人がどう交流し決断をするのかを[br]科学の助けで理解するなら 0:08:18.358,0:08:23.134 より良い民主主義を作る[br]興味深い新たな方法が見つかるかもしれません