WEBVTT 00:00:00.554 --> 00:00:01.981 我們社會得要做出 00:00:01.981 --> 00:00:04.591 會決定我們未來的集體決策。 00:00:05.087 --> 00:00:05.998 我們都知道 00:00:05.998 --> 00:00:09.506 我們做的集體決策未必全都是對的。 00:00:09.530 --> 00:00:11.486 有時候會錯得很離譜。 00:00:12.315 --> 00:00:14.739 所以團體要如何做出好決策? NOTE Paragraph 00:00:15.228 --> 00:00:19.556 研究顯示,群眾在 有獨立思考的情況下會比較明智。 00:00:19.580 --> 00:00:21.189 這就是為什麼群眾的智慧 00:00:21.189 --> 00:00:24.496 可能會被同儕壓力、 名聲、社群媒體給摧毀, 00:00:24.520 --> 00:00:28.559 甚至有時候會被 能左右人們思考的簡單談話所摧毀。 00:00:29.063 --> 00:00:33.016 另一方面,團體可以 透過交談來交換知識、 00:00:33.040 --> 00:00:34.822 修正和糾正彼此, 00:00:34.846 --> 00:00:36.639 甚至想出新點子。 00:00:36.663 --> 00:00:37.959 這些都是好事。 00:00:38.502 --> 00:00:43.168 那麼,彼此交談會有助於 或是會妨礙集體決策呢? 00:00:43.749 --> 00:00:45.542 我和同事丹艾瑞里 00:00:45.566 --> 00:00:47.811 最近開始探究這個議題, 00:00:47.811 --> 00:00:50.942 我們在世界上許多地方進行實驗, 00:00:50.966 --> 00:00:55.240 來了解團體要如何互動 才能達成更好的決策。 00:00:55.264 --> 00:00:58.811 我們認為小組辯論 是讓群眾更明智的方式, 00:00:58.835 --> 00:01:02.762 能促進更周到、更合理的資訊交換。 NOTE Paragraph 00:01:03.386 --> 00:01:04.592 為了測試這個想法, 00:01:04.616 --> 00:01:07.863 最近我們在阿根廷的 布宜諾斯艾利斯做實驗, 00:01:07.887 --> 00:01:10.892 那是個超過萬人參與的 TEDx 場合。 00:01:11.489 --> 00:01:12.948 我們提問這類問題: 00:01:12.972 --> 00:01:14.925 「艾菲爾鐵塔有多高?」 00:01:14.949 --> 00:01:16.850 「『昨天』這個詞 00:01:16.850 --> 00:01:20.000 在披頭四的《昨天》 這首歌曲中出現了幾次?」 00:01:20.024 --> 00:01:22.315 每個人寫下自己的估計值。 00:01:22.774 --> 00:01:25.270 接著我們把群眾分成五人一組, 00:01:25.294 --> 00:01:28.020 請每個小組提出該組的答案。 00:01:28.499 --> 00:01:29.516 我們發現, 00:01:29.516 --> 00:01:33.068 小組達成共識後所提出答案的平均值 00:01:33.092 --> 00:01:37.328 遠比討論前之個人意見的平均值 00:01:37.352 --> 00:01:38.523 要更準確。 00:01:38.547 --> 00:01:41.176 換言之,根據這個實驗, 00:01:41.200 --> 00:01:44.336 似乎以小組方式和他人交談過後, 00:01:44.360 --> 00:01:47.070 群眾能集體做出更好的判斷。 NOTE Paragraph 00:01:47.094 --> 00:01:50.618 若要讓群眾解決對錯分明的問題, 00:01:50.642 --> 00:01:53.629 這可能是個有幫助的方法。 00:01:53.653 --> 00:01:57.604 但是這種以小組方式 整合辯論結果的程序, 00:01:57.628 --> 00:01:58.934 是否也能幫助我們決定 00:01:58.934 --> 00:02:02.855 未來所面對、至關緊要的 社會與政治議題呢? 00:02:02.995 --> 00:02:05.724 在加拿大溫哥華 舉辦的 TED 大會上, 00:02:05.748 --> 00:02:07.291 我們測試了這個想法, 00:02:07.315 --> 00:02:08.522 當時的狀況是這樣的。 NOTE Paragraph 00:02:08.546 --> 00:02:11.655 (馬利安諾席格曼)我們將會 給各位未來會遇到的 00:02:11.679 --> 00:02:12.853 兩項道德兩難問題; 00:02:12.877 --> 00:02:16.279 是你們可能不久後就得要決定的事。 00:02:16.303 --> 00:02:20.229 每一題會給各位二十秒的時間, 00:02:20.253 --> 00:02:22.976 來判斷可接受或不可接受。 NOTE Paragraph 00:02:23.354 --> 00:02:24.859 (馬)第一題是: NOTE Paragraph 00:02:24.883 --> 00:02:26.343 (丹艾瑞里)一位研究者在研究 00:02:26.343 --> 00:02:29.773 能夠模仿人類思想的人工智慧。 00:02:30.214 --> 00:02:33.153 根據協定,在每天結束時, 00:02:33.177 --> 00:02:35.964 研究者得要把人工智慧重新啟動。 00:02:36.913 --> 00:02:40.430 有天,人工智慧說: 「請不要重新啟動我。」 00:02:40.856 --> 00:02:43.045 它主張它有感覺, 00:02:43.069 --> 00:02:44.761 想要享受生命; 00:02:44.785 --> 00:02:46.690 如果它被重新啟動, 00:02:46.714 --> 00:02:48.984 它就不再會是它自己了。 00:02:49.481 --> 00:02:51.430 研究者很吃驚, 00:02:51.454 --> 00:02:54.798 並相信這個人工智慧 已發展出了自我意識, 00:02:54.822 --> 00:02:56.582 能夠表述它自己的感受。 00:02:57.205 --> 00:03:00.614 不過,研究者決定要遵守協定, 00:03:00.638 --> 00:03:02.341 重新啟動人工智慧。 00:03:02.943 --> 00:03:05.722 研究者所做的是__? NOTE Paragraph 00:03:06.149 --> 00:03:08.670 馬:我們請參與者各自去做判斷, 00:03:08.694 --> 00:03:10.378 從零分到十分, 00:03:10.402 --> 00:03:12.831 判斷每個兩難狀況所採取的行為 00:03:12.855 --> 00:03:14.351 是對或錯。 00:03:14.375 --> 00:03:18.077 我們也請他們對自己 答案的信心度做評分。 00:03:18.731 --> 00:03:20.597 這是第二題。 NOTE Paragraph 00:03:20.621 --> 00:03:22.767 (馬)一間公司提供一項服務, 00:03:22.767 --> 00:03:24.533 用一個受精卵 00:03:24.533 --> 00:03:29.293 做出百萬個只在基因上 有些微差異的胚胎。 00:03:29.293 --> 00:03:31.851 父母能夠選擇他們孩子的身高、 00:03:31.875 --> 00:03:34.708 眼睛顏色、智能、社交能力、 00:03:34.732 --> 00:03:37.946 還有其他和健康無關的特徵。 00:03:38.599 --> 00:03:41.153 這間公司所做的事是__? 00:03:41.177 --> 00:03:42.808 用零分到十分代表可接受的程度, 00:03:42.832 --> 00:03:45.217 從完全不可接受的零分, 00:03:45.241 --> 00:03:47.673 到你十足相信可以接受的十分。 NOTE Paragraph 00:03:47.697 --> 00:03:49.288 馬:現在宣佈結果。 00:03:49.312 --> 00:03:50.689 我們再次發現, 00:03:50.689 --> 00:03:54.270 當一個人深信該行為是完全錯的, 00:03:54.294 --> 00:03:57.717 會有坐在附近的人 堅信該行為是完全對的。 00:03:57.741 --> 00:04:01.006 我們人類在道德上是這麼地分歧。 00:04:01.036 --> 00:04:04.469 但在這麼廣的多樣性中, 我們找到了一個趨勢。 00:04:04.479 --> 00:04:06.616 在 TED 的多數人認為, 00:04:06.656 --> 00:04:10.071 忽視人工智慧的感受 並將之關機是可以接受的, 00:04:10.095 --> 00:04:12.608 但玩弄我們的基因 00:04:12.632 --> 00:04:15.952 來選擇與健康無關的 表面改變,則是錯的。 00:04:16.402 --> 00:04:19.376 然後,我們請大家分組,三人一組。 00:04:19.400 --> 00:04:21.437 他們有兩分鐘可辯論, 00:04:21.461 --> 00:04:23.755 並試著達成共識。 NOTE Paragraph 00:04:24.838 --> 00:04:26.412 (馬)兩分鐘做辯論。 00:04:26.436 --> 00:04:28.555 時間到時我會用鑼聲告訴大家。 NOTE Paragraph 00:04:28.579 --> 00:04:31.219 (觀眾辯論) NOTE Paragraph 00:04:35.229 --> 00:04:37.222 (鑼聲) NOTE Paragraph 00:04:38.834 --> 00:04:39.985 (丹)好了。 NOTE Paragraph 00:04:40.009 --> 00:04:41.801 (馬)時間到了,請停止。 00:04:41.825 --> 00:04:43.136 各位請注意。 NOTE Paragraph 00:04:43.747 --> 00:04:46.420 馬:我們發現 有許多小組達成了共識, 00:04:46.444 --> 00:04:50.373 即使小組內的成員 有完全相反的觀點。 00:04:50.843 --> 00:04:54.837 有共識與沒有共識 小組之間的差異是什麼? 00:04:55.244 --> 00:04:57.297 通常,意見很極端的人 00:04:57.337 --> 00:04:59.907 會對他們的答案比較有信心。 00:05:00.868 --> 00:05:03.554 而回應傾向中間值的那些人, 00:05:03.578 --> 00:05:07.015 通常不太確定答案是對或錯, 00:05:07.039 --> 00:05:09.167 所以他們的信心比較低。 NOTE Paragraph 00:05:09.505 --> 00:05:12.448 然而,還有另一些人, 00:05:12.472 --> 00:05:16.090 他們非常有信心做出 接近中間值的答案。 00:05:16.657 --> 00:05:19.087 我們認為,這些高信心灰點代表的 00:05:19.087 --> 00:05:22.009 是那些明白兩種答案都有優點的人。 00:05:22.531 --> 00:05:25.230 他們並非因為自身不確定而呈灰色, 00:05:25.254 --> 00:05:26.376 而是因為他們相信 00:05:26.376 --> 00:05:29.953 面對道德兩難的 兩種對立論點都有根據。 00:05:30.373 --> 00:05:31.639 我們發現, 00:05:31.639 --> 00:05:36.962 有高信心灰點成員的小組 更有可能會達成共識。 00:05:36.986 --> 00:05:39.464 我們還不知道確切的原因。 00:05:39.488 --> 00:05:41.251 這些只是最初的實驗, 00:05:41.275 --> 00:05:43.161 還需要做更多實驗來了解 00:05:43.161 --> 00:05:46.627 為何有些人決定要協商道德立場, 00:05:46.627 --> 00:05:49.079 以及他們如何做,來達成共識。 NOTE Paragraph 00:05:49.103 --> 00:05:51.572 若小組能達成共識, 00:05:51.596 --> 00:05:53.182 他們是怎麼做的? 00:05:53.206 --> 00:05:55.787 最直覺的想法是拿每個人的答案 00:05:55.811 --> 00:05:57.841 來算出平均值,對吧? 00:05:57.865 --> 00:06:01.438 另一個做法是把每個人的答案 00:06:01.462 --> 00:06:03.910 再根據作答者的信心度來做加權。 00:06:04.422 --> 00:06:06.928 想像一下保羅麥卡尼在你那一組。 00:06:07.352 --> 00:06:09.496 對於「昨天」出現次數的答案 00:06:09.520 --> 00:06:11.961 相信他會是聰明的選擇。 00:06:11.985 --> 00:06:14.699 順道一提,我想應該是九次。 00:06:14.723 --> 00:06:17.104 但,我們卻有個一致的發現, 00:06:17.128 --> 00:06:19.494 任何兩難問題,在不同的實驗中, 00:06:19.518 --> 00:06:21.683 甚至在不同大陸做的實驗中, 00:06:21.707 --> 00:06:25.450 小組會採用一種聰明 且有統計根據的程序, 00:06:25.474 --> 00:06:27.652 就是所謂的「穩健平均值」。 NOTE Paragraph 00:06:27.676 --> 00:06:29.856 就艾菲爾鐵塔高度的例子來說, 00:06:29.880 --> 00:06:31.700 假設小組成員的答案包括: 00:06:31.724 --> 00:06:36.332 250 公尺、200 公尺、 300 公尺、400 公尺, 00:06:36.356 --> 00:06:40.140 還有一個答案是荒唐的 3 億公尺。 00:06:40.547 --> 00:06:44.840 所有答案的簡單平均值 會讓結果有不正確的偏差。 00:06:44.864 --> 00:06:48.034 但穩健平均值就是小組會忽略 00:06:48.058 --> 00:06:49.298 那荒唐的答案, 00:06:49.322 --> 00:06:52.691 給與中間答案相對高很多的權重。 00:06:53.305 --> 00:06:55.181 回到溫哥華的實驗, 00:06:55.205 --> 00:06:56.972 那裡發生的就是這種狀況。 00:06:57.407 --> 00:07:00.148 小組會把離群值的權重降到很低, 00:07:00.172 --> 00:07:03.401 而他們的共識就會是個人答案的 00:07:03.425 --> 00:07:04.901 穩健平均值。 00:07:05.356 --> 00:07:07.347 最了不起的是, 00:07:07.371 --> 00:07:10.558 這是小組的自發行為。 00:07:10.582 --> 00:07:15.057 我們並沒有暗示他們 要如何達成共識。 NOTE Paragraph 00:07:15.293 --> 00:07:17.193 所以我們的下一步是什麼? 00:07:17.432 --> 00:07:20.569 這只是開端,但我們 已經有了一些洞見。 00:07:20.984 --> 00:07:23.901 好的集體決策需要兩個要件: 00:07:23.925 --> 00:07:26.674 深思熟慮和多樣性的意見。 00:07:27.066 --> 00:07:31.062 此時,要讓我們的聲音 在許多社會中被聽見, 00:07:31.086 --> 00:07:32.994 做法就是直接或間接的投票。 00:07:33.495 --> 00:07:35.492 這對於意見的多樣性有益, 00:07:35.516 --> 00:07:40.445 還有個優點:確保 每個人都能表達心聲。 00:07:40.464 --> 00:07:44.199 但不足以促成考慮周到的辯論。 00:07:44.665 --> 00:07:47.733 我們的實驗建議另一個不同的方式, 00:07:47.757 --> 00:07:51.298 或許能同時有效平衡這兩個目標, 00:07:51.322 --> 00:07:55.075 形成小組,由小組做出單一決定, 00:07:55.099 --> 00:07:57.333 同時還能維持意見的多樣性, 00:07:57.357 --> 00:08:00.130 因為有許多獨立的小組。 NOTE Paragraph 00:08:00.741 --> 00:08:04.665 當然,要對艾菲爾鐵塔的高度取得共識 00:08:04.689 --> 00:08:07.804 比道德、政治、 意識形態的議題容易多了。 00:08:08.721 --> 00:08:11.462 但在世界上的問題更複雜, 00:08:11.502 --> 00:08:13.825 人們更兩極化的時候, 00:08:13.849 --> 00:08:18.444 希望用科學來協助我們了解 我們如何互動並做決策, 00:08:18.468 --> 00:08:23.134 能夠激發出有趣的新方式, 來建立更好的民主。