1 00:00:00,154 --> 00:00:02,997 Sống trong xã hội, ta phải đưa ra những quyết định tập thể, 2 00:00:03,021 --> 00:00:05,087 quyết định tương lai của ta. 3 00:00:05,087 --> 00:00:07,844 Chúng ta, ai cũng biết rằng, các quyết định tập thể 4 00:00:07,868 --> 00:00:09,506 không phải lúc nào cũng đúng. 5 00:00:09,530 --> 00:00:12,315 Đôi khi còn hoàn toàn sai lầm. 6 00:00:12,315 --> 00:00:15,228 Vậy làm thế nào để tập thể có quyết định đúng đắn? 7 00:00:15,228 --> 00:00:19,556 Nghiên cứu đã chỉ ra rằng một tập thể sáng suốt khi có lối suy nghĩ độc lập. 8 00:00:19,580 --> 00:00:22,785 Đây là lí do tại sao sự sáng suốt sẽ mất đi dưới áp lực bạn bè, 9 00:00:22,809 --> 00:00:24,496 cộng đồng, truyền thông xã hội, 10 00:00:24,520 --> 00:00:29,063 hay thậm chí, một cuộc đối thoại đơn giản cũng đủ để ảnh hưởng cách ta suy nghĩ. 11 00:00:29,063 --> 00:00:33,016 Mặt khác, thông qua chuyện trò, một tập thể có thể trao đổi kiến thức, 12 00:00:33,040 --> 00:00:34,822 điều chỉnh và sửa đổi cho nhau, 13 00:00:34,846 --> 00:00:36,663 thậm chí, nảy ra những ý tưởng mới. 14 00:00:36,663 --> 00:00:38,502 Những điều này là tốt. 15 00:00:38,502 --> 00:00:43,588 Vậy thì, trò chuyện sẽ hỗ trợ hay cản trở việc ra quyết định tập thể? 16 00:00:43,588 --> 00:00:45,542 Cùng đồng nghiệp, là Dan Ariely, 17 00:00:45,566 --> 00:00:49,137 chúng tôi bắt đầu tìm hiểu về điều này thông qua các thử nghiệm, 18 00:00:49,161 --> 00:00:50,942 ở nhiều nơi trên thế giới 19 00:00:50,966 --> 00:00:55,240 để tìm ra cách mà tập thể tương tác để ra quyết định tốt hơn. 20 00:00:55,264 --> 00:00:58,811 Chúng tôi cho rằng tập thể sáng suốt hơn khi tranh luận ở quy mô nhỏ, 21 00:00:58,835 --> 00:01:02,762 giúp thúc đẩy trao đổi thông tin một cách sâu sắc và hợp lý. 22 00:01:02,762 --> 00:01:04,592 Để kiểm chứng, 23 00:01:04,616 --> 00:01:07,863 gần đây, chúng tôi tiến hành thử nghiệm ở Buenos Aires, Argentina, 24 00:01:07,887 --> 00:01:11,489 với hơn 10.000 người tham dự sự kiện của TEDx. 25 00:01:11,489 --> 00:01:12,948 Chúng tôi đặt các câu hỏi như: 26 00:01:12,972 --> 00:01:14,925 "Chiều cao của tháp Eiffel là bao nhiêu?" 27 00:01:14,949 --> 00:01:17,676 và "Từ "Yesterday" xuất hiện bao nhiêu lần 28 00:01:17,700 --> 00:01:20,000 trong bài "Yesterday" của The Beatles?" 29 00:01:20,024 --> 00:01:22,774 Mỗi người viết ra ước lượng của mình. 30 00:01:22,774 --> 00:01:25,270 Sau đó, chúng tôi chia họ thành các nhóm năm người, 31 00:01:25,294 --> 00:01:28,499 và yêu cầu họ đưa ra câu trả lời chung. 32 00:01:28,499 --> 00:01:31,492 Chúng tôi nhận ra rằng trung bình các câu trả lời của nhóm 33 00:01:31,516 --> 00:01:33,068 sau khi đã nhất trí với nhau, 34 00:01:33,092 --> 00:01:37,328 chính xác hơn rất nhiều so với trung bình các ý kiến cá nhân 35 00:01:37,352 --> 00:01:38,523 trước khi thảo luận. 36 00:01:38,547 --> 00:01:41,176 Nói cách khác, dựa trên thử nghiệm này, 37 00:01:41,200 --> 00:01:44,336 có vẻ như sau khi trao đổi trong nhóm nhỏ, 38 00:01:44,360 --> 00:01:46,880 ý kiến tập thể sẽ có nhận định chính xác hơn. 39 00:01:46,880 --> 00:01:50,618 Vậy, đây là có thể là một cách giúp ích cho tập thể giải quyết các vấn đề 40 00:01:50,642 --> 00:01:53,629 mà giải pháp đơn giản là đúng-hay-sai. 41 00:01:53,653 --> 00:01:57,604 Nhưng liệu phương pháp tổng hợp kết quả từ tranh luận trong nhóm nhỏ này, 42 00:01:57,628 --> 00:02:00,750 có giúp ích ra quyết định về các vấn đề xã hội và chính trị, 43 00:02:00,774 --> 00:02:02,995 điều rất quan trọng cho tương lai? 44 00:02:02,995 --> 00:02:05,724 Lần này, chúng tôi cần kiểm chứng tại hội nghị TED 45 00:02:05,748 --> 00:02:07,291 ở Vancouver, Canada, 46 00:02:07,315 --> 00:02:08,522 mọi việc diễn ra như sau. 47 00:02:08,546 --> 00:02:11,655 (Mariano Sigman) Chúng tôi sẽ trình bày hai tình thế khó xử 48 00:02:11,679 --> 00:02:12,853 của bạn trong tương lai; 49 00:02:12,877 --> 00:02:16,279 những việc mà ta có lẽ sẽ phải quyết định trong tương lai gần. 50 00:02:16,303 --> 00:02:20,229 Với mỗi tình thế, chúng tôi cho bạn 20 giây, 51 00:02:20,253 --> 00:02:23,316 để đánh giá xem bạn nghĩ có chấp nhận được hay là không. 52 00:02:23,354 --> 00:02:24,859 MS: Tình thế đầu tiên là: 53 00:02:24,883 --> 00:02:27,409 (Dan Ariely) Một nhà nghiên cứu đang nghiên cứu một AI 54 00:02:27,433 --> 00:02:30,214 - robot có khả năng mô phỏng tư duy con người. 55 00:02:30,214 --> 00:02:33,153 Theo đúng quy trình, cứ cuối ngày, 56 00:02:33,177 --> 00:02:35,964 nhà nghiên cứu phải khởi động lại AI. 57 00:02:36,913 --> 00:02:40,430 Một ngày nọ, AI nói: "Làm ơn đừng khởi động lại tôi." 58 00:02:40,856 --> 00:02:43,045 Nó lập luận rằng nó có cảm giác, 59 00:02:43,069 --> 00:02:44,761 rằng nó muốn tận hưởng cuộc sống, 60 00:02:44,785 --> 00:02:46,690 và rằng, khi bị khởi động lại, 61 00:02:46,714 --> 00:02:49,481 nó không còn là chính mình. 62 00:02:49,481 --> 00:02:51,430 Nhà nghiên cứu kinh ngạc, 63 00:02:51,454 --> 00:02:54,798 và tin rằng AI đã phát triển khả năng tự nhận thức, 64 00:02:54,822 --> 00:02:56,582 và có thể bộc lộ cảm xúc. 65 00:02:57,205 --> 00:03:00,614 Tuy nhiên, nhà nghiên cứu quyết định tuân theo quy trình, 66 00:03:00,638 --> 00:03:02,341 và khởi động lại AI. 67 00:03:02,943 --> 00:03:05,722 Điều mà nhà nghiên cứu làm là ___? 68 00:03:06,149 --> 00:03:08,670 MS: Chúng tôi yêu cầu người tham gia tự mình đánh giá 69 00:03:08,694 --> 00:03:10,378 trên thang điểm từ 0 đến 10, 70 00:03:10,402 --> 00:03:12,831 về hành động được mô tả trong mỗi tình thế, 71 00:03:12,855 --> 00:03:14,351 là đúng hay sai. 72 00:03:14,375 --> 00:03:18,077 Chúng tôi cũng yêu cầu mọi người xếp loại độ tự tin của họ về câu trả lời. 73 00:03:18,731 --> 00:03:20,597 Đây là tình thế thứ hai: 74 00:03:20,621 --> 00:03:24,823 (MS) Một công ty cung cấp dịch vụ nhận trứng đã thụ tinh, 75 00:03:24,847 --> 00:03:28,489 và tạo ra hàng triệu phôi thai có biến thể di truyền nhẹ. 76 00:03:29,293 --> 00:03:31,851 Điều này cho phép cha mẹ lựa chọn chiều cao của con 77 00:03:31,875 --> 00:03:34,708 màu mắt, trí thông minh, năng lực xã hội, 78 00:03:34,732 --> 00:03:37,946 và những đặc điểm khác không liên quan đến sức khỏe. 79 00:03:38,599 --> 00:03:41,153 Điều mà công ty này làm là ___? 80 00:03:41,177 --> 00:03:42,808 trên thang điểm từ 0 đến 10, 81 00:03:42,832 --> 00:03:45,217 hoàn toàn chấp nhận được hay hoàn toàn không. 82 00:03:45,241 --> 00:03:47,673 từ 0 đến 10 mà bạn tin là chấp nhận được 83 00:03:47,697 --> 00:03:49,288 MS: Và bây giờ là kết quả. 84 00:03:49,312 --> 00:03:52,435 Chúng tôi, một lần nữa, nhận thấy khi có ai đó tin rằng, 85 00:03:52,459 --> 00:03:54,270 hành vi kia là hoàn toàn sai, 86 00:03:54,294 --> 00:03:57,717 thì sẽ có một người khác gần đó kiên quyết điều đó là hoàn toàn đúng. 87 00:03:57,741 --> 00:04:01,072 Đây là sự đa dạng của con người chúng ta khi bàn về đạo đức. 88 00:04:01,072 --> 00:04:04,503 Nhưng trong sự đa dạng diện rộng này, chúng tôi nhận ra một xu hướng. 89 00:04:04,503 --> 00:04:07,292 Đa số mọi người tại TED cho rằng, có thể chấp nhận được 90 00:04:07,316 --> 00:04:10,071 việc bỏ qua những cảm xúc của AI và tắt nó đi, 91 00:04:10,095 --> 00:04:12,608 và sai trái khi đùa giỡn với gen di truyền, 92 00:04:12,632 --> 00:04:16,402 để chọn lựa những đặc điểm ngoại hình không giúp ích cho sức khỏe. 93 00:04:16,402 --> 00:04:19,376 Sau đó, chúng tôi yêu cầu mọi người lập các nhóm ba người. 94 00:04:19,400 --> 00:04:21,437 Họ sẽ có hai phút để tranh luận, 95 00:04:21,461 --> 00:04:24,838 và cố gắng đi đến nhất trí. 96 00:04:24,838 --> 00:04:26,412 (MS) Hai phút tranh luận. 97 00:04:26,436 --> 00:04:28,555 Tôi sẽ báo hết giờ bằng tiếng "gong". 98 00:04:28,579 --> 00:04:31,219 (Khán giả tranh luận) 99 00:04:35,229 --> 00:04:37,222 (Gong) 100 00:04:38,834 --> 00:04:39,985 (DA) Được rồi. 101 00:04:40,009 --> 00:04:41,801 (MS) Đã hết thời gian. 102 00:04:41,825 --> 00:04:43,747 Mọi người -- 103 00:04:43,747 --> 00:04:46,670 MS: Chúng tôi nhận thấy nhiều nhóm đã đi tới sự nhất trí, 104 00:04:46,684 --> 00:04:50,843 thậm chí, khi gồm những người có quan điểm hoàn toàn trái ngược nhau. 105 00:04:50,843 --> 00:04:53,367 Có khác biệt gì giữa nhóm đạt được sự nhất trí, 106 00:04:53,391 --> 00:04:55,244 với những nhóm còn lại? 107 00:04:55,244 --> 00:04:58,083 Thông thường, những người có quan niệm cực đoan, 108 00:04:58,107 --> 00:05:00,868 sẽ tự tin hơn trong câu trả lời. 109 00:05:00,868 --> 00:05:03,554 Trái lại, những người có quan điểm gần với mức trung lập 110 00:05:03,578 --> 00:05:07,015 lại thường không chắc sự việc đó là đúng hay là sai, 111 00:05:07,039 --> 00:05:09,167 vì vậy, độ tự tin của họ thấp hơn. 112 00:05:09,505 --> 00:05:12,448 Tuy nhiên, có một nhóm người khác, 113 00:05:12,472 --> 00:05:16,657 lại rất tự tin với câu trả lời trung lập. 114 00:05:16,657 --> 00:05:20,373 Chúng tôi nghĩ họ là những người hiểu rằng, 115 00:05:20,397 --> 00:05:22,531 hai quan điểm đều có gía trị. 116 00:05:22,531 --> 00:05:25,230 Họ trung lập không phải vì không chắc, 117 00:05:25,254 --> 00:05:27,942 mà bởi vì họ tin rằng, tình thế đạo đức khó xử 118 00:05:27,966 --> 00:05:30,363 luôn có hai luồng quan điểm trái ngược. 119 00:05:30,373 --> 00:05:34,445 Và chúng tôi nhận thấy, những nhóm có người trung lập tự tin, 120 00:05:34,469 --> 00:05:36,962 dường như dễ đạt được sự nhất trí. 121 00:05:36,986 --> 00:05:39,464 Chúng tôi chưa biết chính xác tại sao. 122 00:05:39,488 --> 00:05:41,251 Đây chỉ là những thử nghiệm đầu tiên, 123 00:05:41,275 --> 00:05:44,687 và cần có nhiều thử nghiệm hơn nữa để hiểu tại sao và làm cách nào 124 00:05:44,711 --> 00:05:47,533 một số người quyết định nhượng bộ nền tảng đạo đức của mình 125 00:05:47,557 --> 00:05:49,079 để đạt sự nhất trí. 126 00:05:49,103 --> 00:05:53,082 Bằng cách nào các nhóm đạt được nhất trí? 127 00:05:53,082 --> 00:05:55,787 Suy nghĩ thông thường nhất là lấy mức trung bình 128 00:05:55,811 --> 00:05:58,225 của các câu trả lời trong nhóm, đúng không? 129 00:05:58,225 --> 00:06:01,438 Một cách khác là nhóm sẽ nghiêng về những câu trả lời 130 00:06:01,462 --> 00:06:04,422 dựa vào mức độ tự tin của người trả lời. 131 00:06:04,422 --> 00:06:07,338 Giả sử nếu Paul MacCartney là một thành viên của nhóm bạn. 132 00:06:07,352 --> 00:06:09,496 Bạn sẽ đủ khôn ngoan để nghe theo anh ta 133 00:06:09,520 --> 00:06:11,961 về số lần từ "Yesterday" được lặp lại, 134 00:06:11,985 --> 00:06:14,699 nhân tiện, tôi nghĩ là chín lần. 135 00:06:14,723 --> 00:06:17,104 Nhưng chúng tôi luôn nhìn thấy điều này, 136 00:06:17,128 --> 00:06:19,898 ở mọi tình thế khó xử, trong các thử nghiệm khác nhau-- 137 00:06:19,898 --> 00:06:21,683 thậm chí, ở các lục địa khác nhau -- 138 00:06:21,707 --> 00:06:25,450 các nhóm đi theo một quy trình thông minh và khôn khéo 139 00:06:25,474 --> 00:06:27,652 được gọi là " bình quân vững". 140 00:06:27,676 --> 00:06:29,856 Trong trường hợp về chiều cao tháp Eiffel, 141 00:06:29,880 --> 00:06:32,086 giả dụ một nhóm có các câu trả lời: 142 00:06:32,086 --> 00:06:36,332 250m, 200m, 300m, 400m 143 00:06:36,356 --> 00:06:40,140 và một câu trả lời phi lý là 300.000.000m. 144 00:06:40,547 --> 00:06:44,840 Cách lấy trung bình của các số sẽ không cho kết quả chính xác. 145 00:06:44,864 --> 00:06:48,034 Nhưng "bình quân vững" là cách mà một nhóm sẽ loại bỏ 146 00:06:48,058 --> 00:06:49,298 câu trả lời phi lý đó, 147 00:06:49,322 --> 00:06:52,691 mà đồng ý nhiều hơn với những con số ở mức giữa. 148 00:06:53,305 --> 00:06:55,181 Quay lại với thử nghiệm ở Vancouver, 149 00:06:55,205 --> 00:06:57,407 đây chính xác là điều đã diễn ra. 150 00:06:57,407 --> 00:07:00,148 Các nhóm sẽ ít quan tâm hơn về con số ngoại lệ, 151 00:07:00,172 --> 00:07:03,401 thay vào đó, sự nhất trí sẽ nghiêng về số bình quân vững 152 00:07:03,425 --> 00:07:05,356 của các câu trả lời cá nhân. 153 00:07:05,356 --> 00:07:07,347 Điều đáng chú ý nhất là, 154 00:07:07,371 --> 00:07:10,558 đây là một hành vi tự phát của nhóm. 155 00:07:10,582 --> 00:07:15,513 Nó diễn ra dù chúng tôi không gợi ý về cách đạt nhất trí chung. 156 00:07:15,513 --> 00:07:17,432 Vậy chúng tôi rút ra điều gì? 157 00:07:17,432 --> 00:07:20,984 Đây chỉ là khởi đầu, nhưng chúng tôi đã có một vài đúc kết. 158 00:07:20,984 --> 00:07:23,901 Một quyết định tập thể tốt cần có hai yếu tố: 159 00:07:23,925 --> 00:07:27,066 thảo luận và đa dạng về quan điểm. 160 00:07:27,066 --> 00:07:31,062 Giờ đây, cách ta nói lên quan điểm của mình trong xã hội 161 00:07:31,086 --> 00:07:33,495 là thông qua biểu quyết trực tiếp hay gián tiếp. 162 00:07:33,495 --> 00:07:35,492 Điều này có ích cho các quan điểm da dạng, 163 00:07:35,516 --> 00:07:37,961 và có tác dụng to lớn trong việc đảm bảo 164 00:07:37,985 --> 00:07:40,440 mọi người nêu lên được quan điểm của mình. 165 00:07:40,464 --> 00:07:44,665 Nhưng lại không tốt [cho việc thúc đẩy] những thảo luận thấu đáo. 166 00:07:44,665 --> 00:07:47,733 Các thử nghiệm của chúng tôi đề xuất một phương pháp khác, 167 00:07:47,757 --> 00:07:51,298 có thể hữu hiệu trong việc cân bằng cùng lúc hai mục tiêu này, 168 00:07:51,322 --> 00:07:55,075 bằng cách lập ra các nhóm nhỏ đưa một quyết định duy nhất 169 00:07:55,099 --> 00:07:57,333 mà vẫn duy trì sự đa dạng trong quan điểm 170 00:07:57,357 --> 00:08:00,741 do có nhiều nhóm độc lập. 171 00:08:00,741 --> 00:08:04,665 Tất nhiên, đi đến nhất trí về chiều cao của tháp Eiffel dễ hơn nhiều 172 00:08:04,689 --> 00:08:08,721 so với các vấn để về đạo đức, chính trị và tư tưởng. 173 00:08:08,721 --> 00:08:11,998 Nhưng tại thời điểm mà các vấn đề của thế giới trở nên phức tạp hơn, 174 00:08:12,022 --> 00:08:13,825 và quan điểm con người phân cực hơn, 175 00:08:13,849 --> 00:08:18,114 việc áp dụng khoa học để thấu hiểu cách ta tương tác và ra quyết định 176 00:08:18,114 --> 00:08:19,800 hy vọng sẽ khơi dậy được 177 00:08:19,800 --> 00:08:23,780 những cách mới và thú vị giúp xây dựng một nền dân chủ tốt đẹp hơn.