0:00:00.554,0:00:02.997 Ühiskonnas peame tegema[br]kollektiivseid otsuseid, 0:00:03.021,0:00:04.591 mis kujundavad meie[br]tulevikku. 0:00:05.087,0:00:07.844 Ja me kõik teame, et tehes otsuseid[br]rühmades, 0:00:07.868,0:00:09.506 ei ole need alati õiged. 0:00:09.530,0:00:11.486 Mõnikord lähevad need väga viltu. 0:00:12.315,0:00:14.739 Kuidas siis rühmad saaksid teha[br]õigeid otsuseid? 0:00:15.228,0:00:19.556 On leitud, et rahvahulgad on targad,[br]kui esineb iseseisvat mõtlemist. 0:00:19.580,0:00:22.785 Rahvahulkade tarkuse võib hävitada[br]kaaslaste surve, 0:00:22.809,0:00:24.496 reklaam, sotsiaalmeedia 0:00:24.520,0:00:28.559 või mõnikord isegi lihtsad vestlused,[br]mis mõjutavad inimeste arvamusi. 0:00:29.063,0:00:33.016 Teiselt poolt, rääkimise abil[br]saab rühm vahetada teadmisi, 0:00:33.040,0:00:34.822 korrigeerida ja parandada üksteist 0:00:34.846,0:00:36.639 ja isegi tulla välja uute ideedega. 0:00:36.663,0:00:37.959 Ja see kõik on hea. 0:00:40.979,0:00:43.198 Niisiis, kas üksteisega rääkimine[br]aitab või takistab kollektiivset otsustamist? 0:00:43.749,0:00:45.542 Kolleeg Dan Arielyga 0:00:45.566,0:00:49.137 hakkasime seda hiljuti uurima,[br]sooritades katseid 0:00:49.161,0:00:50.942 paljudes kohtades üle maailma,[br]et teada saada, 0:00:50.966,0:00:55.240 kuidas rühma liikmed saaksid suhelda.[br]ja teha paremaid otsuseid 0:00:55.264,0:00:58.811 Mõtlesime, et rahvahulgad oleks targemad,[br]kui nad arutaksid väikestes rühmades, 0:00:58.835,0:01:02.762 et soodustada rohkem läbimõeldud[br]ja mõistlikku teabevahetust. 0:01:03.386,0:01:04.592 Selle idee testimiseks, 0:01:04.616,0:01:07.863 tegime hiljuti eksperimendi[br]Buenos Aireses, Argentinas, 0:01:07.887,0:01:10.892 rohkem kui 10000 osalejaga[br]TEDx sündmusel. 0:01:11.489,0:01:12.948 Küsisime neilt küsimusi nagu, 0:01:12.972,0:01:14.925 "Kui kõrge on Eiffeli torn?" 0:01:14.949,0:01:17.676 ja "Mitu korda esineb sõna "Yesterday" 0:01:17.700,0:01:20.000 Beatlesite laulus "Yesterday"? " 0:01:20.024,0:01:22.315 Iga inimene pani kirja oma arvamuse. 0:01:22.774,0:01:25.270 Siis jagasime publiku viide rühma, 0:01:25.294,0:01:28.020 ja palusime neil esitada rühma vastus. 0:01:28.499,0:01:31.492 Avastasime, et keskmised [br]rühmade vastused, 0:01:31.516,0:01:33.068 pärast seda, [br]kui jõuti üksmeelele, 0:01:33.092,0:01:37.328 olid palju täpsemad kui[br]üksikute arvamuste keskmine 0:01:37.352,0:01:38.523 enne arutelu. 0:01:38.547,0:01:41.176 Teisisõnu tundub selle eksperimendi järgi, 0:01:41.200,0:01:44.336 et pärast arutelu väikestes rühmades, 0:01:44.360,0:01:47.070 teevad rahvahulgad kollektiivselt[br]paremaid otsuseid. 0:01:47.094,0:01:50.618 See võib olla kasulik viis, kuidas panna[br]rahvahulgad lahendama probleeme, 0:01:50.642,0:01:53.629 millel on lihtsad vastuseid (õige-vale). 0:01:53.653,0:01:57.604 Aga kas selline protseduur - rühmade[br]arutelutulemuste liitmine 0:01:57.628,0:02:00.750 aitaks meil ka vastu võtta[br]sotsiaalseid ja poliitilisi otsuseid, 0:02:00.774,0:02:02.465 mis on kriitilise tähtsusega meie tuleviku jaoks? 0:02:02.995,0:02:05.724 Testisime seekord seda TEDi konverentsil 0:02:05.748,0:02:07.291 Vancouveris, Kanadas, 0:02:07.315,0:02:08.522 ja siin on tulemused. 0:02:08.546,0:02:11.655 (Mariano Sigman) Esitame nüüd teile[br]kaks moraalset dilemmat 0:02:11.679,0:02:12.853 teie tuleviku kohta, 0:02:12.877,0:02:16.279 asjade kohta, mida peame otsustama[br]lähitulevikus. 0:02:16.303,0:02:20.229 Anname teile 20 sekundit kummagi dilemma jaoks, 0:02:20.253,0:02:22.976 et otsustada kas teie arvates on need vastuvõetavad või mitte. 0:02:23.354,0:02:24.859 MS: Esimene on selline: 0:02:24.883,0:02:27.409 (Dan Ariely) Uurija töötab tehisintellektiga, 0:02:27.433,0:02:29.773 mis on võimeline imiteerima inimese mõtlemist. 0:02:30.214,0:02:33.153 Vastavalt protokollile peab uurija iga päeva lõpus 0:02:33.177,0:02:35.964 tehisintellektile (AI) restardi tegema. 0:02:36.913,0:02:40.430 Ühel päeval ütleb AI: "Palun ära tee mulle restarti." 0:02:40.856,0:02:43.045 Ta väidab, et tal on tunded, 0:02:43.069,0:02:44.761 et ta tahaks nautida elu, 0:02:44.785,0:02:46.690 ja et kui talle restart tehakse, 0:02:46.714,0:02:48.984 siis ta pole enam tema ise. 0:02:49.481,0:02:51.430 Uurija on hämmastunud 0:02:51.454,0:02:54.798 ja usub, et AI-l on kujunenud eneseteadvus 0:02:54.822,0:02:56.582 ja ta saab väljendada oma tundeid. 0:02:57.205,0:03:00.614 Uurija otsustab siiski järgida protokolli 0:03:00.638,0:03:02.341 ja AI taaskäivitada. 0:03:02.943,0:03:05.722 See, mida uurija tegi, on ____? 0:03:06.149,0:03:08.670 MS: Ja me palusime osalejatel individuaalselt hinnata 0:03:08.694,0:03:10.378 skaalal 0 kuni 10, 0:03:10.402,0:03:12.831 kas kirjeldatud tegevus iga dilemma puhul 0:03:12.855,0:03:14.351 oli õige või vale. 0:03:14.375,0:03:18.077 Palusime neil ka hinnata, kui kindlad nad on oma vastustes. 0:03:18.731,0:03:20.597 Teine dilemma oli järgmine: 0:03:20.621,0:03:24.823 (MS) Ettevõte pakub teenust, mis võtab viljastatud munaraku 0:03:24.847,0:03:28.489 ja toodab miljoneid looteid kerge geenivariatsiooniga. 0:03:29.293,0:03:31.851 See võimaldab vanematel valida oma lapse pikkuse, 0:03:31.875,0:03:34.708 silmade värvi, intelligentsuse, sotsiaalse pädevuse 0:03:34.732,0:03:37.946 ning muud mitte tervisega seotud omadused. 0:03:38.599,0:03:41.153 See, mida ettevõte teeb, on ____? 0:03:41.177,0:03:42.808 skaalal 0 kuni 10, 0:03:42.832,0:03:45.217 täiesti aktsepteeritav, täiesti vastuvõetamatu, 0:03:45.241,0:03:47.673 mis määral aktsepteeritav teie arvates. 0:03:47.697,0:03:49.288 MS: Nüüd tulemustest. 0:03:49.312,0:03:52.435 Leidsime taas, et kui üks inimene on veendunud, 0:03:52.459,0:03:54.270 et käitumine on täiesti vale, 0:03:54.294,0:03:57.717 siis tema naaber võib olla veendunud, et see on täiesti õige. 0:03:57.741,0:04:01.452 See näitab, kui erinevad arvamused on inimestel moraali vallas. 0:04:01.476,0:04:04.189 Aga selles mitmekesisuses leidsime trendi. 0:04:04.213,0:04:07.292 Enamik inimesi TED-i publikust arvas, et on aktsepteeritav 0:04:07.316,0:04:10.071 ignoreerida AI tundeid ja see välja lülitada, 0:04:10.095,0:04:12.608 ja mitteaktsepteeritav mängida meie geenidega, 0:04:12.632,0:04:15.952 et valida kosmeetilisi muutusi, mis pole seotud tervisega. 0:04:16.402,0:04:19.376 Seejärel palusime kõigil koguneda kolmestesse rühmadesse. 0:04:19.400,0:04:21.437 Ja neile anti kaks minutit, et arutada 0:04:21.461,0:04:23.755 ja jõuda konsensusele. 0:04:24.838,0:04:26.412 (MS) Kaks minutit arutada. 0:04:26.436,0:04:28.555 Ma annan märku, kui on aeg, gongiheliga. 0:04:28.579,0:04:31.219 (Publik arutab) 0:04:35.229,0:04:37.222 (Gongiheli) 0:04:38.834,0:04:39.985 (DA) Okei. 0:04:40.009,0:04:41.801 (MS) On aeg lõpetada. 0:04:41.825,0:04:43.136 Inimesed, inimesed - 0:04:43.747,0:04:46.420 Ja me avastasime, et paljud rühmad jõudsid üksmeelele 0:04:46.444,0:04:50.373 isegi siis, kui nad koosnesid inimestest, kellel olid täiesti vastupidised seisukohad. 0:04:50.843,0:04:53.367 Mis eristas rühmi, kes jõudsid üksmeelele 0:04:53.391,0:04:54.729 nendest, kes seda ei teinud? 0:04:55.244,0:04:58.083 Tavaliselt inimesed, kes omavad äärmuslikke arvamusi 0:04:58.107,0:04:59.947 on kindlamad oma vastustes. 0:05:00.868,0:05:03.554 Need aga, kelle vastused on lähemal keskmisele, 0:05:03.578,0:05:07.015 pole sageli kindlad, kas miski on õige või vale, 0:05:07.039,0:05:09.167 ja nende enesekindluse tase on madalam. 0:05:09.505,0:05:12.448 Kuid on veel üks rühm inimesi, 0:05:12.472,0:05:16.090 kes on väga kindlad oma keskmistes vastustes. 0:05:16.657,0:05:20.373 Arvame, et need väga kindlad hallid on inimesed, kes mõistavad, 0:05:20.397,0:05:22.009 et mõlemal argumendil on oma väärtus. 0:05:22.531,0:05:25.230 Nad pole hallid sellepärast, et nad pole endas kindlad, 0:05:25.254,0:05:27.942 vaid kuna nad usuvad, et moraalse dilemma puhul 0:05:27.966,0:05:29.953 on kaks kehtivat, vastupidist argumenti. 0:05:30.373,0:05:34.445 Ja me avastasime, et rühmadel, mis sisaldasid väga kindlaid halle, 0:05:34.469,0:05:36.962 on palju tõenäolisem saavutada konsensus. 0:05:36.986,0:05:39.464 Me ei tea veel täpselt, miks see nii on. 0:05:39.488,0:05:41.251 See oli ainult esimene eksperiment. 0:05:41.275,0:05:44.687 On vaja uurida edasi, et mõista, miks ja kuidas 0:05:44.711,0:05:47.533 mõned inimesed otsustavad läbirääkimistel kasutada oma moraalseid seisukohti, 0:05:47.557,0:05:49.079 et kokkuleppele jõuda. 0:05:49.103,0:05:51.572 Edasi, kui rühmad üksmeelele jõuavad, 0:05:51.596,0:05:53.182 siis kuidas nad seda teevad? 0:05:53.206,0:05:55.787 Kõige intuitiivsem idee on see, et see on lihtsalt kõigi 0:05:55.811,0:05:57.841 rühmaliikmete vastuste keskmine, eks? 0:05:57.865,0:06:01.438 Teine võimalus on, et rühm kaalub iga hääle tugevust 0:06:01.462,0:06:03.910 seda andnud isiku enesekindluse põhjal. 0:06:04.422,0:06:06.928 Kujutage, et Paul McCartney kuulub mõnda rühma. 0:06:07.352,0:06:09.496 Oleks mõistlik järgida tema arvamust, 0:06:09.520,0:06:11.961 mitu korda korratakse „Yesterday“, 0:06:11.985,0:06:14.699 mis, muide - ma arvan - on üheksa. 0:06:14.723,0:06:17.104 Kuid selle asemel, leidsime, et järjepidevalt, 0:06:17.128,0:06:19.494 igas dilemmas, erinevates eksperimentides - 0:06:19.518,0:06:21.683 isegi eri mandritel - 0:06:21.707,0:06:25.450 rühmad rakendavad arukat ja statistiliselt põhjendatud protseduuri, 0:06:25.474,0:06:27.652 mis on tuntud kui "tugev keskmine." 0:06:27.676,0:06:29.856 Küsimuse korral, kui kõrge on Eiffeli torn, 0:06:29.880,0:06:31.700 ütleme, et rühmal on need vastused: 0:06:31.724,0:06:36.332 250 m, 200 m, 300 m, 400 m 0:06:36.356,0:06:40.140 ja üks täiesti absurdne vastus - 300 miljonit meetrit. 0:06:40.547,0:06:44.840 Lihtne keskmine annaks täitsa vale vastuse. 0:06:44.864,0:06:48.034 Aga tugev keskmine on vastus, milles rühm suuresti eirab 0:06:48.058,0:06:49.298 absurdset vastust, 0:06:49.322,0:06:52.691 ja annab rohkem kaalu keskmiste inimeste arvamusele. 0:06:53.305,0:06:55.181 Tagasi Vancouveri eksperimendi juurde, 0:06:55.205,0:06:56.972 see on täpselt see, mis juhtus. 0:06:57.407,0:07:00.148 Rühmad andsid palju vähem kaalu valeandmetele, 0:07:00.172,0:07:03.401 ja selle asemel, konsensus osutus üksikute vastuste 0:07:03.425,0:07:04.901 tugevaks keskmiseks. 0:07:05.356,0:07:07.347 Kõige olulisem asi on, et 0:07:07.371,0:07:10.558 see oli rühma spontaanne käitumine. 0:07:10.582,0:07:15.057 See juhtus ilma, et oleksime andnud neile vihjeid, kuidas jõuda üksmeelele. 0:07:15.513,0:07:17.053 Nii et kuhu siit edasi minna? 0:07:17.432,0:07:20.569 See on alles algus, kuid meil on juba teadmisi. 0:07:20.984,0:07:23.901 Head kollektiivsed otsused vajavad kahte komponenti: 0:07:23.925,0:07:26.674 arutelu ja arvamuste lahknevust. 0:07:27.066,0:07:31.062 Tänapäeval me tavaliselt teeme paljudes ühiskondades oma hääle kuuldavaks 0:07:31.086,0:07:32.994 otsese või kaudse hääletamise kaudu. 0:07:33.495,0:07:35.492 See on hea, sest on mitmekesised arvamused, 0:07:35.516,0:07:37.961 ja selle suur voorus on, 0:07:37.985,0:07:40.440 et igaüks saab väljendada oma häält. 0:07:40.464,0:07:44.199 Aga see ei ole nii hea keerukamate arutelude läbiviimisel. 0:07:44.665,0:07:47.733 Meie eksperimendid näitavad erinevat meetodit, 0:07:47.757,0:07:51.298 mis võib olla efektiivne tasakaalustamaks neid kahte eesmärki samal ajal, 0:07:51.322,0:07:55.075 moodustades väikesed rühmad, mis koonduvad üheks otsuseks, 0:07:55.099,0:07:57.333 säilitades samal ajal arvamuste mitmekesisuse, 0:07:57.357,0:08:00.130 sest on palju sõltumatuid rühmi. 0:08:00.741,0:08:04.665 Muidugi on palju lihtsam kokku leppida Eiffeli torni kõrguses 0:08:04.689,0:08:07.804 kui moraalsetes, poliitilistes ja ideoloogilistes küsimustes. 0:08:08.721,0:08:11.998 Aga ajal, mil maailma probleemid on üha keerulisemad 0:08:12.022,0:08:13.825 ja inimesed on rohkem polariseeritud, 0:08:13.849,0:08:18.444 aitab teaduse kasutamine meil mõista, kuidas me suhtleme ja teeme otsuseid, 0:08:18.468,0:08:23.134 ja loodetavasti sütitab uusi huvitavaid võimalusi luua parem demokraatia.