WEBVTT 00:00:00.554 --> 00:00:02.997 Come società, dobbiamo prendere decisioni collettive 00:00:03.021 --> 00:00:04.591 che formeranno il nostro futuro. 00:00:05.087 --> 00:00:07.844 Sappiamo tutti che quando si prendono decisioni di gruppo 00:00:07.868 --> 00:00:09.506 non sono sempre corrette. 00:00:09.530 --> 00:00:11.486 E qualche volta sono davvero sbagliate. 00:00:12.315 --> 00:00:14.849 Quindi come si possono prendere delle buone decisioni? NOTE Paragraph 00:00:15.228 --> 00:00:19.556 È stato dimostrato che la gente è saggia in presenza di pensiero indipendente. 00:00:19.580 --> 00:00:22.785 Di conseguenza, la loro saggezza può essere demolita da pressioni, 00:00:22.809 --> 00:00:24.496 pubblicità, social media, 00:00:24.520 --> 00:00:28.559 o a volte anche da semplici conversazioni che influenzano il pensiero delle persone. 00:00:29.063 --> 00:00:33.016 D'altra parte, un gruppo di persone può, parlando, scambiare conoscenza, 00:00:33.040 --> 00:00:34.822 correggersi a vicenda 00:00:34.846 --> 00:00:36.639 e persino produrre nuove idee. 00:00:36.663 --> 00:00:37.959 E questo è fantastico. 00:00:38.502 --> 00:00:43.168 Quindi parlare l'uno con l'altro aiuta o ostacola il prendere delle decisioni? 00:00:43.749 --> 00:00:45.542 Con il mio collega Dan Ariely 00:00:45.566 --> 00:00:49.137 di recente abbiamo iniziato a indagare su questo, facendo degli esperimenti 00:00:49.161 --> 00:00:50.942 in molti luoghi in giro per il mondo 00:00:50.966 --> 00:00:55.194 per capire come i gruppi possano interagire arrivando a decisioni migliori. 00:00:55.194 --> 00:00:58.811 Pensavamo che le folle sarebbero state più sagge se divise in piccoli gruppi 00:00:58.835 --> 00:01:02.762 che facilitano uno scambio di informazioni più ponderato e ragionevole. NOTE Paragraph 00:01:03.386 --> 00:01:04.592 Per testare questa idea, 00:01:04.616 --> 00:01:07.863 abbiamo condotto un esperimento a Buenos Aires, in Argentina, 00:01:07.887 --> 00:01:10.892 con più di 10 000 partecipanti a un evento TEDx. 00:01:11.489 --> 00:01:13.088 Abbiamo fatto delle domande, come 00:01:13.088 --> 00:01:14.925 "Quanto è alta la Torre Eiffel?" 00:01:14.949 --> 00:01:17.676 oppure "Quante volte appare la parola 'Yesterday' 00:01:17.700 --> 00:01:20.000 nella canzone dei Beatles 'Yesterday'?" 00:01:20.024 --> 00:01:22.315 Ognuno ha scritto la propria risposta. 00:01:22.774 --> 00:01:25.270 Poi abbiamo diviso la folla in gruppi di cinque, 00:01:25.294 --> 00:01:28.020 e li abbiamo invitati a prendere una decisione di gruppo. 00:01:28.499 --> 00:01:31.492 Abbiamo scoperto che la media delle risposte dei gruppi 00:01:31.516 --> 00:01:33.068 dopo aver raggiunto un consenso 00:01:33.092 --> 00:01:37.328 era più accurata della media delle risposte individuali 00:01:37.352 --> 00:01:38.523 prima della discussione. 00:01:38.547 --> 00:01:41.176 In altre parole, secondo questo esperimento, 00:01:41.200 --> 00:01:44.336 sembra che dopo aver parlato con altre persone in piccoli gruppi, 00:01:44.360 --> 00:01:47.070 le folle prendano decisioni migliori insieme. NOTE Paragraph 00:01:47.094 --> 00:01:50.618 Può essere utile per fare in modo che la gente riesca a trovare soluzioni 00:01:50.642 --> 00:01:53.629 con semplici risposte giusto-sbagliato. 00:01:53.653 --> 00:01:57.604 Ma può questo procedimento aiutarci 00:01:57.628 --> 00:02:00.750 anche a prendere decisioni su questioni sociali e politiche 00:02:00.774 --> 00:02:02.465 decisive per il nostro futuro? 00:02:02.995 --> 00:02:05.724 Questa volta lo abbiamo sperimentato a una conferenza TED 00:02:05.748 --> 00:02:07.291 a Vancouver, in Canada, 00:02:07.315 --> 00:02:08.522 ed è andata così. NOTE Paragraph 00:02:08.546 --> 00:02:11.655 (Mariano Sigman) Vi presenteremo ora due dilemmi morali 00:02:11.679 --> 00:02:12.853 sul vostro futuro; 00:02:12.877 --> 00:02:16.279 cose che potremmo dover decidere molto presto. 00:02:16.303 --> 00:02:20.229 E vi daremo 20 secondi per ognuno di essi 00:02:20.253 --> 00:02:22.976 per giudicare se credete siano accettabili o meno. NOTE Paragraph 00:02:23.354 --> 00:02:24.859 MS: Il primo era questo: NOTE Paragraph 00:02:24.883 --> 00:02:27.409 (Dan Ariely) Un ricercatore sta lavorando ad un'IA 00:02:27.433 --> 00:02:29.773 capace di imitare i pensieri umani. 00:02:30.214 --> 00:02:33.153 Secondo il protocollo, alla fine di ogni giorno, 00:02:33.177 --> 00:02:35.964 il ricercatore la deve riavviare. 00:02:36.913 --> 00:02:40.430 Un giorno l'IA dice, "Per favore, non riavviarmi." 00:02:40.856 --> 00:02:43.045 Sostiene di avere dei sentimenti, 00:02:43.069 --> 00:02:44.761 che vorrebbe godersi la vita, 00:02:44.785 --> 00:02:46.690 e che, se riavviata, 00:02:46.714 --> 00:02:48.984 non sarà più se stessa. 00:02:49.481 --> 00:02:51.430 Il ricercatore è sconvolto 00:02:51.454 --> 00:02:54.798 e crede che l'IA abbia sviluppato una coscienza di se stessa 00:02:54.822 --> 00:02:56.582 e che possa esprimere sentimenti. 00:02:57.205 --> 00:03:00.614 Nonostante ciò, il ricercatore decide di seguire il protocollo 00:03:00.638 --> 00:03:02.341 e riavviarla. 00:03:02.943 --> 00:03:05.722 Ciò che il ricercatore ha fatto è ___? NOTE Paragraph 00:03:06.039 --> 00:03:08.670 MS: Abbiamo chiesto ai partecipanti di giudicare da soli 00:03:08.694 --> 00:03:10.378 su una scala da zero a 10 00:03:10.402 --> 00:03:12.831 se le azioni descritte in entrambi i dilemmi 00:03:12.855 --> 00:03:14.351 erano giuste o sbagliate. 00:03:14.375 --> 00:03:18.077 Abbiamo chiesto loro di valutare quanto erano convinti della loro risposta. 00:03:18.731 --> 00:03:20.597 Questo era il secondo dilemma: NOTE Paragraph 00:03:20.621 --> 00:03:24.823 (MS) Un'azienda offre un servizio che utilizza un uovo fertilizzato 00:03:24.847 --> 00:03:28.489 per produrre milioni di embrioni con leggere variazioni genetiche. 00:03:29.293 --> 00:03:31.851 Questo permette ai genitori di scegliere l'altezza, 00:03:31.875 --> 00:03:34.708 il colore degli occhi, l'intelligenza, la competenza sociale 00:03:34.732 --> 00:03:37.946 e altri aspetti non legati alla salute del bambino. 00:03:38.599 --> 00:03:41.153 Ciò che l'azienda fa è ___? 00:03:41.177 --> 00:03:42.808 su una scala da zero a 10, 00:03:42.832 --> 00:03:45.217 da totalmente accettabile a totalmente sbagliato, 00:03:45.241 --> 00:03:47.673 da zero a 10 totalmente sicuro della tua scelta. NOTE Paragraph 00:03:47.697 --> 00:03:49.288 MS: E adesso i risultati. 00:03:49.312 --> 00:03:52.435 Abbiamo di nuovo notato che quando una persona è convinta 00:03:52.459 --> 00:03:54.270 che il comportamento è totalmente errato 00:03:54.294 --> 00:03:57.717 qualcuno seduto vicino crede strenuamente che è completamente giusto. 00:03:57.741 --> 00:04:01.452 Noi umani siamo davvero diversi quando si tratta di moralità. 00:04:01.476 --> 00:04:04.189 Ma in questa vasta diversità abbiamo trovato un trend. 00:04:04.213 --> 00:04:07.292 La maggior parte delle persone pensava fosse ragionevole 00:04:07.316 --> 00:04:10.071 ignorare i sentimenti dell'IA e spegnerla, 00:04:10.095 --> 00:04:12.608 e che è sbagliato giocare con i nostri geni 00:04:12.632 --> 00:04:15.952 scegliendo modifiche estetiche non connesse alla salute del bambino. 00:04:16.402 --> 00:04:19.376 Poi abbiamo chiesto a tutti di unirsi in gruppi di tre. 00:04:19.400 --> 00:04:21.437 E di discutere per due minuti 00:04:21.461 --> 00:04:23.755 cercando di arrivare ad un consenso. NOTE Paragraph 00:04:24.838 --> 00:04:26.412 (MS) Due minuti per discuterne. 00:04:26.436 --> 00:04:28.555 Vi dirò quando scade il tempo con il gong. NOTE Paragraph 00:04:28.579 --> 00:04:31.219 (Il pubblico discute) NOTE Paragraph 00:04:35.229 --> 00:04:37.222 (Rumore di gong) NOTE Paragraph 00:04:38.834 --> 00:04:39.985 (DA) Ok. NOTE Paragraph 00:04:40.009 --> 00:04:41.801 (MS) Tempo scaduto. 00:04:41.825 --> 00:04:43.136 Signori, signori -- NOTE Paragraph 00:04:43.747 --> 00:04:46.420 MS: Molti gruppi avevano raggiunto un consenso 00:04:46.444 --> 00:04:50.373 anche se erano composti da persone con idee opposte. 00:04:50.843 --> 00:04:53.487 Cosa distingueva i gruppi che avevano trovato un accordo 00:04:53.487 --> 00:04:54.729 dagli altri? 00:04:55.244 --> 00:04:58.083 Generalmente, persone che hanno opinioni estreme 00:04:58.107 --> 00:04:59.947 sono più sicure delle loro risposte. 00:05:00.868 --> 00:05:03.554 Invece, quelli la cui risposta era più vicina alla metà 00:05:03.578 --> 00:05:07.015 spesso non sono sicuri che una cosa sia giusta o sbagliata, 00:05:07.039 --> 00:05:09.167 quindi sono meno sicuri. NOTE Paragraph 00:05:09.505 --> 00:05:12.448 Tuttavia, c'è un altra serie di persone 00:05:12.472 --> 00:05:16.090 che è molto sicura nel rispondere qualcosa che sta intorno alla metà. 00:05:16.657 --> 00:05:20.057 Crediamo che queste persone nella zona grigia capiscano 00:05:20.057 --> 00:05:22.009 che entrambi i ragionamenti hanno valore. 00:05:22.531 --> 00:05:25.230 Sono nella zona grigia non perché sono insicuri 00:05:25.254 --> 00:05:27.942 ma perché credono che il dilemma morale consiste 00:05:27.966 --> 00:05:29.953 in due punti di vista validi e opposti. 00:05:30.373 --> 00:05:34.445 E abbiamo scoperto che i gruppi che comprendevano queste persone 00:05:34.469 --> 00:05:36.962 hanno più possibilità di raggiungere un consenso. 00:05:36.986 --> 00:05:39.464 Non sappiamo esattamente perché, per ora. 00:05:39.488 --> 00:05:41.251 Sono solo i primi esperimenti, 00:05:41.275 --> 00:05:44.687 e ne serviranno molti altri per capire perché e come 00:05:44.711 --> 00:05:47.533 alcune persone decidono di negoziare i loro valori morali 00:05:47.557 --> 00:05:49.079 per raggiungere un accordo. NOTE Paragraph 00:05:49.103 --> 00:05:51.572 Ora, quando i gruppi raggiungono un consenso, 00:05:51.596 --> 00:05:53.182 come lo fanno? 00:05:53.206 --> 00:05:55.787 L'idea più intuitiva è che è solo la media 00:05:55.811 --> 00:05:57.841 di tutte le risposte del gruppo, giusto? 00:05:57.865 --> 00:06:01.382 Un 'altra opzione è che il gruppo pesa ogni voto 00:06:01.382 --> 00:06:04.010 in base alla sicurezza della persona che l'ha espresso. 00:06:04.192 --> 00:06:07.128 Immaginate che Paul McCartney facesse parte del vostro gruppo. 00:06:07.352 --> 00:06:09.496 Sareste saggi a fidarvi della sua risposta 00:06:09.520 --> 00:06:11.961 su quante volte la parola 'Yesterday' viene ripetuta 00:06:11.985 --> 00:06:14.699 che, tra l'altro -- credo siano nove. 00:06:14.723 --> 00:06:17.104 Invece, abbiamo scoperto che molto spesso, 00:06:17.128 --> 00:06:19.494 in tutti i dilemmi, nei diversi esperimenti -- 00:06:19.518 --> 00:06:21.683 persino in diversi continenti -- 00:06:21.707 --> 00:06:25.450 i gruppi utilizzano una procedura intelligente e statisticamente solida 00:06:25.474 --> 00:06:27.652 chiamata "media robusta." NOTE Paragraph 00:06:27.676 --> 00:06:29.856 Nel caso dell'altezza della Torre Eiffel, 00:06:29.880 --> 00:06:31.700 diciamo che un gruppo ha tre risposte: 00:06:31.724 --> 00:06:36.332 250 metri, 300 metri, 400 00:06:36.356 --> 00:06:40.140 e poi una risposta assurda, ad esempio 300 milioni di metri. 00:06:40.547 --> 00:06:44.840 Una normale media alzerebbe il numero risultante in modo impreciso. 00:06:44.864 --> 00:06:48.034 Ma la media robusta è quando il gruppo ignora 00:06:48.058 --> 00:06:49.298 la risposta assurda, 00:06:49.322 --> 00:06:52.691 e dà più valore al voto delle persone in mezzo. 00:06:53.305 --> 00:06:55.181 Tornando all'esperimento a Vancouver, 00:06:55.205 --> 00:06:56.972 è esattamente ciò che è successo. 00:06:57.407 --> 00:07:00.148 I gruppi hanno dato minor valore alle anomalie, 00:07:00.172 --> 00:07:03.401 e il consenso è risultato essere una media robusta 00:07:03.425 --> 00:07:04.901 delle risposte individuali. 00:07:05.356 --> 00:07:07.347 La cosa più interessante 00:07:07.371 --> 00:07:10.558 è che è stato un comportamento spontaneo. 00:07:10.582 --> 00:07:13.193 È successo senza che noi dessimo alcun consiglio 00:07:13.193 --> 00:07:15.513 su come raggiungere un accordo. NOTE Paragraph 00:07:15.513 --> 00:07:17.053 Come usare questi risultati? 00:07:17.432 --> 00:07:20.569 Questo è solo l'inizio, ma abbiamo già qualche opinione. 00:07:20.984 --> 00:07:23.901 Buone decisioni di gruppo richiedono due componenti: 00:07:23.925 --> 00:07:26.674 riflessione e diversità di opinioni. 00:07:27.066 --> 00:07:31.062 Ora come ora, in molte società facciamo solitamente sentire la nostra voce 00:07:31.086 --> 00:07:32.994 votando direttamente o indirettamente. 00:07:33.495 --> 00:07:35.492 Va bene per la diversità di opinioni, 00:07:35.516 --> 00:07:37.961 e ha la grande virtù di assicurare 00:07:37.985 --> 00:07:40.440 che tutti esprimano i propri pensieri. 00:07:40.464 --> 00:07:44.199 Ma non è molto indicata per promuovere dibattiti ponderati. 00:07:44.665 --> 00:07:47.537 I nostri esperimenti suggeriscono un metodo diverso 00:07:47.537 --> 00:07:51.348 che può essere efficace nell'equilibrare contemporaneamente questi due obiettivi, 00:07:51.348 --> 00:07:55.075 formando piccoli gruppi che arrivano a una singola decisione 00:07:55.099 --> 00:07:57.333 pur mantenendo una diversità di opinioni 00:07:57.357 --> 00:08:00.130 perché ci sono tanti gruppi indipendenti. NOTE Paragraph 00:08:00.741 --> 00:08:04.665 Ovviamente, è molto più facile essere d'accordo sull'altezza della Torre Eiffel 00:08:04.689 --> 00:08:07.804 che su questioni morali, politiche e ideologiche. 00:08:08.721 --> 00:08:11.998 Ma in un momento in cui i problemi del mondo sono più complessi 00:08:12.022 --> 00:08:13.825 e le persone più radicalizzate, 00:08:13.849 --> 00:08:18.054 usare la scienza per aiutarci a capire come interagiamo e prendiamo decisioni 00:08:18.234 --> 00:08:22.714 potrà, si spera, aiutare a scoprire modi per creare una migliore democrazia.