WEBVTT 00:00:00.554 --> 00:00:04.917 Em sociedade, tomamos decisões coletivas que moldarão nosso futuro. 00:00:04.927 --> 00:00:09.544 E decisões tomadas em grupo, nem sempre terminam bem. 00:00:09.544 --> 00:00:11.486 Às vezes terminam muito mal. 00:00:12.315 --> 00:00:14.739 Então como os grupos podem tomar boas decisões? NOTE Paragraph 00:00:15.138 --> 00:00:19.350 Pesquisas mostram que grupos grandes têm bom senso se cada um pensar por si. 00:00:19.350 --> 00:00:22.410 Esse bom senso é destruído por pressão do grupo, 00:00:22.410 --> 00:00:24.315 publicidade, mídias sociais, 00:00:24.315 --> 00:00:29.066 e simples conversas que influenciam como as pessoas pensam. 00:00:29.066 --> 00:00:32.869 Por outro lado, conversando, grupos trocam experiências, 00:00:32.869 --> 00:00:36.571 corrigem e revisam uns aos outros e até formulam novas ideias. 00:00:36.571 --> 00:00:37.959 Tudo isso é bom. 00:00:38.399 --> 00:00:43.099 Conversar ajuda decisões coletivas ou não? 00:00:43.838 --> 00:00:49.068 Meu colega Dan Ariely e eu recentemente iniciamos experimentos 00:00:49.068 --> 00:00:50.931 ao redor do mundo 00:00:50.931 --> 00:00:55.222 para entender como os grupos devem interagir para decidir melhor. 00:00:55.222 --> 00:00:59.094 Achávamos que multidões seriam mais sábias se debatessem em grupos pequenos 00:00:59.094 --> 00:01:03.231 criando uma troca de informações mais razoável. 00:01:03.231 --> 00:01:04.342 Para testar esta ideia, NOTE Paragraph 00:01:04.342 --> 00:01:07.502 fizemos um experimento em Buenos Aires, na Argentina, 00:01:07.502 --> 00:01:11.173 em um evento TEDx com mais de 10 mil participantes. 00:01:11.427 --> 00:01:14.772 Fizemos perguntas como: "Qual é a altura da Torre Eiffel?" 00:01:14.772 --> 00:01:19.025 e "Quantas vezes ouvimos a palavra 'yesterday' na canção dos Beatles?" 00:01:20.116 --> 00:01:22.700 Cada um respondeu por si. 00:01:22.700 --> 00:01:25.295 Depois os dividimos em grupos de cinco, 00:01:25.295 --> 00:01:28.490 e pedimos que nos dessem uma resposta coletiva. 00:01:28.490 --> 00:01:33.030 O cálculo da média das respostas em grupo depois do consenso 00:01:33.030 --> 00:01:38.473 foi mais preciso do que as respostas individuais antes do debate. 00:01:38.473 --> 00:01:44.266 Esse experimento mostrou que, depois de conversar em grupos pequenos, 00:01:44.266 --> 00:01:46.866 as multidões julgam melhor coletivamente. 00:01:46.866 --> 00:01:50.370 Esse método ajuda multidões a resolverem problemas NOTE Paragraph 00:01:50.370 --> 00:01:53.488 com respostas simples do tipo "certo ou errado". 00:01:53.488 --> 00:01:57.219 Será que o método de coletar resultados de debates em pequenos grupos 00:01:57.219 --> 00:02:00.814 também nos ajuda a decidir questões sociais e políticas 00:02:00.814 --> 00:02:02.970 fundamentais ao nosso futuro? 00:02:02.970 --> 00:02:07.135 Testamos isso na conferência TED em Vancouver, Canadá, 00:02:07.144 --> 00:02:08.511 e o resultado foi este. 00:02:08.511 --> 00:02:12.485 (Vídeo) Mariano Sigman: Mostraremos dois dilemas morais para os vocês do futuro; NOTE Paragraph 00:02:12.485 --> 00:02:16.143 coisas que talvez precisemos decidir num futuro próximo. 00:02:16.143 --> 00:02:20.089 Daremos 20 segundos por dilema 00:02:20.089 --> 00:02:23.119 para julgarem se são aceitáveis ou não. 00:02:23.119 --> 00:02:24.446 MS: O primeiro foi este. NOTE Paragraph 00:02:24.446 --> 00:02:27.949 (Vídeo) Dan Ariely: Uma pesquisadora trabalha numa inteligência artificial NOTE Paragraph 00:02:27.949 --> 00:02:30.169 capaz de imitar pensamentos humanos. 00:02:30.169 --> 00:02:33.253 De acordo com o protocolo, ao final de cada dia, 00:02:33.253 --> 00:02:35.793 a pesquisadora deve reiniciá-la. 00:02:36.733 --> 00:02:40.594 Um dia, a inteligência artificial diz: "Por favor, não me reinicie". 00:02:40.594 --> 00:02:42.790 Ela alega que tem sentimentos, 00:02:42.800 --> 00:02:44.785 que gostaria de aproveitar a vida, 00:02:44.785 --> 00:02:49.211 e que, se for reiniciada, não será mais a mesma. 00:02:49.211 --> 00:02:51.244 A pesquisadora fica perplexa 00:02:51.244 --> 00:02:54.730 e acredita que a inteligência artificial criou consciência própria 00:02:54.730 --> 00:02:56.488 e pode expressar seus sentimentos. 00:02:57.018 --> 00:03:02.342 Contudo, a pesquisadora decide seguir o protocolo e reiniciar a IA. 00:03:02.818 --> 00:03:05.891 O que a cientista fez foi______? 00:03:05.891 --> 00:03:10.282 MS: Pedimos que julgassem individualmente numa escala de zero a dez NOTE Paragraph 00:03:10.282 --> 00:03:14.208 se a ação descrita em cada um dos dilemas foi certa ou errada. 00:03:14.208 --> 00:03:17.861 E pedimos que avaliassem sua convicção nas respostas. 00:03:18.581 --> 00:03:20.311 Este foi o segundo dilema. 00:03:20.311 --> 00:03:24.667 MS: Uma companhia oferece um serviço que pega um ovo fertilizado NOTE Paragraph 00:03:24.667 --> 00:03:29.073 e produz milhões de embriões com pequenas variações genéticas. 00:03:29.073 --> 00:03:31.819 Isso permite aos pais selecionar a altura da criança, 00:03:31.819 --> 00:03:34.481 cor dos olhos, inteligência, aptidão social 00:03:34.481 --> 00:03:38.378 e outras características não relacionadas à saúde. 00:03:38.378 --> 00:03:41.136 O que a companhia faz é ______? 00:03:41.136 --> 00:03:44.933 Em uma escala de zero a dez de aceitável a completamente inaceitável, 00:03:44.933 --> 00:03:47.627 e zero a dez na sua convicção. 00:03:47.627 --> 00:03:49.093 MS: Agora os resultados. NOTE Paragraph 00:03:49.093 --> 00:03:54.175 Novamente, quando alguém está convencido de que a atitude é completamente errada, 00:03:54.175 --> 00:03:57.430 alguém próximo acredita que é completamente certa. 00:03:57.430 --> 00:04:01.317 Somos todos diferentes em questões de moralidade. 00:04:01.317 --> 00:04:03.932 E nesta enorme diversidade encontramos uma tendência. 00:04:03.932 --> 00:04:06.759 A maioria das pessoas no TED acharam aceitável 00:04:06.759 --> 00:04:09.822 ignorar os sentimentos da IA e desligá-la, 00:04:09.822 --> 00:04:12.511 e acharam errado manipular nossos genes 00:04:12.511 --> 00:04:16.328 para selecionar mudanças cosméticas não relacionadas à saúde. 00:04:16.328 --> 00:04:19.262 Então pedimos que fizessem grupos de três. 00:04:19.262 --> 00:04:23.466 E demos dois minutos para eles debaterem e tentarem chegar a um consenso. 00:04:24.667 --> 00:04:26.225 MS: Dois minutos de debate. NOTE Paragraph 00:04:26.225 --> 00:04:28.882 Soarei o gongo quando acabar o tempo. 00:04:28.902 --> 00:04:31.875 (Plateia debate) NOTE Paragraph 00:04:35.045 --> 00:04:37.949 (Gongo) NOTE Paragraph 00:04:38.929 --> 00:04:39.932 DA: Pronto. NOTE Paragraph 00:04:39.932 --> 00:04:41.835 MS: Hora de parar. NOTE Paragraph 00:04:41.835 --> 00:04:43.411 Gente... 00:04:43.411 --> 00:04:46.237 MS: E descobrimos que muitos grupos chegaram a um consenso NOTE Paragraph 00:04:46.237 --> 00:04:50.560 mesmo quando estavam compostos de pessoas com opiniões completamente opostas. 00:04:50.560 --> 00:04:54.293 O que diferenciou os que chegaram a um consenso dos que não chegaram? 00:04:55.127 --> 00:04:59.829 Tipicamente, pessoas com opiniões extremas confiam mais em suas respostas. 00:05:00.763 --> 00:05:03.497 Ao contrário, aqueles que respondem mais para o meio 00:05:03.497 --> 00:05:06.934 muitas vezes não estão seguros se algo é certo ou errado, 00:05:06.934 --> 00:05:09.405 assim, o nível de convicção é mais baixo. 00:05:09.405 --> 00:05:12.247 No entanto, há outro conjunto de pessoas NOTE Paragraph 00:05:12.247 --> 00:05:16.308 que são muito confiantes em responder perto de um meio termo. 00:05:16.578 --> 00:05:22.330 São pessoas que entendem que os dois argumentos têm mérito. 00:05:22.333 --> 00:05:25.089 São indecisos não porque não têm certeza, 00:05:25.089 --> 00:05:27.610 mas porque acreditam que o dilema moral contém 00:05:27.610 --> 00:05:30.172 dois argumentos opostos, porém, válidos. 00:05:30.172 --> 00:05:34.343 E descobrimos que os grupos que incluem os que confiam no meio termo 00:05:34.343 --> 00:05:36.945 estão bem mais propensos a chegar ao consenso. 00:05:36.945 --> 00:05:39.292 Ainda não sabemos exatamente por quê. 00:05:39.292 --> 00:05:41.014 Apenas começamos experimentos, 00:05:41.014 --> 00:05:44.731 precisamos de mais para saber por que e como 00:05:44.731 --> 00:05:48.797 alguns decidem negociar sua postura moral para chegar a um acordo. 00:05:48.813 --> 00:05:53.179 Mas quando os grupos atingem o consenso, como o fazem? NOTE Paragraph 00:05:53.179 --> 00:05:57.636 Achamos que é somente uma média das respostas em um grupo, certo? 00:05:57.636 --> 00:06:01.621 Ou talvez os grupos pesem cada opinião 00:06:01.621 --> 00:06:04.318 baseados na convicção de quem a expressa. 00:06:04.318 --> 00:06:07.100 Imaginem o Paul McCartney no seu grupo. 00:06:07.100 --> 00:06:11.968 Seria sábio seguir a opinião dele sobre o quanto a palavra "yesterday" é repetida, 00:06:11.968 --> 00:06:14.511 que, por acaso, acho que são nove. 00:06:14.511 --> 00:06:17.989 Mas ao contrário, em todos os dilemas, consistentemente, 00:06:17.989 --> 00:06:21.624 em experimentos distintos e mesmo em continentes diferentes, 00:06:21.624 --> 00:06:27.743 os grupos usam um método inteligente e sólido conhecido como "média robusta". 00:06:27.743 --> 00:06:31.692 No caso da altura da Torre Eiffel, se temos as seguintes respostas: NOTE Paragraph 00:06:31.692 --> 00:06:36.280 250 metros, 200 metros, 300 metros, 400 00:06:36.280 --> 00:06:40.532 e uma resposta absurda de 300 milhões de metros. 00:06:40.532 --> 00:06:45.000 A média simples distorceria os resultados. 00:06:45.000 --> 00:06:49.140 Com a média robusta os grupos ignoram aquela resposta absurda, 00:06:49.140 --> 00:06:53.028 dando mais valor às opiniões das pessoas no meio. 00:06:53.028 --> 00:06:57.201 De volta ao experimento em Vancouver, foi exatamente isso que aconteceu. 00:06:57.201 --> 00:07:00.332 Deram menos importância aos absurdos, 00:07:00.332 --> 00:07:05.156 e assim o consenso foi a média robusta das respostas individuais. 00:07:05.156 --> 00:07:07.256 O mais impressionante 00:07:07.256 --> 00:07:10.567 foi que esse comportamento foi espontâneo. 00:07:10.567 --> 00:07:15.358 Não demos dicas de formas de chegar ao consenso. 00:07:15.358 --> 00:07:17.577 Então qual é o próximo passo? NOTE Paragraph 00:07:17.577 --> 00:07:20.303 Esse é o começo, mas já temos algumas visões. 00:07:20.783 --> 00:07:23.739 Boas decisões coletivas precisam de dois componentes: 00:07:23.739 --> 00:07:27.031 deliberação e diversidade de opiniões. 00:07:27.031 --> 00:07:30.944 A maneira com que nos fazemos ouvir em muitas sociedades 00:07:30.944 --> 00:07:33.432 é através de votação direta e indireta. 00:07:33.432 --> 00:07:37.344 Isso favorece a diversidade de opiniões e tem a vantagem de garantir 00:07:37.344 --> 00:07:40.201 que todos tenham oportunidade de expressar suas ideias. 00:07:40.201 --> 00:07:44.680 Mas não é bom para criar bons debates. 00:07:44.680 --> 00:07:47.479 Nossos experimentos sugerem um método diferente, 00:07:47.479 --> 00:07:51.173 eficaz em equilibrar os dois objetivos ao mesmo tempo, 00:07:51.173 --> 00:07:54.928 formando pequenos grupos que convergem a uma única decisão, 00:07:54.928 --> 00:08:00.065 mantendo a diversidade de opiniões, porque há muitos grupos independentes. 00:08:00.573 --> 00:08:04.440 É bem mais fácil concordar sobre a altura da Torre Eiffel NOTE Paragraph 00:08:04.440 --> 00:08:07.739 do que questões morais, políticas e ideológicas. 00:08:08.499 --> 00:08:11.884 Mas, como os problemas do mundo estão mais complexos 00:08:11.884 --> 00:08:13.798 e as pessoas mais polarizadas, 00:08:13.798 --> 00:08:18.425 usar a ciência para nos ajudar a entender como interagimos e tomamos decisões, 00:08:18.425 --> 00:08:23.094 com sorte, despertará novas maneiras de construir uma democracia melhor.