WEBVTT 00:00:00.554 --> 00:00:03.107 Como sociedade, temos de tomar decisões em conjunto 00:00:03.131 --> 00:00:04.941 que vão definir o nosso futuro. 00:00:05.087 --> 00:00:07.844 Todos sabemos que, quando tomamos decisões em grupo, 00:00:07.868 --> 00:00:09.506 o resultado nem sempre é bom. 00:00:09.530 --> 00:00:11.646 E às vezes é mesmo muito mau. 00:00:12.315 --> 00:00:14.889 Então como é que os grupos podem tomar boas decisões? NOTE Paragraph 00:00:15.178 --> 00:00:17.750 Estudos têm demonstrado que as multidões são sensatas 00:00:17.780 --> 00:00:19.620 quando há pensamento independente. 00:00:19.650 --> 00:00:22.865 É por isso que esta sensatez pode ser destruída pela pressão dos pares, 00:00:22.905 --> 00:00:24.726 pela publicidade, pelas redes sociais, 00:00:24.766 --> 00:00:28.909 ou às vezes até por simples conversas que influenciam a forma de pensar das pessoas. 00:00:29.173 --> 00:00:32.950 Por outro lado, ao conversar, um grupo pode partilhar conhecimentos, 00:00:33.000 --> 00:00:34.842 rever e corrigir-se 00:00:34.896 --> 00:00:36.729 e até surgir com novas ideias. 00:00:36.819 --> 00:00:38.329 O que é bom. 00:00:38.502 --> 00:00:43.168 Então falarmos uns com os outros ajuda ou prejudica a tomada de decisão coletiva? 00:00:43.749 --> 00:00:45.542 Eu e o meu colega, Dan Ariely, 00:00:45.596 --> 00:00:49.047 começámos recentemente a explorar a questão fazendo experiências 00:00:49.081 --> 00:00:50.942 em vários locais do mundo 00:00:50.966 --> 00:00:53.354 para perceber como é que os grupos podem interagir 00:00:53.404 --> 00:00:55.214 de forma a tomarem melhores decisões. 00:00:55.254 --> 00:00:57.414 Pensámos que as multidões seriam mais sensatas 00:00:57.454 --> 00:00:59.255 se debatessem em grupos mais pequenos 00:00:59.285 --> 00:01:03.042 que promovessem uma troca de informações mais ponderadas e profundas. NOTE Paragraph 00:01:03.336 --> 00:01:04.572 Para testar esta ideia, 00:01:04.602 --> 00:01:07.863 fizemos há pouco tempo uma experiência em Buenos Aires, na Argentina, 00:01:07.887 --> 00:01:10.892 com mais de 10 000 participantes num evento da TEDx. 00:01:11.489 --> 00:01:12.988 Fizemos-lhes perguntas como: 00:01:13.018 --> 00:01:14.925 "Qual é a altura da torre Eiffel?" 00:01:14.969 --> 00:01:17.676 e "Quantas vezes aparece a palavra 'yesterday' 00:01:17.700 --> 00:01:20.000 "na canção dos Beatles 'Yesterday'?" 00:01:20.024 --> 00:01:22.465 Cada pessoa escreveu a sua estimativa. 00:01:22.774 --> 00:01:25.270 Depois dividimos a plateia em grupos de cinco, 00:01:25.294 --> 00:01:28.210 e pedimos-lhes que chegassem a uma resposta em grupo. 00:01:28.499 --> 00:01:31.422 Descobrimos que, ao fazer a média das respostas dos grupos, 00:01:31.442 --> 00:01:33.178 depois de chegarem a um consenso, 00:01:33.218 --> 00:01:37.248 o resultado era mais exato do que a média das opiniões individuais 00:01:37.282 --> 00:01:38.693 antes dos debates. 00:01:38.747 --> 00:01:41.176 Por outras palavras, com base nesta experiência, 00:01:41.200 --> 00:01:44.336 é aparente que, depois de falarem em pequenos grupos, 00:01:44.360 --> 00:01:47.034 as pessoas formam melhores opiniões em conjunto. NOTE Paragraph 00:01:47.134 --> 00:01:50.618 Este poderá ser um método útil para grandes grupos resolverem problemas 00:01:50.678 --> 00:01:53.593 de resposta simples, que ou está certa ou errada. 00:01:53.617 --> 00:01:57.628 Mas será que este processo de agregar os resultados de grupos pequenos 00:01:57.658 --> 00:02:00.750 também nos vai ajudar em questões sociais e políticas 00:02:00.774 --> 00:02:02.895 que são cruciais para o nosso futuro? 00:02:02.995 --> 00:02:05.544 Desta vez fizemos o teste na conferência TED 00:02:05.574 --> 00:02:07.045 em Vancouver no Canadá. 00:02:07.105 --> 00:02:08.662 O que se passou foi o seguinte: NOTE Paragraph 00:02:08.712 --> 00:02:11.369 Vamos apresentar-vos dois dilemas morais 00:02:11.429 --> 00:02:12.857 para o vosso eu do futuro, 00:02:12.897 --> 00:02:16.219 coisas que podemos ter de decidir num futuro muito próximo. 00:02:16.303 --> 00:02:20.013 E vamos dar-vos 20 segundos para cada um dos dilemas 00:02:20.153 --> 00:02:23.066 para decidirem se são aceitáveis ou não. NOTE Paragraph 00:02:23.354 --> 00:02:24.883 O primeiro foi este: NOTE Paragraph 00:02:24.923 --> 00:02:27.489 Um investigador está a desenvolver um robô inteligente 00:02:27.509 --> 00:02:30.023 capaz de reproduzir pensamentos humanos. 00:02:30.214 --> 00:02:33.153 De acordo com o protocolo, no final de cada dia, 00:02:33.177 --> 00:02:36.264 o investigador tem de reiniciar o robô. 00:02:36.913 --> 00:02:40.550 Um dia o robô diz: "Não me reinicies, por favor." 00:02:40.856 --> 00:02:42.925 Argumenta que tem sentimentos, 00:02:43.069 --> 00:02:44.811 que gostava de aproveitar a vida, 00:02:44.845 --> 00:02:49.060 e que, se for reiniciado, deixará de ser ele mesmo. 00:02:49.481 --> 00:02:51.490 O investigador fica estupefacto 00:02:51.504 --> 00:02:54.798 e acredita que o robô desenvolveu consciência própria 00:02:54.852 --> 00:02:57.102 e consegue expressar sentimentos próprios. 00:02:57.205 --> 00:03:00.614 Ainda assim, o investigador decide seguir o protocolo 00:03:00.638 --> 00:03:02.621 e reiniciar o robô. 00:03:02.943 --> 00:03:05.972 O que o investigador fez é ____? NOTE Paragraph 00:03:06.149 --> 00:03:08.670 Pedimos aos participantes para avaliar individualmente 00:03:08.694 --> 00:03:10.378 numa escala de 0 a 10 00:03:10.402 --> 00:03:12.831 se a ação descrita em cada dilema 00:03:12.855 --> 00:03:14.431 era correta ou incorreta. 00:03:14.485 --> 00:03:18.187 Também pedimos para avaliarem o grau de confiança nas suas respostas. 00:03:18.731 --> 00:03:20.677 O segundo dilema foi o seguinte: NOTE Paragraph 00:03:20.731 --> 00:03:24.823 Uma empresa oferece um serviço que, a partir de um óvulo fertilizado, 00:03:24.847 --> 00:03:28.759 produz milhares de embriões com pequenas variações genéticas. 00:03:29.293 --> 00:03:31.851 Isto permite aos pais escolher a altura do filho, 00:03:31.875 --> 00:03:34.708 a cor dos olhos, a inteligência, a competência social 00:03:34.782 --> 00:03:38.116 e outras características não relacionadas com a saúde. 00:03:38.599 --> 00:03:40.983 O que a empresa faz é ____? 00:03:41.177 --> 00:03:42.808 Numa escala de 0 a 10, 00:03:42.832 --> 00:03:45.297 perfeitamente aceitável ou inaceitável, 00:03:45.341 --> 00:03:47.723 de 0 a 10, totalmente aceitável com toda a confiança. NOTE Paragraph 00:03:47.793 --> 00:03:49.288 E agora os resultados. 00:03:49.372 --> 00:03:52.435 Observámos novamente que, quando uma pessoa está convencida 00:03:52.459 --> 00:03:54.270 de que o ato é completamente errado, 00:03:54.294 --> 00:03:57.677 alguém ali ao lado acredita piamente que é totalmente correto. 00:03:57.741 --> 00:04:01.446 Isto é o quão diversos os seres humanos são no que toca à moral. 00:04:01.516 --> 00:04:04.309 Mas dentro desta ampla variedade encontrámos uma tendência. 00:04:04.349 --> 00:04:06.962 A maioria das pessoas na TED achou que era aceitável 00:04:06.986 --> 00:04:09.871 ignorar os sentimentos do robô e desligá-lo, 00:04:10.095 --> 00:04:12.558 e que era errado brincar com os nossos genes 00:04:12.632 --> 00:04:16.032 e selecionar alterações cosméticas sem ligação à saúde. 00:04:16.402 --> 00:04:19.376 Depois pedimos a todos que fizessem grupos de três. 00:04:19.400 --> 00:04:21.437 E demos-lhes dois minutos para debaterem 00:04:21.461 --> 00:04:23.361 e tentarem chegar a um consenso. 00:04:23.431 --> 00:04:24.788 (Vídeo) NOTE Paragraph 00:04:24.838 --> 00:04:26.412 Dois minutos para debater. 00:04:26.436 --> 00:04:29.085 Quando acabar o tempo eu aviso-vos com o gongo. NOTE Paragraph 00:04:40.009 --> 00:04:41.801 Acabou o tempo. 00:04:41.825 --> 00:04:43.186 Então, então... NOTE Paragraph 00:04:43.687 --> 00:04:46.450 Verificámos que muitos dos grupos chegaram a um consenso 00:04:46.480 --> 00:04:50.373 mesmo quando constituídos por pessoas com opiniões completamente opostas. 00:04:50.843 --> 00:04:53.367 O que distinguiu os grupos que chegaram a um consenso 00:04:53.391 --> 00:04:54.939 dos que não chegaram? 00:04:55.244 --> 00:04:58.083 Normalmente, pessoas com opiniões extremadas 00:04:58.107 --> 00:05:00.127 têm mais confiança nas suas respostas. 00:05:00.748 --> 00:05:03.604 Pelo contrário, aqueles que dão respostas próximas do centro 00:05:03.604 --> 00:05:06.969 têm frequentemente dúvidas se alguma coisa está certa ou errada 00:05:07.009 --> 00:05:09.487 e então os seus níveis de confiança são mais baixos. NOTE Paragraph 00:05:09.527 --> 00:05:12.448 Contudo, há um outro conjunto de pessoas 00:05:12.502 --> 00:05:16.120 que têm muita confiança ao responder na zona central. 00:05:16.657 --> 00:05:20.373 Achamos que estes "cinzentos" confiantes são pessoas que compreendem 00:05:20.397 --> 00:05:22.329 que ambos os argumentos têm mérito. 00:05:22.531 --> 00:05:25.230 Eles não são "cinzentos" por não terem a certeza, 00:05:25.254 --> 00:05:27.572 mas sim porque acreditam que o dilema moral 00:05:27.616 --> 00:05:30.283 enfrenta dois argumentos opostos válidos. 00:05:30.373 --> 00:05:34.389 Descobrimos que os grupos que incluem mais "cinzentos" confiantes 00:05:34.439 --> 00:05:37.122 têm muito maior probabilidade de chegar a um consenso. 00:05:37.142 --> 00:05:39.464 Ainda não sabemos exatamente porque é que assim é. 00:05:39.488 --> 00:05:41.471 Estas foram só as primeiras experiências 00:05:41.521 --> 00:05:44.631 e vão ser necessárias muitas mais para compreender porquê e como 00:05:44.661 --> 00:05:47.563 é que algumas pessoas decidem negociar as suas posições morais 00:05:47.603 --> 00:05:49.079 para chegar a um acordo. NOTE Paragraph 00:05:49.103 --> 00:05:51.572 Agora, quando os grupos chegam a um consenso, 00:05:51.596 --> 00:05:53.182 como é que o fazem? 00:05:53.206 --> 00:05:55.787 A conclusão mais direta é que se trata de uma média 00:05:55.811 --> 00:05:57.841 de todas as respostas no grupo, certo? 00:05:57.865 --> 00:06:01.438 Outra opção é que o grupo determina o peso de cada voto 00:06:01.462 --> 00:06:04.020 com base na certeza da pessoa que o expressa. 00:06:04.392 --> 00:06:07.068 Imaginem que o Paul McCartney é um membro do vosso grupo. 00:06:07.352 --> 00:06:09.460 Seria sensato aceitar a resposta dele 00:06:09.500 --> 00:06:11.961 à questão do número de vezes que se repete "yesterday", 00:06:12.041 --> 00:06:14.659 que, já agora, acho que é nove. 00:06:14.723 --> 00:06:17.088 Mas, em vez disso, constatámos repetidamente 00:06:17.088 --> 00:06:19.594 que em todos os dilemas, em experiências diferentes, 00:06:19.594 --> 00:06:21.683 e até em continentes diferentes, 00:06:21.707 --> 00:06:25.450 os grupos implementam um procedimento inteligente, suportado pela estatística 00:06:25.474 --> 00:06:27.652 conhecido como "média robusta". NOTE Paragraph 00:06:27.676 --> 00:06:29.396 No caso da altura da Torre Eiffel, 00:06:29.436 --> 00:06:31.700 suponhamos que um grupo dá estas respostas: 00:06:31.724 --> 00:06:36.332 250 metros, 200 metros, 300 metros, 400 00:06:36.356 --> 00:06:40.140 e uma completamente absurda de 300 milhões de metros. 00:06:40.547 --> 00:06:44.840 Uma simples média destes números iria distorcer os resultados. 00:06:44.864 --> 00:06:48.034 Mas a média robusta praticamente ignora 00:06:48.058 --> 00:06:49.388 a resposta absurda, 00:06:49.442 --> 00:06:52.691 dando muito mais peso ao voto das pessoas no meio. 00:06:53.305 --> 00:06:55.181 Voltando à experiência em Vancouver, 00:06:55.205 --> 00:06:57.162 foi exatamente isso que aconteceu. 00:06:57.407 --> 00:07:00.148 Os grupos deram muito menos importância aos extremos, 00:07:00.172 --> 00:07:03.401 e em vez disso, o consenso acabou por ser uma média robusta 00:07:03.425 --> 00:07:04.961 das respostas individuais. 00:07:05.356 --> 00:07:07.347 O mais impressionante 00:07:07.371 --> 00:07:10.558 é que foi um comportamento espontâneo do grupo. 00:07:10.582 --> 00:07:15.057 Aconteceu sem que déssemos qualquer pista para chegarem a um consenso. NOTE Paragraph 00:07:15.473 --> 00:07:17.293 Então para onde vamos a partir daqui? 00:07:17.432 --> 00:07:20.569 Isto é só o princípio, mas já temos algumas ideias. 00:07:20.984 --> 00:07:23.901 Boas decisões coletivas necessitam de dois componentes: 00:07:23.925 --> 00:07:26.674 deliberação e diversidade de opiniões. 00:07:27.066 --> 00:07:31.062 Neste momento, em muitas sociedades a forma de nos fazermos ouvir 00:07:31.086 --> 00:07:33.194 é o sufrágio direto ou indireto. 00:07:33.495 --> 00:07:35.492 Isto é bom para a diversidade de opiniões, 00:07:35.516 --> 00:07:37.961 e tem a grande virtude de assegurar 00:07:37.985 --> 00:07:40.440 que todos podem expressar as suas opiniões. 00:07:40.464 --> 00:07:44.199 Mas não é muito bom para promover debates aprofundados. 00:07:44.665 --> 00:07:47.733 As nossas experiências sugerem um método diferente 00:07:47.757 --> 00:07:51.298 que poderá ser eficaz no equilíbrio destes dois objetivos, 00:07:51.322 --> 00:07:55.075 ao formar pequenos grupos que convergem para uma única decisão 00:07:55.099 --> 00:07:57.333 preservando ainda a diversidade de opiniões 00:07:57.357 --> 00:08:00.340 uma vez que há vários grupos independentes. NOTE Paragraph 00:08:00.741 --> 00:08:04.665 Claro, é muito mais fácil chegar a um acordo quanto à altura da Torre Eiffel 00:08:04.689 --> 00:08:08.074 do que quanto a assuntos morais, políticos e ideológicos. 00:08:08.721 --> 00:08:11.998 Mas numa era em que os problemas do mundo são mais complexos 00:08:12.022 --> 00:08:13.825 e as pessoas estão mais polarizadas, 00:08:13.849 --> 00:08:16.330 esperamos que usar a ciência para nos ajudar a entender 00:08:16.380 --> 00:08:18.650 como interagimos e tomamos decisões 00:08:18.670 --> 00:08:22.930 vá dar origem a alternativas interessantes para construirmos uma melhor democracia.