1 00:00:00,554 --> 00:00:03,107 Como sociedade, temos de tomar decisões em conjunto 2 00:00:03,131 --> 00:00:04,941 que vão definir o nosso futuro. 3 00:00:05,087 --> 00:00:07,844 Todos sabemos que, quando tomamos decisões em grupo, 4 00:00:07,868 --> 00:00:09,506 o resultado nem sempre é bom. 5 00:00:09,530 --> 00:00:11,646 E às vezes é mesmo muito mau. 6 00:00:12,315 --> 00:00:14,889 Então como é que os grupos podem tomar boas decisões? 7 00:00:15,178 --> 00:00:17,750 Estudos têm demonstrado que as multidões são sensatas 8 00:00:17,780 --> 00:00:19,620 quando há pensamento independente. 9 00:00:19,650 --> 00:00:22,865 É por isso que esta sensatez pode ser destruída pela pressão dos pares, 10 00:00:22,905 --> 00:00:24,726 pela publicidade, pelas redes sociais, 11 00:00:24,766 --> 00:00:28,909 ou às vezes até por simples conversas que influenciam a forma de pensar das pessoas. 12 00:00:29,173 --> 00:00:32,950 Por outro lado, ao conversar, um grupo pode partilhar conhecimentos, 13 00:00:33,000 --> 00:00:34,842 rever e corrigir-se 14 00:00:34,896 --> 00:00:36,729 e até surgir com novas ideias. 15 00:00:36,819 --> 00:00:38,329 O que é bom. 16 00:00:38,502 --> 00:00:43,168 Então falarmos uns com os outros ajuda ou prejudica a tomada de decisão coletiva? 17 00:00:43,749 --> 00:00:45,542 Eu e o meu colega, Dan Ariely, 18 00:00:45,596 --> 00:00:49,047 começámos recentemente a explorar a questão fazendo experiências 19 00:00:49,081 --> 00:00:50,942 em vários locais do mundo 20 00:00:50,966 --> 00:00:53,354 para perceber como é que os grupos podem interagir 21 00:00:53,404 --> 00:00:55,214 de forma a tomarem melhores decisões. 22 00:00:55,254 --> 00:00:57,414 Pensámos que as multidões seriam mais sensatas 23 00:00:57,454 --> 00:00:59,255 se debatessem em grupos mais pequenos 24 00:00:59,285 --> 00:01:03,042 que promovessem uma troca de informações mais ponderadas e profundas. 25 00:01:03,336 --> 00:01:04,572 Para testar esta ideia, 26 00:01:04,602 --> 00:01:07,863 fizemos há pouco tempo uma experiência em Buenos Aires, na Argentina, 27 00:01:07,887 --> 00:01:10,892 com mais de 10 000 participantes num evento da TEDx. 28 00:01:11,489 --> 00:01:12,988 Fizemos-lhes perguntas como: 29 00:01:13,018 --> 00:01:14,925 "Qual é a altura da torre Eiffel?" 30 00:01:14,969 --> 00:01:17,676 e "Quantas vezes aparece a palavra 'yesterday' 31 00:01:17,700 --> 00:01:20,000 "na canção dos Beatles 'Yesterday'?" 32 00:01:20,024 --> 00:01:22,465 Cada pessoa escreveu a sua estimativa. 33 00:01:22,774 --> 00:01:25,270 Depois dividimos a plateia em grupos de cinco, 34 00:01:25,294 --> 00:01:28,210 e pedimos-lhes que chegassem a uma resposta em grupo. 35 00:01:28,499 --> 00:01:31,422 Descobrimos que, ao fazer a média das respostas dos grupos, 36 00:01:31,442 --> 00:01:33,178 depois de chegarem a um consenso, 37 00:01:33,218 --> 00:01:37,248 o resultado era mais exato do que a média das opiniões individuais 38 00:01:37,282 --> 00:01:38,693 antes dos debates. 39 00:01:38,747 --> 00:01:41,176 Por outras palavras, com base nesta experiência, 40 00:01:41,200 --> 00:01:44,336 é aparente que, depois de falarem em pequenos grupos, 41 00:01:44,360 --> 00:01:47,034 as pessoas formam melhores opiniões em conjunto. 42 00:01:47,134 --> 00:01:50,618 Este poderá ser um método útil para grandes grupos resolverem problemas 43 00:01:50,678 --> 00:01:53,593 de resposta simples, que ou está certa ou errada. 44 00:01:53,617 --> 00:01:57,628 Mas será que este processo de agregar os resultados de grupos pequenos 45 00:01:57,658 --> 00:02:00,750 também nos vai ajudar em questões sociais e políticas 46 00:02:00,774 --> 00:02:02,895 que são cruciais para o nosso futuro? 47 00:02:02,995 --> 00:02:05,544 Desta vez fizemos o teste na conferência TED 48 00:02:05,574 --> 00:02:07,045 em Vancouver no Canadá. 49 00:02:07,105 --> 00:02:08,662 O que se passou foi o seguinte: 50 00:02:08,712 --> 00:02:11,369 Vamos apresentar-vos dois dilemas morais 51 00:02:11,429 --> 00:02:12,857 para o vosso eu do futuro, 52 00:02:12,897 --> 00:02:16,219 coisas que podemos ter de decidir num futuro muito próximo. 53 00:02:16,303 --> 00:02:20,013 E vamos dar-vos 20 segundos para cada um dos dilemas 54 00:02:20,153 --> 00:02:23,066 para decidirem se são aceitáveis ou não. 55 00:02:23,354 --> 00:02:24,883 O primeiro foi este: 56 00:02:24,923 --> 00:02:27,489 Um investigador está a desenvolver um robô inteligente 57 00:02:27,509 --> 00:02:30,023 capaz de reproduzir pensamentos humanos. 58 00:02:30,214 --> 00:02:33,153 De acordo com o protocolo, no final de cada dia, 59 00:02:33,177 --> 00:02:36,264 o investigador tem de reiniciar o robô. 60 00:02:36,913 --> 00:02:40,550 Um dia o robô diz: "Não me reinicies, por favor." 61 00:02:40,856 --> 00:02:42,925 Argumenta que tem sentimentos, 62 00:02:43,069 --> 00:02:44,811 que gostava de aproveitar a vida, 63 00:02:44,845 --> 00:02:49,060 e que, se for reiniciado, deixará de ser ele mesmo. 64 00:02:49,481 --> 00:02:51,490 O investigador fica estupefacto 65 00:02:51,504 --> 00:02:54,798 e acredita que o robô desenvolveu consciência própria 66 00:02:54,852 --> 00:02:57,102 e consegue expressar sentimentos próprios. 67 00:02:57,205 --> 00:03:00,614 Ainda assim, o investigador decide seguir o protocolo 68 00:03:00,638 --> 00:03:02,621 e reiniciar o robô. 69 00:03:02,943 --> 00:03:05,972 O que o investigador fez é ____? 70 00:03:06,149 --> 00:03:08,670 Pedimos aos participantes para avaliar individualmente 71 00:03:08,694 --> 00:03:10,378 numa escala de 0 a 10 72 00:03:10,402 --> 00:03:12,831 se a ação descrita em cada dilema 73 00:03:12,855 --> 00:03:14,431 era correta ou incorreta. 74 00:03:14,485 --> 00:03:18,187 Também pedimos para avaliarem o grau de confiança nas suas respostas. 75 00:03:18,731 --> 00:03:20,677 O segundo dilema foi o seguinte: 76 00:03:20,731 --> 00:03:24,823 Uma empresa oferece um serviço que, a partir de um óvulo fertilizado, 77 00:03:24,847 --> 00:03:28,759 produz milhares de embriões com pequenas variações genéticas. 78 00:03:29,293 --> 00:03:31,851 Isto permite aos pais escolher a altura do filho, 79 00:03:31,875 --> 00:03:34,708 a cor dos olhos, a inteligência, a competência social 80 00:03:34,782 --> 00:03:38,116 e outras características não relacionadas com a saúde. 81 00:03:38,599 --> 00:03:40,983 O que a empresa faz é ____? 82 00:03:41,177 --> 00:03:42,808 Numa escala de 0 a 10, 83 00:03:42,832 --> 00:03:45,297 perfeitamente aceitável ou inaceitável, 84 00:03:45,341 --> 00:03:47,723 de 0 a 10, totalmente aceitável com toda a confiança. 85 00:03:47,793 --> 00:03:49,288 E agora os resultados. 86 00:03:49,372 --> 00:03:52,435 Observámos novamente que, quando uma pessoa está convencida 87 00:03:52,459 --> 00:03:54,270 de que o ato é completamente errado, 88 00:03:54,294 --> 00:03:57,677 alguém ali ao lado acredita piamente que é totalmente correto. 89 00:03:57,741 --> 00:04:01,446 Isto é o quão diversos os seres humanos são no que toca à moral. 90 00:04:01,516 --> 00:04:04,309 Mas dentro desta ampla variedade encontrámos uma tendência. 91 00:04:04,349 --> 00:04:06,962 A maioria das pessoas na TED achou que era aceitável 92 00:04:06,986 --> 00:04:09,871 ignorar os sentimentos do robô e desligá-lo, 93 00:04:10,095 --> 00:04:12,558 e que era errado brincar com os nossos genes 94 00:04:12,632 --> 00:04:16,032 e selecionar alterações cosméticas sem ligação à saúde. 95 00:04:16,402 --> 00:04:19,376 Depois pedimos a todos que fizessem grupos de três. 96 00:04:19,400 --> 00:04:21,437 E demos-lhes dois minutos para debaterem 97 00:04:21,461 --> 00:04:23,361 e tentarem chegar a um consenso. 98 00:04:23,431 --> 00:04:24,788 (Vídeo) 99 00:04:24,838 --> 00:04:26,412 Dois minutos para debater. 100 00:04:26,436 --> 00:04:29,085 Quando acabar o tempo eu aviso-vos com o gongo. 101 00:04:40,009 --> 00:04:41,801 Acabou o tempo. 102 00:04:41,825 --> 00:04:43,186 Então, então... 103 00:04:43,687 --> 00:04:46,450 Verificámos que muitos dos grupos chegaram a um consenso 104 00:04:46,480 --> 00:04:50,373 mesmo quando constituídos por pessoas com opiniões completamente opostas. 105 00:04:50,843 --> 00:04:53,367 O que distinguiu os grupos que chegaram a um consenso 106 00:04:53,391 --> 00:04:54,939 dos que não chegaram? 107 00:04:55,244 --> 00:04:58,083 Normalmente, pessoas com opiniões extremadas 108 00:04:58,107 --> 00:05:00,127 têm mais confiança nas suas respostas. 109 00:05:00,748 --> 00:05:03,604 Pelo contrário, aqueles que dão respostas próximas do centro 110 00:05:03,604 --> 00:05:06,969 têm frequentemente dúvidas se alguma coisa está certa ou errada 111 00:05:07,009 --> 00:05:09,487 e então os seus níveis de confiança são mais baixos. 112 00:05:09,527 --> 00:05:12,448 Contudo, há um outro conjunto de pessoas 113 00:05:12,502 --> 00:05:16,120 que têm muita confiança ao responder na zona central. 114 00:05:16,657 --> 00:05:20,373 Achamos que estes "cinzentos" confiantes são pessoas que compreendem 115 00:05:20,397 --> 00:05:22,329 que ambos os argumentos têm mérito. 116 00:05:22,531 --> 00:05:25,230 Eles não são "cinzentos" por não terem a certeza, 117 00:05:25,254 --> 00:05:27,572 mas sim porque acreditam que o dilema moral 118 00:05:27,616 --> 00:05:30,283 enfrenta dois argumentos opostos válidos. 119 00:05:30,373 --> 00:05:34,389 Descobrimos que os grupos que incluem mais "cinzentos" confiantes 120 00:05:34,439 --> 00:05:37,122 têm muito maior probabilidade de chegar a um consenso. 121 00:05:37,142 --> 00:05:39,464 Ainda não sabemos exatamente porque é que assim é. 122 00:05:39,488 --> 00:05:41,471 Estas foram só as primeiras experiências 123 00:05:41,521 --> 00:05:44,631 e vão ser necessárias muitas mais para compreender porquê e como 124 00:05:44,661 --> 00:05:47,563 é que algumas pessoas decidem negociar as suas posições morais 125 00:05:47,603 --> 00:05:49,079 para chegar a um acordo. 126 00:05:49,103 --> 00:05:51,572 Agora, quando os grupos chegam a um consenso, 127 00:05:51,596 --> 00:05:53,182 como é que o fazem? 128 00:05:53,206 --> 00:05:55,787 A conclusão mais direta é que se trata de uma média 129 00:05:55,811 --> 00:05:57,841 de todas as respostas no grupo, certo? 130 00:05:57,865 --> 00:06:01,438 Outra opção é que o grupo determina o peso de cada voto 131 00:06:01,462 --> 00:06:04,020 com base na certeza da pessoa que o expressa. 132 00:06:04,392 --> 00:06:07,068 Imaginem que o Paul McCartney é um membro do vosso grupo. 133 00:06:07,352 --> 00:06:09,460 Seria sensato aceitar a resposta dele 134 00:06:09,500 --> 00:06:11,961 à questão do número de vezes que se repete "yesterday", 135 00:06:12,041 --> 00:06:14,659 que, já agora, acho que é nove. 136 00:06:14,723 --> 00:06:17,088 Mas, em vez disso, constatámos repetidamente 137 00:06:17,088 --> 00:06:19,594 que em todos os dilemas, em experiências diferentes, 138 00:06:19,594 --> 00:06:21,683 e até em continentes diferentes, 139 00:06:21,707 --> 00:06:25,450 os grupos implementam um procedimento inteligente, suportado pela estatística 140 00:06:25,474 --> 00:06:27,652 conhecido como "média robusta". 141 00:06:27,676 --> 00:06:29,396 No caso da altura da Torre Eiffel, 142 00:06:29,436 --> 00:06:31,700 suponhamos que um grupo dá estas respostas: 143 00:06:31,724 --> 00:06:36,332 250 metros, 200 metros, 300 metros, 400 144 00:06:36,356 --> 00:06:40,140 e uma completamente absurda de 300 milhões de metros. 145 00:06:40,547 --> 00:06:44,840 Uma simples média destes números iria distorcer os resultados. 146 00:06:44,864 --> 00:06:48,034 Mas a média robusta praticamente ignora 147 00:06:48,058 --> 00:06:49,388 a resposta absurda, 148 00:06:49,442 --> 00:06:52,691 dando muito mais peso ao voto das pessoas no meio. 149 00:06:53,305 --> 00:06:55,181 Voltando à experiência em Vancouver, 150 00:06:55,205 --> 00:06:57,162 foi exatamente isso que aconteceu. 151 00:06:57,407 --> 00:07:00,148 Os grupos deram muito menos importância aos extremos, 152 00:07:00,172 --> 00:07:03,401 e em vez disso, o consenso acabou por ser uma média robusta 153 00:07:03,425 --> 00:07:04,961 das respostas individuais. 154 00:07:05,356 --> 00:07:07,347 O mais impressionante 155 00:07:07,371 --> 00:07:10,558 é que foi um comportamento espontâneo do grupo. 156 00:07:10,582 --> 00:07:15,057 Aconteceu sem que déssemos qualquer pista para chegarem a um consenso. 157 00:07:15,473 --> 00:07:17,293 Então para onde vamos a partir daqui? 158 00:07:17,432 --> 00:07:20,569 Isto é só o princípio, mas já temos algumas ideias. 159 00:07:20,984 --> 00:07:23,901 Boas decisões coletivas necessitam de dois componentes: 160 00:07:23,925 --> 00:07:26,674 deliberação e diversidade de opiniões. 161 00:07:27,066 --> 00:07:31,062 Neste momento, em muitas sociedades a forma de nos fazermos ouvir 162 00:07:31,086 --> 00:07:33,194 é o sufrágio direto ou indireto. 163 00:07:33,495 --> 00:07:35,492 Isto é bom para a diversidade de opiniões, 164 00:07:35,516 --> 00:07:37,961 e tem a grande virtude de assegurar 165 00:07:37,985 --> 00:07:40,440 que todos podem expressar as suas opiniões. 166 00:07:40,464 --> 00:07:44,199 Mas não é muito bom para promover debates aprofundados. 167 00:07:44,665 --> 00:07:47,733 As nossas experiências sugerem um método diferente 168 00:07:47,757 --> 00:07:51,298 que poderá ser eficaz no equilíbrio destes dois objetivos, 169 00:07:51,322 --> 00:07:55,075 ao formar pequenos grupos que convergem para uma única decisão 170 00:07:55,099 --> 00:07:57,333 preservando ainda a diversidade de opiniões 171 00:07:57,357 --> 00:08:00,340 uma vez que há vários grupos independentes. 172 00:08:00,741 --> 00:08:04,665 Claro, é muito mais fácil chegar a um acordo quanto à altura da Torre Eiffel 173 00:08:04,689 --> 00:08:08,074 do que quanto a assuntos morais, políticos e ideológicos. 174 00:08:08,721 --> 00:08:11,998 Mas numa era em que os problemas do mundo são mais complexos 175 00:08:12,022 --> 00:08:13,825 e as pessoas estão mais polarizadas, 176 00:08:13,849 --> 00:08:16,330 esperamos que usar a ciência para nos ajudar a entender 177 00:08:16,380 --> 00:08:18,650 como interagimos e tomamos decisões 178 00:08:18,670 --> 00:08:22,930 vá dar origem a alternativas interessantes para construirmos uma melhor democracia.