[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.55,0:00:03.11,Default,,0000,0000,0000,,Como sociedade, temos de tomar\Ndecisões em conjunto Dialogue: 0,0:00:03.13,0:00:04.94,Default,,0000,0000,0000,,que vão definir o nosso futuro. Dialogue: 0,0:00:05.09,0:00:07.84,Default,,0000,0000,0000,,Todos sabemos que, quando\Ntomamos decisões em grupo, Dialogue: 0,0:00:07.87,0:00:09.51,Default,,0000,0000,0000,,o resultado nem sempre é bom. Dialogue: 0,0:00:09.53,0:00:11.65,Default,,0000,0000,0000,,E às vezes é mesmo muito mau. Dialogue: 0,0:00:12.32,0:00:14.89,Default,,0000,0000,0000,,Então como é que os grupos\Npodem tomar boas decisões? Dialogue: 0,0:00:15.18,0:00:17.75,Default,,0000,0000,0000,,Estudos têm demonstrado\Nque as multidões são sensatas Dialogue: 0,0:00:17.78,0:00:19.62,Default,,0000,0000,0000,,quando há pensamento independente. Dialogue: 0,0:00:19.65,0:00:22.86,Default,,0000,0000,0000,,É por isso que esta sensatez pode ser\Ndestruída pela pressão dos pares, Dialogue: 0,0:00:22.90,0:00:24.73,Default,,0000,0000,0000,,pela publicidade,\Npelas redes sociais, Dialogue: 0,0:00:24.77,0:00:28.91,Default,,0000,0000,0000,,ou às vezes até por simples conversas que\Ninfluenciam a forma de pensar das pessoas. Dialogue: 0,0:00:29.17,0:00:32.95,Default,,0000,0000,0000,,Por outro lado, ao conversar,\Num grupo pode partilhar conhecimentos, Dialogue: 0,0:00:33.00,0:00:34.84,Default,,0000,0000,0000,,rever e corrigir-se Dialogue: 0,0:00:34.90,0:00:36.73,Default,,0000,0000,0000,,e até surgir com novas ideias. Dialogue: 0,0:00:36.82,0:00:38.33,Default,,0000,0000,0000,,O que é bom.\N Dialogue: 0,0:00:38.50,0:00:43.17,Default,,0000,0000,0000,,Então falarmos uns com os outros ajuda\Nou prejudica a tomada de decisão coletiva? Dialogue: 0,0:00:43.75,0:00:45.54,Default,,0000,0000,0000,,Eu e o meu colega, Dan Ariely, Dialogue: 0,0:00:45.60,0:00:49.05,Default,,0000,0000,0000,,começámos recentemente a explorar\Na questão fazendo experiências Dialogue: 0,0:00:49.08,0:00:50.94,Default,,0000,0000,0000,,em vários locais do mundo Dialogue: 0,0:00:50.97,0:00:53.35,Default,,0000,0000,0000,,para perceber como é\Nque os grupos podem interagir Dialogue: 0,0:00:53.40,0:00:55.21,Default,,0000,0000,0000,,de forma a tomarem melhores decisões. Dialogue: 0,0:00:55.25,0:00:57.41,Default,,0000,0000,0000,,Pensámos que as multidões\Nseriam mais sensatas Dialogue: 0,0:00:57.45,0:00:59.26,Default,,0000,0000,0000,,se debatessem em grupos mais pequenos Dialogue: 0,0:00:59.28,0:01:03.04,Default,,0000,0000,0000,,que promovessem uma troca de informações\Nmais ponderadas e profundas. Dialogue: 0,0:01:03.34,0:01:04.57,Default,,0000,0000,0000,,Para testar esta ideia, Dialogue: 0,0:01:04.60,0:01:07.86,Default,,0000,0000,0000,,fizemos há pouco tempo uma experiência\Nem Buenos Aires, na Argentina, Dialogue: 0,0:01:07.89,0:01:10.89,Default,,0000,0000,0000,,com mais de 10 000\Nparticipantes num evento da TEDx. Dialogue: 0,0:01:11.49,0:01:12.99,Default,,0000,0000,0000,,Fizemos-lhes perguntas como: Dialogue: 0,0:01:13.02,0:01:14.92,Default,,0000,0000,0000,,"Qual é a altura da torre Eiffel?" Dialogue: 0,0:01:14.97,0:01:17.68,Default,,0000,0000,0000,,e "Quantas vezes aparece\Na palavra 'yesterday' Dialogue: 0,0:01:17.70,0:01:20.00,Default,,0000,0000,0000,,"na canção dos Beatles 'Yesterday'?" Dialogue: 0,0:01:20.02,0:01:22.46,Default,,0000,0000,0000,,Cada pessoa escreveu a sua estimativa. Dialogue: 0,0:01:22.77,0:01:25.27,Default,,0000,0000,0000,,Depois dividimos a plateia\Nem grupos de cinco, Dialogue: 0,0:01:25.29,0:01:28.21,Default,,0000,0000,0000,,e pedimos-lhes que\Nchegassem a uma resposta em grupo. Dialogue: 0,0:01:28.50,0:01:31.42,Default,,0000,0000,0000,,Descobrimos que, ao fazer a média\Ndas respostas dos grupos, Dialogue: 0,0:01:31.44,0:01:33.18,Default,,0000,0000,0000,,depois de chegarem\Na um consenso, Dialogue: 0,0:01:33.22,0:01:37.25,Default,,0000,0000,0000,,o resultado era mais exato do que\Na média das opiniões individuais Dialogue: 0,0:01:37.28,0:01:38.69,Default,,0000,0000,0000,,antes dos debates. Dialogue: 0,0:01:38.75,0:01:41.18,Default,,0000,0000,0000,,Por outras palavras,\Ncom base nesta experiência, Dialogue: 0,0:01:41.20,0:01:44.34,Default,,0000,0000,0000,,é aparente que, depois de falarem\Nem pequenos grupos, Dialogue: 0,0:01:44.36,0:01:47.03,Default,,0000,0000,0000,,as pessoas formam\Nmelhores opiniões em conjunto. Dialogue: 0,0:01:47.13,0:01:50.62,Default,,0000,0000,0000,,Este poderá ser um método útil para\Ngrandes grupos resolverem problemas Dialogue: 0,0:01:50.68,0:01:53.59,Default,,0000,0000,0000,,de resposta simples, \Nque ou está certa ou errada. Dialogue: 0,0:01:53.62,0:01:57.63,Default,,0000,0000,0000,,Mas será que este processo de agregar\Nos resultados de grupos pequenos Dialogue: 0,0:01:57.66,0:02:00.75,Default,,0000,0000,0000,,também nos vai ajudar\Nem questões sociais e políticas Dialogue: 0,0:02:00.77,0:02:02.90,Default,,0000,0000,0000,,que são cruciais para o nosso futuro? Dialogue: 0,0:02:02.100,0:02:05.54,Default,,0000,0000,0000,,Desta vez fizemos o teste\Nna conferência TED Dialogue: 0,0:02:05.57,0:02:07.04,Default,,0000,0000,0000,,em Vancouver no Canadá. Dialogue: 0,0:02:07.10,0:02:08.66,Default,,0000,0000,0000,,O que se passou foi o seguinte: Dialogue: 0,0:02:08.71,0:02:11.37,Default,,0000,0000,0000,,Vamos apresentar-vos\Ndois dilemas morais Dialogue: 0,0:02:11.43,0:02:12.86,Default,,0000,0000,0000,,para o vosso eu do futuro, Dialogue: 0,0:02:12.90,0:02:16.22,Default,,0000,0000,0000,,coisas que podemos ter de decidir\Nnum futuro muito próximo. Dialogue: 0,0:02:16.30,0:02:20.01,Default,,0000,0000,0000,,E vamos dar-vos 20 segundos\Npara cada um dos dilemas Dialogue: 0,0:02:20.15,0:02:23.07,Default,,0000,0000,0000,,para decidirem se são aceitáveis ou não. Dialogue: 0,0:02:23.35,0:02:24.88,Default,,0000,0000,0000,,O primeiro foi este: Dialogue: 0,0:02:24.92,0:02:27.49,Default,,0000,0000,0000,,Um investigador está a desenvolver\Num robô inteligente Dialogue: 0,0:02:27.51,0:02:30.02,Default,,0000,0000,0000,,capaz de reproduzir pensamentos humanos. Dialogue: 0,0:02:30.21,0:02:33.15,Default,,0000,0000,0000,,De acordo com o protocolo,\Nno final de cada dia, Dialogue: 0,0:02:33.18,0:02:36.26,Default,,0000,0000,0000,,o investigador tem de reiniciar o robô. Dialogue: 0,0:02:36.91,0:02:40.55,Default,,0000,0000,0000,,Um dia o robô diz:\N"Não me reinicies, por favor." Dialogue: 0,0:02:40.86,0:02:42.92,Default,,0000,0000,0000,,Argumenta que tem sentimentos, Dialogue: 0,0:02:43.07,0:02:44.81,Default,,0000,0000,0000,,que gostava de aproveitar a vida, Dialogue: 0,0:02:44.84,0:02:49.06,Default,,0000,0000,0000,,e que, se for reiniciado,\Ndeixará de ser ele mesmo. Dialogue: 0,0:02:49.48,0:02:51.49,Default,,0000,0000,0000,,O investigador fica estupefacto Dialogue: 0,0:02:51.50,0:02:54.80,Default,,0000,0000,0000,,e acredita que o robô\Ndesenvolveu consciência própria Dialogue: 0,0:02:54.85,0:02:57.10,Default,,0000,0000,0000,,e consegue expressar\Nsentimentos próprios. Dialogue: 0,0:02:57.20,0:03:00.61,Default,,0000,0000,0000,,Ainda assim, o investigador\Ndecide seguir o protocolo Dialogue: 0,0:03:00.64,0:03:02.62,Default,,0000,0000,0000,,e reiniciar o robô. Dialogue: 0,0:03:02.94,0:03:05.97,Default,,0000,0000,0000,,O que o investigador fez é ____? Dialogue: 0,0:03:06.15,0:03:08.67,Default,,0000,0000,0000,,Pedimos aos participantes\Npara avaliar individualmente Dialogue: 0,0:03:08.69,0:03:10.38,Default,,0000,0000,0000,,numa escala de 0 a 10 Dialogue: 0,0:03:10.40,0:03:12.83,Default,,0000,0000,0000,,se a ação descrita em cada dilema Dialogue: 0,0:03:12.86,0:03:14.43,Default,,0000,0000,0000,,era correta ou incorreta. Dialogue: 0,0:03:14.48,0:03:18.19,Default,,0000,0000,0000,,Também pedimos para avaliarem\No grau de confiança nas suas respostas. Dialogue: 0,0:03:18.73,0:03:20.68,Default,,0000,0000,0000,,O segundo dilema foi o seguinte: Dialogue: 0,0:03:20.73,0:03:24.82,Default,,0000,0000,0000,,Uma empresa oferece um serviço\Nque, a partir de um óvulo fertilizado, Dialogue: 0,0:03:24.85,0:03:28.76,Default,,0000,0000,0000,,produz milhares de embriões\Ncom pequenas variações genéticas. Dialogue: 0,0:03:29.29,0:03:31.85,Default,,0000,0000,0000,,Isto permite aos pais escolher\Na altura do filho, Dialogue: 0,0:03:31.88,0:03:34.71,Default,,0000,0000,0000,,a cor dos olhos, a inteligência,\Na competência social Dialogue: 0,0:03:34.78,0:03:38.12,Default,,0000,0000,0000,,e outras características\Nnão relacionadas com a saúde. Dialogue: 0,0:03:38.60,0:03:40.98,Default,,0000,0000,0000,,O que a empresa faz é ____? Dialogue: 0,0:03:41.18,0:03:42.81,Default,,0000,0000,0000,,Numa escala de 0 a 10, Dialogue: 0,0:03:42.83,0:03:45.30,Default,,0000,0000,0000,,perfeitamente aceitável\Nou inaceitável, Dialogue: 0,0:03:45.34,0:03:47.72,Default,,0000,0000,0000,,de 0 a 10, totalmente aceitável\Ncom toda a confiança. Dialogue: 0,0:03:47.79,0:03:49.29,Default,,0000,0000,0000,,E agora os resultados. Dialogue: 0,0:03:49.37,0:03:52.44,Default,,0000,0000,0000,,Observámos novamente que,\Nquando uma pessoa está convencida Dialogue: 0,0:03:52.46,0:03:54.27,Default,,0000,0000,0000,,de que o ato é completamente errado, Dialogue: 0,0:03:54.29,0:03:57.68,Default,,0000,0000,0000,,alguém ali ao lado acredita piamente\Nque é totalmente correto. Dialogue: 0,0:03:57.74,0:04:01.45,Default,,0000,0000,0000,,Isto é o quão diversos os seres humanos\Nsão no que toca à moral. Dialogue: 0,0:04:01.52,0:04:04.31,Default,,0000,0000,0000,,Mas dentro desta ampla variedade\Nencontrámos uma tendência. Dialogue: 0,0:04:04.35,0:04:06.96,Default,,0000,0000,0000,,A maioria das pessoas na TED\Nachou que era aceitável Dialogue: 0,0:04:06.99,0:04:09.87,Default,,0000,0000,0000,,ignorar os sentimentos do robô\Ne desligá-lo, Dialogue: 0,0:04:10.10,0:04:12.56,Default,,0000,0000,0000,,e que era errado\Nbrincar com os nossos genes\N Dialogue: 0,0:04:12.63,0:04:16.03,Default,,0000,0000,0000,,e selecionar alterações cosméticas\Nsem ligação à saúde. Dialogue: 0,0:04:16.40,0:04:19.38,Default,,0000,0000,0000,,Depois pedimos a todos\Nque fizessem grupos de três. Dialogue: 0,0:04:19.40,0:04:21.44,Default,,0000,0000,0000,,E demos-lhes dois minutos para debaterem Dialogue: 0,0:04:21.46,0:04:23.36,Default,,0000,0000,0000,,e tentarem chegar a um consenso. Dialogue: 0,0:04:23.43,0:04:24.79,Default,,0000,0000,0000,,(Vídeo) Dialogue: 0,0:04:24.84,0:04:26.41,Default,,0000,0000,0000,,Dois minutos para debater. Dialogue: 0,0:04:26.44,0:04:29.08,Default,,0000,0000,0000,,Quando acabar o tempo\Neu aviso-vos com o gongo. Dialogue: 0,0:04:40.01,0:04:41.80,Default,,0000,0000,0000,,Acabou o tempo. Dialogue: 0,0:04:41.82,0:04:43.19,Default,,0000,0000,0000,,Então, então... Dialogue: 0,0:04:43.69,0:04:46.45,Default,,0000,0000,0000,,Verificámos que muitos dos grupos\Nchegaram a um consenso Dialogue: 0,0:04:46.48,0:04:50.37,Default,,0000,0000,0000,,mesmo quando constituídos por pessoas\Ncom opiniões completamente opostas. Dialogue: 0,0:04:50.84,0:04:53.37,Default,,0000,0000,0000,,O que distinguiu os grupos\Nque chegaram a um consenso Dialogue: 0,0:04:53.39,0:04:54.94,Default,,0000,0000,0000,,dos que não chegaram? Dialogue: 0,0:04:55.24,0:04:58.08,Default,,0000,0000,0000,,Normalmente, pessoas\Ncom opiniões extremadas Dialogue: 0,0:04:58.11,0:05:00.13,Default,,0000,0000,0000,,têm mais confiança nas suas respostas. Dialogue: 0,0:05:00.75,0:05:03.60,Default,,0000,0000,0000,,Pelo contrário, aqueles que dão\Nrespostas próximas do centro Dialogue: 0,0:05:03.60,0:05:06.97,Default,,0000,0000,0000,,têm frequentemente dúvidas\Nse alguma coisa está certa ou errada Dialogue: 0,0:05:07.01,0:05:09.49,Default,,0000,0000,0000,,e então os seus níveis de confiança\Nsão mais baixos. Dialogue: 0,0:05:09.53,0:05:12.45,Default,,0000,0000,0000,,Contudo, há um outro conjunto de pessoas Dialogue: 0,0:05:12.50,0:05:16.12,Default,,0000,0000,0000,,que têm muita confiança\Nao responder na zona central. Dialogue: 0,0:05:16.66,0:05:20.37,Default,,0000,0000,0000,,Achamos que estes "cinzentos" confiantes\Nsão pessoas que compreendem Dialogue: 0,0:05:20.40,0:05:22.33,Default,,0000,0000,0000,,que ambos os argumentos têm mérito. Dialogue: 0,0:05:22.53,0:05:25.23,Default,,0000,0000,0000,,Eles não são "cinzentos"\Npor não terem a certeza, Dialogue: 0,0:05:25.25,0:05:27.57,Default,,0000,0000,0000,,mas sim porque acreditam\Nque o dilema moral Dialogue: 0,0:05:27.62,0:05:30.28,Default,,0000,0000,0000,,enfrenta dois argumentos opostos válidos. Dialogue: 0,0:05:30.37,0:05:34.39,Default,,0000,0000,0000,,Descobrimos que os grupos\Nque incluem mais "cinzentos" confiantes Dialogue: 0,0:05:34.44,0:05:37.12,Default,,0000,0000,0000,,têm muito maior probabilidade\Nde chegar a um consenso. Dialogue: 0,0:05:37.14,0:05:39.46,Default,,0000,0000,0000,,Ainda não sabemos exatamente\Nporque é que assim é. Dialogue: 0,0:05:39.49,0:05:41.47,Default,,0000,0000,0000,,Estas foram só as primeiras experiências Dialogue: 0,0:05:41.52,0:05:44.63,Default,,0000,0000,0000,,e vão ser necessárias muitas mais\Npara compreender porquê e como Dialogue: 0,0:05:44.66,0:05:47.56,Default,,0000,0000,0000,,é que algumas pessoas decidem\Nnegociar as suas posições morais Dialogue: 0,0:05:47.60,0:05:49.08,Default,,0000,0000,0000,,para chegar a um acordo. Dialogue: 0,0:05:49.10,0:05:51.57,Default,,0000,0000,0000,,Agora, quando os grupos chegam\Na um consenso, Dialogue: 0,0:05:51.60,0:05:53.18,Default,,0000,0000,0000,,como é que o fazem? Dialogue: 0,0:05:53.21,0:05:55.79,Default,,0000,0000,0000,,A conclusão mais direta\Né que se trata de uma média\N Dialogue: 0,0:05:55.81,0:05:57.84,Default,,0000,0000,0000,,de todas as respostas no grupo, certo? Dialogue: 0,0:05:57.86,0:06:01.44,Default,,0000,0000,0000,,Outra opção é que o grupo\Ndetermina o peso de cada voto Dialogue: 0,0:06:01.46,0:06:04.02,Default,,0000,0000,0000,,com base na certeza\Nda pessoa que o expressa. Dialogue: 0,0:06:04.39,0:06:07.07,Default,,0000,0000,0000,,Imaginem que o Paul McCartney\Né um membro do vosso grupo. Dialogue: 0,0:06:07.35,0:06:09.46,Default,,0000,0000,0000,,Seria sensato\Naceitar a resposta dele Dialogue: 0,0:06:09.50,0:06:11.96,Default,,0000,0000,0000,,à questão do número de vezes\Nque se repete "yesterday", Dialogue: 0,0:06:12.04,0:06:14.66,Default,,0000,0000,0000,,que, já agora, acho que é nove. Dialogue: 0,0:06:14.72,0:06:17.09,Default,,0000,0000,0000,,Mas, em vez disso,\Nconstatámos repetidamente Dialogue: 0,0:06:17.09,0:06:19.59,Default,,0000,0000,0000,,que em todos os dilemas,\Nem experiências diferentes, Dialogue: 0,0:06:19.59,0:06:21.68,Default,,0000,0000,0000,,e até em continentes diferentes, Dialogue: 0,0:06:21.71,0:06:25.45,Default,,0000,0000,0000,,os grupos implementam um procedimento\Ninteligente, suportado pela estatística Dialogue: 0,0:06:25.47,0:06:27.65,Default,,0000,0000,0000,,conhecido como "média robusta". Dialogue: 0,0:06:27.68,0:06:29.40,Default,,0000,0000,0000,,No caso da altura da Torre Eiffel, Dialogue: 0,0:06:29.44,0:06:31.70,Default,,0000,0000,0000,,suponhamos que um grupo\Ndá estas respostas: Dialogue: 0,0:06:31.72,0:06:36.33,Default,,0000,0000,0000,,250 metros, 200 metros, 300 metros, 400 Dialogue: 0,0:06:36.36,0:06:40.14,Default,,0000,0000,0000,,e uma completamente absurda\Nde 300 milhões de metros. Dialogue: 0,0:06:40.55,0:06:44.84,Default,,0000,0000,0000,,Uma simples média destes números\Niria distorcer os resultados. Dialogue: 0,0:06:44.86,0:06:48.03,Default,,0000,0000,0000,,Mas a média robusta\Npraticamente ignora Dialogue: 0,0:06:48.06,0:06:49.39,Default,,0000,0000,0000,,a resposta absurda, Dialogue: 0,0:06:49.44,0:06:52.69,Default,,0000,0000,0000,,dando muito mais peso\Nao voto das pessoas no meio. Dialogue: 0,0:06:53.30,0:06:55.18,Default,,0000,0000,0000,,Voltando à experiência em Vancouver, Dialogue: 0,0:06:55.20,0:06:57.16,Default,,0000,0000,0000,,foi exatamente isso que aconteceu. Dialogue: 0,0:06:57.41,0:07:00.15,Default,,0000,0000,0000,,Os grupos deram muito menos\Nimportância aos extremos, Dialogue: 0,0:07:00.17,0:07:03.40,Default,,0000,0000,0000,,e em vez disso, o consenso\Nacabou por ser uma média robusta Dialogue: 0,0:07:03.42,0:07:04.96,Default,,0000,0000,0000,,das respostas individuais. Dialogue: 0,0:07:05.36,0:07:07.35,Default,,0000,0000,0000,,O mais impressionante Dialogue: 0,0:07:07.37,0:07:10.56,Default,,0000,0000,0000,,é que foi um comportamento\Nespontâneo do grupo. Dialogue: 0,0:07:10.58,0:07:15.06,Default,,0000,0000,0000,,Aconteceu sem que déssemos qualquer pista\Npara chegarem a um consenso. Dialogue: 0,0:07:15.47,0:07:17.29,Default,,0000,0000,0000,,Então para onde vamos a partir daqui? Dialogue: 0,0:07:17.43,0:07:20.57,Default,,0000,0000,0000,,Isto é só o princípio,\Nmas já temos algumas ideias. Dialogue: 0,0:07:20.98,0:07:23.90,Default,,0000,0000,0000,,Boas decisões coletivas\Nnecessitam de dois componentes: Dialogue: 0,0:07:23.92,0:07:26.67,Default,,0000,0000,0000,,deliberação e diversidade de opiniões. Dialogue: 0,0:07:27.07,0:07:31.06,Default,,0000,0000,0000,,Neste momento, em muitas sociedades\Na forma de nos fazermos ouvir Dialogue: 0,0:07:31.09,0:07:33.19,Default,,0000,0000,0000,,é o sufrágio direto ou indireto. Dialogue: 0,0:07:33.50,0:07:35.49,Default,,0000,0000,0000,,Isto é bom para a diversidade de opiniões, Dialogue: 0,0:07:35.52,0:07:37.96,Default,,0000,0000,0000,,e tem a grande virtude de assegurar Dialogue: 0,0:07:37.98,0:07:40.44,Default,,0000,0000,0000,,que todos podem expressar\Nas suas opiniões. Dialogue: 0,0:07:40.46,0:07:44.20,Default,,0000,0000,0000,,Mas não é muito bom para\Npromover debates aprofundados. Dialogue: 0,0:07:44.66,0:07:47.73,Default,,0000,0000,0000,,As nossas experiências sugerem\Num método diferente Dialogue: 0,0:07:47.76,0:07:51.30,Default,,0000,0000,0000,,que poderá ser eficaz no equilíbrio\Ndestes dois objetivos, Dialogue: 0,0:07:51.32,0:07:55.08,Default,,0000,0000,0000,,ao formar pequenos grupos\Nque convergem para uma única decisão Dialogue: 0,0:07:55.10,0:07:57.33,Default,,0000,0000,0000,,preservando ainda\Na diversidade de opiniões Dialogue: 0,0:07:57.36,0:08:00.34,Default,,0000,0000,0000,,uma vez que há\Nvários grupos independentes. Dialogue: 0,0:08:00.74,0:08:04.66,Default,,0000,0000,0000,,Claro, é muito mais fácil chegar\Na um acordo quanto à altura da Torre Eiffel Dialogue: 0,0:08:04.69,0:08:08.07,Default,,0000,0000,0000,,do que quanto a assuntos\Nmorais, políticos e ideológicos. Dialogue: 0,0:08:08.72,0:08:11.100,Default,,0000,0000,0000,,Mas numa era em que\Nos problemas do mundo são mais complexos Dialogue: 0,0:08:12.02,0:08:13.82,Default,,0000,0000,0000,,e as pessoas estão mais polarizadas, Dialogue: 0,0:08:13.85,0:08:16.33,Default,,0000,0000,0000,,esperamos que usar a ciência\Npara nos ajudar a entender Dialogue: 0,0:08:16.38,0:08:18.65,Default,,0000,0000,0000,,como interagimos e tomamos decisões Dialogue: 0,0:08:18.67,0:08:22.93,Default,,0000,0000,0000,,vá dar origem a alternativas interessantes\Npara construirmos uma melhor democracia.