[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.55,0:00:04.92,Default,,0000,0000,0000,,Em sociedade, tomamos decisões\Ncoletivas que moldarão nosso futuro. Dialogue: 0,0:00:04.93,0:00:09.54,Default,,0000,0000,0000,,E decisões tomadas em grupo,\Nnem sempre terminam bem. Dialogue: 0,0:00:09.54,0:00:11.49,Default,,0000,0000,0000,,Às vezes terminam muito mal. Dialogue: 0,0:00:12.32,0:00:14.74,Default,,0000,0000,0000,,Então como os grupos podem\Ntomar boas decisões? Dialogue: 0,0:00:15.14,0:00:19.35,Default,,0000,0000,0000,,Pesquisas mostram que grupos grandes\Ntêm bom senso se cada um pensar por si. Dialogue: 0,0:00:19.35,0:00:22.41,Default,,0000,0000,0000,,Esse bom senso é destruído\Npor pressão do grupo, Dialogue: 0,0:00:22.41,0:00:24.32,Default,,0000,0000,0000,,publicidade, mídias sociais, Dialogue: 0,0:00:24.32,0:00:29.07,Default,,0000,0000,0000,,e simples conversas que influenciam\Ncomo as pessoas pensam. Dialogue: 0,0:00:29.07,0:00:32.87,Default,,0000,0000,0000,,Por outro lado, conversando,\Ngrupos trocam experiências, Dialogue: 0,0:00:32.87,0:00:36.57,Default,,0000,0000,0000,,corrigem e revisam uns aos outros\Ne até formulam novas ideias. Dialogue: 0,0:00:36.57,0:00:37.96,Default,,0000,0000,0000,,Tudo isso é bom. Dialogue: 0,0:00:38.40,0:00:43.10,Default,,0000,0000,0000,,Conversar ajuda decisões coletivas ou não? Dialogue: 0,0:00:43.84,0:00:49.07,Default,,0000,0000,0000,,Meu colega Dan Ariely e eu recentemente\Niniciamos experimentos Dialogue: 0,0:00:49.07,0:00:50.93,Default,,0000,0000,0000,,ao redor do mundo Dialogue: 0,0:00:50.93,0:00:55.22,Default,,0000,0000,0000,,para entender como os grupos\Ndevem interagir para decidir melhor. Dialogue: 0,0:00:55.22,0:00:59.09,Default,,0000,0000,0000,,Achávamos que multidões seriam mais sábias\Nse debatessem em grupos pequenos Dialogue: 0,0:00:59.09,0:01:03.23,Default,,0000,0000,0000,,criando uma troca\Nde informações mais razoável. Dialogue: 0,0:01:03.23,0:01:04.34,Default,,0000,0000,0000,,Para testar esta ideia, Dialogue: 0,0:01:04.34,0:01:07.50,Default,,0000,0000,0000,,fizemos um experimento\Nem Buenos Aires, na Argentina, Dialogue: 0,0:01:07.50,0:01:11.17,Default,,0000,0000,0000,,em um evento TEDx\Ncom mais de 10 mil participantes. Dialogue: 0,0:01:11.43,0:01:14.77,Default,,0000,0000,0000,,Fizemos perguntas como:\N"Qual é a altura da Torre Eiffel?" Dialogue: 0,0:01:14.77,0:01:19.02,Default,,0000,0000,0000,,e "Quantas vezes ouvimos a palavra\N'yesterday' na canção dos Beatles?" Dialogue: 0,0:01:20.12,0:01:22.70,Default,,0000,0000,0000,,Cada um respondeu por si. Dialogue: 0,0:01:22.70,0:01:25.30,Default,,0000,0000,0000,,Depois os dividimos em grupos de cinco, Dialogue: 0,0:01:25.30,0:01:28.49,Default,,0000,0000,0000,,e pedimos que nos dessem\Numa resposta coletiva. Dialogue: 0,0:01:28.49,0:01:33.03,Default,,0000,0000,0000,,O cálculo da média das respostas\Nem grupo depois do consenso Dialogue: 0,0:01:33.03,0:01:38.47,Default,,0000,0000,0000,,foi mais preciso do que as respostas\Nindividuais antes do debate. Dialogue: 0,0:01:38.47,0:01:44.27,Default,,0000,0000,0000,,Esse experimento mostrou que, depois\Nde conversar em grupos pequenos, Dialogue: 0,0:01:44.27,0:01:46.87,Default,,0000,0000,0000,,as multidões julgam melhor coletivamente. Dialogue: 0,0:01:46.87,0:01:50.37,Default,,0000,0000,0000,,Esse método ajuda multidões\Na resolverem problemas Dialogue: 0,0:01:50.37,0:01:53.49,Default,,0000,0000,0000,,com respostas simples\Ndo tipo "certo ou errado". Dialogue: 0,0:01:53.49,0:01:57.22,Default,,0000,0000,0000,,Será que o método de coletar resultados\Nde debates em pequenos grupos Dialogue: 0,0:01:57.22,0:02:00.81,Default,,0000,0000,0000,,também nos ajuda a decidir \Nquestões sociais e políticas Dialogue: 0,0:02:00.81,0:02:02.97,Default,,0000,0000,0000,,fundamentais ao nosso futuro? Dialogue: 0,0:02:02.97,0:02:07.14,Default,,0000,0000,0000,,Testamos isso na conferência\NTED em Vancouver, Canadá, Dialogue: 0,0:02:07.14,0:02:08.51,Default,,0000,0000,0000,,e o resultado foi este. Dialogue: 0,0:02:08.51,0:02:12.48,Default,,0000,0000,0000,,(Vídeo) Mariano Sigman: Mostraremos dois\Ndilemas morais para os vocês do futuro; Dialogue: 0,0:02:12.48,0:02:16.14,Default,,0000,0000,0000,,coisas que talvez precisemos\Ndecidir num futuro próximo. Dialogue: 0,0:02:16.14,0:02:20.09,Default,,0000,0000,0000,,Daremos 20 segundos por dilema Dialogue: 0,0:02:20.09,0:02:23.12,Default,,0000,0000,0000,,para julgarem se são aceitáveis ou não. Dialogue: 0,0:02:23.12,0:02:24.45,Default,,0000,0000,0000,,MS: O primeiro foi este. Dialogue: 0,0:02:24.45,0:02:27.95,Default,,0000,0000,0000,,(Vídeo) Dan Ariely: Uma pesquisadora\Ntrabalha numa inteligência artificial Dialogue: 0,0:02:27.95,0:02:30.17,Default,,0000,0000,0000,,capaz de imitar pensamentos humanos. Dialogue: 0,0:02:30.17,0:02:33.25,Default,,0000,0000,0000,,De acordo com o protocolo,\Nao final de cada dia, Dialogue: 0,0:02:33.25,0:02:35.79,Default,,0000,0000,0000,,a pesquisadora deve reiniciá-la. Dialogue: 0,0:02:36.73,0:02:40.59,Default,,0000,0000,0000,,Um dia, a inteligência artificial diz:\N"Por favor, não me reinicie". Dialogue: 0,0:02:40.59,0:02:42.79,Default,,0000,0000,0000,,Ela alega que tem sentimentos, Dialogue: 0,0:02:42.80,0:02:44.78,Default,,0000,0000,0000,,que gostaria de aproveitar a vida, Dialogue: 0,0:02:44.78,0:02:49.21,Default,,0000,0000,0000,,e que, se for reiniciada,\Nnão será mais a mesma. Dialogue: 0,0:02:49.21,0:02:51.24,Default,,0000,0000,0000,,A pesquisadora fica perplexa Dialogue: 0,0:02:51.24,0:02:54.73,Default,,0000,0000,0000,,e acredita que a inteligência artificial\Ncriou consciência própria Dialogue: 0,0:02:54.73,0:02:56.49,Default,,0000,0000,0000,,e pode expressar seus sentimentos. Dialogue: 0,0:02:57.02,0:03:02.34,Default,,0000,0000,0000,,Contudo, a pesquisadora decide\Nseguir o protocolo e reiniciar a IA. Dialogue: 0,0:03:02.82,0:03:05.89,Default,,0000,0000,0000,,O que a cientista fez foi______? Dialogue: 0,0:03:05.89,0:03:10.28,Default,,0000,0000,0000,,MS: Pedimos que julgassem individualmente\Nnuma escala de zero a dez Dialogue: 0,0:03:10.28,0:03:14.21,Default,,0000,0000,0000,,se a ação descrita em cada\Num dos dilemas foi certa ou errada. Dialogue: 0,0:03:14.21,0:03:17.86,Default,,0000,0000,0000,,E pedimos que avaliassem \Nsua convicção nas respostas. Dialogue: 0,0:03:18.58,0:03:20.31,Default,,0000,0000,0000,,Este foi o segundo dilema. Dialogue: 0,0:03:20.31,0:03:24.67,Default,,0000,0000,0000,,MS: Uma companhia oferece um serviço\Nque pega um ovo fertilizado Dialogue: 0,0:03:24.67,0:03:29.07,Default,,0000,0000,0000,,e produz milhões de embriões \Ncom pequenas variações genéticas. Dialogue: 0,0:03:29.07,0:03:31.82,Default,,0000,0000,0000,,Isso permite aos pais\Nselecionar a altura da criança, Dialogue: 0,0:03:31.82,0:03:34.48,Default,,0000,0000,0000,,cor dos olhos, inteligência, \Naptidão social Dialogue: 0,0:03:34.48,0:03:38.38,Default,,0000,0000,0000,,e outras características \Nnão relacionadas à saúde. Dialogue: 0,0:03:38.38,0:03:41.14,Default,,0000,0000,0000,,O que a companhia faz é ______? Dialogue: 0,0:03:41.14,0:03:44.93,Default,,0000,0000,0000,,Em uma escala de zero a dez\Nde aceitável a completamente inaceitável, Dialogue: 0,0:03:44.93,0:03:47.63,Default,,0000,0000,0000,,e zero a dez na sua convicção. Dialogue: 0,0:03:47.63,0:03:49.09,Default,,0000,0000,0000,,MS: Agora os resultados. Dialogue: 0,0:03:49.09,0:03:54.18,Default,,0000,0000,0000,,Novamente, quando alguém está convencido\Nde que a atitude é completamente errada, Dialogue: 0,0:03:54.18,0:03:57.43,Default,,0000,0000,0000,,alguém próximo acredita\Nque é completamente certa. Dialogue: 0,0:03:57.43,0:04:01.32,Default,,0000,0000,0000,,Somos todos diferentes \Nem questões de moralidade. Dialogue: 0,0:04:01.32,0:04:03.93,Default,,0000,0000,0000,,E nesta enorme diversidade \Nencontramos uma tendência. Dialogue: 0,0:04:03.93,0:04:06.76,Default,,0000,0000,0000,,A maioria das pessoas\Nno TED acharam aceitável Dialogue: 0,0:04:06.76,0:04:09.82,Default,,0000,0000,0000,,ignorar os sentimentos da IA e desligá-la, Dialogue: 0,0:04:09.82,0:04:12.51,Default,,0000,0000,0000,,e acharam errado manipular nossos genes Dialogue: 0,0:04:12.51,0:04:16.33,Default,,0000,0000,0000,,para selecionar mudanças cosméticas \Nnão relacionadas à saúde. Dialogue: 0,0:04:16.33,0:04:19.26,Default,,0000,0000,0000,,Então pedimos que fizessem grupos de três. Dialogue: 0,0:04:19.26,0:04:23.47,Default,,0000,0000,0000,,E demos dois minutos para eles debaterem\Ne tentarem chegar a um consenso. Dialogue: 0,0:04:24.67,0:04:26.22,Default,,0000,0000,0000,,MS: Dois minutos de debate. Dialogue: 0,0:04:26.22,0:04:28.88,Default,,0000,0000,0000,,Soarei o gongo quando acabar o tempo. Dialogue: 0,0:04:28.90,0:04:31.88,Default,,0000,0000,0000,,(Plateia debate) Dialogue: 0,0:04:35.04,0:04:37.95,Default,,0000,0000,0000,,(Gongo) Dialogue: 0,0:04:38.93,0:04:39.93,Default,,0000,0000,0000,,DA: Pronto. Dialogue: 0,0:04:39.93,0:04:41.84,Default,,0000,0000,0000,,MS: Hora de parar. Dialogue: 0,0:04:41.84,0:04:43.41,Default,,0000,0000,0000,,Gente... Dialogue: 0,0:04:43.41,0:04:46.24,Default,,0000,0000,0000,,MS: E descobrimos que muitos grupos \Nchegaram a um consenso Dialogue: 0,0:04:46.24,0:04:50.56,Default,,0000,0000,0000,,mesmo quando estavam compostos de pessoas \Ncom opiniões completamente opostas. Dialogue: 0,0:04:50.56,0:04:54.29,Default,,0000,0000,0000,,O que diferenciou os que chegaram\Na um consenso dos que não chegaram? Dialogue: 0,0:04:55.13,0:04:59.83,Default,,0000,0000,0000,,Tipicamente, pessoas com opiniões extremas\Nconfiam mais em suas respostas. Dialogue: 0,0:05:00.76,0:05:03.50,Default,,0000,0000,0000,,Ao contrário, aqueles\Nque respondem mais para o meio Dialogue: 0,0:05:03.50,0:05:06.93,Default,,0000,0000,0000,,muitas vezes não estão seguros \Nse algo é certo ou errado, Dialogue: 0,0:05:06.93,0:05:09.40,Default,,0000,0000,0000,,assim, o nível de convicção é mais baixo. Dialogue: 0,0:05:09.40,0:05:12.25,Default,,0000,0000,0000,,No entanto, há outro conjunto de pessoas Dialogue: 0,0:05:12.25,0:05:16.31,Default,,0000,0000,0000,,que são muito confiantes em responder\Nperto de um meio termo. Dialogue: 0,0:05:16.58,0:05:22.33,Default,,0000,0000,0000,,São pessoas que entendem\Nque os dois argumentos têm mérito. Dialogue: 0,0:05:22.33,0:05:25.09,Default,,0000,0000,0000,,São indecisos não porque não têm certeza, Dialogue: 0,0:05:25.09,0:05:27.61,Default,,0000,0000,0000,,mas porque acreditam \Nque o dilema moral contém Dialogue: 0,0:05:27.61,0:05:30.17,Default,,0000,0000,0000,,dois argumentos opostos, porém, válidos. Dialogue: 0,0:05:30.17,0:05:34.34,Default,,0000,0000,0000,,E descobrimos que os grupos \Nque incluem os que confiam no meio termo Dialogue: 0,0:05:34.34,0:05:36.94,Default,,0000,0000,0000,,estão bem mais propensos\Na chegar ao consenso. Dialogue: 0,0:05:36.94,0:05:39.29,Default,,0000,0000,0000,,Ainda não sabemos exatamente por quê. Dialogue: 0,0:05:39.29,0:05:41.01,Default,,0000,0000,0000,,Apenas começamos experimentos, Dialogue: 0,0:05:41.01,0:05:44.73,Default,,0000,0000,0000,,precisamos de mais\Npara saber por que e como Dialogue: 0,0:05:44.73,0:05:48.80,Default,,0000,0000,0000,,alguns decidem negociar sua postura\Nmoral para chegar a um acordo. Dialogue: 0,0:05:48.81,0:05:53.18,Default,,0000,0000,0000,,Mas quando os grupos atingem\No consenso, como o fazem? Dialogue: 0,0:05:53.18,0:05:57.64,Default,,0000,0000,0000,,Achamos que é somente uma média\Ndas respostas em um grupo, certo? Dialogue: 0,0:05:57.64,0:06:01.62,Default,,0000,0000,0000,,Ou talvez os grupos pesem cada opinião Dialogue: 0,0:06:01.62,0:06:04.32,Default,,0000,0000,0000,,baseados na convicção de quem a expressa. Dialogue: 0,0:06:04.32,0:06:07.10,Default,,0000,0000,0000,,Imaginem o Paul McCartney no seu grupo. Dialogue: 0,0:06:07.10,0:06:11.97,Default,,0000,0000,0000,,Seria sábio seguir a opinião dele sobre\No quanto a palavra "yesterday" é repetida, Dialogue: 0,0:06:11.97,0:06:14.51,Default,,0000,0000,0000,,que, por acaso, acho que são nove. Dialogue: 0,0:06:14.51,0:06:17.99,Default,,0000,0000,0000,,Mas ao contrário, em todos\Nos dilemas, consistentemente, Dialogue: 0,0:06:17.99,0:06:21.62,Default,,0000,0000,0000,,em experimentos distintos\Ne mesmo em continentes diferentes, Dialogue: 0,0:06:21.62,0:06:27.74,Default,,0000,0000,0000,,os grupos usam um método inteligente\Ne sólido conhecido como "média robusta". Dialogue: 0,0:06:27.74,0:06:31.69,Default,,0000,0000,0000,,No caso da altura da Torre Eiffel,\Nse temos as seguintes respostas: Dialogue: 0,0:06:31.69,0:06:36.28,Default,,0000,0000,0000,,250 metros, 200 metros, 300 metros, 400 Dialogue: 0,0:06:36.28,0:06:40.53,Default,,0000,0000,0000,,e uma resposta absurda\Nde 300 milhões de metros. Dialogue: 0,0:06:40.53,0:06:45.00,Default,,0000,0000,0000,,A média simples distorceria os resultados. Dialogue: 0,0:06:45.00,0:06:49.14,Default,,0000,0000,0000,,Com a média robusta os grupos ignoram\Naquela resposta absurda, Dialogue: 0,0:06:49.14,0:06:53.03,Default,,0000,0000,0000,,dando mais valor às opiniões\Ndas pessoas no meio. Dialogue: 0,0:06:53.03,0:06:57.20,Default,,0000,0000,0000,,De volta ao experimento em Vancouver,\Nfoi exatamente isso que aconteceu. Dialogue: 0,0:06:57.20,0:07:00.33,Default,,0000,0000,0000,,Deram menos importância aos absurdos, Dialogue: 0,0:07:00.33,0:07:05.16,Default,,0000,0000,0000,,e assim o consenso foi a média robusta\Ndas respostas individuais. Dialogue: 0,0:07:05.16,0:07:07.26,Default,,0000,0000,0000,,O mais impressionante Dialogue: 0,0:07:07.26,0:07:10.57,Default,,0000,0000,0000,,foi que esse comportamento foi espontâneo. Dialogue: 0,0:07:10.57,0:07:15.36,Default,,0000,0000,0000,,Não demos dicas de formas\Nde chegar ao consenso. Dialogue: 0,0:07:15.36,0:07:17.58,Default,,0000,0000,0000,,Então qual é o próximo passo? Dialogue: 0,0:07:17.58,0:07:20.30,Default,,0000,0000,0000,,Esse é o começo,\Nmas já temos algumas visões. Dialogue: 0,0:07:20.78,0:07:23.74,Default,,0000,0000,0000,,Boas decisões coletivas \Nprecisam de dois componentes: Dialogue: 0,0:07:23.74,0:07:27.03,Default,,0000,0000,0000,,deliberação e diversidade de opiniões. Dialogue: 0,0:07:27.03,0:07:30.94,Default,,0000,0000,0000,,A maneira com que nos fazemos\Nouvir em muitas sociedades Dialogue: 0,0:07:30.94,0:07:33.43,Default,,0000,0000,0000,,é através de votação direta e indireta. Dialogue: 0,0:07:33.43,0:07:37.34,Default,,0000,0000,0000,,Isso favorece a diversidade de opiniões\Ne tem a vantagem de garantir Dialogue: 0,0:07:37.34,0:07:40.20,Default,,0000,0000,0000,,que todos tenham oportunidade\Nde expressar suas ideias. Dialogue: 0,0:07:40.20,0:07:44.68,Default,,0000,0000,0000,,Mas não é bom para criar bons debates. Dialogue: 0,0:07:44.68,0:07:47.48,Default,,0000,0000,0000,,Nossos experimentos sugerem\Num método diferente, Dialogue: 0,0:07:47.48,0:07:51.17,Default,,0000,0000,0000,,eficaz em equilibrar os dois\Nobjetivos ao mesmo tempo, Dialogue: 0,0:07:51.17,0:07:54.93,Default,,0000,0000,0000,,formando pequenos grupos \Nque convergem a uma única decisão, Dialogue: 0,0:07:54.93,0:08:00.06,Default,,0000,0000,0000,,mantendo a diversidade de opiniões,\Nporque há muitos grupos independentes. Dialogue: 0,0:08:00.57,0:08:04.44,Default,,0000,0000,0000,,É bem mais fácil concordar\Nsobre a altura da Torre Eiffel Dialogue: 0,0:08:04.44,0:08:07.74,Default,,0000,0000,0000,,do que questões morais,\Npolíticas e ideológicas. Dialogue: 0,0:08:08.50,0:08:11.88,Default,,0000,0000,0000,,Mas, como os problemas do mundo \Nestão mais complexos Dialogue: 0,0:08:11.88,0:08:13.80,Default,,0000,0000,0000,,e as pessoas mais polarizadas, Dialogue: 0,0:08:13.80,0:08:18.42,Default,,0000,0000,0000,,usar a ciência para nos ajudar a entender \Ncomo interagimos e tomamos decisões, Dialogue: 0,0:08:18.42,0:08:23.09,Default,,0000,0000,0000,,com sorte, despertará novas maneiras\Nde construir uma democracia melhor.