1 00:00:01,312 --> 00:00:04,225 Provavelmente, têm a sensação, como a maioria das pessoas, 2 00:00:04,287 --> 00:00:07,696 que a polarização está a ficar pior no nosso país; 3 00:00:07,748 --> 00:00:11,271 que a divisão entre a esquerda e a direita 4 00:00:11,323 --> 00:00:14,783 está tão má como nunca esteve durante a nossa vida. 5 00:00:14,893 --> 00:00:20,268 Mas também poderão questionar-se se a investigação apoia a vossa intuição. 6 00:00:20,560 --> 00:00:25,196 E, em suma, a resposta é sim, infelizmente. 7 00:00:25,281 --> 00:00:26,920 (Risos) 8 00:00:27,205 --> 00:00:29,297 Estudo após estudo, descobrimos 9 00:00:29,331 --> 00:00:33,940 que liberais e conservadores separaram-se ainda mais. 10 00:00:33,440 --> 00:00:38,387 Isolam-se a si mesmos, cada vez mais, nos seus asilos ideológicos, 11 00:00:38,468 --> 00:00:42,594 consumindo diferentes notícias, falando só com pessoas que pensem igual, 12 00:00:42,647 --> 00:00:46,292 e escolhendo viver em partes diferentes do país. 13 00:00:47,158 --> 00:00:50,221 E eu penso que o mais alarmante disto tudo, 14 00:00:50,264 --> 00:00:54,420 é observar esta animosidade crescente em ambos os lados. 15 00:00:54,506 --> 00:00:56,343 Liberais e conservadores, 16 00:00:56,386 --> 00:00:58,349 Democratas e Republicanos, 17 00:00:58,392 --> 00:01:01,713 cada vez gostam menos uns dos outros. 18 00:01:02,320 --> 00:01:04,612 É possível observar isto de várias maneiras. 19 00:01:04,674 --> 00:01:07,489 Não querem ser amigos, Não querem namorar uns com os outros. 20 00:01:07,537 --> 00:01:11,250 Se o fizerem, e se o descobrirem, julgarão o seu parceiro menos atraente. 21 00:01:11,760 --> 00:01:14,435 Cada vez mais, não querem que os seus filhos se casem 22 00:01:14,473 --> 00:01:16,624 com alguém que apoie o partido oposto 23 00:01:16,653 --> 00:01:18,887 — uma estatística particularmente chocante. 24 00:01:20,382 --> 00:01:22,866 No meu laboratório, os estudantes com quem trabalho, 25 00:01:22,904 --> 00:01:25,920 falamos sobre uma espécie de padrão social: 26 00:01:26,148 --> 00:01:29,667 Eu sou um viciado em filmes, portanto, penso frequentemente: 27 00:01:29,834 --> 00:01:33,790 "Que tipo de filme é este em que existe este padrão? 28 00:01:33,203 --> 00:01:36,836 "Que tipo de filme é este com esta polarização política?" 29 00:01:38,518 --> 00:01:40,580 Podia ser um filme de catástrofe. 30 00:01:40,880 --> 00:01:42,874 Certamente, parece ser uma catástrofe. 31 00:01:43,500 --> 00:01:45,453 Podia ser um filme de guerra. 32 00:01:45,640 --> 00:01:47,249 Também serve. 33 00:01:47,480 --> 00:01:51,296 Mas o que eu continuo a pensar é que estamos num filme de apocalipse zombie. 34 00:01:51,386 --> 00:01:52,776 (Risos) 35 00:01:52,914 --> 00:01:55,381 Não é? Vocês conhecem o tipo. 36 00:01:55,481 --> 00:01:57,831 Há pessoas que vagueiam em matilhas, 37 00:01:57,874 --> 00:01:59,754 que não pensam por si mesmas, 38 00:01:59,788 --> 00:02:01,852 conquistados por este pensamento de grupo 39 00:02:01,866 --> 00:02:04,935 tentando espalhar a sua doença e destruir a sociedade. 40 00:02:05,480 --> 00:02:08,440 Vocês, provavelmente, pensam como eu, 41 00:02:08,503 --> 00:02:11,260 que vocês são o herói neste filme de apocalipse de zombies 42 00:02:11,320 --> 00:02:15,206 e que todo este ódio e polarização estão a ser propagados pelos outros, 43 00:02:15,268 --> 00:02:17,510 porque nós somos o Brad Pitt, certo? 44 00:02:18,170 --> 00:02:20,808 Livres pensadores, justos, 45 00:02:20,899 --> 00:02:23,404 a tentar agarrarmo-nos ao que mais amamos, 46 00:02:23,457 --> 00:02:26,576 não somos soldados-rasos no exército dos mortos-vivos. 47 00:02:26,781 --> 00:02:28,800 Isso não. 48 00:02:28,251 --> 00:02:29,527 Isso nunca. 49 00:02:30,080 --> 00:02:31,785 Mas eis o que se passa: 50 00:02:31,866 --> 00:02:34,786 em que filme julgam que eles pensam estar? 51 00:02:35,480 --> 00:02:36,696 Certo? 52 00:02:36,720 --> 00:02:38,785 Eles pensam convictamente que são os heróis 53 00:02:38,833 --> 00:02:41,136 neste filme apocalíptico. Certo? 54 00:02:41,226 --> 00:02:43,900 Podem ter certeza que eles pensam que são o Brad Pitt 55 00:02:43,928 --> 00:02:46,882 e que nós, nós é que somos os zombies. 56 00:02:49,120 --> 00:02:52,240 E quem somos nós para dizer que eles estão errados? 57 00:02:52,659 --> 00:02:55,712 Eu penso que a verdade é que fazemos todos parte disto. 58 00:02:56,240 --> 00:02:59,510 E o lado bom nisso é que também podemos fazer parte da solução. 59 00:03:00,280 --> 00:03:02,632 Então o que é que vamos fazer? 60 00:03:03,320 --> 00:03:07,537 O que é que podemos fazer para afastar a polarização do nosso quotidiano? 61 00:03:07,657 --> 00:03:10,634 O que é que podemos fazer para estabelecer uma ligação 62 00:03:10,668 --> 00:03:13,560 e comunicarmos com os nossos oponentes políticos? 63 00:03:13,720 --> 00:03:17,856 Foi exatamente com estas questões que eu e o meu colega, Matt Feinberg, 64 00:03:17,880 --> 00:03:20,148 ficámos fascinados, aqui há uns anos, 65 00:03:20,186 --> 00:03:23,076 e começámos a investigar o tema. 66 00:03:24,044 --> 00:03:26,219 Uma das primeiras coisas que descobrimos, 67 00:03:26,300 --> 00:03:29,452 que eu penso ser realmente útil para compreender a polarização, 68 00:03:29,523 --> 00:03:32,056 é perceber que a divisão política no nosso país 69 00:03:32,113 --> 00:03:35,353 é subjacente a uma divisão moral mais profunda. 70 00:03:35,972 --> 00:03:39,896 Uma das descobertas mais robustas na história da psicologia política 71 00:03:39,991 --> 00:03:44,637 foi o padrão identificado pelos psicólogos Jon Haidt e Jesse Graham, 72 00:03:44,840 --> 00:03:48,856 de que liberais e conservadores tendem a apoiar diferentes valores 73 00:03:48,946 --> 00:03:50,660 em diferentes graus. 74 00:03:50,914 --> 00:03:56,096 Por exemplo, vemos que os liberais tendem a apoiar valores como a igualdade, 75 00:03:56,186 --> 00:04:00,230 a justiça e o cuidado e a proteção contra danos, 76 00:04:00,273 --> 00:04:02,193 mais do que os conservadores. 77 00:04:02,255 --> 00:04:07,358 E os conservadores tendem a apoiar valores como a lealdade, o patriotismo, 78 00:04:07,449 --> 00:04:10,848 o respeito pela autoridade e a pureza moral, 79 00:04:10,920 --> 00:04:13,327 mais do que os liberais. 80 00:04:15,167 --> 00:04:18,118 Matt e eu pensámos que talvez esta divisão moral 81 00:04:18,161 --> 00:04:20,324 fosse útil para percebermos 82 00:04:20,339 --> 00:04:23,338 como é que liberais e conservadores comunicam uns com os outros 83 00:04:23,385 --> 00:04:27,078 e porque é que, amiúde, parecem não dar ouvidos uns aos outros. 84 00:04:27,306 --> 00:04:29,482 Portanto, realizámos um estudo 85 00:04:29,535 --> 00:04:32,545 em que convidámos liberais para um estudo 86 00:04:32,626 --> 00:04:34,816 em que escreveriam uma dissertação persuasiva 87 00:04:34,887 --> 00:04:39,517 que fosse convincente para um conservador em apoio do casamento homossexual. 88 00:04:39,800 --> 00:04:43,141 Descobrimos que os liberais tendem a fazer argumentos 89 00:04:43,213 --> 00:04:47,256 em termos dos valores morais liberais de igualdade e justiça. 90 00:04:47,470 --> 00:04:49,130 Portanto, afirmavam coisas como: 91 00:04:49,249 --> 00:04:52,606 "Todos devem ter o direito de amar quem queiram amar," 92 00:04:52,678 --> 00:04:55,358 e "Eles" — sendo 'eles' os americanos homossexuais — 93 00:04:55,411 --> 00:04:58,323 "merecem os mesmos direitos que os outros americanos." 94 00:04:58,474 --> 00:05:01,690 No total, descobrimos que 69% dos liberais 95 00:05:01,762 --> 00:05:07,225 utilizaram um valor moral mais liberal na redação da sua dissertação, 96 00:05:07,287 --> 00:05:10,840 e só 9% utilizaram um dos valores morais mais conservadores, 97 00:05:10,912 --> 00:05:14,137 apesar de o seu objetivo ter sido tentar persuadir os conservadores. 98 00:05:14,561 --> 00:05:18,791 Quando estudámos os conservadores e os mandamos escrever argumentos convincentes 99 00:05:18,862 --> 00:05:21,720 em apoio de tornar o inglês a língua oficial dos EUA, 100 00:05:21,763 --> 00:05:24,223 uma posição política tradicionalmente conservadora, 101 00:05:24,276 --> 00:05:26,444 descobrimos que eles não eram muito melhores. 102 00:05:26,516 --> 00:05:28,170 59% fizeram argumentos 103 00:05:28,203 --> 00:05:30,737 em torno de um dos valores morais mais conservadores, 104 00:05:30,790 --> 00:05:33,438 e só 8% invocaram um valor moral liberal, 105 00:05:33,453 --> 00:05:36,480 apesar de ser suposto persuadirem os liberais. 106 00:05:37,480 --> 00:05:41,377 Assim, é fácil perceber porque é que estamos em apuros. 107 00:05:42,537 --> 00:05:45,976 Os valores morais das pessoas são as suas crenças mais profundas. 108 00:05:46,150 --> 00:05:49,266 As pessoas estão dispostas a lutar e a morrer pelos seus valores. 109 00:05:49,720 --> 00:05:52,568 Porque é que abdicariam disso só para concordarem com alguém 110 00:05:52,601 --> 00:05:55,366 em algo que eles nem sequer desejam concordar? 111 00:05:56,000 --> 00:05:58,998 Se aquele apelo persuasivo que fazem ao vosso tio republicano 112 00:05:59,029 --> 00:06:01,696 significa que ele não só tem que mudar a sua visão, 113 00:06:01,720 --> 00:06:04,152 mas também tem de mudar os seu valores subjacentes, 114 00:06:04,209 --> 00:06:05,908 isso não vai muito longe. 115 00:06:06,080 --> 00:06:08,000 Então, o que funcionaria melhor? 116 00:06:08,495 --> 00:06:12,496 Bem, acreditamos que é uma técnica a que chamamos "reformulação moral", 117 00:06:12,539 --> 00:06:15,136 e estudamos isso numa série de experiências. 118 00:06:15,398 --> 00:06:17,397 Numa dessas experiências, 119 00:06:17,423 --> 00:06:19,987 recrutámos liberais e conservadores para um estudo 120 00:06:20,210 --> 00:06:22,412 em que eles leram uma de três redações 121 00:06:22,455 --> 00:06:25,600 antes de serem avaliadas as suas atitudes ambientais. 122 00:06:25,640 --> 00:06:27,450 A primeira dessas redações 123 00:06:27,493 --> 00:06:30,783 era um ensaio pró-ambiental relativamente convencional 124 00:06:30,855 --> 00:06:34,576 que invocava valores liberais de cuidado e proteção contra danos. 125 00:06:34,800 --> 00:06:37,412 Dizia coisas como: "De muitas maneiras importantes, 126 00:06:37,445 --> 00:06:40,185 "provocamos reais danos nos lugares em que vivemos," 127 00:06:40,238 --> 00:06:43,216 e "É essencial que tomemos atitudes agora 128 00:06:43,268 --> 00:06:46,320 "para evitar mais destruição na nossa terra." 129 00:06:47,120 --> 00:06:48,574 Outro grupo de participantes 130 00:06:48,636 --> 00:06:50,976 foi escolhido para ler um ensaio bem diferente 131 00:06:51,280 --> 00:06:55,673 concebido para seguir o valor de pureza moral dos conservadores. 132 00:06:56,190 --> 00:06:58,176 Também era uma redação pró-ambiental, 133 00:06:58,200 --> 00:06:59,734 e dizia coisas como: 134 00:06:59,900 --> 00:07:04,517 "É importante manter a pureza das nossas florestas, da água e do céu". 135 00:07:05,000 --> 00:07:08,429 "Devíamos considerar nojenta a poluição dos lugares em que vivemos." 136 00:07:09,160 --> 00:07:11,598 "A redução da poluição pode ajudar-nos a preservar 137 00:07:11,632 --> 00:07:14,962 "o que é puro e bonito nos lugares em que vivemos." 138 00:07:15,880 --> 00:07:17,400 Tínhamos um terceiro grupo 139 00:07:17,453 --> 00:07:19,462 escolhido para ler um ensaio não político. 140 00:07:19,510 --> 00:07:22,190 Era um grupo de comparação para podermos ter uma base. 141 00:07:22,304 --> 00:07:24,648 Depois, quando avaliámos as pessoas 142 00:07:24,700 --> 00:07:26,480 sobre as suas atitudes ambientais, 143 00:07:26,518 --> 00:07:29,736 descobrimos que os liberais, independentemente da redação que liam, 144 00:07:29,760 --> 00:07:32,475 tendiam a ter atitudes altamente pró-ambientais. 145 00:07:32,518 --> 00:07:34,860 Os liberais concordam com a proteção ambiental. 146 00:07:34,927 --> 00:07:36,536 Os conservadores, no entanto, 147 00:07:36,560 --> 00:07:40,976 apoiavam mais fortemente as políticas a favor do ambientalismo progressista 148 00:07:41,000 --> 00:07:42,536 e da proteção ambiental 149 00:07:42,560 --> 00:07:44,835 se tivessem lido a redação de pureza moral 150 00:07:44,868 --> 00:07:47,715 do que se tivessem lido uma das outras duas redações. 151 00:07:48,160 --> 00:07:51,408 Até descobrimos que conservadores que leram a redação de pureza moral 152 00:07:51,470 --> 00:07:54,852 eram mais passíveis de dizer que acreditavam no aquecimento global 153 00:07:54,895 --> 00:07:56,437 e que se preocupavam com isso, 154 00:07:56,494 --> 00:07:59,636 apesar de essa redação nem sequer mencionar o aquecimento global. 155 00:07:59,708 --> 00:08:02,300 É só um problema ambiental relacionado com ele. 156 00:08:02,338 --> 00:08:05,678 Mas mostra como era robusto esse efeito de reformulação. 157 00:08:06,712 --> 00:08:09,819 Estudamos isso numa grande variedade de questões políticas. 158 00:08:09,920 --> 00:08:13,570 Então, se querem mudar os conservadores 159 00:08:13,632 --> 00:08:16,718 em questões como o casamento homossexual ou o seguro de saúde, 160 00:08:16,771 --> 00:08:20,313 ajuda reunir essas questões liberais com valores conservadores, 161 00:08:20,356 --> 00:08:23,232 como o patriotismo e a pureza moral. 162 00:08:23,800 --> 00:08:26,115 Também estudámos isso de outra forma. 163 00:08:26,177 --> 00:08:29,869 Se querem mover os liberais para a direita, em políticas conservadoras, 164 00:08:29,931 --> 00:08:34,376 como gastos militares e tornar o inglês a língua oficial nos EUA, 165 00:08:34,400 --> 00:08:36,103 serão mais convincentes 166 00:08:36,146 --> 00:08:39,625 se ligarem essas questões políticas conservadoras a valores liberais 167 00:08:39,706 --> 00:08:42,154 como a igualdade e a justiça. 168 00:08:42,687 --> 00:08:45,496 Todos os estudos têm a mesma mensagem. 169 00:08:45,729 --> 00:08:48,751 Se querem convencer alguém nalguma política, 170 00:08:48,803 --> 00:08:52,825 é útil ligar esta política aos seus valores morais básicos. 171 00:08:53,520 --> 00:08:56,991 Quando a expõem dessa forma, parece óbvio. 172 00:08:57,240 --> 00:08:59,263 Porque é que viemos aqui esta noite? 173 00:09:00,300 --> 00:09:01,816 (Risos) 174 00:09:02,110 --> 00:09:04,510 É incrivelmente intuitivo. 175 00:09:05,400 --> 00:09:08,896 E ainda assim, é algo que realmente lutamos para fazer. 176 00:09:08,977 --> 00:09:12,814 Quando tentamos convencer alguém sobre alguma questão política, 177 00:09:12,847 --> 00:09:15,574 falamos como se estivéssemos a conversar com um espelho. 178 00:09:15,636 --> 00:09:19,926 Não persuadimos tanto como quando ensaiamos os argumentos 179 00:09:19,978 --> 00:09:22,944 para o porquê de acreditarmos nalguma atitude política. 180 00:09:23,400 --> 00:09:27,716 Continuamos a dizer, quando projetamos, estes argumentos morais reformulados: 181 00:09:27,992 --> 00:09:30,680 "Empatia e respeito, empatia e respeito." 182 00:09:31,040 --> 00:09:32,619 Se conseguem fazer isso, 183 00:09:32,672 --> 00:09:34,423 conseguem interligar-se 184 00:09:34,495 --> 00:09:37,000 e talvez possam persuadir alguém neste país. 185 00:09:37,560 --> 00:09:42,366 Então, pensem de novo em que filme estamos, 186 00:09:43,200 --> 00:09:44,928 talvez me tenha enganado antes. 187 00:09:45,000 --> 00:09:47,340 Talvez não seja um filme de apocalipse zombie. 188 00:09:47,520 --> 00:09:50,410 Talvez, em vez disso, seja um filme de "polícias camaradas". 189 00:09:50,516 --> 00:09:52,056 (Risos) 190 00:09:52,194 --> 00:09:54,343 Apenas envolvam-se, por favor. 191 00:09:54,415 --> 00:09:55,855 (Risos) 192 00:09:56,337 --> 00:09:59,385 Vocês conhecem o tipo: há um polícia branco e um polícia negro, 193 00:09:59,447 --> 00:10:01,897 ou um polícia trapalhão e um polícia organizado. 194 00:10:01,940 --> 00:10:03,920 O que quer que seja, eles não se entendem 195 00:10:03,963 --> 00:10:05,642 por causa dessa diferença. 196 00:10:05,708 --> 00:10:08,850 Mas, no final, quando chega a hora de se unirem e cooperarem, 197 00:10:08,902 --> 00:10:11,438 sentem uma solidariedade maior 198 00:10:11,481 --> 00:10:14,392 por causa do abismo que tiveram de atravessar. 199 00:10:15,432 --> 00:10:17,465 Lembrem-se que, nestes filmes, 200 00:10:17,518 --> 00:10:20,413 o segundo ato é geralmente o pior 201 00:10:20,466 --> 00:10:23,369 quando os protagonistas estão mais distantes do que nunca. 202 00:10:23,487 --> 00:10:25,776 Talvez seja aí que nós estamos neste país, 203 00:10:25,800 --> 00:10:28,833 atrasados no segundo ato de um filme de "polícias camaradas"... 204 00:10:28,885 --> 00:10:30,690 (Risos) 205 00:10:30,761 --> 00:10:34,184 separados, mas prestes a voltarmos a juntar-nos. 206 00:10:35,400 --> 00:10:36,951 Parece bom 207 00:10:37,080 --> 00:10:39,183 mas, se queremos que isso aconteça, 208 00:10:39,255 --> 00:10:42,100 acho que a responsabilidade tem que começar connosco. 209 00:10:42,910 --> 00:10:45,318 Esta é a minha chamada de atenção: 210 00:10:45,480 --> 00:10:48,660 vamos voltar a reunir este país. 211 00:10:49,080 --> 00:10:52,154 Vamos fazê-lo, apesar dos políticos 212 00:10:52,245 --> 00:10:55,196 apesar dos "media", do Facebook, do Twitter 213 00:10:55,240 --> 00:10:57,214 e da alteração dos distritos no Congresso 214 00:10:57,266 --> 00:10:59,810 e de todas as coisas que nos dividem. 215 00:11:00,664 --> 00:11:03,478 Vamos fazê-lo porque é o que está certo. 216 00:11:03,920 --> 00:11:08,393 Vamos fazê-lo porque este ódio e desprezo 217 00:11:08,474 --> 00:11:11,348 que fluem através de todos nós, todos os dias, 218 00:11:11,504 --> 00:11:14,671 deformam-nos e corrompem-nos, 219 00:11:14,771 --> 00:11:18,327 e ameaçam o tecido da nossa sociedade. 220 00:11:19,960 --> 00:11:22,758 Devemos isso uns aos outros e ao nosso país, 221 00:11:22,830 --> 00:11:25,740 alcançar e tentar interligarmo-nos. 222 00:11:26,000 --> 00:11:29,619 Não podemos continuar a dar-nos ao luxo de odiá-los. 223 00:11:30,200 --> 00:11:32,733 Não podemos permitir que eles nos odeiem também. 224 00:11:33,880 --> 00:11:35,525 Empatia e respeito. 225 00:11:35,880 --> 00:11:37,689 Empatia e respeito. 226 00:11:37,920 --> 00:11:41,996 Se pensarem nisso, é o mínimo que devemos aos nossos compatriotas. 227 00:11:42,400 --> 00:11:43,616 Obrigado 228 00:11:43,754 --> 00:11:46,801 (Aplausos)