1 00:00:01,132 --> 00:00:04,697 Inicio hoje com um mistério histórico. 2 00:00:05,037 --> 00:00:07,776 Em 1957, havia duas raparigas, 3 00:00:07,940 --> 00:00:09,585 ambas com os seus 20 anos, 4 00:00:09,639 --> 00:00:11,173 que viviam na mesma cidade, 5 00:00:11,197 --> 00:00:14,403 e que pertenciam ambas ao mesmo grupo político. 6 00:00:14,751 --> 00:00:18,463 Naquele ano, as duas decidiram fazer ataques violentos. 7 00:00:19,284 --> 00:00:23,762 Uma delas agarrou numa arma e aproximou-se de um soldado, num posto de controlo. 8 00:00:24,300 --> 00:00:29,235 A outra rapariga, agarrou numa bomba e foi a um café cheio de gente. 9 00:00:30,287 --> 00:00:32,246 Mas a questão é esta: 10 00:00:32,429 --> 00:00:36,138 uma dessas raparigas prosseguiu com o ataque, 11 00:00:37,028 --> 00:00:39,841 mas a outra desistiu. 12 00:00:41,303 --> 00:00:43,474 Então, qual é a diferença? 13 00:00:44,157 --> 00:00:47,414 Sou historiadora comportamental, e estudo a agressão, 14 00:00:47,438 --> 00:00:49,359 a cognição moral, 15 00:00:49,383 --> 00:00:52,592 e o processo de tomada de decisões em movimentos sociais. 16 00:00:52,676 --> 00:00:54,291 É muita coisa! 17 00:00:55,110 --> 00:00:57,364 Traduzindo tudo isso: 18 00:00:57,391 --> 00:01:01,719 eu estudo o momento em que uma pessoa decide puxar o gatilho, 19 00:01:02,113 --> 00:01:06,275 as decisões quotidianas que levaram até esse momento 20 00:01:06,685 --> 00:01:12,896 e as histórias que contam a si mesmas para justificarem esse comportamento. 21 00:01:13,468 --> 00:01:15,324 Este assunto, para mim, 22 00:01:15,368 --> 00:01:17,478 não é apenas académico. 23 00:01:17,492 --> 00:01:19,537 Na verdade, é um pouco pessoal. 24 00:01:19,571 --> 00:01:22,612 Cresci em Kootenai County, no Idaho, 25 00:01:22,636 --> 00:01:25,810 e isso é muito importante. 26 00:01:25,147 --> 00:01:29,669 Não foi na parte do Idaho que tem batatas. 27 00:01:29,693 --> 00:01:32,940 Nós não temos batatas. 28 00:01:32,135 --> 00:01:34,108 E se alguém me perguntar por batatas, 29 00:01:34,132 --> 00:01:35,711 eu acabo com ele. 30 00:01:35,711 --> 00:01:36,966 (Risos) 31 00:01:36,990 --> 00:01:40,198 Esta parte do Idaho é conhecida por ter lagos nas montanhas, 32 00:01:40,222 --> 00:01:42,047 por fazermos cavalgadas, 33 00:01:42,071 --> 00:01:43,684 e esqui. 34 00:01:43,804 --> 00:01:46,938 Infelizmente, a partir dos anos 80, 35 00:01:46,962 --> 00:01:50,969 também ficou conhecida como a sede mundial 36 00:01:50,993 --> 00:01:53,170 das nações arianas. 37 00:01:53,348 --> 00:01:57,221 Todos os anos, apareciam membros de grupos neo-nazis locais 38 00:01:57,245 --> 00:01:59,924 que desfilavam pela nossa cidade 39 00:01:59,948 --> 00:02:01,508 e ano após ano, 40 00:02:01,522 --> 00:02:04,823 os membros da nossa cidade saíam à rua e protestavam contra eles. 41 00:02:04,877 --> 00:02:08,535 Em 2001, acabei o curso secundário, 42 00:02:08,569 --> 00:02:12,514 e fui para a faculdade em Nova Iorque. 43 00:02:12,791 --> 00:02:16,449 Cheguei lá em agosto de 2001, 44 00:02:17,232 --> 00:02:20,030 e como muitos de vocês provavelmente sabem, 45 00:02:20,070 --> 00:02:21,891 três semanas depois, 46 00:02:21,905 --> 00:02:24,580 desabaram as Torres Gémeas. 47 00:02:24,642 --> 00:02:27,123 Eu fiquei chocada, 48 00:02:28,593 --> 00:02:31,178 fiquei muito zangada. 49 00:02:32,713 --> 00:02:34,862 Eu queria fazer algo, 50 00:02:34,894 --> 00:02:38,396 mas a única coisa em que consegui pensar naquela época 51 00:02:38,420 --> 00:02:40,759 foi estudar árabe. 52 00:02:41,955 --> 00:02:44,232 Reconheço, eu era aquela rapariga da turma 53 00:02:44,256 --> 00:02:49,033 que queria saber porque é que eles nos odiavam. 54 00:02:49,247 --> 00:02:52,638 Comecei a estudar árabe pelas razões erradas. 55 00:02:53,265 --> 00:02:55,440 Mas aconteceu uma coisa inesperada. 56 00:02:55,506 --> 00:02:58,480 Consegui uma bolsa para estudar em Israel. 57 00:02:58,718 --> 00:03:01,995 Então, a rapariga do Idaho foi para o Médio Oriente. 58 00:03:03,169 --> 00:03:06,045 Enquanto lá estive, conheci palestinos muçulmanos, 59 00:03:06,069 --> 00:03:07,949 palestinos cristãos, 60 00:03:08,125 --> 00:03:09,702 colonos israelenses, 61 00:03:09,716 --> 00:03:11,805 israelenses ativistas pela paz. 62 00:03:11,841 --> 00:03:16,266 O que aprendi é que toda a ação tem uma ecologia. 63 00:03:16,696 --> 00:03:18,438 Tem um contexto. 64 00:03:20,074 --> 00:03:23,627 A partir daí, tenho circulado pelo mundo, 65 00:03:23,651 --> 00:03:27,565 e tenho estudado movimentos violentos. 66 00:03:27,749 --> 00:03:32,554 Tenho trabalhado com ONGs e ex-combatentes no Iraque, 67 00:03:32,578 --> 00:03:33,776 na Síria, 68 00:03:33,800 --> 00:03:35,219 no Vietname, 69 00:03:35,243 --> 00:03:36,425 nos Balcãs, 70 00:03:36,449 --> 00:03:37,730 em Cuba. 71 00:03:38,422 --> 00:03:40,817 Fiz o doutoramento em História, 72 00:03:40,841 --> 00:03:43,355 e agora vou a diferentes arquivos 73 00:03:43,379 --> 00:03:45,600 e vasculho documentos, 74 00:03:45,624 --> 00:03:49,187 à procura de confissões policiais, 75 00:03:49,281 --> 00:03:51,326 processos de justiça, 76 00:03:51,850 --> 00:03:56,770 diários e manifestos de indivíduos envolvidos em ataques violentos. 77 00:03:57,110 --> 00:04:00,016 Se reunirmos todos estes documentos 78 00:04:00,320 --> 00:04:01,854 o que é que eles nos dirão? 79 00:04:01,854 --> 00:04:03,361 Acontece que o nosso cérebro 80 00:04:03,371 --> 00:04:05,703 adora mistérios causais. 81 00:04:06,157 --> 00:04:09,107 Sempre que vemos um ataque nos jornais, 82 00:04:09,131 --> 00:04:11,563 fazemos logo a pergunta: 83 00:04:11,587 --> 00:04:12,889 Porquê? 84 00:04:12,913 --> 00:04:14,594 Porque é que isso aconteceu? 85 00:04:14,658 --> 00:04:17,328 Posso dizer-vos que li milhares de manifestos, 86 00:04:17,352 --> 00:04:21,913 e descobri que são todos imitações. 87 00:04:22,177 --> 00:04:25,506 Imitam o movimento político em que estão inseridos. 88 00:04:25,660 --> 00:04:29,543 Então, isso não nos diz muito sobre tomada de decisões 89 00:04:29,567 --> 00:04:31,891 neste caso em particular. 90 00:04:31,954 --> 00:04:36,542 Temos de nos educar para fazermos uma pergunta totalmente diferente. 91 00:04:36,566 --> 00:04:40,410 Em vez de "Porquê?", temos de perguntar "Como?" 92 00:04:40,168 --> 00:04:43,079 Como é que os indivíduos produzem esses ataques, 93 00:04:43,103 --> 00:04:48,437 e como é que a tomada de decisões contribui para um comportamento violento? 94 00:04:48,781 --> 00:04:53,279 Aprendi algumas coisas após fazer este tipo de pergunta. 95 00:04:53,823 --> 00:04:55,385 A coisa mais importante 96 00:04:55,399 --> 00:04:58,809 é que a violência política não é culturalmente endémica. 97 00:04:59,159 --> 00:05:00,669 Nós é que a criamos. 98 00:05:00,679 --> 00:05:02,943 E caso percebamos ou não, 99 00:05:02,977 --> 00:05:08,340 os nossos hábitos diários contribuem para a criação da violência 100 00:05:08,184 --> 00:05:10,028 no nosso ambiente. 101 00:05:10,082 --> 00:05:15,105 Estes são alguns dos hábitos que aprendi que contribuem para a violência. 102 00:05:16,322 --> 00:05:19,562 Uma das primeiras coisas que os agressores fizeram 103 00:05:19,586 --> 00:05:23,192 enquanto se preparavam para um evento violento, 104 00:05:23,416 --> 00:05:26,981 foi isolarem-se numa bolha de informações. 105 00:05:27,135 --> 00:05:29,813 Ouvimos falar de "fake news", não é? 106 00:05:29,857 --> 00:05:32,154 Bem, isso chocou-me: 107 00:05:32,198 --> 00:05:35,696 todos os grupos que estudei tinham um "slogan" de propaganda falsa. 108 00:05:35,740 --> 00:05:39,028 Os comunistas franceses chamavam-lhe "imprensa pútrida". 109 00:05:39,052 --> 00:05:43,209 Os franceses ultranacionalistas chamavam-lhe "imprensa vendida" 110 00:05:43,253 --> 00:05:45,475 e "imprensa traidora". 111 00:05:45,539 --> 00:05:49,000 Os islamistas no Egito chamavam-lhe "imprensa depravada". 112 00:05:49,074 --> 00:05:51,989 E os comunistas egípcios chamavam-lhe 113 00:05:52,013 --> 00:05:53,426 "fake news". 114 00:05:53,540 --> 00:05:55,130 Porque é que esses grupos 115 00:05:55,130 --> 00:05:58,194 gastam tanto tempo a montar essas bolhas de informações? 116 00:05:58,285 --> 00:06:00,931 A resposta é muito simples. 117 00:06:00,995 --> 00:06:04,760 Tomamos decisões baseadas em informações em que confiamos. 118 00:06:05,244 --> 00:06:09,087 Logo, se confiamos em informações más, 119 00:06:09,111 --> 00:06:11,919 tomaremos decisões más. 120 00:06:12,110 --> 00:06:15,100 Outro hábito interessante que esses indivíduos usavam 121 00:06:15,124 --> 00:06:18,067 quando queriam praticar um ataque violento 122 00:06:18,091 --> 00:06:21,621 era olhar para as suas vítimas não como indivíduos 123 00:06:21,645 --> 00:06:24,611 mas apenas como membros de uma equipa rival. 124 00:06:25,006 --> 00:06:27,401 Agora isto torna-se realmente estranho. 125 00:06:27,554 --> 00:06:29,441 Há uma ciência cerebral divertida 126 00:06:29,451 --> 00:06:32,437 que explica porque é que este pensamento é eficaz. 127 00:06:32,511 --> 00:06:35,441 Digamos que eu vos divido a todos em duas equipas: 128 00:06:35,465 --> 00:06:36,617 a equipa azul, 129 00:06:36,641 --> 00:06:38,155 a equipa vermelha. 130 00:06:38,159 --> 00:06:41,279 Peço para competirem num jogo uns contra os outros. 131 00:06:41,461 --> 00:06:45,109 O engraçado é que, ao fim de milissegundos, 132 00:06:45,443 --> 00:06:50,372 vocês começam a sentir prazer — prazer — 133 00:06:50,416 --> 00:06:55,129 quando acontece uma coisa má a um membro da outra equipa. 134 00:06:56,414 --> 00:06:59,898 O engraçado é que, se eu pedir a alguém da equipa azul 135 00:06:59,922 --> 00:07:02,442 para mudar e passar para a equipa vermelha, 136 00:07:02,805 --> 00:07:04,797 o cérebro irá recalibrar-se 137 00:07:04,821 --> 00:07:06,415 e, ao fim de milissegundos, 138 00:07:06,439 --> 00:07:08,812 vocês começam a sentir prazer 139 00:07:08,836 --> 00:07:12,516 quando acontecem coisas más aos membros da vossa antiga equipa. 140 00:07:14,064 --> 00:07:20,669 Isto é um ótimo exemplo que explica porque é que é tão perigoso 141 00:07:20,693 --> 00:07:22,873 pensar "nós-eles" no nosso ambiente político. 142 00:07:22,934 --> 00:07:26,828 Outro hábito que os agressores usavam para se prepararem para um ataque 143 00:07:26,852 --> 00:07:29,330 era o de se focarem nas diferenças. 144 00:07:29,374 --> 00:07:32,407 Por outras palavras, olhavam para as vítimas e pensavam: 145 00:07:33,075 --> 00:07:35,221 "Não tenho nada em comum com aquela pessoa. 146 00:07:35,245 --> 00:07:37,585 "São totalmente diferentes de mim." 147 00:07:38,829 --> 00:07:41,995 Novamente, isto pode soar como um conceito muito simples, 148 00:07:42,019 --> 00:07:46,376 mas há uma ciência fascinante que explica como isto funciona. 149 00:07:47,209 --> 00:07:52,218 Digamos que vos mostro vídeos de mãos de diferentes cores 150 00:07:52,462 --> 00:07:56,237 em que se tentam espetar alfinetes afiados nessas mãos, 151 00:07:56,401 --> 00:07:57,411 OK? 152 00:07:58,360 --> 00:08:00,219 Se for um branco, 153 00:08:00,243 --> 00:08:05,954 é mais provável que experimente uma sensação mais solidária 154 00:08:05,978 --> 00:08:07,541 ou de maior sofrimento, 155 00:08:07,565 --> 00:08:10,851 quando vir um alfinete a espetar-se na mão branca. 156 00:08:12,053 --> 00:08:15,561 Se for um latino-americano, um árabe, um negro, 157 00:08:15,601 --> 00:08:19,364 provavelmente experimentará uma sensação mais solidária 158 00:08:19,364 --> 00:08:23,665 ao ver um alfinete a espetar-se na mão mais parecida com a dele. 159 00:08:26,881 --> 00:08:30,619 Felizmente isto não é imposto biologicamente. 160 00:08:30,815 --> 00:08:32,854 É um comportamento aprendido. 161 00:08:33,207 --> 00:08:34,839 O que significa que, 162 00:08:34,839 --> 00:08:37,759 quanto mais tempo passarmos com outras comunidades étnicas 163 00:08:37,799 --> 00:08:40,721 e quanto mais os virmos como nossos semelhantes, 164 00:08:41,284 --> 00:08:43,994 fazendo parte da nossa equipa, 165 00:08:44,304 --> 00:08:46,818 mais sentiremos a dor deles. 166 00:08:46,931 --> 00:08:49,591 O último hábito de que vou falar 167 00:08:49,591 --> 00:08:52,962 ocorre quando os agressores se preparam para sair 168 00:08:52,992 --> 00:08:54,986 e praticar um dos seus ataques. 169 00:08:55,016 --> 00:08:57,355 Eles focam-se em certas pistas emotivas. 170 00:08:57,465 --> 00:09:02,775 Preparam-se durante meses, focando-se na raiva, por exemplo. 171 00:09:03,215 --> 00:09:05,751 Falo nisto porque agora é uma coisa muito popular. 172 00:09:05,801 --> 00:09:09,239 Se leem blogues ou veem as notícias, 173 00:09:09,269 --> 00:09:13,300 verão conversas sobre dois conceitos da investigação científica: 174 00:09:13,500 --> 00:09:16,824 "sequestro da amígdala" e "sequestro emocional". 175 00:09:16,934 --> 00:09:19,383 O sequestro da amígdala 176 00:09:19,403 --> 00:09:23,250 é um conceito em que se mostra uma imagem — digamos, uma espingarda — 177 00:09:23,390 --> 00:09:27,217 e o cérebro reage com uma resposta automática de ameaça 178 00:09:27,217 --> 00:09:28,648 em relação a essa imagem. 179 00:09:28,678 --> 00:09:31,590 O sequestro emocional tem um conceito muito parecido. 180 00:09:31,660 --> 00:09:35,833 É a ideia de que, se eu mostrar uma imagem de raiva, por exemplo, 181 00:09:36,770 --> 00:09:40,958 o cérebro irá reagir com uma resposta automática de raiva. 182 00:09:40,989 --> 00:09:42,958 de raiva em relação à imagem. 183 00:09:43,500 --> 00:09:46,351 Penso que as mulheres são mais sensíveis a isso do que os homens. 184 00:09:46,427 --> 00:09:47,536 (Risos) 185 00:09:47,634 --> 00:09:50,943 Esta narrativa de "sequestro" chama a nossa atenção. 186 00:09:51,281 --> 00:09:54,204 Só a palavra "sequestro" já chama nossa atenção. 187 00:09:54,404 --> 00:09:56,778 O facto é que, na maior parte do tempo, 188 00:09:56,798 --> 00:10:00,556 não é assim que estas "imagens" funcionam na vida real. 189 00:10:00,879 --> 00:10:02,480 Se estudarmos História, 190 00:10:02,500 --> 00:10:05,048 descobrimos que somos bombardeados 191 00:10:05,760 --> 00:10:08,472 com centenas de milhares de imagens todos os dias. 192 00:10:08,654 --> 00:10:10,849 Mas aprendemos a filtrá-las. 193 00:10:10,979 --> 00:10:12,891 Ignoramos algumas delas, 194 00:10:12,891 --> 00:10:15,040 a outras prestamos atenção. 195 00:10:15,170 --> 00:10:18,813 Para a violência política, isto torna-se muito importante. 196 00:10:18,853 --> 00:10:24,569 porque significa que os atacantes não veem apenas uma imagem de raiva 197 00:10:24,629 --> 00:10:26,615 e, de repente, ficam loucos. 198 00:10:26,770 --> 00:10:31,427 Em vez disso, políticos e ativistas sociais 199 00:10:31,457 --> 00:10:34,610 passam semanas, meses, anos 200 00:10:34,687 --> 00:10:38,491 a inundar o ambiente com essas mensagens de raiva, 201 00:10:38,541 --> 00:10:39,955 por exemplo, 202 00:10:40,250 --> 00:10:44,245 e os agressores prestam atenção a essas mensagens, 203 00:10:44,477 --> 00:10:46,850 confiam nessas mensagens, 204 00:10:46,910 --> 00:10:48,668 concentram-se nelas, 205 00:10:48,702 --> 00:10:51,790 inclusivamente memorizam-nas. 206 00:10:51,180 --> 00:10:57,742 Tudo isso serve apenas para mostrar como é importante estudar História. 207 00:10:57,812 --> 00:11:01,673 Uma coisa é ver como essas "sugestões" funcionam num laboratório. 208 00:11:01,697 --> 00:11:05,545 E essas experiências laboratoriais são extremamente importantes, 209 00:11:05,545 --> 00:11:09,760 fornecem-nos novas informações sobre como funciona o nosso corpo. 210 00:11:10,317 --> 00:11:13,199 Mas também é muito importante ver 211 00:11:13,225 --> 00:11:15,815 como essas "sugestões" funcionam na vida real. 212 00:11:18,691 --> 00:11:22,657 Então, o que tudo isto nos diz sobre violência política? 213 00:11:23,956 --> 00:11:28,820 A violência política não é culturalmente endémica. 214 00:11:28,132 --> 00:11:33,257 Não é uma resposta automática, pré-determinada aos estímulos do ambiente. 215 00:11:33,599 --> 00:11:35,468 Nós é que a produzimos. 216 00:11:35,537 --> 00:11:38,540 Os nossos hábitos diários é que a produzem. 217 00:11:38,866 --> 00:11:43,500 Vamos voltar àquelas duas raparigas que referi no começo. 218 00:11:44,350 --> 00:11:48,965 A primeira rapariga tinha prestado atenção a essas mensagens ofensivas, 219 00:11:49,178 --> 00:11:51,196 então, pegou numa espingarda 220 00:11:51,226 --> 00:11:54,470 aproximou-se de um soldado num posto de controlo. 221 00:11:55,276 --> 00:11:58,895 Mas, nesse momento, aconteceu uma coisa interessante. 222 00:11:58,980 --> 00:12:01,390 Ela olhou para o soldado, 223 00:12:01,850 --> 00:12:03,920 e pensou para si mesma: 224 00:12:06,120 --> 00:12:09,247 "Ele tem a mesma idade que eu. 225 00:12:09,523 --> 00:12:11,285 "Ele parece-se comigo." 226 00:12:12,635 --> 00:12:15,521 Largou a espingarda e afastou-se. 227 00:12:16,277 --> 00:12:19,394 Apenas por causa dessa pequena semelhança. 228 00:12:19,915 --> 00:12:24,038 A segunda rapariga teve um final totalmente diferente. 229 00:12:25,588 --> 00:12:28,282 Ela também ouvira as campanhas ofensivas, 230 00:12:28,341 --> 00:12:33,292 mas rodeou-se de indivíduos que apoiavam a violência 231 00:12:33,292 --> 00:12:36,663 e com iguais que apoiavam a violência dela. 232 00:12:36,901 --> 00:12:40,300 Fechou-se numa bolha de informações. 233 00:12:40,700 --> 00:12:44,199 Concentrou-se em determinadas orientações emocionais durante meses. 234 00:12:44,497 --> 00:12:47,155 Ensinou a si mesma como contornar 235 00:12:47,195 --> 00:12:50,115 algumas inibições culturais contra a violência. 236 00:12:50,189 --> 00:12:51,957 Praticou o plano, 237 00:12:51,987 --> 00:12:54,124 ensinou a si mesma novos hábitos, 238 00:12:54,135 --> 00:12:58,329 e, quando o momento chegou, levou a bomba para o café, 239 00:12:58,399 --> 00:13:01,155 e concretizou o seu ataque. 240 00:13:03,623 --> 00:13:06,476 Isto não foi um impulso. 241 00:13:06,812 --> 00:13:08,760 Foi aprendizagem. 242 00:13:10,420 --> 00:13:14,393 A polarização na nossa sociedade não é um impulso, 243 00:13:14,463 --> 00:13:16,175 é aprendizagem. 244 00:13:16,495 --> 00:13:19,415 Todos os dias nos ensinamos a nós mesmos 245 00:13:19,495 --> 00:13:21,602 com as notícias que escolhemos, 246 00:13:21,622 --> 00:13:23,332 com as emoções que focamos, 247 00:13:23,352 --> 00:13:27,861 com os pensamentos que cultivamos sobre a equipa vermelha ou a azul. 248 00:13:28,176 --> 00:13:30,486 Tudo isso contribui para a aprendizagem, 249 00:13:30,486 --> 00:13:32,751 quer demos por isso ou não. 250 00:13:32,831 --> 00:13:37,874 Felizmente, embora os indivíduos que estudo 251 00:13:38,034 --> 00:13:40,361 já tenham tomado a sua decisão, 252 00:13:41,383 --> 00:13:44,254 nós ainda podemos mudar a nossa trajetória. 253 00:13:45,194 --> 00:13:48,272 Nós podemos nunca fazer as escolhas que eles fizeram, 254 00:13:48,854 --> 00:13:52,859 mas podemos deixar de contribuir para essa ecologia violenta. 255 00:13:53,633 --> 00:13:57,784 Podemos sair de qualquer bolha de notícias em que estejamos, 256 00:13:57,952 --> 00:14:02,138 podemos estar mais atentos às sugestões emocionais 257 00:14:02,218 --> 00:14:03,624 em que nos focamos, 258 00:14:03,684 --> 00:14:06,297 nas propagandas atrozes em que clicamos. 259 00:14:06,403 --> 00:14:07,932 Mas, mais importante ainda, 260 00:14:07,997 --> 00:14:10,426 podemos deixar de nos vermos 261 00:14:10,466 --> 00:14:13,918 apenas como membros da equipa vermelha ou da equipa azul. 262 00:14:13,961 --> 00:14:19,829 Porque, quer sejamos cristãos, muçulmanos, judeus, ateus, 263 00:14:19,869 --> 00:14:22,087 democratas ou republicanos, 264 00:14:22,147 --> 00:14:23,561 somos humanos. 265 00:14:23,561 --> 00:14:25,487 Somos seres humanos. 266 00:14:25,917 --> 00:14:29,732 E, frequentemente, partilhamos hábitos semelhantes. 267 00:14:30,336 --> 00:14:31,918 Nós temos diferenças. 268 00:14:31,948 --> 00:14:33,821 Essas diferenças são lindas, 269 00:14:34,021 --> 00:14:36,644 e essas diferenças são muito importantes. 270 00:14:36,724 --> 00:14:41,795 Mas o nosso futuro depende de conseguirmos encontrar 271 00:14:41,845 --> 00:14:44,813 um terreno comum com o lado oposto. 272 00:14:45,715 --> 00:14:49,175 É por isso que é tão importante 273 00:14:49,255 --> 00:14:51,978 voltar a treinar o nosso cérebro 274 00:14:52,008 --> 00:14:55,447 e deixar de contribuir para um ambiente violento. 275 00:14:56,277 --> 00:14:57,517 Obrigada. 276 00:14:57,567 --> 00:15:00,429 (Aplausos)