1 00:00:01,000 --> 00:00:04,754 Estou impressionado pelo facto de um dos temas de fundo do TED 2 00:00:04,754 --> 00:00:06,236 ser a compaixão. 3 00:00:06,236 --> 00:00:09,145 Estas demonstrações muito comoventes que acabámos de ver: 4 00:00:09,145 --> 00:00:13,127 a SIDA em África, o presidente Clinton ontem à noite. 5 00:00:13,127 --> 00:00:18,630 E, se puder ser, gostaria de fazer um pouco de pensamento colateral, 6 00:00:18,630 --> 00:00:23,654 sobre compaixão e trazê-lo do nível global para o nível pessoal. 7 00:00:23,654 --> 00:00:25,754 Eu sou psicólogo, mas estejam descansados, 8 00:00:25,754 --> 00:00:27,581 não vou chegar entrar em detalhes. 9 00:00:27,681 --> 00:00:30,727 (Risos) 10 00:00:31,727 --> 00:00:34,490 Houve um estudo muito importante feito há algum tempo 11 00:00:34,490 --> 00:00:36,681 no Princeton Theological Seminary 12 00:00:36,681 --> 00:00:39,545 que aborda a razão por que, 13 00:00:39,545 --> 00:00:42,845 quando temos tantas oportunidades de ajudar, 14 00:00:42,845 --> 00:00:45,454 o fazemos algumas vezes e não o fazemos noutras. 15 00:00:46,000 --> 00:00:49,772 A um grupo de estudantes de teologia do Princeton Theological Seminary 16 00:00:50,400 --> 00:00:54,327 disseram-lhes que eles iam fazer um sermão de treino 17 00:00:54,327 --> 00:00:57,000 e que iam dar a cada um deles um tópico do sermão. 18 00:00:57,000 --> 00:01:00,154 A metade desses estudantes deram, como tópico, 19 00:01:00,154 --> 00:01:02,409 a parábola do Bom Samaritano: 20 00:01:02,409 --> 00:01:04,881 o homem que parou à beira de um desconhecido, 21 00:01:04,881 --> 00:01:07,854 para ajudar o desconhecido em necessidade, na berma da estrada. 22 00:01:07,854 --> 00:01:11,450 À outra metade, deram-lhes tópicos da Bíblia selecionados ao acaso. 23 00:01:11,450 --> 00:01:14,472 Depois, um por um, disseram-lhes que tinham que ir para outro edifício 24 00:01:14,472 --> 00:01:15,609 e fazer o sermão. 25 00:01:15,609 --> 00:01:18,418 Enquanto iam do primeiro edifício para o segundo, 26 00:01:18,418 --> 00:01:21,954 cada um deles passou por um homem que estava dobrado e a gemer, 27 00:01:22,000 --> 00:01:23,527 claramente em necessidade. 28 00:01:23,527 --> 00:01:26,118 A questão é: Será que eles pararam para ajudar? 29 00:01:26,245 --> 00:01:28,100 A questão mais interessante é: 30 00:01:28,100 --> 00:01:31,954 Fez diferença eles estarem a contemplar, na prática, a parábola do Bom Samaritano? 31 00:01:32,518 --> 00:01:35,308 Resposta: Não, de todo. 32 00:01:36,000 --> 00:01:38,254 Veio-se a descobrir que o que determinava 33 00:01:38,254 --> 00:01:41,127 se uma pessoa parava e ajudava o desconhecido em necessidade 34 00:01:41,127 --> 00:01:43,972 era quão apressados eles pensavam que estavam, 35 00:01:44,000 --> 00:01:45,990 quão atrasados eles pensavam que estavam, 36 00:01:45,990 --> 00:01:49,754 ou quão absorvidos eles estavam no que iam falar. 37 00:01:50,000 --> 00:01:53,372 Penso que isto é o dilema da nossa vida: 38 00:01:53,372 --> 00:01:57,209 não usamos todas as oportunidades para ajudar, 39 00:01:57,209 --> 00:02:00,354 porque a nossa atenção está na direção errada. 40 00:02:00,354 --> 00:02:03,854 Há um novo ramo na ciência do cérebro: a neurociência social. 41 00:02:04,000 --> 00:02:08,181 Este ramo estuda os circuitos no cérebro de duas pessoas 42 00:02:08,181 --> 00:02:10,936 que se ativam enquanto elas interagem. 43 00:02:10,936 --> 00:02:14,645 A nova abordagem à compaixão do ponto de vista da neurociência social 44 00:02:14,645 --> 00:02:18,936 é a de que o nosso circuito cerebral, por defeito, é propenso a ajudar. 45 00:02:18,936 --> 00:02:22,700 Isto significa que, se ajudarmos o próximo, 46 00:02:22,754 --> 00:02:26,736 nós automaticamente criamos empatia e ligamo-nos a ele. 47 00:02:27,000 --> 00:02:29,736 Esses neurónios recém-identificados, os neurórios espelho, 48 00:02:29,736 --> 00:02:33,627 funcionam como uma rede neuro Wi-Fi, que ativam no nosso cérebro 49 00:02:33,627 --> 00:02:35,727 as mesmas áreas ativadas no outro. 50 00:02:35,727 --> 00:02:37,863 Ligamo-nos automaticamente. 51 00:02:37,863 --> 00:02:41,781 Se essa pessoa está em necessidade, se essa pessoa está a sofrer, 52 00:02:41,881 --> 00:02:44,545 nós automaticamente estamos preparados para ajudar. 53 00:02:44,545 --> 00:02:46,600 Pelo menos, é este o argumento. 54 00:02:46,600 --> 00:02:49,163 Então, a pergunta é: Porque não o fazemos? 55 00:02:49,163 --> 00:02:51,927 E eu penso que isto abrange um espetro 56 00:02:52,000 --> 00:02:54,445 que vai desde a autoabsorção completa, 57 00:02:54,863 --> 00:02:57,772 até notar, criar empatia e até à compaixão. 58 00:02:57,772 --> 00:03:01,863 O facto simples é, se estivermos concentrados em nós próprios, 59 00:03:01,863 --> 00:03:05,154 se estivermos preocupados, como estamos frequentemente durante o dia, 60 00:03:05,154 --> 00:03:07,772 não damos conta dos outros. 61 00:03:07,772 --> 00:03:10,536 E esta diferença entre a atenção em nós mesmos e no outro 62 00:03:10,536 --> 00:03:12,900 pode ser muito subtil. 63 00:03:12,218 --> 00:03:15,000 No outro dia, estava a fazer a declaração de impostos 64 00:03:15,000 --> 00:03:18,172 e cheguei ao ponto em que estava a listar todas as doações que fiz, 65 00:03:18,172 --> 00:03:19,872 e tive uma revelação. 66 00:03:19,872 --> 00:03:24,000 Cheguei ao cheque que passei à Seva Foundation e notei que pensei: 67 00:03:24,000 --> 00:03:26,872 "O meu amigo Larry Brilliant deve ter ficado muito feliz 68 00:03:26,900 --> 00:03:28,600 "por eu ter dado dinheiro à Seva". 69 00:03:28,600 --> 00:03:31,300 Aí apercebi-me que o que estava a ganhar com a doação 70 00:03:31,300 --> 00:03:33,318 era uma sensação de narcisismo 71 00:03:33,318 --> 00:03:35,572 aquilo tinha-me feito sentir bem comigo mesmo. 72 00:03:35,572 --> 00:03:40,245 Depois comecei a pensar nas pessoas nos Himalaias 73 00:03:40,245 --> 00:03:42,254 cujas cataratas seriam melhoradas 74 00:03:42,254 --> 00:03:46,754 e apercebi-me que saltara deste foco em mim meio narcisista 75 00:03:46,754 --> 00:03:48,709 para uma alegria altruísta, 76 00:03:48,709 --> 00:03:52,180 sentindo-me bem pelas pessoas que estavam a ser ajudadas. 77 00:03:52,472 --> 00:03:54,345 Penso que isso é um fator de motivação. 78 00:03:54,345 --> 00:03:57,181 Mas esta distinção entre focarmo-nos em nós próprios 79 00:03:57,181 --> 00:03:58,654 e focarmo-nos nos outros 80 00:03:58,654 --> 00:04:01,481 é daquelas que eu encorajo todos a terem em atenção. 81 00:04:01,481 --> 00:04:04,945 Podem observá-la numa perspetiva macro no mundo dos namoros. 82 00:04:05,000 --> 00:04:08,309 Aqui há tempos, eu estava num restaurante de sushi 83 00:04:08,309 --> 00:04:11,981 e ouvi duas mulheres a falar sobre o irmão de uma delas, 84 00:04:12,000 --> 00:04:14,781 que era solteiro. E a mulher diz: 85 00:04:14,781 --> 00:04:17,290 "O meu irmão está com problemas em arranjar namoro, 86 00:04:17,290 --> 00:04:19,384 "está a tentar os encontros rápidos". 87 00:04:19,384 --> 00:04:21,214 Conhecem os encontros rápidos? 88 00:04:21,214 --> 00:04:24,218 As mulheres sentam-se em mesas, os homens rodam de mesa em mesa. 89 00:04:24,218 --> 00:04:27,236 Há um relógio e uma campaínha e, ao fim de cinco minutos, bingo, 90 00:04:27,236 --> 00:04:29,509 a conversa acaba e a mulher decide 91 00:04:29,509 --> 00:04:33,745 se quer dar o seu cartão ou email ao homem, para mais conversa. 92 00:04:33,745 --> 00:04:35,245 E a mulher diz: 93 00:04:35,245 --> 00:04:39,900 "O meu irmão nunca conseguiu um cartão. E eu sei exatamente porquê. 94 00:04:39,418 --> 00:04:44,000 Logo que se senta, começa a falar de si próprio sem parar, 95 00:04:44,000 --> 00:04:45,881 "nunca pergunta coisas sobre a mulher." 96 00:04:46,000 --> 00:04:51,900 Eu estava a fazer pesquisa na secção Sunday Styles 97 00:04:51,900 --> 00:04:54,390 do New York Times, analisando as histórias antigas de casamentos 98 00:04:54,390 --> 00:04:56,636 — porque eram muito interessantes — 99 00:04:56,636 --> 00:04:59,872 e dei com o casamento da Alice Charney Epstein. 100 00:04:59,872 --> 00:05:02,645 E ela disse que, quando estava num encontro, 101 00:05:02,645 --> 00:05:05,536 fazia um teste simples às pessoas. 102 00:05:05,709 --> 00:05:08,100 O teste era: a partir do momento em que estavam juntos, 103 00:05:08,100 --> 00:05:10,454 quanto tempo é que o rapaz levava 104 00:05:10,454 --> 00:05:12,890 a fazer-lhe uma pergunta com a palavra "tu". 105 00:05:13,254 --> 00:05:17,000 Segundo parece, o Epstein teve nota máxima no teste, daí o artigo. 106 00:05:17,000 --> 00:05:18,190 (Risos) 107 00:05:18,190 --> 00:05:20,336 Agora, isto é um pequeno teste 108 00:05:20,336 --> 00:05:22,545 que eu vos aconselho a experimentar numa festa. 109 00:05:22,545 --> 00:05:24,836 Aqui na TED há grandes oportunidades. 110 00:05:26,154 --> 00:05:29,990 A Harvard Business Review publicou recentemente um artigo 111 00:05:29,990 --> 00:05:32,845 chamado "O Momento Humano", sobre como estabelecer um contacto real 112 00:05:32,845 --> 00:05:34,445 com uma pessoa no trabalho. 113 00:05:34,445 --> 00:05:38,636 Dizia que é preciso uma coisa fundamental: desligar o BlackBerry, 114 00:05:38,836 --> 00:05:42,536 desligar o portátil, acabar o seu sonho para esse dia 115 00:05:42,572 --> 00:05:45,418 e concentrar toda a atenção nessa pessoa. 116 00:05:45,809 --> 00:05:50,000 Há uma palavra recém-criada na língua Inglesa 117 00:05:50,545 --> 00:05:53,699 para o momento em que a pessoa com quem estamos a falar 118 00:05:53,699 --> 00:05:56,017 saca do seu BlackBerry ou atende o telemóvel, 119 00:05:56,017 --> 00:05:58,327 e, de repente, nós não já não existimos. 120 00:05:58,327 --> 00:06:02,000 A palavra é: "pizzled": é uma combinação entre "abismado" e "chateado". 121 00:06:02,427 --> 00:06:04,790 (Risos) 122 00:06:05,381 --> 00:06:07,381 Penso que é muito adequado. 123 00:06:09,172 --> 00:06:11,900 É a nossa empatia, é a nossa ligação 124 00:06:11,900 --> 00:06:14,863 que nos separa dos maquiavélicos ou dos sociopatas. 125 00:06:15,072 --> 00:06:19,909 Eu tenho um cunhado que é perito em horror e terror 126 00:06:19,909 --> 00:06:23,227 — escreveu o livro "Annotated Dracula, the Essencial Frankenstein" — 127 00:06:23,227 --> 00:06:25,018 devia ter sido um estudioso de Chaucer 128 00:06:25,018 --> 00:06:28,018 mas nasceu na Transilvânia e penso que isso o afetou um pouco. 129 00:06:28,018 --> 00:06:29,372 (Risos) 130 00:06:29,372 --> 00:06:32,281 A certa altura, o meu cunhado Leonard 131 00:06:32,281 --> 00:06:34,718 decidiu escrever um livro sobre um "serial killer", 132 00:06:34,718 --> 00:06:38,654 um homem que aterrorizou a vizinhança toda há muitos anos. 133 00:06:38,654 --> 00:06:41,218 Era conhecido como o estragulador de Santa Cruz. 134 00:06:41,218 --> 00:06:45,245 Antes de ser preso, assassinou os avós, 135 00:06:45,245 --> 00:06:48,545 a mãe e cinco colegas da Universidade de Santa Cruz. 136 00:06:48,772 --> 00:06:51,772 O meu cunhado foi entrevistar esse assasino 137 00:06:51,790 --> 00:06:53,145 e, quando o conheceu, 138 00:06:53,145 --> 00:06:56,118 apercebeu-se que aquele tipo era absolutamente assustador. 139 00:06:56,118 --> 00:06:58,427 Para começar, tinha mais de 2 metros de altura. 140 00:06:58,427 --> 00:07:01,500 Mas isso não era a coisa mais assustadora nele. 141 00:07:01,500 --> 00:07:06,527 A coisa mais assustadora é que tem um QI de 160: um génio. 142 00:07:07,000 --> 00:07:11,281 Mas não há correlação nenhuma entre o QI e a empatia emocional, 143 00:07:11,281 --> 00:07:13,227 a ligação com o próximo. 144 00:07:13,227 --> 00:07:15,881 São coisas controladas por partes distintas do cérebro. 145 00:07:16,000 --> 00:07:19,000 Por isso a dada altura, o meu cunhado ganha coragem 146 00:07:19,000 --> 00:07:21,727 para fazer a pergunta a que ele quer mesmo saber a resposta. 147 00:07:21,727 --> 00:07:24,427 "Como é que conseguiu fazer isto? 148 00:07:24,427 --> 00:07:26,409 "Não sentiu pena das suas vítimas?" 149 00:07:26,409 --> 00:07:29,590 Os assassínios foram muito íntimos — ele estrangulou as vítimas. 150 00:07:29,890 --> 00:07:32,418 E o estrangulador diz muito diretamente: 151 00:07:32,418 --> 00:07:37,236 "Oh não. Se eu sentisse a angústia, não conseguia tê-lo feito. 152 00:07:37,363 --> 00:07:43,409 "Tive que desligar essa parte de mim. Tive que desligar essa parte de mim." 153 00:07:43,709 --> 00:07:48,400 E eu penso que isso é muito perturbador. 154 00:07:49,000 --> 00:07:53,318 E nesse sentido, tenho estado a refletir sobre desligarmos essa parte de nós. 155 00:07:53,318 --> 00:07:56,200 Quando nos concentramos em nós mesmos, em qualquer atividade, 156 00:07:56,200 --> 00:07:59,545 desligamo-nos do facto de poder existir outra pessoa. 157 00:07:59,736 --> 00:08:05,000 Pensem em ir às compras e pensem nas possibilidades 158 00:08:05,000 --> 00:08:07,581 de um consumismo com compaixão. 159 00:08:08,000 --> 00:08:11,372 Neste momento, como o Bill McDonough mostrou, 160 00:08:12,281 --> 00:08:16,490 os objetos que compramos e usamos têm consequências escondidas. 161 00:08:16,609 --> 00:08:20,081 Somos todos vítimas involuntárias de uma cegueira coletiva. 162 00:08:20,081 --> 00:08:23,381 Não nos apercebemos e não nos apercebemos que não nos apercebemos 163 00:08:23,381 --> 00:08:26,672 das moléculas tóxicas que são emitidas 164 00:08:26,672 --> 00:08:30,000 por uma carpete ou pelo tecido dos estofos. 165 00:08:30,000 --> 00:08:35,136 Ou não sabemos se o tecido é um nutriente tecnológico 166 00:08:35,136 --> 00:08:37,490 ou de manufactura. 167 00:08:37,563 --> 00:08:40,854 Poderá ser reutilizado ou vai parar ao aterro? 168 00:08:40,872 --> 00:08:44,172 Por outras palavras, esquecemos as consequências 169 00:08:44,172 --> 00:08:49,672 para a saúde ecológica e pública e para a justiça económica e social. 170 00:08:50,036 --> 00:08:52,491 das coisas que compramos e usamos. 171 00:08:54,000 --> 00:08:59,772 Neste sentido, a sala em si é o elefante na sala,mas não o vemos. 172 00:08:59,945 --> 00:09:04,709 E tornamo-nos vítimas de um sistema que nos guia para outro lado. 173 00:09:05,172 --> 00:09:06,463 Considerem isto. 174 00:09:06,463 --> 00:09:08,418 Há um livro maravilhoso chamado 175 00:09:08,418 --> 00:09:12,327 "Coisas: A vida escondida dos objetos do dia-a-dia." 176 00:09:13,000 --> 00:09:16,418 Fala da história por detrás de uma coisa como uma T-shirt. 177 00:09:16,418 --> 00:09:19,427 Fala sobre o local onde o algodão cresceu, 178 00:09:19,427 --> 00:09:23,054 os fertilizantes que foram usados e as suas consequências para o solo. 179 00:09:23,772 --> 00:09:25,445 E menciona, por exemplo, 180 00:09:25,445 --> 00:09:28,245 que o algodão é muito resistente aos corantes têxteis; 181 00:09:28,245 --> 00:09:31,400 cerca de 60% são removidos e vão parar às águas residuais. 182 00:09:31,400 --> 00:09:33,736 Os epidemilogistas sabem bem 183 00:09:33,736 --> 00:09:37,000 que as crianças que vivem perto de fábricas têxteis 184 00:09:37,000 --> 00:09:40,118 tendem a ter elevada propensão para a leucemia. 185 00:09:40,118 --> 00:09:44,509 Há uma empresa, a Bennett and Company, que é fornecedora da Polo.com, 186 00:09:45,000 --> 00:09:50,336 da Victoria's Secret — devido ao seu CEO, que está ciente disto — 187 00:09:51,000 --> 00:09:55,354 formou uma parceria na China com os fornecedores de corantes 188 00:09:55,354 --> 00:09:57,409 para garantirem que as águas residuais 189 00:09:57,409 --> 00:10:01,336 seriam tratadas apropriadamente antes de retornarem às águas dos solos. 190 00:10:01,336 --> 00:10:04,063 Neste momento, não temos a opção de escolher 191 00:10:04,063 --> 00:10:07,181 entre a T-shirt ecológica e a não ecológica. 192 00:10:08,099 --> 00:10:11,472 O que seria preciso fazer para que isso fosse possível? 193 00:10:13,000 --> 00:10:15,236 Tenho estado a pensar. 194 00:10:15,727 --> 00:10:19,963 Para começar, há uma nova tecnologia de etiquetagem 195 00:10:19,963 --> 00:10:22,400 que permite que qualquer loja conheça 196 00:10:22,400 --> 00:10:26,000 toda a história de qualquer item nas prateleiras dessa loja. 197 00:10:26,000 --> 00:10:28,090 Pode até saber-se a fábrica de onde veio. 198 00:10:28,090 --> 00:10:32,527 Depois de a conhecer, podem analisar-se os processos de fabrico 199 00:10:32,527 --> 00:10:34,618 que foram usados para o fazer 200 00:10:34,618 --> 00:10:37,845 e, se foram os corretos, pode-se etiquetar dessa forma. 201 00:10:38,590 --> 00:10:44,327 Se não foram tão corretos, podemos ir a qualquer loja, 202 00:10:44,327 --> 00:10:47,672 passa-se o código de barras pelo leitor ótico 203 00:10:47,672 --> 00:10:49,409 o que vos leva a um site. 204 00:10:49,409 --> 00:10:52,054 Faz-se isso para as pessoas alérgicas aos amendoins. 205 00:10:52,054 --> 00:10:54,890 Esse site pode dizer-nos coisas sobre esse objeto. 206 00:10:55,000 --> 00:10:56,854 Ou seja, em qualquer ponto de venda, 207 00:10:56,854 --> 00:11:00,527 é possível fazer uma escolha com base na compaixão. 208 00:11:00,527 --> 00:11:06,309 Há um ditado no mundo das ciências da informação que é: 209 00:11:06,309 --> 00:11:09,272 "No final, toda a gente saberá de tudo". 210 00:11:09,454 --> 00:11:12,154 A questão é: "Será que faz diferença?" 211 00:11:13,000 --> 00:11:16,872 Há uns tempos, quando eu estava a trabalhar para o New York Times, 212 00:11:17,000 --> 00:11:19,200 — foi nos anos 80 — escrevi um artigo 213 00:11:19,200 --> 00:11:21,700 sobre o que era na altura um problema em Nova Iorque, 214 00:11:21,700 --> 00:11:23,918 os sem-abrigo a viver nas ruas. 215 00:11:23,918 --> 00:11:27,090 Durante umas semanas, acompanhei uma organização de apoio social 216 00:11:27,090 --> 00:11:29,063 que auxiliava os sem-abrigo. 217 00:11:29,063 --> 00:11:35,163 Apercebi-me, ao olhar para os olhos deles, que quase todos eram doentes mentais 218 00:11:35,163 --> 00:11:36,809 que não tinham para onde ir. 219 00:11:36,809 --> 00:11:38,554 Eles tinham um diagnóstico. 220 00:11:38,554 --> 00:11:43,000 Isso fez-me acordar para a realidade que nos passa ao lado na correria citadina. 221 00:11:43,036 --> 00:11:46,481 Quando passamos por um sem-abrigo 222 00:11:46,481 --> 00:11:48,918 que está na periferia do nosso campo de visão, 223 00:11:48,918 --> 00:11:50,836 ele fica na periferia. 224 00:11:51,781 --> 00:11:55,054 Não reparamos e, por isso, não atuamos. 225 00:11:57,000 --> 00:12:02,354 Um dia, pouco depois disso — foi numa sexta-feira, no final do dia — 226 00:12:02,354 --> 00:12:05,427 eu ia a descer para o metro, à hora de ponta. 227 00:12:05,427 --> 00:12:07,409 Milhares de pessoas a descer as escadas. 228 00:12:07,409 --> 00:12:09,472 De repente, enquanto ia a descer as escadas, 229 00:12:09,472 --> 00:12:12,436 reparei que havia um homem caído para o lado, 230 00:12:12,436 --> 00:12:14,981 sem camisa, sem se mexer, 231 00:12:14,981 --> 00:12:17,154 e as pessoas estavam a passar por cima dele, 232 00:12:17,154 --> 00:12:19,199 centenas e centenas de pessoas. 233 00:12:19,199 --> 00:12:23,054 Como a minha correria urbana estava, de certa forma, enfraquecida, 234 00:12:23,054 --> 00:12:26,663 eu parei para ver o que se estava a passar. 235 00:12:27,000 --> 00:12:29,845 Quando parei, meia dúzia de outras pessoas 236 00:12:29,845 --> 00:12:32,218 pararam imediatamente junto do mesmo homem. 237 00:12:32,218 --> 00:12:34,809 Descobrimos que era latino, não falava inglês, 238 00:12:34,809 --> 00:12:39,327 não tinha dinheiro, estava a viver na rua há dias, a morrer de fome, 239 00:12:39,327 --> 00:12:40,799 e tinha desmaiado de fome. 240 00:12:40,799 --> 00:12:43,854 Imediatamente, um foi buscar sumo de laranja, outro, um cachorro, 241 00:12:43,854 --> 00:12:45,754 chamaram um segurança do metro. 242 00:12:45,754 --> 00:12:48,000 O homem conseguiu levantar-se.. 243 00:12:48,245 --> 00:12:52,209 Só foi preciso reparar que ele existia. 244 00:12:52,863 --> 00:12:54,463 Por isso, eu estou otimista. 245 00:12:54,463 --> 00:12:55,709 Muito obrigado. 246 00:12:55,709 --> 00:12:57,000 (Aplausos)