0:00:01.000,0:00:04.754 Estou impressionado pelo facto[br]de um dos temas de fundo do TED 0:00:04.754,0:00:06.236 ser a compaixão. 0:00:06.236,0:00:09.145 Estas demonstrações muito comoventes[br]que acabámos de ver: 0:00:09.145,0:00:13.127 a SIDA em África,[br]o presidente Clinton ontem à noite. 0:00:13.127,0:00:18.630 E, se puder ser, gostaria de fazer[br]um pouco de pensamento colateral, 0:00:18.630,0:00:23.654 sobre compaixão e trazê-lo[br]do nível global para o nível pessoal. 0:00:23.654,0:00:25.754 Eu sou psicólogo, mas estejam descansados, 0:00:25.754,0:00:27.581 não vou chegar entrar em detalhes. 0:00:27.681,0:00:30.727 (Risos) 0:00:31.727,0:00:34.490 Houve um estudo muito importante[br]feito há algum tempo 0:00:34.490,0:00:36.681 no Princeton Theological Seminary[br] 0:00:36.681,0:00:39.545 que aborda a razão por que, 0:00:39.545,0:00:42.845 quando temos tantas[br]oportunidades de ajudar, 0:00:42.845,0:00:45.454 o fazemos algumas vezes[br]e não o fazemos noutras. 0:00:46.000,0:00:49.772 A um grupo de estudantes de teologia[br]do Princeton Theological Seminary 0:00:50.400,0:00:54.327 disseram-lhes que eles iam fazer[br]um sermão de treino 0:00:54.327,0:00:57.000 e que iam dar a cada um deles[br]um tópico do sermão. 0:00:57.000,0:01:00.154 A metade desses estudantes[br]deram, como tópico, 0:01:00.154,0:01:02.409 a parábola do Bom Samaritano: 0:01:02.409,0:01:04.881 o homem que parou[br]à beira de um desconhecido, 0:01:04.881,0:01:07.854 para ajudar o desconhecido[br]em necessidade, na berma da estrada. 0:01:07.854,0:01:11.140 À outra metade, deram-lhes tópicos[br]da Bíblia selecionados ao acaso. 0:01:11.140,0:01:14.472 Depois, um por um, disseram-lhes[br]que tinham que ir para outro edifício 0:01:14.472,0:01:15.609 e fazer o sermão. 0:01:15.609,0:01:18.418 Enquanto iam do primeiro edifício[br]para o segundo, 0:01:18.418,0:01:21.954 cada um deles passou por um homem[br]que estava dobrado e a gemer, 0:01:22.000,0:01:23.527 claramente em necessidade. 0:01:23.527,0:01:26.118 A questão é:[br]Será que eles pararam para ajudar? 0:01:26.245,0:01:28.100 A questão mais interessante é: 0:01:28.100,0:01:31.954 Fez diferença eles estarem a contemplar,[br]na prática, a parábola do Bom Samaritano? 0:01:32.518,0:01:35.308 Resposta: Não, de todo. 0:01:36.000,0:01:38.254 Veio-se a descobrir que o que determinava 0:01:38.254,0:01:41.127 se uma pessoa parava e ajudava[br]o desconhecido em necessidade 0:01:41.127,0:01:43.972 era quão apressados[br]eles pensavam que estavam, 0:01:44.000,0:01:45.990 quão atrasados eles pensavam que estavam, 0:01:45.990,0:01:49.754 ou quão absorvidos eles estavam[br]no que iam falar. 0:01:50.000,0:01:53.372 Penso que isto é o dilema da nossa vida: 0:01:53.372,0:01:57.209 não usamos todas as oportunidades[br]para ajudar, 0:01:57.209,0:02:00.354 porque a nossa atenção[br]está na direção errada. 0:02:00.354,0:02:03.854 Há um novo ramo na ciência do cérebro:[br]a neurociência social. 0:02:04.000,0:02:08.181 Este ramo estuda os circuitos[br]no cérebro de duas pessoas 0:02:08.181,0:02:10.936 que se ativam enquanto elas interagem. 0:02:10.936,0:02:14.645 A nova abordagem à compaixão[br]do ponto de vista da neurociência social 0:02:14.645,0:02:18.936 é a de que o nosso circuito cerebral,[br]por defeito, é propenso a ajudar. 0:02:18.936,0:02:22.700 Isto significa que,[br]se ajudarmos o próximo, 0:02:22.754,0:02:26.736 nós automaticamente[br]criamos empatia e ligamo-nos a ele. 0:02:27.000,0:02:29.736 Esses neurónios recém-identificados,[br]os neurónios espelho, 0:02:29.736,0:02:33.627 funcionam como uma rede neuro Wi-Fi,[br]que ativam no nosso cérebro 0:02:33.627,0:02:35.727 as mesmas áreas ativadas no outro. 0:02:35.727,0:02:37.863 Ligamo-nos automaticamente. 0:02:37.863,0:02:41.781 Se essa pessoa está em necessidade,[br]se essa pessoa está a sofrer, 0:02:41.881,0:02:44.545 nós automaticamente[br]estamos preparados para ajudar. 0:02:44.545,0:02:46.600 Pelo menos, é este o argumento. 0:02:46.600,0:02:49.163 Então, a pergunta é:[br]Porque não o fazemos? 0:02:49.163,0:02:51.927 E eu penso que isto abrange um espetro 0:02:52.000,0:02:54.445 que vai desde a autoabsorção completa, 0:02:54.863,0:02:57.772 até notar, criar empatia[br]e até à compaixão. 0:02:57.772,0:03:01.863 O facto simples é, se estivermos[br]concentrados em nós próprios, 0:03:01.863,0:03:05.154 se estivermos preocupados, como estamos[br]frequentemente durante o dia, 0:03:05.154,0:03:07.772 não damos conta dos outros. 0:03:07.772,0:03:10.536 E esta diferença entre a atenção[br]em nós mesmos e no outro 0:03:10.536,0:03:12.900 pode ser muito subtil. 0:03:12.218,0:03:15.000 No outro dia, estava a fazer[br]a declaração de impostos 0:03:15.000,0:03:18.172 e cheguei ao ponto em que estava a listar[br]todas as doações que fiz, 0:03:18.172,0:03:19.872 e tive uma revelação. 0:03:19.872,0:03:24.000 Cheguei ao cheque que passei[br]à Seva Foundation e notei que pensei: 0:03:24.000,0:03:26.872 "O meu amigo Larry Brilliant[br]deve ter ficado muito feliz 0:03:26.900,0:03:28.600 "por eu ter dado dinheiro à Seva". 0:03:28.600,0:03:31.300 Aí apercebi-me que[br]o que estava a ganhar com a doação 0:03:31.300,0:03:33.318 era uma sensação de narcisismo 0:03:33.318,0:03:35.572 aquilo tinha-me feito sentir bem[br]comigo mesmo. 0:03:35.572,0:03:40.245 Depois comecei a pensar[br]nas pessoas nos Himalaias 0:03:40.245,0:03:42.254 cujas cataratas seriam melhoradas 0:03:42.254,0:03:46.754 e apercebi-me que saltara[br]deste foco em mim meio narcisista 0:03:46.754,0:03:48.709 para uma alegria altruísta, 0:03:48.709,0:03:52.180 sentindo-me bem pelas pessoas[br]que estavam a ser ajudadas. 0:03:52.472,0:03:54.345 Penso que isso é um fator de motivação. 0:03:54.345,0:03:57.181 Mas esta distinção[br]entre focarmo-nos em nós próprios 0:03:57.181,0:03:58.654 e focarmo-nos nos outros 0:03:58.654,0:04:01.481 é daquelas que eu encorajo todos[br]a terem em atenção. 0:04:01.481,0:04:04.945 Podem observá-la numa perspetiva macro[br]no mundo dos namoros. 0:04:05.000,0:04:08.309 Aqui há tempos, eu estava[br]num restaurante de sushi 0:04:08.309,0:04:11.981 e ouvi duas mulheres a falar[br]sobre o irmão de uma delas, 0:04:12.000,0:04:14.781 que era solteiro. E a mulher diz: 0:04:14.781,0:04:17.290 "O meu irmão está com problemas[br]em arranjar namoro, 0:04:17.290,0:04:19.384 "está a tentar os encontros rápidos". 0:04:19.384,0:04:21.214 Conhecem os encontros rápidos? 0:04:21.214,0:04:24.218 As mulheres sentam-se em mesas,[br]os homens rodam de mesa em mesa. 0:04:24.218,0:04:27.236 Há um relógio e uma campainha e,[br]ao fim de cinco minutos, bingo, 0:04:27.236,0:04:29.509 a conversa acaba e a mulher decide 0:04:29.509,0:04:33.745 se quer dar o seu cartão ou email[br]ao homem, para mais conversa. 0:04:33.745,0:04:35.245 E a mulher diz: 0:04:35.245,0:04:39.900 "O meu irmão nunca conseguiu um cartão.[br]E eu sei exatamente porquê. 0:04:39.418,0:04:44.000 Logo que se senta, começa[br]a falar de si próprio sem parar, 0:04:44.000,0:04:45.881 "nunca pergunta coisas sobre a mulher." 0:04:46.000,0:04:51.290 Eu estava a fazer pesquisa[br]na secção Sunday Styles 0:04:51.290,0:04:54.390 do New York Times, analisando[br]as histórias antigas de casamentos 0:04:54.390,0:04:56.636 — porque eram muito interessantes — 0:04:56.636,0:04:59.872 e dei com o casamento[br]da Alice Charney Epstein. 0:04:59.872,0:05:02.645 E ela disse que,[br]quando estava num encontro, 0:05:02.645,0:05:05.536 fazia um teste simples às pessoas. 0:05:05.563,0:05:08.245 O teste era: a partir do momento[br]em que estavam juntos, 0:05:08.245,0:05:10.454 quanto tempo é que o rapaz levava 0:05:10.454,0:05:12.890 a fazer-lhe uma pergunta[br]com a palavra "tu". 0:05:13.254,0:05:17.000 Segundo parece, o Epstein[br]teve nota máxima no teste, daí o artigo. 0:05:17.000,0:05:18.190 (Risos) 0:05:18.190,0:05:20.336 Agora, isto é um pequeno teste 0:05:20.336,0:05:22.545 que eu vos aconselho[br]a experimentar numa festa. 0:05:22.545,0:05:24.836 Aqui na TED há grandes oportunidades. 0:05:26.154,0:05:29.580 A Harvard Business Review[br]publicou recentemente um artigo 0:05:29.580,0:05:32.845 chamado "O Momento Humano",[br]sobre como estabelecer um contacto real 0:05:32.845,0:05:34.445 com uma pessoa no trabalho. 0:05:34.445,0:05:38.636 Dizia que é preciso uma coisa fundamental:[br]desligar o BlackBerry, 0:05:38.836,0:05:42.536 desligar o portátil,[br]acabar o seu sonho para esse dia 0:05:42.572,0:05:45.418 e concentrar toda a atenção nessa pessoa. 0:05:45.809,0:05:50.000 Há uma palavra recém-criada[br]na língua Inglesa 0:05:50.545,0:05:53.699 para o momento em que a pessoa[br]com quem estamos a falar 0:05:53.699,0:05:56.017 saca do seu BlackBerry[br]ou atende o telemóvel, 0:05:56.017,0:05:58.327 e, de repente, nós não já não existimos. 0:05:58.327,0:06:02.000 A palavra é: "pizzled": é uma combinação[br]entre "abismado" e "chateado". 0:06:02.427,0:06:04.790 (Risos) 0:06:05.381,0:06:07.381 Penso que é muito adequado. 0:06:09.172,0:06:11.900 É a nossa empatia, é a nossa ligação 0:06:11.900,0:06:14.863 que nos separa dos maquiavélicos[br]ou dos sociopatas. 0:06:15.072,0:06:19.909 Eu tenho um cunhado[br]que é perito em horror e terror 0:06:19.909,0:06:23.200 — escreveu o livro "Annotated Dracula,[br]the Essencial Frankenstein" — 0:06:23.200,0:06:25.054 devia ter sido um estudioso de Chaucer 0:06:25.054,0:06:28.018 mas nasceu na Transilvânia e penso[br]que isso o afetou um pouco. 0:06:28.018,0:06:29.372 (Risos) 0:06:29.372,0:06:32.281 A certa altura, o meu cunhado Leonard 0:06:32.281,0:06:34.718 decidiu escrever um livro[br]sobre um "serial killer", 0:06:34.718,0:06:38.654 um homem que aterrorizou a vizinhança toda[br]há muitos anos. 0:06:38.654,0:06:41.218 Era conhecido como[br]o estrangulador de Santa Cruz. 0:06:41.218,0:06:45.245 Antes de ser preso, assassinou os avós, 0:06:45.245,0:06:48.545 a mãe e cinco colegas[br]da Universidade de Santa Cruz. 0:06:48.772,0:06:51.772 O meu cunhado foi entrevistar[br]esse assassino 0:06:51.790,0:06:53.145 e, quando o conheceu, 0:06:53.145,0:06:56.118 apercebeu-se que aquele tipo[br]era absolutamente assustador. 0:06:56.118,0:06:58.427 Para começar, tinha[br]mais de 2 metros de altura. 0:06:58.427,0:07:01.500 Mas isso não era a coisa[br]mais assustadora nele. 0:07:01.500,0:07:06.527 A coisa mais assustadora[br]é que tem um QI de 160: um génio. 0:07:07.000,0:07:11.281 Mas não há correlação nenhuma[br]entre o QI e a empatia emocional, 0:07:11.281,0:07:13.227 a ligação com o próximo. 0:07:13.227,0:07:15.881 São coisas controladas[br]por partes distintas do cérebro. 0:07:16.000,0:07:18.890 Por isso a dada altura,[br]o meu cunhado ganha coragem 0:07:18.890,0:07:21.727 para fazer a pergunta[br]a que ele quer mesmo saber a resposta. 0:07:21.727,0:07:24.427 "Como é que conseguiu fazer isto? 0:07:24.427,0:07:26.409 "Não sentiu pena das suas vítimas?" 0:07:26.409,0:07:29.590 Os assassínios foram muito íntimos[br]— ele estrangulou as vítimas. 0:07:29.890,0:07:32.418 E o estrangulador diz muito diretamente: 0:07:32.418,0:07:37.236 "Oh não. Se eu sentisse a angústia,[br]não conseguia tê-lo feito. 0:07:37.363,0:07:43.409 "Tive que desligar essa parte de mim.[br]Tive que desligar essa parte de mim." 0:07:43.709,0:07:48.400 E eu penso que isso é muito perturbador. 0:07:49.000,0:07:53.318 E nesse sentido, tenho estado a refletir[br]sobre desligarmos essa parte de nós. 0:07:53.318,0:07:56.200 Quando nos concentramos em nós mesmos,[br]em qualquer atividade, 0:07:56.200,0:07:59.545 desligamo-nos do facto[br]de poder existir outra pessoa. 0:07:59.736,0:08:05.000 Pensem em ir às compras[br]e pensem nas possibilidades 0:08:05.000,0:08:07.581 de um consumismo com compaixão. 0:08:08.000,0:08:11.372 Neste momento,[br]como o Bill McDonough mostrou, 0:08:12.281,0:08:16.490 os objetos que compramos e usamos[br]têm consequências escondidas. 0:08:16.609,0:08:20.081 Somos todos vítimas involuntárias[br]de uma cegueira coletiva. 0:08:20.081,0:08:23.381 Não nos apercebemos e não nos apercebemos[br]que não nos apercebemos 0:08:23.381,0:08:26.672 das moléculas tóxicas que são emitidas 0:08:26.672,0:08:30.000 por uma carpete[br]ou pelo tecido dos estofos. 0:08:30.000,0:08:35.136 Ou não sabemos se o tecido[br]é um nutriente tecnológico 0:08:35.136,0:08:37.490 ou de manufatura. 0:08:37.563,0:08:40.854 Poderá ser reutilizado[br]ou vai parar ao aterro? 0:08:40.872,0:08:44.172 Por outras palavras,[br]esquecemos as consequências 0:08:44.172,0:08:49.672 para a saúde ecológica e pública[br]e para a justiça económica e social. 0:08:50.036,0:08:52.491 das coisas que compramos e usamos. 0:08:54.000,0:08:59.772 Neste sentido, a sala em si[br]é o elefante na sala, mas não o vemos. 0:08:59.945,0:09:04.709 E tornamo-nos vítimas de um sistema[br]que nos guia para outro lado. 0:09:05.172,0:09:06.463 Considerem isto. 0:09:06.463,0:09:08.418 Há um livro maravilhoso chamado 0:09:08.418,0:09:12.327 "Coisas: A vida escondida[br]dos objetos do dia-a-dia." 0:09:13.000,0:09:16.418 Fala da história por detrás[br]de uma coisa como uma T-shirt. 0:09:16.418,0:09:19.427 Fala sobre o local onde o algodão cresceu, 0:09:19.427,0:09:23.054 os fertilizantes que foram usados[br]e as suas consequências para o solo. 0:09:23.772,0:09:25.445 E menciona, por exemplo, 0:09:25.445,0:09:28.245 que o algodão é muito resistente[br]aos corantes têxteis; 0:09:28.245,0:09:31.400 cerca de 60% são removidos[br]e vão parar às águas residuais. 0:09:31.400,0:09:33.736 Os epidemiologistas sabem bem 0:09:33.736,0:09:37.000 que as crianças que vivem[br]perto de fábricas têxteis 0:09:37.000,0:09:40.118 tendem a ter elevada propensão[br]para a leucemia. 0:09:40.118,0:09:44.509 Há uma empresa, a Bennett and Company,[br]que é fornecedora da Polo.com, 0:09:45.000,0:09:50.336 da Victoria's Secret — devido ao seu CEO,[br]que está ciente disto — 0:09:51.000,0:09:55.354 formou uma parceria na China[br]com os fornecedores de corantes 0:09:55.354,0:09:57.409 para garantirem que as águas residuais 0:09:57.409,0:10:01.336 seriam tratadas apropriadamente[br]antes de retornarem às águas dos solos. 0:10:01.336,0:10:04.063 Neste momento,[br]não temos a opção de escolher 0:10:04.063,0:10:07.181 entre a T-shirt ecológica[br]e a não ecológica. 0:10:08.099,0:10:11.472 O que seria preciso fazer[br]para que isso fosse possível? 0:10:13.000,0:10:15.236 Tenho estado a pensar. 0:10:15.727,0:10:19.963 Para começar, há uma nova tecnologia[br]de etiquetagem 0:10:19.963,0:10:22.400 que permite que qualquer loja conheça 0:10:22.400,0:10:26.000 toda a história de qualquer item[br]nas prateleiras dessa loja. 0:10:26.000,0:10:28.090 Pode até saber-se a fábrica de onde veio. 0:10:28.090,0:10:32.527 Depois de a conhecer,[br]podem analisar-se os processos de fabrico 0:10:32.527,0:10:34.618 que foram usados para o fazer 0:10:34.618,0:10:37.845 e, se foram os corretos,[br]pode-se etiquetar dessa forma. 0:10:38.590,0:10:44.327 Se não foram tão corretos,[br]podemos ir a qualquer loja, 0:10:44.327,0:10:47.672 passa-se o código de barras[br]pelo leitor ótico 0:10:47.672,0:10:49.409 o que vos leva a um site. 0:10:49.409,0:10:52.054 Faz-se isso para as pessoas[br]alérgicas aos amendoins. 0:10:52.054,0:10:54.890 Esse site pode dizer-nos coisas[br]sobre esse objeto. 0:10:55.000,0:10:56.854 Ou seja, em qualquer ponto de venda, 0:10:56.854,0:11:00.527 é possível fazer uma escolha[br]com base na compaixão. 0:11:00.527,0:11:06.309 Há um ditado no mundo das ciências[br]da informação que é: 0:11:06.309,0:11:09.272 "No final, toda a gente saberá de tudo". 0:11:09.454,0:11:12.154 A questão é: "Será que faz diferença?" 0:11:13.000,0:11:16.872 Há uns tempos, quando eu estava[br]a trabalhar para o New York Times, 0:11:17.000,0:11:19.200 — foi nos anos 80 — escrevi um artigo 0:11:19.200,0:11:21.700 sobre o que era na altura[br]um problema em Nova Iorque, 0:11:21.700,0:11:23.918 os sem-abrigo a viver nas ruas. 0:11:23.918,0:11:27.090 Durante umas semanas, acompanhei[br]uma organização de apoio social 0:11:27.090,0:11:29.063 que auxiliava os sem-abrigo. 0:11:29.063,0:11:35.163 Apercebi-me, ao olhar para os olhos deles,[br]que quase todos eram doentes mentais 0:11:35.163,0:11:36.809 que não tinham para onde ir. 0:11:36.809,0:11:38.554 Eles tinham um diagnóstico. 0:11:38.554,0:11:43.000 Isso fez-me acordar para a realidade[br]que nos passa ao lado na correria citadina. 0:11:43.036,0:11:46.481 Quando passamos por um sem-abrigo 0:11:46.481,0:11:48.918 que está na periferia[br]do nosso campo de visão, 0:11:48.918,0:11:50.836 ele fica na periferia. 0:11:51.781,0:11:55.054 Não reparamos e, por isso, não atuamos. 0:11:57.000,0:12:02.354 Um dia, pouco depois disso[br]— foi numa sexta-feira, no final do dia — 0:12:02.354,0:12:05.427 eu ia a descer para o metro,[br]à hora de ponta. 0:12:05.427,0:12:07.409 Milhares de pessoas[br]a descer as escadas. 0:12:07.409,0:12:09.472 De repente, enquanto ia[br]a descer as escadas, 0:12:09.472,0:12:12.436 reparei que havia um homem[br]caído para o lado, 0:12:12.436,0:12:14.981 sem camisa, sem se mexer, 0:12:14.981,0:12:17.154 e as pessoas estavam[br]a passar por cima dele, 0:12:17.154,0:12:19.199 centenas e centenas de pessoas. 0:12:19.199,0:12:23.054 Como a minha correria urbana[br]estava, de certa forma, enfraquecida, 0:12:23.054,0:12:26.663 eu parei para ver[br]o que se estava a passar. 0:12:27.000,0:12:29.845 Quando parei, meia dúzia de outras pessoas 0:12:29.845,0:12:32.218 pararam imediatamente[br]junto do mesmo homem. 0:12:32.218,0:12:34.809 Descobrimos que era latino,[br]não falava inglês, 0:12:34.809,0:12:39.327 não tinha dinheiro, estava a viver[br]na rua há dias, a morrer de fome, 0:12:39.327,0:12:40.799 e tinha desmaiado de fome. 0:12:40.799,0:12:43.854 Imediatamente, um foi buscar[br]sumo de laranja, outro, um cachorro, 0:12:43.854,0:12:45.754 chamaram um segurança do metro. 0:12:45.754,0:12:48.000 O homem conseguiu levantar-se. 0:12:48.245,0:12:52.209 Só foi preciso reparar que ele existia. 0:12:52.863,0:12:54.463 Por isso, eu estou otimista. 0:12:54.463,0:12:55.709 Muito obrigado. 0:12:55.709,0:12:57.000 (Aplausos)