1 00:00:01,000 --> 00:00:04,480 Ik ben getroffen door wat een van de impliciete thema's van TED is, 2 00:00:04,480 --> 00:00:05,566 compassie, 3 00:00:05,566 --> 00:00:09,172 in de zeer ontroerende voorbeelden die we net zagen: 4 00:00:09,172 --> 00:00:13,000 hiv in Afrika, President Clinton gisteravond. 5 00:00:13,000 --> 00:00:18,000 Ik zou daarover graag wat collateraal denken, zogezegd, 6 00:00:18,000 --> 00:00:23,000 en mijn gedachten over compassie van mondiaal naar persoonlijk brengen. 7 00:00:23,000 --> 00:00:26,680 Ik ben een psycholoog, maar wees gerust, ik zal het netjes houden. 8 00:00:27,000 --> 00:00:31,000 (Gelach) 9 00:00:31,450 --> 00:00:34,400 Een tijdje geleden werd er een belangrijk onderzoek gedaan 10 00:00:34,400 --> 00:00:36,390 aan het Princeton Theologisch Seminarie 11 00:00:36,390 --> 00:00:42,330 over waarom we als we veel kansen hebben om te helpen, 12 00:00:42,330 --> 00:00:45,000 we dat soms wel en soms niet doen. 13 00:00:45,500 --> 00:00:49,470 Aan een paar theologiestudenten van het Princeton Theologisch Seminarie 14 00:00:50,000 --> 00:00:54,000 werd gezegd dat ze een oefenpreek moesten geven 15 00:00:54,000 --> 00:00:57,000 en ieder kreeg een onderwerp voor de preek. 16 00:00:57,000 --> 00:01:00,000 De helft van die studenten kreeg als onderwerp 17 00:01:00,000 --> 00:01:02,000 de parabel van de Barmhartige Samaritaan: 18 00:01:02,000 --> 00:01:07,600 de man die stilhield om hulp te geven aan de vreemdeling in nood langs de weg. 19 00:01:07,600 --> 00:01:10,000 De andere helft kreeg willekeurige Bijbelthema's. 20 00:01:10,000 --> 00:01:13,000 Toen werden ze om beurten naar een ander gebouw gestuurd 21 00:01:13,710 --> 00:01:15,000 om hun preek te geven. 22 00:01:15,000 --> 00:01:18,000 Onderweg naar het andere gebouw 23 00:01:18,000 --> 00:01:21,590 kwam iedere student langs een man die voorovergebogen stond te kreunen, 24 00:01:21,590 --> 00:01:26,000 die duidelijk in nood was. De vraag is: stopten ze om te helpen? 25 00:01:26,000 --> 00:01:27,900 Nog interessanter is: 26 00:01:27,900 --> 00:01:31,000 maakte het wat uit of ze nadachten over het verhaal 27 00:01:31,000 --> 00:01:35,000 van de Barmhartige Samaritaan? Nee, helemaal niet. 28 00:01:36,000 --> 00:01:40,360 Of ze stopten om een vreemdeling in nood te helpen, 29 00:01:40,360 --> 00:01:43,620 werd bepaald door hoeveel haast ze dachten te hebben— 30 00:01:43,620 --> 00:01:45,970 of ze dachten dat ze te laat waren, 31 00:01:45,970 --> 00:01:49,620 of ze opgeslokt waren door waarover ze gingen vertellen. 32 00:01:49,620 --> 00:01:52,830 Ik denk dat dat het dilemma van ons leven is: 33 00:01:53,010 --> 00:01:57,000 we grijpen niet iedere gelegenheid aan om te helpen, 34 00:01:57,000 --> 00:02:00,000 omdat onze focus verkeerd gericht is. 35 00:02:00,000 --> 00:02:03,660 Een nieuw vak in de hersenwetenschappen is sociale neurowetenschap. 36 00:02:03,670 --> 00:02:08,000 Die bestudeert de hersencircuits van twee mensen 37 00:02:08,000 --> 00:02:10,360 die geactiveerd worden tijdens hun interactie. 38 00:02:10,360 --> 00:02:14,630 Het nieuwe denken over compassie in sociale neurowetenschap 39 00:02:14,630 --> 00:02:18,270 is dat we standaard aangelegd zijn om te helpen. 40 00:02:18,270 --> 00:02:22,760 Dat wil zeggen: als we aandacht geven aan anderen 41 00:02:22,760 --> 00:02:26,320 leven we ons automatisch in, voelen we automatisch mee met ze. 42 00:02:26,320 --> 00:02:31,220 Recent ontdekte spiegelneuronen activeren als een neuro-wifi 43 00:02:31,220 --> 00:02:35,060 precies die gebieden, die in het brein van de ander actief zijn. 44 00:02:35,060 --> 00:02:37,430 We voelen automatisch mee. 45 00:02:37,430 --> 00:02:41,600 Als die persoon in nood verkeert, als die persoon lijdt, 46 00:02:41,610 --> 00:02:46,250 dan zijn we automatisch bereid te helpen. Althans, dat is de stelling. 47 00:02:46,250 --> 00:02:49,000 Maar dan is de vraag: waarom doen we het niet? 48 00:02:49,000 --> 00:02:51,700 Volgens mij gaat het om een spectrum 49 00:02:51,700 --> 00:02:54,000 dat loopt van volledig egocentrisme, 50 00:02:54,790 --> 00:02:57,500 naar opmerken, naar empathie, naar mededogen. 51 00:02:57,500 --> 00:03:01,720 Het is een simpel feit dat als we in onszelf gekeerd zijn, 52 00:03:01,720 --> 00:03:05,000 als we in beslag genomen worden door de dagelijkse zorgen, 53 00:03:05,000 --> 00:03:08,000 dan merken we de ander niet volkomen op. 54 00:03:08,000 --> 00:03:11,710 Dit verschil van aandacht voor jezelf en de ander, is soms heel subtiel. 55 00:03:11,710 --> 00:03:15,280 Laatst zat ik mijn belastingformulieren in te vullen en op het punt 56 00:03:15,280 --> 00:03:19,090 dat ik al mijn schenkingen opsomde, kreeg ik een ingeving. 57 00:03:19,090 --> 00:03:23,460 Aangekomen bij mijn donatie aan de Seva-stichting, viel me op 58 00:03:23,460 --> 00:03:26,540 dat ik dacht hoe blij mijn vriend Larry Brilliant zou zijn 59 00:03:26,540 --> 00:03:28,230 dat ik geld gaf aan Seva. 60 00:03:28,230 --> 00:03:31,000 Toen besefte ik dat ik van geven 61 00:03:31,000 --> 00:03:35,000 een narcistische kick kreeg -- dat ik trots op mezelf was. 62 00:03:35,000 --> 00:03:40,000 Toen begon ik te denken aan de mensen in de Himalaya 63 00:03:40,000 --> 00:03:42,650 bij wie staar kon worden verholpen, en besefte 64 00:03:42,650 --> 00:03:46,560 dat ik van deze narcistische zelfgerichtheid 65 00:03:46,560 --> 00:03:50,000 naar altruïstisch plezier ging, naar mezelf goed voelen 66 00:03:50,000 --> 00:03:54,000 voor de mensen die werden geholpen. Volgens mij is dat een beweegreden. 67 00:03:54,000 --> 00:03:57,000 Maar dit onderscheid tussen de aandacht richten op onszelf 68 00:03:57,000 --> 00:03:58,000 of op anderen 69 00:03:58,000 --> 00:04:01,000 is iets waar we echt op moeten letten. 70 00:04:01,000 --> 00:04:04,550 Op een bepaalde manier zie je het ook bij het daten. 71 00:04:05,000 --> 00:04:09,080 Ik zat laatst in een sushi-restaurant en daar hoorde ik 72 00:04:09,080 --> 00:04:11,600 twee vrouwen praten over de broer van een van hen 73 00:04:11,600 --> 00:04:15,000 die nog alleen was. En die vrouw zegt: 74 00:04:15,000 --> 00:04:17,000 “Mijn broer krijgt maar geen verkering, 75 00:04:17,000 --> 00:04:19,000 dus probeert hij speed dating.” Weten jullie wat dat is? 76 00:04:19,000 --> 00:04:23,000 Vrouwen zitten aan tafels en mannen gaan van tafel naar tafel 77 00:04:23,000 --> 00:04:26,000 en er is een klok en een bel en na vijf minuten, bingo, 78 00:04:27,000 --> 00:04:29,000 einde gesprek en dan kan de vrouw beslissen 79 00:04:29,000 --> 00:04:33,000 of ze haar visitekaartje of email-adres aan die man geeft 80 00:04:33,000 --> 00:04:36,180 voor een vervolg. En die vrouw zegt: “Mijn broer heeft nog nooit 81 00:04:36,180 --> 00:04:39,570 een kaartje gehad. En ik weet precies waarom. 82 00:04:39,570 --> 00:04:44,000 Vanaf het moment dat hij gaat zitten, praat hij non-stop over zichzelf; 83 00:04:44,000 --> 00:04:45,700 hij vraagt nooit naar de vrouw.” 84 00:04:46,000 --> 00:04:51,920 Ik deed wat onderzoek in de New York Times' Sunday Styles-sectie 85 00:04:51,920 --> 00:04:55,600 en las de achtergrondverhalen van huwelijken— die zeer interessant zijn— 86 00:04:55,600 --> 00:04:59,280 en daar kwam ik bij het huwelijk van Alice Charney-Epstein. 87 00:04:59,290 --> 00:05:02,420 Zij zei dat toen zij aan het daten was, 88 00:05:02,420 --> 00:05:05,000 ze de mensen aan een testje onderwierp. 89 00:05:05,370 --> 00:05:09,420 De test was hoelang het duurde, vanaf het begin van hun samenzijn, 90 00:05:09,420 --> 00:05:13,100 todat de man haar een vraag stelde met het woord ‘jij’ erin. 91 00:05:13,100 --> 00:05:17,000 Epstein had het blijkbaar goed gedaan, vandaar het artikel. 92 00:05:17,000 --> 00:05:18,000 (Gelach) 93 00:05:18,000 --> 00:05:20,000 Nou dit is—het is een testje 94 00:05:20,000 --> 00:05:22,000 dat je kunt uitproberen op een feest. 95 00:05:22,000 --> 00:05:24,000 Hier bij TED zijn een goeie gelegenheden. 96 00:05:26,000 --> 00:05:29,000 In de Harvard Buisiness Review stond onlangs een artikel, 97 00:05:29,000 --> 00:05:32,000 “Het Menselijke Moment,” over hoe je écht contact kunt maken 98 00:05:32,000 --> 00:05:35,000 met iemand op je werk. Ze zeiden: nou, 99 00:05:35,000 --> 00:05:38,000 het belangrijkste is dat je je BlackBerry uitzet, 100 00:05:39,000 --> 00:05:42,070 je laptop dichtdoet, stopt met dagdromen 101 00:05:42,770 --> 00:05:45,710 en iemand je volledige aandacht geeft. 102 00:05:45,710 --> 00:05:50,000 Er is een nieuw woord in de Engelse taal 103 00:05:50,650 --> 00:05:54,090 voor het moment dat je metgezel opeens zijn BlackBerry openklapt 104 00:05:54,090 --> 00:05:57,240 of zijn gsm beantwoordt en wij niet meer lijken te bestaan. 105 00:05:57,750 --> 00:06:02,000 Het woord is ‘pizzled’: een combinatie van ‘puzzled’ en ‘pissed off’. 106 00:06:02,000 --> 00:06:05,000 (verbaasd en kwaad) (Gelach) 107 00:06:05,000 --> 00:06:08,333 Het klopt wel goed, vind ik. 108 00:06:08,703 --> 00:06:11,666 Het is onze empathie, onze ontvankelijkheid 109 00:06:11,666 --> 00:06:15,000 die ons onderscheidt van Machiavellisten of sociopaten. 110 00:06:15,000 --> 00:06:20,000 Ik heb een zwager die expert is in horror en terreur— 111 00:06:20,000 --> 00:06:23,000 hij schreef de geannoteerde Dracula, de Essential Frankenstein— 112 00:06:23,000 --> 00:06:26,160 hij is opgeleid als Chaucer-geleerde, maar geboren in Transylvanië, 113 00:06:26,160 --> 00:06:28,150 waardoor hij een beetje anders is, denk ik. 114 00:06:28,150 --> 00:06:32,000 Dus mijn zwager, Leonard, 115 00:06:32,000 --> 00:06:34,280 besloot een boek te schrijven over een seriemoordenaar. 116 00:06:34,280 --> 00:06:38,020 Dat is een man die jaren geleden deze hele buurt terroriseerde. 117 00:06:38,020 --> 00:06:40,630 Hij stond bekend als de wurger van Santa Cruz. 118 00:06:40,630 --> 00:06:45,000 Voordat hij was gearresteerd, had hij zijn grootouders vermoord, 119 00:06:45,000 --> 00:06:48,540 zijn moeder, en vijf medestudenten aan de universiteit van Santa Cruz. 120 00:06:48,600 --> 00:06:51,630 Dus mijn zwager gaat die moordenaar interviewen 121 00:06:52,000 --> 00:06:54,000 en tijdens de ontmoeting beseft hij 122 00:06:54,000 --> 00:06:55,550 dat deze man echt heel eng is. 123 00:06:55,550 --> 00:06:58,000 Om te beginnen is hij ruim 2 meter lang. 124 00:06:58,000 --> 00:07:01,000 Maar dat is niet het meest angstaanjagende aan hem. 125 00:07:01,000 --> 00:07:06,000 Het engste is dat zijn IQ 160 is, een echt genie. 126 00:07:07,000 --> 00:07:11,000 Maar er bestaat geen enkel verband tussen IQ en inlevingsvermogen, 127 00:07:11,000 --> 00:07:12,960 meevoelen met de ander. 128 00:07:12,960 --> 00:07:15,720 Dat komt uit verschillende delen van het brein. 129 00:07:15,720 --> 00:07:18,580 Uiteindelijk vindt mijn zwager de moed 130 00:07:18,580 --> 00:07:21,470 om te vragen wat hij echt wil weten. 131 00:07:21,470 --> 00:07:24,000 En dat is: “Hoe heb je het kunnen doen? 132 00:07:24,000 --> 00:07:26,000 Had je geen medelijden met je slachtoffers?” 133 00:07:26,000 --> 00:07:29,000 Dit waren hele intieme moorden— hij wurgde zijn slachtoffers. 134 00:07:29,710 --> 00:07:32,000 En de wurger antwoordt zakelijk: 135 00:07:32,000 --> 00:07:37,000 “Oh nee, als ik hun angst had gevoeld, had ik het niet gekund. 136 00:07:37,000 --> 00:07:43,000 Dat deel van mij moest ik uitzetten. Dat deel van mij moest ik uitzetten.” 137 00:07:43,000 --> 00:07:48,000 Dat vind ik echt verontrustend. 138 00:07:49,000 --> 00:07:53,150 Op een bepaalde manier, heb ik nagedacht over dat deel van ons uitzetten. 139 00:07:53,150 --> 00:07:55,590 Als we op onszelf gericht met iets bezig zijn, 140 00:07:55,590 --> 00:07:59,000 dan zetten we dat deel van ons uit als er een ander is. 141 00:07:59,450 --> 00:08:05,000 Denk eens aan boodschappen doen en aan de mogelijkheden 142 00:08:05,000 --> 00:08:07,710 van consumeren met mededogen. 143 00:08:08,000 --> 00:08:10,820 Op dit moment, zoals Bill MDonough heeft uitgewezen 144 00:08:12,000 --> 00:08:16,000 hebben de dingen die we kopen en gebruiken verborgen gevolgen, 145 00:08:16,000 --> 00:08:19,000 We zijn allemaal onwetende slachtoffers van een collectieve blinde vlek. 146 00:08:20,000 --> 00:08:22,000 We hebben het niet door en we hebben dat niet door: 147 00:08:23,000 --> 00:08:29,000 welke giftige moleculen worden uitgewasemd door het vloerkleed of de stoelbekleding. 148 00:08:30,000 --> 00:08:35,000 En we weten niet of die stof een technologische 149 00:08:35,000 --> 00:08:39,000 of productievoedingsstof is; kan het opnieuw gebruikt worden 150 00:08:39,000 --> 00:08:41,000 of belandt het zo op de vuilnisbelt? Oftewel: 151 00:08:41,000 --> 00:08:46,000 we zijn ons onbewust van de gevolgen voor de ecologie en de volksgezondheid 152 00:08:47,000 --> 00:08:50,000 en de sociale en economische rechtvaardigheid 153 00:08:50,000 --> 00:08:52,000 van de dingen die we kopen en gebruiken. 154 00:08:54,000 --> 00:08:58,000 Op een bepaalde manier is de kamer zelf de olifant in de kamer 155 00:08:58,000 --> 00:09:02,000 maar zien wij het niet. We zijn slachtoffers geworden 156 00:09:02,000 --> 00:09:05,000 van een systeem dat ons in een andere richting wijst. Denk eens na over het volgende. 157 00:09:06,000 --> 00:09:09,000 Er is een prachtig boek met de titel 158 00:09:10,000 --> 00:09:12,000 Spullen. Het Verborgen Leven van Alledaagse Dingen. 159 00:09:13,000 --> 00:09:16,000 Het gaat over de achtergrond van zoiets als een T-shirt. 160 00:09:16,000 --> 00:09:19,000 Het gaat over waar de katoen werd verbouwd 161 00:09:19,000 --> 00:09:21,000 en de gebruikte kunstmest en de gevolgen 162 00:09:21,000 --> 00:09:25,000 voor de grond. Er wordt, bijvoorbeeld, verteld 163 00:09:25,000 --> 00:09:28,000 dat katoen zich moeilijk laat kleuren met textielverf; 164 00:09:28,000 --> 00:09:31,000 ongeveer 60 procent spoelt weg in het afvalwater. 165 00:09:31,000 --> 00:09:34,000 En het is algemeen bekend onder epidemiologen dat kinderen 166 00:09:34,000 --> 00:09:39,000 die in de buurt van textielfabrieken wonen een grotere kans op leukemie hebben. 167 00:09:40,000 --> 00:09:44,000 Het bedrijf Bennett and Company, dat levert aan Polo.com 168 00:09:45,000 --> 00:09:50,000 en aan Victoria's Secret, heeft omdat hun directeur zich hiervan bewust is, 169 00:09:51,000 --> 00:09:55,000 in China een joint venture met hun verfindustrie gevormd 170 00:09:55,000 --> 00:09:57,000 om er zeker van te zijn dat hun afvalwater 171 00:09:57,000 --> 00:10:01,000 deugt voordat het weer terugkeert bij het grondwater. 172 00:10:01,000 --> 00:10:05,000 Op dit moment kunnen wij niet kiezen voor het eerlijke T-shirt 173 00:10:06,000 --> 00:10:10,000 in plaats van het niet-eerlijke. Wat is er nodig om dat wel te kunnen? 174 00:10:13,000 --> 00:10:16,000 Daarover heb ik nagedacht. Om te beginnen is er 175 00:10:16,000 --> 00:10:21,000 een nieuwe elektronische labeltechniek waarmee elke winkel 176 00:10:21,000 --> 00:10:25,000 de volledige geschiedenis kan achterhalen van ieder product op zijn schappen. 177 00:10:26,000 --> 00:10:28,000 Je kan het terugvolgen tot aan de fabriek. Zodra je het kunt terugvolgen 178 00:10:28,000 --> 00:10:32,000 naar de fabriek kun je dus ook kijken naar de fabricageprocessen 179 00:10:32,000 --> 00:10:36,000 die gebruikt zijn om het product te maken, en als die eerlijk zijn 180 00:10:36,000 --> 00:10:40,000 kun je dat op het label zetten. Of als het niet zo eerlijk is 181 00:10:40,000 --> 00:10:44,000 kun je vandaag de dag in elke winkel 182 00:10:44,000 --> 00:10:47,000 een barcode scannen 183 00:10:47,000 --> 00:10:49,000 die je naar een website doorstuurt. 184 00:10:49,000 --> 00:10:51,000 Dat is er al voor mensen met pinda-allergie. 185 00:10:52,000 --> 00:10:54,000 Die site kan je over dat voorwerp vertellen. 186 00:10:55,000 --> 00:10:56,000 Oftewel: bij de aankoop 187 00:10:56,000 --> 00:11:00,000 zouden we een keuze kunnen maken vanuit medeleven. 188 00:11:00,000 --> 00:11:06,000 In communicatiewetenschappen wordt wel eens gezegd: 189 00:11:06,000 --> 00:11:09,000 uiteindelijk zal iedereen alles weten. 190 00:11:09,000 --> 00:11:11,000 En de vraag is: Zal het wat uitmaken? 191 00:11:13,000 --> 00:11:16,000 Enige tijd geleden toen ik voor de New York Times werkte, 192 00:11:17,000 --> 00:11:19,000 dat was in de 80-er jaren, schreef ik een artikel 193 00:11:19,000 --> 00:11:21,000 over wat destijds een nieuw probleem was in New York— 194 00:11:21,000 --> 00:11:23,000 dak- en thuislozen op straat. 195 00:11:23,000 --> 00:11:27,000 En ik liep een paar weken mee met medewerkers van de sociale dienst, 196 00:11:27,000 --> 00:11:30,000 die zich met de daklozen bezig hielden. En ik ontdekte dat de thuislozen 197 00:11:30,000 --> 00:11:35,000 door hun ogen gezien eigenlijk allemaal psychiatrische patiënten waren 198 00:11:35,000 --> 00:11:39,000 die nergens anders naartoe konden. De meesten hadden een diagnose. Het maakte me— 199 00:11:40,000 --> 00:11:43,000 het schudde me wakker uit de trance van de stad waar, 200 00:11:44,000 --> 00:11:47,000 wanneer we een dakloze passeren en vanuit onze ooghoeken zien, 201 00:11:47,000 --> 00:11:50,000 aan de rand van ons zicht, aan de rand blijft. 202 00:11:52,000 --> 00:11:54,000 We zien het niet en daarom handelen we niet. 203 00:11:57,000 --> 00:12:02,000 Niet lang daarna—het was een vrijdag—aan het eind van de dag, 204 00:12:02,000 --> 00:12:05,000 liep ik naar beneden de metro in. Het was spitsuur 205 00:12:05,000 --> 00:12:07,000 en duizenden mensen stroomden de trappen af. 206 00:12:07,000 --> 00:12:09,000 En opeens, terwijl ik de trappen afliep, 207 00:12:09,000 --> 00:12:12,000 merkte ik dat er een man langs de kant lag, 208 00:12:12,000 --> 00:12:16,000 zonder hemd, bewegingsloos, en de mensen stapten gewoon over hem heen— 209 00:12:17,000 --> 00:12:18,000 honderden en honderden mensen. 210 00:12:19,000 --> 00:12:22,000 En omdat mijn stadstrance een beetje was afgezwakt, 211 00:12:23,000 --> 00:12:26,000 stopte ik om uit te zoeken wat er mis was. 212 00:12:27,000 --> 00:12:29,000 Zodra ik stopte kwamen er meteen nog een half dozijn mensen 213 00:12:30,000 --> 00:12:31,000 om dezelfde man staan. 214 00:12:32,000 --> 00:12:34,000 En we ontdekten dat hij Spaans sprak, hij sprak geen Engels, 215 00:12:34,000 --> 00:12:39,000 hij had geen geld, had dagen over straat gezworven, uitgehongerd, 216 00:12:39,000 --> 00:12:40,000 en hij is flauw gevallen van honger. 217 00:12:40,000 --> 00:12:42,000 Meteen ging er iemand sinaasappelsap halen, 218 00:12:42,000 --> 00:12:44,000 iemand bracht een hotdog, iemand haalde er een metro-beveiliger erbij. 219 00:12:45,000 --> 00:12:48,000 Die man stond zo weer op zijn benen. 220 00:12:48,000 --> 00:12:52,000 En alles wat er nodig was, was de simpele daad van opmerken. 221 00:12:53,000 --> 00:12:54,000 Daarom ben ik optimistisch. 222 00:12:54,000 --> 00:12:55,000 Dank u wel 223 00:12:55,000 --> 00:12:57,000 (Applaus)