0:00:00.000,0:00:03.937 Steve Ramirez: Under mitt första år som [br]doktorand, låg jag i mitt sovrum, 0:00:03.937,0:00:06.231 åt massor av Ben & Jerrys, 0:00:06.231,0:00:07.912 tittade på skräp-TV 0:00:07.912,0:00:10.892 och kanske, kanske lyssnade jag[br]på Taylor Swift. 0:00:11.142,0:00:13.193 Jag hade precis blivit dumpad. 0:00:13.193,0:00:14.510 (Skratt) 0:00:14.510,0:00:16.526 Under lång tid kunde jag bara 0:00:16.526,0:00:20.292 tänka på denna person, om och om igen, 0:00:20.292,0:00:22.835 och hoppas att jag skulle bli av[br]med den hjärtslitande 0:00:22.835,0:00:25.368 känslan av likgiltighet inombords. 0:00:25.368,0:00:27.651 Nu är det också så att jag är neurolog, 0:00:27.651,0:00:30.231 så jag visste att minnet av den personen 0:00:30.231,0:00:33.141 och de hemska, emotionella undertoner[br]som färgar minnet, 0:00:33.141,0:00:35.827 till stor del förmedlades av[br]separata delar av hjärnan. 0:00:35.827,0:00:38.192 Så jag tänkte:[br]tänk om vi kunde gå in i hjärnan 0:00:38.192,0:00:40.282 och redigera bort den kväljande känslan, 0:00:40.282,0:00:43.132 men samtidigt behålla minnet[br]av den personen intakt. 0:00:43.132,0:00:45.773 Men jag insåg att det då [br]kanske var lite högtflygande. 0:00:45.773,0:00:48.456 Så tänk om vi kunde börja med [br]att gå in i hjärnan 0:00:48.456,0:00:51.089 och bara hitta ett enda minne[br]till att börja med. 0:00:51.089,0:00:53.603 Kunde vi plocka fram just det minnet, 0:00:53.603,0:00:56.871 kanske även leka med innehållet[br]i det minnet? 0:00:57.471,0:00:59.700 Med det sagt så finns det[br]en person som jag 0:00:59.700,0:01:01.755 verkligen hoppas inte tittar på detta. 0:01:01.755,0:01:04.706 (Skratt) 0:01:05.696,0:01:08.645 Men det finns en hake, det finns en hake. 0:01:08.985,0:01:11.773 Dessa idéer påminner er[br]troligen om "Total Recall", 0:01:11.773,0:01:13.747 "Eternal Sunshine of the Spotless Mind", 0:01:13.747,0:01:14.910 eller "Inception". 0:01:14.910,0:01:16.626 Men "filmstjärnorna" vi jobbar med 0:01:16.626,0:01:18.569 är de verkliga kändisarna i labbet. 0:01:18.569,0:01:20.469 Xu Liu: Försöksråttor. 0:01:20.469,0:01:21.597 (Skratt) 0:01:21.597,0:01:24.861 Som neurologer arbetar vi[br]i labbet med möss 0:01:24.861,0:01:27.811 och försöker förstå hur minnet fungerar. 0:01:28.161,0:01:30.730 Idag hoppas vi kunna övertyga[br]er om att vi nu 0:01:30.730,0:01:33.936 faktiskt har möjlighet att[br]aktivera ett enskilt minne i hjärnan, 0:01:33.946,0:01:36.116 med ljusets hastighet. 0:01:36.116,0:01:39.381 För att göra detta, är det bara[br]två enkla steg att följa: 0:01:39.386,0:01:42.732 Ett, du hittar och markerar[br]ett minne i hjärnan, 0:01:42.732,0:01:46.362 och sedan aktiverar du det[br]med en strömbrytare. 0:01:46.362,0:01:47.807 Så enkelt är det. 0:01:47.807,0:01:49.629 (Skratt) 0:01:49.629,0:01:51.474 SR: Är ni övertygade ännu? 0:01:51.474,0:01:55.055 Att hitta ett minne i hjärnan[br]visar sig dock inte vara så lätt. 0:01:55.055,0:01:57.998 XL: Verkligen. Detta är långt svårare än,[br]låt oss säga, 0:01:57.998,0:01:59.932 att hitta en nål i en höstack,[br] 0:01:59.932,0:02:00.946 (Skratt) 0:02:00.946,0:02:02.991 eftersom, ni vet,[br]nålen är åtminstone något 0:02:02.991,0:02:05.491 som du fysiskt kan sätta fingrarna på. 0:02:05.491,0:02:07.468 Men minnet är inte det. 0:02:07.468,0:02:10.446 Dessutom finns det också[br]mycket fler celler i hjärnan 0:02:10.506,0:02:14.652 än antalet strån i en normal höstack. 0:02:15.572,0:02:18.451 Så ja, denna uppgift[br]kan verka överväldigande. 0:02:18.451,0:02:22.130 Men lyckligtvis[br]fick vi hjälp av hjärnan själv. 0:02:22.130,0:02:24.185 Det visade sig att [br]det enda vi behövde göra 0:02:24.185,0:02:26.578 var att låta hjärnan bilda ett minne, 0:02:26.578,0:02:30.398 sedan kommer hjärnan berätta[br]vilka celler som var involverade 0:02:30.408,0:02:32.174 i skapandet av det specifika minnet. 0:02:32.174,0:02:34.531 SR: Så vad var det som hände i min hjärna 0:02:34.531,0:02:36.625 när jag plockade fram minnet av ett ex? 0:02:36.625,0:02:39.027 Om man bara ignorerar[br]etik för ett ögonblick 0:02:39.027,0:02:40.695 och delar upp min hjärna i skivor, 0:02:40.695,0:02:42.713 skulle man se att det fanns många 0:02:42.713,0:02:45.711 områden i hjärnan som är aktiva[br]när det minnet tas fram. 0:02:45.891,0:02:48.803 En region i hjärnan[br]som kraftfullt skulle aktiveras 0:02:48.803,0:02:50.810 är i synnerhet den som kallas hippocampus, 0:02:50.810,0:02:53.265 som i årtionden har misstänkts vara[br]inblandad i 0:02:53.265,0:02:55.681 de typer av minnen som vi håller kära, 0:02:55.681,0:02:58.255 vilket också gör den idealisk[br]att undersöka 0:02:58.255,0:03:01.040 för att försöka hitta[br]och kanske återaktivera ett minne. 0:03:01.040,0:03:03.434 XL: När du zoomar in på hippocampus, 0:03:03.434,0:03:05.782 kommer du självklart[br]att se massor av celler, 0:03:05.782,0:03:08.763 men vi kan hitta de celler[br]som är involverade 0:03:08.813,0:03:10.289 i ett särskilt minne, 0:03:10.289,0:03:12.907 eftersom när en cell är aktiv, 0:03:12.907,0:03:14.371 som när det formas ett minne, 0:03:14.371,0:03:18.118 kommer det också att lämnas ett avtryck[br]som sen låter oss veta 0:03:18.128,0:03:20.720 att dessa celler nyligen varit aktiva. 0:03:20.720,0:03:23.400 SR: På samma sätt som lampor i[br]husfönster om natten säger 0:03:23.400,0:03:25.938 att någon förmodligen[br]arbetar i just den stunden, 0:03:25.938,0:03:28.916 på samma sätt,[br]finns det bioloqgiska sensorer, 0:03:29.226,0:03:31.180 i en cell som aktiveras 0:03:31.180,0:03:33.315 endast när just den cellen nyss arbetat. 0:03:33.315,0:03:35.191 De är som biologiska fönster som lyser 0:03:35.191,0:03:37.169 och berättar att cellen nyss var aktiv. 0:03:37.169,0:03:39.998 XL: Så vi beskar en del av denna sensor, 0:03:39.998,0:03:42.955 och kopplade den till en strömbrytare[br]att styra cellerna med, 0:03:43.145,0:03:47.025 och vi förpackade denna strömbrytare[br]i ett konstruerat virus 0:03:47.045,0:03:49.633 och injicerade det in hjärnan på mössen. 0:03:49.633,0:03:52.267 Så när ett minne bildas, 0:03:52.267,0:03:54.615 kommer alla aktiva celler för det minnet 0:03:54.615,0:03:57.357 också att ha denna [br]strömbrytare installerad. 0:03:57.357,0:03:58.982 SR: Här ser ni hippocampus 0:03:58.982,0:04:01.822 efter att ha bildat ett minne av rädsla,[br]till exempel. 0:04:01.822,0:04:03.962 Det blå området som ni ser här 0:04:03.962,0:04:05.914 är tätt packade hjärnceller, 0:04:05.914,0:04:07.459 men de gröna hjärncellerna, 0:04:07.459,0:04:09.555 de gröna hjärncellerna[br]är de som innehåller 0:04:09.555,0:04:11.398 ett specifikt minne av rädsla. 0:04:11.398,0:04:13.377 Så det ni ser är kristalliseringen 0:04:13.377,0:04:15.764 av det flyktiga bildandet av rädsla. 0:04:15.764,0:04:18.951 Ni ser faktiskt just nu[br]på tvärsnittet av ett minne. 0:04:19.261,0:04:21.669 XL: Så, till strömbrytaren vi talat om, 0:04:21.669,0:04:24.639 helst måste den agera riktigt snabbt. 0:04:24.639,0:04:27.218 Det bör inte ta minuter eller timmar. 0:04:27.218,0:04:31.492 Det bör hända i hjärnans hastighet,[br]på millisekunder. 0:04:31.492,0:04:32.912 SR: Så vad tycker du, Xu? 0:04:32.912,0:04:35.514 Skulle vi kunna använda[br]farmakologiska läkemedel 0:04:35.514,0:04:37.872 för att aktivera[br]eller inaktivera hjärnceller? 0:04:37.872,0:04:41.415 XL: Nja, läkemedel är ganska röriga,[br]de sprider sig överallt. 0:04:41.415,0:04:44.423 Och dessutom tar det dem en evighet[br]att påverka enskilda celler. 0:04:44.423,0:04:48.072 Så de gör det inte möjligt att styra[br]ett minne i realtid. 0:04:48.072,0:04:52.356 Men Steve, vad sägs om att ge[br]hjärnan en elstöt istället? 0:04:52.356,0:04:54.671 SR: Elektricitet är en rätt snabb metod, 0:04:54.671,0:04:56.410 men vi kan nog inte kunna rikta den 0:04:56.410,0:04:58.764 till enbart de celler [br]som bär på ett minne, 0:04:58.764,0:05:00.642 och vi skulle nog steka hjärnan. 0:05:00.642,0:05:03.817 XL: Ah, det är sant,[br]så är det nog, hmmm. 0:05:03.837,0:05:06.448 Ja, vi måste hitta ett bättre sätt 0:05:06.448,0:05:09.743 att påverka hjärnan i ljusets hastighet. 0:05:09.743,0:05:14.809 SR: Det råkar vara så att ljuset[br]färdas i ljusets hastighet. 0:05:14.829,0:05:18.302 Så vi kunde kanske aktivera[br]eller inaktivera minnen, 0:05:18.312,0:05:19.809 bara med hjälp av ljus. 0:05:19.809,0:05:21.164 XL: Det är ganska snabbt. 0:05:21.164,0:05:23.049 SR: Och eftersom hjärnceller vanligtvis 0:05:23.049,0:05:24.637 inte reagerar på ljuspulser, 0:05:24.637,0:05:26.595 så är de som skulle svara på ljuspulser, 0:05:26.595,0:05:28.819 de som innehåller[br]en ljuskänslig strömbrytare. 0:05:28.829,0:05:31.005 För att göra det,[br]måste vi lura hjärncellerna 0:05:31.005,0:05:32.467 att reagera på laserstrålar. 0:05:32.467,0:05:33.537 XL: Ja, ni hörde rätt. 0:05:33.537,0:05:35.669 Vi försöker skjuta laserstrålar[br]in i hjärnan. 0:05:35.669,0:05:37.414 (Skratt) 0:05:37.414,0:05:40.728 SR: Och tekniken som låter oss göra det[br]är optogenetik. 0:05:40.738,0:05:43.370 Optogenetik gav oss en strömbrytare[br]som vi kan använda 0:05:43.390,0:05:45.528 för att slå på eller slå av hjärncellerna, 0:05:45.528,0:05:47.575 och den kopplingen kallas kanalrodopsin, 0:05:47.575,0:05:50.582 som ni ser som gröna prickar[br]kopplade till denna hjärncell. 0:05:50.582,0:05:53.891 Ni kan tänka er kanalrodopsin[br]som en ljuskänslig strömbrytare 0:05:53.891,0:05:56.508 som kan installeras i hjärnans celler[br]på konstgjord väg 0:05:56.508,0:05:58.422 så att vi nu kan använda strömbrytaren 0:05:58.422,0:06:01.395 för att slå av eller på hjärncellen[br]genom att klicka på den, 0:06:01.395,0:06:03.903 och i detta fall klickar vi på den[br]med ljuspulser. 0:06:03.903,0:06:07.679 XL: Så vi kopplar denna ljuskänsliga[br]kanalrodopsin-strömbrytare 0:06:07.689,0:06:09.897 till sensorn vi har pratat om 0:06:09.897,0:06:12.352 och injicerar det in i hjärnan. 0:06:12.352,0:06:15.313 Så närhelst ett minne bildas, 0:06:15.563,0:06:17.790 så kommer varje aktiv cell för det minnet 0:06:17.790,0:06:21.084 också att ha denna ljuskänsliga[br]strömbrytare installerad, 0:06:21.274,0:06:23.675 så att vi kan kontrollera dessa celler 0:06:23.675,0:06:27.929 genom att slå på eller av en laserstråle,[br]precis som denna. 0:06:27.939,0:06:30.803 SR: Så låt oss sätta allt detta på prov. 0:06:30.803,0:06:32.938 Det vi kan göra,[br]är att vi kan ta våra möss 0:06:32.938,0:06:35.866 och sedan sätta dem i en låda[br]som ser ut exakt som denna, 0:06:35.866,0:06:38.206 och så kan vi ge[br]en mycket svag elstöt i tassarna 0:06:38.206,0:06:40.381 så de bildar ett minne[br]av rädsla från lådan. 0:06:40.381,0:06:42.220 De lär sig att något hemskt hände här. 0:06:42.220,0:06:44.562 Med vårt system kommer [br]de celler som är aktiva 0:06:44.562,0:06:47.493 i hippocampus vid skapandet[br]av detta minne, 0:06:47.493,0:06:50.376 och endast de cellerna,[br]att innehålla kanalrodopsin. 0:06:50.376,0:06:53.373 XL: När du är liten som en mus, 0:06:53.393,0:06:56.388 känns det som om hela världen[br]försöker få tag i dig. 0:06:56.988,0:06:58.736 Så ditt bästa försvar 0:06:58.736,0:07:01.218 är att försöka vara oupptäckt. 0:07:01.218,0:07:02.881 När en mus känner rädsla, 0:07:02.881,0:07:04.777 visar den ett mycket typiskt beteende 0:07:04.777,0:07:06.546 genom att stanna i ett av lådans hörn 0:07:06.546,0:07:09.544 och den försöker att inte röra[br]någon del av kroppen, 0:07:09.664,0:07:12.649 detta beteende kallas frysrespons. 0:07:12.959,0:07:17.043 Så om en mus minns att något hemskt[br]hänt i denna låda, 0:07:17.253,0:07:19.876 och vi sätter tillbaka den i samma låda, 0:07:19.876,0:07:21.680 så kommer den att visa frysrespons 0:07:21.680,0:07:23.965 eftersom den inte vill bli upptäckt 0:07:23.965,0:07:26.290 av de potentiella hoten i den här lådan. 0:07:26.290,0:07:28.015 SR: Ni kan tänka på frysrespons som 0:07:28.015,0:07:30.230 att du går längs gatan i egna tankar, 0:07:30.230,0:07:31.955 och helt oväntat stöter du ihop med 0:07:31.955,0:07:34.147 en ex-flickvän eller ex-pojkvän, 0:07:34.147,0:07:36.281 och de skräckfyllda två sekunderna kommer 0:07:36.281,0:07:38.157 då du tänker, "Vad gör jag? Hälsar jag? 0:07:38.157,0:07:39.525 Skaka hand? Springa iväg? 0:07:39.525,0:07:41.554 Sitta här och låtsas att jag inte finns?" 0:07:41.554,0:07:44.728 Denna typ av flyktiga tankar[br]som fysiskt låser dig, 0:07:44.738,0:07:47.484 som tillfälligt ger dig [br]"rådjur-i-strålkastar-blicken". 0:07:47.484,0:07:50.775 XL: Men om du placerar musen[br]i en helt annan, 0:07:50.775,0:07:53.756 ny låda, som exempelvis den här, 0:07:53.936,0:07:56.083 kommer den inte att vara rädd[br]för denna låda 0:07:56.083,0:08:00.132 eftersom det saknas anledning[br]att vara rädd i denna nya miljö. 0:08:00.812,0:08:03.972 Men vad händer om vi lägger musen[br]i denna nya låda 0:08:03.992,0:08:07.593 och samtidigt aktiverar minnet av rädsla 0:08:07.603,0:08:10.282 genom att använda laserstrålen[br]som vi gjorde innan? 0:08:10.282,0:08:13.136 Kommer vi få tillbaka minnet av rädsla 0:08:13.136,0:08:17.123 från den första lådan[br]i denna helt nya miljö? 0:08:17.133,0:08:19.868 SR: Okej, det här är[br]det viktiga experimentet. 0:08:19.868,0:08:22.781 Att få tillbaka minnet av den dagen, 0:08:22.781,0:08:24.964 jag minns att Red Sox precis hade vunnit, 0:08:24.964,0:08:26.873 det var en grön vårdag, 0:08:26.873,0:08:28.690 som gjord för promenera längs floden 0:08:28.690,0:08:31.024 och sedan kanske gå till North End 0:08:31.024,0:08:33.184 för att köpa några cannoli, #justsaying. 0:08:33.184,0:08:36.296 Men Xu och jag, å andra sidan, 0:08:36.296,0:08:39.115 var instängda i[br]ett helt fönsterlöst mörkt rum 0:08:39.115,0:08:42.786 utan att våga göra något som ens [br]liknade en ögonblinkning 0:08:42.786,0:08:44.972 eftersom våra ögon var fästa[br]på en datorskärm. 0:08:44.972,0:08:47.798 Vi tittade på en mus som vi försökte[br]aktivera ett minne hos 0:08:47.798,0:08:49.681 för första gången med vår teknik. 0:08:49.681,0:08:52.369 XL: Och det här är vad vi fick se. 0:08:52.369,0:08:54.571 När vi först satte musen i lådan, 0:08:54.571,0:08:57.674 började den att utforska,[br]sniffa runt, gå runt, 0:08:57.684,0:08:59.373 skötte sitt, 0:08:59.373,0:09:01.074 eftersom möss av naturen är 0:09:01.074,0:09:03.053 ganska nyfikna djur. 0:09:03.053,0:09:05.675 De vill veta vad som händer[br]i den här nya lådan. 0:09:05.675,0:09:07.206 Det är intressant. 0:09:07.206,0:09:10.647 Men i ögonblicket som vi slog på lasern,[br]som ni ser nu, 0:09:10.657,0:09:13.659 gick musen in i denna frysrespons. 0:09:13.689,0:09:18.100 Den stannade och försökte att inte[br]röra någon del av sin kropp. 0:09:18.120,0:09:19.748 Uppenbart en frysrespons. 0:09:19.748,0:09:22.331 Så det ser faktiskt ut som om vi[br]lyckats ta tillbaka 0:09:22.331,0:09:24.395 minnet av rädsla från den första lådan 0:09:24.395,0:09:27.392 i denna helt nya miljö. 0:09:27.762,0:09:29.874 Medan vi såg på detta, var Steve och jag 0:09:29.874,0:09:32.007 lika chockade som musen själv. 0:09:32.007,0:09:33.269 (Skratt) 0:09:33.269,0:09:36.566 Så efter experimentet,[br]lämnade vi båda rummet 0:09:36.576,0:09:38.329 utan att säga ett ord. 0:09:38.329,0:09:41.305 Efter en lång, obekväm väntan, 0:09:41.725,0:09:43.937 bröt Steve tystnaden. 0:09:43.937,0:09:46.278 SR: "Fungerade det där precis?" 0:09:46.278,0:09:49.252 XL: "Ja", sa jag.[br]"Det fungerade faktiskt!." 0:09:49.252,0:09:51.369 Vi var verkligen glada över detta. 0:09:51.369,0:09:53.993 Och sedan publicerade vi vår upptäckt 0:09:53.993,0:09:55.689 i tidskriften Nature. 0:09:55.689,0:09:58.160 Ända sedan publiceringen av vårt arbete, 0:09:58.160,0:10:00.575 har vi fått otaliga kommentarer 0:10:00.575,0:10:02.700 från alla möjliga håll på internet. 0:10:02.700,0:10:05.425 Kanske kan vi ta en titt[br]på några av dessa. 0:10:05.425,0:10:07.480 (Skratt) 0:10:07.480,0:10:10.877 SR: Det första ni kommer att märka[br]är att människor 0:10:10.907,0:10:13.810 har väldigt starka åsikter[br]om denna typ av arbete. 0:10:13.810,0:10:17.184 Nu råkar jag hålla helt med [br]om optimismen i detta första citat, 0:10:17.184,0:10:19.988 för på en skala från noll[br]till Morgan Freemans röst, 0:10:19.988,0:10:22.621 är det här en av de mest[br]associationsrika utmärkelser 0:10:22.621,0:10:24.061 som jag hört uttryckas om oss. 0:10:24.061,0:10:25.857 (Skratt) 0:10:25.857,0:10:28.848 Men som ni kommer se:[br]Det är inte det enda yttrande som gjorts. 0:10:29.372,0:10:31.290 XL: Om vi tar en titt på det andra, 0:10:31.290,0:10:33.397 tror jag att vi alla[br]kan enas om att det är, 0:10:33.397,0:10:35.772 hmm, förmodligen inte lika positivt. 0:10:35.772,0:10:37.957 Men detta påminner oss också om att, 0:10:37.957,0:10:40.143 även om vi fortfarande arbetar med möss, 0:10:40.143,0:10:43.660 så är det nog en god idé[br]att börja tänka och diskutera 0:10:43.660,0:10:46.651 möjliga etiska aspekter 0:10:46.651,0:10:48.599 av att kontrollera minnet. 0:10:48.599,0:10:50.799 SR: Så, i andan av det tredje citatet, 0:10:50.799,0:10:52.773 vill vi berätta om vårt senaste projekt, 0:10:52.773,0:10:56.018 ett experiment vi kallat[br]Inception (påbörjan). 0:10:56.018,0:10:58.543 (Skratt) 0:10:58.543,0:11:02.168 Vi resonerade som så att nu[br]när vi kan återaktivera ett minne, 0:11:02.178,0:11:05.130 vad händer om vi gör det,[br]och sedan mixtrar med det? 0:11:05.130,0:11:08.093 Kan vi möjligen även förvandla det[br]till ett falskt minne? 0:11:08.163,0:11:12.252 XL: Alla minnen är sofistikerade[br]och dynamiska, 0:11:12.262,0:11:15.241 men vi om bara för enkelhetens skull[br]föreställer oss minnet 0:11:15.241,0:11:16.593 som ett filmklipp. 0:11:16.593,0:11:19.373 Det vi har sagt är alltså [br]att vi i princip kan kontrollera 0:11:19.373,0:11:21.244 "uppspelningsknappen" på klippet 0:11:21.244,0:11:25.919 så att vi kan spela upp detta videoklipp[br]närsomhelst och varsomhelst. 0:11:25.919,0:11:28.360 Men finns det en möjlighet[br]att vi faktiskt kan gå 0:11:28.360,0:11:31.220 in i hjärnan och redigera detta filmklipp 0:11:31.220,0:11:34.116 så att vi kan göra det[br]annorlunda än originalet? 0:11:34.116,0:11:36.294 Ja det kan vi. 0:11:36.294,0:11:38.424 Allt vi behöver göra är att 0:11:38.424,0:11:42.549 återaktivera ett minne med laser[br]så som vi gjorde innan, 0:11:42.699,0:11:46.138 men på samma gång[br]skapar vi ny information 0:11:46.138,0:11:50.092 och låter denna nya information införlivas[br]i det gamla minnet, 0:11:50.112,0:11:52.550 så kommer detta att ändra minnet. 0:11:52.550,0:11:56.173 Det är ungefär som att göra ett blandband.[br](Skratt) 0:11:56.173,0:11:59.071 SR: Så hur gör vi detta? 0:11:59.071,0:12:01.028 Snarare än att hitta ett minne av rädsla, 0:12:01.028,0:12:02.744 kan vi börja med att ta våra djur, 0:12:02.744,0:12:05.677 låt oss säga att vi sätter dem[br]i en blå låda som den här, 0:12:05.677,0:12:08.171 hittar hjärncellerna som[br]representerar den blå lådan 0:12:08.171,0:12:10.244 och vi lurar dem[br]att reagera på ljuspulser 0:12:10.244,0:12:12.365 precis som vi förklarade tidigare. 0:12:12.365,0:12:14.489 Redan nästa dag kan vi placera djuren 0:12:14.489,0:12:17.188 i en röd låda, som de[br]aldrig har sett tidigare. 0:12:17.188,0:12:19.594 Vi skjuter ljus in i hjärnan[br]för att återaktivera 0:12:19.594,0:12:21.323 minnet av den blå lådan. 0:12:21.323,0:12:23.067 Så vad skulle hända om, medan djuret 0:12:23.067,0:12:24.961 återkallar minnet av den blå lådan, 0:12:24.961,0:12:27.604 vi gav det ett par milda elstötar[br]mot tassarna? 0:12:27.604,0:12:30.297 Här försöker vi på konstgjord väg[br]göra en association 0:12:30.297,0:12:32.212 mellan minnet av den blå lådan 0:12:32.212,0:12:33.715 och att tassen får elstöten. 0:12:33.715,0:12:35.494 Vi försöker bara koppla samman dem. 0:12:35.494,0:12:37.037 För att se om vi lyckats, 0:12:37.037,0:12:38.365 kan vi ta våra djur igen 0:12:38.365,0:12:40.311 och placera dem i den blå lådan igen. 0:12:40.311,0:12:43.049 Alltså, vi hade just återaktiverat[br]minnet av den blå lådan 0:12:43.049,0:12:45.216 medan djuret fick ett par milda elstötar, 0:12:45.216,0:12:47.586 och nu stelnar djuret plötsligt. 0:12:47.586,0:12:50.778 Det är som om det erinrar sig om[br]att få elstötar i denna miljö 0:12:50.788,0:12:53.790 även om det aldrig hänt. 0:12:53.790,0:12:55.652 Så det bildas ett falskt minne, 0:12:55.652,0:12:58.933 eftersom det falskt fruktar [br]en miljö där, tekniskt sett, 0:12:58.943,0:13:01.266 inget hemskt faktiskt hände med den. 0:13:01.266,0:13:03.719 XL: Så långt talar vi bara om 0:13:03.719,0:13:06.085 denna ljuskontrollerade "på"-knapp. 0:13:06.085,0:13:09.363 I själva verket har vi också[br]en ljuskontrollerad "av"-knapp, 0:13:09.373,0:13:11.453 och det är lätt att föreställa sig att 0:13:11.453,0:13:13.931 genom att installera denna "av"-knapp, 0:13:13.931,0:13:18.599 kan vi också stänga av ett minne,[br]närsomhelst, varsomhelst. 0:13:19.519,0:13:21.733 Allt vi har pratat om här idag 0:13:21.733,0:13:26.420 baseras på den filosofiskt omdiskuterade[br]princippen inom neurovetenskap 0:13:26.420,0:13:30.548 att sinnet, med dess till synes [br]mystiska egenskaper, 0:13:30.548,0:13:34.173 faktiskt är gjort av fysiska saker[br]som vi kan mixtra med. 0:13:34.173,0:13:37.258 SR: Och jag personligen,[br]ser en värld där vi kan återaktivera 0:13:37.258,0:13:39.345 vilken typ av minne vi än skulle vilja. 0:13:39.345,0:13:42.353 Jag ser också en värld där vi[br]kan radera oönskade minnen. 0:13:42.643,0:13:44.579 Jag ser en värld[br]där redigering av minnen 0:13:44.579,0:13:46.118 är något av en verklighet, 0:13:46.118,0:13:47.823 för i vår tid är det möjligt 0:13:47.823,0:13:50.048 att plocka idéer[br]från science fiction-trädet 0:13:50.048,0:13:52.468 och plantera dem[br]i den experimentella verkligheten. 0:13:52.468,0:13:54.351 XL: Nu för tiden använder vi i labbet 0:13:54.351,0:13:56.737 och människor i andra grupper[br]över hela världen 0:13:56.737,0:14:00.554 liknande metoder för att aktivera[br]eller redigera minnen, 0:14:00.554,0:14:04.285 vare sig det är gamla eller nya,[br]positiva eller negativa, 0:14:04.395,0:14:07.067 alla typer av minnen, så att vi kan förstå 0:14:07.067,0:14:08.931 hur minnet fungerar. 0:14:08.931,0:14:10.715 SR: En grupp i vårt labb 0:14:10.715,0:14:13.353 kunde hitta de hjärnceller[br]som utgör ett minne av rädsla 0:14:13.353,0:14:16.128 och omvandlade dem[br]till ett lustfyllt minne, bara sådär. 0:14:16.128,0:14:19.190 Det är vad jag menar med att redigera[br]dessa typer av processer. 0:14:19.190,0:14:21.002 En snubbe lyckades återaktivera 0:14:21.002,0:14:23.503 minnen av honmöss i hanmöss, 0:14:23.503,0:14:26.498 som enligt ryktet var en angenäm[br]upplevelse för dem. 0:14:26.498,0:14:30.645 XL: Ja, vi lever i en[br]mycket spännande tidsålder 0:14:30.645,0:14:34.430 där vetenskapen saknar[br]godtyckliga hastighetsbegränsningar 0:14:34.430,0:14:37.387 och endast är bunden av vår egen fantasi. 0:14:37.607,0:14:39.754 SR: Och slutligen,[br]vad gör vi med allt detta? 0:14:39.754,0:14:41.725 Hur driver vi denna teknik framåt? 0:14:41.725,0:14:43.562 Det är frågor som inte bör stanna 0:14:43.562,0:14:45.237 endast inne i labbet. 0:14:45.237,0:14:47.809 Så ett mål för dagens föredrag,[br]var att få alla 0:14:47.809,0:14:50.128 medvetna om vilken typ av saker[br]som är möjliga 0:14:50.128,0:14:51.512 med modern neurovetenskap, 0:14:51.512,0:14:53.022 men även, minst lika viktigt, 0:14:53.022,0:14:55.994 att aktivt engagera alla[br]i den här konversationen. 0:14:56.354,0:14:58.683 Så låt oss tänka tillsammans[br]på vad detta betyder 0:14:58.683,0:15:01.157 och vart vi kan, och bör, gå härifrån 0:15:01.157,0:15:03.255 eftersom Xu och jag tror att vi alla har 0:15:03.255,0:15:05.791 några riktigt stora beslut framför oss. 0:15:05.791,0:15:06.916 Tack.[br]XL: Tack. 0:15:06.916,0:15:08.550 (Applåder)