0:00:01.096,0:00:05.784 I månederne efter[br]Irans præsidentvalg i 2009 0:00:05.784,0:00:08.728 udbrød der protester landet over. 0:00:09.685,0:00:12.581 Den iranske regering[br]undertrykte med vold 0:00:12.585,0:00:16.578 det, der blev kendt som[br]Den Grønne Bevægelse. 0:00:16.578,0:00:18.645 De blokerede endda mobilsignaler 0:00:18.645,0:00:22.246 for at forhindre[br]demonstranterne i at kommunikere. 0:00:22.246,0:00:26.979 Mine forældre, som emigrerede[br]til USA sidst i 60'erne, 0:00:26.979,0:00:28.787 tilbragte lang tid der, 0:00:28.787,0:00:31.980 hvor hele min store,[br]udvidede familie bor. 0:00:32.832,0:00:35.955 Når jeg ringede til [br]min familie i Teheran 0:00:35.955,0:00:39.431 under de mest brutale overgreb[br]på demonstranterne, 0:00:39.431,0:00:43.193 turde ingen af dem diskutere[br]begivenhederne med mig. 0:00:43.196,0:00:47.055 Vi skiftede hurtigt emne[br]i vores samtaler. 0:00:47.055,0:00:50.537 Vi forstod alle,[br]hvad konsekvenserne kunne være 0:00:50.537,0:00:53.107 af anklagen om systemkritik. 0:00:54.095,0:00:57.558 Men jeg ønsker stadig,[br]jeg kunne vide, hvad de tænkte, 0:00:57.558,0:00:59.006 eller hvad de følte. 0:01:00.217,0:01:02.019 Hvad hvis jeg kunne det? 0:01:02.019,0:01:03.284 Eller endnu mere skræmmende, 0:01:03.284,0:01:06.445 hvad hvis den iranske regering kunne? 0:01:06.445,0:01:10.609 Ville de have arresteret dem[br]på grund af deres tanker? 0:01:10.609,0:01:14.287 Den dag er måske nærmere,[br]end man tror. 0:01:14.287,0:01:18.332 Med fremgangen i neuroforskning,[br]kunstig intelligens 0:01:18.332,0:01:20.049 og maskinlæring, 0:01:20.049,0:01:24.164 vil vi snart vide mere om,[br]hvad der sker i vores hjerner. 0:01:25.083,0:01:28.393 Som bioetiker, advokat, filosof 0:01:28.397,0:01:30.278 og iransk-amerikaner 0:01:30.278,0:01:34.089 er jeg dybt bekymret for,[br]hvad det betyder for vores frihed, 0:01:34.089,0:01:36.963 og hvilken beskyttelse,[br]vi har brug for. 0:01:36.963,0:01:40.437 Jeg mener, vi har ret[br]til kognitiv frihed 0:01:40.437,0:01:43.709 som en menneskerettighed,[br]der skal beskyttes. 0:01:43.709,0:01:46.399 Hvis ikke,[br]vil vores tankefrihed, 0:01:46.399,0:01:49.467 adgang og kontrol over[br]vores egne hjerner 0:01:49.467,0:01:52.558 og vores mentale privatliv[br]komme under pres. 0:01:53.698,0:01:54.896 Overvej dette: 0:01:54.896,0:01:58.527 I gennemsnit tænker man[br]tusindvis af tanker hver dag. 0:01:58.527,0:01:59.848 Ved hver en tanke, 0:01:59.852,0:02:04.912 som et regnestykke,[br]et tal eller et ord, 0:02:04.912,0:02:07.821 interagerer neuroner i hjernen 0:02:07.821,0:02:11.363 og skaber en lille,[br]elektrisk udladning. 0:02:11.363,0:02:15.165 Når hjernen er optaget af en ting,[br]for eksempel afslapning, 0:02:15.169,0:02:19.358 er tusindvis af neuroner[br]aktive i hjernen 0:02:19.358,0:02:23.600 og skaber elektriske udladninger[br]i karakteristiske mønstre, 0:02:23.600,0:02:29.105 der kan måles med[br]elektroencefalografi, eller EEG. 0:02:29.105,0:02:31.708 Det er faktisk det,[br]I ser lige her. 0:02:31.716,0:02:35.914 I ser min hjerneaktivitet,[br]der blev registreret i realtid. 0:02:35.914,0:02:39.589 med et simpelt apparat,[br]jeg havde på hovedet. 0:02:39.589,0:02:45.322 Her er min hjerneaktivitet,[br]mens jeg var afslappet og nysgerrig. 0:02:46.097,0:02:47.846 For at dele dette med jer, 0:02:47.846,0:02:50.880 brugte jeg et nyt,[br]lettilgængeligt EEG-apparat 0:02:50.880,0:02:52.151 som det her, 0:02:52.155,0:02:56.639 der registrerede [br]min hjerneaktivitet i realtid. 0:02:56.639,0:03:00.649 Det er ligesom de fitnesstrackere,[br]nogle af jer måske bruger 0:03:00.649,0:03:04.269 til at måle jeres puls[br]eller jeres skridt 0:03:04.269,0:03:06.836 eller endda jeres søvnmønster. 0:03:06.836,0:03:11.328 Det er ikke den mest sofistikerede[br]hjerneskannings-teknologi. 0:03:11.328,0:03:13.969 Men det er allerede [br]den mest bærbare, 0:03:13.969,0:03:17.151 som nok vil få stor indflydelse[br]på vores hverdag. 0:03:17.915,0:03:19.392 Det er utroligt. 0:03:19.392,0:03:21.941 Med et simpelt,[br]bærbart apparat 0:03:21.941,0:03:25.503 kan vi bogstaveligt talt[br]se ind i vores hjerner 0:03:25.503,0:03:32.659 og aflæse vores mentale landskab[br]uden at sige et eneste ord. 0:03:32.659,0:03:36.476 Selvom vi ikke kan[br]aflæse komplekse tanker endnu, 0:03:36.476,0:03:39.019 kan vi allerede vurdere[br]en persons humør, 0:03:39.019,0:03:41.906 og med hjælp [br]fra kunstig intelligens 0:03:41.906,0:03:46.287 kan vi endda afkode[br]enkelte cifre, 0:03:46.291,0:03:51.187 former eller simple ord,[br]som en person tænker, 0:03:51.187,0:03:54.195 hører eller ser. 0:03:54.195,0:03:57.684 Trods nogle indbyggede[br]begrænsninger i EEG, 0:03:57.684,0:04:02.454 kan man roligt sige,[br]at med vores teknologiske fremskridt 0:04:02.468,0:04:06.327 vil mere og mere af,[br]hvad der sker i vores hjerner, 0:04:06.327,0:04:09.281 blive afkodet med tiden. 0:04:09.282,0:04:12.108 Med sådan et apparat, 0:04:12.112,0:04:15.387 kan en epileptiker allerede vide,[br]hvornår de vil få et anfald, 0:04:15.391,0:04:16.877 før det sker. 0:04:16.877,0:04:22.304 Personer med lammelse[br]kan skrive på computer med tankerne. 0:04:22.305,0:04:25.172 Et amerikansk firma[br]har udviklet teknologien 0:04:25.172,0:04:28.916 til at indbygge disse sensorer[br]i nakkestøtten i biler, 0:04:28.916,0:04:31.481 så de kan registrere[br]førerens koncentration, 0:04:31.481,0:04:34.922 distraktion og kognitive belastning,[br]under kørslen. 0:04:34.922,0:04:39.200 Nissan, forsikringsselskaber[br]og AAA følger udviklingen. 0:04:39.949,0:04:44.451 Man kan endda se en film,[br]hvor man selv vælger handlingen, 0:04:44.451,0:04:48.721 "The Moment,"[br]som med et EEG-headset 0:04:48.725,0:04:52.655 ændrer filmen[br]baseret på din hjernes reaktioner 0:04:52.655,0:04:57.608 og giver dig en ny slutning,[br]hver gang du bliver distraheret. 0:04:59.154,0:05:01.911 Det lyder måske fantastisk, 0:05:01.911,0:05:04.124 og som bioetiker 0:05:04.124,0:05:07.767 er jeg en stor fortaler for[br]at hjælpe mennesker 0:05:07.771,0:05:10.401 med at få kontrol over[br]deres sundhed og velvære 0:05:10.401,0:05:13.333 ved at give dem adgang[br]til informationer om sig selv 0:05:13.333,0:05:17.609 med denne utrolige, nye,[br]hjerne-aflæsende teknologi. 0:05:17.609,0:05:19.535 Men jeg er bange. 0:05:19.536,0:05:24.496 Jeg er bange for, at vi,[br]frivilligt eller ej, vil opgive 0:05:24.500,0:05:29.158 vores sidste bastion af frihed,[br]vores mentale privatliv. 0:05:29.158,0:05:32.227 At vi vil give vores hjerneaktivitet 0:05:32.231,0:05:36.137 mod at få rabat på forsikringen 0:05:36.137,0:05:40.124 eller gratis adgang[br]til sociale medier ... 0:05:40.124,0:05:42.880 eller endda beholde vores jobs. 0:05:42.880,0:05:46.193 I Kina 0:05:46.199,0:05:52.096 skal togførerne på[br]Beijing-Shanghai-ruten, 0:05:52.100,0:05:54.646 den travleste af sin slags i verden, 0:05:54.646,0:05:56.996 bære EEG-apparater, 0:05:56.996,0:06:00.017 der registrerer deres hjerneaktivitet,[br]under kørslen. 0:06:00.017,0:06:02.377 Ifølge nogle nyhedskilder 0:06:02.377,0:06:05.430 skal arbejderne i Kinas[br]statskontrollerede fabrikker 0:06:05.430,0:06:10.468 bære EEG-sensorer,[br]der overvåger deres produktivitet 0:06:10.468,0:06:13.047 og sindstilstand på arbejdet. 0:06:13.047,0:06:15.577 Arbejdere bliver endda sendt hjem, 0:06:15.581,0:06:19.649 hvis deres hjerner viser[br]dårlig koncentration på jobbet 0:06:19.649,0:06:22.291 Eller følelsesmæssig uro. 0:06:23.189,0:06:24.918 Det vil ikke ske i morgen, 0:06:24.918,0:06:28.437 men vi er på vej mod en verden,[br]hvor hjernen kan aflæses. 0:06:28.437,0:06:32.374 Jeg tror ikke, folk forstår,[br]at det kan ændre alting. 0:06:32.374,0:06:36.189 Lige fra definitionen af datasikkerhed[br]til vores love, 0:06:36.189,0:06:38.631 til vores forestillinger om frihed. 0:06:38.631,0:06:41.802 På mit laboratorium[br]på Duke University 0:06:41.802,0:06:45.001 udførte vi for nylig [br]et landsdækkende studie i USA 0:06:45.001,0:06:46.964 for at se, om folk værdsatte 0:06:46.964,0:06:50.175 følsomheden af deres hjerneinformationer. 0:06:50.176,0:06:53.696 Vi bad folk vudere[br]deres opfattelse af følsomheden 0:06:53.696,0:06:55.997 af 33 forskellige slags informationer, 0:06:55.997,0:06:58.205 fra deres personnumre 0:06:58.205,0:07:00.862 til indholdet af deres [br]mobilsamtaler, 0:07:00.862,0:07:03.049 deres tidligere parforhold, 0:07:03.053,0:07:05.015 deres følelser, deres bekymringer, 0:07:05.019,0:07:06.979 deres mentale billeder 0:07:06.979,0:07:09.451 og deres tanker. 0:07:09.451,0:07:14.694 Overraskende var folk mere følsomme[br]over for deres personnumre 0:07:14.694,0:07:16.937 end noget som helst andet, 0:07:16.941,0:07:19.986 inklusive deres hjernedata. 0:07:19.986,0:07:23.590 Jeg tror, det skyldes,[br]at folk endnu ikke forstår 0:07:23.590,0:07:28.479 eller tror på konsekvenserne[br]af den nye hjerneteknologi. 0:07:28.479,0:07:31.912 For hvis vi kan læse[br]et menneskes inderste tanker, 0:07:31.912,0:07:34.648 så er vores personnumre[br]vores mindste bekymring. 0:07:34.652,0:07:35.957 (Latter) 0:07:35.971,0:07:37.132 Tænk over det. 0:07:37.132,0:07:39.568 I en verden, hvor hjerner kan aflæses, 0:07:39.572,0:07:43.169 hvem ville så vove[br]at tænke systemkritisk? 0:07:43.169,0:07:45.423 Eller kreativt? 0:07:45.423,0:07:48.963 Jeg er bange for,[br]at folk vil censurere sig selv 0:07:48.963,0:07:52.299 af frygt for at blive udstødt[br]af samfundet, 0:07:52.299,0:07:56.126 eller at folk vil miste jeres job[br]på grund af dårlig koncentration 0:07:56.126,0:07:58.316 eller følelsesmæssig ustabilitet. 0:07:58.330,0:08:02.400 Eller for at overveje[br]at organisere sig på arbejdspladsen. 0:08:02.408,0:08:05.655 At det ikke længere vil være mulig[br]at springe ud, 0:08:05.659,0:08:10.740 fordi folks hjerner for længst[br]vil have afsløret deres seksualitet, 0:08:10.740,0:08:12.586 deres politiske ideologi 0:08:12.586,0:08:14.671 eller deres religiøse overbevisning, 0:08:14.671,0:08:17.775 længe før de var klar til at dele[br]de oplysninger 0:08:17.775,0:08:19.572 med andre mennesker 0:08:19.572,0:08:24.836 Jeg er bange for, at vores love[br]ikke kan holde trit med teknologien. 0:08:24.836,0:08:27.506 Tag det første tillæg[br]til USA's forfatning, 0:08:27.506,0:08:29.412 der beskytter ytringsfriheden. 0:08:29.412,0:08:31.944 Beskytter den også tankefrihed? 0:08:31.944,0:08:36.107 Og betyder det i så fald,[br]at vi må tænke, hvad vi vil? 0:08:36.107,0:08:41.451 Eller må staten og samfundet bestemme,[br]hvad vi må med vores egne hjerner? 0:08:41.451,0:08:45.813 Må NSA overvåge vores hjerner[br]med de ny bærbare enheder? 0:08:45.813,0:08:50.166 Må firmaer, der indsamler[br]de data gennem deres apps, 0:08:50.166,0:08:53.094 sælge informationerne[br]til tredjeparter? 0:08:53.094,0:08:56.856 Det er der ingen love imod[br]lige nu. 0:08:56.856,0:08:59.222 Det kunne være[br]endnu mere problematisk 0:08:59.222,0:09:02.061 i lande, der ikke har[br]de samme friheder 0:09:02.061,0:09:03.898 som her i USA. 0:09:04.883,0:09:08.664 Hvad ville der være sket[br]under Irans Grønne Bevægelse, 0:09:08.664,0:09:12.595 hvis regeringen havde overvåget[br]min families hjerneaktivitet 0:09:12.599,0:09:17.621 og vurderet,[br]at de stod på demonstranternes side? 0:09:17.621,0:09:21.168 Er det så langt ude[br]at forestille sig et samfund, 0:09:21.168,0:09:23.988 hvor folk bliver arresteret[br]på grund af deres tanker 0:09:23.988,0:09:25.235 om at begå en forbrydelse, 0:09:25.235,0:09:30.176 ligesom det dystopiske samfund[br]i sci fi-filmen "Minority Report", 0:09:30.176,0:09:34.609 I Indiana i USA 0:09:34.613,0:09:39.554 blev en 18-årig tiltalt[br]for at forsøge at true sin skole 0:09:39.554,0:09:43.783 ved at uploade en video,[br]hvor han skød folk på gangene. 0:09:43.783,0:09:46.872 Bortset fra, at folkene var zombier, 0:09:46.872,0:09:51.943 og i videoen spillede han[br]et computerspil, 0:09:51.943,0:09:56.755 der blev fortolket som en projektion[br]af hans subjektive hensigter. 0:09:58.456,0:10:03.052 Derfor har vores hjerner[br]brug for særlig beskyttelse. 0:10:03.052,0:10:06.632 Hvis vores hjerner udsættes for[br]overvågning og dataindsamling 0:10:06.632,0:10:09.198 ligesom vores økonomiske transaktioner, 0:10:09.198,0:10:13.513 hvis vores hjerner kan hackes[br]og overvåges ligesom vores aktiviteter 0:10:13.517,0:10:15.898 på nettet, mobilen og apps, 0:10:15.902,0:10:20.191 står vi over for en farlig trussel[br]mod hele menneskeheden. 0:10:21.406,0:10:23.912 Nu må I ikke gå i panik. 0:10:23.912,0:10:27.156 Jeg tror, der findes løsninger[br]på disse problemer, 0:10:27.170,0:10:30.340 men vi må begynde med[br]at fokusere på det rigtige. 0:10:30.340,0:10:33.485 Når det kommer til [br]beskyttelse af privatlivet, 0:10:33.485,0:10:35.345 så kæmper vi forgæves, 0:10:35.345,0:10:38.273 når vi forsøger at begrænse[br]strømmen af information. 0:10:38.273,0:10:42.308 I stedet bør vi fokusere på[br]at sikre rettigheder og sanktioner 0:10:42.308,0:10:45.073 for at misbruge vores oplysninger. 0:10:45.073,0:10:48.570 Hvis folk havde ret til at vælge,[br]hvordan deres oplysninger blev delt, 0:10:48.570,0:10:51.515 og vigtigere endnu,[br]havde juraen på deres side, 0:10:51.515,0:10:53.967 hvis deres oplysninger[br]blev misbrugt 0:10:53.967,0:10:56.777 til at diskriminere[br]på arbejdspladsen 0:10:56.777,0:10:59.586 eller i sundhedssystemet[br]eller skolen, 0:10:59.586,0:11:02.803 ville det skabe grobund for tillid. 0:11:02.803,0:11:04.591 I nogle tilfælde 0:11:04.591,0:11:08.109 vil vi gerne dele[br]flere personlige oplysninger 0:11:08.697,0:11:11.738 Ved at studere store mængder data[br]kan vi lære så meget 0:11:11.738,0:11:14.489 om vores sundhed og velvære, 0:11:14.489,0:11:17.846 men for sikkert at kunne dele[br]vores oplysninger 0:11:17.846,0:11:21.772 har vi brug for særlig beskyttelse[br]af vores mentale privatliv. 0:11:21.772,0:11:25.493 Derfor har vi brug for[br]en ret til kognitiv frihed. 0:11:25.493,0:11:29.616 Det ville sikre,[br]vores tankefrihed, 0:11:29.616,0:11:32.186 vores ret til selvbestemmelse, 0:11:32.190,0:11:36.594 og det ville sikre, at vi selv[br]ville kunne bestemme, 0:11:36.594,0:11:39.671 om andre kunne[br]få adgang til vores hjerner. 0:11:39.681,0:11:42.103 Den rettighed kunne anderkendes 0:11:42.103,0:11:44.824 som del af[br]de universelle menneskerettigheder, 0:11:44.824,0:11:47.226 der har etableret systemer 0:11:47.226,0:11:50.602 til at håndhæve[br]den slags sociale rettigheder. 0:11:51.722,0:11:53.942 Under Irans Grønne Bevægelse 0:11:53.946,0:11:59.386 kommunikerede demonstranterne[br]via internettet og fra mund til mund, 0:11:59.386,0:12:02.138 når de planlagde deres protester. 0:12:02.138,0:12:04.961 Og nogle af de mest undertrykkende love[br]i Iran 0:12:04.961,0:12:07.858 blev ophævet på grund af det. 0:12:07.858,0:12:12.118 Men hvad hvis Irans regering[br]havde brugt hjerneovervågning 0:12:12.118,0:12:15.579 til at opdage og forhindre protesterne? 0:12:16.847,0:12:20.723 Ville verden nogensinde[br]have hørt demonstranternes råb? 0:12:21.732,0:12:26.853 Det er på tide, at vi kræver[br]en kognitiv frihedsrevolution. 0:12:27.559,0:12:30.807 At vi udvikler teknologien[br]på en ansvarlig måde, 0:12:30.807,0:12:33.799 så vi kan omfavne fremtiden 0:12:33.799,0:12:40.560 og samtidig beskytte os alle[br]mod mennesker, firmaer eller stater, 0:12:40.560,0:12:46.609 der uretmæssigt forsøger[br]at blande sig i vores inderste indre. 0:12:46.609,0:12:48.033 Tak. 0:12:48.033,0:12:51.349 (Klapsalver)