1 00:00:01,096 --> 00:00:05,784 I månederne efter Irans præsidentvalg i 2009 2 00:00:05,784 --> 00:00:08,728 udbrød der protester landet over. 3 00:00:09,685 --> 00:00:12,581 Den iranske regering undertrykte med vold 4 00:00:12,585 --> 00:00:16,578 det, der blev kendt som Den Grønne Bevægelse. 5 00:00:16,578 --> 00:00:18,645 De blokerede endda mobilsignaler 6 00:00:18,645 --> 00:00:22,246 for at forhindre demonstranterne i at kommunikere. 7 00:00:22,246 --> 00:00:26,979 Mine forældre, som emigrerede til USA sidst i 60'erne, 8 00:00:26,979 --> 00:00:28,787 tilbragte lang tid der, 9 00:00:28,787 --> 00:00:31,980 hvor hele min store, udvidede familie bor. 10 00:00:32,832 --> 00:00:35,955 Når jeg ringede til min familie i Teheran 11 00:00:35,955 --> 00:00:39,431 under de mest brutale overgreb på demonstranterne, 12 00:00:39,431 --> 00:00:43,193 turde ingen af dem diskutere begivenhederne med mig. 13 00:00:43,196 --> 00:00:47,055 Vi skiftede hurtigt emne i vores samtaler. 14 00:00:47,055 --> 00:00:50,537 Vi forstod alle, hvad konsekvenserne kunne være 15 00:00:50,537 --> 00:00:53,107 af anklagen om systemkritik. 16 00:00:54,095 --> 00:00:57,558 Men jeg ønsker stadig, jeg kunne vide, hvad de tænkte, 17 00:00:57,558 --> 00:00:59,006 eller hvad de følte. 18 00:01:00,217 --> 00:01:02,019 Hvad hvis jeg kunne det? 19 00:01:02,019 --> 00:01:03,284 Eller endnu mere skræmmende, 20 00:01:03,284 --> 00:01:06,445 hvad hvis den iranske regering kunne? 21 00:01:06,445 --> 00:01:10,609 Ville de have arresteret dem på grund af deres tanker? 22 00:01:10,609 --> 00:01:14,287 Den dag er måske nærmere, end man tror. 23 00:01:14,287 --> 00:01:18,332 Med fremgangen i neuroforskning, kunstig intelligens 24 00:01:18,332 --> 00:01:20,049 og maskinlæring, 25 00:01:20,049 --> 00:01:24,164 vil vi snart vide mere om, hvad der sker i vores hjerner. 26 00:01:25,083 --> 00:01:28,393 Som bioetiker, advokat, filosof 27 00:01:28,397 --> 00:01:30,278 og iransk-amerikaner 28 00:01:30,278 --> 00:01:34,089 er jeg dybt bekymret for, hvad det betyder for vores frihed, 29 00:01:34,089 --> 00:01:36,963 og hvilken beskyttelse, vi har brug for. 30 00:01:36,963 --> 00:01:40,437 Jeg mener, vi har ret til kognitiv frihed 31 00:01:40,437 --> 00:01:43,709 som en menneskerettighed, der skal beskyttes. 32 00:01:43,709 --> 00:01:46,399 Hvis ikke, vil vores tankefrihed, 33 00:01:46,399 --> 00:01:49,467 adgang og kontrol over vores egne hjerner 34 00:01:49,467 --> 00:01:52,558 og vores mentale privatliv komme under pres. 35 00:01:53,698 --> 00:01:54,896 Overvej dette: 36 00:01:54,896 --> 00:01:58,527 I gennemsnit tænker man tusindvis af tanker hver dag. 37 00:01:58,527 --> 00:01:59,848 Ved hver en tanke, 38 00:01:59,852 --> 00:02:04,912 som et regnestykke, et tal eller et ord, 39 00:02:04,912 --> 00:02:07,821 interagerer neuroner i hjernen 40 00:02:07,821 --> 00:02:11,363 og skaber en lille, elektrisk udladning. 41 00:02:11,363 --> 00:02:15,165 Når hjernen er optaget af en ting, for eksempel afslapning, 42 00:02:15,169 --> 00:02:19,358 er tusindvis af neuroner aktive i hjernen 43 00:02:19,358 --> 00:02:23,600 og skaber elektriske udladninger i karakteristiske mønstre, 44 00:02:23,600 --> 00:02:29,105 der kan måles med elektroencefalografi, eller EEG. 45 00:02:29,105 --> 00:02:31,708 Det er faktisk det, I ser lige her. 46 00:02:31,716 --> 00:02:35,914 I ser min hjerneaktivitet, der blev registreret i realtid. 47 00:02:35,914 --> 00:02:39,589 med et simpelt apparat, jeg havde på hovedet. 48 00:02:39,589 --> 00:02:45,322 Her er min hjerneaktivitet, mens jeg var afslappet og nysgerrig. 49 00:02:46,097 --> 00:02:47,846 For at dele dette med jer, 50 00:02:47,846 --> 00:02:50,880 brugte jeg et nyt, lettilgængeligt EEG-apparat 51 00:02:50,880 --> 00:02:52,151 som det her, 52 00:02:52,155 --> 00:02:56,639 der registrerede min hjerneaktivitet i realtid. 53 00:02:56,639 --> 00:03:00,649 Det er ligesom de fitnesstrackere, nogle af jer måske bruger 54 00:03:00,649 --> 00:03:04,269 til at måle jeres puls eller jeres skridt 55 00:03:04,269 --> 00:03:06,836 eller endda jeres søvnmønster. 56 00:03:06,836 --> 00:03:11,328 Det er ikke den mest sofistikerede hjerneskannings-teknologi. 57 00:03:11,328 --> 00:03:13,969 Men det er allerede den mest bærbare, 58 00:03:13,969 --> 00:03:17,151 som nok vil få stor indflydelse på vores hverdag. 59 00:03:17,915 --> 00:03:19,392 Det er utroligt. 60 00:03:19,392 --> 00:03:21,941 Med et simpelt, bærbart apparat 61 00:03:21,941 --> 00:03:25,503 kan vi bogstaveligt talt se ind i vores hjerner 62 00:03:25,503 --> 00:03:32,659 og aflæse vores mentale landskab uden at sige et eneste ord. 63 00:03:32,659 --> 00:03:36,476 Selvom vi ikke kan aflæse komplekse tanker endnu, 64 00:03:36,476 --> 00:03:39,019 kan vi allerede vurdere en persons humør, 65 00:03:39,019 --> 00:03:41,906 og med hjælp fra kunstig intelligens 66 00:03:41,906 --> 00:03:46,287 kan vi endda afkode enkelte cifre, 67 00:03:46,291 --> 00:03:51,187 former eller simple ord, som en person tænker, 68 00:03:51,187 --> 00:03:54,195 hører eller ser. 69 00:03:54,195 --> 00:03:57,684 Trods nogle indbyggede begrænsninger i EEG, 70 00:03:57,684 --> 00:04:02,454 kan man roligt sige, at med vores teknologiske fremskridt 71 00:04:02,468 --> 00:04:06,327 vil mere og mere af, hvad der sker i vores hjerner, 72 00:04:06,327 --> 00:04:09,281 blive afkodet med tiden. 73 00:04:09,282 --> 00:04:12,108 Med sådan et apparat, 74 00:04:12,112 --> 00:04:15,387 kan en epileptiker allerede vide, hvornår de vil få et anfald, 75 00:04:15,391 --> 00:04:16,877 før det sker. 76 00:04:16,877 --> 00:04:22,304 Personer med lammelse kan skrive på computer med tankerne. 77 00:04:22,305 --> 00:04:25,172 Et amerikansk firma har udviklet teknologien 78 00:04:25,172 --> 00:04:28,916 til at indbygge disse sensorer i nakkestøtten i biler, 79 00:04:28,916 --> 00:04:31,481 så de kan registrere førerens koncentration, 80 00:04:31,481 --> 00:04:34,922 distraktion og kognitive belastning, under kørslen. 81 00:04:34,922 --> 00:04:39,200 Nissan, forsikringsselskaber og AAA følger udviklingen. 82 00:04:39,949 --> 00:04:44,451 Man kan endda se en film, hvor man selv vælger handlingen, 83 00:04:44,451 --> 00:04:48,721 "The Moment," som med et EEG-headset 84 00:04:48,725 --> 00:04:52,655 ændrer filmen baseret på din hjernes reaktioner 85 00:04:52,655 --> 00:04:57,608 og giver dig en ny slutning, hver gang du bliver distraheret. 86 00:04:59,154 --> 00:05:01,911 Det lyder måske fantastisk, 87 00:05:01,911 --> 00:05:04,124 og som bioetiker 88 00:05:04,124 --> 00:05:07,767 er jeg en stor fortaler for at hjælpe mennesker 89 00:05:07,771 --> 00:05:10,401 med at få kontrol over deres sundhed og velvære 90 00:05:10,401 --> 00:05:13,333 ved at give dem adgang til informationer om sig selv 91 00:05:13,333 --> 00:05:17,609 med denne utrolige, nye, hjerne-aflæsende teknologi. 92 00:05:17,609 --> 00:05:19,535 Men jeg er bange. 93 00:05:19,536 --> 00:05:24,496 Jeg er bange for, at vi, frivilligt eller ej, vil opgive 94 00:05:24,500 --> 00:05:29,158 vores sidste bastion af frihed, vores mentale privatliv. 95 00:05:29,158 --> 00:05:32,227 At vi vil give vores hjerneaktivitet 96 00:05:32,231 --> 00:05:36,137 mod at få rabat på forsikringen 97 00:05:36,137 --> 00:05:40,124 eller gratis adgang til sociale medier ... 98 00:05:40,124 --> 00:05:42,880 eller endda beholde vores jobs. 99 00:05:42,880 --> 00:05:46,193 I Kina 100 00:05:46,199 --> 00:05:52,096 skal togførerne på Beijing-Shanghai-ruten, 101 00:05:52,100 --> 00:05:54,646 den travleste af sin slags i verden, 102 00:05:54,646 --> 00:05:56,996 bære EEG-apparater, 103 00:05:56,996 --> 00:06:00,017 der registrerer deres hjerneaktivitet, under kørslen. 104 00:06:00,017 --> 00:06:02,377 Ifølge nogle nyhedskilder 105 00:06:02,377 --> 00:06:05,430 skal arbejderne i Kinas statskontrollerede fabrikker 106 00:06:05,430 --> 00:06:10,468 bære EEG-sensorer, der overvåger deres produktivitet 107 00:06:10,468 --> 00:06:13,047 og sindstilstand på arbejdet. 108 00:06:13,047 --> 00:06:15,577 Arbejdere bliver endda sendt hjem, 109 00:06:15,581 --> 00:06:19,649 hvis deres hjerner viser dårlig koncentration på jobbet 110 00:06:19,649 --> 00:06:22,291 Eller følelsesmæssig uro. 111 00:06:23,189 --> 00:06:24,918 Det vil ikke ske i morgen, 112 00:06:24,918 --> 00:06:28,437 men vi er på vej mod en verden, hvor hjernen kan aflæses. 113 00:06:28,437 --> 00:06:32,374 Jeg tror ikke, folk forstår, at det kan ændre alting. 114 00:06:32,374 --> 00:06:36,189 Lige fra definitionen af datasikkerhed til vores love, 115 00:06:36,189 --> 00:06:38,631 til vores forestillinger om frihed. 116 00:06:38,631 --> 00:06:41,802 På mit laboratorium på Duke University 117 00:06:41,802 --> 00:06:45,001 udførte vi for nylig et landsdækkende studie i USA 118 00:06:45,001 --> 00:06:46,964 for at se, om folk værdsatte 119 00:06:46,964 --> 00:06:50,175 følsomheden af deres hjerneinformationer. 120 00:06:50,176 --> 00:06:53,696 Vi bad folk vudere deres opfattelse af følsomheden 121 00:06:53,696 --> 00:06:55,997 af 33 forskellige slags informationer, 122 00:06:55,997 --> 00:06:58,205 fra deres personnumre 123 00:06:58,205 --> 00:07:00,862 til indholdet af deres mobilsamtaler, 124 00:07:00,862 --> 00:07:03,049 deres tidligere parforhold, 125 00:07:03,053 --> 00:07:05,015 deres følelser, deres bekymringer, 126 00:07:05,019 --> 00:07:06,979 deres mentale billeder 127 00:07:06,979 --> 00:07:09,451 og deres tanker. 128 00:07:09,451 --> 00:07:14,694 Overraskende var folk mere følsomme over for deres personnumre 129 00:07:14,694 --> 00:07:16,937 end noget som helst andet, 130 00:07:16,941 --> 00:07:19,986 inklusive deres hjernedata. 131 00:07:19,986 --> 00:07:23,590 Jeg tror, det skyldes, at folk endnu ikke forstår 132 00:07:23,590 --> 00:07:28,479 eller tror på konsekvenserne af den nye hjerneteknologi. 133 00:07:28,479 --> 00:07:31,912 For hvis vi kan læse et menneskes inderste tanker, 134 00:07:31,912 --> 00:07:34,648 så er vores personnumre vores mindste bekymring. 135 00:07:34,652 --> 00:07:35,957 (Latter) 136 00:07:35,971 --> 00:07:37,132 Tænk over det. 137 00:07:37,132 --> 00:07:39,568 I en verden, hvor hjerner kan aflæses, 138 00:07:39,572 --> 00:07:43,169 hvem ville så vove at tænke systemkritisk? 139 00:07:43,169 --> 00:07:45,423 Eller kreativt? 140 00:07:45,423 --> 00:07:48,963 Jeg er bange for, at folk vil censurere sig selv 141 00:07:48,963 --> 00:07:52,299 af frygt for at blive udstødt af samfundet, 142 00:07:52,299 --> 00:07:56,126 eller at folk vil miste jeres job på grund af dårlig koncentration 143 00:07:56,126 --> 00:07:58,316 eller følelsesmæssig ustabilitet. 144 00:07:58,330 --> 00:08:02,400 Eller for at overveje at organisere sig på arbejdspladsen. 145 00:08:02,408 --> 00:08:05,655 At det ikke længere vil være mulig at springe ud, 146 00:08:05,659 --> 00:08:10,740 fordi folks hjerner for længst vil have afsløret deres seksualitet, 147 00:08:10,740 --> 00:08:12,586 deres politiske ideologi 148 00:08:12,586 --> 00:08:14,671 eller deres religiøse overbevisning, 149 00:08:14,671 --> 00:08:17,775 længe før de var klar til at dele de oplysninger 150 00:08:17,775 --> 00:08:19,572 med andre mennesker 151 00:08:19,572 --> 00:08:24,836 Jeg er bange for, at vores love ikke kan holde trit med teknologien. 152 00:08:24,836 --> 00:08:27,506 Tag det første tillæg til USA's forfatning, 153 00:08:27,506 --> 00:08:29,412 der beskytter ytringsfriheden. 154 00:08:29,412 --> 00:08:31,944 Beskytter den også tankefrihed? 155 00:08:31,944 --> 00:08:36,107 Og betyder det i så fald, at vi må tænke, hvad vi vil? 156 00:08:36,107 --> 00:08:41,451 Eller må staten og samfundet bestemme, hvad vi må med vores egne hjerner? 157 00:08:41,451 --> 00:08:45,813 Må NSA overvåge vores hjerner med de ny bærbare enheder? 158 00:08:45,813 --> 00:08:50,166 Må firmaer, der indsamler de data gennem deres apps, 159 00:08:50,166 --> 00:08:53,094 sælge informationerne til tredjeparter? 160 00:08:53,094 --> 00:08:56,856 Det er der ingen love imod lige nu. 161 00:08:56,856 --> 00:08:59,222 Det kunne være endnu mere problematisk 162 00:08:59,222 --> 00:09:02,061 i lande, der ikke har de samme friheder 163 00:09:02,061 --> 00:09:03,898 som her i USA. 164 00:09:04,883 --> 00:09:08,664 Hvad ville der være sket under Irans Grønne Bevægelse, 165 00:09:08,664 --> 00:09:12,595 hvis regeringen havde overvåget min families hjerneaktivitet 166 00:09:12,599 --> 00:09:17,621 og vurderet, at de stod på demonstranternes side? 167 00:09:17,621 --> 00:09:21,168 Er det så langt ude at forestille sig et samfund, 168 00:09:21,168 --> 00:09:23,988 hvor folk bliver arresteret på grund af deres tanker 169 00:09:23,988 --> 00:09:25,235 om at begå en forbrydelse, 170 00:09:25,235 --> 00:09:30,176 ligesom det dystopiske samfund i sci fi-filmen "Minority Report", 171 00:09:30,176 --> 00:09:34,609 I Indiana i USA 172 00:09:34,613 --> 00:09:39,554 blev en 18-årig tiltalt for at forsøge at true sin skole 173 00:09:39,554 --> 00:09:43,783 ved at uploade en video, hvor han skød folk på gangene. 174 00:09:43,783 --> 00:09:46,872 Bortset fra, at folkene var zombier, 175 00:09:46,872 --> 00:09:51,943 og i videoen spillede han et computerspil, 176 00:09:51,943 --> 00:09:56,755 der blev fortolket som en projektion af hans subjektive hensigter. 177 00:09:58,456 --> 00:10:03,052 Derfor har vores hjerner brug for særlig beskyttelse. 178 00:10:03,052 --> 00:10:06,632 Hvis vores hjerner udsættes for overvågning og dataindsamling 179 00:10:06,632 --> 00:10:09,198 ligesom vores økonomiske transaktioner, 180 00:10:09,198 --> 00:10:13,513 hvis vores hjerner kan hackes og overvåges ligesom vores aktiviteter 181 00:10:13,517 --> 00:10:15,898 på nettet, mobilen og apps, 182 00:10:15,902 --> 00:10:20,191 står vi over for en farlig trussel mod hele menneskeheden. 183 00:10:21,406 --> 00:10:23,912 Nu må I ikke gå i panik. 184 00:10:23,912 --> 00:10:27,156 Jeg tror, der findes løsninger på disse problemer, 185 00:10:27,170 --> 00:10:30,340 men vi må begynde med at fokusere på det rigtige. 186 00:10:30,340 --> 00:10:33,485 Når det kommer til beskyttelse af privatlivet, 187 00:10:33,485 --> 00:10:35,345 så kæmper vi forgæves, 188 00:10:35,345 --> 00:10:38,273 når vi forsøger at begrænse strømmen af information. 189 00:10:38,273 --> 00:10:42,308 I stedet bør vi fokusere på at sikre rettigheder og sanktioner 190 00:10:42,308 --> 00:10:45,073 for at misbruge vores oplysninger. 191 00:10:45,073 --> 00:10:48,570 Hvis folk havde ret til at vælge, hvordan deres oplysninger blev delt, 192 00:10:48,570 --> 00:10:51,515 og vigtigere endnu, havde juraen på deres side, 193 00:10:51,515 --> 00:10:53,967 hvis deres oplysninger blev misbrugt 194 00:10:53,967 --> 00:10:56,777 til at diskriminere på arbejdspladsen 195 00:10:56,777 --> 00:10:59,586 eller i sundhedssystemet eller skolen, 196 00:10:59,586 --> 00:11:02,803 ville det skabe grobund for tillid. 197 00:11:02,803 --> 00:11:04,591 I nogle tilfælde 198 00:11:04,591 --> 00:11:08,109 vil vi gerne dele flere personlige oplysninger 199 00:11:08,697 --> 00:11:11,738 Ved at studere store mængder data kan vi lære så meget 200 00:11:11,738 --> 00:11:14,489 om vores sundhed og velvære, 201 00:11:14,489 --> 00:11:17,846 men for sikkert at kunne dele vores oplysninger 202 00:11:17,846 --> 00:11:21,772 har vi brug for særlig beskyttelse af vores mentale privatliv. 203 00:11:21,772 --> 00:11:25,493 Derfor har vi brug for en ret til kognitiv frihed. 204 00:11:25,493 --> 00:11:29,616 Det ville sikre, vores tankefrihed, 205 00:11:29,616 --> 00:11:32,186 vores ret til selvbestemmelse, 206 00:11:32,190 --> 00:11:36,594 og det ville sikre, at vi selv ville kunne bestemme, 207 00:11:36,594 --> 00:11:39,671 om andre kunne få adgang til vores hjerner. 208 00:11:39,681 --> 00:11:42,103 Den rettighed kunne anderkendes 209 00:11:42,103 --> 00:11:44,824 som del af de universelle menneskerettigheder, 210 00:11:44,824 --> 00:11:47,226 der har etableret systemer 211 00:11:47,226 --> 00:11:50,602 til at håndhæve den slags sociale rettigheder. 212 00:11:51,722 --> 00:11:53,942 Under Irans Grønne Bevægelse 213 00:11:53,946 --> 00:11:59,386 kommunikerede demonstranterne via internettet og fra mund til mund, 214 00:11:59,386 --> 00:12:02,138 når de planlagde deres protester. 215 00:12:02,138 --> 00:12:04,961 Og nogle af de mest undertrykkende love i Iran 216 00:12:04,961 --> 00:12:07,858 blev ophævet på grund af det. 217 00:12:07,858 --> 00:12:12,118 Men hvad hvis Irans regering havde brugt hjerneovervågning 218 00:12:12,118 --> 00:12:15,579 til at opdage og forhindre protesterne? 219 00:12:16,847 --> 00:12:20,723 Ville verden nogensinde have hørt demonstranternes råb? 220 00:12:21,732 --> 00:12:26,853 Det er på tide, at vi kræver en kognitiv frihedsrevolution. 221 00:12:27,559 --> 00:12:30,807 At vi udvikler teknologien på en ansvarlig måde, 222 00:12:30,807 --> 00:12:33,799 så vi kan omfavne fremtiden 223 00:12:33,799 --> 00:12:40,560 og samtidig beskytte os alle mod mennesker, firmaer eller stater, 224 00:12:40,560 --> 00:12:46,609 der uretmæssigt forsøger at blande sig i vores inderste indre. 225 00:12:46,609 --> 00:12:48,033 Tak. 226 00:12:48,033 --> 00:12:51,349 (Klapsalver)