< Return to Video

Hoe beschermen we onze privacy tegen technologie die gedachten leest?

  • 0:01 - 0:06
    Na de presidentsverkiezingen
    van 2009 in Iran
  • 0:06 - 0:09
    braken protesten uit in het hele land.
  • 0:10 - 0:13
    De Iraanse regering onderdrukte met geweld
  • 0:13 - 0:17
    wat bekend zou worden
    als de Iraanse Groene Beweging
  • 0:17 - 0:19
    en blokkeerde zelfs signalen van mobielen
  • 0:19 - 0:21
    om de communicatie
    tussen de demonstranten af te snijden.
  • 0:22 - 0:27
    Mijn ouders, die in de late jaren 60
    naar de Verenigde Staten emigreerden,
  • 0:27 - 0:29
    brachten daar veel tijd door,
  • 0:29 - 0:32
    bij mijn grote, uitgebreide familie.
  • 0:33 - 0:36
    Toen ik mijn familie in Teheran opbelde
  • 0:36 - 0:39
    tijdens de meest gewelddadige
    optredens tegen het protest,
  • 0:39 - 0:43
    durfde niemand met mij
    te spreken over wat er gebeurde.
  • 0:43 - 0:47
    Zij en ik wisten hoe het gesprek
    snel op andere onderwerpen te brengen.
  • 0:47 - 0:51
    We begrepen allemaal
    wat de gevolgen konden zijn
  • 0:51 - 0:53
    van een vermeende dissidente actie.
  • 0:54 - 0:58
    Maar ik wou nog steeds dat ik had
    kunnen weten wat ze dachten
  • 0:58 - 0:59
    of wat ze voelden.
  • 1:00 - 1:02
    Wat als ik het gekund had?
  • 1:02 - 1:03
    Of nog beangstigender,
  • 1:03 - 1:06
    wat als de Iraanse regering
    het zou hebben gekund?
  • 1:07 - 1:10
    Zouden ze hen hebben gearresteerd
    op basis van wat hun hersenen openbaarden?
  • 1:11 - 1:14
    Die dag kan dichterbij zijn dan je denkt.
  • 1:15 - 1:18
    Met onze groeiende mogelijkheden
    in de neurowetenschappen,
  • 1:18 - 1:20
    kunstmatige intelligentie
    en machinaal leren
  • 1:20 - 1:24
    kunnen we binnenkort veel meer weten
    van wat er in het menselijke brein omgaat.
  • 1:25 - 1:28
    Als bio-ethicus, advocaat, filosoof
  • 1:28 - 1:30
    en Iraans-Amerikaanse
  • 1:30 - 1:34
    ben ik zeer bezorgd over wat
    dit betekent voor onze vrijheden
  • 1:34 - 1:36
    en wat voor soort beveiligingen
    we nodig hebben.
  • 1:37 - 1:40
    Ik geloof dat we recht hebben
    op cognitieve vrijheid,
  • 1:40 - 1:43
    als een mensenrecht
    dat moet worden beschermd.
  • 1:44 - 1:46
    Zo niet, dan wordt
    onze vrijheid van gedachte,
  • 1:46 - 1:49
    toegang en controle
    over onze eigen hersenen
  • 1:49 - 1:52
    en onze mentale privacy bedreigd.
  • 1:54 - 1:55
    Overweeg dit:
  • 1:55 - 1:58
    de gemiddelde persoon denkt
    elke dag duizenden gedachten.
  • 1:58 - 2:00
    Als zich een gedachte aandient,
  • 2:00 - 2:05
    bijvoorbeeld een wiskundige berekening
    of een getal, een woord,
  • 2:05 - 2:08
    interageren neuronen in de hersenen,
  • 2:08 - 2:11
    met als gevolg een minuscule
    elektrische ontlading.
  • 2:12 - 2:15
    Bij een dominante mentale toestand,
    zoals ontspanning,
  • 2:15 - 2:19
    vuren honderden en duizenden
    neuronen in de hersenen
  • 2:19 - 2:24
    en creëren ze gelijktijdige elektrische
    ontladingen in karakteristieke patronen
  • 2:24 - 2:28
    die kunnen worden gemeten
    met elektro-encefalografie of EEG.
  • 2:29 - 2:31
    In feite is dat wat je nu ziet.
  • 2:32 - 2:36
    Je ziet mijn hersenactiviteit
    die in real time werd opgenomen
  • 2:36 - 2:39
    met een eenvoudig apparaat op mijn hoofd.
  • 2:40 - 2:45
    Wat je ziet is mijn hersenactiviteit
    terwijl ik ontspannen en nieuwsgierig was.
  • 2:46 - 2:48
    Om deze informatie met jullie te delen,
  • 2:48 - 2:51
    droeg ik een van de eerste
    EEG-apparaten voor consumenten,
  • 2:51 - 2:52
    zoals dit hier,
  • 2:52 - 2:55
    dat de elektrische activiteit
    in mijn hersenen
  • 2:55 - 2:57
    in real time registreerde.
  • 2:57 - 3:01
    Een beetje als de fitness-trackers
    die sommigen van jullie dragen
  • 3:01 - 3:04
    voor het meten van je hartslag
    of de stappen die je hebt gezet,
  • 3:04 - 3:06
    of zelfs je slaapactiviteit.
  • 3:07 - 3:11
    Het is niet bepaald de meest geavanceerde
    neuro-imaging-techniek op de markt.
  • 3:12 - 3:14
    Maar het is nu al de meest draagbare
  • 3:14 - 3:18
    en de meest waarschijnlijke om ons
    dagelijks leven te gaan beïnvloeden.
  • 3:18 - 3:19
    Dit is buitengewoon.
  • 3:19 - 3:22
    Via een eenvoudig, draagbaar apparaat
  • 3:22 - 3:26
    kunnen we letterlijk
    in het menselijk brein kijken
  • 3:26 - 3:29
    en aspecten van ons mentale
    landschap leren kennen
  • 3:29 - 3:32
    zonder zelfs een woord te uiten.
  • 3:33 - 3:36
    Hoewel we complexe gedachten
    nog niet betrouwbaar kunnen decoderen,
  • 3:37 - 3:39
    kunnen we iemands stemming al peilen
  • 3:39 - 3:42
    en met behulp
    van kunstmatige intelligentie
  • 3:42 - 3:45
    kunnen we zelfs een aantal
    simpele dingen decoderen,
  • 3:45 - 3:49
    ééncijferige getallen of vormen
    of eenvoudige woorden,
  • 3:49 - 3:53
    die iemand denkt, hoort of ziet.
  • 3:54 - 3:58
    Ondanks bepaalde inherente
    beperkingen van de EEG,
  • 3:58 - 4:02
    denk ik dat ik gerust kan zeggen dat
    met onze vooruitgang in de technologie,
  • 4:02 - 4:06
    meer en meer van wat er gebeurt
    in het menselijk brein
  • 4:06 - 4:09
    na verloop van tijd kan
    en zal worden gedecodeerd.
  • 4:09 - 4:12
    Nu al kan een epilepticus
    met een van deze apparaten
  • 4:12 - 4:17
    een epileptische aanval zien aankomen
    voordat hij gebeurt.
  • 4:17 - 4:20
    Een dwarslaesiepatiënt
    kan typen op een computer
  • 4:20 - 4:22
    door alleen maar te denken.
  • 4:22 - 4:25
    Een Amerikaans bedrijf
    ontwikkelde een technologie
  • 4:25 - 4:29
    om deze sensoren in te bouwen
    in de hoofdsteunen van auto’s,
  • 4:29 - 4:31
    zodat ze de concentratie, de afleiding
  • 4:31 - 4:33
    en de cognitieve belasting
    van de bestuurder
  • 4:33 - 4:35
    tijdens het rijden kunnen volgen.
  • 4:35 - 4:38
    Nissan, verzekeringsmaatschappijen
    en de Amerikaanse wegenwacht
  • 4:38 - 4:39
    hebben dit opgepikt.
  • 4:40 - 4:42
    Je zou zelfs kunnen kijken
  • 4:42 - 4:46
    naar deze kies-je-eigen-avontuurfilm,
    ‘The Moment’,
  • 4:46 - 4:49
    die met een EEG-headset
  • 4:49 - 4:53
    de film verandert op basis
    van jouw hersenreacties,
  • 4:53 - 4:57
    waardoor het einde telkens anders is
    als je aandacht verslapt.
  • 4:59 - 5:02
    Dat klinkt misschien allemaal geweldig,
  • 5:02 - 5:04
    en als bio-ethicus
  • 5:04 - 5:08
    ben ik een grote voorstander
    van het in staat stellen van mensen
  • 5:08 - 5:10
    om hun eigen gezondheid en welzijn
    in handen te nemen
  • 5:10 - 5:13
    door hen toegang tot informatie
    over zichzelf te geven,
  • 5:13 - 5:17
    met inbegrip van deze ongelooflijke
    nieuwe hersendecoderingstechnologie.
  • 5:18 - 5:19
    Maar ik maak me zorgen.
  • 5:20 - 5:23
    Ik ben bang dat we
    vrijwillig of onvrijwillig
  • 5:24 - 5:27
    ons laatste bastion van vrijheid
    zullen opgeven:
  • 5:27 - 5:29
    onze mentale privacy.
  • 5:29 - 5:32
    Dat we onze hersenactiviteit
    zullen aanbieden
  • 5:32 - 5:35
    voor toeslagen of kortingen
    op verzekeringen,
  • 5:36 - 5:39
    of gratis toegang
    tot sociale-media-accounts ...
  • 5:40 - 5:42
    of zelfs om onze baan te behouden.
  • 5:43 - 5:45
    Het is nu al zo dat in China
  • 5:46 - 5:52
    de treinbestuurders op de
    Beijing-Shanghai hogesnelheidstrein,
  • 5:52 - 5:54
    de drukste dergelijke route in de wereld,
  • 5:55 - 5:57
    EEG-sets dragen
  • 5:57 - 6:00
    om hun hersenactiviteit
    te controleren tijdens het rijden.
  • 6:00 - 6:02
    Volgens sommige nieuwsbronnen
  • 6:02 - 6:05
    moeten in door de regering
    gerunde fabrieken in China
  • 6:05 - 6:10
    de werknemers EEG-sensoren dragen
    om hun productiviteit te controleren,
  • 6:10 - 6:13
    evenals hun emotionele
    toestand op het werk.
  • 6:13 - 6:16
    Arbeiders worden zelfs naar huis gestuurd
  • 6:16 - 6:20
    als hun hersenen onvoldoende
    concentratie op hun werk vertonen
  • 6:20 - 6:22
    of irritatie.
  • 6:23 - 6:25
    Het zal niet voor morgen zijn,
  • 6:25 - 6:28
    maar we zijn op weg naar een wereld
    van hersentransparantie.
  • 6:29 - 6:32
    En ik denk niet dat mensen doorhebben
    dat dat alles zou kunnen veranderen.
  • 6:32 - 6:36
    Alles, van onze definities
    van de persoonlijke levenssfeer,
  • 6:36 - 6:38
    tot onze wetten,
    tot onze ideeën over vrijheid.
  • 6:39 - 6:42
    Als het daarover gaat,
    in mijn lab aan de Duke University
  • 6:42 - 6:45
    deden we onlangs een landelijk onderzoek
    in de Verenigde Staten
  • 6:45 - 6:47
    om te zien of mensen
  • 6:47 - 6:50
    de gevoeligheid van hun
    herseninformatie konden inschatten.
  • 6:50 - 6:54
    We vroegen mensen om hun vermeende
    gevoeligheid in te schatten
  • 6:54 - 6:56
    van 33 verschillende soorten informatie:
  • 6:56 - 6:58
    van hun sofinummers
  • 6:58 - 7:01
    tot de inhoud van hun telefoongesprekken,
  • 7:01 - 7:03
    hun relatiegeschiedenis,
  • 7:03 - 7:05
    hun emoties, hun angst,
  • 7:05 - 7:07
    de mentale beelden in hun hoofd
  • 7:07 - 7:09
    en de gedachten in hun hoofd.
  • 7:09 - 7:14
    Schokkend genoeg beoordeelden
    mensen hun sofinummer
  • 7:14 - 7:17
    als veel gevoeliger
    dan elke andere vorm van informatie,
  • 7:17 - 7:19
    met inbegrip van hun hersendata.
  • 7:20 - 7:24
    Ik denk dat dit komt omdat mensen
    nog geen inzicht of geloof hebben
  • 7:24 - 7:28
    in de gevolgen van deze nieuwe
    hersendecoderingstechnologie.
  • 7:29 - 7:32
    Als we de innerlijke werking
    van het menselijk brein gaan kennen,
  • 7:32 - 7:35
    zullen onze sofinummers
    de minste van onze zorgen zijn.
  • 7:35 - 7:36
    (Gelach)
  • 7:36 - 7:37
    Denk er over na.
  • 7:37 - 7:40
    Wie zou in een wereld
    van totale hersentransparantie
  • 7:40 - 7:42
    een politiek dissidente
    gedachte durven hebben?
  • 7:43 - 7:45
    Of een creatieve?
  • 7:46 - 7:49
    Ik ben bang dat mensen
    aan zelfcensuur zullen doen
  • 7:49 - 7:52
    uit angst te worden verstoten
    door de maatschappij,
  • 7:52 - 7:56
    of dat de mensen hun baan kwijtraken
    door hun afnemende aandacht
  • 7:56 - 7:58
    of emotionele instabiliteit,
  • 7:58 - 8:02
    of omdat ze denken aan collectieve
    actie tegen hun werkgevers.
  • 8:02 - 8:06
    Uit de kast komen
    zal niet langer een optie zijn,
  • 8:06 - 8:11
    omdat hun hersenen al lang hun seksuele
    geaardheid zullen hebben geopenbaard,
  • 8:11 - 8:13
    of hun politieke ideologie
  • 8:13 - 8:15
    of hun religieuze voorkeuren,
  • 8:15 - 8:18
    lang voordat ze klaar waren
    om die informatie bewust te delen
  • 8:18 - 8:19
    met andere mensen.
  • 8:20 - 8:22
    Ik maak me zorgen of onze wetten
  • 8:22 - 8:25
    de technologische veranderingen
    zullen kunnen bijbenen.
  • 8:25 - 8:27
    Het eerste amendement
    van de Amerikaanse grondwet
  • 8:27 - 8:29
    beschermt de vrijheid van meningsuiting.
  • 8:29 - 8:31
    Beschermt het ook
    de vrijheid van gedachten?
  • 8:32 - 8:36
    En zo ja, mogen we dan ook onze gedachten
    veranderen als we dat willen?
  • 8:36 - 8:38
    Of kan de overheid of de maatschappij
  • 8:38 - 8:42
    ons vertellen wat we kunnen doen
    met onze eigen hersenen?
  • 8:42 - 8:45
    Kan de NSA onze hersenen bespioneren
    met die nieuwe mobiele apparaten?
  • 8:46 - 8:50
    Mogen bedrijven die hersengegevens
    kunnen verzamelen
  • 8:50 - 8:52
    die informatie aan derden verkopen?
  • 8:53 - 8:56
    Nu zijn er geen wetten
    die hen dat beletten.
  • 8:57 - 8:59
    Het zou nog meer problemen geven
  • 8:59 - 9:02
    in landen die niet
    dezelfde vrijheden hebben
  • 9:02 - 9:04
    als die van de mensen
    in de Verenigde Staten.
  • 9:05 - 9:09
    Wat zou er tijdens de Iraanse
    Groene Beweging zijn gebeurd
  • 9:09 - 9:13
    als de regering inzage had gehad
    in de hersenactiviteit van mijn familie
  • 9:13 - 9:17
    en had besloten dat ze sympathie
    hadden voor de demonstranten?
  • 9:18 - 9:21
    Is het zo vergezocht
    om een samenleving te bedenken
  • 9:21 - 9:24
    waarin mensen worden opgepakt
    op basis van hun gedachten
  • 9:24 - 9:26
    over het plegen van een misdrijf,
  • 9:26 - 9:30
    zoals in de sciencefiction, dystopische
    samenleving in ‘Minority Report’.
  • 9:30 - 9:35
    In de Verenigde Staten, in Indiana,
  • 9:35 - 9:39
    werd een 18-jarige al beschuldigd van
    een poging om zijn school te intimideren
  • 9:39 - 9:42
    door het plaatsen
    van een video van zichzelf
  • 9:42 - 9:44
    waarin hij mensen
    in de gangen neerschoot ...
  • 9:44 - 9:47
    Behalve dat de mensen zombies waren
  • 9:47 - 9:49
    en de video er een was
  • 9:49 - 9:52
    waarin hij een videogame
    met verhoogde realiteit speelde,
  • 9:52 - 9:53
    allemaal geïnterpreteerd
  • 9:53 - 9:57
    als een mentale projectie
    van zijn subjectieve bedoelingen.
  • 9:58 - 10:00
    Dit is precies de reden
  • 10:00 - 10:03
    waarom onze hersenen
    speciale bescherming nodig hebben.
  • 10:03 - 10:07
    Als onze hersenen net zo onderhevig zijn
    aan datatracking en -aggregatie
  • 10:07 - 10:09
    als onze financiële
    administratie en transacties,
  • 10:09 - 10:12
    als onze hersenen gehackt
    en bijgehouden kunnen worden
  • 10:12 - 10:14
    zoals onze online-activiteiten,
  • 10:14 - 10:16
    onze mobiele telefoons en toepassingen,
  • 10:16 - 10:18
    dan staan we aan de rand
  • 10:18 - 10:21
    van een gevaarlijke bedreiging
    voor onze gezamenlijke menselijkheid.
  • 10:21 - 10:23
    Voordat je in paniek raakt:
  • 10:24 - 10:27
    ik geloof dat er oplossingen zijn
    voor deze problemen,
  • 10:27 - 10:30
    maar we moeten beginnen
    door op de juiste dingen te focussen.
  • 10:31 - 10:33
    Als het gaat om bescherming
    van de privacy in het algemeen,
  • 10:33 - 10:35
    denk ik dat we vechten tegen de bierkaai
  • 10:35 - 10:38
    door te proberen om de stroom
    van informatie te beperken.
  • 10:38 - 10:40
    In plaats daarvan moeten we ons richten
  • 10:40 - 10:43
    op het veiligstellen
    van rechten en rechtsmiddelen
  • 10:43 - 10:45
    tegen misbruik van onze informatie.
  • 10:45 - 10:49
    Als mensen mogen beslissen
    hoe hun informatie wordt gedeeld,
  • 10:49 - 10:51
    en nog belangrijker, wat hun rechten zijn
  • 10:51 - 10:54
    als hun informatie verkeerd
    tegen hen werd gebruikt,
  • 10:54 - 10:57
    bijvoorbeeld bij discriminatie
    in een werkgelegenheidsgeschil
  • 10:57 - 11:00
    of in gezondheidszorg of onderwijs,
  • 11:00 - 11:02
    zou dat al een grote stap zijn
    om vertrouwen op te bouwen.
  • 11:03 - 11:05
    In feite willen we in sommige gevallen
  • 11:05 - 11:08
    meer persoonlijke informatie delen.
  • 11:09 - 11:12
    Het bestuderen van verzamelde informatie
    kan ons zoveel vertellen
  • 11:12 - 11:15
    over onze gezondheid en ons welzijn,
  • 11:15 - 11:18
    maar om onze informatie
    veilig te kunnen delen,
  • 11:18 - 11:21
    hebben we speciale bescherming
    van onze mentale privacy nodig.
  • 11:22 - 11:25
    Daarom hebben we het recht
    op cognitieve vrijheid nodig.
  • 11:26 - 11:30
    Dit recht zou voor ons onze vrijheid
    van denken en rumineren veiligstellen,
  • 11:30 - 11:32
    onze vrijheid van zelfbeschikking,
  • 11:32 - 11:35
    en het zou ons ervan verzekeren
    dat we het recht hebben
  • 11:35 - 11:40
    anderen al dan niet toestemming te geven
    onze hersenen in te zien of te wijzigen.
  • 11:40 - 11:42
    Dit recht kan worden erkend als onderdeel
  • 11:42 - 11:45
    van de Universele Verklaring
    van de Rechten van de Mens,
  • 11:45 - 11:47
    die vastgestelde mechanismen heeft
  • 11:47 - 11:50
    voor de handhaving
    van dit soort sociale rechten.
  • 11:52 - 11:54
    Tijdens de Iraanse Groene Beweging
  • 11:54 - 11:59
    gebruikten de betogers het internet en
    goede ouderwetse mond-tot-mond-berichten
  • 11:59 - 12:01
    om hun marsen te coördineren.
  • 12:02 - 12:05
    Sommige van de meest onderdrukkende
    beperkingen in Iran
  • 12:05 - 12:07
    werden als gevolg daarvan opgeheven.
  • 12:08 - 12:12
    Maar wat als de Iraanse regering
    hersensurveillance had gebruikt
  • 12:12 - 12:15
    om het protest op te sporen
    en te voorkomen?
  • 12:17 - 12:20
    Zou de wereld ooit de kreten
    van de demonstranten hebben gehoord?
  • 12:22 - 12:27
    De tijd is gekomen dat we pleiten
    voor een revolutie om cognitieve vrijheid.
  • 12:27 - 12:31
    Om ervoor te zorgen dat we technologie
    op verantwoorde wijze zo bevorderen
  • 12:31 - 12:34
    dat we de toekomst kunnen omarmen
  • 12:34 - 12:41
    en tegelijkertijd ons allemaal beschermen
    tegen personen, bedrijven of overheden
  • 12:41 - 12:46
    die zonder toestemming ons diepste wezen
    willen inzien of wijzigen.
  • 12:47 - 12:48
    Dank je.
  • 12:48 - 12:51
    (Applaus)
Title:
Hoe beschermen we onze privacy tegen technologie die gedachten leest?
Speaker:
Nita A. Farahany
Description:

Technologie die je hersenactiviteit kan ontcijferen en die kan onthullen wat je denkt en voelt, staat eraan te komen, zegt jurist en ethicus Nita Farahany. Wat betekent dat voor ons al geschonden privacygevoel? In een tot voorzichtigheid aanmanende talk waarschuwt Farahany voor een samenleving waarin mensen worden gearresteerd omdat ze alleen maar denken aan het plegen van een misdaad (zoals in 'Minority Report') en waarin particuliere belangengroeperingen onze hersengegevens verkopen -- en pleit ze voor een recht op cognitieve vrijheid die onze vrijheid van denken en zelfbeschikking beschermt.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:04

Dutch subtitles

Revisions