Return to Video

Hoe we materiaal over seksueel misbruik van kinderen van het internet kunnen verwijderen

  • 0:01 - 0:03
    [Deze talk bevat inhoud voor volwassenen]
  • 0:06 - 0:07
    Vijf jaar geleden
  • 0:07 - 0:11
    kreeg ik een telefoontje
    dat mijn leven zou veranderen.
  • 0:12 - 0:14
    Ik herinner me die dag zo levendig.
  • 0:15 - 0:17
    Het was rond deze tijd van het jaar
  • 0:17 - 0:19
    en ik zat in mijn kantoor.
  • 0:20 - 0:23
    Ik herinner me hoe het zonlicht
    door het raam viel.
  • 0:24 - 0:25
    Mijn telefoon ging.
  • 0:26 - 0:27
    Ik pakte hem op.
  • 0:28 - 0:32
    Het waren twee federale agenten
    die om mijn hulp vroegen
  • 0:32 - 0:34
    bij het identificeren van een klein meisje
  • 0:34 - 0:38
    afgebeeld in honderden foto's
    van seksueel misbruik van kinderen
  • 0:38 - 0:40
    die ze online hadden gevonden.
  • 0:41 - 0:44
    Ze waren net begonnen
    met werken aan de zaak,
  • 0:44 - 0:47
    maar ze wisten
  • 0:47 - 0:51
    dat haar misbruik al jaren
    over de wereld werd verspreid
  • 0:51 - 0:57
    op dark-websites gewijd
    aan het seksueel misbruik van kinderen.
  • 0:58 - 1:02
    Haar misbruiker was ongelooflijk
    technologisch geavanceerd:
  • 1:02 - 1:07
    nieuwe foto's en nieuwe video's
    om de paar weken,
  • 1:07 - 1:11
    maar heel weinig aanwijzingen
    over wie ze was
  • 1:11 - 1:12
    of waar ze was.
  • 1:13 - 1:15
    Dus belden ze ons,
  • 1:15 - 1:17
    omdat ze hadden gehoord
    dat we een nieuwe non-profit waren
  • 1:17 - 1:19
    die technologie ontwierpen
  • 1:19 - 1:22
    om seksueel misbruik
    van kinderen te bestrijden.
  • 1:22 - 1:24
    Maar we waren maar twee jaar bezig
  • 1:24 - 1:27
    en we hadden alleen gewerkt
    aan kinderseks-mensenhandel.
  • 1:28 - 1:30
    Ik moest hen vertellen
  • 1:30 - 1:31
    dat we niets hadden.
  • 1:32 - 1:36
    We hadden niets dat hen kon helpen
    om dit misbruik stoppen.
  • 1:37 - 1:41
    Het vergde die agenten nog een jaar
  • 1:41 - 1:44
    voor ze het kind vonden.
  • 1:45 - 1:47
    Tegen de tijd dat ze gered was,
  • 1:47 - 1:54
    waren al honderden foto's en video's
    over haar verkrachting viraal gegaan,
  • 1:54 - 1:55
    van het dark web
  • 1:55 - 1:58
    naar peer-to-peer netwerken,
    private chatrooms
  • 1:58 - 2:02
    en de websites die jullie en ik
  • 2:02 - 2:04
    elke dag gebruiken.
  • 2:05 - 2:09
    Vandaag vecht ze voor haar herstel
  • 2:09 - 2:13
    en leeft ze met het feit
    dat duizenden over de hele wereld
  • 2:13 - 2:16
    naar haar misbruik blijven kijken.
  • 2:18 - 2:20
    Ik ben in de afgelopen vijf jaar
    te weten gekomen
  • 2:20 - 2:23
    dat deze zaak verre van uniek is.
  • 2:24 - 2:28
    Hoe zijn we hier als samenleving
    in terecht gekomen?
  • 2:29 - 2:33
    In de late jaren 1980 was kinderporno --
  • 2:33 - 2:39
    of wat het eigenlijk is,
    seksueel misbruik van kinderen --
  • 2:39 - 2:40
    bijna geëlimineerd.
  • 2:41 - 2:46
    Nieuwe wetten en verhoogde vervolging
    maakten het gewoon te riskant
  • 2:46 - 2:47
    om het te verhandelen via de post.
  • 2:48 - 2:52
    Toen kwam internet
    en de markt explodeerde.
  • 2:53 - 2:57
    De hoeveelheid die vandaag in omloop is,
  • 2:57 - 3:00
    is enorm en groeit.
  • 3:00 - 3:03
    Dit is echt een wereldwijd probleem,
  • 3:03 - 3:06
    maar alleen al naar de VS kijkend:
  • 3:06 - 3:08
    in de VS werden alleen al vorig jaar
  • 3:08 - 3:14
    meer dan 45 miljoen foto's en video's
    van seksueel misbruik van kinderen
  • 3:14 - 3:17
    gemeld aan het Nationaal Centrum
    voor Vermiste en Uitgebuite Kinderen,
  • 3:17 - 3:22
    en dat is bijna het dubbele
    van het voorgaande jaar.
  • 3:23 - 3:28
    De details achter deze cijfers
    zijn moeilijk voor te stellen,
  • 3:28 - 3:34
    met meer dan 60% afbeeldingen
    met kinderen jonger dan 12
  • 3:34 - 3:38
    en de meeste met extreme daden
    van seksueel geweld.
  • 3:39 - 3:40
    Misbruikers worden toegejuicht
  • 3:40 - 3:44
    in chatrooms gewijd
    aan het misbruik van kinderen,
  • 3:44 - 3:47
    waar ze aanzien en bekendheid krijgen
  • 3:47 - 3:50
    met als gevolg nog meer misbruik
    en slachtoffers.
  • 3:50 - 3:53
    In deze markt
  • 3:53 - 3:57
    is de inhoud zelf
    het betalingsmiddel geworden.
  • 3:58 - 4:02
    Het is duidelijk dat de daders snel
    de nieuwe technologieën gingen benutten,
  • 4:02 - 4:05
    maar onze reactie
    als samenleving was dat niet.
  • 4:06 - 4:10
    Deze misbruikers lezen geen
    gebruikersovereenkomsten van websites
  • 4:10 - 4:14
    en de inhoud houdt zich niet
    aan geografische grenzen.
  • 4:15 - 4:21
    Zij winnen als wij slechts kijken
    naar één stukje van de puzzel tegelijk,
  • 4:21 - 4:25
    en zo is onze reactie
    vandaag precies ontworpen.
  • 4:25 - 4:28
    Handhaving van de wet
    werkt in één rechtsgebied.
  • 4:28 - 4:32
    Bedrijven kijken alleen naar hun platform.
  • 4:32 - 4:34
    En wat ze al doende leren,
  • 4:35 - 4:37
    wordt zelden gedeeld.
  • 4:37 - 4:43
    Het is zo duidelijk dat deze
    verbrokkelde aanpak niet werkt.
  • 4:44 - 4:49
    We moeten onze reactie op deze epidemie
    van het digitale tijdperk herontwerpen.
  • 4:50 - 4:53
    En dat is precies wat we doen bij Thorn.
  • 4:53 - 4:57
    We bouwen de technologie
    om deze punten te verbinden,
  • 4:57 - 4:59
    om iedereen op de frontlinies
    te bewapenen --
  • 4:59 - 5:02
    rechtshandhaving, ngo’s en bedrijven --
  • 5:02 - 5:04
    met de tools die ze nodig hebben
  • 5:04 - 5:08
    om uiteindelijk kindermisbruikmateriaal
    van het internet te bannen.
  • 5:09 - 5:11
    Laten we het daar even over hebben --
  • 5:11 - 5:12
    (Applaus)
  • 5:12 - 5:14
    Dank je.
  • 5:14 - 5:16
    (Applaus)
  • 5:18 - 5:20
    Laten we even praten
    over wat die punten zijn.
  • 5:21 - 5:25
    Zoals je je kan voorstellen,
    is deze inhoud afschuwelijk.
  • 5:25 - 5:28
    Als je er niet naar moet kijken,
    wil je er niet naar kijken.
  • 5:28 - 5:33
    Daarom kunnen de meeste bedrijven
    of wetshandhavingsinstanties
  • 5:33 - 5:35
    met dit soort inhoud
  • 5:35 - 5:39
    elk bestand vertalen
    in een unieke reeks getallen.
  • 5:39 - 5:40
    Dit heet een ‘hash’.
  • 5:40 - 5:42
    Het is in wezen een vingerafdruk
  • 5:42 - 5:45
    van elk bestand of elke video.
  • 5:45 - 5:49
    Dit laat hen toe om gebruik te maken
    van de informatie bij onderzoeken
  • 5:49 - 5:52
    of voor een bedrijf om de inhoud
    van hun platform te verwijderen
  • 5:52 - 5:58
    zonder elk beeld en elke video
    telkens weer opnieuw te moeten bekijken.
  • 5:58 - 6:00
    Het probleem vandaag echter
  • 6:00 - 6:04
    is dat er honderden miljoenen
    van deze hashes zitten
  • 6:04 - 6:07
    in geïsoleerde databases
    over de hele wereld.
  • 6:07 - 6:09
    In een geïsoleerde database
  • 6:09 - 6:13
    kan dat werken voor het agentschap
    dat er de controle over heeft,
  • 6:13 - 6:14
    maar deze gegevens niet koppelen
  • 6:14 - 6:17
    betekent dat we niet weten
    hoeveel er uniek zijn.
  • 6:17 - 6:20
    We weten niet welke
    reeds geredde kinderen voorstellen
  • 6:20 - 6:23
    of welke nog geïdentificeerd
    moeten worden.
  • 6:23 - 6:26
    Dus is ons eerste,
    meest fundamentele uitgangspunt
  • 6:26 - 6:30
    dat al deze gegevens met elkaar
    moeten worden verbonden.
  • 6:30 - 6:34
    Op twee manieren kunnen deze gegevens,
  • 6:34 - 6:37
    in combinatie met software
    op wereldwijde schaal,
  • 6:37 - 6:40
    een grote impact hebben op dit gebied.
  • 6:40 - 6:43
    De eerste is met de rechtshandhaving:
  • 6:43 - 6:47
    hen te helpen om nieuwe slachtoffers
    sneller te identificeren,
  • 6:47 - 6:48
    het misbruik te stoppen
  • 6:48 - 6:51
    en het stoppen van
    de productie van deze dingen.
  • 6:51 - 6:54
    De tweede is met bedrijven:
  • 6:54 - 6:55
    het gebruiken als aanwijzingen
  • 6:55 - 6:58
    om de honderden miljoenen
    bestanden te identificeren
  • 6:58 - 6:59
    die vandaag in omloop zijn,
  • 6:59 - 7:01
    ze te verwijderen
  • 7:01 - 7:04
    en vervolgens stoppen
    met het uploaden van nieuw materiaal
  • 7:04 - 7:08
    voordat het ooit viraal gaat.
  • 7:10 - 7:11
    Vier jaar geleden,
  • 7:11 - 7:13
    toen die zaak eindigde,
  • 7:14 - 7:18
    zat ons team daar,
    en we voelden alleen maar, hum ...
  • 7:20 - 7:23
    ... een diep gevoel van mislukking,
    kan ik wel zeggen,
  • 7:23 - 7:27
    omdat we dat hele jaar maar toekeken
  • 7:27 - 7:28
    terwijl ze haar zochten.
  • 7:28 - 7:32
    We zagen elke plaats van het onderzoek
  • 7:32 - 7:34
    waarbij als de technologie
    zou hebben bestaan,
  • 7:34 - 7:37
    ze haar sneller zouden hebben gevonden.
  • 7:38 - 7:40
    Daar hielden we mee op
  • 7:40 - 7:43
    en we gingen dat doen
    waarvan we wisten dat we het konden:
  • 7:43 - 7:45
    we begonnen software te maken.
  • 7:46 - 7:48
    Dus begonnen we met rechtshandhaving.
  • 7:48 - 7:52
    Onze droom was een alarmbel op de bureaus
    van politiemensen over de hele wereld
  • 7:52 - 7:57
    zodat zodra iemand nieuwe slachtoffers
    online durfde te posten,
  • 7:57 - 8:00
    iemand onmiddellijk
    naar hen op zoek zou gaan.
  • 8:01 - 8:04
    Ik kan natuurlijk niet praten
    over de details van die software,
  • 8:04 - 8:07
    maar vandaag is ze in 38 landen actief,
  • 8:07 - 8:10
    waardoor de tijd die het duurt
    om een kind terug te vinden
  • 8:10 - 8:12
    met meer dan 65% verminderd is.
  • 8:12 - 8:17
    (Applaus)
  • 8:21 - 8:24
    Nu gaan we op weg
    naar die tweede bestemming:
  • 8:24 - 8:26
    de bouw van de software
  • 8:26 - 8:31
    om bedrijven te helpen deze inhoud
    te identificeren en te verwijderen.
  • 8:31 - 8:34
    Laten we even praten over deze bedrijven.
  • 8:34 - 8:40
    Zoals ik al zei -- 45 miljoen beelden
    en video's in de VS alleen al vorig jaar.
  • 8:40 - 8:44
    Die komen van slechts 12 bedrijven.
  • 8:46 - 8:52
    Twaalf bedrijven, 45 miljoen bestanden
    van seksueel misbruik van kinderen.
  • 8:52 - 8:55
    Die komen van die bedrijven
    die het geld hebben
  • 8:55 - 9:00
    voor de infrastructuur die nodig is
    om deze inhoud te verwijderen.
  • 9:00 - 9:02
    Maar er zijn honderden andere bedrijven,
  • 9:02 - 9:05
    kleine tot middelgrote bedrijven
    over de hele wereld,
  • 9:05 - 9:07
    die dit ook moeten doen,
  • 9:07 - 9:10
    maar ofwel:
    1) kunnen ze zich niet indenken
  • 9:10 - 9:12
    dat hun platform zou
    worden gebruikt voor misbruik,
  • 9:12 - 9:18
    of 2) hebben ze niet het geld te besteden
    aan iets dat niets opbrengt.
  • 9:19 - 9:22
    Dus maakten wij het voor hen
  • 9:22 - 9:27
    en het systeem wordt steeds slimmer
    nu meer bedrijven eraan deelnemen.
  • 9:28 - 9:30
    Laat me een voorbeeld geven.
  • 9:30 - 9:34
    Onze eerste partner, Imgur --
    mocht je dit bedrijf niet kennen,
  • 9:34 - 9:38
    het is een van de meest bezochte
    websites in de VS --
  • 9:38 - 9:41
    miljoenen stukken door gebruikers
    gegenereerde inhoud
  • 9:41 - 9:43
    worden er elke dag geüpload
  • 9:43 - 9:45
    om van het internet
    een leuke plek te maken.
  • 9:46 - 9:48
    Ze staken met ons als eerste van wal.
  • 9:48 - 9:51
    Binnen de eerste 20 minuten
    dat ons systeem live ging,
  • 9:51 - 9:55
    probeerde iemand een bekend item
    misbruikmateriaal te uploaden.
  • 9:55 - 9:57
    Ze konden het stoppen, verwijderen
  • 9:57 - 10:00
    en melden aan het Nationale Centrum
    voor Vermiste en Uitgebuite Kinderen.
  • 10:00 - 10:02
    Maar ze gingen een stap verder:
  • 10:02 - 10:07
    ze inspecteerden de account
    van de persoon die het had geüpload.
  • 10:07 - 10:12
    Honderden documenten meer
    van seksueel misbruik van kinderen
  • 10:12 - 10:14
    die we nog nooit hadden gezien.
  • 10:14 - 10:18
    Hier beginnen we
    een exponentieel effect te zien.
  • 10:18 - 10:19
    We verwijderen dat materiaal,
  • 10:19 - 10:20
    het wordt gemeld
  • 10:20 - 10:23
    aan het Nationale Centrum
    voor Vermiste en Uitgebuite Kinderen
  • 10:23 - 10:26
    en dan gaan die hashes
    terug in het systeem
  • 10:26 - 10:28
    en profiteert elk ander bedrijf ervan.
  • 10:28 - 10:32
    De miljoenen hashes die we hebben,
    leiden tot nog eens miljoenen
  • 10:32 - 10:35
    en, in real time, identificeren
    bedrijven over de hele wereld
  • 10:35 - 10:37
    deze inhoud en verwijderen hem.
  • 10:37 - 10:42
    We hebben nu een spectaculaire toename
    van de snelheid van verwijdering
  • 10:42 - 10:46
    van seksueel misbruik van kinderen
    op het internet over de hele wereld.
  • 10:46 - 10:52
    (Applaus)
  • 10:54 - 10:57
    Maar daarom kan het niet
    alleen gaan over software en gegevens,
  • 10:57 - 10:59
    het moet ook over de schaal gaan.
  • 10:59 - 11:03
    We moeten duizenden ambtenaren activeren,
  • 11:03 - 11:05
    honderden bedrijven over de hele wereld,
  • 11:05 - 11:09
    als we willen dat de technologie
    de daders voorblijft,
  • 11:09 - 11:10
    en de gemeenschappen ontmantelen
  • 11:10 - 11:13
    die het seksueel misbruik
    van kinderen normaliseren
  • 11:13 - 11:15
    over de hele wereld van vandaag.
  • 11:15 - 11:18
    Nu moeten we dit doen.
  • 11:18 - 11:21
    We kunnen niet langer
    zeggen dat we niet weten
  • 11:21 - 11:25
    welke impact dit heeft op onze kinderen.
  • 11:25 - 11:29
    De eerste generatie van de kinderen
    van wie misbruik viraal is gegaan
  • 11:29 - 11:31
    zijn nu jongvolwassenen.
  • 11:31 - 11:34
    The Canadian Centre for Child Protection
  • 11:34 - 11:37
    deed recentelijk een studie
    van deze jongvolwassenen
  • 11:37 - 11:41
    om het unieke trauma te begrijpen
    waarvan ze proberen te herstellen,
  • 11:41 - 11:44
    wetende dat hun misbruik voortleeft.
  • 11:45 - 11:50
    80% van deze jongvolwassenen
    hebben zelfmoord overwogen.
  • 11:51 - 11:55
    Meer dan 60% heeft het gepoogd.
  • 11:56 - 12:01
    En de meesten van hen
    leven elke dag met de angst
  • 12:01 - 12:05
    dat als ze op straat lopen,
    gaan voor een baan,
  • 12:05 - 12:08
    naar school gaan
  • 12:08 - 12:10
    of iemand online ontmoeten,
  • 12:10 - 12:14
    dat die persoon het misbruik heeft gezien.
  • 12:15 - 12:19
    Die realiteit is uitgekomen
    voor meer dan 30% van hen.
  • 12:20 - 12:25
    Ze werden herkend
    door hun online data over misbruik.
  • 12:26 - 12:29
    Dit zal niet makkelijk zijn,
  • 12:29 - 12:32
    maar het is niet onmogelijk.
  • 12:32 - 12:35
    Er gaat een wil nodig zijn,
  • 12:35 - 12:36
    de wil van onze samenleving
  • 12:37 - 12:40
    om te kijken naar iets
    dat echt moeilijk is om naar te kijken,
  • 12:40 - 12:42
    om iets uit de duisternis te halen
  • 12:42 - 12:45
    zodat deze kinderen een stem krijgen;
  • 12:46 - 12:49
    de wil van bedrijven
    om actie te ondernemen
  • 12:49 - 12:51
    en ervoor te zorgen dat hun platforms
  • 12:51 - 12:54
    niet medeplichtig zijn
    aan het misbruik van een kind;
  • 12:55 - 12:59
    de wil van de overheid om te investeren
    met hun rechtshandhaving
  • 12:59 - 13:01
    voor de middelen die ze nodig hebben
  • 13:01 - 13:04
    om een digitale eerste misdaad
    te onderzoeken,
  • 13:04 - 13:08
    zelfs wanneer de slachtoffers
    niet voor zichzelf kunnen spreken.
  • 13:10 - 13:13
    Deze moedige inzet
    is een onderdeel van die wil.
  • 13:14 - 13:20
    Het is een oorlogsverklaring tegen een
    van de donkerste kwaden van de mensheid.
  • 13:20 - 13:22
    Maar waar ik voor ga,
  • 13:22 - 13:26
    is dat het eigenlijk
    een investering is in een toekomst
  • 13:26 - 13:29
    waar elk kind gewoon een kind kan zijn.
  • 13:29 - 13:31
    Dank je.
  • 13:31 - 13:37
    (Applaus)
Title:
Hoe we materiaal over seksueel misbruik van kinderen van het internet kunnen verwijderen
Speaker:
Julie Cordua
Description:

Sociaal ondernemer Julie Cordua werkt aan een probleem waarover niet gemakkelijk gesproken kan worden: seksueel misbruik van kinderen in beelden en video's op internet. Bij Thorn werkt ze aan de software om de punten tussen de technologische industrie, de politie en de overheid te verbinden -- zodat we de virale verspreiding van misbruikmateriaal snel kunnen beëindigen en kinderen sneller kunnen redden. Leer over hoe deze schaalbare oplossing kan helpen bij het ontmantelen van de gemeenschappen die tegenwoordig seksueel misbruik van kinderen wereldwijd normaliseren. (Dit ambitieuze plan maakt deel uit van het Audacious Project, het initiatief van TED om wereldwijde verandering te inspireren en te financieren.)

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Dutch subtitles

Revisions