< Return to Video

De nachtmerrie van kindervideo's op YouTube -- en wat er vandaag fout is aan het internet

  • 0:01 - 0:02
    Ik ben James.
  • 0:02 - 0:04
    Ik ben schrijver en kunstenaar
  • 0:04 - 0:06
    en mijn werk gaat over over technologie,
  • 0:06 - 0:10
    zoals levensgrote contouren
    van militaire drones tekenen
  • 0:10 - 0:12
    in straten van steden over de hele wereld,
  • 0:12 - 0:15
    zodat mensen kunnen gaan
    nadenken en iets snappen
  • 0:15 - 0:19
    van deze nogal wazige
    en moeilijk te begrijpen technologieën.
  • 0:19 - 0:21
    Ik maak dingen als neurale netwerken
  • 0:21 - 0:23
    die verkiezingsresultaten voorspellen
  • 0:23 - 0:25
    op basis van weerberichten,
  • 0:25 - 0:28
    want ik ben geïntrigeerd
    door de werkelijke mogelijkheden
  • 0:28 - 0:31
    van deze vreemde nieuwe technologieën.
  • 0:31 - 0:34
    Vorig jaar bouwde ik
    mijn eigen zelfrijdende auto.
  • 0:34 - 0:36
    Maar omdat ik de technologie
    niet echt vertrouwde,
  • 0:36 - 0:38
    ontwierp ik er eveneens een val voor.
  • 0:39 - 0:40
    (Gelach)
  • 0:40 - 0:44
    Ik doe dat vooral omdat ik
    ze helemaal fascinerend vind,
  • 0:44 - 0:47
    maar ook omdat ik denk
    dat als we het hebben over technologie,
  • 0:47 - 0:49
    we meestal over onszelf praten
  • 0:49 - 0:52
    en de manier waarop
    we de wereld begrijpen.
  • 0:52 - 0:54
    Dus hier een verhaal over technologie.
  • 0:56 - 0:58
    Dit is een surprise-ei-video.
  • 0:58 - 1:02
    Het is een video van iemand
    die wat chocolade-eieren opent
  • 1:02 - 1:04
    en de kijker het speelgoed erin toont.
  • 1:04 - 1:05
    Dat is het.
  • 1:05 - 1:07
    Dat is alles wat hij
    zeven lange minuten doet.
  • 1:07 - 1:10
    Twee dingen zijn hier belangrijk om weten.
  • 1:11 - 1:15
    Allereerst is deze video
    30 miljoen keer bekeken.
  • 1:15 - 1:16
    (Gelach)
  • 1:16 - 1:18
    En ten tweede komt hij van een kanaal
  • 1:18 - 1:21
    met 6,3 miljoen abonnees,
  • 1:21 - 1:24
    een totaal van acht miljard views,
  • 1:24 - 1:27
    en het is één van
    een hoop video's zoals deze --
  • 1:28 - 1:32
    30 miljoen mensen kijken naar iemand
    die deze eieren opendoet.
  • 1:32 - 1:37
    Het klinkt raar, maar als je
    naar surprise-eieren op YouTube zoekt,
  • 1:37 - 1:40
    kan ik je vertellen dat er 10 miljoen
    van deze video's bestaan,
  • 1:40 - 1:42
    en ik denk dat dat een onderschatting is.
  • 1:42 - 1:44
    Ik denk dat het er veel, veel meer zijn.
  • 1:44 - 1:46
    Als je gaat zoeken, houdt het niet op.
  • 1:46 - 1:48
    Er zijn miljoenen en
    miljoenen van deze video's,
  • 1:48 - 1:52
    in toenemende barokke combinaties
    van merken en materialen,
  • 1:52 - 1:56
    en er worden er elke dag
    meer en meer geüpload.
  • 1:56 - 1:59
    Toch een vreemde wereld, niet?
  • 1:59 - 2:03
    Maar het zijn geen volwassenen
    die naar deze video's kijken.
  • 2:03 - 2:05
    Het zijn kinderen, kleine kinderen.
  • 2:05 - 2:08
    Deze video's zijn als crack
    voor kleine kinderen.
  • 2:08 - 2:12
    Iets in de herhaling die steeds
    weer een kleine dopamine-opstoot geeft,
  • 2:12 - 2:14
    maakt ze er helemaal aan verslaafd.
  • 2:14 - 2:19
    Kleine kinderen bekijken deze video’s
    opnieuw en opnieuw,
  • 2:19 - 2:21
    uren aan een stuk.
  • 2:21 - 2:23
    Probeer ze niet
    weg te halen van het scherm,
  • 2:23 - 2:25
    want ze gaan krijsen en gillen.
  • 2:25 - 2:28
    Als jullie me niet geloven --
    ik zag al mensen knikken --
  • 2:28 - 2:31
    als je het niet gelooft,
    vraag dan iemand met kleine kinderen,
  • 2:31 - 2:34
    zij kennen die surprise-ei-video's.
  • 2:35 - 2:37
    Daar beginnen we mee.
  • 2:37 - 2:41
    Het is 2018, en iemand, of veel mensen,
  • 2:41 - 2:45
    gebruiken hetzelfde mechanisme om,
    net als Facebook en Instagram,
  • 2:45 - 2:47
    te zorgen dat je die app opzoekt,
  • 2:47 - 2:49
    en ze gebruiken het op YouTube
  • 2:49 - 2:53
    om de hersenen van zeer kleine kinderen
    te hacken in ruil voor reclame-inkomsten.
  • 2:54 - 2:57
    Ik hoop tenminste
    dat het dat is wat ze doen.
  • 2:57 - 2:58
    Ik hoop dat ze het daarvoor doen,
  • 2:58 - 3:01
    omdat er makkelijker manieren zijn
  • 3:01 - 3:04
    om advertentie-inkomsten
    te krijgen op YouTube.
  • 3:04 - 3:06
    Je kunt gewoon dingen
    uitvinden of dingen jatten.
  • 3:06 - 3:08
    Als je naar echt populaire kindercartoons
  • 3:08 - 3:10
    als ‘Pepper Pig’ of ‘Paw Patrol’ zoekt,
  • 3:10 - 3:13
    zal je er ook miljoenen
    en miljoenen online vinden.
  • 3:13 - 3:17
    Natuurlijk komen de meeste niet
    van de makers van de originele strips.
  • 3:17 - 3:20
    Ze komen uit heel verschillende
    willekeurige accounts
  • 3:20 - 3:22
    en het is onmogelijk
    om te weten wie ze posten
  • 3:22 - 3:24
    of wat hun mogelijke motieven zijn.
  • 3:24 - 3:26
    Komt dat bekend voor?
  • 3:26 - 3:28
    Want precies hetzelfde mechanisme
  • 3:28 - 3:31
    zie je in de meeste
    digitale dienstverlening,
  • 3:31 - 3:34
    waar je de herkomst van de informatie
    niet kunt achterhalen.
  • 3:34 - 3:36
    Het is eigenlijk nepnieuws voor kinderen
  • 3:36 - 3:39
    en we zorgen er vanaf
    de geboorte voor dat ze klikken
  • 3:39 - 3:41
    op de eerste link die langs komt,
  • 3:41 - 3:43
    ongeacht wat de bron is.
  • 3:43 - 3:45
    Dat lijkt geen erg goed idee.
  • 3:46 - 3:49
    Dit is ook echt populair
    op YouTube voor kinderen.
  • 3:49 - 3:51
    Dit heet de ‘Finger Family Song’.
  • 3:51 - 3:53
    Ik hoorde net iemand
    in het publiek kreunen.
  • 3:53 - 3:55
    Dit is de ‘Finger Family Song’.
  • 3:55 - 3:57
    Dit is de eerste die ik kon vinden.
  • 3:57 - 4:00
    Hij is van 2007 en is
    slechts 200.000 keer bekeken,
  • 4:00 - 4:02
    wat echt niets is in dit spel.
  • 4:02 - 4:04
    Maar het muziekje is een echte oorworm,
  • 4:04 - 4:06
    die ik jullie zal besparen,
  • 4:06 - 4:08
    omdat hij zich in je hersenen brandt
  • 4:08 - 4:11
    net zoals hij zich in de mijne inbrandde.
  • 4:11 - 4:12
    Ik wil het jullie niet aandoen.
  • 4:12 - 4:14
    Maar net als de surprise-eieren
  • 4:14 - 4:16
    kroop het in de kinderhoofdjes
  • 4:16 - 4:18
    en maakte hen eraan verslaafd.
  • 4:18 - 4:21
    Binnen enkele jaren verschenen
    deze ‘vingerfamilie’- video’s overal,
  • 4:21 - 4:24
    met versies in verschillende talen,
  • 4:24 - 4:26
    met populaire kinderstrips met voedsel,
  • 4:26 - 4:28
    of met eender wat voor animatie-elementen
  • 4:28 - 4:30
    die je ter beschikking hebt.
  • 4:31 - 4:37
    En er zijn miljoenen en miljoenen
    van deze video's online beschikbaar
  • 4:37 - 4:40
    in allerlei soorten
    krankzinnige combinaties.
  • 4:40 - 4:42
    Hoe meer tijd je eraan spendeert,
  • 4:42 - 4:46
    des te gekker je je begint te voelen.
  • 4:46 - 4:49
    Daar ben ik dan mee begonnen,
  • 4:49 - 4:53
    over hoe dat gevoel van diepe vreemdheid
    en diep gebrek aan inzicht
  • 4:53 - 4:57
    aan hoe dit ding, dat je overal ziet,
    in elkaar werd gestoken.
  • 4:57 - 4:59
    Omdat het onmogelijk is
    om de herkomst te weten
  • 4:59 - 5:01
    of wie ze maakt.
  • 5:01 - 5:04
    Sommige lijken gemaakt door teams
    van professionele animators.
  • 5:05 - 5:07
    Sommige lijken gewoon willekeurig
    samengesteld door software.
  • 5:07 - 5:12
    Sommige zien eruit
    als heel normaal kindervermaak.
  • 5:12 - 5:14
    En sommige lijken te komen van mensen
  • 5:14 - 5:16
    die je beter weghoudt van kinderen.
  • 5:16 - 5:18
    (Gelach)
  • 5:19 - 5:23
    En dan weer de onmogelijkheid
    om de bron te achterhalen --
  • 5:23 - 5:25
    zoals, is dit een bot?
  • 5:25 - 5:27
    Of een persoon? Of een trol?
  • 5:28 - 5:32
    Wat betekent het dat we het verschil
    tussen deze dingen niet meer zien?
  • 5:32 - 5:36
    En komt dat gevoel van onzekerheid
    jullie ook niet een beetje bekend voor?
  • 5:38 - 5:41
    De belangrijkste manier
    om views te krijgen --
  • 5:41 - 5:42
    en views krijgen brengt geld op --
  • 5:42 - 5:47
    is deze video’s te voorzien
    van populaire termen.
  • 5:47 - 5:49
    Bijvoorbeeld surprise-eieren
  • 5:49 - 5:51
    koppel je aan ‘Paw Patrol’ of ‘Easter Egg’
  • 5:51 - 5:52
    of wat dan ook,
  • 5:52 - 5:55
    en steek woorden uit andere
    populaire video’s in je titel
  • 5:55 - 5:58
    tot een nietszeggende taalpuree
  • 5:58 - 6:01
    zonder enige betekenis voor mensen.
  • 6:01 - 6:04
    Want natuurlijk zijn het alleen
    erg kleine kinderen die je video bekijken
  • 6:04 - 6:06
    en die beseffen het niet.
  • 6:06 - 6:09
    Je echte publiek
    voor dit spul is software.
  • 6:09 - 6:11
    Het zijn de algoritmen.
  • 6:11 - 6:12
    Het is de software van YouTube
  • 6:12 - 6:15
    die kiest welke video's
    net als andere video's zijn,
  • 6:15 - 6:17
    om ze populair te maken,
    om ze aan te bevelen.
  • 6:17 - 6:21
    En dat is waarom je eindigt
    met dit soort volkomen zinloze puree,
  • 6:21 - 6:23
    zowel van titel als van inhoud.
  • 6:24 - 6:26
    Maar je mag niet vergeten
  • 6:26 - 6:30
    dat er nog steeds mensen zitten achter
    dit algoritmisch geoptimaliseerd systeem,
  • 6:30 - 6:33
    mensen die meer en meer
  • 6:33 - 6:36
    deze steeds meer bizarre
    woordcombinaties moeten naspelen
  • 6:36 - 6:41
    als een wanhopige improvisatiekunstenaar
    die reageert op het gecombineerde gekrijs
  • 6:41 - 6:44
    van een miljoen peuters.
  • 6:45 - 6:48
    Er zitten echte mensen
    gevangen in deze systemen
  • 6:48 - 6:52
    en dat is het andere zeer vreemde iets
    aan deze door algoritmen gedreven cultuur,
  • 6:52 - 6:54
    want zelfs als mens,
    moet je je uiteindelijk
  • 6:54 - 6:57
    als een machine gaan gedragen
    om te overleven.
  • 6:57 - 6:59
    En ook aan de andere kant van het scherm
  • 6:59 - 7:02
    zitten nog steeds die kleine kinderen
    te kijken naar dit spul,
  • 7:02 - 7:06
    vastgeplakt, hun volledige aandacht
    gegrepen door die rare mechanismen.
  • 7:07 - 7:10
    De meesten zijn zelfs te klein
    om een website gebruiken.
  • 7:10 - 7:13
    Ze tokkelen gewoon wat
    met hun kleine handjes op het scherm.
  • 7:13 - 7:14
    En dus is er autoplay,
  • 7:14 - 7:17
    waardoor deze video’s
    in een lus blijven doorspelen,
  • 7:17 - 7:20
    onophoudelijk, uren en uren aan een stuk.
  • 7:20 - 7:23
    Het systeem is nu zo raar
  • 7:23 - 7:26
    dat autoplay je op hele
    vreemde plaatsen brengt.
  • 7:26 - 7:28
    Zo kan je in een tiental stappen
  • 7:28 - 7:31
    van een leuke video met een tellende trein
  • 7:31 - 7:34
    bij een masturberende
    Mickey Mouse terechtkomen.
  • 7:35 - 7:37
    Ja. Sorry daarvoor.
  • 7:37 - 7:39
    Het wordt nog erger.
  • 7:39 - 7:40
    Dit is wat er gebeurt
  • 7:40 - 7:43
    wanneer al deze verschillende zoekwoorden,
  • 7:43 - 7:45
    al deze verschillende aandachtspunten,
  • 7:45 - 7:48
    deze wanhopige productie van inhoud,
  • 7:48 - 7:51
    allemaal op een enkele plaats samenkomt.
  • 7:52 - 7:56
    Daar vind je die zeer
    rare trefwoorden samen.
  • 7:56 - 7:59
    Je bestuift de vingerfamilie-video
  • 7:59 - 8:01
    met wat superheldenactie,
  • 8:01 - 8:04
    doe er nog wat rare,
    trolse grappen of zoiets bij,
  • 8:04 - 8:08
    en plotseling kom je
    op een zeer rare plek terecht.
  • 8:08 - 8:10
    Bij dingen die ouders
    nogal van streek maken,
  • 8:10 - 8:13
    dingen met een gewelddadige
    of seksuele inhoud.
  • 8:13 - 8:16
    Kindercartoons met aangevallen worden,
  • 8:16 - 8:18
    gedood worden,
  • 8:18 - 8:21
    met rare, echt angstaanjagende
    dingen voor kinderen.
  • 8:21 - 8:25
    Software die via al
    deze verschillende invloeden
  • 8:25 - 8:28
    automatisch de ergste nachtmerries
    voor kinderen genereert.
  • 8:28 - 8:31
    En dit spul heeft echt,
    echt invloed op kleine kinderen.
  • 8:31 - 8:34
    Ouders zeggen dat hun kinderen
    getraumatiseerd zijn,
  • 8:34 - 8:35
    altijd bang in het donker,
  • 8:35 - 8:38
    altijd bang van hun striphelden.
  • 8:39 - 8:42
    Het belangrijkste om te onthouden is
    dat als je kleine kinderen hebt,
  • 8:42 - 8:44
    je ze absoluut moet weghouden van YouTube.
  • 8:45 - 8:49
    (Applaus)
  • 8:51 - 8:53
    Wat mij pas echt verontrust,
  • 8:53 - 8:58
    is dat ik betwijfel of we
    begrijpen hoe we zover zijn geraakt.
  • 8:59 - 9:02
    We hebben al deze beïnvloeding,
    al deze dingen dooreen gemixt
  • 9:02 - 9:04
    op een manier die niemand echt bedoelde.
  • 9:04 - 9:08
    En toch is dit ook de manier
    waarop we de hele wereld opbouwen.
  • 9:08 - 9:10
    We nemen al deze gegevens,
  • 9:10 - 9:11
    een hoop slechte data,
  • 9:11 - 9:14
    een hoop historische gegevens
    vol vooroordelen
  • 9:14 - 9:17
    en onze slechtste neigingen
    uit ons verleden,
  • 9:17 - 9:19
    en steken die in grote datasets
  • 9:19 - 9:21
    die we dan automatiseren.
  • 9:21 - 9:24
    We vermalen dat tot dingen
    als kredietrapporten,
  • 9:24 - 9:26
    verzekeringspremies,
  • 9:26 - 9:29
    voorspellende controlesystemen,
  • 9:29 - 9:30
    veroordelingsrichtlijnen.
  • 9:30 - 9:33
    Zo construeren we in feite
    de wereld van vandaag
  • 9:33 - 9:34
    uit deze gegevens.
  • 9:34 - 9:36
    En ik weet niet wat erger is,
  • 9:36 - 9:39
    dat we een systeem bouwden
    dat volledig geoptimaliseerd lijkt
  • 9:39 - 9:42
    voor de allerslechtste aspecten
    van het menselijk gedrag,
  • 9:42 - 9:45
    of dat we het misschien per ongeluk deden,
  • 9:45 - 9:47
    zonder zelfs maar
    te beseffen dat we het deden,
  • 9:47 - 9:50
    omdat we de systemen
    die we bouwden niet echt begrepen
  • 9:50 - 9:54
    en we niet echt doorhadden
    hoe er iets anders mee te doen.
  • 9:55 - 9:58
    Er zijn een paar dingen waarvan ik denk
    dat ze dit lijken te sturen,
  • 9:58 - 9:59
    vooral op YouTube,
  • 9:59 - 10:01
    en het eerste is de reclame,
  • 10:01 - 10:04
    dat is het te gelde maken van de aandacht
  • 10:04 - 10:07
    zonder enige echte andere
    variabelen aan het werk,
  • 10:07 - 10:11
    geen zorg voor de mensen
    die deze inhoud ontwikkelen,
  • 10:11 - 10:15
    de centralisatie van de macht,
    de scheiding van die dingen.
  • 10:15 - 10:16
    Ik denk dat wat je ook denkt
  • 10:16 - 10:19
    over het gebruik van de reclame
    om iets te ondersteunen,
  • 10:19 - 10:23
    dat de aanblik van volwassen mannen
    die in luiers ronddollen in het zand
  • 10:23 - 10:25
    in de hoop dat een algoritme
    dat ze niet echt begrijpen
  • 10:25 - 10:27
    hen er geld voor zal geven,
  • 10:27 - 10:31
    suggereert dat dit niet de beste basis is
    voor onze samenleving en cultuur
  • 10:31 - 10:33
    en van de manier waarop we ze financieren.
  • 10:33 - 10:37
    En wat deze automatisering
    vooral ook aanstuurt,
  • 10:37 - 10:40
    is de toepassing van al
    deze technologie zodra ze er is,
  • 10:40 - 10:42
    zonder enige vorm van toezicht,
  • 10:42 - 10:43
    en eens ze er is,
  • 10:43 - 10:45
    we onze handen
    in de lucht steken en roepen:
  • 10:45 - 10:47
    “Hè, wij niet, het is de technologie.
  • 10:47 - 10:49
    Wij zijn er niet bij betrokken.”
  • 10:49 - 10:51
    Dat is echt niet goed genoeg,
  • 10:51 - 10:53
    omdat dit spul niet alleen
    algoritmisch wordt bestuurd,
  • 10:53 - 10:56
    maar ook algoritmisch gecontroleerd.
  • 10:56 - 10:59
    Toen YouTube hier
    aandacht aan begon te geven,
  • 10:59 - 11:04
    zeiden ze dat ze betere algoritmen
    voor machinaal leren zouden inzetten
  • 11:04 - 11:05
    om de inhoud te matigen.
  • 11:05 - 11:07
    Machineleren ...
  • 11:07 - 11:10
    Elke deskundige kan je vertellen
    dat dit eigenlijk software is
  • 11:10 - 11:13
    waarvan we niet echt
    begrijpen hoe hij werkt.
  • 11:13 - 11:17
    Daar hebben we al genoeg van,
    zou ik denken.
  • 11:17 - 11:19
    We moeten niet aan KI overlaten
  • 11:19 - 11:21
    om te beslissen
    wat wel of niet geschikt is,
  • 11:21 - 11:23
    omdat we weten wat er dan gebeurt.
  • 11:23 - 11:25
    Het zal andere dingen gaan censureren.
  • 11:25 - 11:26
    Bijvoorbeeld items over homo’s.
  • 11:27 - 11:29
    Of het vrije woord.
  • 11:29 - 11:31
    Wat hier mag,
  • 11:31 - 11:34
    moet je niet overlaten
    aan onverantwoordelijke systemen.
  • 11:34 - 11:37
    Aan deze discussie zouden we
    allemaal moeten deelnemen.
  • 11:37 - 11:39
    Maar ik zou er op willen wijzen
  • 11:39 - 11:41
    dat het alternatief ook niet erg leuk is.
  • 11:41 - 11:42
    YouTube kondigde onlangs ook aan
  • 11:42 - 11:45
    dat er een versie
    van hun kinderapp uitkomt
  • 11:45 - 11:48
    die volledig door mensen
    zou worden gemodereerd.
  • 11:48 - 11:52
    Facebook –- Zuckerberg zei ongeveer
    hetzelfde in het Congres
  • 11:52 - 11:55
    toen ze hem vroegen over hoe ze
    hun zaken zouden gaan matigen.
  • 11:55 - 11:57
    Hij zei dat mensen het zouden gaan doen.
  • 11:57 - 11:58
    Dat betekent in feite
  • 11:58 - 12:01
    dat niet peuters dit
    als eersten zouden zien,
  • 12:01 - 12:04
    maar wel onderbetaalde, losse
    werknemers met een contract,
  • 12:04 - 12:06
    zonder juiste mentale ondersteuning
  • 12:06 - 12:07
    en evengoed het slachtoffer ervan.
  • 12:07 - 12:08
    (Gelach)
  • 12:08 - 12:11
    Ik denk dat we dat allemaal
    veel beter kunnen doen.
  • 12:11 - 12:13
    (Applaus)
  • 12:14 - 12:19
    Wat volgens mij die twee dingen
    echt samenbrengt,
  • 12:19 - 12:20
    is ‘agency’.
  • 12:20 - 12:23
    Het gaat om hoeveel we echt begrijpen.
    Met agency bedoel ik:
  • 12:23 - 12:28
    hoe weten we hoe te handelen
    in ons eigen belang.
  • 12:28 - 12:30
    Wat bijna onmogelijk is om te doen
  • 12:30 - 12:33
    met deze systemen die we
    niet ten volle begrijpen.
  • 12:33 - 12:36
    Machtsongelijkheid
    leidt altijd tot geweld.
  • 12:36 - 12:38
    En we kunnen zien dat in deze systemen
  • 12:38 - 12:40
    ongelijkheid van begrip hetzelfde doet.
  • 12:41 - 12:44
    Dat kunnen we al doen
    om deze systemen te verbeteren:
  • 12:44 - 12:47
    ze begrijpelijker maken
    voor de gebruikers,
  • 12:47 - 12:51
    zodat we allemaal weten
    wat hier werkelijk gaande is.
  • 12:52 - 12:55
    Het probleem met de meeste
    van deze systemen is
  • 12:55 - 12:59
    dat dit niet alleen geldt, zoals ik
    hopelijk heb uitgelegd, voor YouTube.
  • 12:59 - 13:00
    Het gaat over alles.
  • 13:00 - 13:03
    Deze kwesties van
    verantwoording en agency,
  • 13:03 - 13:05
    van ondoorzichtigheid en complexiteit,
  • 13:05 - 13:08
    van het geweld en uitbuiting
    die inherent voortkomen
  • 13:08 - 13:11
    uit de concentratie van macht
    in weinig handen --
  • 13:11 - 13:13
    dat zijn veel, veel grotere problemen.
  • 13:14 - 13:18
    Niet alleen problemen van YouTube
    of van technologie in het algemeen,
  • 13:18 - 13:19
    ze zijn zelfs niet nieuw.
  • 13:19 - 13:21
    We hebben ze al eeuwen.
  • 13:21 - 13:25
    Maar tenslotte bouwden wij dit systeem,
    dit mondiale systeem, het internet,
  • 13:25 - 13:28
    dat ons de problemen laat zien
    op deze bijzondere manier,
  • 13:28 - 13:30
    waardoor we ze niet kunnen ontkennen.
  • 13:30 - 13:33
    Technologie heeft
    de buitengewone capaciteit
  • 13:33 - 13:38
    om al onze meest bijzondere,
    vaak verborgen verlangens en vooroordelen
  • 13:38 - 13:41
    te presenteren en te continueren
  • 13:41 - 13:43
    en ze in de wereld te coderen,
  • 13:43 - 13:46
    maar ze ook op te schrijven,
    zodat we ze kunnen zien,
  • 13:46 - 13:50
    zodat we niet meer kunnen doen
    alsof ze niet bestaan.
  • 13:50 - 13:52
    We moeten stoppen
    met denken over technologie
  • 13:52 - 13:54
    als een oplossing voor al onze problemen,
  • 13:54 - 13:58
    maar ze zien als een gids
    voor wat die problemen werkelijk zijn,
  • 13:58 - 14:00
    zodat we er op de juiste manier
    aan gaan denken
  • 14:00 - 14:02
    en ze beginnen aan te pakken.
  • 14:02 - 14:03
    Veel dank.
  • 14:03 - 14:07
    (Applaus)
  • 14:10 - 14:11
    Dank je.
  • 14:11 - 14:14
    (Applaus)
  • 14:17 - 14:20
    Helen Walters: James, ik dank je
    voor je komst en je talk.
  • 14:20 - 14:21
    Dit is interessant:
  • 14:21 - 14:25
    als je denkt aan de films
    waar robotheersers het overnemen,
  • 14:25 - 14:28
    is het allemaal een beetje blitser
    dan wat jij beschrijft.
  • 14:28 - 14:32
    Maar ik vraag me af --
    in die films zie je de weerstand toenemen.
  • 14:32 - 14:35
    Neemt de weerstand tegen dit spul ook toe?
  • 14:35 - 14:39
    Zie je geen positieve signalen,
    tekenen van verzet?
  • 14:41 - 14:43
    James Bridle: Ik zie
    geen directe weerstand,
  • 14:43 - 14:45
    ik denk dat dit
    over superlange termijn werkt.
  • 14:45 - 14:48
    Ik denk dat het diep
    ingebakken zit in de cultuur.
  • 14:48 - 14:50
    Een vriend van mij,
    Eleanor Saitta, zegt altijd
  • 14:50 - 14:54
    dat alle technologische problemen
    van voldoende omvang en reikwijdte
  • 14:54 - 14:56
    in de eerste plaats
    politieke problemen zijn.
  • 14:56 - 14:59
    Dus gaan al die dingen
    waaraan we willen werken
  • 14:59 - 15:01
    niet worden aangepakt
    door alleen maar betere technologie,
  • 15:01 - 15:05
    maar door de samenleving te veranderen
    waarin deze technologieën ontstonden.
  • 15:05 - 15:08
    Nee, ik denk dat we nog
    een heel lange weg hebben te gaan.
  • 15:08 - 15:10
    Maar ik zei al dat door ze te ontleden,
  • 15:10 - 15:13
    door ze uit te leggen,
    er heel eerlijk over te praten,
  • 15:13 - 15:16
    we tenminste met dat proces
    kunnen beginnen.
  • 15:16 - 15:19
    HW: Wanneer je het hebt
    over begrip en digitale geletterdheid
  • 15:19 - 15:21
    vind ik het moeilijk voor te stellen
  • 15:21 - 15:25
    dat we de last van digitale geletterdheid
    bij de gebruikers zelf moeten leggen.
  • 15:25 - 15:29
    Wie wordt verantwoordelijk
    voor opvoeding in deze nieuwe wereld?
  • 15:29 - 15:32
    JB: Het gaat ieders
    verantwoordelijkheid worden,
  • 15:32 - 15:36
    dat alles wat we doen, alles wat
    we bouwen, alles wat we maken,
  • 15:36 - 15:40
    moet worden gemaakt in samenspraak
  • 15:40 - 15:42
    met iedereen die ze uit de weg gaat.
  • 15:42 - 15:46
    Dat we geen systemen bouwen
    bedoeld om mensen te verleiden
  • 15:46 - 15:48
    om het juiste te doen,
  • 15:48 - 15:52
    maar ze daadwerkelijk betrekken
    bij elke stap van hun opvoeding,
  • 15:52 - 15:54
    omdat al deze systemen educatief zijn.
  • 15:54 - 15:57
    Hoe grimmig het ook is, ik hoop
  • 15:57 - 15:59
    dat als je het aanpakt
    en er vanuit de juiste hoek naar kijkt,
  • 15:59 - 16:01
    het op zichzelf al een stuk opvoeding is
  • 16:01 - 16:05
    dat je toelaat om te zien hoe complexe
    systemen samenkomen en werken
  • 16:05 - 16:09
    en misschien deze kennis
    elders in de wereld kunnen toepassen.
  • 16:09 - 16:11
    HW: James, dit is
    zo'n belangrijke discussie
  • 16:11 - 16:13
    en veel mensen hier staan ervoor open,
  • 16:13 - 16:15
    dus bedankt om
    onze voormiddag te beginnen.
  • 16:15 - 16:17
    JB: Heel erg bedankt.
  • 16:17 - 16:19
    (Applaus)
Title:
De nachtmerrie van kindervideo's op YouTube -- en wat er vandaag fout is aan het internet
Speaker:
James Bridle
Description:

Schrijver en kunstenaar James Bridle onthult een donkere, vreemde kant van het internet, waar onbekende mensen of groepen op YouTube de hersens van jonge kinderen hacken in ruil voor reclame-inkomsten. Van surprise-ei-onthullingen en het 'Vingerfamilielied', tot algoritmisch gemaakte potpourri's van bekende stripfiguren in gewelddadige situaties, exploiteren en terroriseren deze video's jonge geesten -- en vertellen ze ons iets over waar onze steeds meer door data gedreven wereld op afstevent. "We moeten stoppen met technologie te zien als een oplossing voor al onze problemen, en ze beschouwen als een gids voor wat die problemen eigenlijk zijn, dus kunnen we er maar beter over gaan nadenken en ze aanpakken", zegt Bridle.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Dutch subtitles

Revisions