De nachtmerrie van kindervideo's op YouTube -- en wat er vandaag fout is aan het internet
-
0:01 - 0:02Ik ben James.
-
0:02 - 0:04Ik ben schrijver en kunstenaar
-
0:04 - 0:06en mijn werk gaat over over technologie,
-
0:06 - 0:10zoals levensgrote contouren
van militaire drones tekenen -
0:10 - 0:12in straten van steden over de hele wereld,
-
0:12 - 0:15zodat mensen kunnen gaan
nadenken en iets snappen -
0:15 - 0:19van deze nogal wazige
en moeilijk te begrijpen technologieën. -
0:19 - 0:21Ik maak dingen als neurale netwerken
-
0:21 - 0:23die verkiezingsresultaten voorspellen
-
0:23 - 0:25op basis van weerberichten,
-
0:25 - 0:28want ik ben geïntrigeerd
door de werkelijke mogelijkheden -
0:28 - 0:31van deze vreemde nieuwe technologieën.
-
0:31 - 0:34Vorig jaar bouwde ik
mijn eigen zelfrijdende auto. -
0:34 - 0:36Maar omdat ik de technologie
niet echt vertrouwde, -
0:36 - 0:38ontwierp ik er eveneens een val voor.
-
0:39 - 0:40(Gelach)
-
0:40 - 0:44Ik doe dat vooral omdat ik
ze helemaal fascinerend vind, -
0:44 - 0:47maar ook omdat ik denk
dat als we het hebben over technologie, -
0:47 - 0:49we meestal over onszelf praten
-
0:49 - 0:52en de manier waarop
we de wereld begrijpen. -
0:52 - 0:54Dus hier een verhaal over technologie.
-
0:56 - 0:58Dit is een surprise-ei-video.
-
0:58 - 1:02Het is een video van iemand
die wat chocolade-eieren opent -
1:02 - 1:04en de kijker het speelgoed erin toont.
-
1:04 - 1:05Dat is het.
-
1:05 - 1:07Dat is alles wat hij
zeven lange minuten doet. -
1:07 - 1:10Twee dingen zijn hier belangrijk om weten.
-
1:11 - 1:15Allereerst is deze video
30 miljoen keer bekeken. -
1:15 - 1:16(Gelach)
-
1:16 - 1:18En ten tweede komt hij van een kanaal
-
1:18 - 1:21met 6,3 miljoen abonnees,
-
1:21 - 1:24een totaal van acht miljard views,
-
1:24 - 1:27en het is één van
een hoop video's zoals deze -- -
1:28 - 1:3230 miljoen mensen kijken naar iemand
die deze eieren opendoet. -
1:32 - 1:37Het klinkt raar, maar als je
naar surprise-eieren op YouTube zoekt, -
1:37 - 1:40kan ik je vertellen dat er 10 miljoen
van deze video's bestaan, -
1:40 - 1:42en ik denk dat dat een onderschatting is.
-
1:42 - 1:44Ik denk dat het er veel, veel meer zijn.
-
1:44 - 1:46Als je gaat zoeken, houdt het niet op.
-
1:46 - 1:48Er zijn miljoenen en
miljoenen van deze video's, -
1:48 - 1:52in toenemende barokke combinaties
van merken en materialen, -
1:52 - 1:56en er worden er elke dag
meer en meer geüpload. -
1:56 - 1:59Toch een vreemde wereld, niet?
-
1:59 - 2:03Maar het zijn geen volwassenen
die naar deze video's kijken. -
2:03 - 2:05Het zijn kinderen, kleine kinderen.
-
2:05 - 2:08Deze video's zijn als crack
voor kleine kinderen. -
2:08 - 2:12Iets in de herhaling die steeds
weer een kleine dopamine-opstoot geeft, -
2:12 - 2:14maakt ze er helemaal aan verslaafd.
-
2:14 - 2:19Kleine kinderen bekijken deze video’s
opnieuw en opnieuw, -
2:19 - 2:21uren aan een stuk.
-
2:21 - 2:23Probeer ze niet
weg te halen van het scherm, -
2:23 - 2:25want ze gaan krijsen en gillen.
-
2:25 - 2:28Als jullie me niet geloven --
ik zag al mensen knikken -- -
2:28 - 2:31als je het niet gelooft,
vraag dan iemand met kleine kinderen, -
2:31 - 2:34zij kennen die surprise-ei-video's.
-
2:35 - 2:37Daar beginnen we mee.
-
2:37 - 2:41Het is 2018, en iemand, of veel mensen,
-
2:41 - 2:45gebruiken hetzelfde mechanisme om,
net als Facebook en Instagram, -
2:45 - 2:47te zorgen dat je die app opzoekt,
-
2:47 - 2:49en ze gebruiken het op YouTube
-
2:49 - 2:53om de hersenen van zeer kleine kinderen
te hacken in ruil voor reclame-inkomsten. -
2:54 - 2:57Ik hoop tenminste
dat het dat is wat ze doen. -
2:57 - 2:58Ik hoop dat ze het daarvoor doen,
-
2:58 - 3:01omdat er makkelijker manieren zijn
-
3:01 - 3:04om advertentie-inkomsten
te krijgen op YouTube. -
3:04 - 3:06Je kunt gewoon dingen
uitvinden of dingen jatten. -
3:06 - 3:08Als je naar echt populaire kindercartoons
-
3:08 - 3:10als ‘Pepper Pig’ of ‘Paw Patrol’ zoekt,
-
3:10 - 3:13zal je er ook miljoenen
en miljoenen online vinden. -
3:13 - 3:17Natuurlijk komen de meeste niet
van de makers van de originele strips. -
3:17 - 3:20Ze komen uit heel verschillende
willekeurige accounts -
3:20 - 3:22en het is onmogelijk
om te weten wie ze posten -
3:22 - 3:24of wat hun mogelijke motieven zijn.
-
3:24 - 3:26Komt dat bekend voor?
-
3:26 - 3:28Want precies hetzelfde mechanisme
-
3:28 - 3:31zie je in de meeste
digitale dienstverlening, -
3:31 - 3:34waar je de herkomst van de informatie
niet kunt achterhalen. -
3:34 - 3:36Het is eigenlijk nepnieuws voor kinderen
-
3:36 - 3:39en we zorgen er vanaf
de geboorte voor dat ze klikken -
3:39 - 3:41op de eerste link die langs komt,
-
3:41 - 3:43ongeacht wat de bron is.
-
3:43 - 3:45Dat lijkt geen erg goed idee.
-
3:46 - 3:49Dit is ook echt populair
op YouTube voor kinderen. -
3:49 - 3:51Dit heet de ‘Finger Family Song’.
-
3:51 - 3:53Ik hoorde net iemand
in het publiek kreunen. -
3:53 - 3:55Dit is de ‘Finger Family Song’.
-
3:55 - 3:57Dit is de eerste die ik kon vinden.
-
3:57 - 4:00Hij is van 2007 en is
slechts 200.000 keer bekeken, -
4:00 - 4:02wat echt niets is in dit spel.
-
4:02 - 4:04Maar het muziekje is een echte oorworm,
-
4:04 - 4:06die ik jullie zal besparen,
-
4:06 - 4:08omdat hij zich in je hersenen brandt
-
4:08 - 4:11net zoals hij zich in de mijne inbrandde.
-
4:11 - 4:12Ik wil het jullie niet aandoen.
-
4:12 - 4:14Maar net als de surprise-eieren
-
4:14 - 4:16kroop het in de kinderhoofdjes
-
4:16 - 4:18en maakte hen eraan verslaafd.
-
4:18 - 4:21Binnen enkele jaren verschenen
deze ‘vingerfamilie’- video’s overal, -
4:21 - 4:24met versies in verschillende talen,
-
4:24 - 4:26met populaire kinderstrips met voedsel,
-
4:26 - 4:28of met eender wat voor animatie-elementen
-
4:28 - 4:30die je ter beschikking hebt.
-
4:31 - 4:37En er zijn miljoenen en miljoenen
van deze video's online beschikbaar -
4:37 - 4:40in allerlei soorten
krankzinnige combinaties. -
4:40 - 4:42Hoe meer tijd je eraan spendeert,
-
4:42 - 4:46des te gekker je je begint te voelen.
-
4:46 - 4:49Daar ben ik dan mee begonnen,
-
4:49 - 4:53over hoe dat gevoel van diepe vreemdheid
en diep gebrek aan inzicht -
4:53 - 4:57aan hoe dit ding, dat je overal ziet,
in elkaar werd gestoken. -
4:57 - 4:59Omdat het onmogelijk is
om de herkomst te weten -
4:59 - 5:01of wie ze maakt.
-
5:01 - 5:04Sommige lijken gemaakt door teams
van professionele animators. -
5:05 - 5:07Sommige lijken gewoon willekeurig
samengesteld door software. -
5:07 - 5:12Sommige zien eruit
als heel normaal kindervermaak. -
5:12 - 5:14En sommige lijken te komen van mensen
-
5:14 - 5:16die je beter weghoudt van kinderen.
-
5:16 - 5:18(Gelach)
-
5:19 - 5:23En dan weer de onmogelijkheid
om de bron te achterhalen -- -
5:23 - 5:25zoals, is dit een bot?
-
5:25 - 5:27Of een persoon? Of een trol?
-
5:28 - 5:32Wat betekent het dat we het verschil
tussen deze dingen niet meer zien? -
5:32 - 5:36En komt dat gevoel van onzekerheid
jullie ook niet een beetje bekend voor? -
5:38 - 5:41De belangrijkste manier
om views te krijgen -- -
5:41 - 5:42en views krijgen brengt geld op --
-
5:42 - 5:47is deze video’s te voorzien
van populaire termen. -
5:47 - 5:49Bijvoorbeeld surprise-eieren
-
5:49 - 5:51koppel je aan ‘Paw Patrol’ of ‘Easter Egg’
-
5:51 - 5:52of wat dan ook,
-
5:52 - 5:55en steek woorden uit andere
populaire video’s in je titel -
5:55 - 5:58tot een nietszeggende taalpuree
-
5:58 - 6:01zonder enige betekenis voor mensen.
-
6:01 - 6:04Want natuurlijk zijn het alleen
erg kleine kinderen die je video bekijken -
6:04 - 6:06en die beseffen het niet.
-
6:06 - 6:09Je echte publiek
voor dit spul is software. -
6:09 - 6:11Het zijn de algoritmen.
-
6:11 - 6:12Het is de software van YouTube
-
6:12 - 6:15die kiest welke video's
net als andere video's zijn, -
6:15 - 6:17om ze populair te maken,
om ze aan te bevelen. -
6:17 - 6:21En dat is waarom je eindigt
met dit soort volkomen zinloze puree, -
6:21 - 6:23zowel van titel als van inhoud.
-
6:24 - 6:26Maar je mag niet vergeten
-
6:26 - 6:30dat er nog steeds mensen zitten achter
dit algoritmisch geoptimaliseerd systeem, -
6:30 - 6:33mensen die meer en meer
-
6:33 - 6:36deze steeds meer bizarre
woordcombinaties moeten naspelen -
6:36 - 6:41als een wanhopige improvisatiekunstenaar
die reageert op het gecombineerde gekrijs -
6:41 - 6:44van een miljoen peuters.
-
6:45 - 6:48Er zitten echte mensen
gevangen in deze systemen -
6:48 - 6:52en dat is het andere zeer vreemde iets
aan deze door algoritmen gedreven cultuur, -
6:52 - 6:54want zelfs als mens,
moet je je uiteindelijk -
6:54 - 6:57als een machine gaan gedragen
om te overleven. -
6:57 - 6:59En ook aan de andere kant van het scherm
-
6:59 - 7:02zitten nog steeds die kleine kinderen
te kijken naar dit spul, -
7:02 - 7:06vastgeplakt, hun volledige aandacht
gegrepen door die rare mechanismen. -
7:07 - 7:10De meesten zijn zelfs te klein
om een website gebruiken. -
7:10 - 7:13Ze tokkelen gewoon wat
met hun kleine handjes op het scherm. -
7:13 - 7:14En dus is er autoplay,
-
7:14 - 7:17waardoor deze video’s
in een lus blijven doorspelen, -
7:17 - 7:20onophoudelijk, uren en uren aan een stuk.
-
7:20 - 7:23Het systeem is nu zo raar
-
7:23 - 7:26dat autoplay je op hele
vreemde plaatsen brengt. -
7:26 - 7:28Zo kan je in een tiental stappen
-
7:28 - 7:31van een leuke video met een tellende trein
-
7:31 - 7:34bij een masturberende
Mickey Mouse terechtkomen. -
7:35 - 7:37Ja. Sorry daarvoor.
-
7:37 - 7:39Het wordt nog erger.
-
7:39 - 7:40Dit is wat er gebeurt
-
7:40 - 7:43wanneer al deze verschillende zoekwoorden,
-
7:43 - 7:45al deze verschillende aandachtspunten,
-
7:45 - 7:48deze wanhopige productie van inhoud,
-
7:48 - 7:51allemaal op een enkele plaats samenkomt.
-
7:52 - 7:56Daar vind je die zeer
rare trefwoorden samen. -
7:56 - 7:59Je bestuift de vingerfamilie-video
-
7:59 - 8:01met wat superheldenactie,
-
8:01 - 8:04doe er nog wat rare,
trolse grappen of zoiets bij, -
8:04 - 8:08en plotseling kom je
op een zeer rare plek terecht. -
8:08 - 8:10Bij dingen die ouders
nogal van streek maken, -
8:10 - 8:13dingen met een gewelddadige
of seksuele inhoud. -
8:13 - 8:16Kindercartoons met aangevallen worden,
-
8:16 - 8:18gedood worden,
-
8:18 - 8:21met rare, echt angstaanjagende
dingen voor kinderen. -
8:21 - 8:25Software die via al
deze verschillende invloeden -
8:25 - 8:28automatisch de ergste nachtmerries
voor kinderen genereert. -
8:28 - 8:31En dit spul heeft echt,
echt invloed op kleine kinderen. -
8:31 - 8:34Ouders zeggen dat hun kinderen
getraumatiseerd zijn, -
8:34 - 8:35altijd bang in het donker,
-
8:35 - 8:38altijd bang van hun striphelden.
-
8:39 - 8:42Het belangrijkste om te onthouden is
dat als je kleine kinderen hebt, -
8:42 - 8:44je ze absoluut moet weghouden van YouTube.
-
8:45 - 8:49(Applaus)
-
8:51 - 8:53Wat mij pas echt verontrust,
-
8:53 - 8:58is dat ik betwijfel of we
begrijpen hoe we zover zijn geraakt. -
8:59 - 9:02We hebben al deze beïnvloeding,
al deze dingen dooreen gemixt -
9:02 - 9:04op een manier die niemand echt bedoelde.
-
9:04 - 9:08En toch is dit ook de manier
waarop we de hele wereld opbouwen. -
9:08 - 9:10We nemen al deze gegevens,
-
9:10 - 9:11een hoop slechte data,
-
9:11 - 9:14een hoop historische gegevens
vol vooroordelen -
9:14 - 9:17en onze slechtste neigingen
uit ons verleden, -
9:17 - 9:19en steken die in grote datasets
-
9:19 - 9:21die we dan automatiseren.
-
9:21 - 9:24We vermalen dat tot dingen
als kredietrapporten, -
9:24 - 9:26verzekeringspremies,
-
9:26 - 9:29voorspellende controlesystemen,
-
9:29 - 9:30veroordelingsrichtlijnen.
-
9:30 - 9:33Zo construeren we in feite
de wereld van vandaag -
9:33 - 9:34uit deze gegevens.
-
9:34 - 9:36En ik weet niet wat erger is,
-
9:36 - 9:39dat we een systeem bouwden
dat volledig geoptimaliseerd lijkt -
9:39 - 9:42voor de allerslechtste aspecten
van het menselijk gedrag, -
9:42 - 9:45of dat we het misschien per ongeluk deden,
-
9:45 - 9:47zonder zelfs maar
te beseffen dat we het deden, -
9:47 - 9:50omdat we de systemen
die we bouwden niet echt begrepen -
9:50 - 9:54en we niet echt doorhadden
hoe er iets anders mee te doen. -
9:55 - 9:58Er zijn een paar dingen waarvan ik denk
dat ze dit lijken te sturen, -
9:58 - 9:59vooral op YouTube,
-
9:59 - 10:01en het eerste is de reclame,
-
10:01 - 10:04dat is het te gelde maken van de aandacht
-
10:04 - 10:07zonder enige echte andere
variabelen aan het werk, -
10:07 - 10:11geen zorg voor de mensen
die deze inhoud ontwikkelen, -
10:11 - 10:15de centralisatie van de macht,
de scheiding van die dingen. -
10:15 - 10:16Ik denk dat wat je ook denkt
-
10:16 - 10:19over het gebruik van de reclame
om iets te ondersteunen, -
10:19 - 10:23dat de aanblik van volwassen mannen
die in luiers ronddollen in het zand -
10:23 - 10:25in de hoop dat een algoritme
dat ze niet echt begrijpen -
10:25 - 10:27hen er geld voor zal geven,
-
10:27 - 10:31suggereert dat dit niet de beste basis is
voor onze samenleving en cultuur -
10:31 - 10:33en van de manier waarop we ze financieren.
-
10:33 - 10:37En wat deze automatisering
vooral ook aanstuurt, -
10:37 - 10:40is de toepassing van al
deze technologie zodra ze er is, -
10:40 - 10:42zonder enige vorm van toezicht,
-
10:42 - 10:43en eens ze er is,
-
10:43 - 10:45we onze handen
in de lucht steken en roepen: -
10:45 - 10:47“Hè, wij niet, het is de technologie.
-
10:47 - 10:49Wij zijn er niet bij betrokken.”
-
10:49 - 10:51Dat is echt niet goed genoeg,
-
10:51 - 10:53omdat dit spul niet alleen
algoritmisch wordt bestuurd, -
10:53 - 10:56maar ook algoritmisch gecontroleerd.
-
10:56 - 10:59Toen YouTube hier
aandacht aan begon te geven, -
10:59 - 11:04zeiden ze dat ze betere algoritmen
voor machinaal leren zouden inzetten -
11:04 - 11:05om de inhoud te matigen.
-
11:05 - 11:07Machineleren ...
-
11:07 - 11:10Elke deskundige kan je vertellen
dat dit eigenlijk software is -
11:10 - 11:13waarvan we niet echt
begrijpen hoe hij werkt. -
11:13 - 11:17Daar hebben we al genoeg van,
zou ik denken. -
11:17 - 11:19We moeten niet aan KI overlaten
-
11:19 - 11:21om te beslissen
wat wel of niet geschikt is, -
11:21 - 11:23omdat we weten wat er dan gebeurt.
-
11:23 - 11:25Het zal andere dingen gaan censureren.
-
11:25 - 11:26Bijvoorbeeld items over homo’s.
-
11:27 - 11:29Of het vrije woord.
-
11:29 - 11:31Wat hier mag,
-
11:31 - 11:34moet je niet overlaten
aan onverantwoordelijke systemen. -
11:34 - 11:37Aan deze discussie zouden we
allemaal moeten deelnemen. -
11:37 - 11:39Maar ik zou er op willen wijzen
-
11:39 - 11:41dat het alternatief ook niet erg leuk is.
-
11:41 - 11:42YouTube kondigde onlangs ook aan
-
11:42 - 11:45dat er een versie
van hun kinderapp uitkomt -
11:45 - 11:48die volledig door mensen
zou worden gemodereerd. -
11:48 - 11:52Facebook –- Zuckerberg zei ongeveer
hetzelfde in het Congres -
11:52 - 11:55toen ze hem vroegen over hoe ze
hun zaken zouden gaan matigen. -
11:55 - 11:57Hij zei dat mensen het zouden gaan doen.
-
11:57 - 11:58Dat betekent in feite
-
11:58 - 12:01dat niet peuters dit
als eersten zouden zien, -
12:01 - 12:04maar wel onderbetaalde, losse
werknemers met een contract, -
12:04 - 12:06zonder juiste mentale ondersteuning
-
12:06 - 12:07en evengoed het slachtoffer ervan.
-
12:07 - 12:08(Gelach)
-
12:08 - 12:11Ik denk dat we dat allemaal
veel beter kunnen doen. -
12:11 - 12:13(Applaus)
-
12:14 - 12:19Wat volgens mij die twee dingen
echt samenbrengt, -
12:19 - 12:20is ‘agency’.
-
12:20 - 12:23Het gaat om hoeveel we echt begrijpen.
Met agency bedoel ik: -
12:23 - 12:28hoe weten we hoe te handelen
in ons eigen belang. -
12:28 - 12:30Wat bijna onmogelijk is om te doen
-
12:30 - 12:33met deze systemen die we
niet ten volle begrijpen. -
12:33 - 12:36Machtsongelijkheid
leidt altijd tot geweld. -
12:36 - 12:38En we kunnen zien dat in deze systemen
-
12:38 - 12:40ongelijkheid van begrip hetzelfde doet.
-
12:41 - 12:44Dat kunnen we al doen
om deze systemen te verbeteren: -
12:44 - 12:47ze begrijpelijker maken
voor de gebruikers, -
12:47 - 12:51zodat we allemaal weten
wat hier werkelijk gaande is. -
12:52 - 12:55Het probleem met de meeste
van deze systemen is -
12:55 - 12:59dat dit niet alleen geldt, zoals ik
hopelijk heb uitgelegd, voor YouTube. -
12:59 - 13:00Het gaat over alles.
-
13:00 - 13:03Deze kwesties van
verantwoording en agency, -
13:03 - 13:05van ondoorzichtigheid en complexiteit,
-
13:05 - 13:08van het geweld en uitbuiting
die inherent voortkomen -
13:08 - 13:11uit de concentratie van macht
in weinig handen -- -
13:11 - 13:13dat zijn veel, veel grotere problemen.
-
13:14 - 13:18Niet alleen problemen van YouTube
of van technologie in het algemeen, -
13:18 - 13:19ze zijn zelfs niet nieuw.
-
13:19 - 13:21We hebben ze al eeuwen.
-
13:21 - 13:25Maar tenslotte bouwden wij dit systeem,
dit mondiale systeem, het internet, -
13:25 - 13:28dat ons de problemen laat zien
op deze bijzondere manier, -
13:28 - 13:30waardoor we ze niet kunnen ontkennen.
-
13:30 - 13:33Technologie heeft
de buitengewone capaciteit -
13:33 - 13:38om al onze meest bijzondere,
vaak verborgen verlangens en vooroordelen -
13:38 - 13:41te presenteren en te continueren
-
13:41 - 13:43en ze in de wereld te coderen,
-
13:43 - 13:46maar ze ook op te schrijven,
zodat we ze kunnen zien, -
13:46 - 13:50zodat we niet meer kunnen doen
alsof ze niet bestaan. -
13:50 - 13:52We moeten stoppen
met denken over technologie -
13:52 - 13:54als een oplossing voor al onze problemen,
-
13:54 - 13:58maar ze zien als een gids
voor wat die problemen werkelijk zijn, -
13:58 - 14:00zodat we er op de juiste manier
aan gaan denken -
14:00 - 14:02en ze beginnen aan te pakken.
-
14:02 - 14:03Veel dank.
-
14:03 - 14:07(Applaus)
-
14:10 - 14:11Dank je.
-
14:11 - 14:14(Applaus)
-
14:17 - 14:20Helen Walters: James, ik dank je
voor je komst en je talk. -
14:20 - 14:21Dit is interessant:
-
14:21 - 14:25als je denkt aan de films
waar robotheersers het overnemen, -
14:25 - 14:28is het allemaal een beetje blitser
dan wat jij beschrijft. -
14:28 - 14:32Maar ik vraag me af --
in die films zie je de weerstand toenemen. -
14:32 - 14:35Neemt de weerstand tegen dit spul ook toe?
-
14:35 - 14:39Zie je geen positieve signalen,
tekenen van verzet? -
14:41 - 14:43James Bridle: Ik zie
geen directe weerstand, -
14:43 - 14:45ik denk dat dit
over superlange termijn werkt. -
14:45 - 14:48Ik denk dat het diep
ingebakken zit in de cultuur. -
14:48 - 14:50Een vriend van mij,
Eleanor Saitta, zegt altijd -
14:50 - 14:54dat alle technologische problemen
van voldoende omvang en reikwijdte -
14:54 - 14:56in de eerste plaats
politieke problemen zijn. -
14:56 - 14:59Dus gaan al die dingen
waaraan we willen werken -
14:59 - 15:01niet worden aangepakt
door alleen maar betere technologie, -
15:01 - 15:05maar door de samenleving te veranderen
waarin deze technologieën ontstonden. -
15:05 - 15:08Nee, ik denk dat we nog
een heel lange weg hebben te gaan. -
15:08 - 15:10Maar ik zei al dat door ze te ontleden,
-
15:10 - 15:13door ze uit te leggen,
er heel eerlijk over te praten, -
15:13 - 15:16we tenminste met dat proces
kunnen beginnen. -
15:16 - 15:19HW: Wanneer je het hebt
over begrip en digitale geletterdheid -
15:19 - 15:21vind ik het moeilijk voor te stellen
-
15:21 - 15:25dat we de last van digitale geletterdheid
bij de gebruikers zelf moeten leggen. -
15:25 - 15:29Wie wordt verantwoordelijk
voor opvoeding in deze nieuwe wereld? -
15:29 - 15:32JB: Het gaat ieders
verantwoordelijkheid worden, -
15:32 - 15:36dat alles wat we doen, alles wat
we bouwen, alles wat we maken, -
15:36 - 15:40moet worden gemaakt in samenspraak
-
15:40 - 15:42met iedereen die ze uit de weg gaat.
-
15:42 - 15:46Dat we geen systemen bouwen
bedoeld om mensen te verleiden -
15:46 - 15:48om het juiste te doen,
-
15:48 - 15:52maar ze daadwerkelijk betrekken
bij elke stap van hun opvoeding, -
15:52 - 15:54omdat al deze systemen educatief zijn.
-
15:54 - 15:57Hoe grimmig het ook is, ik hoop
-
15:57 - 15:59dat als je het aanpakt
en er vanuit de juiste hoek naar kijkt, -
15:59 - 16:01het op zichzelf al een stuk opvoeding is
-
16:01 - 16:05dat je toelaat om te zien hoe complexe
systemen samenkomen en werken -
16:05 - 16:09en misschien deze kennis
elders in de wereld kunnen toepassen. -
16:09 - 16:11HW: James, dit is
zo'n belangrijke discussie -
16:11 - 16:13en veel mensen hier staan ervoor open,
-
16:13 - 16:15dus bedankt om
onze voormiddag te beginnen. -
16:15 - 16:17JB: Heel erg bedankt.
-
16:17 - 16:19(Applaus)
- Title:
- De nachtmerrie van kindervideo's op YouTube -- en wat er vandaag fout is aan het internet
- Speaker:
- James Bridle
- Description:
-
Schrijver en kunstenaar James Bridle onthult een donkere, vreemde kant van het internet, waar onbekende mensen of groepen op YouTube de hersens van jonge kinderen hacken in ruil voor reclame-inkomsten. Van surprise-ei-onthullingen en het 'Vingerfamilielied', tot algoritmisch gemaakte potpourri's van bekende stripfiguren in gewelddadige situaties, exploiteren en terroriseren deze video's jonge geesten -- en vertellen ze ons iets over waar onze steeds meer door data gedreven wereld op afstevent. "We moeten stoppen met technologie te zien als een oplossing voor al onze problemen, en ze beschouwen als een gids voor wat die problemen eigenlijk zijn, dus kunnen we er maar beter over gaan nadenken en ze aanpakken", zegt Bridle.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32