1 00:00:03,634 --> 00:00:07,363 [Achter de schermen: Wie bepaalt wat ik online zie?] 2 00:00:08,376 --> 00:00:09,526 Hallo, mijn naam is Taylor. 3 00:00:09,526 --> 00:00:11,778 Ik studeer internet en journalistiek, 4 00:00:11,778 --> 00:00:16,077 en de manier waarop wij als burgers informatie over de hele wereld ontvangen. 5 00:00:17,389 --> 00:00:19,628 Vroeger toen mensen nieuws kregen, 6 00:00:19,778 --> 00:00:22,688 werd dit meestal bepaald voor ons. 7 00:00:22,688 --> 00:00:25,381 Er waren mensen die bepaalden wat we moesten weten. 8 00:00:25,560 --> 00:00:28,550 Dus als we de krant opensloegen of naar het avondnieuws keken, 9 00:00:28,550 --> 00:00:32,570 was het een persoon die bepaalde wat we hoorden en zagen. 10 00:00:33,240 --> 00:00:36,546 Het resultaat daarvan was dat we allemaal dezelfde dingen wisten. 11 00:00:38,059 --> 00:00:40,742 Nu heeft het internet alles veranderd. 12 00:00:41,090 --> 00:00:44,017 Als je online gaat, of als je een applicatie opent, 13 00:00:44,486 --> 00:00:47,224 wordt wat je ziet niet bepaald door een persoon 14 00:00:47,489 --> 00:00:48,710 maar door een machine. 15 00:00:49,589 --> 00:00:51,820 En dit is op veel manieren geweldig: 16 00:00:51,984 --> 00:00:54,053 Zo kun je bv Google Maps gebruiken 17 00:00:54,053 --> 00:00:56,523 of online eten bestellen. 18 00:00:56,523 --> 00:01:00,162 Het stelt je in staat om in contact te komen met vrienden over de hele wereld 19 00:01:00,162 --> 00:01:01,870 en informatie te delen. 20 00:01:02,290 --> 00:01:04,911 Maar er zijn aspecten aan deze machine 21 00:01:05,221 --> 00:01:07,511 waar we goed over moeten nadenken, heel goed over nadenken 22 00:01:07,741 --> 00:01:11,618 want die bepaalt nu de informatie die we allemaal ontvangen, 23 00:01:11,793 --> 00:01:15,050 als burgers in een samenleving en in een democratie. 24 00:01:15,489 --> 00:01:17,029 Dus als je een app opent 25 00:01:17,179 --> 00:01:20,531 en je krijgt een foto te zien in je Snapchat feed, 26 00:01:20,764 --> 00:01:24,420 al die informatie wordt bepaald door deze machine, 27 00:01:24,465 --> 00:01:28,951 en die machine wordt aangedreven door de prikkels van het bedrijf 28 00:01:28,951 --> 00:01:32,251 dat eigenaar is van de website of de applicatie bezit. 29 00:01:32,684 --> 00:01:36,540 En hun bedoeling is om jou om zoveel mogelijk tijd te laten doorbrengen 30 00:01:36,540 --> 00:01:38,080 in die applicatie. 31 00:01:38,680 --> 00:01:42,087 Dus ze doen dingen waardoor je je erg goed voelt om daar te zijn. 32 00:01:42,250 --> 00:01:44,553 Ze geven mensen de mogelijkheid je foto's leuk te vinden. 33 00:01:44,975 --> 00:01:47,943 Ze laten je inhoud zien waarvan ze denken dat je die wilt zien 34 00:01:48,066 --> 00:01:50,850 die je ofwel echt blij of echt boos maakt 35 00:01:50,850 --> 00:01:53,880 en dat triggert bij jou een emotionele reactie om je daar te houden. 36 00:01:54,260 --> 00:01:57,173 Dat is omdat ze je zoveel mogelijk advertenties willen laten zien. 37 00:01:57,173 --> 00:01:58,173 wanneer je daar bent. 38 00:01:58,173 --> 00:02:00,160 Dat is hun businessmodel. 39 00:02:00,897 --> 00:02:04,414 Ze nemen ook de kans te baat wanneer je in hun app zit 40 00:02:04,414 --> 00:02:06,140 om gegevens over je te verzamelen. 41 00:02:06,370 --> 00:02:08,005 En ze gebruiken deze gegevens 42 00:02:08,005 --> 00:02:11,553 om gedetailleerde profielen te maken van je leven en je gedrag, 43 00:02:11,845 --> 00:02:13,924 en deze profielen kunnen dan gebruikt worden 44 00:02:13,924 --> 00:02:16,930 om nog meer gerichte advertenties aan jou te richten, 45 00:02:17,200 --> 00:02:19,700 en dat bepaalt dan wat je te zien krijgt. 46 00:02:21,470 --> 00:02:25,170 Maar dit alles gaat niet alleen over het businessmodel van deze bedrijven. 47 00:02:25,614 --> 00:02:28,277 Dit heeft eigenlijk een impact op onze democratie 48 00:02:28,735 --> 00:02:34,509 omdat wat we allemaal op het internet zien in hoge mate aangepast is aan ons, 49 00:02:34,990 --> 00:02:36,183 aan wat we leuk vinden, 50 00:02:36,453 --> 00:02:37,843 aan wat we geloven, 51 00:02:38,253 --> 00:02:41,203 aan wat we willen zien of willen geloven. 52 00:02:41,523 --> 00:02:43,498 En dat betekent dat we als maatschappij 53 00:02:43,756 --> 00:02:47,500 niet langer allemaal een gedeelde set van kennis delen. 54 00:02:47,500 --> 00:02:50,197 Dat is moeilijk voor een democratie die vereist dat we 55 00:02:50,197 --> 00:02:52,621 samenwerken en dezelfde dingen weten 56 00:02:52,851 --> 00:02:55,171 om beslissingen te nemen over ons leven samen. 57 00:02:55,391 --> 00:02:57,030 Als we allemaal verschillende dingen weten 58 00:02:57,030 --> 00:03:01,059 en we allemaal in onze eigen kleine informatiebubbels leven, 59 00:03:01,567 --> 00:03:04,860 is het ongelooflijk moeilijk voor ons om met elkaar om te gaan. 60 00:03:04,860 --> 00:03:07,670 We hebben dan geen gedeelde ervaring of gedeelde kennis meer. 61 00:03:08,241 --> 00:03:11,335 Ik denk dat het echt belangrijk is dat we kritisch denken 62 00:03:11,545 --> 00:03:13,897 over de informatie die we online ontvangen, 63 00:03:14,247 --> 00:03:17,167 en over de bedrijven en structuren die bepalen 64 00:03:17,337 --> 00:03:19,455 wat we op het internet zien. 65 00:03:21,504 --> 00:03:24,702 [NewsWise is een project van CIVIX& The Canadian Journalism Foundation]. 66 00:03:25,172 --> 00:03:27,595 Nederlandse ondertiteling door Nathalie