WEBVTT 00:00:03.634 --> 00:00:07.363 [Achter de schermen: Wie bepaalt wat ik online zie?] 00:00:08.376 --> 00:00:09.526 Hallo, mijn naam is Taylor. 00:00:09.526 --> 00:00:11.778 Ik studeer internet en journalistiek, 00:00:11.778 --> 00:00:16.077 en de manier waarop wij als burgers informatie over de hele wereld ontvangen. 00:00:17.389 --> 00:00:19.628 Vroeger toen mensen nieuws kregen, 00:00:19.778 --> 00:00:22.688 werd dit meestal bepaald voor ons. 00:00:22.688 --> 00:00:25.381 Er waren mensen die bepaalden wat we moesten weten. 00:00:25.560 --> 00:00:28.550 Dus als we de krant opensloegen of naar het avondnieuws keken, 00:00:28.550 --> 00:00:32.570 was het een persoon die bepaalde wat we hoorden en zagen. 00:00:33.240 --> 00:00:36.546 Het resultaat daarvan was dat we allemaal dezelfde dingen wisten. 00:00:38.059 --> 00:00:40.742 Nu heeft het internet alles veranderd. 00:00:41.090 --> 00:00:44.017 Als je online gaat, of als je een applicatie opent, 00:00:44.486 --> 00:00:47.224 wordt wat je ziet niet bepaald door een persoon 00:00:47.489 --> 00:00:48.710 maar door een machine. 00:00:49.589 --> 00:00:51.820 En dit is op veel manieren geweldig: 00:00:51.984 --> 00:00:54.053 Zo kun je bv Google Maps gebruiken 00:00:54.053 --> 00:00:56.523 of online eten bestellen. 00:00:56.523 --> 00:01:00.162 Het stelt je in staat om in contact te komen met vrienden over de hele wereld 00:01:00.162 --> 00:01:01.870 en informatie te delen. 00:01:02.290 --> 00:01:04.911 Maar er zijn aspecten aan deze machine 00:01:05.221 --> 00:01:07.511 waar we goed over moeten nadenken, heel goed over nadenken 00:01:07.741 --> 00:01:11.618 want die bepaalt nu de informatie die we allemaal ontvangen, 00:01:11.793 --> 00:01:15.050 als burgers in een samenleving en in een democratie. 00:01:15.489 --> 00:01:17.029 Dus als je een app opent 00:01:17.179 --> 00:01:20.531 en je krijgt een foto te zien in je Snapchat feed, 00:01:20.764 --> 00:01:24.420 al die informatie wordt bepaald door deze machine, 00:01:24.465 --> 00:01:28.951 en die machine wordt aangedreven door de prikkels van het bedrijf 00:01:28.951 --> 00:01:32.251 dat eigenaar is van de website of de applicatie bezit. 00:01:32.684 --> 00:01:36.540 En hun bedoeling is om jou om zoveel mogelijk tijd te laten doorbrengen 00:01:36.540 --> 00:01:38.080 in die applicatie. 00:01:38.680 --> 00:01:42.087 Dus ze doen dingen waardoor je je erg goed voelt om daar te zijn. 00:01:42.250 --> 00:01:44.553 Ze geven mensen de mogelijkheid je foto's leuk te vinden. 00:01:44.975 --> 00:01:47.943 Ze laten je inhoud zien waarvan ze denken dat je die wilt zien 00:01:48.066 --> 00:01:50.850 die je ofwel echt blij of echt boos maakt 00:01:50.850 --> 00:01:53.880 en dat triggert bij jou een emotionele reactie om je daar te houden. 00:01:54.260 --> 00:01:57.173 Dat is omdat ze je zoveel mogelijk advertenties willen laten zien. 00:01:57.173 --> 00:01:58.173 wanneer je daar bent. 00:01:58.173 --> 00:02:00.160 Dat is hun businessmodel. 00:02:00.897 --> 00:02:04.414 Ze nemen ook de kans te baat wanneer je in hun app zit 00:02:04.414 --> 00:02:06.140 om gegevens over je te verzamelen. 00:02:06.370 --> 00:02:08.005 En ze gebruiken deze gegevens 00:02:08.005 --> 00:02:11.553 om gedetailleerde profielen te maken van je leven en je gedrag, 00:02:11.845 --> 00:02:13.924 en deze profielen kunnen dan gebruikt worden 00:02:13.924 --> 00:02:16.930 om nog meer gerichte advertenties aan jou te richten, 00:02:17.200 --> 00:02:19.700 en dat bepaalt dan wat je te zien krijgt. 00:02:21.470 --> 00:02:25.170 Maar dit alles gaat niet alleen over het businessmodel van deze bedrijven. 00:02:25.614 --> 00:02:28.277 Dit heeft eigenlijk een impact op onze democratie 00:02:28.735 --> 00:02:34.509 omdat wat we allemaal op het internet zien in hoge mate aangepast is aan ons, 00:02:34.990 --> 00:02:36.183 aan wat we leuk vinden, 00:02:36.453 --> 00:02:37.843 aan wat we geloven, 00:02:38.253 --> 00:02:41.203 aan wat we willen zien of willen geloven. 00:02:41.523 --> 00:02:43.498 En dat betekent dat we als maatschappij 00:02:43.756 --> 00:02:47.500 niet langer allemaal een gedeelde set van kennis delen. 00:02:47.500 --> 00:02:50.197 Dat is moeilijk voor een democratie die vereist dat we 00:02:50.197 --> 00:02:52.621 samenwerken en dezelfde dingen weten 00:02:52.851 --> 00:02:55.171 om beslissingen te nemen over ons leven samen. 00:02:55.391 --> 00:02:57.030 Als we allemaal verschillende dingen weten 00:02:57.030 --> 00:03:01.059 en we allemaal in onze eigen kleine informatiebubbels leven, 00:03:01.567 --> 00:03:04.860 is het ongelooflijk moeilijk voor ons om met elkaar om te gaan. 00:03:04.860 --> 00:03:07.670 We hebben dan geen gedeelde ervaring of gedeelde kennis meer. 00:03:08.241 --> 00:03:11.335 Ik denk dat het echt belangrijk is dat we kritisch denken 00:03:11.545 --> 00:03:13.897 over de informatie die we online ontvangen, 00:03:14.247 --> 00:03:17.167 en over de bedrijven en structuren die bepalen 00:03:17.337 --> 00:03:19.455 wat we op het internet zien. 00:03:21.504 --> 00:03:24.702 [NewsWise is een project van CIVIX& The Canadian Journalism Foundation]. 00:03:25.172 --> 00:03:27.595 Nederlandse ondertiteling door Nathalie