Return to Video

Hoe jij kan helpen het internet te transformeren naar een plek van vertrouwen

  • 0:02 - 0:04
    Wie je ook bent of waar je ook woont,
  • 0:04 - 0:06
    ik denk dat je tenminste
    één familielid hebt
  • 0:06 - 0:09
    dat van die emails doorstuurt.
  • 0:09 - 0:11
    Je weet dewelke ik bedoel,
  • 0:11 - 0:14
    die met rare theorieën
    of complotvideo's.
  • 0:14 - 0:17
    En je volgt hen waarschijnlijk
    al niet meer op Facebook
  • 0:17 - 0:19
    omdat ze dit soort berichten delen.
  • 0:19 - 0:21
    Een foto van een banaan
  • 0:21 - 0:23
    met een vreemd, rood kruis in het midden.
  • 0:23 - 0:26
    En de tekst erbij waarschuwt mensen
  • 0:26 - 0:28
    om dit fruit niet te eten,
  • 0:28 - 0:30
    omdat het geïnjecteerd zou zijn met bloed
  • 0:30 - 0:32
    besmet met het hiv-virus.
  • 0:32 - 0:35
    En de gedeelde boodschap
    erboven zegt simpelweg:
  • 0:35 - 0:37
    "Alsjeblieft delen om levens te redden."
  • 0:38 - 0:41
    Feitcheckers hebben deze
    al jaren geleden ontkracht,
  • 0:41 - 0:44
    maar het is zo'n roddel
    die maar niet wil uitdoven.
  • 0:44 - 0:45
    Een zombieroddel.
  • 0:46 - 0:48
    En het is natuurlijk helemaal niet waar.
  • 0:48 - 0:51
    Het is misschien verleidelijk
    hierom te lachen, om te zeggen:
  • 0:51 - 0:53
    "Wie gelooft er nu zoiets?"
  • 0:53 - 0:55
    Maar het is net een zombieroddel,
  • 0:55 - 0:59
    omdat het spreekt tot de diepste angsten
    over mensen hun eigen veiligheid
  • 0:59 - 1:01
    en die van de mensen waar ze van houden.
  • 1:02 - 1:05
    En als je genoeg tijd spendeert
    aan kijken naar misinformatie,
  • 1:05 - 1:08
    dan weet je dat dit
    een van de vele voorbeelden is
  • 1:08 - 1:11
    dat mensen hun diepste
    angsten en zwaktes oproept.
  • 1:11 - 1:16
    Elke dag zien we wereldwijd
    een hoop nieuwe memes op Instagram
  • 1:16 - 1:19
    die ouders aanmoedigen
    om hun kinderen niet te vaccineren.
  • 1:19 - 1:23
    We zien nieuwe video's op YouTube
    die klimaatverandering een hoax noemen.
  • 1:23 - 1:28
    En over alle platformen heen
    zien we posts die anderen demoniseren
  • 1:28 - 1:31
    op basis van hun kleur,
    religie of seksualiteit.
  • 1:32 - 1:35
    Welkom bij een van
    de kernuitdagingen van onze tijd.
  • 1:36 - 1:40
    Hoe kunnen we een internet behouden
    gebaseerd op vrijheid van meningsuiting,
  • 1:40 - 1:43
    maar ook verzekeren
    dat de verspreide informatie
  • 1:43 - 1:47
    geen onomkeerbare schade toebrengt
    aan onze democratieën, gemeenschappen
  • 1:47 - 1:49
    en aan ons fysiek en mentaal welzijn?
  • 1:50 - 1:52
    We leven wel in het informatietijdperk,
  • 1:52 - 1:56
    maar de belangrijkste munteenheid
    waar we van afhangen -- informatie --
  • 1:56 - 1:58
    blijkt niet meer helemaal betrouwbaar
  • 1:58 - 2:00
    en soms zelfs ronduit gevaarlijk.
  • 2:01 - 2:05
    Dit is deels te danken
    aan de onstuitbare groei van social media,
  • 2:05 - 2:06
    die ons er laten door scrollen,
  • 2:06 - 2:09
    waar leugen en feit zij aan zij zitten,
  • 2:09 - 2:12
    maar met geen enkel traditioneel
    kenmerk van betrouwbaarheid.
  • 2:12 - 2:16
    En, o god, onze taal hierover
    is verschrikkelijk verwarrend.
  • 2:16 - 2:19
    Mensen zijn nog steeds geobsedeerd
    met het begrip 'fake news',
  • 2:19 - 2:22
    hoewel het buitengewoon onbehulpzaam is
  • 2:22 - 2:25
    en gebruikt wordt om eigenlijk
    totaal andere dingen te beschrijven:
  • 2:25 - 2:28
    leugens, roddels, hoaxen,
    samenzweringen, propaganda.
  • 2:29 - 2:32
    En ik zou willen dat we geen begrip
    meer zouden gebruiken
  • 2:32 - 2:35
    dat ingelijfd is door politici wereldwijd,
  • 2:35 - 2:36
    zowel links als rechts,
  • 2:36 - 2:39
    gebruikt als wapen om
    vrije, onafhankelijke pers aan te vallen.
  • 2:40 - 2:45
    (Applaus)
  • 2:45 - 2:48
    Want we hebben onze professionele
    nieuwsmedia meer dan ooit nodig.
  • 2:49 - 2:52
    Het meeste van deze informatie
    vermomt zich zelfs niet als nieuws.
  • 2:52 - 2:55
    Het zijn memes, video's,
    social-mediaberichten.
  • 2:55 - 2:58
    En het meeste is niet vals;
    het is misleidend.
  • 2:58 - 3:01
    We fixeren vaker op waar of niet waar.
  • 3:01 - 3:05
    Maar de grootste zorg is eigenlijk
    bewapening van de context.
  • 3:07 - 3:09
    Want de meest effectieve desinformatie
  • 3:09 - 3:12
    is altijd al datgene geweest
    waar een korrel waarheid in zit.
  • 3:12 - 3:15
    Neem nu dit voorbeeld
    van Londen, maart 2017,
  • 3:15 - 3:17
    een tweet die overal circuleerde
  • 3:17 - 3:21
    in de nasleep van een terreuraanslag
    op Westminster Bridge.
  • 3:21 - 3:23
    Dit is een echte foto, niet vals.
  • 3:23 - 3:26
    De vrouw op de foto
    werd nadien geïnterviewd
  • 3:26 - 3:29
    en zij verklaarde
    erg getraumatiseerd te zijn.
  • 3:29 - 3:30
    Zij was aan de lijn met een dierbare
  • 3:30 - 3:33
    en uit respect keek ze niet
    naar het slachtoffer.
  • 3:33 - 3:37
    En toch werd het verspreid
    met deze islamofobe tekst,
  • 3:37 - 3:40
    met meerdere hashtags,
    waaronder: #BanIslam.
  • 3:40 - 3:43
    Moest jij bij Twitter werken,
    wat zou jij doen?
  • 3:43 - 3:45
    Zou je het weghalen of laten staan?
  • 3:47 - 3:50
    Mijn instinct, mijn emotionele reflex
    is dit verwijderen.
  • 3:50 - 3:52
    Ik haat de suggestiviteit van deze foto.
  • 3:53 - 3:55
    Maar vrije meningsuiting
    is een mensenrecht
  • 3:55 - 3:58
    en als we meningen weghalen
    die ons ongemakkelijk doen voelen,
  • 3:58 - 3:59
    hebben we een probleem.
  • 4:00 - 4:02
    En al lijkt dit een duidelijke zaak,
  • 4:02 - 4:04
    meestal is een mening dat niet.
  • 4:04 - 4:06
    Deze lijnen trekken is enorm moeilijk.
  • 4:06 - 4:08
    Wat voor de één
    een goedbedoelde beslissing is,
  • 4:08 - 4:10
    is ronduit censuur voor de ander.
  • 4:11 - 4:14
    Wat we wel weten is
    dat dit account, Texas Lone Star,
  • 4:14 - 4:17
    deel uitmaakte van een weidse,
    Russische desinformatie-campagne
  • 4:17 - 4:19
    en ondertussen verwijderd is.
  • 4:19 - 4:21
    Zou dat je mening veranderen?
  • 4:21 - 4:22
    De mijne wel,
  • 4:23 - 4:25
    want dan is het
    een georganiseerde campagne
  • 4:25 - 4:26
    om verdeeldheid te zaaien.
  • 4:26 - 4:28
    En zij die zouden denken
  • 4:28 - 4:31
    dat artificiële intelligentie
    alle problemen zal oplossen,
  • 4:31 - 4:33
    zullen het met me eens zijn
    dat we veraf staan
  • 4:33 - 4:36
    van AI die berichten als deze
    kan begrijpen.
  • 4:37 - 4:39
    Dus zou ik graag drie
    samenhangende problemen uitleggen
  • 4:39 - 4:42
    die dit zo complex maken,
  • 4:42 - 4:45
    om dan over manieren na te denken
    om ze op te lossen.
  • 4:45 - 4:49
    Ten eerste hebben we gewoon
    geen rationele relatie met informatie,
  • 4:49 - 4:51
    maar een emotionele.
  • 4:51 - 4:55
    Het is niet waar dat meer feiten
    alles goed maken,
  • 4:55 - 4:58
    want algoritmes
    die bepalen wat we zien,
  • 4:58 - 5:01
    zijn ontworpen om onze
    emotionele reacties te belonen.
  • 5:01 - 5:02
    En wanneer we angst hebben,
  • 5:02 - 5:05
    zijn sterk vereenvoudigde verhalen,
    verklaringen met complotten
  • 5:05 - 5:09
    en demoniserende taal
    over anderen veel effectiever.
  • 5:10 - 5:11
    Bij veel van deze bedrijven
  • 5:11 - 5:14
    is het businessmodel gelinkt aan aandacht,
  • 5:14 - 5:18
    wat betekent dat deze algoritmes
    altijd neigen naar emotie.
  • 5:18 - 5:23
    Ten tweede zijn de meeste berichten
    die ik hier vernoem legaal.
  • 5:23 - 5:25
    Het zou een andere zaak zijn
  • 5:25 - 5:27
    als ik sprak over
    beelden van kindermisbruik
  • 5:27 - 5:29
    of inhoud die tot geweld aanspoort.
  • 5:29 - 5:32
    Het kan perfect legaal zijn
    om een regelrechte leugen te posten.
  • 5:33 - 5:37
    Mensen praten over 'problematische'
    of 'schadelijke' informatie verwijderen
  • 5:37 - 5:40
    zonder duidelijke definitie
    van wat ze daarmee bedoelen,
  • 5:40 - 5:41
    inclusief Mark Zuckerberg,
  • 5:41 - 5:45
    die net nog opriep tot globale
    controle van meningsuiting.
  • 5:45 - 5:47
    En mijn zorg is dat we regeringen zien
  • 5:47 - 5:48
    over de hele wereld
  • 5:48 - 5:51
    die haastig een beleid invoeren
  • 5:51 - 5:54
    wat eigenlijk veel ergere
    gevolgen kan veroorzaken
  • 5:54 - 5:56
    voor onze meningsuiting.
  • 5:56 - 6:00
    En ook al konden we beslissen
    welke meningen te houden of verwijderen,
  • 6:00 - 6:02
    we hebben nog nooit zoveel geuit.
  • 6:02 - 6:04
    Elke seconde worden miljoenen meningen
  • 6:04 - 6:06
    geüpload door mensen over de hele wereld
  • 6:06 - 6:07
    in verschillende talen,
  • 6:07 - 6:10
    gebaseerd op duizenden
    verschillende culturele contexten.
  • 6:10 - 6:13
    We hebben simpelweg
    nooit efficiënte mechanismes gehad
  • 6:13 - 6:15
    om taal te controleren op deze schaal,
  • 6:15 - 6:17
    of het nu van mensen
    of van technologie komt.
  • 6:18 - 6:22
    Ten derde zijn deze bedrijven --
    Google, Twitter, Facebook, WhatsApp --
  • 6:22 - 6:25
    deel van een breder informatie-ecosysteem.
  • 6:25 - 6:28
    We geven hen graag alle schuld,
    maar de waarheid is
  • 6:28 - 6:32
    dat massamedia en verkozen ambtenaren
    een even grote rol kunnen spelen
  • 6:32 - 6:35
    in het versterken van gerucht
    en complot, als ze dit willen.
  • 6:36 - 6:41
    En wij ook, als we hersenloos
    verdeelde of misleidende informatie delen
  • 6:41 - 6:42
    zonder moeite te doen.
  • 6:42 - 6:44
    We vervuilen het alleen maar meer.
  • 6:45 - 6:48
    Ik weet dat we zoeken
    naar een makkelijke oplossing.
  • 6:48 - 6:50
    Maar er is er geen.
  • 6:50 - 6:54
    Elke oplossing zal uitgerold moeten worden
    op een gigantische schaal, internetschaal.
  • 6:54 - 6:58
    En ja, de platformen zijn gewend
    op dat niveau te opereren,
  • 6:58 - 7:01
    maar kunnen ze deze problemen oplossen
    en moeten we het toelaten?
  • 7:02 - 7:03
    Proberen doen ze zeker.
  • 7:03 - 7:07
    Maar de meesten zouden ermee akkoord gaan
    dat we geen globale ondernemingen willen
  • 7:07 - 7:09
    als bewakers van waarheid
    en eerlijkheid online.
  • 7:09 - 7:12
    En ik denk dat ook
    de platformen dat vinden.
  • 7:12 - 7:15
    Momenteel beoordelen ze
    hun eigen huiswerk.
  • 7:15 - 7:16
    Ze vertellen graag
  • 7:16 - 7:19
    dat de maatregelen
    die ze nemen resultaat opleveren,
  • 7:19 - 7:22
    maar omdat ze hun eigen
    transparantieverslag schrijven,
  • 7:22 - 7:25
    kunnen we op geen enkele manier
    echt controleren wat er eigenlijk gebeurt.
  • 7:26 - 7:30
    (Applaus)
  • 7:30 - 7:33
    En laat het ook duidelijk zijn
    dat de meeste veranderingen enkel gebeuren
  • 7:33 - 7:37
    nadat onderzoek van journalisten
    vooroordelen aan het licht brengen,
  • 7:37 - 7:40
    of inhoud die de regels
    van de platformen breekt.
  • 7:41 - 7:45
    Dus ja, deze bedrijven moeten een
    heel belangrijke rol spelen in dit proces,
  • 7:45 - 7:48
    maar je kunt het ze niet
    laten controleren.
  • 7:48 - 7:49
    En hoe zit het met regeringen?
  • 7:50 - 7:53
    Velen geloven dat globale wetten
    onze laatste hoop zijn
  • 7:53 - 7:56
    als het gaat om de opkuis
    van ons informatie-ecosysteem.
  • 7:56 - 7:59
    Maar ik zie wetgevers
    die worstelen om bij te blijven
  • 7:59 - 8:01
    met de snel veranderende technologie.
  • 8:01 - 8:03
    Nog erger, ze tasten in het duister,
  • 8:03 - 8:05
    omdat ze geen toegang hebben tot data
  • 8:05 - 8:08
    om te begrijpen wat er gebeurt
    op deze platformen.
  • 8:08 - 8:11
    Trouwens, welke regeringen
    zouden we hiermee vertrouwen?
  • 8:11 - 8:14
    We hebben een globaal
    antwoord nodig, geen nationaal.
  • 8:15 - 8:18
    Dus zijn wij de ontbrekende schakel.
  • 8:18 - 8:21
    Het zijn de mensen die
    deze technologie elke dag gebruiken.
  • 8:21 - 8:26
    Kunnen we een nieuwe infrastructuur
    bouwen om kwaliteitsinformatie te bieden?
  • 8:26 - 8:28
    Wel, ik denk van wel,
  • 8:28 - 8:31
    en ik heb enkele ideeën
    over wat we echt zouden kunnen doen.
  • 8:31 - 8:34
    Ten eerste, als we het grote publiek
    er echt bij willen betrekken,
  • 8:34 - 8:37
    kunnen we dan inspiratie
    opdoen van Wikipedia?
  • 8:37 - 8:38
    Zij hebben getoond wat mogelijk is.
  • 8:38 - 8:40
    Het is niet perfect,
  • 8:40 - 8:42
    maar ze hebben getoond
    dat met de juiste structuren,
  • 8:42 - 8:44
    met een globale aanpak
    en heel veel transparantie,
  • 8:44 - 8:48
    je iets kan bouwen dat het vertrouwen
    zal winnen van de meesten.
  • 8:48 - 8:50
    Want we moeten een manier vinden
  • 8:50 - 8:53
    om de collectieve wijsheid en ervaring
    van alle gebruikers in te zetten.
  • 8:54 - 8:56
    Dit is vooral het geval
    voor vrouwen, gekleurde mensen
  • 8:56 - 8:58
    en minderheden.
  • 8:58 - 8:59
    Want weet je?
  • 8:59 - 9:01
    Zij zijn experten
    in haat en desinformatie,
  • 9:02 - 9:05
    omdat zij al zo lang het doelwit
    zijn van deze campagnes.
  • 9:05 - 9:07
    En door de jaren heen
    hebben ze vaak gewaarschuwd,
  • 9:07 - 9:09
    maar er werd niet naar geluisterd.
  • 9:09 - 9:10
    Dit moet veranderen.
  • 9:11 - 9:15
    Dus kunnen we een Wikipedia
    bouwen van vertrouwen?
  • 9:15 - 9:19
    Kunnen we een manier vinden
    om gebruikers hun inzicht te laten geven?
  • 9:19 - 9:23
    Zij zouden inzicht kunnen bieden
    bij moeilijke beslissingen over inhoud.
  • 9:23 - 9:25
    Ze zouden feedback kunnen geven
  • 9:25 - 9:28
    wanneer platformen beslissen
    om veranderingen door te voeren.
  • 9:28 - 9:32
    Ten tweede zijn ervaringen
    met informatie gepersonaliseerd.
  • 9:32 - 9:35
    Mijn Facebook nieuwsoverzicht
    is anders dan het jouwe.
  • 9:35 - 9:38
    Jouw YouTube aanbevelingen
    zijn anders dan de mijne.
  • 9:38 - 9:40
    Dat maakt het onmogelijk
    om echt te onderzoeken
  • 9:40 - 9:42
    welke informatie mensen te zien krijgen.
  • 9:43 - 9:44
    Dus kunnen we ons inbeelden
  • 9:44 - 9:49
    dat een gecentraliseerd, open geheugen
    voor anonieme data ontwikkeld wordt,
  • 9:49 - 9:52
    met privacy en ethische bezwaren erin?
  • 9:52 - 9:54
    Want stel je voor wat we zouden leren
  • 9:54 - 9:57
    als we een globaal netwerk
    uitbouwden met betrokken burgers
  • 9:57 - 10:01
    die hun sociale data
    zouden doneren aan de wetenschap.
  • 10:01 - 10:03
    Want we weten eigenlijk erg weinig
  • 10:03 - 10:06
    over de gevolgen op lange termijn
    van haat en desinformatie
  • 10:06 - 10:08
    voor mensen hun houding en gedrag.
  • 10:08 - 10:09
    En wat we wel weten,
  • 10:09 - 10:12
    is dat dit het vaakst gebeurt in de VS,
  • 10:12 - 10:14
    ondanks het feit
    dat dit een globaal probleem is.
  • 10:14 - 10:16
    Daar moeten we ook aan werken.
  • 10:16 - 10:17
    En ten derde,
  • 10:17 - 10:20
    kunnen we dan geen ketting maken?
  • 10:20 - 10:23
    Niet één sector, laat staan nonprofit,
    start-up of regering
  • 10:23 - 10:25
    gaat dit oplossen.
  • 10:25 - 10:27
    Maar er zijn erg slimme mensen
    over de hele wereld
  • 10:27 - 10:29
    die de uitdaging aangaan,
  • 10:29 - 10:32
    bij nieuwsredacties, de burgers,
    academici, activisten.
  • 10:32 - 10:34
    En sommigen ervan zie je hier.
  • 10:34 - 10:37
    Sommigen bouwen aan indicators
    van geloofwaardigheid.
  • 10:37 - 10:38
    Anderen checken de feiten,
  • 10:38 - 10:42
    zodat valse beweringen, video's
    en afbeeldingen verdwijnen van platformen.
  • 10:42 - 10:44
    Een nonprofit die ik
    geholpen heb, First Draft,
  • 10:44 - 10:47
    werkt met competitieve
    nieuwsredacties wereldwijd
  • 10:47 - 10:51
    om samen met hen onderzoekende
    samenwerkingsprogramma's te bouwen.
  • 10:51 - 10:54
    En Danny Hillis, een software architect,
  • 10:54 - 10:56
    ontwerpt een nieuw systeem
    genaamd The Underlay,
  • 10:56 - 10:59
    wat een geheugen zal zijn
    van elke openbare verklaring van feiten,
  • 10:59 - 11:00
    verbonden aan hun bronnen,
  • 11:00 - 11:04
    zodat mensen en algoritmes beter
    kunnen oordelen over wat geloofwaardig is.
  • 11:05 - 11:08
    En opvoeders wereldwijd
    testen verschillende technieken
  • 11:08 - 11:12
    om mensen kritisch te laten kijken
    naar de informatie die ze opnemen.
  • 11:13 - 11:16
    Al deze inspanningen zijn fantastisch,
    maar ze werken afgezonderd
  • 11:16 - 11:18
    en vele krijgen
    pijnlijk weinig financiering.
  • 11:19 - 11:21
    Er zijn ook honderden erg slimme mensen
  • 11:21 - 11:22
    die in deze bedrijven werken,
  • 11:22 - 11:25
    maar deze inspanningen
    kunnen ontwricht voelen,
  • 11:25 - 11:29
    omdat ze verschillende oplossingen
    ontwikkelen voor dezelfde problemen.
  • 11:29 - 11:31
    Hoe zouden we mensen kunnen samenbrengen
  • 11:31 - 11:35
    op één fysieke locatie
    voor dagen of weken na elkaar,
  • 11:35 - 11:37
    zodat ze deze problemen
    samen kunnen aanpakken
  • 11:37 - 11:39
    maar vanuit hun eigen perspectieven?
  • 11:39 - 11:40
    Kunnen we dit?
  • 11:40 - 11:44
    Kunnen we een gecoördineerde,
    ambitieuze oplossing opzetten
  • 11:44 - 11:47
    van dezelfde schaal en complexiteit
    als het probleem zelf?
  • 11:48 - 11:49
    Ik denk echt dat het kan.
  • 11:49 - 11:52
    Laten we samen onze publieke
    bronnen heropbouwen.
  • 11:53 - 11:54
    Dankjewel.
  • 11:54 - 11:58
    (Applaus)
Title:
Hoe jij kan helpen het internet te transformeren naar een plek van vertrouwen
Speaker:
Claire Wardle
Description:

Hoe kunnen we de verspreiding van misleidende, soms gevaarlijke informatie stopzetten, maar ook een internet met vrijheid van meningsuiting als kern behouden? Misinformatie-expert Claire Wardle onderzoekt de nieuwe uitdagingen van onze vervuilde online omgeving en stelt een plan op om het internet te transformeren in een plek van vertrouwen -- met de hulp van dagelijkse gebruikers. "Laten we samen onze publieke bronnen heropbouwen", zegt zij.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Dutch subtitles

Revisions