Return to Video

Hoe Facebook profiteert van polarisatie

  • 0:01 - 0:03
    Zo'n vijf jaar geleden
  • 0:03 - 0:05
    merkte ik dat ik
    steeds minder in staat was
  • 0:05 - 0:08
    met mensen om te gaan
    die andersgezind zijn.
  • 0:09 - 0:13
    Het bespreken van
    hete hangijzers met landgenoten
  • 0:13 - 0:15
    begon me moeilijker te vallen
  • 0:15 - 0:19
    dan mijn gesprekken met verdachte
    extremisten uit andere landen.
  • 0:20 - 0:23
    Ik voelde me steeds
    bitterder en gefrustreerder.
  • 0:23 - 0:27
    En daarom verlegde ik mijn focus
  • 0:27 - 0:29
    van bedreigingen
    voor de nationale veiligheid
  • 0:29 - 0:32
    naar de vraag wat aan de basis lag
  • 0:32 - 0:36
    van de steeds extremere polarisatie
    in mijn thuisland.
  • 0:36 - 0:38
    Als voormalig CIA-officier en diplomaat
  • 0:38 - 0:41
    die jarenlang extremisme
    hielp te bestrijden,
  • 0:41 - 0:45
    vreesde ik dat dit onze democratie
    veel meer begon te bedreigen
  • 0:45 - 0:48
    dan eender welke
    buitenlandse tegenstander.
  • 0:48 - 0:51
    Dus begon ik onderzoek te doen
    en mij uit te spreken,
  • 0:51 - 0:54
    waardoor ik werd aangenomen
    door Facebook
  • 0:54 - 0:57
    en hier vandaag voor jullie sta
  • 0:57 - 1:00
    om jullie te waarschuwen
    over hoe deze platforms
  • 1:00 - 1:03
    velen van ons manipuleren en radicaliseren
  • 1:04 - 1:07
    en om te bespreken hoe we
    het publieke debat kunnen terugwinnen.
  • 1:08 - 1:10
    Ik werkte als dienstofficier in Kenia
  • 1:10 - 1:13
    een paar jaar na de aanslagen
    van 11 september
  • 1:13 - 1:15
    en leidde de campagnes
    genaamd Hearts and Minds
  • 1:15 - 1:17
    aan de grens van Somalië.
  • 1:17 - 1:21
    Ik bouwde een vertrouwensrelatie op
    met de gemeenschappen
  • 1:21 - 1:24
    die het vatbaarst waren
    voor extremistische berichtgeving.
  • 1:24 - 1:28
    Ik heb urenlang thee gedronken met
    uitgesproken anti-westerse geestelijken
  • 1:28 - 1:32
    en ging zelfs in dialoog
    met enkele verdachte terroristen,
  • 1:32 - 1:35
    en hoewel veel van deze contacten
    begonnen met wederzijdse achterdocht,
  • 1:35 - 1:39
    herinner ik me niet dat dit ooit
    eindigde met geschreeuw of beledigingen,
  • 1:39 - 1:43
    en soms werkten we zelfs samen
    als er sprake was van wederzijds belang.
  • 1:44 - 1:48
    Onze krachtigste instrumenten
    waren om gewoon te luisteren, te leren
  • 1:48 - 1:50
    en empathie op te bouwen.
  • 1:50 - 1:53
    Dit is de essentie van Hearts and Minds,
  • 1:53 - 1:56
    want wat ik steeds weer ondervond
    is dat de meeste mensen
  • 1:56 - 2:00
    gehoord, gevalideerd
    en gerespecteerd willen worden.
  • 2:00 - 2:03
    En ik geloof dat
    de meesten van ons dat willen.
  • 2:03 - 2:06
    Dus wat ik vandaag online
    zie gebeuren is hartverscheurend
  • 2:06 - 2:08
    en veel moeilijker aan te pakken.
  • 2:09 - 2:13
    We worden gemanipuleerd
    door het huidige informatie-ecosysteem,
  • 2:13 - 2:16
    waardoor velen van ons
    ons zover ingraven in absolutisme
  • 2:16 - 2:19
    dat compromis een vies woord is geworden.
  • 2:20 - 2:23
    Want momenteel profiteren
    social media als Facebook
  • 2:23 - 2:27
    van de segmentatie van burgers
    door ons gepersonaliseerde inhoud te tonen
  • 2:27 - 2:31
    die onze vooroordelen
    bevestigt en uitbuit.
  • 2:31 - 2:34
    Hun doel is om een sterke
    emotie uit te lokken
  • 2:34 - 2:36
    om onze aandacht vast te houden.
  • 2:36 - 2:40
    Daardoor krijgen de meest opruiende
    en polariserende stemmen de bovenhand,
  • 2:40 - 2:45
    tot het bijna onmogelijk wordt
    om nog raakvlakken te vinden.
  • 2:45 - 2:49
    En ondanks de stijgende vraag
    naar een verandering van de platforms
  • 2:49 - 2:52
    is het duidelijk dat ze
    in hun eentje niet genoeg zullen doen.
  • 2:52 - 2:55
    Dus regeringen moeten
    de verantwoordelijkheid definiëren
  • 2:55 - 2:59
    voor de reële schade die wordt veroorzaakt
    door deze bedrijfsmodellen
  • 2:59 - 3:02
    en kosten opleggen
    voor de schadelijke gevolgen
  • 3:02 - 3:07
    voor onze volksgezondheid,
    ons publieke debat en onze democratie.
  • 3:07 - 3:12
    Helaas zal dit niet meer gebeuren
    voor de Amerikaanse presidentsverkiezingen
  • 3:12 - 3:15
    dus blijf ik aan de alarmbel trekken,
  • 3:15 - 3:18
    want zelfs als we ooit
    een sterke regelgeving krijgen,
  • 3:18 - 3:21
    is de inzet van elk van ons nodig
    om dit op te lossen.
  • 3:21 - 3:24
    Toen ik mijn focus verlegde
    van buitenlandse dreigingen
  • 3:24 - 3:27
    naar de afbraak van ons eigen
    maatschappelijk debat,
  • 3:27 - 3:30
    vroeg ik me af of we de campagnes
    van Hearts and Minds konden hergebruiken
  • 3:30 - 3:32
    om iets aan onze verdeeldheid te doen.
  • 3:32 - 3:37
    Ons democratische experiment
    van meer dan 200 jaar werkt grotendeels
  • 3:37 - 3:41
    omdat we in staat zijn openlijk
    en gepassioneerd onze ideeën te bespreken,
  • 3:41 - 3:43
    op zoek naar de beste oplossing.
  • 3:43 - 3:45
    Maar hoewel ik nog steeds diep geloof
  • 3:45 - 3:47
    in de kracht van een respectvol debat,
  • 3:47 - 3:49
    kan het gewoon niet concurreren
  • 3:49 - 3:53
    met de polariserende effecten
    en de omvang van social media.
  • 3:53 - 3:56
    De mensen die worden meegezogen
    in de verontwaardiging op social media
  • 3:56 - 4:00
    kunnen vaak veel moeilijker
    afstand doen van hun ideologieën
  • 4:00 - 4:03
    dan ooit het geval was bij de kwetsbare
    gemeenschappen waarmee ik werkte.
  • 4:04 - 4:07
    Dus toen Facebook me in 2018 opbelde
    en me vroeg de leiding te nemen
  • 4:07 - 4:11
    over haar activiteiten inzake
    de integriteit van politieke advertenties,
  • 4:11 - 4:13
    vond ik dat ik ja moest zeggen.
  • 4:13 - 4:16
    Ik had geen illusies
    dat ik het allemaal zou oplossen,
  • 4:16 - 4:20
    maar als ik de mogelijkheid kreeg
    het schip in een betere richting te sturen
  • 4:20 - 4:22
    moest ik het op zijn minst proberen.
  • 4:23 - 4:25
    Ik werkte niet direct rond polarisatie,
  • 4:25 - 4:29
    maar onderzocht wel welke kwesties
    de meeste sociale verdeeldheid zaaien
  • 4:29 - 4:33
    en dus makkelijk kunnen worden uitgebuit
    om de verkiezingen te beïnvloeden,
  • 4:33 - 4:36
    wat de tactiek van Rusland was
    in de aanloop naar 2016.
  • 4:37 - 4:39
    Dus begon ik vragen te stellen.
  • 4:39 - 4:42
    Ik wou de onderliggende
    systemische problemen begrijpen
  • 4:42 - 4:46
    die dit konden laten gebeuren
    en uitzoeken hoe dit te verhelpen.
  • 4:48 - 4:50
    Nu geloof ik nog steeds
    in de kracht van het internet
  • 4:50 - 4:53
    om meer stemmen te laten horen,
  • 4:53 - 4:56
    maar ondanks hun doel
    om een gemeenschap uit te bouwen,
  • 4:56 - 4:59
    zijn de grote socialemediabedrijven
    in hun huidige vorm
  • 4:59 - 5:03
    onverzoenbaar met het idee
    van een redelijk discours.
  • 5:03 - 5:05
    Het is onmogelijk om luisteren te belonen,
  • 5:05 - 5:07
    een civiel debat aan te moedigen
  • 5:07 - 5:11
    en mensen te beschermen
    die oprecht vragen willen stellen
  • 5:11 - 5:14
    in een sector waar
    meer betrokkenheid en meer gebruikers
  • 5:14 - 5:17
    de twee belangrijkste maatstaven
    voor succes zijn.
  • 5:17 - 5:21
    Er is geen stimulans
    om mensen te helpen vertragen,
  • 5:21 - 5:24
    om genoeg frictie in te bouwen
    zodat mensen moeten stoppen,
  • 5:24 - 5:27
    zich bewust worden
    van hun emotionele reactie
  • 5:27 - 5:30
    en hun eigen aannames
    in vraag te stellen voor ze reageren.
  • 5:31 - 5:33
    De ongelukkige realiteit is:
  • 5:33 - 5:36
    online zijn leugens
    aanlokkelijker dan de waarheid,
  • 5:36 - 5:39
    en schunnigheid overtroeft
    een feitelijke redenering
  • 5:39 - 5:43
    in een wereld die gericht is
    op frictieloze viraliteit.
  • 5:43 - 5:47
    Zolang algoritmes als doel hebben
    onze aandacht vast te houden,
  • 5:47 - 5:51
    zullen ze ons blijven vergiftigen door
    in te spelen op onze laagste instincten
  • 5:51 - 5:53
    en menselijke zwakheden.
  • 5:53 - 5:56
    En ja, woede, wantrouwen,
  • 5:56 - 5:58
    de cultuur van angst en haat:
  • 5:58 - 6:01
    niets van dit alles is nieuw in Amerika.
  • 6:01 - 6:04
    Maar de afgelopen jaren hebben
    social media dit allemaal verscherpt
  • 6:04 - 6:08
    en, zoals ik het zie, de weegschaal
    dramatisch doen kantelen.
  • 6:08 - 6:10
    En Facebook weet het.
  • 6:10 - 6:12
    Een artikel in de Wall Street Journal
  • 6:12 - 6:16
    bracht een interne Facebook-presentatie
    uit 2018 aan het licht
  • 6:16 - 6:20
    die de algoritmes van het bedrijf
    als oorzaak aanwijst
  • 6:20 - 6:23
    voor het stijgend aantal extremistische
    groeperingen op hun platform
  • 6:23 - 6:26
    en de polarisering van hun gebruikers.
  • 6:27 - 6:30
    Maar onze aandacht vasthouden
    is hoe ze geld verdienen.
  • 6:30 - 6:35
    De moderne informatie-omgeving
    draait om de profilering van gebruikers
  • 6:35 - 6:38
    om ons te segmenteren
    in steeds engere categorieën
  • 6:38 - 6:41
    om dit proces van personalisering
    te perfectioneren.
  • 6:41 - 6:45
    Zo worden we gebombardeerd met informatie
    die onze standpunten bevestigt,
  • 6:45 - 6:47
    onze vooroordelen versterkt,
  • 6:47 - 6:50
    en ons het gevoel geeft
    ergens bij te horen.
  • 6:50 - 6:54
    Dezelfde tactieken worden gebruikt
    voor de rekrutering van terroristen
  • 6:54 - 6:56
    waarbij men aast op kwetsbare jongeren,
  • 6:56 - 7:00
    zij het op kleinere, lokalere schaal
    voor de opkomst van social media,
  • 7:00 - 7:03
    met als uiteindelijk doel
    hun gedrag te beïnvloeden.
  • 7:03 - 7:08
    Helaas heb ik van Facebook nooit de kans
    gekregen om reële impact te hebben.
  • 7:08 - 7:12
    Op mijn tweede werkdag werden mijn titel
    en functieomschrijving al veranderd
  • 7:12 - 7:15
    en werd ik geweerd uit comités
    die beslissingen konden nemen.
  • 7:15 - 7:16
    Mijn grootste inspanningen,
  • 7:16 - 7:19
    mijn plannen voor het bestrijden
    van desinformatie
  • 7:19 - 7:22
    en misleiding van kiezers
    bij politieke advertenties
  • 7:22 - 7:23
    werden afgewezen.
  • 7:23 - 7:26
    En dus bleef ik
    amper zes maanden in dienst.
  • 7:26 - 7:30
    Maar dit is mijn grootste les
    van mijn tijd in het bedrijf.
  • 7:30 - 7:32
    Er zijn duizenden mensen bij Facebook
  • 7:32 - 7:34
    die vol passie aan een product werken
  • 7:34 - 7:38
    waarvan ze echt geloven
    dat de wereld er beter van wordt,
  • 7:38 - 7:42
    maar zolang het bedrijf zich enkel
    bezighoudt met wat gepriegel in de marge
  • 7:42 - 7:44
    van content policy en matiging,
  • 7:44 - 7:46
    in plaats van in te zien
  • 7:46 - 7:49
    hoe de hele machine
    is ontworpen en gemonetiseerd,
  • 7:49 - 7:52
    zullen ze nooit echt werk maken
    van hoe het platform bijdraagt
  • 7:52 - 7:57
    aan haat, verdeeldheid en radicalisering.
  • 7:57 - 8:01
    En dat is het enige gesprek dat ik nooit
    heb weten voeren toen ik er werkte,
  • 8:01 - 8:04
    omdat dat zou vereisen
    dat je principieel aanvaardt
  • 8:04 - 8:06
    dat wat je hebt gecreëerd
  • 8:06 - 8:08
    misschien toch niet zo goed is
    voor de maatschappij
  • 8:08 - 8:12
    en akkoord gaat om het hele
    product- en winstmodel te veranderen.
  • 8:12 - 8:14
    Wat kunnen we hieraan doen?
  • 8:15 - 8:19
    Ik zeg niet dat social media
    als enige verantwoordelijk zijn
  • 8:19 - 8:21
    voor de situatie waarin we ons bevinden.
  • 8:21 - 8:26
    We hebben duidelijk diepgewortelde
    sociale problemen die we moeten oplossen.
  • 8:26 - 8:30
    Maar Facebooks reactie dat het slechts
    een spiegel is van de maatschappij,
  • 8:30 - 8:34
    is een gemakkelijke poging
    elke verantwoordelijkheid af te schuiven
  • 8:34 - 8:38
    van de manier waarop hun platform
    schadelijke inhoud versterkt
  • 8:38 - 8:41
    en sommige gebruikers in de richting
    van extreme standpunten duwt.
  • 8:42 - 8:44
    En Facebook kan, als het dat wil,
  • 8:44 - 8:46
    een deel van de problemen oplossen.
  • 8:46 - 8:50
    Ze zouden kunnen stoppen met
    het promoten van samenzweringstheorieën,
  • 8:50 - 8:53
    haatgroepen, makers van desinformatie
  • 8:53 - 8:57
    en ja, in sommige gevallen
    zelfs onze president.
  • 8:57 - 9:01
    Ze kunnen stoppen dezelfde
    personalisatietechnieken te gebruiken
  • 9:01 - 9:04
    voor politieke retoriek die ze gebruiken
    om schoenen te verkopen.
  • 9:04 - 9:06
    Ze kunnen hun algoritmes zo aanpassen
  • 9:06 - 9:09
    dat ze op iets anders focussen
    dan betrokkenheid
  • 9:09 - 9:13
    en drempels inbouwen zodat
    bepaalde inhoud niet viraal kan gaan
  • 9:13 - 9:15
    voor hij wordt geëvalueerd.
  • 9:15 - 9:17
    Ze kunnen dit allemaal doen
  • 9:17 - 9:21
    zonder 'de scheidsrechter van de waarheid'
    te worden, zoals ze zelf beweren.
  • 9:21 - 9:25
    Maar ze hebben duidelijk gemaakt
    dat ze niet ver genoeg willen gaan
  • 9:25 - 9:27
    om het juiste te doen
    als ze niet worden gedwongen.
  • 9:27 - 9:30
    En waarom zouden ze ook?
  • 9:30 - 9:34
    De markten blijven hen belonen,
    en ze overtreden de wet niet.
  • 9:34 - 9:35
    Want momenteel
  • 9:35 - 9:40
    zijn er geen wetten in de VS die Facebook
    of andere social media dwingen
  • 9:40 - 9:42
    het publieke debat te beschermen,
  • 9:42 - 9:43
    evenals onze democratie
  • 9:43 - 9:46
    en zelfs onze verkiezingen.
  • 9:46 - 9:50
    De vraag welke regels gerespecteerd
    en afgedwongen moeten worden,
  • 9:50 - 9:53
    laten we over aan de CEO's
    van commerciële internetbedrijven.
  • 9:54 - 9:56
    Is dit wat we willen?
  • 9:56 - 9:59
    Een wereld zonder waarheid,
    waar toxiciteit en tribalisme
  • 9:59 - 10:02
    onze zoektocht naar consensus
    onmogelijk maken?
  • 10:03 - 10:07
    Ik blijf geloven dat we nog steeds
    meer met elkaar gemeen hebben
  • 10:07 - 10:10
    dan de huidige media en online-omgeving
    ons willen doen geloven.
  • 10:10 - 10:14
    Ik geloof ook dat meer perspectieven
  • 10:14 - 10:17
    zorgen voor een meer robuuste
    en inclusieve democratie.
  • 10:17 - 10:20
    Maar dat is niet wat momenteel gebeurt.
  • 10:20 - 10:24
    En ik wil benadrukken dat ik
    deze bedrijven niet kapot wil maken.
  • 10:24 - 10:28
    Ik wil gewoon dat ze een zekere
    verantwoording moeten afleggen,
  • 10:28 - 10:30
    net als de rest van de samenleving.
  • 10:31 - 10:35
    Het is tijd dat onze regeringen
    wakker worden en hun werk doen
  • 10:35 - 10:37
    om hun burgers te beschermen.
  • 10:37 - 10:41
    En hoewel er geen magische wetgeving is
    die dit alles zal oplossen,
  • 10:41 - 10:46
    geloof ik wel dat regeringen
    een balans kunnen en moeten vinden
  • 10:46 - 10:48
    tussen de vrije meningsuiting beschermen
  • 10:48 - 10:52
    en deze platforms ter verantwoording
    roepen voor hun effect op de samenleving.
  • 10:52 - 10:57
    Ze zouden dat deels kunnen doen
    door aan te dringen op echte transparantie
  • 10:57 - 11:00
    over hoe deze machines
    bepaalde inhoud promoten,
  • 11:00 - 11:05
    over hoe informatie wordt gecureerd,
    versterkt en afgevuurd op doelgroepen.
  • 11:05 - 11:07
    Ik wil dat deze bedrijven
    verantwoording moeten afleggen
  • 11:07 - 11:10
    niet voor individuen
    die desinformatie verspreiden
  • 11:10 - 11:12
    of extreme uitspraken doen,
  • 11:12 - 11:15
    maar voor de manier waarop hun
    machines bepaalde info verspreiden,
  • 11:16 - 11:19
    hoe hun algoritmes bepaalde
    mensen naar die info leiden,
  • 11:19 - 11:23
    en hoe ze hun systemen gebruiken
    om bepaalde doelgroepen te viseren.
  • 11:23 - 11:27
    Ik heb getracht om verandering te creëren
    van binnen Facebook, maar helaas.
  • 11:27 - 11:30
    Dus gebruik ik sinds een paar
    jaar weer mijn stem
  • 11:30 - 11:33
    om dit onder de aandacht te brengen
  • 11:33 - 11:37
    en hopelijk meer mensen te inspireren
    om verantwoording te eisen.
  • 11:37 - 11:40
    Mijn boodschap aan jullie is eenvoudig:
  • 11:40 - 11:42
    oefen druk uit op de overheid
  • 11:42 - 11:47
    om te verhinderen dat ons publieke debat
    wordt gestuurd door commerciële belangen.
  • 11:47 - 11:52
    Help vrienden en familie inzien
    hoe ze online worden gemanipuleerd.
  • 11:52 - 11:56
    Ga het gesprek aan
    met mensen die niet gelijkgezind zijn.
  • 11:56 - 11:59
    Maak van deze kwestie een prioriteit.
  • 11:59 - 12:02
    We moeten dit probleem
    als samenleving aanpakken.
  • 12:03 - 12:08
    En mijn boodschap aan de leiders
    van mijn vroegere werkgever Facebook is:
  • 12:09 - 12:15
    momenteel gebruiken mensen je systemen
    precies zoals die zijn ontworpen,
  • 12:15 - 12:17
    om haat, verdeeldheid
    en wantrouwen te zaaien,
  • 12:17 - 12:21
    en je laat het niet alleen toe,
    je houdt het zelf in stand.
  • 12:21 - 12:24
    En ja, er zijn veel mooie verhalen
  • 12:24 - 12:28
    van positieve dingen die wereldwijd
    op je platform gebeuren,
  • 12:28 - 12:30
    maar dat maakt dit allemaal niet goed.
  • 12:31 - 12:34
    En het wordt nog erger
    met de verkiezingen in zicht
  • 12:34 - 12:38
    en zeker nu we
    de grootste crisis ooit riskeren
  • 12:38 - 12:42
    als de resultaten onbetrouwbaar zijn
    en er geweld uitbreekt.
  • 12:42 - 12:48
    Dus als je in 2021 opnieuw zegt
    "We weten dat we het beter moeten doen",
  • 12:48 - 12:50
    wil ik dat je aan dit moment terugdenkt,
  • 12:50 - 12:53
    want het gaat al lang niet meer
    om een paar buitenbeentjes.
  • 12:53 - 12:56
    Burgerrechtenactivisten, academici,
  • 12:56 - 12:59
    journalisten, adverteerders,
    je eigen personeel,
  • 12:59 - 13:01
    ze schreeuwen allemaal van de daken
  • 13:01 - 13:06
    dat je beleid en bedrijfspraktijken
    schadelijk zijn voor mens en democratie.
  • 13:07 - 13:09
    Jij bent verantwoordelijk
    voor je beslissingen,
  • 13:09 - 13:14
    maar kom achteraf niet zeggen
    dat je dit niet had zien aankomen.
  • 13:14 - 13:16
    Bedankt.
Title:
Hoe Facebook profiteert van polarisatie
Speaker:
Yaël Eisenstat
Description:

"Online zijn leugens aanlokkelijker dan de waarheid," zegt voormalig CIA-analist, diplomaat en Facebook-medewerker Yaël Eisenstat. "Zolang algoritmes [van social media] als doel hebben onze aandacht vast te houden, zullen ze ons blijven vergiftigen door in te spelen op onze laagste instincten en menselijke zwakheden." In deze gedurfde talk legt Eisenstat uit hoe socialemediabedrijven zoals Facebook opruiende inhoud promoten en zo bijdragen aan een cultuur van politieke polarisatie en wantrouwen. Ze roept regeringen op deze platforms ter verantwoording te roepen om het maatschappelijk discours en onze democratie te beschermen.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Dutch subtitles

Revisions