Hoe Facebook profiteert van polarisatie
-
0:01 - 0:03Zo'n vijf jaar geleden
-
0:03 - 0:05merkte ik dat ik
steeds minder in staat was -
0:05 - 0:08met mensen om te gaan
die andersgezind zijn. -
0:09 - 0:13Het bespreken van
hete hangijzers met landgenoten -
0:13 - 0:15begon me moeilijker te vallen
-
0:15 - 0:19dan mijn gesprekken met verdachte
extremisten uit andere landen. -
0:20 - 0:23Ik voelde me steeds
bitterder en gefrustreerder. -
0:23 - 0:27En daarom verlegde ik mijn focus
-
0:27 - 0:29van bedreigingen
voor de nationale veiligheid -
0:29 - 0:32naar de vraag wat aan de basis lag
-
0:32 - 0:36van de steeds extremere polarisatie
in mijn thuisland. -
0:36 - 0:38Als voormalig CIA-officier en diplomaat
-
0:38 - 0:41die jarenlang extremisme
hielp te bestrijden, -
0:41 - 0:45vreesde ik dat dit onze democratie
veel meer begon te bedreigen -
0:45 - 0:48dan eender welke
buitenlandse tegenstander. -
0:48 - 0:51Dus begon ik onderzoek te doen
en mij uit te spreken, -
0:51 - 0:54waardoor ik werd aangenomen
door Facebook -
0:54 - 0:57en hier vandaag voor jullie sta
-
0:57 - 1:00om jullie te waarschuwen
over hoe deze platforms -
1:00 - 1:03velen van ons manipuleren en radicaliseren
-
1:04 - 1:07en om te bespreken hoe we
het publieke debat kunnen terugwinnen. -
1:08 - 1:10Ik werkte als dienstofficier in Kenia
-
1:10 - 1:13een paar jaar na de aanslagen
van 11 september -
1:13 - 1:15en leidde de campagnes
genaamd Hearts and Minds -
1:15 - 1:17aan de grens van Somalië.
-
1:17 - 1:21Ik bouwde een vertrouwensrelatie op
met de gemeenschappen -
1:21 - 1:24die het vatbaarst waren
voor extremistische berichtgeving. -
1:24 - 1:28Ik heb urenlang thee gedronken met
uitgesproken anti-westerse geestelijken -
1:28 - 1:32en ging zelfs in dialoog
met enkele verdachte terroristen, -
1:32 - 1:35en hoewel veel van deze contacten
begonnen met wederzijdse achterdocht, -
1:35 - 1:39herinner ik me niet dat dit ooit
eindigde met geschreeuw of beledigingen, -
1:39 - 1:43en soms werkten we zelfs samen
als er sprake was van wederzijds belang. -
1:44 - 1:48Onze krachtigste instrumenten
waren om gewoon te luisteren, te leren -
1:48 - 1:50en empathie op te bouwen.
-
1:50 - 1:53Dit is de essentie van Hearts and Minds,
-
1:53 - 1:56want wat ik steeds weer ondervond
is dat de meeste mensen -
1:56 - 2:00gehoord, gevalideerd
en gerespecteerd willen worden. -
2:00 - 2:03En ik geloof dat
de meesten van ons dat willen. -
2:03 - 2:06Dus wat ik vandaag online
zie gebeuren is hartverscheurend -
2:06 - 2:08en veel moeilijker aan te pakken.
-
2:09 - 2:13We worden gemanipuleerd
door het huidige informatie-ecosysteem, -
2:13 - 2:16waardoor velen van ons
ons zover ingraven in absolutisme -
2:16 - 2:19dat compromis een vies woord is geworden.
-
2:20 - 2:23Want momenteel profiteren
social media als Facebook -
2:23 - 2:27van de segmentatie van burgers
door ons gepersonaliseerde inhoud te tonen -
2:27 - 2:31die onze vooroordelen
bevestigt en uitbuit. -
2:31 - 2:34Hun doel is om een sterke
emotie uit te lokken -
2:34 - 2:36om onze aandacht vast te houden.
-
2:36 - 2:40Daardoor krijgen de meest opruiende
en polariserende stemmen de bovenhand, -
2:40 - 2:45tot het bijna onmogelijk wordt
om nog raakvlakken te vinden. -
2:45 - 2:49En ondanks de stijgende vraag
naar een verandering van de platforms -
2:49 - 2:52is het duidelijk dat ze
in hun eentje niet genoeg zullen doen. -
2:52 - 2:55Dus regeringen moeten
de verantwoordelijkheid definiëren -
2:55 - 2:59voor de reële schade die wordt veroorzaakt
door deze bedrijfsmodellen -
2:59 - 3:02en kosten opleggen
voor de schadelijke gevolgen -
3:02 - 3:07voor onze volksgezondheid,
ons publieke debat en onze democratie. -
3:07 - 3:12Helaas zal dit niet meer gebeuren
voor de Amerikaanse presidentsverkiezingen -
3:12 - 3:15dus blijf ik aan de alarmbel trekken,
-
3:15 - 3:18want zelfs als we ooit
een sterke regelgeving krijgen, -
3:18 - 3:21is de inzet van elk van ons nodig
om dit op te lossen. -
3:21 - 3:24Toen ik mijn focus verlegde
van buitenlandse dreigingen -
3:24 - 3:27naar de afbraak van ons eigen
maatschappelijk debat, -
3:27 - 3:30vroeg ik me af of we de campagnes
van Hearts and Minds konden hergebruiken -
3:30 - 3:32om iets aan onze verdeeldheid te doen.
-
3:32 - 3:37Ons democratische experiment
van meer dan 200 jaar werkt grotendeels -
3:37 - 3:41omdat we in staat zijn openlijk
en gepassioneerd onze ideeën te bespreken, -
3:41 - 3:43op zoek naar de beste oplossing.
-
3:43 - 3:45Maar hoewel ik nog steeds diep geloof
-
3:45 - 3:47in de kracht van een respectvol debat,
-
3:47 - 3:49kan het gewoon niet concurreren
-
3:49 - 3:53met de polariserende effecten
en de omvang van social media. -
3:53 - 3:56De mensen die worden meegezogen
in de verontwaardiging op social media -
3:56 - 4:00kunnen vaak veel moeilijker
afstand doen van hun ideologieën -
4:00 - 4:03dan ooit het geval was bij de kwetsbare
gemeenschappen waarmee ik werkte. -
4:04 - 4:07Dus toen Facebook me in 2018 opbelde
en me vroeg de leiding te nemen -
4:07 - 4:11over haar activiteiten inzake
de integriteit van politieke advertenties, -
4:11 - 4:13vond ik dat ik ja moest zeggen.
-
4:13 - 4:16Ik had geen illusies
dat ik het allemaal zou oplossen, -
4:16 - 4:20maar als ik de mogelijkheid kreeg
het schip in een betere richting te sturen -
4:20 - 4:22moest ik het op zijn minst proberen.
-
4:23 - 4:25Ik werkte niet direct rond polarisatie,
-
4:25 - 4:29maar onderzocht wel welke kwesties
de meeste sociale verdeeldheid zaaien -
4:29 - 4:33en dus makkelijk kunnen worden uitgebuit
om de verkiezingen te beïnvloeden, -
4:33 - 4:36wat de tactiek van Rusland was
in de aanloop naar 2016. -
4:37 - 4:39Dus begon ik vragen te stellen.
-
4:39 - 4:42Ik wou de onderliggende
systemische problemen begrijpen -
4:42 - 4:46die dit konden laten gebeuren
en uitzoeken hoe dit te verhelpen. -
4:48 - 4:50Nu geloof ik nog steeds
in de kracht van het internet -
4:50 - 4:53om meer stemmen te laten horen,
-
4:53 - 4:56maar ondanks hun doel
om een gemeenschap uit te bouwen, -
4:56 - 4:59zijn de grote socialemediabedrijven
in hun huidige vorm -
4:59 - 5:03onverzoenbaar met het idee
van een redelijk discours. -
5:03 - 5:05Het is onmogelijk om luisteren te belonen,
-
5:05 - 5:07een civiel debat aan te moedigen
-
5:07 - 5:11en mensen te beschermen
die oprecht vragen willen stellen -
5:11 - 5:14in een sector waar
meer betrokkenheid en meer gebruikers -
5:14 - 5:17de twee belangrijkste maatstaven
voor succes zijn. -
5:17 - 5:21Er is geen stimulans
om mensen te helpen vertragen, -
5:21 - 5:24om genoeg frictie in te bouwen
zodat mensen moeten stoppen, -
5:24 - 5:27zich bewust worden
van hun emotionele reactie -
5:27 - 5:30en hun eigen aannames
in vraag te stellen voor ze reageren. -
5:31 - 5:33De ongelukkige realiteit is:
-
5:33 - 5:36online zijn leugens
aanlokkelijker dan de waarheid, -
5:36 - 5:39en schunnigheid overtroeft
een feitelijke redenering -
5:39 - 5:43in een wereld die gericht is
op frictieloze viraliteit. -
5:43 - 5:47Zolang algoritmes als doel hebben
onze aandacht vast te houden, -
5:47 - 5:51zullen ze ons blijven vergiftigen door
in te spelen op onze laagste instincten -
5:51 - 5:53en menselijke zwakheden.
-
5:53 - 5:56En ja, woede, wantrouwen,
-
5:56 - 5:58de cultuur van angst en haat:
-
5:58 - 6:01niets van dit alles is nieuw in Amerika.
-
6:01 - 6:04Maar de afgelopen jaren hebben
social media dit allemaal verscherpt -
6:04 - 6:08en, zoals ik het zie, de weegschaal
dramatisch doen kantelen. -
6:08 - 6:10En Facebook weet het.
-
6:10 - 6:12Een artikel in de Wall Street Journal
-
6:12 - 6:16bracht een interne Facebook-presentatie
uit 2018 aan het licht -
6:16 - 6:20die de algoritmes van het bedrijf
als oorzaak aanwijst -
6:20 - 6:23voor het stijgend aantal extremistische
groeperingen op hun platform -
6:23 - 6:26en de polarisering van hun gebruikers.
-
6:27 - 6:30Maar onze aandacht vasthouden
is hoe ze geld verdienen. -
6:30 - 6:35De moderne informatie-omgeving
draait om de profilering van gebruikers -
6:35 - 6:38om ons te segmenteren
in steeds engere categorieën -
6:38 - 6:41om dit proces van personalisering
te perfectioneren. -
6:41 - 6:45Zo worden we gebombardeerd met informatie
die onze standpunten bevestigt, -
6:45 - 6:47onze vooroordelen versterkt,
-
6:47 - 6:50en ons het gevoel geeft
ergens bij te horen. -
6:50 - 6:54Dezelfde tactieken worden gebruikt
voor de rekrutering van terroristen -
6:54 - 6:56waarbij men aast op kwetsbare jongeren,
-
6:56 - 7:00zij het op kleinere, lokalere schaal
voor de opkomst van social media, -
7:00 - 7:03met als uiteindelijk doel
hun gedrag te beïnvloeden. -
7:03 - 7:08Helaas heb ik van Facebook nooit de kans
gekregen om reële impact te hebben. -
7:08 - 7:12Op mijn tweede werkdag werden mijn titel
en functieomschrijving al veranderd -
7:12 - 7:15en werd ik geweerd uit comités
die beslissingen konden nemen. -
7:15 - 7:16Mijn grootste inspanningen,
-
7:16 - 7:19mijn plannen voor het bestrijden
van desinformatie -
7:19 - 7:22en misleiding van kiezers
bij politieke advertenties -
7:22 - 7:23werden afgewezen.
-
7:23 - 7:26En dus bleef ik
amper zes maanden in dienst. -
7:26 - 7:30Maar dit is mijn grootste les
van mijn tijd in het bedrijf. -
7:30 - 7:32Er zijn duizenden mensen bij Facebook
-
7:32 - 7:34die vol passie aan een product werken
-
7:34 - 7:38waarvan ze echt geloven
dat de wereld er beter van wordt, -
7:38 - 7:42maar zolang het bedrijf zich enkel
bezighoudt met wat gepriegel in de marge -
7:42 - 7:44van content policy en matiging,
-
7:44 - 7:46in plaats van in te zien
-
7:46 - 7:49hoe de hele machine
is ontworpen en gemonetiseerd, -
7:49 - 7:52zullen ze nooit echt werk maken
van hoe het platform bijdraagt -
7:52 - 7:57aan haat, verdeeldheid en radicalisering.
-
7:57 - 8:01En dat is het enige gesprek dat ik nooit
heb weten voeren toen ik er werkte, -
8:01 - 8:04omdat dat zou vereisen
dat je principieel aanvaardt -
8:04 - 8:06dat wat je hebt gecreëerd
-
8:06 - 8:08misschien toch niet zo goed is
voor de maatschappij -
8:08 - 8:12en akkoord gaat om het hele
product- en winstmodel te veranderen. -
8:12 - 8:14Wat kunnen we hieraan doen?
-
8:15 - 8:19Ik zeg niet dat social media
als enige verantwoordelijk zijn -
8:19 - 8:21voor de situatie waarin we ons bevinden.
-
8:21 - 8:26We hebben duidelijk diepgewortelde
sociale problemen die we moeten oplossen. -
8:26 - 8:30Maar Facebooks reactie dat het slechts
een spiegel is van de maatschappij, -
8:30 - 8:34is een gemakkelijke poging
elke verantwoordelijkheid af te schuiven -
8:34 - 8:38van de manier waarop hun platform
schadelijke inhoud versterkt -
8:38 - 8:41en sommige gebruikers in de richting
van extreme standpunten duwt. -
8:42 - 8:44En Facebook kan, als het dat wil,
-
8:44 - 8:46een deel van de problemen oplossen.
-
8:46 - 8:50Ze zouden kunnen stoppen met
het promoten van samenzweringstheorieën, -
8:50 - 8:53haatgroepen, makers van desinformatie
-
8:53 - 8:57en ja, in sommige gevallen
zelfs onze president. -
8:57 - 9:01Ze kunnen stoppen dezelfde
personalisatietechnieken te gebruiken -
9:01 - 9:04voor politieke retoriek die ze gebruiken
om schoenen te verkopen. -
9:04 - 9:06Ze kunnen hun algoritmes zo aanpassen
-
9:06 - 9:09dat ze op iets anders focussen
dan betrokkenheid -
9:09 - 9:13en drempels inbouwen zodat
bepaalde inhoud niet viraal kan gaan -
9:13 - 9:15voor hij wordt geëvalueerd.
-
9:15 - 9:17Ze kunnen dit allemaal doen
-
9:17 - 9:21zonder 'de scheidsrechter van de waarheid'
te worden, zoals ze zelf beweren. -
9:21 - 9:25Maar ze hebben duidelijk gemaakt
dat ze niet ver genoeg willen gaan -
9:25 - 9:27om het juiste te doen
als ze niet worden gedwongen. -
9:27 - 9:30En waarom zouden ze ook?
-
9:30 - 9:34De markten blijven hen belonen,
en ze overtreden de wet niet. -
9:34 - 9:35Want momenteel
-
9:35 - 9:40zijn er geen wetten in de VS die Facebook
of andere social media dwingen -
9:40 - 9:42het publieke debat te beschermen,
-
9:42 - 9:43evenals onze democratie
-
9:43 - 9:46en zelfs onze verkiezingen.
-
9:46 - 9:50De vraag welke regels gerespecteerd
en afgedwongen moeten worden, -
9:50 - 9:53laten we over aan de CEO's
van commerciële internetbedrijven. -
9:54 - 9:56Is dit wat we willen?
-
9:56 - 9:59Een wereld zonder waarheid,
waar toxiciteit en tribalisme -
9:59 - 10:02onze zoektocht naar consensus
onmogelijk maken? -
10:03 - 10:07Ik blijf geloven dat we nog steeds
meer met elkaar gemeen hebben -
10:07 - 10:10dan de huidige media en online-omgeving
ons willen doen geloven. -
10:10 - 10:14Ik geloof ook dat meer perspectieven
-
10:14 - 10:17zorgen voor een meer robuuste
en inclusieve democratie. -
10:17 - 10:20Maar dat is niet wat momenteel gebeurt.
-
10:20 - 10:24En ik wil benadrukken dat ik
deze bedrijven niet kapot wil maken. -
10:24 - 10:28Ik wil gewoon dat ze een zekere
verantwoording moeten afleggen, -
10:28 - 10:30net als de rest van de samenleving.
-
10:31 - 10:35Het is tijd dat onze regeringen
wakker worden en hun werk doen -
10:35 - 10:37om hun burgers te beschermen.
-
10:37 - 10:41En hoewel er geen magische wetgeving is
die dit alles zal oplossen, -
10:41 - 10:46geloof ik wel dat regeringen
een balans kunnen en moeten vinden -
10:46 - 10:48tussen de vrije meningsuiting beschermen
-
10:48 - 10:52en deze platforms ter verantwoording
roepen voor hun effect op de samenleving. -
10:52 - 10:57Ze zouden dat deels kunnen doen
door aan te dringen op echte transparantie -
10:57 - 11:00over hoe deze machines
bepaalde inhoud promoten, -
11:00 - 11:05over hoe informatie wordt gecureerd,
versterkt en afgevuurd op doelgroepen. -
11:05 - 11:07Ik wil dat deze bedrijven
verantwoording moeten afleggen -
11:07 - 11:10niet voor individuen
die desinformatie verspreiden -
11:10 - 11:12of extreme uitspraken doen,
-
11:12 - 11:15maar voor de manier waarop hun
machines bepaalde info verspreiden, -
11:16 - 11:19hoe hun algoritmes bepaalde
mensen naar die info leiden, -
11:19 - 11:23en hoe ze hun systemen gebruiken
om bepaalde doelgroepen te viseren. -
11:23 - 11:27Ik heb getracht om verandering te creëren
van binnen Facebook, maar helaas. -
11:27 - 11:30Dus gebruik ik sinds een paar
jaar weer mijn stem -
11:30 - 11:33om dit onder de aandacht te brengen
-
11:33 - 11:37en hopelijk meer mensen te inspireren
om verantwoording te eisen. -
11:37 - 11:40Mijn boodschap aan jullie is eenvoudig:
-
11:40 - 11:42oefen druk uit op de overheid
-
11:42 - 11:47om te verhinderen dat ons publieke debat
wordt gestuurd door commerciële belangen. -
11:47 - 11:52Help vrienden en familie inzien
hoe ze online worden gemanipuleerd. -
11:52 - 11:56Ga het gesprek aan
met mensen die niet gelijkgezind zijn. -
11:56 - 11:59Maak van deze kwestie een prioriteit.
-
11:59 - 12:02We moeten dit probleem
als samenleving aanpakken. -
12:03 - 12:08En mijn boodschap aan de leiders
van mijn vroegere werkgever Facebook is: -
12:09 - 12:15momenteel gebruiken mensen je systemen
precies zoals die zijn ontworpen, -
12:15 - 12:17om haat, verdeeldheid
en wantrouwen te zaaien, -
12:17 - 12:21en je laat het niet alleen toe,
je houdt het zelf in stand. -
12:21 - 12:24En ja, er zijn veel mooie verhalen
-
12:24 - 12:28van positieve dingen die wereldwijd
op je platform gebeuren, -
12:28 - 12:30maar dat maakt dit allemaal niet goed.
-
12:31 - 12:34En het wordt nog erger
met de verkiezingen in zicht -
12:34 - 12:38en zeker nu we
de grootste crisis ooit riskeren -
12:38 - 12:42als de resultaten onbetrouwbaar zijn
en er geweld uitbreekt. -
12:42 - 12:48Dus als je in 2021 opnieuw zegt
"We weten dat we het beter moeten doen", -
12:48 - 12:50wil ik dat je aan dit moment terugdenkt,
-
12:50 - 12:53want het gaat al lang niet meer
om een paar buitenbeentjes. -
12:53 - 12:56Burgerrechtenactivisten, academici,
-
12:56 - 12:59journalisten, adverteerders,
je eigen personeel, -
12:59 - 13:01ze schreeuwen allemaal van de daken
-
13:01 - 13:06dat je beleid en bedrijfspraktijken
schadelijk zijn voor mens en democratie. -
13:07 - 13:09Jij bent verantwoordelijk
voor je beslissingen, -
13:09 - 13:14maar kom achteraf niet zeggen
dat je dit niet had zien aankomen. -
13:14 - 13:16Bedankt.
- Title:
- Hoe Facebook profiteert van polarisatie
- Speaker:
- Yaël Eisenstat
- Description:
-
"Online zijn leugens aanlokkelijker dan de waarheid," zegt voormalig CIA-analist, diplomaat en Facebook-medewerker Yaël Eisenstat. "Zolang algoritmes [van social media] als doel hebben onze aandacht vast te houden, zullen ze ons blijven vergiftigen door in te spelen op onze laagste instincten en menselijke zwakheden." In deze gedurfde talk legt Eisenstat uit hoe socialemediabedrijven zoals Facebook opruiende inhoud promoten en zo bijdragen aan een cultuur van politieke polarisatie en wantrouwen. Ze roept regeringen op deze platforms ter verantwoording te roepen om het maatschappelijk discours en onze democratie te beschermen.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
Peter van de Ven approved Dutch subtitles for Dear Facebook, this is how you're breaking democracy | ||
Peter van de Ven accepted Dutch subtitles for Dear Facebook, this is how you're breaking democracy | ||
Peter van de Ven edited Dutch subtitles for Dear Facebook, this is how you're breaking democracy | ||
Peter van de Ven edited Dutch subtitles for Dear Facebook, this is how you're breaking democracy | ||
Ruth Compernol edited Dutch subtitles for Dear Facebook, this is how you're breaking democracy | ||
Ruth Compernol edited Dutch subtitles for Dear Facebook, this is how you're breaking democracy | ||
Ruth Compernol edited Dutch subtitles for Dear Facebook, this is how you're breaking democracy | ||
Ruth Compernol edited Dutch subtitles for Dear Facebook, this is how you're breaking democracy |