Facebook, du ødelægger vores demokrati.
-
0:01 - 0:03Jeg opdagede for cirka fem år siden,
-
0:03 - 0:05at jeg ikke længere kunne diskutere
-
0:05 - 0:08med folk jeg var uenig med.
-
0:09 - 0:13Det var mere skræmmende,
at diskutere alvorlige emner -
0:13 - 0:15med mine landsmænd, end det var
-
0:15 - 0:19at interagere med ekstremister i udlandet.
-
0:20 - 0:23Det gjorde mig mere bitter og frustreret.
-
0:23 - 0:25Og lige pludselig
-
0:25 - 0:27skiftede hele mit fokus
-
0:27 - 0:29fra globale sikkerhedstrusler
-
0:29 - 0:34til at forstå den øgede polarisering
-
0:34 - 0:36herhjemme.
-
0:36 - 0:38Som en tidligere CIA-ansat og diplomat,
-
0:38 - 0:41der har brugt år på at bekæmpe
ekstremisme, -
0:41 - 0:45følte jeg, at dette var farligere
for vores demokrati -
0:45 - 0:48end nogen fremmed fjende.
-
0:48 - 0:50Så jeg dykkede ned i emnet
-
0:50 - 0:51og begyndte at snakke om det,
-
0:51 - 0:54hvilket fik mig hyret af Facebook
-
0:54 - 0:57og i sidste ende bragte mig her,
-
0:57 - 1:00for fortsat at advare jer om,
hvordan disse platforme -
1:00 - 1:04manipulerer og radikaliserer
mange af os, -
1:04 - 1:07og for at snakke om, hvordan vi
forbedre den offentlige debat. -
1:08 - 1:10Få år efter angrebene d. 11. september
-
1:10 - 1:13arbejdede jeg for CIA i Kenya,
hvor vi førte -
1:13 - 1:15en "hearts and minds"-kampagner
-
1:15 - 1:17langs Somalias grænse.
-
1:17 - 1:21En stor del af mit job var at
opbygge tillid med de samfund, -
1:21 - 1:23der var mest sårbare
for ekstremisterne idéer. -
1:24 - 1:28Jeg drak te med anti-vestlige gejstlige
-
1:28 - 1:32og var endda i dialog med nogle
terrormistænkte. -
1:32 - 1:35Mange af disse interaktioner
begyndte med fælles mistillid, -
1:35 - 1:39men ingen førte til råben
eller fornærmelser, -
1:39 - 1:43og i nogle tilfælde samarbejdede
vi endda på grund af delte interesser. -
1:44 - 1:48Vores mest magtfulde redskaber
var at lytte, lære -
1:48 - 1:50og opbygge empati.
-
1:50 - 1:53Det er sådan "hearts and minds"
fungerer, -
1:53 - 1:56for jeg så ofte, at folk basalt set ønsker
-
1:56 - 2:00at blive hørt, bekræftet
og respekteret. -
2:00 - 2:03Og jeg tror, de fleste af os ønsker dette.
-
2:03 - 2:06Så hvad der nu sker online,
er særligt sørgeligt og -
2:06 - 2:08et meget større problem.
-
2:09 - 2:13Vi bliver manipuleret af det nuværende
informationsøkosystem, -
2:13 - 2:16der skubber mange af os mod
ekstremisme, -
2:16 - 2:19at "kompromis" er blevet et bandeord.
-
2:20 - 2:21Fordi lige nu,
-
2:21 - 2:23tjener sociale medier som Facebook
-
2:23 - 2:27penge på at dele os og give os
personliggjort indhold, -
2:27 - 2:31der både bekræfter og udnytter
vores fordomme. -
2:31 - 2:34De går efter at vække stærke følelser
-
2:34 - 2:36for at holde os engageret,
-
2:36 - 2:40hvilket ofte giver luft til de mest
ekstreme og polariserende meninger, -
2:40 - 2:45så det ikke længere synes muligt
at kunne enes. -
2:45 - 2:49Og selvom flere og flere ønsker,
at platformene skal ændres, -
2:49 - 2:52så gør de det tydeligvis ikke af sig selv.
-
2:52 - 2:55Så regeringer må definere ansvaret
-
2:55 - 2:59for de virkelige skader
dette forårsager, -
2:59 - 3:02og sørge for, at den skadende
indflydelse det har -
3:02 - 3:07på vores helbred, folkestemning
og demokrati får konsekvenser. -
3:07 - 3:12Dette sker uheldigvis ikke før
det amerikanske præsidentvalg, -
3:12 - 3:15så jeg vil fortsat advare folk,
-
3:15 - 3:18for selv hvis vi en dag
får strengere regler, -
3:18 - 3:20er der brug for os alle,
når det skal løses. -
3:21 - 3:24Da mit fokus skiftede fra
udenlandske trusler -
3:24 - 3:26til den ødelæggende tone herhjemme,
-
3:26 - 3:30overvejede jeg, om vi kunne
bruge "hearts and minds"-kampagner -
3:30 - 3:32til at hele vores forskelle.
-
3:32 - 3:36Vores 200 år lange
demokratieksperiment -
3:36 - 3:40virker til dels,
fordi vi åbent og lidenskabeligt -
3:40 - 3:43kan debattere vores idéer og
finde de bedste løsninger. -
3:43 - 3:45Selvom jeg stadig tror på
-
3:45 - 3:47ansigt-til-ansigt debatters magt,
-
3:47 - 3:49kan de ikke konkurrere
-
3:49 - 3:53med sociale mediers udbredelse
og polariserende betydning lige nu. -
3:53 - 3:55Folk, der bliver suget ned
i disse raserigrave -
3:55 - 3:56på sociale medier,
-
3:56 - 4:00har ofte sværere ved at bryde
med deres ideologiske tankegang -
4:00 - 4:03end det var for de sårbare samfund,
som jeg arbejdede med. -
4:04 - 4:06Så da Facebook kontaktede mig i 2018
-
4:06 - 4:07og tilbød mig et job,
-
4:07 - 4:11som leder for deres integritetstiltag
i forbindelse med politiske valgreklamer, -
4:11 - 4:13følte jeg en pligt til at sige ja.
-
4:13 - 4:16Jeg vidste, at jeg ikke kunne løse alt,
-
4:16 - 4:18men når jeg fik muligheden
-
4:18 - 4:20for at sætte en bedre kurs,
-
4:20 - 4:21burde jeg i det mindste prøve.
-
4:23 - 4:25Jeg arbejdede ikke direkte
med polarisering, -
4:25 - 4:29men så på de mest splittende emner,
-
4:29 - 4:33og hvordan de bedst kunne bruges
til at påvirke valg, -
4:33 - 4:36som russerne gjorde i 2016.
-
4:37 - 4:39Jeg begyndte at stille spørgsmål.
-
4:39 - 4:42Jeg ville forstå systemets
grundlæggende fejl, -
4:42 - 4:44der tillod dette,
-
4:44 - 4:46for derved at finde en løsning.
-
4:48 - 4:50Jeg tror stadig på internettets magt
-
4:50 - 4:53til at give alle folk en stemme,
-
4:53 - 4:56men selvom de største
sociale medier påstår, -
4:56 - 4:59at bringe folk sammen, så forhindrer
deres nuværende opbygning -
4:59 - 5:03en fornuftig debat.
-
5:03 - 5:05Man kan ikke belønne, at folk lytter,
-
5:05 - 5:07opfordre til venlig debat
-
5:07 - 5:11og eller beskytte folk, der ønsker
at stille spørgsmål, -
5:11 - 5:14når branchens opskrift på succes
er at øge folks deltagelse -
5:14 - 5:17og få flere brugere.
-
5:17 - 5:21Der opfordres ikke til at hjælpe
folk med at tage det roligt, -
5:21 - 5:24til at skabe et miljø, hvor folk
er nødt til at stoppe op, -
5:24 - 5:27evaluere deres følelsesmæssige
reaktion på et emne -
5:27 - 5:29og se på deres egne antagelser,
før de debatterer. -
5:31 - 5:33Den ulykkelige onlinevirkelighed er,
-
5:33 - 5:36at løgne er mere interessante
end sandheden, -
5:36 - 5:39og en verden, der er besat
af viral spænding, -
5:39 - 5:42elsker slibrige emner mere end
kedelig og faktabaseret tankegang. -
5:43 - 5:47Så længe algoritmerne
skal fordre vores deltagelse -
5:47 - 5:51vil de fortsat appellere
til vores værste instinkter -
5:51 - 5:52og menneskelige svagheder.
-
5:53 - 5:56USA har ført oplevet
-
5:56 - 5:58vrede, mistillid,
-
5:58 - 6:01frygtkultur og had,
-
6:01 - 6:04men sociale medier har de
sidste par år udnyttet disse, -
6:04 - 6:08og derved gjort dem værre.
-
6:08 - 6:10Facebook ved det godt.
-
6:10 - 6:12En ny artikel fra "Wall Street Journal"
-
6:12 - 6:16afslørede en intern
Facebook-præsentation fra 2018, -
6:16 - 6:20der beskylder firmaets
egne algoritmer -
6:20 - 6:23for at øge antallet af
ekstremistiske grupper på Facebook -
6:23 - 6:26og for at polarise deres brugere.
-
6:27 - 6:30Men de tjener penge på
at holde os engagerede. -
6:30 - 6:35Det moderne informationsmiljø
profilerer os for derefter -
6:35 - 6:38at inddele os i mere og mere
snævre kategorier -
6:38 - 6:41for at afkode vores personlighed.
-
6:41 - 6:45Vi bliver derefter fodret med information,
der bekræfter vores meninger, -
6:45 - 6:47styrker vores fordomme
-
6:47 - 6:50og viser os,
at vi hører til et sted. -
6:50 - 6:54Terrorister bruger den samme teknik,
-
6:54 - 6:56når de rekrutterer sårbare unge,
-
6:56 - 7:00dog på mindre og mere tilpassede
måder før sociale medier, -
7:00 - 7:03med det endelig mål at
ændre deres opførsel. -
7:03 - 7:08Desværre gav Facebook mig ikke lov
til at gøre en egentlig forskel. -
7:08 - 7:12Allerede på min anden dag blev
min titel og jobbeskrivelse ændret, -
7:12 - 7:15og jeg kom ikke med til møder,
hvor man tog beslutninger. -
7:15 - 7:16Mine anstrengelser
-
7:16 - 7:18med at lægge planer,
-
7:18 - 7:21der bekæmpede misinformation og
vælgerundertrykkelse i politiske reklamer -
7:22 - 7:23blev afvist.
-
7:23 - 7:26Så jeg holdt kun i knap seks måneder.
-
7:26 - 7:30Men jeg lærte noget vigtigt
i den tid: -
7:30 - 7:32Der er tusindvis af folk hos Facebook,
-
7:32 - 7:34der ønsker at arbejde med et produkt,
-
7:34 - 7:38som de oprigtigt tror gør verden bedre,
-
7:38 - 7:42men så længe firmaet
knap nok berører -
7:42 - 7:44regler om indhold og mådehold,
-
7:44 - 7:46fremfor at se på,
-
7:46 - 7:49hvordan hele maskinen
er baseret på indtjening, -
7:49 - 7:52vil de aldrig kunne forhindre,
at Facebook skaber -
7:52 - 7:57had, splittelse og radikalisering.
-
7:57 - 8:01Og det blev aldrig berørt,
mens jeg arbejdede der, -
8:01 - 8:04for det ville kræve,
at du accepterer, -
8:04 - 8:08at det du har opbygget,
måske ikke er til samfundets bedste, -
8:08 - 8:11og accepterer at ændre hele produktet og
indtjeningsmodellen. -
8:12 - 8:14Så hvad kan vi gøre?
-
8:15 - 8:19Jeg siger ikke, at sociale medier
bærer al skylden -
8:19 - 8:21for vores nuværende situation.
-
8:21 - 8:26Vi har tydeligvis dybe problemer
i samfundet, som vi skal løse. -
8:26 - 8:30Men når Facebook siger, at de
blot er samfundets spejl, -
8:30 - 8:33forsøger de at undgå at tage ansvar
-
8:34 - 8:38for den måde, deres platform
forstærker skadeligt indhold, -
8:38 - 8:41og skubber brugere mod ekstremisme.
-
8:42 - 8:44Facebook kunne løse noget af dette,
-
8:44 - 8:46hvis de ville.
-
8:46 - 8:50De kunne stoppe med at fremme
konspirationsteoretikere, -
8:50 - 8:53hadgrupper, spredning af misinformation
-
8:53 - 8:57og ja, nogle gange endda vores præsident.
-
8:57 - 9:00De kunne stoppe med at bruge de
samme profilereringsteknikker -
9:00 - 9:04til at leve politik, som når de
sælger os sko. -
9:04 - 9:06De kunne ændre deres algoritmer
-
9:06 - 9:08så de fokuserer på andet end deltagelse,
-
9:08 - 9:13og opsætte barrierer, der forhindrer
visse former for indhold, -
9:13 - 9:14at blive vist uden gennemgang.
-
9:15 - 9:17Og alt dette kan gøres uden
-
9:17 - 9:21at de bliver, i deres egne ord,
dommere over sandheden. -
9:21 - 9:24Men de har vist, at de ikke
ønsker at gå langt nok -
9:24 - 9:27for at gøre det rigtige uden tvang,
-
9:27 - 9:30og ærlig talt, hvorfor skulle de?
-
9:30 - 9:34Markederne belønner dem fortsat,
og de bryder ikke loven. -
9:34 - 9:35For i øjeblikket
-
9:35 - 9:40har USA ingen love, der tvinger
Facebook eller andre sociale medier -
9:40 - 9:42til at beskytte vores folkestemning,
-
9:42 - 9:43vores demokrati
-
9:43 - 9:46og endda vores valg.
-
9:46 - 9:50Vi lader CEOs fra
indtjenende internetfirmaer bestemme, -
9:50 - 9:53hvilker regler, der skal laves,
og hvilke, der skal håndhæves. -
9:54 - 9:56Er det, hvad vi ønsker?
-
9:56 - 9:59En postfaktuel verden,
hvor giftig tale og stammekultur -
9:59 - 10:02slår forsøg på samarbejde og
opnåelse af konsensus? -
10:03 - 10:07Jeg forbliver optimistisk og tror,
at vi har mere tilfælles -
10:07 - 10:10end hvad nutidens mediebillede
og onlinemiljø påstår, -
10:10 - 10:14og jeg tror, at en mere
perspektiveret tilgang -
10:14 - 10:17giver et mere robust og
inkluderende demokrati. -
10:17 - 10:20Men ikke som det sker lige nu.
-
10:20 - 10:24Jeg ønsker ikke,
at slippe af med disse firmaer. -
10:24 - 10:28Jeg ønsker, at de skal holdes ansvarlige,
-
10:28 - 10:29ligesom resten af samfundet.
-
10:31 - 10:35Vores regeringer bør komme
ind i kampen -
10:35 - 10:37og beskytte vores borgere.
-
10:37 - 10:40Og selvom der ikke er en magisk lov,
-
10:40 - 10:41der kan løse det hele,
-
10:41 - 10:46så kan og må regeringer
finde balancen -
10:46 - 10:48mellem at beskytte ytringsfriheden
-
10:48 - 10:52og holde disse firmaer ansvarlige for
deres påvirking af samfundet. -
10:52 - 10:57De kunne kræve åbenhed omkring,
-
10:57 - 11:00hvordan anbefalingerne
foretages online, -
11:00 - 11:05og hvordan der organiseres,
fremmes og målrettes. -
11:05 - 11:07Jeg vil holde disse firmaer ansvarlige,
-
11:07 - 11:10ikke for individer, der poster
falske oplysninger, -
11:10 - 11:12eller ekstrem retorik,
-
11:12 - 11:15men for hvordan deres anbefalinger
spreder det, -
11:16 - 11:19hvordan deres algoritmer fører
folk mod det -
11:19 - 11:22og hvordan deres værktøjer bruges
til at målrette det efter folk. -
11:23 - 11:27Jeg prøvede at ændre Facebook indefra
men det slog fejl, -
11:27 - 11:30så de sidste par år
har jeg i stedet brugt min stemme -
11:30 - 11:33til advare folk om denne fare,
-
11:33 - 11:37og forhåbentlig opfordre flere folk
til at forlange ansvarlighed. -
11:37 - 11:40Min besked til jer er simpel:
-
11:40 - 11:42Pres jeres politikere til at stoppe
-
11:42 - 11:47overdragelsen af folkestemningen
til indtjenende firmaer. -
11:47 - 11:49Fortæl venner og familie om,
-
11:49 - 11:52hvordan de bliver manipuleret online.
-
11:52 - 11:56Tving jer selv til at tale med folk,
der ikke deler jeres mening. -
11:56 - 11:59Gør dette til en prioritet.
-
11:59 - 12:02Vi har brug for hele samfundet
for at løse dette. -
12:03 - 12:09Og min besked til mine tidligere chefer
hos Facebook er: -
12:09 - 12:15Lige nu bruger folk jeres værktøjer
som de var designet, -
12:15 - 12:17altså til at sprede had, splittelse
og mistillid, -
12:17 - 12:21og I ikke kun tillader det, men
gør det nemmere. -
12:21 - 12:24Og ja, der er mange gode historier
-
12:24 - 12:28med positive ting, der sker på jeres
platform rundt om i verden, -
12:28 - 12:31men det gør ikke dette OK.
-
12:31 - 12:34Og det bliver kun værre, da vi
er på vej til vores næste valg, -
12:34 - 12:36og endnu mere bekymrende,
-
12:36 - 12:38når vi ser på vores største
potentielle krise, -
12:38 - 12:42hvor mistillid til resultaterne
kan ende med vold. -
12:42 - 12:47Så når I igen i 2021 siger
"Vi ved, vi skal blive bedre", -
12:47 - 12:50så vil jeg have jer til at huske dette
øjeblik, -
12:50 - 12:53for det er ikke længere kun nogle
få stemmer på sidelinjen. -
12:53 - 12:56Menneskerettighedsforekæmpere,
akademikere, -
12:56 - 12:59journalister, reklamefolk og
jeres egne medarbejdere -
12:59 - 13:01advarer højt og larmende om,
-
13:01 - 13:03at jeres politikker og forretningsmodeller
-
13:03 - 13:06skader folk og demokratiet.
-
13:07 - 13:09I er ansvarlige for jeres beslutninger,
-
13:09 - 13:13men I kan ikke længere sige,
at I ikke vidste, det ville ske. -
13:14 - 13:15Tak.
- Title:
- Facebook, du ødelægger vores demokrati.
- Speaker:
- Yaël Eisenstat
- Description:
-
"Løgne er mere spændende online end sandheden" siger en tidligere CIA-analytiker, diplomat og Facebook-ansat, Yaël Eisenstat. "Så længe [social media] algoritmernes mål er at holde os engagerede, vil de give os gift, der går efter vores værste instinkter og menneskelige svagheder." I dette modige foredrag gennemgår Eisenstat hvordan sociale medier som Facebook bruger provokerende indhold, hvilket fører til en kultur med politisk polarisering og mangel på tillid -- og opfordrer regeringer til at holde platformene ansvarlige for at beskytte den almene diskurs og demokratiet.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
Anders Finn Jørgensen approved Danish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Emma Toft accepted Danish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Emma Toft edited Danish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Ditte Christensen edited Danish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Ditte Christensen edited Danish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Ditte Christensen edited Danish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Ditte Christensen edited Danish subtitles for Dear Facebook, this is how you're breaking democracy | ||
Ditte Christensen edited Danish subtitles for Dear Facebook, this is how you're breaking democracy |