Return to Video

Facebook, du ødelægger vores demokrati.

  • 0:01 - 0:03
    Jeg opdagede for cirka fem år siden,
  • 0:03 - 0:05
    at jeg ikke længere kunne diskutere
  • 0:05 - 0:08
    med folk jeg var uenig med.
  • 0:09 - 0:13
    Det var mere skræmmende,
    at diskutere alvorlige emner
  • 0:13 - 0:15
    med mine landsmænd, end det var
  • 0:15 - 0:19
    at interagere med ekstremister i udlandet.
  • 0:20 - 0:23
    Det gjorde mig mere bitter og frustreret.
  • 0:23 - 0:25
    Og lige pludselig
  • 0:25 - 0:27
    skiftede hele mit fokus
  • 0:27 - 0:29
    fra globale sikkerhedstrusler
  • 0:29 - 0:34
    til at forstå den øgede polarisering
  • 0:34 - 0:36
    herhjemme.
  • 0:36 - 0:38
    Som en tidligere CIA-ansat og diplomat,
  • 0:38 - 0:41
    der har brugt år på at bekæmpe
    ekstremisme,
  • 0:41 - 0:45
    følte jeg, at dette var farligere
    for vores demokrati
  • 0:45 - 0:48
    end nogen fremmed fjende.
  • 0:48 - 0:50
    Så jeg dykkede ned i emnet
  • 0:50 - 0:51
    og begyndte at snakke om det,
  • 0:51 - 0:54
    hvilket fik mig hyret af Facebook
  • 0:54 - 0:57
    og i sidste ende bragte mig her,
  • 0:57 - 1:00
    for fortsat at advare jer om,
    hvordan disse platforme
  • 1:00 - 1:04
    manipulerer og radikaliserer
    mange af os,
  • 1:04 - 1:07
    og for at snakke om, hvordan vi
    forbedre den offentlige debat.
  • 1:08 - 1:10
    Få år efter angrebene d. 11. september
  • 1:10 - 1:13
    arbejdede jeg for CIA i Kenya,
    hvor vi førte
  • 1:13 - 1:15
    en "hearts and minds"-kampagner
  • 1:15 - 1:17
    langs Somalias grænse.
  • 1:17 - 1:21
    En stor del af mit job var at
    opbygge tillid med de samfund,
  • 1:21 - 1:23
    der var mest sårbare
    for ekstremisterne idéer.
  • 1:24 - 1:28
    Jeg drak te med anti-vestlige gejstlige
  • 1:28 - 1:32
    og var endda i dialog med nogle
    terrormistænkte.
  • 1:32 - 1:35
    Mange af disse interaktioner
    begyndte med fælles mistillid,
  • 1:35 - 1:39
    men ingen førte til råben
    eller fornærmelser,
  • 1:39 - 1:43
    og i nogle tilfælde samarbejdede
    vi endda på grund af delte interesser.
  • 1:44 - 1:48
    Vores mest magtfulde redskaber
    var at lytte, lære
  • 1:48 - 1:50
    og opbygge empati.
  • 1:50 - 1:53
    Det er sådan "hearts and minds"
    fungerer,
  • 1:53 - 1:56
    for jeg så ofte, at folk basalt set ønsker
  • 1:56 - 2:00
    at blive hørt, bekræftet
    og respekteret.
  • 2:00 - 2:03
    Og jeg tror, de fleste af os ønsker dette.
  • 2:03 - 2:06
    Så hvad der nu sker online,
    er særligt sørgeligt og
  • 2:06 - 2:08
    et meget større problem.
  • 2:09 - 2:13
    Vi bliver manipuleret af det nuværende
    informationsøkosystem,
  • 2:13 - 2:16
    der skubber mange af os mod
    ekstremisme,
  • 2:16 - 2:19
    at "kompromis" er blevet et bandeord.
  • 2:20 - 2:21
    Fordi lige nu,
  • 2:21 - 2:23
    tjener sociale medier som Facebook
  • 2:23 - 2:27
    penge på at dele os og give os
    personliggjort indhold,
  • 2:27 - 2:31
    der både bekræfter og udnytter
    vores fordomme.
  • 2:31 - 2:34
    De går efter at vække stærke følelser
  • 2:34 - 2:36
    for at holde os engageret,
  • 2:36 - 2:40
    hvilket ofte giver luft til de mest
    ekstreme og polariserende meninger,
  • 2:40 - 2:45
    så det ikke længere synes muligt
    at kunne enes.
  • 2:45 - 2:49
    Og selvom flere og flere ønsker,
    at platformene skal ændres,
  • 2:49 - 2:52
    så gør de det tydeligvis ikke af sig selv.
  • 2:52 - 2:55
    Så regeringer må definere ansvaret
  • 2:55 - 2:59
    for de virkelige skader
    dette forårsager,
  • 2:59 - 3:02
    og sørge for, at den skadende
    indflydelse det har
  • 3:02 - 3:07
    på vores helbred, folkestemning
    og demokrati får konsekvenser.
  • 3:07 - 3:12
    Dette sker uheldigvis ikke før
    det amerikanske præsidentvalg,
  • 3:12 - 3:15
    så jeg vil fortsat advare folk,
  • 3:15 - 3:18
    for selv hvis vi en dag
    får strengere regler,
  • 3:18 - 3:20
    er der brug for os alle,
    når det skal løses.
  • 3:21 - 3:24
    Da mit fokus skiftede fra
    udenlandske trusler
  • 3:24 - 3:26
    til den ødelæggende tone herhjemme,
  • 3:26 - 3:30
    overvejede jeg, om vi kunne
    bruge "hearts and minds"-kampagner
  • 3:30 - 3:32
    til at hele vores forskelle.
  • 3:32 - 3:36
    Vores 200 år lange
    demokratieksperiment
  • 3:36 - 3:40
    virker til dels,
    fordi vi åbent og lidenskabeligt
  • 3:40 - 3:43
    kan debattere vores idéer og
    finde de bedste løsninger.
  • 3:43 - 3:45
    Selvom jeg stadig tror på
  • 3:45 - 3:47
    ansigt-til-ansigt debatters magt,
  • 3:47 - 3:49
    kan de ikke konkurrere
  • 3:49 - 3:53
    med sociale mediers udbredelse
    og polariserende betydning lige nu.
  • 3:53 - 3:55
    Folk, der bliver suget ned
    i disse raserigrave
  • 3:55 - 3:56
    på sociale medier,
  • 3:56 - 4:00
    har ofte sværere ved at bryde
    med deres ideologiske tankegang
  • 4:00 - 4:03
    end det var for de sårbare samfund,
    som jeg arbejdede med.
  • 4:04 - 4:06
    Så da Facebook kontaktede mig i 2018
  • 4:06 - 4:07
    og tilbød mig et job,
  • 4:07 - 4:11
    som leder for deres integritetstiltag
    i forbindelse med politiske valgreklamer,
  • 4:11 - 4:13
    følte jeg en pligt til at sige ja.
  • 4:13 - 4:16
    Jeg vidste, at jeg ikke kunne løse alt,
  • 4:16 - 4:18
    men når jeg fik muligheden
  • 4:18 - 4:20
    for at sætte en bedre kurs,
  • 4:20 - 4:21
    burde jeg i det mindste prøve.
  • 4:23 - 4:25
    Jeg arbejdede ikke direkte
    med polarisering,
  • 4:25 - 4:29
    men så på de mest splittende emner,
  • 4:29 - 4:33
    og hvordan de bedst kunne bruges
    til at påvirke valg,
  • 4:33 - 4:36
    som russerne gjorde i 2016.
  • 4:37 - 4:39
    Jeg begyndte at stille spørgsmål.
  • 4:39 - 4:42
    Jeg ville forstå systemets
    grundlæggende fejl,
  • 4:42 - 4:44
    der tillod dette,
  • 4:44 - 4:46
    for derved at finde en løsning.
  • 4:48 - 4:50
    Jeg tror stadig på internettets magt
  • 4:50 - 4:53
    til at give alle folk en stemme,
  • 4:53 - 4:56
    men selvom de største
    sociale medier påstår,
  • 4:56 - 4:59
    at bringe folk sammen, så forhindrer
    deres nuværende opbygning
  • 4:59 - 5:03
    en fornuftig debat.
  • 5:03 - 5:05
    Man kan ikke belønne, at folk lytter,
  • 5:05 - 5:07
    opfordre til venlig debat
  • 5:07 - 5:11
    og eller beskytte folk, der ønsker
    at stille spørgsmål,
  • 5:11 - 5:14
    når branchens opskrift på succes
    er at øge folks deltagelse
  • 5:14 - 5:17
    og få flere brugere.
  • 5:17 - 5:21
    Der opfordres ikke til at hjælpe
    folk med at tage det roligt,
  • 5:21 - 5:24
    til at skabe et miljø, hvor folk
    er nødt til at stoppe op,
  • 5:24 - 5:27
    evaluere deres følelsesmæssige
    reaktion på et emne
  • 5:27 - 5:29
    og se på deres egne antagelser,
    før de debatterer.
  • 5:31 - 5:33
    Den ulykkelige onlinevirkelighed er,
  • 5:33 - 5:36
    at løgne er mere interessante
    end sandheden,
  • 5:36 - 5:39
    og en verden, der er besat
    af viral spænding,
  • 5:39 - 5:42
    elsker slibrige emner mere end
    kedelig og faktabaseret tankegang.
  • 5:43 - 5:47
    Så længe algoritmerne
    skal fordre vores deltagelse
  • 5:47 - 5:51
    vil de fortsat appellere
    til vores værste instinkter
  • 5:51 - 5:52
    og menneskelige svagheder.
  • 5:53 - 5:56
    USA har ført oplevet
  • 5:56 - 5:58
    vrede, mistillid,
  • 5:58 - 6:01
    frygtkultur og had,
  • 6:01 - 6:04
    men sociale medier har de
    sidste par år udnyttet disse,
  • 6:04 - 6:08
    og derved gjort dem værre.
  • 6:08 - 6:10
    Facebook ved det godt.
  • 6:10 - 6:12
    En ny artikel fra "Wall Street Journal"
  • 6:12 - 6:16
    afslørede en intern
    Facebook-præsentation fra 2018,
  • 6:16 - 6:20
    der beskylder firmaets
    egne algoritmer
  • 6:20 - 6:23
    for at øge antallet af
    ekstremistiske grupper på Facebook
  • 6:23 - 6:26
    og for at polarise deres brugere.
  • 6:27 - 6:30
    Men de tjener penge på
    at holde os engagerede.
  • 6:30 - 6:35
    Det moderne informationsmiljø
    profilerer os for derefter
  • 6:35 - 6:38
    at inddele os i mere og mere
    snævre kategorier
  • 6:38 - 6:41
    for at afkode vores personlighed.
  • 6:41 - 6:45
    Vi bliver derefter fodret med information,
    der bekræfter vores meninger,
  • 6:45 - 6:47
    styrker vores fordomme
  • 6:47 - 6:50
    og viser os,
    at vi hører til et sted.
  • 6:50 - 6:54
    Terrorister bruger den samme teknik,
  • 6:54 - 6:56
    når de rekrutterer sårbare unge,
  • 6:56 - 7:00
    dog på mindre og mere tilpassede
    måder før sociale medier,
  • 7:00 - 7:03
    med det endelig mål at
    ændre deres opførsel.
  • 7:03 - 7:08
    Desværre gav Facebook mig ikke lov
    til at gøre en egentlig forskel.
  • 7:08 - 7:12
    Allerede på min anden dag blev
    min titel og jobbeskrivelse ændret,
  • 7:12 - 7:15
    og jeg kom ikke med til møder,
    hvor man tog beslutninger.
  • 7:15 - 7:16
    Mine anstrengelser
  • 7:16 - 7:18
    med at lægge planer,
  • 7:18 - 7:21
    der bekæmpede misinformation og
    vælgerundertrykkelse i politiske reklamer
  • 7:22 - 7:23
    blev afvist.
  • 7:23 - 7:26
    Så jeg holdt kun i knap seks måneder.
  • 7:26 - 7:30
    Men jeg lærte noget vigtigt
    i den tid:
  • 7:30 - 7:32
    Der er tusindvis af folk hos Facebook,
  • 7:32 - 7:34
    der ønsker at arbejde med et produkt,
  • 7:34 - 7:38
    som de oprigtigt tror gør verden bedre,
  • 7:38 - 7:42
    men så længe firmaet
    knap nok berører
  • 7:42 - 7:44
    regler om indhold og mådehold,
  • 7:44 - 7:46
    fremfor at se på,
  • 7:46 - 7:49
    hvordan hele maskinen
    er baseret på indtjening,
  • 7:49 - 7:52
    vil de aldrig kunne forhindre,
    at Facebook skaber
  • 7:52 - 7:57
    had, splittelse og radikalisering.
  • 7:57 - 8:01
    Og det blev aldrig berørt,
    mens jeg arbejdede der,
  • 8:01 - 8:04
    for det ville kræve,
    at du accepterer,
  • 8:04 - 8:08
    at det du har opbygget,
    måske ikke er til samfundets bedste,
  • 8:08 - 8:11
    og accepterer at ændre hele produktet og
    indtjeningsmodellen.
  • 8:12 - 8:14
    Så hvad kan vi gøre?
  • 8:15 - 8:19
    Jeg siger ikke, at sociale medier
    bærer al skylden
  • 8:19 - 8:21
    for vores nuværende situation.
  • 8:21 - 8:26
    Vi har tydeligvis dybe problemer
    i samfundet, som vi skal løse.
  • 8:26 - 8:30
    Men når Facebook siger, at de
    blot er samfundets spejl,
  • 8:30 - 8:33
    forsøger de at undgå at tage ansvar
  • 8:34 - 8:38
    for den måde, deres platform
    forstærker skadeligt indhold,
  • 8:38 - 8:41
    og skubber brugere mod ekstremisme.
  • 8:42 - 8:44
    Facebook kunne løse noget af dette,
  • 8:44 - 8:46
    hvis de ville.
  • 8:46 - 8:50
    De kunne stoppe med at fremme
    konspirationsteoretikere,
  • 8:50 - 8:53
    hadgrupper, spredning af misinformation
  • 8:53 - 8:57
    og ja, nogle gange endda vores præsident.
  • 8:57 - 9:00
    De kunne stoppe med at bruge de
    samme profilereringsteknikker
  • 9:00 - 9:04
    til at leve politik, som når de
    sælger os sko.
  • 9:04 - 9:06
    De kunne ændre deres algoritmer
  • 9:06 - 9:08
    så de fokuserer på andet end deltagelse,
  • 9:08 - 9:13
    og opsætte barrierer, der forhindrer
    visse former for indhold,
  • 9:13 - 9:14
    at blive vist uden gennemgang.
  • 9:15 - 9:17
    Og alt dette kan gøres uden
  • 9:17 - 9:21
    at de bliver, i deres egne ord,
    dommere over sandheden.
  • 9:21 - 9:24
    Men de har vist, at de ikke
    ønsker at gå langt nok
  • 9:24 - 9:27
    for at gøre det rigtige uden tvang,
  • 9:27 - 9:30
    og ærlig talt, hvorfor skulle de?
  • 9:30 - 9:34
    Markederne belønner dem fortsat,
    og de bryder ikke loven.
  • 9:34 - 9:35
    For i øjeblikket
  • 9:35 - 9:40
    har USA ingen love, der tvinger
    Facebook eller andre sociale medier
  • 9:40 - 9:42
    til at beskytte vores folkestemning,
  • 9:42 - 9:43
    vores demokrati
  • 9:43 - 9:46
    og endda vores valg.
  • 9:46 - 9:50
    Vi lader CEOs fra
    indtjenende internetfirmaer bestemme,
  • 9:50 - 9:53
    hvilker regler, der skal laves,
    og hvilke, der skal håndhæves.
  • 9:54 - 9:56
    Er det, hvad vi ønsker?
  • 9:56 - 9:59
    En postfaktuel verden,
    hvor giftig tale og stammekultur
  • 9:59 - 10:02
    slår forsøg på samarbejde og
    opnåelse af konsensus?
  • 10:03 - 10:07
    Jeg forbliver optimistisk og tror,
    at vi har mere tilfælles
  • 10:07 - 10:10
    end hvad nutidens mediebillede
    og onlinemiljø påstår,
  • 10:10 - 10:14
    og jeg tror, at en mere
    perspektiveret tilgang
  • 10:14 - 10:17
    giver et mere robust og
    inkluderende demokrati.
  • 10:17 - 10:20
    Men ikke som det sker lige nu.
  • 10:20 - 10:24
    Jeg ønsker ikke,
    at slippe af med disse firmaer.
  • 10:24 - 10:28
    Jeg ønsker, at de skal holdes ansvarlige,
  • 10:28 - 10:29
    ligesom resten af samfundet.
  • 10:31 - 10:35
    Vores regeringer bør komme
    ind i kampen
  • 10:35 - 10:37
    og beskytte vores borgere.
  • 10:37 - 10:40
    Og selvom der ikke er en magisk lov,
  • 10:40 - 10:41
    der kan løse det hele,
  • 10:41 - 10:46
    så kan og må regeringer
    finde balancen
  • 10:46 - 10:48
    mellem at beskytte ytringsfriheden
  • 10:48 - 10:52
    og holde disse firmaer ansvarlige for
    deres påvirking af samfundet.
  • 10:52 - 10:57
    De kunne kræve åbenhed omkring,
  • 10:57 - 11:00
    hvordan anbefalingerne
    foretages online,
  • 11:00 - 11:05
    og hvordan der organiseres,
    fremmes og målrettes.
  • 11:05 - 11:07
    Jeg vil holde disse firmaer ansvarlige,
  • 11:07 - 11:10
    ikke for individer, der poster
    falske oplysninger,
  • 11:10 - 11:12
    eller ekstrem retorik,
  • 11:12 - 11:15
    men for hvordan deres anbefalinger
    spreder det,
  • 11:16 - 11:19
    hvordan deres algoritmer fører
    folk mod det
  • 11:19 - 11:22
    og hvordan deres værktøjer bruges
    til at målrette det efter folk.
  • 11:23 - 11:27
    Jeg prøvede at ændre Facebook indefra
    men det slog fejl,
  • 11:27 - 11:30
    så de sidste par år
    har jeg i stedet brugt min stemme
  • 11:30 - 11:33
    til advare folk om denne fare,
  • 11:33 - 11:37
    og forhåbentlig opfordre flere folk
    til at forlange ansvarlighed.
  • 11:37 - 11:40
    Min besked til jer er simpel:
  • 11:40 - 11:42
    Pres jeres politikere til at stoppe
  • 11:42 - 11:47
    overdragelsen af folkestemningen
    til indtjenende firmaer.
  • 11:47 - 11:49
    Fortæl venner og familie om,
  • 11:49 - 11:52
    hvordan de bliver manipuleret online.
  • 11:52 - 11:56
    Tving jer selv til at tale med folk,
    der ikke deler jeres mening.
  • 11:56 - 11:59
    Gør dette til en prioritet.
  • 11:59 - 12:02
    Vi har brug for hele samfundet
    for at løse dette.
  • 12:03 - 12:09
    Og min besked til mine tidligere chefer
    hos Facebook er:
  • 12:09 - 12:15
    Lige nu bruger folk jeres værktøjer
    som de var designet,
  • 12:15 - 12:17
    altså til at sprede had, splittelse
    og mistillid,
  • 12:17 - 12:21
    og I ikke kun tillader det, men
    gør det nemmere.
  • 12:21 - 12:24
    Og ja, der er mange gode historier
  • 12:24 - 12:28
    med positive ting, der sker på jeres
    platform rundt om i verden,
  • 12:28 - 12:31
    men det gør ikke dette OK.
  • 12:31 - 12:34
    Og det bliver kun værre, da vi
    er på vej til vores næste valg,
  • 12:34 - 12:36
    og endnu mere bekymrende,
  • 12:36 - 12:38
    når vi ser på vores største
    potentielle krise,
  • 12:38 - 12:42
    hvor mistillid til resultaterne
    kan ende med vold.
  • 12:42 - 12:47
    Så når I igen i 2021 siger
    "Vi ved, vi skal blive bedre",
  • 12:47 - 12:50
    så vil jeg have jer til at huske dette
    øjeblik,
  • 12:50 - 12:53
    for det er ikke længere kun nogle
    få stemmer på sidelinjen.
  • 12:53 - 12:56
    Menneskerettighedsforekæmpere,
    akademikere,
  • 12:56 - 12:59
    journalister, reklamefolk og
    jeres egne medarbejdere
  • 12:59 - 13:01
    advarer højt og larmende om,
  • 13:01 - 13:03
    at jeres politikker og forretningsmodeller
  • 13:03 - 13:06
    skader folk og demokratiet.
  • 13:07 - 13:09
    I er ansvarlige for jeres beslutninger,
  • 13:09 - 13:13
    men I kan ikke længere sige,
    at I ikke vidste, det ville ske.
  • 13:14 - 13:15
    Tak.
Title:
Facebook, du ødelægger vores demokrati.
Speaker:
Yaël Eisenstat
Description:

"Løgne er mere spændende online end sandheden" siger en tidligere CIA-analytiker, diplomat og Facebook-ansat, Yaël Eisenstat. "Så længe [social media] algoritmernes mål er at holde os engagerede, vil de give os gift, der går efter vores værste instinkter og menneskelige svagheder." I dette modige foredrag gennemgår Eisenstat hvordan sociale medier som Facebook bruger provokerende indhold, hvilket fører til en kultur med politisk polarisering og mangel på tillid -- og opfordrer regeringer til at holde platformene ansvarlige for at beskytte den almene diskurs og demokratiet.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Danish subtitles

Revisions