Return to Video

Facebook Whistleblower Frances Haugen: The 60 Minutes Interview

  • 0:02 - 0:05
    Numele ei este Frances Haugen.
  • 0:05 - 0:08
    Acesta este un lucru pe care Facebook
    ardea de nerăbdare să-l știe
  • 0:08 - 0:13
    de luna trecută, când o fostă angajată
    anonimă a făcut o serie de plângeri
  • 0:13 - 0:15
    către autoritățile legale federale.
  • 0:15 - 0:19
    Plângerile susțin că cercetările interne
    ale Facebook arată că platforma
  • 0:19 - 0:23
    amplifică ura, dezinformarea
    și revolta politică,
  • 0:23 - 0:26
    dar compania ascunde ceea ce știe.
  • 0:26 - 0:31
    O plângere susține că Instagram
    dăunează fetelor tinere.
  • 0:31 - 0:35
    Lucrul ieșit din comun
    în ce privește aceste plângeri
  • 0:35 - 0:39
    este mulțimea de cercetări private
    ale Facebook pe care le-a luat
  • 0:39 - 0:40
    atunci când a demisionat, în luna mai.
  • 0:41 - 0:44
    Documentele au apărut prima oară
    luna trecută în Wall Street Journal,
  • 0:44 - 0:49
    dar în această seară, Frances Haugen
    își dezvăluie identitatea pentru a explica
  • 0:49 - 0:53
    de ce a devenit denunțătoarea Facebook.
  • 0:59 - 1:04
    Lucrul pe care l-am văzut la Facebook
    peste tot a fost conflictul de interese
  • 1:04 - 1:09
    între ce era bun pentru public
    și ce era bun pentru Facebook.
  • 1:09 - 1:12
    Iar Facebook mereu a ales
    să optimizeze pentru propriul interes,
  • 1:12 - 1:14
    adică acela de a face mai mulți bani.
  • 1:14 - 1:18
    Frances Haugen are 37 de ani,
    este un cercetător de date din Iowa,
  • 1:18 - 1:21
    licențiată în ingineria calculatoarelor
  • 1:21 - 1:23
    și deținând un master în afaceri
    la Harvard.
  • 1:24 - 1:29
    Timp de 15 ani a lucrat la companii
    precum Google și Pinterest.
  • 1:29 - 1:31
    Am văzut o seamă de rețele sociale
  • 1:31 - 1:34
    însă la Facebook e cu mult mai rău
    decât ce-am văzut înainte.
  • 1:34 - 1:37
    Altcineva și-ar fi dat demisia
    și ar fi mers înainte.
  • 1:37 - 1:39
    Și mă întreb ce te face să iei atitudine.
  • 1:39 - 1:43
    Imaginează-ți că știi
    ce se-ntâmplă la Facebook
  • 1:43 - 1:45
    și știi că nimeni din exterior
    n-are habar.
  • 1:45 - 1:49
    Știam cum ar fi arătat viitorul meu
    dacă aș fi ales să rămân la Facebook.
  • 1:49 - 1:53
    Mulți oameni, unii după alții,
    au abordat problema înăuntrul Facebook
  • 1:53 - 1:56
    și-au ajuns legați
    de mâini și de picioare.
  • 1:56 - 2:00
    Când și cum ți-a venit ideea să scoți
    toate aceste documente din companie?
  • 2:00 - 2:06
    La un moment dat în 2021 am realizat:
    Ok, trebuie să fac asta sistematic.
  • 2:06 - 2:09
    Trebuie să scot suficiente documente
    astfel ca nimeni să nu poată
  • 2:09 - 2:11
    pune la îndoială că e real.
  • 2:11 - 2:18
    În secret, a copiat zeci de mii de pagini
    de cercetări interne ale Facebook.
  • 2:18 - 2:23
    Ea zice că dovezile arată că compania
    minte publicul când susține că
  • 2:23 - 2:27
    face progrese împotriva urii, violenței
    și dezinformării.
  • 2:27 - 2:31
    Un studiu găsit de ea, din acest an, zice:
  • 2:31 - 2:37
    "... estimăm că acționăm în ce privește
    maxim 3-5% din ură
  • 2:37 - 2:42
    și cca 0.6% din violență și incitare
    pe Facebook,
  • 2:42 - 2:45
    deși suntem cei mai buni din lume."
  • 2:45 - 2:49
    Ca să citez dintr-un alt document
    pe care l-ați scos la lumină:
  • 2:49 - 2:54
    "Avem dovezi dintr-o varietate de surse
    că discursul de ură,
  • 2:54 - 2:58
    discursul politic divizator
    și dezinformarea pe Facebook
  • 2:58 - 3:04
    și familia sa de aplicații, afectează
    societățile din jurul lumii."
  • 3:04 - 3:08
    Când trăim într-un mediu informațional
    saturat de conținut polarizant,
  • 3:08 - 3:12
    plin de mânie și ură,
    acesta erodează încrederea noastră civică,
  • 3:12 - 3:14
    erodează încrederea dintre noi,
  • 3:14 - 3:18
    erodează dorința de a ne păsa
    unii de alții
  • 3:18 - 3:23
    Versiunea Facebook care există azi
    ne distruge societățile
  • 3:23 - 3:25
    și produce violențe inter-etnice
    în toată lumea.
  • 3:25 - 3:31
    Violență etnică inclusiv în Myanmar
    în 2018, când armata a folosit Facebook
  • 3:31 - 3:33
    pentru a lansa un genocid.
  • 3:35 - 3:40
    Frances Haugen ne-a spus
    că a fost recrutată de Facebook în 2019.
  • 3:40 - 3:46
    Spune că a fost de acord să se angajeze
    doar dacă putea lucra contra dezinformării
  • 3:46 - 3:51
    deoarece pierduse un prieten din cauza
    teoriilor conspiraționiste.
  • 3:51 - 3:54
    Am vrut ca nimeni să nu simtă durerea
    pe care am simțit-o eu.
  • 3:54 - 4:00
    Și am văzut ce mare era miza asigurării
    unui conținut de calitate pe Facebook.
  • 4:00 - 4:04
    La sediul central, a fost repartizată la
    "Integritatea civică",
  • 4:04 - 4:08
    care se ocupa cu riscuri în privința
    alegerilor, inclusiv dezinformarea.
  • 4:09 - 4:12
    Dar după ultimele alegeri,
    a avut loc un punct de cotitură.
  • 4:12 - 4:16
    Ne-au spus că dizolvă
    "Integritatea civică".
  • 4:16 - 4:20
    Practic au zis: "Am trecut de alegeri,
    n-au fost revolte,
  • 4:20 - 4:22
    acum putem scăpa
    de "Integritatea civică"."
  • 4:22 - 4:25
    După câteva luni, am avut Insurecția.
  • 4:25 - 4:29
    Iar când au renunțat
    la "Integritatea civică",
  • 4:29 - 4:34
    atunci mi-am zis: n-am încredere
    că chiar vor să investească
  • 4:34 - 4:38
    ce trebuie investit ca să facă
    ca Facebook să nu fie periculos.
  • 4:38 - 4:43
    Facebook zice că sarcinile
    "Integrității civice" au fost distribuite
  • 4:43 - 4:45
    la alte departamente.
  • 4:45 - 4:49
    Haugen ne-a dezvăluit
    că rădăcina problemelor Facebook-ului
  • 4:49 - 4:53
    rezidă într-o schimbare a algoritmilor,
    pe care a operat-o în 2018.
  • 4:53 - 4:58
    E vorba de codul care determină
    ce vedeți pe fluxul de știri.
  • 4:58 - 5:04
    Deci, ai telefonul. Tu poate vezi
    doar 100 de bucăți de conținut,
  • 5:04 - 5:06
    dacă stai și derulezi 5 minute.
  • 5:06 - 5:10
    Dar Facebook are mii de variante
    pe care ți le poate afișa.
  • 5:10 - 5:14
    Algoritmul alege din acele variante,
    bazându-se pe conținutul
  • 5:14 - 5:18
    cu care ai interacționat cel mai mult
    în trecut.
  • 5:18 - 5:22
    Una din consecințele ale felului
    în care Facebook alege conținutul azi
  • 5:22 - 5:27
    este că optimizează pentru conținut
    care atrage interacțiunea, reacția.
  • 5:27 - 5:32
    Dar propria lor cercetare arată
    că conținutul de ură, de segregare,
  • 5:32 - 5:34
    care polarizează...
  • 5:34 - 5:38
    Este mai ușor să inspiri oamenilor ură
    decât oricare alte emoții.
  • 5:38 - 5:42
    Dezinformare, conținut plin de mânie,
    este atrăgător pentru oameni...
  • 5:42 - 5:43
    Foarte atrăgător...
  • 5:43 - 5:46
    Îi ține pe platforma lor.
  • 5:46 - 5:48
    Da. Facebook a realizat că
  • 5:48 - 5:52
    dacă schimbă algoritmii
    pentru a afișa conținut mai sănătos,
  • 5:52 - 5:55
    oamenii vor sta mai puțin timp pe site,
    vor accesa mai puține reclame,
  • 5:55 - 5:57
    iar ei vor produce mai puțini bani.
  • 5:57 - 6:01
    Haugen zice că Facebook a înțeles
    pericolul pentru alegerile din 2020,
  • 6:01 - 6:06
    și a activat măsurile de siguranță
    pentru a reduce dezinformarea.
  • 6:06 - 6:10
    Dar multe din acele schimbări, zice ea,
    au fost doar temporare.
  • 6:10 - 6:12
    Imediat ce alegerile s-au încheiat,
    le-au oprit la loc.
  • 6:12 - 6:16
    Au schimbat algoritmii la versiunea
    dinainte, ca să prioritizeze
  • 6:16 - 6:18
    creșterea accesărilor față de siguranță,
  • 6:18 - 6:20
    iar asta mi se pare că e cu adevărat
    o trădare a democrației.
  • 6:21 - 6:24
    Facebook zice că o parte din măsurile
    de siguranță au rămas.
  • 6:24 - 6:29
    Dar după alegeri, Facebook a fost folosit
    de unii ca să organizeze
  • 6:29 - 6:32
    insurecția din 6 ianuarie.
  • 6:32 - 6:38
    Procurorii citează postări de pe Facebook
    ca dovezi: poze de partizani înarmați
  • 6:38 - 6:42
    și texte, inclusiv:
    "Prin glonț sau buletin de vot,
  • 6:42 - 6:44
    restaurarea Republicii sosește."
  • 6:44 - 6:50
    Extremiștii au folosit multe platforme,
    dar Facebook este o temă recurentă.
  • 6:50 - 6:56
    După atac, angajații Facebook
    s-au dezlănțuit pe o listă de mesaje
  • 6:56 - 6:58
    internă, copiată de Haugen.
  • 6:58 - 7:02
    "... n-am avut destul timp să găsim un mod
    de a administra discursul
  • 7:02 - 7:04
    fără să permitem violența?"
  • 7:04 - 7:08
    Am căutat comentarii pozitive
    și l-am găsit pe acesta:
  • 7:08 - 7:13
    "Nu cred că echipa de conducere
    ignoră datele, ignoră părerile diferite,
  • 7:13 - 7:15
    ignoră adevărul..."
  • 7:15 - 7:17
    Dar acest mesaj a generat
    următorul răspuns:
  • 7:17 - 7:19
    "Bine ai venit la Facebook!
  • 7:19 - 7:25
    Văd că ești angajat din nov. 2020...
    noi tot urmărim, de mulți ani,
  • 7:25 - 7:28
    acțiunile oscilante ale conducerii
    companiei."
  • 7:28 - 7:32
    "... colegi... nu pot lucra
    cu bună credință pentru o companie
  • 7:32 - 7:36
    care nu face tot ce poate să reducă
    efectele negative ale propriei platforme."
  • 7:36 - 7:41
    Facebook, practic, amplifică ce mai rău
    în natura umană.
  • 7:41 - 7:44
    Este una dintre consecințele nefericite.
  • 7:44 - 7:48
    Nimeni la Facebook nu este rău
    intenționat, dar motivațiile sunt strâmbe.
  • 7:48 - 7:53
    Facebook produce mai mulți bani
    atunci când tu consumi mai mult conținut.
  • 7:53 - 7:57
    Oamenilor le place interacțiunea cu lucuri
    care solicită o reacție emoțională,
  • 7:57 - 8:01
    iar cu cât sunt expuși la mai multă ură,
    cu atât mai mult interacționează,
  • 8:01 - 8:02
    și cu atât mai mult consumă.
  • 8:02 - 8:06
    Această dinamică a dus la o plângere
  • 8:06 - 8:09
    la Facebook a unor
    mari partide politice din Europa.
  • 8:09 - 8:14
    Acest raport intern din 2019 obținut
    de Haugen, zice că partidele
  • 8:14 - 8:20
    "simt că schimbările algoritmilor
    i-a forțat să fie mai negativi
  • 8:20 - 8:24
    în comunicările de pe Facebook...
    făcându-i să ia mai multe
  • 8:24 - 8:27
    poziții de politică extremă."
  • 8:27 - 8:30
    Partidele politice europene
    ziceau practic către Facebook:
  • 8:30 - 8:34
    Modul în care ați scris algoritmii
    schimbă modul
  • 8:34 - 8:36
    în care ne conducem țările.
  • 8:36 - 8:39
    Da, ne faceți să avem poziții
    care nu ne plac,
  • 8:39 - 8:42
    despre care știm că
    nu sunt benefice societății.
  • 8:42 - 8:46
    Știm însă că dacă nu adoptăm
    aceste poziții, vom pierde
  • 8:46 - 8:48
    în "piața" mediei sociale.
  • 8:48 - 8:54
    Dovezi ale daunelor, zice ea,
    se extind și la aplicația Instagram.
  • 8:54 - 8:58
    Unul dintre studiile interne
    pe care le-ai găsit
  • 8:58 - 9:01
    vorbește despre cum Instagram
    face rău adolescentelor.
  • 9:01 - 9:02
    O, da.
  • 9:02 - 9:08
    Un studiu zice că 13.5% din adolescente
    zic că Instagram le înrăutățește
  • 9:08 - 9:10
    gândurile de sinucidere.
  • 9:10 - 9:15
    17% din adolescente zic că Instagram
    le agravează dereglarea alimentației.
  • 9:15 - 9:21
    Ce este super-tragic este că
    chiar cercetările Facebook zic
  • 9:21 - 9:24
    că pe măsură ce aceste tinere femei
    încep să consume acest conținut
  • 9:24 - 9:27
    despre alimentația defectuoasă,
    devin din ce în ce mai deprimate,
  • 9:27 - 9:30
    și de fapt le face să folosească
    și mai mult aplicația.
  • 9:30 - 9:34
    Și ajung astfel în acest cerc vicios
    în care își urăsc corpurile
  • 9:34 - 9:35
    din ce în ce mai mult.
  • 9:35 - 9:39
    Cercetarea proprie a Facebook zice
    că nu doar că Instagram
  • 9:39 - 9:43
    este rea pentru adolescenți,
    că le face rău adolescenților,
  • 9:43 - 9:47
    ci că este în mod clar mai rea
    decât alte forme de media socială.
  • 9:47 - 9:51
    Chiar săptămâna trecută, Facebook
    a anunțat că a amânat planurile
  • 9:51 - 9:55
    de creare a unui Instagram
    pentru copii mai mici.
  • 9:55 - 9:59
    Luna trecută, avocații lui Haugen
    au intentat cel puțin 8 plângeri
  • 9:59 - 10:02
    la Comisia Securității și Schimbului (SEC)
  • 10:02 - 10:05
    care pune în aplicare legea
    în piețele financiare.
  • 10:05 - 10:11
    Plângerile compară cercetarea internă
    cu imaginea publică a companiei.
  • 10:11 - 10:14
    Deseori, aceea a lui Mark Zuckerberg.
  • 10:14 - 10:18
    Aici, depunând mărturie de la distanță
    în fața Congresului, în martie:
  • 10:18 - 10:21
    "Am eliminat conținut care putea duce
    la pericol iminent în lumea reală,
  • 10:21 - 10:25
    am construit un program nemaivăzut
    de verificare prin corelare a faptelor...
  • 10:25 - 10:28
    Sistemul nu este perfect, dar este
    cea mai bună abordare pe care am găsit-o
  • 10:28 - 10:32
    pentru adresarea dezinformării,
    care respectă valorile țării noastre.
  • 10:32 - 10:37
    Unul dintre avocații lui Frances Haugen
    este John Tie,
  • 10:37 - 10:40
    fondatorul unui grup juridic
    din Washington numit
  • 10:40 - 10:41
    "Ajutorul denunțătorilor"
  • 10:41 - 10:45
    Care este cadrul teoretic legal
    din spatele plângerilor la SEC?
  • 10:45 - 10:48
    Ce legi susțineți
    că au fost încălcate?
  • 10:48 - 10:53
    Fiind companie tranzacționabilă public,
    Facebook este obligată
  • 10:53 - 10:58
    să nu-și mintă investitorii,
    nici să ascundă informații concrete de ei.
  • 10:58 - 11:02
    Deci SEC în mod regulat
    are acțiuni de aplicare a legii,
  • 11:02 - 11:06
    susținând că companii
    ca Facebook și altele
  • 11:06 - 11:09
    fac declarații materiale
    și informări false
  • 11:09 - 11:12
    care afectează negativ investitorii.
  • 11:12 - 11:14
    Unul dintre lucurile pe care Facebook
    le poate susține e că ea
  • 11:14 - 11:16
    a furat documentele companiei.
  • 11:16 - 11:20
    Actul Dodd-Frank, care are
    peste 10 ani deja,
  • 11:20 - 11:25
    a creat un "Birou al Denunțătorilor"
    înăuntrul SEC.
  • 11:25 - 11:27
    Una dintre prescipțiile legii zice că
  • 11:27 - 11:33
    nicio companie nu-și poate opri angajații
    să comunice cu SEC
  • 11:33 - 11:36
    și să împărtășească SEC
    documente interne ale corporației.
  • 11:36 - 11:39
    Am multă înțelegere față de Mark.
  • 11:39 - 11:42
    Mark nu a pornit să creeze
    o platformă a urii.
  • 11:42 - 11:47
    Dar a permis să se facă alegeri
    al căror efect colateral
  • 11:47 - 11:50
    este că conținutul polarizant,
    plin de ură,
  • 11:50 - 11:53
    este mai distribuit
    și are o acoperire mai mare.
  • 11:53 - 11:55
    Facebook a refuzat intervievarea,
  • 11:55 - 11:57
    dar într-o declarație scrisă
    trimisă emisiunii, zice:
  • 11:57 - 12:02
    "În fiecare zi echipa noastră
    trebuie să păstreze un echilibru
  • 12:02 - 12:05
    între protejarea dreptului a miliarde
    de oameni să se exprime deschis
  • 12:05 - 12:09
    și nevoia de a păstra platforma
    ca un loc sigur și pozitiv.
  • 12:09 - 12:12
    Continuăm să facem îmbunătățiri
    semnificative pentru a contra
  • 12:12 - 12:16
    răspândirea dezinformării
    și conținutului dăunător.
  • 12:16 - 12:20
    A sugera că încurajăm
    conținutul rău și nu facem nimic
  • 12:20 - 12:22
    pur și simplu nu e adevărat.
  • 12:22 - 12:25
    Dacă vreo cercetare ar fi găsit
    o soluție exactă
  • 12:25 - 12:28
    la aceste provocări complexe,
  • 12:28 - 12:31
    industria tehnologiei, guvernele
    și societatea
  • 12:31 - 12:34
    le-ar fi rezolvat de multă vreme."
  • 12:34 - 12:38
    Facebook este o companie
    de un trilion de dolari.
  • 12:38 - 12:43
    Având doar 17 ani,
    are 2.8 miliarde de utilizatori,
  • 12:43 - 12:48
    adică 60% din toți oamenii
    conectați la internet de pe Pământ.
  • 12:48 - 12:52
    Frances Haugen plănuiește
    să depună mărturie înaintea Congresului
  • 12:52 - 12:54
    săptămâna aceasta.
  • 12:54 - 12:57
    Ea consideră că guvernul federal
    ar trebui să impună reguli.
  • 12:57 - 13:01
    Facebook a demonstrat
    că nu poate acționa independent.
  • 13:01 - 13:05
    Facebook a arătat în mod repetat
    că alege profitul în dauna siguranței.
  • 13:05 - 13:09
    Renunță la dificultăți pentru profituri
    sacrificând siguranța noastră.
  • 13:09 - 13:13
    Sper ca acestea să fi avut un impact
    suficient de mare asupra lumii
  • 13:13 - 13:17
    ca aceasta să capete curaj și motivație
    astfel încât să acționeze
  • 13:17 - 13:19
    și să pună la punct acele reglementări.
  • 13:19 - 13:22
    Asta e speranța mea.
  • 13:22 - 13:26
    Traducerea: www.ChilieAthonita.ro
Title:
Facebook Whistleblower Frances Haugen: The 60 Minutes Interview
Description:

more » « less
Video Language:
English
Duration:
13:37

Romanian subtitles

Incomplete

Revisions