Return to Video

Dragă Facebook, în felul acesta încalci democrația

  • 0:01 - 0:03
    Cu vreo cinci ani în urmă,
  • 0:03 - 0:05
    mi-am dat seama
    că îmi pierdeam capacitatea
  • 0:05 - 0:08
    de a interacționa cu cei
    care nu gândesc ca mine.
  • 0:09 - 0:13
    Ideea de a dezbate subiecte sensibile
    cu colegii mei americani
  • 0:13 - 0:15
    începuse să îmi dea
    mai multe dureri de stomac
  • 0:15 - 0:19
    decât discuțiile cu presupușii extremiști
    de peste hotare.
  • 0:20 - 0:23
    Începuseră să-mi dea
    o senzație de ură și frustrare.
  • 0:23 - 0:25
    Așa că, brusc,
  • 0:25 - 0:27
    mi-am mutat toată atenția
  • 0:27 - 0:29
    de la amenințările la adresa
    securității naționale
  • 0:29 - 0:32
    la încercarea de a înțelege
    de unde venea acest impuls
  • 0:32 - 0:36
    spre o polarizare exagerată.
  • 0:36 - 0:38
    Ca fost ofițer CIA și diplomat
  • 0:38 - 0:41
    care a petrecut mulți ani
    în probleme de antiterorism,
  • 0:41 - 0:45
    mă temeam că acest lucru e o amenințare
    mult mai mare pentru democrație
  • 0:45 - 0:48
    decât orice adversar extern.
  • 0:48 - 0:50
    Așadar, am început să cercetez
  • 0:50 - 0:51
    și să-mi exprim părerea,
  • 0:51 - 0:54
    lucru care a dus
    la angajarea mea la Facebook
  • 0:54 - 0:57
    și în final m-a adus azi aici,
  • 0:57 - 1:00
    ca să vă avertizez despre faptul
    că aceste platforme
  • 1:00 - 1:04
    ne manipulează și radicalizează
    pe foarte mulți dintre noi,
  • 1:04 - 1:07
    și să vedem cum ne recâștigăm
    spațiul public.
  • 1:08 - 1:10
    Am fost diplomat în Kenya
  • 1:10 - 1:13
    la câțiva ani după atacurile
    din 11 septembrie,
  • 1:13 - 1:15
    și am condus așa numitele
    campanii „inimi și minți”
  • 1:15 - 1:17
    de-a lungul graniței cu Somalia.
  • 1:17 - 1:21
    O parte importantă era să consolidez
    încrederea în comunitățile
  • 1:21 - 1:23
    considerate cele mai expuse
    la mesaje extremiste.
  • 1:24 - 1:28
    Am petrecut ore întregi bând ceai
    cu clerici declarați antioccidentali
  • 1:28 - 1:32
    și chiar am stat de vorbă
    cu câțiva presupuși teroriști;
  • 1:32 - 1:35
    și deși multe dintre aceste întâlniri
    au început cu suspiciune reciprocă,
  • 1:35 - 1:39
    nu-mi amintesc să fi degenerat
    niciuna în strigăte și insulte,
  • 1:39 - 1:43
    iar în unele cazuri chiar am colaborat
    în domenii de interes reciproc.
  • 1:44 - 1:48
    Cele mai puternice instrumente
    sunt să ascultăm, să înțelegem
  • 1:48 - 1:50
    și să dezvoltăm empatie.
  • 1:50 - 1:53
    Aceasta e esența programului
    „inimi și minți”,
  • 1:53 - 1:56
    deoarece am descoperit în repetate rânduri
    că ceea ce își doresc oamenii
  • 1:56 - 2:00
    este să se simtă auziți,
    recunoscuți și respectați.
  • 2:00 - 2:03
    Și cred că asta ne dorim cu toții.
  • 2:03 - 2:06
    E dureros să văd ce se întâmplă
    azi în mediul online
  • 2:06 - 2:08
    și e o problemă mult mai greu de rezolvat.
  • 2:09 - 2:13
    Suntem manipulați de ecosistemul
    informațional actual,
  • 2:13 - 2:16
    care a încrâncenat pe mulți dintre noi
    în absolutism,
  • 2:16 - 2:19
    încât compromisul
    a devenit un cuvânt murdar.
  • 2:20 - 2:21
    Pentru că în acest moment,
  • 2:21 - 2:23
    rețelele sociale precum Facebook
  • 2:23 - 2:27
    profită de pe urma diviziunii noastre
    și ne furnizează conținut personalizat
  • 2:27 - 2:31
    care ne validează și în același timp
    ne exploatează prejudecățile.
  • 2:31 - 2:34
    Rezultatul lor final se bazează
    pe provocarea unei emoții puternice
  • 2:34 - 2:36
    care să ne țină conectați,
  • 2:36 - 2:40
    stimulând adesea vocile
    cele mai instigatoare și polarizante,
  • 2:40 - 2:45
    până când nu mai e posibilă
    găsirea unul numitor comun.
  • 2:45 - 2:49
    Și deși sunt multe voci
    care cer ca platformele să se schimbe,
  • 2:49 - 2:52
    e limpede că nu vor face suficient
    din proprie inițiativă.
  • 2:52 - 2:55
    Prin urmare, guvernele trebuie
    să stabilească responsabilitatea
  • 2:55 - 2:59
    pentru daunele din viața reală
    provocate de aceste modele de business
  • 2:59 - 3:02
    și să impună costuri reale
    pentru efectele dăunătoare
  • 3:02 - 3:07
    pe care le au asupra sănătății publice,
    a spațiului public și a democrației.
  • 3:07 - 3:12
    Din păcate, asta nu se va întâmpla
    înainte de alegerile prezidențiale,
  • 3:12 - 3:15
    așa că voi continua să trag
    acest semnal de alarmă,
  • 3:15 - 3:18
    deoarece, chiar dacă vom avea cândva
    reguli care să funcționeze,
  • 3:18 - 3:20
    e nevoie de noi toți
    pentru a rezolva acest lucru.
  • 3:21 - 3:24
    Când mi-am mutat atenția
    de la amenințările externe
  • 3:24 - 3:26
    la criza din discursul public de acasă,
  • 3:26 - 3:30
    m-am întrebat dacă putem schimba
    unele campanii de inimi și minți,
  • 3:30 - 3:32
    pentru a ajuta să ne vindecăm dezbinările.
  • 3:32 - 3:36
    Experiența noastră cu democrația,
    veche de peste 200 de ani,
  • 3:36 - 3:40
    funcționează în parte datorită faptului
    că putem dezbate deschis și cu pasiune
  • 3:40 - 3:43
    ideile pe care le avem,
    ca să găsim cele mai bune soluții.
  • 3:43 - 3:45
    Dar, deși cred cu adevărat
  • 3:45 - 3:47
    în puterea dialogului față în față,
  • 3:47 - 3:49
    acesta nu se poate compara
  • 3:49 - 3:53
    cu efectele polarizatoare și amploarea
    rețelelor sociale în acest moment.
  • 3:53 - 3:55
    Oamenii care cad în aceste capcane
  • 3:55 - 3:56
    ale revoltei din social media
  • 3:56 - 4:00
    renunță mai greu
    la mentalitățile lor ideologice
  • 4:00 - 4:03
    decât acele comunități defavorizate
    cu care am lucrat.
  • 4:03 - 4:06
    Așadar, când m-au sunat
    cei de la Facebook în 2018
  • 4:06 - 4:07
    și mi-au oferit această poziție,
  • 4:07 - 4:11
    să conduc operațiunile de integritate
    a alegerilor în publicitatea politică,
  • 4:11 - 4:13
    am simțit că trebuie să accept.
  • 4:13 - 4:16
    Nu aveam iluzii că voi rezolva totul,
  • 4:16 - 4:18
    dar când mi s-a oferit ocazia
  • 4:18 - 4:20
    de a dirija nava într-o direcție mai bună,
  • 4:20 - 4:21
    trebuia măcar să încerc.
  • 4:23 - 4:25
    Nu am lucrat direct pe polarizare,
  • 4:25 - 4:29
    ci am căutat problemele
    care dezbinau cel mai mult societatea,
  • 4:29 - 4:33
    fiind cele mai utilizate
    în încercările de amestec în alegeri,
  • 4:33 - 4:36
    care a fost tactica Rusiei
    înainte de 2016.
  • 4:37 - 4:39
    Am început prin a pune întrebări.
  • 4:39 - 4:42
    Voiam să înțeleg problemele
    de bază ale acestui sistem
  • 4:42 - 4:44
    care au permis ca toate acestea
    să se întâmple,
  • 4:44 - 4:47
    pentru a ști cum să le rezolvăm.
  • 4:48 - 4:50
    Încă mai cred în puterea internetului
  • 4:50 - 4:53
    de a aduce mai multe voci laolaltă,
  • 4:53 - 4:56
    dar în ciuda scopului declarat
    de a construi o comunitate,
  • 4:56 - 4:59
    cum sunt construite acum
    cele mai mari companii de social media,
  • 4:59 - 5:03
    sunt în antiteză cu conceptul
    de discurs rațional.
  • 5:03 - 5:05
    Nu e nicio modalitate
    de a răsplăti ascultarea,
  • 5:05 - 5:07
    de a încuraja dialogul civilizat
  • 5:07 - 5:11
    și de a proteja oamenii
    care chiar vor să pună întrebări,
  • 5:11 - 5:14
    în domeniul unde optimizarea implicării
    și creșterea numărului de utilizatori
  • 5:14 - 5:17
    sunt cei mai importanți
    indicatori ai succesului.
  • 5:17 - 5:21
    Nu există interes de a-i ajuta
    pe oameni să se calmeze,
  • 5:21 - 5:24
    de a crea suficientă presiune
    încât oamenii să se oprească,
  • 5:24 - 5:27
    să-și dea seama de reacția lor emoțională
  • 5:27 - 5:29
    și să-și examineze propriile opinii
    înainte să răspundă.
  • 5:31 - 5:33
    Din păcate, realitatea stă cam așa:
  • 5:33 - 5:36
    minciunile sunt mai interesante
    decât adevărul,
  • 5:36 - 5:39
    iar scandalul întrece argumentul
    rațional, bazat pe realitate,
  • 5:39 - 5:42
    într-o lume optimizată
    pentru viralitate fără divergențe.
  • 5:43 - 5:47
    Atâta vreme cât scopurile algoritmilor
    sunt să ne țină conectați,
  • 5:47 - 5:51
    vor continua să ne furnizeze
    otrava care ne manevrează
  • 5:51 - 5:53
    cele mai rele instincte
    și slăbiciuni umane.
  • 5:53 - 5:56
    Desigur, furia, neîncrederea,
  • 5:56 - 5:58
    cultura fricii, ura...
  • 5:58 - 6:01
    nimic din toate acestea
    nu sunt ceva nou în America.
  • 6:01 - 6:04
    Dar în ultimii ani,
    social media a folosit aceste lucruri
  • 6:04 - 6:08
    și, după părerea mea,
    a înclinat simțitor balanța.
  • 6:08 - 6:10
    Iar Facebook știe asta.
  • 6:10 - 6:12
    Un articol recent
    din „Wall Street Journal”
  • 6:12 - 6:16
    a dezvăluit o prezentare internă
    din 2018 de la Facebook,
  • 6:16 - 6:20
    care arată în mod specific
    că algoritmii companiei sunt responsabili
  • 6:20 - 6:23
    pentru creșterea prezenței
    grupurilor extremiste pe platforma lor
  • 6:23 - 6:26
    și pentru polarizarea utilizatorilor.
  • 6:27 - 6:30
    Dar pentru ca ei să facă bani,
    trebuie să ne țină implicați.
  • 6:30 - 6:35
    Mediul informațional modern
    e axat pe crearea profilului nostru,
  • 6:35 - 6:38
    iar apoi pe împărțirea în categorii
    din ce în ce mai mici,
  • 6:38 - 6:41
    pentru a perfecționa
    procesul de personalizare.
  • 6:41 - 6:45
    Suntem apoi bombardați cu informații
    care ne confirmă opiniile,
  • 6:45 - 6:47
    întărindu-ne propriile prejudecăți
  • 6:47 - 6:50
    și dându-ne senzația că aparținem undeva.
  • 6:50 - 6:54
    Sunt aceleași tactici
    pe care le folosesc teroriștii
  • 6:54 - 6:56
    când vor să recruteze tineri vulnerabili,
  • 6:56 - 7:00
    deși cu metode mai reduse și localizate,
    înainte de apariția rețelelor sociale,
  • 7:00 - 7:03
    având ca scop
    influențarea comportamentului.
  • 7:03 - 7:08
    Din păcate, Facebook nu mi-a permis
    niciodată să am un impact real.
  • 7:08 - 7:12
    De fapt, în a doua zi,
    mi-au schimbat titlul și fișa postului
  • 7:12 - 7:15
    și am fost exclusă din ședințele
    unde se luau decizii.
  • 7:15 - 7:16
    Eforturile mele
  • 7:16 - 7:18
    de a elabora planuri
  • 7:18 - 7:22
    de combatere a dezinformării și suprimării
    alegătorilor în reclamele electorale
  • 7:22 - 7:23
    au fost respinse.
  • 7:23 - 7:26
    Așadar, am rezistat puțin sub șase luni.
  • 7:26 - 7:30
    Dar am plecat de acolo
    cu ceva foarte important.
  • 7:30 - 7:32
    Sunt mii de oameni la Facebook
  • 7:32 - 7:34
    care lucrează cu pasiune la un proiect
  • 7:34 - 7:38
    despre care cred cu adevărat
    că va schimba lumea,
  • 7:38 - 7:42
    dar atâta timp cât compania va continua
    să cârpească doar pe la marginile
  • 7:42 - 7:44
    conținutului politic și ale moderării,
  • 7:44 - 7:46
    în loc să se gândească
  • 7:46 - 7:49
    la cum e proiectată și monetizată
    întreaga mașinărie,
  • 7:49 - 7:52
    nu vor aborda cu adevărat
    modul în care platforma
  • 7:52 - 7:57
    contribuie la ură,
    dezbinare și radicalizare.
  • 7:57 - 8:01
    Și asta e o discuție pe care n-am auzit-o
    cât am lucrat acolo,
  • 8:01 - 8:04
    pentru că asta ar fi însemnat
    acceptarea în esență
  • 8:04 - 8:08
    a faptului că ceea ce construiești
    s-ar putea să nu fie bun pentru societate
  • 8:08 - 8:11
    și să fii gata să modifici
    întregul produs și model de profit.
  • 8:12 - 8:14
    Ce putem face?
  • 8:15 - 8:19
    Nu spun că social media
    poartă întreaga responsabilitate
  • 8:19 - 8:21
    pentru starea în care suntem azi.
  • 8:21 - 8:26
    În mod cert, avem de rezolvat
    probleme sociale profunde.
  • 8:26 - 8:30
    Dar răspunsul Facebook,
    că e doar o oglindă a societății,
  • 8:30 - 8:33
    e o încercare convenabilă
    de a respinge orice responsabilitate
  • 8:34 - 8:38
    a modului în care platforma lor
    amplifică conținut dăunător
  • 8:38 - 8:41
    și împinge anumiți utilizatori
    către opinii extremiste.
  • 8:42 - 8:44
    Iar Facebook ar putea, dacă ar dori,
  • 8:44 - 8:46
    să remedieze aceste lucruri.
  • 8:46 - 8:50
    Ar putea să oprească amplificarea
    și favorizarea de teorii ale conspirației,
  • 8:50 - 8:53
    ale grupurilor xenofobe,
    ale furnizorilor de dezinformare
  • 8:53 - 8:57
    și, da, în unele cazuri
    chiar a președintelui nostru.
  • 8:57 - 9:00
    Ar putea să nu mai folosească
    același procedeu de personalizare
  • 9:00 - 9:04
    pentru a furniza și retorică politică
    și pentru a vinde teniși.
  • 9:04 - 9:06
    Ar putea să reprogrameze algoritmii
  • 9:06 - 9:09
    să se axeze pe alt parametru
    diferit de implicare,
  • 9:09 - 9:13
    și ar putea construi bariere
    care să împiedice viralizarea conținutului
  • 9:13 - 9:14
    înainte de a fi analizat.
  • 9:15 - 9:17
    Și ar putea face toate astea
  • 9:17 - 9:21
    fără să se transforme
    în arbitrul adevărului.
  • 9:21 - 9:24
    Însă au explicat clar
    că nu vor merge până acolo
  • 9:24 - 9:27
    încât să facă ce trebuie
    fără a fi obligați,
  • 9:27 - 9:30
    și de ce s-o facă, sincer vorbind?
  • 9:30 - 9:34
    Piețele continuă să-i recompenseze
    și nu încalcă nicio lege.
  • 9:34 - 9:35
    Deoarece în forma actuală,
  • 9:35 - 9:40
    nu există nicio lege în SUA care să oblige
    Facebook sau altă companie de social media
  • 9:40 - 9:42
    să protejeze spațiul public,
  • 9:42 - 9:43
    democrația
  • 9:43 - 9:46
    sau chiar alegerile.
  • 9:46 - 9:50
    Am cedat luarea deciziilor cu privire
    la ce reguli să scriem și să le impunem
  • 9:50 - 9:53
    directorilor de la companiile
    de internet care fac profit.
  • 9:54 - 9:56
    Asta ne dorim?
  • 9:56 - 9:59
    O lume post-adevăr,
    unde intoxicarea și tribalismul
  • 9:59 - 10:02
    ne împiedică să stabilim legături
    și să ne dorim consensul?
  • 10:03 - 10:07
    Rămân însă optimistă că încă avem
    mai multe lucruri în comun
  • 10:07 - 10:10
    decât prezintă mass-media actuală
    și mediul online,
  • 10:10 - 10:14
    și cred că având o vedere de ansamblu
  • 10:14 - 10:17
    contribuie la o democrație
    mai robustă și incluzivă.
  • 10:17 - 10:20
    Dar nu așa cum se întâmplă acum.
  • 10:20 - 10:24
    Și merită să menționez că nu vreau
    să distrugem aceste companii,
  • 10:24 - 10:28
    vreau doar să fie trase la răspundere
  • 10:28 - 10:29
    cum se întâmplă în restul societății.
  • 10:31 - 10:35
    E timpul ca guvernele noastre
    să înceapă să-și facă datoria
  • 10:35 - 10:37
    de a proteja cetățenii.
  • 10:37 - 10:40
    Deși nu există o lege fermecată
  • 10:40 - 10:41
    care să rezolve toate astea,
  • 10:41 - 10:46
    cred că guvernele pot
    și trebuie să găsească balanța
  • 10:46 - 10:48
    între a apăra libertatea de exprimare
  • 10:48 - 10:52
    și a trage la răspundere aceste platforme
    pentru efectele asupra societății.
  • 10:52 - 10:57
    Ar putea face acest lucru
    punând accent pe transparență
  • 10:57 - 11:00
    în modul în care funcționează
    motoarele de căutare,
  • 11:00 - 11:05
    modul în care se desfășoară
    căutarea, răspândirea și targetarea.
  • 11:05 - 11:07
    Vreau ca aceste companii
    să fie trase la răspundere
  • 11:07 - 11:10
    nu pentru că o persoană
    postează informații false
  • 11:10 - 11:12
    sau retorică extremistă,
  • 11:12 - 11:15
    ci pentru cum sunt răspândite
    de motoarele de căutare,
  • 11:16 - 11:19
    cum algoritmii direcționează
    oamenii către ele
  • 11:19 - 11:22
    și cum sunt folosite aceste instrumente
    pentru a-i urmări pe oameni.
  • 11:23 - 11:27
    Am încercat să schimb lucrurile
    din interiorul Facebook și n-am reușit,
  • 11:27 - 11:30
    așa că mi-am folosit vocea în ultimii ani
  • 11:30 - 11:33
    pentru a trage un semnal de alarmă,
  • 11:33 - 11:37
    sperând că voi inspira mai mulți oameni
    să ceară această responsabilizare.
  • 11:37 - 11:40
    Mesajul meu e simplu:
  • 11:40 - 11:42
    Puneți presiune
    pe reprezentanții guvernului,
  • 11:42 - 11:47
    să ia atitudine și să nu mai cedeze
    spațiul public în interes financiar.
  • 11:47 - 11:49
    Educați-vă prietenii și familia
  • 11:49 - 11:52
    despre cum sunt manipulați online.
  • 11:52 - 11:56
    Străduiți-vă să interacționați
    cu persoane care nu gândesc ca voi.
  • 11:56 - 11:59
    Faceți din asta o prioritate.
  • 11:59 - 12:02
    E nevoie de întreaga societate
    pentru a rezolva această problemă.
  • 12:03 - 12:09
    Iar mesajul meu pentru șefii
    de la Facebook e acesta:
  • 12:09 - 12:15
    În prezent, aceste mijloace sunt folosite
    așa cum au fost gândite,
  • 12:15 - 12:17
    să semene ură, dezbinare și neîncredere,
  • 12:17 - 12:21
    și nu numai că le acceptați,
    ci le permiteți să facă asta.
  • 12:21 - 12:24
    Desigur că sunt și povești minunate,
  • 12:24 - 12:28
    despre lucruri bune care se întâmplă
    pe această platformă în întreaga lume,
  • 12:28 - 12:31
    dar asta nu face ca totul să fie bine.
  • 12:31 - 12:34
    Iar lucrurile se înrăutățesc
    pe măsură ce se apropie alegerile,
  • 12:34 - 12:36
    iar faptul cel mai îngrijorător
  • 12:36 - 12:38
    e că ne confruntăm cu cea mai mare
    criză de până acum,
  • 12:38 - 12:42
    dacă rezultatele nu prezintă încredere
    și vor izbucni violențe.
  • 12:42 - 12:47
    Iar în 2021, când veți spune
    „Trebuie să ne străduim mai mult”,
  • 12:47 - 12:50
    vreau să vă amintiți acest moment,
  • 12:50 - 12:53
    pentru că nu mai e vorba
    doar de câteva voci răzlețe.
  • 12:53 - 12:56
    Liderii mișcării pentru drepturi civile,
    academicieni,
  • 12:56 - 12:59
    jurnaliști, agenții de publicitate,
    angajații dumneavoastră,
  • 12:59 - 13:01
    strigă din toate puterile
  • 13:01 - 13:03
    că politicile și practicile voastre
  • 13:03 - 13:06
    fac rău oamenilor și democrației.
  • 13:07 - 13:09
    Sunteți stăpâni pe deciziile voastre,
  • 13:09 - 13:13
    dar nu mai puteți spune
    că nu v-ați așteptat la așa ceva.
  • 13:14 - 13:15
    Vă mulțumesc!
Title:
Dragă Facebook, în felul acesta încalci democrația
Speaker:
Yaël Eisenstat
Description:

„În mediul online, minciunile sunt mai interesante decât adevărul”, spune Yaël Eisenstat, fost analist CIA, diplomat și angajat al Facebook. „Cât timp obiectivele algoritmilor [social media] sunt acelea de a ne ține conectați, ne vor furniza otrava care activează cele mai neplăcute instincte și slăbiciuni omenești.” În acest discurs îndrăzneț, Eisenstat arată modul în care companiile de social media, precum Facebook, încurajează un conținut provocator care contribuie la o cultură a polarizării politice și neîncredere, și cere guvernelor să tragă la răspundere aceste platforme, pentru a proteja discursul civil și democrația.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Romanian subtitles

Revisions