Dragă Facebook, în felul acesta încalci democrația
-
0:01 - 0:03Cu vreo cinci ani în urmă,
-
0:03 - 0:05mi-am dat seama
că îmi pierdeam capacitatea -
0:05 - 0:08de a interacționa cu cei
care nu gândesc ca mine. -
0:09 - 0:13Ideea de a dezbate subiecte sensibile
cu colegii mei americani -
0:13 - 0:15începuse să îmi dea
mai multe dureri de stomac -
0:15 - 0:19decât discuțiile cu presupușii extremiști
de peste hotare. -
0:20 - 0:23Începuseră să-mi dea
o senzație de ură și frustrare. -
0:23 - 0:25Așa că, brusc,
-
0:25 - 0:27mi-am mutat toată atenția
-
0:27 - 0:29de la amenințările la adresa
securității naționale -
0:29 - 0:32la încercarea de a înțelege
de unde venea acest impuls -
0:32 - 0:36spre o polarizare exagerată.
-
0:36 - 0:38Ca fost ofițer CIA și diplomat
-
0:38 - 0:41care a petrecut mulți ani
în probleme de antiterorism, -
0:41 - 0:45mă temeam că acest lucru e o amenințare
mult mai mare pentru democrație -
0:45 - 0:48decât orice adversar extern.
-
0:48 - 0:50Așadar, am început să cercetez
-
0:50 - 0:51și să-mi exprim părerea,
-
0:51 - 0:54lucru care a dus
la angajarea mea la Facebook -
0:54 - 0:57și în final m-a adus azi aici,
-
0:57 - 1:00ca să vă avertizez despre faptul
că aceste platforme -
1:00 - 1:04ne manipulează și radicalizează
pe foarte mulți dintre noi, -
1:04 - 1:07și să vedem cum ne recâștigăm
spațiul public. -
1:08 - 1:10Am fost diplomat în Kenya
-
1:10 - 1:13la câțiva ani după atacurile
din 11 septembrie, -
1:13 - 1:15și am condus așa numitele
campanii „inimi și minți” -
1:15 - 1:17de-a lungul graniței cu Somalia.
-
1:17 - 1:21O parte importantă era să consolidez
încrederea în comunitățile -
1:21 - 1:23considerate cele mai expuse
la mesaje extremiste. -
1:24 - 1:28Am petrecut ore întregi bând ceai
cu clerici declarați antioccidentali -
1:28 - 1:32și chiar am stat de vorbă
cu câțiva presupuși teroriști; -
1:32 - 1:35și deși multe dintre aceste întâlniri
au început cu suspiciune reciprocă, -
1:35 - 1:39nu-mi amintesc să fi degenerat
niciuna în strigăte și insulte, -
1:39 - 1:43iar în unele cazuri chiar am colaborat
în domenii de interes reciproc. -
1:44 - 1:48Cele mai puternice instrumente
sunt să ascultăm, să înțelegem -
1:48 - 1:50și să dezvoltăm empatie.
-
1:50 - 1:53Aceasta e esența programului
„inimi și minți”, -
1:53 - 1:56deoarece am descoperit în repetate rânduri
că ceea ce își doresc oamenii -
1:56 - 2:00este să se simtă auziți,
recunoscuți și respectați. -
2:00 - 2:03Și cred că asta ne dorim cu toții.
-
2:03 - 2:06E dureros să văd ce se întâmplă
azi în mediul online -
2:06 - 2:08și e o problemă mult mai greu de rezolvat.
-
2:09 - 2:13Suntem manipulați de ecosistemul
informațional actual, -
2:13 - 2:16care a încrâncenat pe mulți dintre noi
în absolutism, -
2:16 - 2:19încât compromisul
a devenit un cuvânt murdar. -
2:20 - 2:21Pentru că în acest moment,
-
2:21 - 2:23rețelele sociale precum Facebook
-
2:23 - 2:27profită de pe urma diviziunii noastre
și ne furnizează conținut personalizat -
2:27 - 2:31care ne validează și în același timp
ne exploatează prejudecățile. -
2:31 - 2:34Rezultatul lor final se bazează
pe provocarea unei emoții puternice -
2:34 - 2:36care să ne țină conectați,
-
2:36 - 2:40stimulând adesea vocile
cele mai instigatoare și polarizante, -
2:40 - 2:45până când nu mai e posibilă
găsirea unul numitor comun. -
2:45 - 2:49Și deși sunt multe voci
care cer ca platformele să se schimbe, -
2:49 - 2:52e limpede că nu vor face suficient
din proprie inițiativă. -
2:52 - 2:55Prin urmare, guvernele trebuie
să stabilească responsabilitatea -
2:55 - 2:59pentru daunele din viața reală
provocate de aceste modele de business -
2:59 - 3:02și să impună costuri reale
pentru efectele dăunătoare -
3:02 - 3:07pe care le au asupra sănătății publice,
a spațiului public și a democrației. -
3:07 - 3:12Din păcate, asta nu se va întâmpla
înainte de alegerile prezidențiale, -
3:12 - 3:15așa că voi continua să trag
acest semnal de alarmă, -
3:15 - 3:18deoarece, chiar dacă vom avea cândva
reguli care să funcționeze, -
3:18 - 3:20e nevoie de noi toți
pentru a rezolva acest lucru. -
3:21 - 3:24Când mi-am mutat atenția
de la amenințările externe -
3:24 - 3:26la criza din discursul public de acasă,
-
3:26 - 3:30m-am întrebat dacă putem schimba
unele campanii de inimi și minți, -
3:30 - 3:32pentru a ajuta să ne vindecăm dezbinările.
-
3:32 - 3:36Experiența noastră cu democrația,
veche de peste 200 de ani, -
3:36 - 3:40funcționează în parte datorită faptului
că putem dezbate deschis și cu pasiune -
3:40 - 3:43ideile pe care le avem,
ca să găsim cele mai bune soluții. -
3:43 - 3:45Dar, deși cred cu adevărat
-
3:45 - 3:47în puterea dialogului față în față,
-
3:47 - 3:49acesta nu se poate compara
-
3:49 - 3:53cu efectele polarizatoare și amploarea
rețelelor sociale în acest moment. -
3:53 - 3:55Oamenii care cad în aceste capcane
-
3:55 - 3:56ale revoltei din social media
-
3:56 - 4:00renunță mai greu
la mentalitățile lor ideologice -
4:00 - 4:03decât acele comunități defavorizate
cu care am lucrat. -
4:03 - 4:06Așadar, când m-au sunat
cei de la Facebook în 2018 -
4:06 - 4:07și mi-au oferit această poziție,
-
4:07 - 4:11să conduc operațiunile de integritate
a alegerilor în publicitatea politică, -
4:11 - 4:13am simțit că trebuie să accept.
-
4:13 - 4:16Nu aveam iluzii că voi rezolva totul,
-
4:16 - 4:18dar când mi s-a oferit ocazia
-
4:18 - 4:20de a dirija nava într-o direcție mai bună,
-
4:20 - 4:21trebuia măcar să încerc.
-
4:23 - 4:25Nu am lucrat direct pe polarizare,
-
4:25 - 4:29ci am căutat problemele
care dezbinau cel mai mult societatea, -
4:29 - 4:33fiind cele mai utilizate
în încercările de amestec în alegeri, -
4:33 - 4:36care a fost tactica Rusiei
înainte de 2016. -
4:37 - 4:39Am început prin a pune întrebări.
-
4:39 - 4:42Voiam să înțeleg problemele
de bază ale acestui sistem -
4:42 - 4:44care au permis ca toate acestea
să se întâmple, -
4:44 - 4:47pentru a ști cum să le rezolvăm.
-
4:48 - 4:50Încă mai cred în puterea internetului
-
4:50 - 4:53de a aduce mai multe voci laolaltă,
-
4:53 - 4:56dar în ciuda scopului declarat
de a construi o comunitate, -
4:56 - 4:59cum sunt construite acum
cele mai mari companii de social media, -
4:59 - 5:03sunt în antiteză cu conceptul
de discurs rațional. -
5:03 - 5:05Nu e nicio modalitate
de a răsplăti ascultarea, -
5:05 - 5:07de a încuraja dialogul civilizat
-
5:07 - 5:11și de a proteja oamenii
care chiar vor să pună întrebări, -
5:11 - 5:14în domeniul unde optimizarea implicării
și creșterea numărului de utilizatori -
5:14 - 5:17sunt cei mai importanți
indicatori ai succesului. -
5:17 - 5:21Nu există interes de a-i ajuta
pe oameni să se calmeze, -
5:21 - 5:24de a crea suficientă presiune
încât oamenii să se oprească, -
5:24 - 5:27să-și dea seama de reacția lor emoțională
-
5:27 - 5:29și să-și examineze propriile opinii
înainte să răspundă. -
5:31 - 5:33Din păcate, realitatea stă cam așa:
-
5:33 - 5:36minciunile sunt mai interesante
decât adevărul, -
5:36 - 5:39iar scandalul întrece argumentul
rațional, bazat pe realitate, -
5:39 - 5:42într-o lume optimizată
pentru viralitate fără divergențe. -
5:43 - 5:47Atâta vreme cât scopurile algoritmilor
sunt să ne țină conectați, -
5:47 - 5:51vor continua să ne furnizeze
otrava care ne manevrează -
5:51 - 5:53cele mai rele instincte
și slăbiciuni umane. -
5:53 - 5:56Desigur, furia, neîncrederea,
-
5:56 - 5:58cultura fricii, ura...
-
5:58 - 6:01nimic din toate acestea
nu sunt ceva nou în America. -
6:01 - 6:04Dar în ultimii ani,
social media a folosit aceste lucruri -
6:04 - 6:08și, după părerea mea,
a înclinat simțitor balanța. -
6:08 - 6:10Iar Facebook știe asta.
-
6:10 - 6:12Un articol recent
din „Wall Street Journal” -
6:12 - 6:16a dezvăluit o prezentare internă
din 2018 de la Facebook, -
6:16 - 6:20care arată în mod specific
că algoritmii companiei sunt responsabili -
6:20 - 6:23pentru creșterea prezenței
grupurilor extremiste pe platforma lor -
6:23 - 6:26și pentru polarizarea utilizatorilor.
-
6:27 - 6:30Dar pentru ca ei să facă bani,
trebuie să ne țină implicați. -
6:30 - 6:35Mediul informațional modern
e axat pe crearea profilului nostru, -
6:35 - 6:38iar apoi pe împărțirea în categorii
din ce în ce mai mici, -
6:38 - 6:41pentru a perfecționa
procesul de personalizare. -
6:41 - 6:45Suntem apoi bombardați cu informații
care ne confirmă opiniile, -
6:45 - 6:47întărindu-ne propriile prejudecăți
-
6:47 - 6:50și dându-ne senzația că aparținem undeva.
-
6:50 - 6:54Sunt aceleași tactici
pe care le folosesc teroriștii -
6:54 - 6:56când vor să recruteze tineri vulnerabili,
-
6:56 - 7:00deși cu metode mai reduse și localizate,
înainte de apariția rețelelor sociale, -
7:00 - 7:03având ca scop
influențarea comportamentului. -
7:03 - 7:08Din păcate, Facebook nu mi-a permis
niciodată să am un impact real. -
7:08 - 7:12De fapt, în a doua zi,
mi-au schimbat titlul și fișa postului -
7:12 - 7:15și am fost exclusă din ședințele
unde se luau decizii. -
7:15 - 7:16Eforturile mele
-
7:16 - 7:18de a elabora planuri
-
7:18 - 7:22de combatere a dezinformării și suprimării
alegătorilor în reclamele electorale -
7:22 - 7:23au fost respinse.
-
7:23 - 7:26Așadar, am rezistat puțin sub șase luni.
-
7:26 - 7:30Dar am plecat de acolo
cu ceva foarte important. -
7:30 - 7:32Sunt mii de oameni la Facebook
-
7:32 - 7:34care lucrează cu pasiune la un proiect
-
7:34 - 7:38despre care cred cu adevărat
că va schimba lumea, -
7:38 - 7:42dar atâta timp cât compania va continua
să cârpească doar pe la marginile -
7:42 - 7:44conținutului politic și ale moderării,
-
7:44 - 7:46în loc să se gândească
-
7:46 - 7:49la cum e proiectată și monetizată
întreaga mașinărie, -
7:49 - 7:52nu vor aborda cu adevărat
modul în care platforma -
7:52 - 7:57contribuie la ură,
dezbinare și radicalizare. -
7:57 - 8:01Și asta e o discuție pe care n-am auzit-o
cât am lucrat acolo, -
8:01 - 8:04pentru că asta ar fi însemnat
acceptarea în esență -
8:04 - 8:08a faptului că ceea ce construiești
s-ar putea să nu fie bun pentru societate -
8:08 - 8:11și să fii gata să modifici
întregul produs și model de profit. -
8:12 - 8:14Ce putem face?
-
8:15 - 8:19Nu spun că social media
poartă întreaga responsabilitate -
8:19 - 8:21pentru starea în care suntem azi.
-
8:21 - 8:26În mod cert, avem de rezolvat
probleme sociale profunde. -
8:26 - 8:30Dar răspunsul Facebook,
că e doar o oglindă a societății, -
8:30 - 8:33e o încercare convenabilă
de a respinge orice responsabilitate -
8:34 - 8:38a modului în care platforma lor
amplifică conținut dăunător -
8:38 - 8:41și împinge anumiți utilizatori
către opinii extremiste. -
8:42 - 8:44Iar Facebook ar putea, dacă ar dori,
-
8:44 - 8:46să remedieze aceste lucruri.
-
8:46 - 8:50Ar putea să oprească amplificarea
și favorizarea de teorii ale conspirației, -
8:50 - 8:53ale grupurilor xenofobe,
ale furnizorilor de dezinformare -
8:53 - 8:57și, da, în unele cazuri
chiar a președintelui nostru. -
8:57 - 9:00Ar putea să nu mai folosească
același procedeu de personalizare -
9:00 - 9:04pentru a furniza și retorică politică
și pentru a vinde teniși. -
9:04 - 9:06Ar putea să reprogrameze algoritmii
-
9:06 - 9:09să se axeze pe alt parametru
diferit de implicare, -
9:09 - 9:13și ar putea construi bariere
care să împiedice viralizarea conținutului -
9:13 - 9:14înainte de a fi analizat.
-
9:15 - 9:17Și ar putea face toate astea
-
9:17 - 9:21fără să se transforme
în arbitrul adevărului. -
9:21 - 9:24Însă au explicat clar
că nu vor merge până acolo -
9:24 - 9:27încât să facă ce trebuie
fără a fi obligați, -
9:27 - 9:30și de ce s-o facă, sincer vorbind?
-
9:30 - 9:34Piețele continuă să-i recompenseze
și nu încalcă nicio lege. -
9:34 - 9:35Deoarece în forma actuală,
-
9:35 - 9:40nu există nicio lege în SUA care să oblige
Facebook sau altă companie de social media -
9:40 - 9:42să protejeze spațiul public,
-
9:42 - 9:43democrația
-
9:43 - 9:46sau chiar alegerile.
-
9:46 - 9:50Am cedat luarea deciziilor cu privire
la ce reguli să scriem și să le impunem -
9:50 - 9:53directorilor de la companiile
de internet care fac profit. -
9:54 - 9:56Asta ne dorim?
-
9:56 - 9:59O lume post-adevăr,
unde intoxicarea și tribalismul -
9:59 - 10:02ne împiedică să stabilim legături
și să ne dorim consensul? -
10:03 - 10:07Rămân însă optimistă că încă avem
mai multe lucruri în comun -
10:07 - 10:10decât prezintă mass-media actuală
și mediul online, -
10:10 - 10:14și cred că având o vedere de ansamblu
-
10:14 - 10:17contribuie la o democrație
mai robustă și incluzivă. -
10:17 - 10:20Dar nu așa cum se întâmplă acum.
-
10:20 - 10:24Și merită să menționez că nu vreau
să distrugem aceste companii, -
10:24 - 10:28vreau doar să fie trase la răspundere
-
10:28 - 10:29cum se întâmplă în restul societății.
-
10:31 - 10:35E timpul ca guvernele noastre
să înceapă să-și facă datoria -
10:35 - 10:37de a proteja cetățenii.
-
10:37 - 10:40Deși nu există o lege fermecată
-
10:40 - 10:41care să rezolve toate astea,
-
10:41 - 10:46cred că guvernele pot
și trebuie să găsească balanța -
10:46 - 10:48între a apăra libertatea de exprimare
-
10:48 - 10:52și a trage la răspundere aceste platforme
pentru efectele asupra societății. -
10:52 - 10:57Ar putea face acest lucru
punând accent pe transparență -
10:57 - 11:00în modul în care funcționează
motoarele de căutare, -
11:00 - 11:05modul în care se desfășoară
căutarea, răspândirea și targetarea. -
11:05 - 11:07Vreau ca aceste companii
să fie trase la răspundere -
11:07 - 11:10nu pentru că o persoană
postează informații false -
11:10 - 11:12sau retorică extremistă,
-
11:12 - 11:15ci pentru cum sunt răspândite
de motoarele de căutare, -
11:16 - 11:19cum algoritmii direcționează
oamenii către ele -
11:19 - 11:22și cum sunt folosite aceste instrumente
pentru a-i urmări pe oameni. -
11:23 - 11:27Am încercat să schimb lucrurile
din interiorul Facebook și n-am reușit, -
11:27 - 11:30așa că mi-am folosit vocea în ultimii ani
-
11:30 - 11:33pentru a trage un semnal de alarmă,
-
11:33 - 11:37sperând că voi inspira mai mulți oameni
să ceară această responsabilizare. -
11:37 - 11:40Mesajul meu e simplu:
-
11:40 - 11:42Puneți presiune
pe reprezentanții guvernului, -
11:42 - 11:47să ia atitudine și să nu mai cedeze
spațiul public în interes financiar. -
11:47 - 11:49Educați-vă prietenii și familia
-
11:49 - 11:52despre cum sunt manipulați online.
-
11:52 - 11:56Străduiți-vă să interacționați
cu persoane care nu gândesc ca voi. -
11:56 - 11:59Faceți din asta o prioritate.
-
11:59 - 12:02E nevoie de întreaga societate
pentru a rezolva această problemă. -
12:03 - 12:09Iar mesajul meu pentru șefii
de la Facebook e acesta: -
12:09 - 12:15În prezent, aceste mijloace sunt folosite
așa cum au fost gândite, -
12:15 - 12:17să semene ură, dezbinare și neîncredere,
-
12:17 - 12:21și nu numai că le acceptați,
ci le permiteți să facă asta. -
12:21 - 12:24Desigur că sunt și povești minunate,
-
12:24 - 12:28despre lucruri bune care se întâmplă
pe această platformă în întreaga lume, -
12:28 - 12:31dar asta nu face ca totul să fie bine.
-
12:31 - 12:34Iar lucrurile se înrăutățesc
pe măsură ce se apropie alegerile, -
12:34 - 12:36iar faptul cel mai îngrijorător
-
12:36 - 12:38e că ne confruntăm cu cea mai mare
criză de până acum, -
12:38 - 12:42dacă rezultatele nu prezintă încredere
și vor izbucni violențe. -
12:42 - 12:47Iar în 2021, când veți spune
„Trebuie să ne străduim mai mult”, -
12:47 - 12:50vreau să vă amintiți acest moment,
-
12:50 - 12:53pentru că nu mai e vorba
doar de câteva voci răzlețe. -
12:53 - 12:56Liderii mișcării pentru drepturi civile,
academicieni, -
12:56 - 12:59jurnaliști, agenții de publicitate,
angajații dumneavoastră, -
12:59 - 13:01strigă din toate puterile
-
13:01 - 13:03că politicile și practicile voastre
-
13:03 - 13:06fac rău oamenilor și democrației.
-
13:07 - 13:09Sunteți stăpâni pe deciziile voastre,
-
13:09 - 13:13dar nu mai puteți spune
că nu v-ați așteptat la așa ceva. -
13:14 - 13:15Vă mulțumesc!
- Title:
- Dragă Facebook, în felul acesta încalci democrația
- Speaker:
- Yaël Eisenstat
- Description:
-
„În mediul online, minciunile sunt mai interesante decât adevărul”, spune Yaël Eisenstat, fost analist CIA, diplomat și angajat al Facebook. „Cât timp obiectivele algoritmilor [social media] sunt acelea de a ne ține conectați, ne vor furniza otrava care activează cele mai neplăcute instincte și slăbiciuni omenești.” În acest discurs îndrăzneț, Eisenstat arată modul în care companiile de social media, precum Facebook, încurajează un conținut provocator care contribuie la o cultură a polarizării politice și neîncredere, și cere guvernelor să tragă la răspundere aceste platforme, pentru a proteja discursul civil și democrația.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
Claudia Pravat approved Romanian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Claudia Pravat edited Romanian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Mirel-Gabriel Alexa edited Romanian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Mirel-Gabriel Alexa edited Romanian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Iosif Szenasi accepted Romanian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Iosif Szenasi edited Romanian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Claudia Pravat edited Romanian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Claudia Pravat edited Romanian subtitles for Dear Facebook, this is how you're breaking democracy |