Return to Video

Cum poți ajuta la transformarea internetului într-un mediu de încredere

  • 0:02 - 0:04
    Indiferent cine ești sau unde locuiești,
  • 0:04 - 0:06
    cred că ai cel puțin o rudă
  • 0:06 - 0:09
    căreia îi place
    să distribuie acele postări.
  • 0:09 - 0:11
    Știți despre ce vorbesc:
  • 0:11 - 0:14
    cele cu afirmații dubioase
    sau videoclipuri despre conspirații.
  • 0:14 - 0:17
    Și probabil le-ați dat „mute” pe Facebook
  • 0:17 - 0:19
    pentru distribuirea postărilor ca aceasta.
  • 0:19 - 0:21
    Este imaginea unei banane
  • 0:21 - 0:23
    cu o cruce roșie ciudată în mijloc.
  • 0:23 - 0:26
    Iar textul avertizează oamenii
  • 0:26 - 0:28
    să nu mănânce fructe care arată așa,
  • 0:28 - 0:30
    sugerând că ar fi fost injectate cu sânge
  • 0:30 - 0:32
    contaminat cu virusul HIV.
  • 0:32 - 0:35
    Și mesajul de deasupra spune:
  • 0:35 - 0:37
    „Vă rog distribuiți pentru a salva vieți”.
  • 0:38 - 0:41
    Cei care verifică faptele au demitizat
    astfel de știri acum mulți ani,
  • 0:41 - 0:44
    dar e unul din acele zvonuri
    care nu vrea să moară.
  • 0:44 - 0:45
    Un zvon zombie.
  • 0:46 - 0:48
    Și, bineînțeles, e total fals.
  • 0:48 - 0:51
    Ai putea fi tentat să râzi
    la un asemenea exemplu, să spui:
  • 0:51 - 0:53
    „Cine ar putea crede asta?”
  • 0:53 - 0:55
    Motivul pentru care e un zvon zombie
  • 0:55 - 0:59
    e pentru că atinge cele mai mari temeri
    ale oamenilor privind propria siguranță
  • 0:59 - 1:01
    și a celor pe care îi iubesc.
  • 1:02 - 1:05
    Iar dacă petreci la fel de mult timp
    ca mine analizând dezinformarea,
  • 1:05 - 1:08
    știi că acesta e doar un exemplu
    din multele
  • 1:08 - 1:11
    care ating cele mai adânci
    frici și vulnerabilități.
  • 1:11 - 1:16
    În fiecare zi vedem un număr
    mare de noi meme pe Instagram
  • 1:16 - 1:19
    care încurajează părinții
    să nu își vaccineze copiii.
  • 1:19 - 1:23
    Vedem videoclipuri pe YouTube explicând
    că schimbările climaterice sunt o farsă.
  • 1:23 - 1:28
    Pe toate platformele vedem nenumărate
    postări care îi demonizează pe alții
  • 1:28 - 1:31
    pe baza rasei, religiei sau sexualității.
  • 1:32 - 1:35
    Bine ați venit la una din marile
    provocări ale zilelor noastre.
  • 1:36 - 1:40
    Cum putem să menținem
    un internet cu libertate de expresie,
  • 1:40 - 1:43
    asigurându-ne totodată că conținutul
  • 1:43 - 1:47
    nu cauzează prejudicii ireparabile
    democrației, comunităților
  • 1:47 - 1:49
    și bunăstării noastre fizice și psihice?
  • 1:50 - 1:52
    Deși trăim în era informației,
  • 1:52 - 1:56
    totuși elementul cheie
    de care depindem toți: informația,
  • 1:56 - 1:58
    nu mai e considerată de încredere
  • 1:58 - 2:00
    și câteodată poate fi chiar periculoasă.
  • 2:01 - 2:05
    Asta se datorează în mare parte creșterii
    necontrolate a platformelor sociale
  • 2:05 - 2:06
    care ne permit să citim
  • 2:06 - 2:09
    minciuni și adevăruri alăturate,
  • 2:09 - 2:12
    fără niciun semnal
    tradițional al încrederii.
  • 2:12 - 2:16
    Și, Doamne, limbajul folosit
    e îngrozitor de confuz.
  • 2:16 - 2:19
    Oamenii încă sunt obsedați
    de expresia „știri false”,
  • 2:19 - 2:22
    în ciuda faptului
    că e extraordinar de inutilă
  • 2:22 - 2:25
    și folosită pentru a descrie
    multe lucruri care sunt foarte diferite:
  • 2:25 - 2:28
    minciuni, zvonuri, farse,
    conspirații, propagandă.
  • 2:29 - 2:32
    Și chiar îmi doresc
    să nu mai folosim o expresie
  • 2:32 - 2:35
    care a fost folosită
    de politicienii din întreaga lume,
  • 2:35 - 2:36
    de stânga și de dreapta,
  • 2:36 - 2:39
    ca să atace presă liberă și independentă.
  • 2:40 - 2:45
    (Aplauze)
  • 2:45 - 2:48
    Deoarece avem nevoie de o presă
    profesionistă mai mult ca niciodată.
  • 2:49 - 2:52
    Și pe lângă asta, majoritatea acestui
    conținut nu pretinde a fi știri.
  • 2:52 - 2:55
    Sunt meme, videoclipuri, postări.
  • 2:55 - 2:58
    Și majoritatea nu sunt false;
    sunt înșelătoare.
  • 2:58 - 3:01
    Tindem să ne fixăm
    pe ce e adevărat sau fals.
  • 3:01 - 3:05
    Dar cea mai mare problemă
    e de fapt folosirea contextului.
  • 3:07 - 3:09
    Pentru că cea mai eficientă dezinformare
  • 3:09 - 3:12
    a fost întotdeauna cea care are
    un sâmbure de adevăr în ea.
  • 3:12 - 3:15
    Să luam un exemplu din Londra,
    din martie 2017,
  • 3:15 - 3:17
    un tweet care a circulat la scară largă
  • 3:17 - 3:21
    în urma unui incident terorist
    pe podul Westminster.
  • 3:21 - 3:23
    Aceasta e o imagine reală, nu falsă.
  • 3:23 - 3:26
    Femeia care apare în poză
    a fost intervievată după aceea
  • 3:26 - 3:29
    și a explicat că a fost
    extrem de traumatizată.
  • 3:29 - 3:30
    Era la telefon cu o persoană iubită,
  • 3:30 - 3:33
    și nu se uita la victimă din respect.
  • 3:33 - 3:37
    Dar a circulat la scară largă
    cu această descriere islamofobă,
  • 3:37 - 3:40
    cu multiple hashtag-uri,
    printre care #InterzicețiIslamul.
  • 3:40 - 3:43
    Acum, dacă ai lucra la Twitter,
    ce ai face?
  • 3:43 - 3:45
    Ai da-o jos sau ai lăsa-o?
  • 3:47 - 3:50
    Instinctiv, emoțional, aș da-o jos.
  • 3:50 - 3:52
    Urăsc descrierea acestei imagini.
  • 3:53 - 3:55
    Dar libertatea de expresie
    e un drept al omului,
  • 3:55 - 3:58
    și dacă începem să interzicem
    părerile inconfortabile,
  • 3:58 - 3:59
    avem probleme.
  • 4:00 - 4:02
    Și acesta poate părea un caz clar,
  • 4:02 - 4:04
    dar, de fapt, majoritatea nu sunt.
  • 4:04 - 4:06
    Liniile sunt incredibil de greu de trasat.
  • 4:06 - 4:08
    Ce e o decizie bine intenționată
    pentru o persoană
  • 4:08 - 4:10
    e cenzură pentru alta.
  • 4:11 - 4:14
    Ceea ce știm e că acest cont,
    Texas Lone Star,
  • 4:14 - 4:17
    a făcut parte dintr-o largă campanie
    rusească de dezinformare
  • 4:17 - 4:19
    care a fost demascată.
  • 4:19 - 4:21
    Vă schimba asta punctul de vedere?
  • 4:21 - 4:22
    Pe al meu îl schimbă,
  • 4:23 - 4:25
    pentru că face parte
    dintr-o campanie coordonată
  • 4:25 - 4:26
    pentru a semăna discordie.
  • 4:26 - 4:28
    Iar pentru cei care cred
  • 4:28 - 4:31
    că inteligența artificială va rezolva
    toate problemele noastre,
  • 4:31 - 4:33
    cred că putem fi de acord
    că suntem departe
  • 4:33 - 4:36
    de acea IA care e capabilă să dea sens
    postărilor ca aceasta.
  • 4:37 - 4:39
    Aș vrea să vă explic
    trei aspecte interconectate
  • 4:39 - 4:42
    care fac problema atât de complexă
  • 4:42 - 4:45
    și să vă gândiți la câteva moduri
    de a privi aceste provocări.
  • 4:45 - 4:49
    În primul rând, noi pur și simplu nu avem
    o relație rațională cu informația,
  • 4:49 - 4:51
    ci una emoțională.
  • 4:51 - 4:55
    Nu e adevărat că mai multe informații
    vor rezolva totul,
  • 4:55 - 4:58
    pentru că algoritimii care determină
    ce conținut vedem,
  • 4:58 - 5:01
    sunt făcuți să recompenseze
    răspunsul nostru emoțional.
  • 5:01 - 5:02
    Iar când ne temem,
  • 5:02 - 5:05
    poveștile simplificate,
    explicațiile conspirative
  • 5:05 - 5:09
    și limbajul ce îi demonizează pe ceilalți
    sunt mult mai eficiente.
  • 5:10 - 5:11
    În plus, multe din aceste companii
  • 5:11 - 5:14
    au modelul de afaceri bazat pe atenție,
  • 5:14 - 5:18
    ceea ce înseamnă că acești algoritmi
    vor fi întotdeauna atrași spre emoții.
  • 5:18 - 5:23
    În al doilea rând, majoritatea limbajului
    despre care vă vorbesc este legal.
  • 5:23 - 5:25
    Ar fi cu totul altceva
  • 5:25 - 5:27
    dacă aș fi vorbit
    despre copii abuzați sexual
  • 5:27 - 5:29
    sau conținut care incită la violență.
  • 5:29 - 5:32
    E perfect legal să postezi o minciună.
  • 5:33 - 5:37
    Dar oamenii vorbesc despre interzicerea
    subiectelor „problematice” sau „nocive”,
  • 5:37 - 5:40
    dar fără o definiție clară
    a ce înseamnă asta,
  • 5:40 - 5:41
    inclusiv Mark Zuckerberg,
  • 5:41 - 5:45
    care a cerut recent o reglementare
    globală a limbajului.
  • 5:45 - 5:47
    Teama mea e că vedem guverne
  • 5:47 - 5:48
    în toată lumea
  • 5:48 - 5:51
    care iau decizii politice pripite,
  • 5:51 - 5:54
    care chiar ar putea declanșa
    consecințe mult mai grave
  • 5:54 - 5:56
    când vine vorba de libertatea de expresie.
  • 5:56 - 6:00
    Chiar dacă am putea decide
    care părere e interzisă sau nu,
  • 6:00 - 6:02
    nu am avut niciodată atâtea păreri.
  • 6:02 - 6:04
    În fiecare secundă milioane de materiale
  • 6:04 - 6:06
    sunt încărcate de oameni din toată lumea,
  • 6:06 - 6:07
    în diferite limbi,
  • 6:07 - 6:10
    influențând mii de oameni
    din contexte culturale diferite.
  • 6:10 - 6:13
    Pur și simplu nu am avut
    niciodată mecanisme eficiente
  • 6:13 - 6:15
    pentru a modera limbajul
    la această scară,
  • 6:15 - 6:18
    indiferent dacă sunt alimentate
    de oameni sau tehnologie.
  • 6:18 - 6:22
    În al treilea rând, aceste companii,
    Google, Twitter, Facebook, WhatsApp,
  • 6:22 - 6:25
    fac parte dintr-un ecosistem
    informațional mai mare.
  • 6:25 - 6:28
    Ne place să dăm vina pe ei,
    dar adevărul e
  • 6:28 - 6:32
    că mass media și reprezentanții aleși
    pot juca un rol la fel de important
  • 6:32 - 6:35
    în amplificarea zvonurilor
    și conspirațiilor atunci când vor.
  • 6:36 - 6:41
    La fel și noi, când distribuim inconștient
    subiecte dezbinatoare și înșelătoare
  • 6:41 - 6:42
    fără încetare.
  • 6:42 - 6:44
    Contribuim la problemă.
  • 6:45 - 6:48
    Știu că noi toți
    căutăm o rezolvare ușoară.
  • 6:48 - 6:50
    Dar pur și simplu nu există una.
  • 6:50 - 6:54
    Orice soluție ar trebui aplicată
    la scară masivă, la scară de internet,
  • 6:54 - 6:58
    și, da, platformele sunt obișnuite
    să funcționeze la acel nivel.
  • 6:58 - 7:01
    Dar putem și ar trebui să le permitem
    să rezolve aceste probleme?
  • 7:02 - 7:03
    Cu siguranță încearcă.
  • 7:03 - 7:07
    Dar majoritatea dintre noi ar fi de acord
    că, de fapt, nu vrem corporațiile globale
  • 7:07 - 7:10
    să fie apărătorii adevărului
    și corectitudinii online.
  • 7:10 - 7:12
    Și cred că platformele
    sunt de acord cu asta.
  • 7:12 - 7:15
    Iar în prezent își evaluează
    propriile soluții.
  • 7:15 - 7:16
    Le place să ne spună
  • 7:16 - 7:19
    că intervențiile
    pe care le derulează funcționează,
  • 7:19 - 7:22
    dar deoarece își scriu
    propriile rapoarte de transparență,
  • 7:22 - 7:25
    nu e nicio metodă ca noi să verificăm
    independent ce se întâmplă de fapt.
  • 7:26 - 7:30
    (Aplauze)
  • 7:30 - 7:33
    Și să fie clar, majoritatea
    schimbărilor pe care le vedem
  • 7:33 - 7:36
    apar după ce jurnaliștii investighează
  • 7:36 - 7:37
    și găsesc dovezi de părtinire
  • 7:37 - 7:40
    sau conținut care încalcă
    regulile comunității.
  • 7:41 - 7:45
    Deci da, aceste companii trebuie să joace
    un rol important în acest proces,
  • 7:45 - 7:47
    dar nu pot să îl controleze.
  • 7:48 - 7:49
    Dar guvernele?
  • 7:50 - 7:53
    Mulți cred că reglementarea globală
    e ultima noastră speranță.
  • 7:53 - 7:56
    în ce privește curățarea
    ecosistemului nostru informațional.
  • 7:56 - 7:59
    Dar eu văd doar legislatori
    care se luptă să țină pasul
  • 7:59 - 8:01
    cu schimbările rapide ale tehnologiei.
  • 8:01 - 8:03
    Mai rău, lucrează în întuneric,
  • 8:03 - 8:05
    deoarece nu au acces la informații
  • 8:05 - 8:08
    pentru a înțelege ce se întâmplă
    pe aceste platforme.
  • 8:08 - 8:11
    Și oricum, în care guvern putem avea
    încredere să facă asta?
  • 8:11 - 8:14
    Avem nevoie de un răspuns global,
    nu de unul național.
  • 8:15 - 8:18
    Deci veriga lipsă suntem noi,
  • 8:18 - 8:21
    oameni care folosesc
    aceste tehnologii în fiecare zi.
  • 8:21 - 8:26
    Putem proiecta o nouă infrastructură
    pentru a susține informațiile de calitate?
  • 8:26 - 8:28
    Ei bine, cred că da,
  • 8:28 - 8:31
    și am câteva idei despre ce am putea face.
  • 8:31 - 8:34
    Mai întâi, dacă chiar vrem
    să implicăm publicul în asta,
  • 8:34 - 8:37
    nu putem să ne inspirăm din Wikipedia?
  • 8:37 - 8:38
    Ne-au arătat ce e posibil.
  • 8:38 - 8:40
    Da, nu e perfect,
  • 8:40 - 8:42
    dar ne-au demonstrat
    că având structurile potrivite,
  • 8:42 - 8:45
    cu o perspectivă globală
    și foarte multă transparență,
  • 8:45 - 8:48
    putem construi ceva care să câștige
    încrederea majorității oamenilor.
  • 8:48 - 8:51
    Pentru că trebuie să găsim o cale
    de a accesa înțelepciunea colectivă
  • 8:51 - 8:53
    și experiența tuturor utilizatorilor.
  • 8:54 - 8:56
    E în special cazul femeilor,
    oamenilor de culoare
  • 8:56 - 8:58
    și grupurilor subreprezentate.
  • 8:58 - 8:59
    Ghiciți de ce?
  • 8:59 - 9:01
    Ei sunt experți când vine vorba
    de ură și dezinformare,
  • 9:02 - 9:05
    pentru că au fost țintele
    acestor campanii pentru mult timp.
  • 9:05 - 9:07
    Și de-a lungul anilor ne-au avertizat
  • 9:07 - 9:09
    și nu au fost ascultați.
  • 9:09 - 9:11
    Asta trebuie să se schimbe.
  • 9:11 - 9:15
    Deci, am putea construi
    o Wikipedia pentru încredere?
  • 9:15 - 9:19
    Am putea găsi o modalitate prin care
    utilizatorii să ofere o perspectivă?
  • 9:19 - 9:23
    Ar putea oferi o perspectivă
    despre deciziile de moderare.
  • 9:23 - 9:25
    Ar putea oferi feedback
  • 9:25 - 9:28
    când platformele decid
    că vor să facă schimbări.
  • 9:28 - 9:32
    În a doilea rând, experiențele oamenilor
    cu informația sunt personalizate.
  • 9:32 - 9:35
    Fluxul meu de știri pe Facebook
    e diferit de al vostru.
  • 9:35 - 9:38
    Recomandările voastre pe YouTube
    sunt diferite de ale mele.
  • 9:38 - 9:40
    Asta face imposibil pentru noi să examinăm
  • 9:40 - 9:42
    ce informații văd oamenii.
  • 9:43 - 9:44
    Așadar, am putea
  • 9:44 - 9:49
    să dezvoltăm un fel de depozit centralizat
    deschis pentru date anonimizate,
  • 9:49 - 9:52
    cu preocupări incorporate
    privind intimitatea și etica?
  • 9:52 - 9:54
    Imaginați-vă câte am putea învăța
  • 9:54 - 9:57
    dacă vom construi o rețea globală
    de cetățeni
  • 9:57 - 10:01
    care vor să doneze științei
    datele lor sociale.
  • 10:01 - 10:03
    Pentru că de fapt știm foarte puține
  • 10:03 - 10:06
    despre consecințele pe termen lung
    ale urii și dezinformării
  • 10:06 - 10:08
    asupra atitudinii
    și comportamentului oamenilor.
  • 10:08 - 10:09
    Și din ceea ce știm,
  • 10:09 - 10:12
    cele mai multe s-au desfășurat în SUA,
  • 10:12 - 10:14
    în ciuda faptului că e o problemă globală.
  • 10:14 - 10:16
    Trebuie să lucrăm și la asta.
  • 10:16 - 10:17
    Și în al treilea rând,
  • 10:17 - 10:20
    putem găsi o modalitate de a uni punctele?
  • 10:20 - 10:23
    Niciun sector, ONG, start-up sau guvern
  • 10:23 - 10:25
    nu va rezolva problema.
  • 10:25 - 10:27
    Dar în lume sunt oameni foarte deștepți
  • 10:27 - 10:29
    care lucrează la aceste provocări,
  • 10:29 - 10:32
    agenții de presă, societatea civilă,
    academicieni, grupuri activiste.
  • 10:32 - 10:34
    Iar unii dintre ei pot fi văzuți aici.
  • 10:34 - 10:37
    Unii realizează indicatori
    de credibilitate a conținutului.
  • 10:37 - 10:38
    Alții verifică faptele,
  • 10:38 - 10:42
    astfel încât afirmațiile, videoclipurile
    și imaginile false să fie date jos.
  • 10:42 - 10:45
    Un ONG la al cărui înființare
    am ajutat, First Draft,
  • 10:45 - 10:48
    lucrează cu agențiile de presă
    din întreaga lume
  • 10:48 - 10:51
    pentru a-i ajuta să construiască programe
    de investigație colaborative.
  • 10:51 - 10:54
    Și Danny Hillis, un arhitect de software,
  • 10:54 - 10:56
    creează un sistem nou, numit The Underlay,
  • 10:56 - 10:59
    care va fi o înregistrare a tuturor
    declarațiilor publice
  • 10:59 - 11:00
    conectate cu sursele lor,
  • 11:00 - 11:04
    astfel încât oamenii și algoritmii
    să poată judeca mai bine ce e credibil.
  • 11:05 - 11:08
    Și profesorii din întreaga lume
    testează diferite tehnici
  • 11:08 - 11:12
    pentru a-i face pe oameni mai critici
    în legătură cu ceea ce citesc.
  • 11:13 - 11:16
    Toate aceste eforturi sunt minunate,
    dar ei lucrează separat
  • 11:16 - 11:18
    și mulți dintre ei sunt subfinanțați.
  • 11:19 - 11:21
    Sunt și sute de oameni foarte deștepți
  • 11:21 - 11:22
    care lucrează în aceste companii,
  • 11:22 - 11:25
    dar, din nou, aceste eforturi
    sunt neconectate,
  • 11:25 - 11:29
    deoarece de fapt dezvoltă diverse
    soluții la aceleași probleme.
  • 11:29 - 11:31
    Cum putem găsi o modalitate
    de a aduce oamenii împreună,
  • 11:31 - 11:35
    într-un singur loc,
    pentru zile sau săptămâni,
  • 11:35 - 11:37
    pentru a aborda aceste probleme împreună,
  • 11:37 - 11:39
    dar din diferite perspective?
  • 11:39 - 11:40
    Putem face asta?
  • 11:40 - 11:44
    Putem construi un răspuns
    coordonat și ambițios,
  • 11:44 - 11:47
    unul pe măsura mărimii
    și complexității problemei?
  • 11:48 - 11:49
    Eu cred că putem.
  • 11:49 - 11:52
    Să reconstruim împreună
    mediul informațional!
  • 11:53 - 11:54
    Vă mulțumesc!
  • 11:54 - 11:58
    (Aplauze)
Title:
Cum poți ajuta la transformarea internetului într-un mediu de încredere
Speaker:
Claire Wardle
Description:

Cum putem opri răspândirea conținuturilor înșelătoare, uneori periculoase, menținând în același timp un internet cu libertate de expresie? Expertul în dezinformare Claire Wardle explorează noile provocări ale mediului online și trasează un plan pentru a transforma internetul într-un loc al încrederii, cu ajutorul utilizatorilor obișnuiți. „Să reconstruim împreună comunitatea informațională”, spune ea.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Romanian subtitles

Revisions