Cum poți ajuta la transformarea internetului într-un mediu de încredere
-
0:02 - 0:04Indiferent cine ești sau unde locuiești,
-
0:04 - 0:06cred că ai cel puțin o rudă
-
0:06 - 0:09căreia îi place
să distribuie acele postări. -
0:09 - 0:11Știți despre ce vorbesc:
-
0:11 - 0:14cele cu afirmații dubioase
sau videoclipuri despre conspirații. -
0:14 - 0:17Și probabil le-ați dat „mute” pe Facebook
-
0:17 - 0:19pentru distribuirea postărilor ca aceasta.
-
0:19 - 0:21Este imaginea unei banane
-
0:21 - 0:23cu o cruce roșie ciudată în mijloc.
-
0:23 - 0:26Iar textul avertizează oamenii
-
0:26 - 0:28să nu mănânce fructe care arată așa,
-
0:28 - 0:30sugerând că ar fi fost injectate cu sânge
-
0:30 - 0:32contaminat cu virusul HIV.
-
0:32 - 0:35Și mesajul de deasupra spune:
-
0:35 - 0:37„Vă rog distribuiți pentru a salva vieți”.
-
0:38 - 0:41Cei care verifică faptele au demitizat
astfel de știri acum mulți ani, -
0:41 - 0:44dar e unul din acele zvonuri
care nu vrea să moară. -
0:44 - 0:45Un zvon zombie.
-
0:46 - 0:48Și, bineînțeles, e total fals.
-
0:48 - 0:51Ai putea fi tentat să râzi
la un asemenea exemplu, să spui: -
0:51 - 0:53„Cine ar putea crede asta?”
-
0:53 - 0:55Motivul pentru care e un zvon zombie
-
0:55 - 0:59e pentru că atinge cele mai mari temeri
ale oamenilor privind propria siguranță -
0:59 - 1:01și a celor pe care îi iubesc.
-
1:02 - 1:05Iar dacă petreci la fel de mult timp
ca mine analizând dezinformarea, -
1:05 - 1:08știi că acesta e doar un exemplu
din multele -
1:08 - 1:11care ating cele mai adânci
frici și vulnerabilități. -
1:11 - 1:16În fiecare zi vedem un număr
mare de noi meme pe Instagram -
1:16 - 1:19care încurajează părinții
să nu își vaccineze copiii. -
1:19 - 1:23Vedem videoclipuri pe YouTube explicând
că schimbările climaterice sunt o farsă. -
1:23 - 1:28Pe toate platformele vedem nenumărate
postări care îi demonizează pe alții -
1:28 - 1:31pe baza rasei, religiei sau sexualității.
-
1:32 - 1:35Bine ați venit la una din marile
provocări ale zilelor noastre. -
1:36 - 1:40Cum putem să menținem
un internet cu libertate de expresie, -
1:40 - 1:43asigurându-ne totodată că conținutul
-
1:43 - 1:47nu cauzează prejudicii ireparabile
democrației, comunităților -
1:47 - 1:49și bunăstării noastre fizice și psihice?
-
1:50 - 1:52Deși trăim în era informației,
-
1:52 - 1:56totuși elementul cheie
de care depindem toți: informația, -
1:56 - 1:58nu mai e considerată de încredere
-
1:58 - 2:00și câteodată poate fi chiar periculoasă.
-
2:01 - 2:05Asta se datorează în mare parte creșterii
necontrolate a platformelor sociale -
2:05 - 2:06care ne permit să citim
-
2:06 - 2:09minciuni și adevăruri alăturate,
-
2:09 - 2:12fără niciun semnal
tradițional al încrederii. -
2:12 - 2:16Și, Doamne, limbajul folosit
e îngrozitor de confuz. -
2:16 - 2:19Oamenii încă sunt obsedați
de expresia „știri false”, -
2:19 - 2:22în ciuda faptului
că e extraordinar de inutilă -
2:22 - 2:25și folosită pentru a descrie
multe lucruri care sunt foarte diferite: -
2:25 - 2:28minciuni, zvonuri, farse,
conspirații, propagandă. -
2:29 - 2:32Și chiar îmi doresc
să nu mai folosim o expresie -
2:32 - 2:35care a fost folosită
de politicienii din întreaga lume, -
2:35 - 2:36de stânga și de dreapta,
-
2:36 - 2:39ca să atace presă liberă și independentă.
-
2:40 - 2:45(Aplauze)
-
2:45 - 2:48Deoarece avem nevoie de o presă
profesionistă mai mult ca niciodată. -
2:49 - 2:52Și pe lângă asta, majoritatea acestui
conținut nu pretinde a fi știri. -
2:52 - 2:55Sunt meme, videoclipuri, postări.
-
2:55 - 2:58Și majoritatea nu sunt false;
sunt înșelătoare. -
2:58 - 3:01Tindem să ne fixăm
pe ce e adevărat sau fals. -
3:01 - 3:05Dar cea mai mare problemă
e de fapt folosirea contextului. -
3:07 - 3:09Pentru că cea mai eficientă dezinformare
-
3:09 - 3:12a fost întotdeauna cea care are
un sâmbure de adevăr în ea. -
3:12 - 3:15Să luam un exemplu din Londra,
din martie 2017, -
3:15 - 3:17un tweet care a circulat la scară largă
-
3:17 - 3:21în urma unui incident terorist
pe podul Westminster. -
3:21 - 3:23Aceasta e o imagine reală, nu falsă.
-
3:23 - 3:26Femeia care apare în poză
a fost intervievată după aceea -
3:26 - 3:29și a explicat că a fost
extrem de traumatizată. -
3:29 - 3:30Era la telefon cu o persoană iubită,
-
3:30 - 3:33și nu se uita la victimă din respect.
-
3:33 - 3:37Dar a circulat la scară largă
cu această descriere islamofobă, -
3:37 - 3:40cu multiple hashtag-uri,
printre care #InterzicețiIslamul. -
3:40 - 3:43Acum, dacă ai lucra la Twitter,
ce ai face? -
3:43 - 3:45Ai da-o jos sau ai lăsa-o?
-
3:47 - 3:50Instinctiv, emoțional, aș da-o jos.
-
3:50 - 3:52Urăsc descrierea acestei imagini.
-
3:53 - 3:55Dar libertatea de expresie
e un drept al omului, -
3:55 - 3:58și dacă începem să interzicem
părerile inconfortabile, -
3:58 - 3:59avem probleme.
-
4:00 - 4:02Și acesta poate părea un caz clar,
-
4:02 - 4:04dar, de fapt, majoritatea nu sunt.
-
4:04 - 4:06Liniile sunt incredibil de greu de trasat.
-
4:06 - 4:08Ce e o decizie bine intenționată
pentru o persoană -
4:08 - 4:10e cenzură pentru alta.
-
4:11 - 4:14Ceea ce știm e că acest cont,
Texas Lone Star, -
4:14 - 4:17a făcut parte dintr-o largă campanie
rusească de dezinformare -
4:17 - 4:19care a fost demascată.
-
4:19 - 4:21Vă schimba asta punctul de vedere?
-
4:21 - 4:22Pe al meu îl schimbă,
-
4:23 - 4:25pentru că face parte
dintr-o campanie coordonată -
4:25 - 4:26pentru a semăna discordie.
-
4:26 - 4:28Iar pentru cei care cred
-
4:28 - 4:31că inteligența artificială va rezolva
toate problemele noastre, -
4:31 - 4:33cred că putem fi de acord
că suntem departe -
4:33 - 4:36de acea IA care e capabilă să dea sens
postărilor ca aceasta. -
4:37 - 4:39Aș vrea să vă explic
trei aspecte interconectate -
4:39 - 4:42care fac problema atât de complexă
-
4:42 - 4:45și să vă gândiți la câteva moduri
de a privi aceste provocări. -
4:45 - 4:49În primul rând, noi pur și simplu nu avem
o relație rațională cu informația, -
4:49 - 4:51ci una emoțională.
-
4:51 - 4:55Nu e adevărat că mai multe informații
vor rezolva totul, -
4:55 - 4:58pentru că algoritimii care determină
ce conținut vedem, -
4:58 - 5:01sunt făcuți să recompenseze
răspunsul nostru emoțional. -
5:01 - 5:02Iar când ne temem,
-
5:02 - 5:05poveștile simplificate,
explicațiile conspirative -
5:05 - 5:09și limbajul ce îi demonizează pe ceilalți
sunt mult mai eficiente. -
5:10 - 5:11În plus, multe din aceste companii
-
5:11 - 5:14au modelul de afaceri bazat pe atenție,
-
5:14 - 5:18ceea ce înseamnă că acești algoritmi
vor fi întotdeauna atrași spre emoții. -
5:18 - 5:23În al doilea rând, majoritatea limbajului
despre care vă vorbesc este legal. -
5:23 - 5:25Ar fi cu totul altceva
-
5:25 - 5:27dacă aș fi vorbit
despre copii abuzați sexual -
5:27 - 5:29sau conținut care incită la violență.
-
5:29 - 5:32E perfect legal să postezi o minciună.
-
5:33 - 5:37Dar oamenii vorbesc despre interzicerea
subiectelor „problematice” sau „nocive”, -
5:37 - 5:40dar fără o definiție clară
a ce înseamnă asta, -
5:40 - 5:41inclusiv Mark Zuckerberg,
-
5:41 - 5:45care a cerut recent o reglementare
globală a limbajului. -
5:45 - 5:47Teama mea e că vedem guverne
-
5:47 - 5:48în toată lumea
-
5:48 - 5:51care iau decizii politice pripite,
-
5:51 - 5:54care chiar ar putea declanșa
consecințe mult mai grave -
5:54 - 5:56când vine vorba de libertatea de expresie.
-
5:56 - 6:00Chiar dacă am putea decide
care părere e interzisă sau nu, -
6:00 - 6:02nu am avut niciodată atâtea păreri.
-
6:02 - 6:04În fiecare secundă milioane de materiale
-
6:04 - 6:06sunt încărcate de oameni din toată lumea,
-
6:06 - 6:07în diferite limbi,
-
6:07 - 6:10influențând mii de oameni
din contexte culturale diferite. -
6:10 - 6:13Pur și simplu nu am avut
niciodată mecanisme eficiente -
6:13 - 6:15pentru a modera limbajul
la această scară, -
6:15 - 6:18indiferent dacă sunt alimentate
de oameni sau tehnologie. -
6:18 - 6:22În al treilea rând, aceste companii,
Google, Twitter, Facebook, WhatsApp, -
6:22 - 6:25fac parte dintr-un ecosistem
informațional mai mare. -
6:25 - 6:28Ne place să dăm vina pe ei,
dar adevărul e -
6:28 - 6:32că mass media și reprezentanții aleși
pot juca un rol la fel de important -
6:32 - 6:35în amplificarea zvonurilor
și conspirațiilor atunci când vor. -
6:36 - 6:41La fel și noi, când distribuim inconștient
subiecte dezbinatoare și înșelătoare -
6:41 - 6:42fără încetare.
-
6:42 - 6:44Contribuim la problemă.
-
6:45 - 6:48Știu că noi toți
căutăm o rezolvare ușoară. -
6:48 - 6:50Dar pur și simplu nu există una.
-
6:50 - 6:54Orice soluție ar trebui aplicată
la scară masivă, la scară de internet, -
6:54 - 6:58și, da, platformele sunt obișnuite
să funcționeze la acel nivel. -
6:58 - 7:01Dar putem și ar trebui să le permitem
să rezolve aceste probleme? -
7:02 - 7:03Cu siguranță încearcă.
-
7:03 - 7:07Dar majoritatea dintre noi ar fi de acord
că, de fapt, nu vrem corporațiile globale -
7:07 - 7:10să fie apărătorii adevărului
și corectitudinii online. -
7:10 - 7:12Și cred că platformele
sunt de acord cu asta. -
7:12 - 7:15Iar în prezent își evaluează
propriile soluții. -
7:15 - 7:16Le place să ne spună
-
7:16 - 7:19că intervențiile
pe care le derulează funcționează, -
7:19 - 7:22dar deoarece își scriu
propriile rapoarte de transparență, -
7:22 - 7:25nu e nicio metodă ca noi să verificăm
independent ce se întâmplă de fapt. -
7:26 - 7:30(Aplauze)
-
7:30 - 7:33Și să fie clar, majoritatea
schimbărilor pe care le vedem -
7:33 - 7:36apar după ce jurnaliștii investighează
-
7:36 - 7:37și găsesc dovezi de părtinire
-
7:37 - 7:40sau conținut care încalcă
regulile comunității. -
7:41 - 7:45Deci da, aceste companii trebuie să joace
un rol important în acest proces, -
7:45 - 7:47dar nu pot să îl controleze.
-
7:48 - 7:49Dar guvernele?
-
7:50 - 7:53Mulți cred că reglementarea globală
e ultima noastră speranță. -
7:53 - 7:56în ce privește curățarea
ecosistemului nostru informațional. -
7:56 - 7:59Dar eu văd doar legislatori
care se luptă să țină pasul -
7:59 - 8:01cu schimbările rapide ale tehnologiei.
-
8:01 - 8:03Mai rău, lucrează în întuneric,
-
8:03 - 8:05deoarece nu au acces la informații
-
8:05 - 8:08pentru a înțelege ce se întâmplă
pe aceste platforme. -
8:08 - 8:11Și oricum, în care guvern putem avea
încredere să facă asta? -
8:11 - 8:14Avem nevoie de un răspuns global,
nu de unul național. -
8:15 - 8:18Deci veriga lipsă suntem noi,
-
8:18 - 8:21oameni care folosesc
aceste tehnologii în fiecare zi. -
8:21 - 8:26Putem proiecta o nouă infrastructură
pentru a susține informațiile de calitate? -
8:26 - 8:28Ei bine, cred că da,
-
8:28 - 8:31și am câteva idei despre ce am putea face.
-
8:31 - 8:34Mai întâi, dacă chiar vrem
să implicăm publicul în asta, -
8:34 - 8:37nu putem să ne inspirăm din Wikipedia?
-
8:37 - 8:38Ne-au arătat ce e posibil.
-
8:38 - 8:40Da, nu e perfect,
-
8:40 - 8:42dar ne-au demonstrat
că având structurile potrivite, -
8:42 - 8:45cu o perspectivă globală
și foarte multă transparență, -
8:45 - 8:48putem construi ceva care să câștige
încrederea majorității oamenilor. -
8:48 - 8:51Pentru că trebuie să găsim o cale
de a accesa înțelepciunea colectivă -
8:51 - 8:53și experiența tuturor utilizatorilor.
-
8:54 - 8:56E în special cazul femeilor,
oamenilor de culoare -
8:56 - 8:58și grupurilor subreprezentate.
-
8:58 - 8:59Ghiciți de ce?
-
8:59 - 9:01Ei sunt experți când vine vorba
de ură și dezinformare, -
9:02 - 9:05pentru că au fost țintele
acestor campanii pentru mult timp. -
9:05 - 9:07Și de-a lungul anilor ne-au avertizat
-
9:07 - 9:09și nu au fost ascultați.
-
9:09 - 9:11Asta trebuie să se schimbe.
-
9:11 - 9:15Deci, am putea construi
o Wikipedia pentru încredere? -
9:15 - 9:19Am putea găsi o modalitate prin care
utilizatorii să ofere o perspectivă? -
9:19 - 9:23Ar putea oferi o perspectivă
despre deciziile de moderare. -
9:23 - 9:25Ar putea oferi feedback
-
9:25 - 9:28când platformele decid
că vor să facă schimbări. -
9:28 - 9:32În a doilea rând, experiențele oamenilor
cu informația sunt personalizate. -
9:32 - 9:35Fluxul meu de știri pe Facebook
e diferit de al vostru. -
9:35 - 9:38Recomandările voastre pe YouTube
sunt diferite de ale mele. -
9:38 - 9:40Asta face imposibil pentru noi să examinăm
-
9:40 - 9:42ce informații văd oamenii.
-
9:43 - 9:44Așadar, am putea
-
9:44 - 9:49să dezvoltăm un fel de depozit centralizat
deschis pentru date anonimizate, -
9:49 - 9:52cu preocupări incorporate
privind intimitatea și etica? -
9:52 - 9:54Imaginați-vă câte am putea învăța
-
9:54 - 9:57dacă vom construi o rețea globală
de cetățeni -
9:57 - 10:01care vor să doneze științei
datele lor sociale. -
10:01 - 10:03Pentru că de fapt știm foarte puține
-
10:03 - 10:06despre consecințele pe termen lung
ale urii și dezinformării -
10:06 - 10:08asupra atitudinii
și comportamentului oamenilor. -
10:08 - 10:09Și din ceea ce știm,
-
10:09 - 10:12cele mai multe s-au desfășurat în SUA,
-
10:12 - 10:14în ciuda faptului că e o problemă globală.
-
10:14 - 10:16Trebuie să lucrăm și la asta.
-
10:16 - 10:17Și în al treilea rând,
-
10:17 - 10:20putem găsi o modalitate de a uni punctele?
-
10:20 - 10:23Niciun sector, ONG, start-up sau guvern
-
10:23 - 10:25nu va rezolva problema.
-
10:25 - 10:27Dar în lume sunt oameni foarte deștepți
-
10:27 - 10:29care lucrează la aceste provocări,
-
10:29 - 10:32agenții de presă, societatea civilă,
academicieni, grupuri activiste. -
10:32 - 10:34Iar unii dintre ei pot fi văzuți aici.
-
10:34 - 10:37Unii realizează indicatori
de credibilitate a conținutului. -
10:37 - 10:38Alții verifică faptele,
-
10:38 - 10:42astfel încât afirmațiile, videoclipurile
și imaginile false să fie date jos. -
10:42 - 10:45Un ONG la al cărui înființare
am ajutat, First Draft, -
10:45 - 10:48lucrează cu agențiile de presă
din întreaga lume -
10:48 - 10:51pentru a-i ajuta să construiască programe
de investigație colaborative. -
10:51 - 10:54Și Danny Hillis, un arhitect de software,
-
10:54 - 10:56creează un sistem nou, numit The Underlay,
-
10:56 - 10:59care va fi o înregistrare a tuturor
declarațiilor publice -
10:59 - 11:00conectate cu sursele lor,
-
11:00 - 11:04astfel încât oamenii și algoritmii
să poată judeca mai bine ce e credibil. -
11:05 - 11:08Și profesorii din întreaga lume
testează diferite tehnici -
11:08 - 11:12pentru a-i face pe oameni mai critici
în legătură cu ceea ce citesc. -
11:13 - 11:16Toate aceste eforturi sunt minunate,
dar ei lucrează separat -
11:16 - 11:18și mulți dintre ei sunt subfinanțați.
-
11:19 - 11:21Sunt și sute de oameni foarte deștepți
-
11:21 - 11:22care lucrează în aceste companii,
-
11:22 - 11:25dar, din nou, aceste eforturi
sunt neconectate, -
11:25 - 11:29deoarece de fapt dezvoltă diverse
soluții la aceleași probleme. -
11:29 - 11:31Cum putem găsi o modalitate
de a aduce oamenii împreună, -
11:31 - 11:35într-un singur loc,
pentru zile sau săptămâni, -
11:35 - 11:37pentru a aborda aceste probleme împreună,
-
11:37 - 11:39dar din diferite perspective?
-
11:39 - 11:40Putem face asta?
-
11:40 - 11:44Putem construi un răspuns
coordonat și ambițios, -
11:44 - 11:47unul pe măsura mărimii
și complexității problemei? -
11:48 - 11:49Eu cred că putem.
-
11:49 - 11:52Să reconstruim împreună
mediul informațional! -
11:53 - 11:54Vă mulțumesc!
-
11:54 - 11:58(Aplauze)
- Title:
- Cum poți ajuta la transformarea internetului într-un mediu de încredere
- Speaker:
- Claire Wardle
- Description:
-
Cum putem opri răspândirea conținuturilor înșelătoare, uneori periculoase, menținând în același timp un internet cu libertate de expresie? Expertul în dezinformare Claire Wardle explorează noile provocări ale mediului online și trasează un plan pentru a transforma internetul într-un loc al încrederii, cu ajutorul utilizatorilor obișnuiți. „Să reconstruim împreună comunitatea informațională”, spune ea.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
Mirel-Gabriel Alexa approved Romanian subtitles for How you can help transform the internet into a place of trust | ||
Mirel-Gabriel Alexa edited Romanian subtitles for How you can help transform the internet into a place of trust | ||
Mirel-Gabriel Alexa edited Romanian subtitles for How you can help transform the internet into a place of trust | ||
Mirel-Gabriel Alexa edited Romanian subtitles for How you can help transform the internet into a place of trust | ||
Mirel-Gabriel Alexa edited Romanian subtitles for How you can help transform the internet into a place of trust | ||
Cristina Nicolae accepted Romanian subtitles for How you can help transform the internet into a place of trust | ||
Cristina Nicolae edited Romanian subtitles for How you can help transform the internet into a place of trust | ||
Cristina Nicolae edited Romanian subtitles for How you can help transform the internet into a place of trust |