Return to Video

În lumea bizară a trolilor și propagandiștilor de pe internet

  • 0:01 - 0:02
    Am petrecut ultimii trei ani
  • 0:02 - 0:05
    vorbind cu unii dintre cei mai răi
    oameni de pe internet.
  • 0:06 - 0:09
    Dacă ați fost online recent,
  • 0:09 - 0:12
    poate ați observat că există
    o mulțime de gunoaie toxice acolo:
  • 0:12 - 0:17
    glume rasiste, propagandă misogină,
    dezinformare virală.
  • 0:17 - 0:20
    Așa că am vrut să știu
    cine face lucrurile astea.
  • 0:20 - 0:22
    Am vrut să înțeleg cum le răspândeau.
  • 0:22 - 0:24
    În cele din urmă, am vrut să știu
  • 0:24 - 0:26
    ce fel de impact ar putea avea
    asupra societății noastre.
  • 0:26 - 0:30
    Astfel, în 2016 am început să urmăresc
    unele glume înapoi spre sursa lor,
  • 0:30 - 0:33
    înapoi la oamenii care le făceau,
    sau care le făceau să devină virale.
  • 0:33 - 0:35
    Mă adresam acestor persoane:
  • 0:35 - 0:37
    „Hei, sunt jurnalist.
    Pot veni să urmăresc să faci?”
  • 0:37 - 0:39
    Adesea răspunsul era:
  • 0:39 - 0:42
    „De ce aș vrea să vorbesc cu un fătălău,
  • 0:42 - 0:44
    un evreu slăbănog
    și globalist din Brooklyn,
  • 0:44 - 0:46
    care e în cârdășie cu Partidul Democrat?”
  • 0:46 - 0:47
    (Râsete)
  • 0:47 - 0:51
    La care răspunsul meu era:
    „Uite, omule, asta e doar 57% adevărat.”
  • 0:51 - 0:53
    (Râsete)
  • 0:53 - 0:55
    Dar de multe ori am primit răspunsul opus.
  • 0:55 - 0:56
    „Da, sigur, vino.”
  • 0:57 - 0:58
    Așa am ajuns în sufrageria
  • 0:58 - 1:02
    a unui propagandist
    social media din sudul Californiei.
  • 1:02 - 1:05
    Era un tip alb căsătorit
    aproape de 40 de ani.
  • 1:05 - 1:08
    Avea o masă în fața lui
    cu o cană de cafea,
  • 1:08 - 1:10
    un laptop pentru tweeting,
  • 1:10 - 1:11
    un telefon pentru mesaje
  • 1:11 - 1:15
    și un iPad pentru transmisie în direct
    pe Periscope și YouTube.
  • 1:15 - 1:16
    Asta era tot.
  • 1:17 - 1:18
    Și totuși, cu aceste unelte,
  • 1:18 - 1:22
    a fost capabil să-și propulseze subiectele
    lui de discuție îngrozitoare și nocive
  • 1:22 - 1:25
    în inima dezbaterilor americane.
  • 1:25 - 1:27
    De exemplu, într-o zi când eram acolo,
  • 1:27 - 1:30
    o bombă tocmai explodase în New York,
  • 1:30 - 1:34
    iar bărbatul acuzat că a plantat bomba
    avea un nume ce părea musulman.
  • 1:34 - 1:38
    Pentru propagandistul din California,
    aceasta părea o oportunitate,
  • 1:38 - 1:40
    fiindcă unul din lucrurile
    pe care și le dorea
  • 1:40 - 1:42
    era ca SUA să reducă
    aproape toată imigrația,
  • 1:42 - 1:45
    în special din țările majoritar musulmane.
  • 1:45 - 1:47
    Așa că a început să transmită în direct,
  • 1:47 - 1:50
    făcând ca urmăritorii lui
    să comenteze frenetic
  • 1:50 - 1:53
    despre cum agenda frontierelor deschise
    urma să ne omoare pe toți,
  • 1:53 - 1:55
    cerându-le să scrie pe Twitter asta,
  • 1:55 - 1:56
    utilizând cuvinte specifice,
  • 1:56 - 1:58
    încercând să facă cuvintele populare.
  • 1:58 - 1:59
    Și au scris,
  • 1:59 - 2:01
    sute și sute de mesaje,
  • 2:01 - 2:03
    multe dintre ele
    prezentând imagini ca aceasta.
  • 2:03 - 2:05
    Acesta e George Soros.
  • 2:05 - 2:08
    E un miliardar și filantrop maghiar,
  • 2:08 - 2:10
    iar în mintea
    unor conspiraționiști online,
  • 2:10 - 2:13
    George Soros e un baubau globalist,
  • 2:13 - 2:17
    unul din cele câteva elite ce manipulează
    în secret toate treburile globale.
  • 2:17 - 2:21
    Acum, fac o pauză aici:
    dacă această idee vă sună familiară,
  • 2:21 - 2:23
    că există câteva elite
    care controlează lumea
  • 2:23 - 2:26
    și mulți dintre ei
    se întâmplă să fie evrei bogați,
  • 2:26 - 2:29
    asta e pentru că e una dintre cele
    mai antisemitice idei existente.
  • 2:30 - 2:34
    Ar trebui să menționez, de asemenea,
    că cel ce a plantat bomba în New York,
  • 2:34 - 2:35
    era cetățean american.
  • 2:36 - 2:38
    Deci, orice altceva s-a întâmplat acolo,
  • 2:38 - 2:40
    imigrația nu era problema principală.
  • 2:41 - 2:44
    Și propagandistul din California,
    a înțeles toate acestea.
  • 2:44 - 2:47
    Era un tip citit.
    Era de fapt avocat.
  • 2:47 - 2:48
    Știa faptele de bază,
  • 2:48 - 2:52
    dar știa și că faptele
    nu stârnesc discuții online.
  • 2:52 - 2:53
    Ce stârnește discuții online
  • 2:53 - 2:55
    e emoția.
  • 2:55 - 2:57
    Premisa principală a social media
  • 2:57 - 3:00
    a fost să ne aducă pe toți împreună,
  • 3:00 - 3:02
    să facă lumea mai deschisă,
    mai tolerantă și mai corectă,
  • 3:02 - 3:04
    și a făcut asta uneori.
  • 3:04 - 3:07
    Dar algoritmii social media
    nu au fost niciodată construiți
  • 3:07 - 3:10
    pentru a distinge adevărul de fals,
  • 3:10 - 3:14
    ce e bine sau rău pentru societate,
    ce e prosocial de ce e antisocial.
  • 3:14 - 3:16
    Acești algoritmi nu fac asta.
  • 3:16 - 3:19
    Ei doar măsoară implicarea:
  • 3:19 - 3:22
    clicuri, comentarii, partajări,
    repostări, acest fel de lucruri.
  • 3:22 - 3:25
    Și dacă doriți un conținut atrăgător,
  • 3:25 - 3:26
    trebuie să nască o emoție,
  • 3:26 - 3:30
    ceea ce oamenii de știință
    numesc „emoție excitativă ridicată”.
  • 3:30 - 3:33
    „Excitație ridicată”
    nu înseamnă doar excitare sexuală,
  • 3:33 - 3:36
    deși pe internet, evident că există.
  • 3:36 - 3:40
    Înseamnă orice, pozitiv sau negativ,
    care face ca inima oamenilor să pompeze.
  • 3:40 - 3:42
    Deci, stăteam cu acești propagandiști,
  • 3:42 - 3:44
    nu doar cu tipul din California,
    ci cu zeci dintre ei,
  • 3:44 - 3:48
    și urmăream cum făceau asta
    din nou și din nou cu succes,
  • 3:48 - 3:51
    nu pentru că erau hackeri ruși,
    nu pentru că erau genii ale tehnologiei,
  • 3:51 - 3:54
    nu pentru că aveau idei politice unice,
  • 3:54 - 3:56
    doar pentru că au înțeles
    cum funcționează social media
  • 3:56 - 3:59
    și erau dispuși
    să o exploateze în avantajul lor.
  • 3:59 - 4:02
    La început mi-am spus
    că e un fenomen extrem,
  • 4:02 - 4:04
    ceva ce a ajuns pe internet.
  • 4:04 - 4:09
    Dar nu mai există separare
    între internet și orice altceva.
  • 4:09 - 4:11
    Aceasta e o reclamă
    difuzată pe multe posturi TV
  • 4:11 - 4:14
    în timpul alegerii congresului din 2018,
  • 4:14 - 4:16
    susținând cu foarte puține dovezi
    că unul dintre candidați
  • 4:17 - 4:19
    era în buzunarul manipulatorului
    internațional George Soros,
  • 4:19 - 4:23
    care e puternic editat aici
    lângă stive de numerar.
  • 4:23 - 4:26
    Acesta e un mesaj
    al președintelui Statelor Unite,
  • 4:26 - 4:28
    invocând, din nou, fără probe,
  • 4:28 - 4:31
    că politica americană
    e manipulată de George Soros.
  • 4:31 - 4:35
    Lucruri care odată păreau atât de șocante,
    marginale și, sincer, de ignorat,
  • 4:35 - 4:38
    acum sunt atât de normal,
    încât abia le mai observăm.
  • 4:38 - 4:40
    Așa că am stat
    aproape trei ani în această lume.
  • 4:40 - 4:42
    Am vorbit cu o mulțime de oameni.
  • 4:42 - 4:44
    Unii dintre ei păreau
    să nu aibă deloc convingeri.
  • 4:44 - 4:47
    Păreau doar să parieze, perfect rațional,
  • 4:47 - 4:49
    că dacă vor să câștige bani online
  • 4:49 - 4:51
    sau să obțină atenție online,
  • 4:51 - 4:53
    trebuie să fie cât se poate de extremi.
  • 4:53 - 4:56
    Dar am vorbit cu alți oameni
    care erau adevărați ideologi.
  • 4:56 - 5:00
    Și ca să fie clar, ideologia lor
    nu era conservatorismul tradițional.
  • 5:00 - 5:03
    Aceștia erau oameni
    ce doreau să revoce votul feminin.
  • 5:03 - 5:06
    Aceștia doreau revenirea
    la segregarea rasială.
  • 5:06 - 5:09
    Unii dintre ei doreau
    îndepărtarea totală a democrației.
  • 5:09 - 5:12
    E evident că acești oameni
    nu s-au născut crezând aceste lucruri.
  • 5:12 - 5:15
    Nu le-au învățat în școala primară.
  • 5:15 - 5:18
    Mulți dintre ei, înainte
    de a intra în obscuritățile internetului
  • 5:18 - 5:20
    fuseseră libertarieni sau socialiști
  • 5:20 - 5:22
    sau fuseseră cu totul altceva.
  • 5:22 - 5:24
    Deci, ce se întâmpla?
  • 5:25 - 5:27
    Ei bine, nu pot generaliza
    pentru fiecare caz,
  • 5:27 - 5:29
    dar mulți oameni cu care am vorbit,
  • 5:29 - 5:33
    par să aibă o combinație
    între un IQ mare și un EQ mic.
  • 5:33 - 5:36
    Par să se simtă confortabil
    în spații online anonime
  • 5:36 - 5:38
    mai degrabă decât conectați
    în lumea reală.
  • 5:39 - 5:41
    Așa că de multe ori
    se retrag în aceste forumuri
  • 5:41 - 5:42
    sau subreddit-uri,
  • 5:42 - 5:45
    unde impulsurile lor
    cele mai rele vor fi amplificate.
  • 5:45 - 5:48
    Ar putea începe
    spunând ceva ca o glumă bolnavă,
  • 5:48 - 5:51
    iar apoi vor primi atât de multe
    aprecieri pentru această glumă,
  • 5:51 - 5:54
    atât de multe „puncte pe internet”
    fără sens, cum le numesc ei,
  • 5:54 - 5:57
    încât încep să creadă
    în propria lor glumă.
  • 5:58 - 6:02
    Am vorbit mult cu o tânără
    care a crescut în New Jersey,
  • 6:02 - 6:04
    care după liceu s-a mutat într-un loc nou,
  • 6:04 - 6:06
    unde brusc s-a simțit
    înstrăinată și izolată
  • 6:06 - 6:08
    și a început să se retragă
    în telefonul ei.
  • 6:09 - 6:11
    A găsit unele
    din aceste spații pe internet
  • 6:11 - 6:14
    unde oamenii postează
    cele mai șocante și amețitoare lucruri.
  • 6:14 - 6:17
    Și a considerat aceste lucruri
    complet dezgustătoare,
  • 6:17 - 6:18
    dar de asemenea captivante,
  • 6:19 - 6:21
    ceva de care nu se putea dezlipi.
  • 6:21 - 6:24
    A început să interacționeze
    cu cei din aceste spații online,
  • 6:24 - 6:26
    și au făcut-o să se simtă
    inteligentă, autentică.
  • 6:26 - 6:29
    A început să simtă
    un sentiment de comunitate,
  • 6:29 - 6:32
    a început să se întrebe dacă unele
    dintre aceste idei șocante
  • 6:32 - 6:34
    ar putea conține un miez de adevăr.
  • 6:34 - 6:38
    Câteva luni mai târziu, era în mașină
    cu noii ei prieteni de pe internet
  • 6:38 - 6:39
    în drum spre Charlottesville, Virginia,
  • 6:39 - 6:42
    pentru a manifesta cu torțe
    în numele rasei albe.
  • 6:43 - 6:45
    A trecut în câteva luni,
    din a-l susține pe Obama,
  • 6:45 - 6:48
    la a susține radical rasa albă.
  • 6:49 - 6:51
    În cazul ei particular,
  • 6:51 - 6:55
    ea a putut să renunțe
    la cultul supremației albe.
  • 6:56 - 6:58
    Dar mulți oameni
    cu care am vorbit nu au putut.
  • 6:59 - 7:00
    Și doar ca să fie clar:
  • 7:00 - 7:03
    nu am fost atât de convins
    că trebuia să găsesc o bază comună
  • 7:03 - 7:05
    cu fiecare persoană cu care vorbeam,
  • 7:05 - 7:07
    încât să fiu dispus să spun:
  • 7:07 - 7:10
    „Știi ce, omule,
    ești un propagandist fascist, eu nu sunt,
  • 7:10 - 7:13
    oricum, hai să ne îmbrățișăm,
    și toate diferențele noastre se vor topi.”
  • 7:13 - 7:15
    Nu, absolut nu.
  • 7:16 - 7:20
    Dar am devenit convins că nu putem
    să facem abstracție de aceste lucruri.
  • 7:20 - 7:23
    Trebuie să încercăm să le înțelegem,
    pentru că numai înțelegându-le
  • 7:23 - 7:26
    putem să începem
    să ne inoculăm împotriva lor.
  • 7:27 - 7:31
    În cei trei ani în această lume,
    am avut câteva apeluri telefonice urâte,
  • 7:31 - 7:32
    chiar unele amenințări,
  • 7:32 - 7:36
    dar a fost puțin comparativ cu ce primesc
    jurnalistele în această luptă.
  • 7:37 - 7:38
    Și da, sunt evreu,
  • 7:38 - 7:42
    deși, în mod ciudat, mulți naziști
    nu și-au dat seama că sunt evreu,
  • 7:42 - 7:45
    ceea ce, sincer, e dezamăgitor.
  • 7:45 - 7:47
    (Râsete)
  • 7:47 - 7:51
    Serios, toată treaba ta
    e să fii un antisemit profesionist.
  • 7:51 - 7:54
    Nimic la mine nu te intrigă deloc?
  • 7:54 - 7:55
    Chiar nimic?
  • 7:55 - 7:57
    (Râsete)
  • 7:58 - 7:59
    Nu e un secret.
  • 7:59 - 8:02
    Mă numesc Andrew Marantz,
    scriu pentru „The New Yorker”,
  • 8:02 - 8:05
    personalitatea mea
    e ca și cum un episod din Seinfeld
  • 8:05 - 8:06
    a fost filmat la Park Slope Food Coop.
  • 8:06 - 8:07
    Nimic?
  • 8:08 - 8:10
    (Râsete)
  • 8:13 - 8:14
    Oricum, în cele din urmă
  • 8:14 - 8:17
    ar fi frumos dacă ar exista
    o formulă simplă:
  • 8:17 - 8:21
    smartphone plus un copil înstrăinat
    egal 12% mai multe șanse să devii nazist.
  • 8:22 - 8:24
    Evident, nu e atât de simplu.
  • 8:24 - 8:25
    Și în scrierile mele,
  • 8:25 - 8:29
    sunt mult mai confortabil
    să fiu descriptiv, nu prescriptiv.
  • 8:29 - 8:32
    Dar acesta este TED,
  • 8:32 - 8:34
    deci să devenim practici.
  • 8:34 - 8:35
    Vreau să împărtășesc câteva sugestii,
  • 8:35 - 8:39
    lucruri pe care cetățenii
    de pe internet, ca voi și ca mine,
  • 8:39 - 8:42
    le-ar putea face pentru ca lucrurile
    să devină mai puțin toxice.
  • 8:43 - 8:45
    Primul e să fii un sceptic inteligent.
  • 8:46 - 8:48
    Eu cred că există
    două tipuri de scepticism.
  • 8:48 - 8:52
    Și nu vreau să intru în informații
    tehnice epistemologice aici,
  • 8:52 - 8:56
    dar eu le numesc
    scepticism inteligent și prost.
  • 8:56 - 8:59
    Deci, scepticism inteligent:
  • 8:59 - 9:00
    gândiți pentru voi,
  • 9:00 - 9:01
    vă îndoiți de orice afirmație,
  • 9:01 - 9:03
    solicitați dovezi,
  • 9:03 - 9:05
    grozav, acesta e scepticism adevărat.
  • 9:05 - 9:08
    Scepticism prost: suna a scepticism,
  • 9:08 - 9:11
    dar e de fapt mai aproape
    de o reacție contra automată.
  • 9:12 - 9:13
    Toți spun că Pământul e rotund,
  • 9:13 - 9:15
    tu spui că e plat.
  • 9:15 - 9:16
    Toți spun că rasismul e rău,
  • 9:16 - 9:19
    tu spui: „Nu știu,
    sunt sceptic în privința asta.”
  • 9:20 - 9:24
    Foarte mulți tineri bărbați albi
    cu care am vorbit în ultimii ani
  • 9:24 - 9:25
    mi-au spus:
  • 9:25 - 9:28
    „Știi, mass-media, profesorii mei,
    toți încearcă să mă îndoctrineze
  • 9:28 - 9:31
    să cred în privilegiul
    masculin și al albilor,
  • 9:31 - 9:33
    dar nu știu ce să zic, nu cred asta.”
  • 9:33 - 9:37
    Tinerilor, adolescenți albi ai lumii,
  • 9:37 - 9:38
    uite:
  • 9:39 - 9:42
    dacă sunteți sceptici că Pământul
    e rotund, că bărbații sunt privilegiați,
  • 9:42 - 9:45
    și că rasismul este rău,
  • 9:45 - 9:47
    nu sunteți sceptici, sunteți ticăloși.
  • 9:47 - 9:51
    (Aplauze)
  • 9:52 - 9:56
    E minunat să gândim critic,
    cu toții ar trebui să gândim critic,
  • 9:56 - 9:58
    dar fiți deștepți în acest sens.
  • 9:58 - 10:00
    Următoarea e
    despre libertatea de exprimare.
  • 10:00 - 10:04
    Veți auzi oameni deștepți spunând:
    „Sunt pentru exprimare liberă.”
  • 10:04 - 10:07
    Și spun asta ca și cum
    ar încheia o dezbatere,
  • 10:07 - 10:11
    când de fapt, ăsta e chiar începutul
    oricărei conversații semnificative.
  • 10:11 - 10:14
    Toate lucrurile interesante
    se întâmplă după acest punct.
  • 10:14 - 10:17
    Bine, ești pro exprimare liberă.
    Ce înseamnă asta?
  • 10:17 - 10:19
    Înseamnă că David Duke și Richard Spencer
  • 10:19 - 10:21
    trebuie să aibă conturi Twitter active?
  • 10:21 - 10:24
    Înseamnă că oricine poate hărțui
    pe oricine altcineva online
  • 10:24 - 10:25
    pentru orice motiv?
  • 10:25 - 10:28
    Am analizat întreaga listă
    de vorbitori TED de anul acesta.
  • 10:28 - 10:31
    Nu am găsit niciun sceptic
    că Pământul e rotund.
  • 10:31 - 10:33
    E o încălcare a normelor
    de exprimare liberă?
  • 10:33 - 10:37
    Suntem toți pro exprimare liberă,
    e minunat să avem exprimare liberă,
  • 10:37 - 10:39
    dar dacă asta e tot ce știi să spui mereu,
  • 10:39 - 10:42
    te opui unei conversații
    mai productive.
  • 10:44 - 10:47
    Deci, să facem politețea
    din nou grozavă...
  • 10:47 - 10:48
    Minunat!
  • 10:48 - 10:50
    (Aplauze)
  • 10:50 - 10:52
    Da. Nici nu trebuie să explic.
  • 10:52 - 10:56
    În cercetarea mea aș fi mers
    pe Reddit, pe YouTube sau pe Facebook,
  • 10:56 - 10:58
    și aș fi căutat „legea sharia”
  • 10:58 - 11:00
    sau „Holocaustul”,
  • 11:01 - 11:04
    și puteți ghici
    ce mi-au arătat algoritmii, nu?
  • 11:04 - 11:07
    „Legea sharia mătura toate Statele Unite?”
  • 11:07 - 11:09
    „Holocaustul s-a întâmplat cu adevărat?”
  • 11:10 - 11:12
    Scepticism prost.
  • 11:13 - 11:15
    Așa că am ajuns
    în această dinamică bizară online,
  • 11:15 - 11:17
    când unii văd propaganda intolerantă
  • 11:17 - 11:20
    ca fiind tăioasă sau periculoasă și mișto,
  • 11:20 - 11:23
    iar oamenii văd adevărul de bază
    și decența umană ca fiind șocante,
  • 11:23 - 11:26
    sau ca virtuți sau doar plictisitoare.
  • 11:26 - 11:30
    Și algoritmii social media,
    intenționat sau nu,
  • 11:30 - 11:32
    au stimulat asta,
  • 11:32 - 11:35
    pentru că propaganda intolerantă
    e grozavă pentru implicare.
  • 11:35 - 11:37
    Toți dau clic pe ea, toți comentează,
  • 11:37 - 11:39
    fie că o iubesc, fie că o urăsc.
  • 11:39 - 11:42
    Deci, primul lucru
    care trebuie făcut aici
  • 11:42 - 11:45
    e ca rețelele sociale
    să-și repare platformele.
  • 11:45 - 11:49
    (Aplauze)
  • 11:50 - 11:53
    Deci, dacă mă ascultați acum
    și lucrați la o companie de socializare
  • 11:53 - 11:56
    sau investiți într-una sau,
    nu știu, dețineți una,
  • 11:57 - 11:58
    acest sfat e pentru voi.
  • 11:58 - 12:02
    Dacă ați optimizat-o
    pentru o implicare emoțională maximă,
  • 12:02 - 12:06
    iar implicarea emoțională maximă
    se dovedește că dăunează lumii,
  • 12:06 - 12:09
    e timpul să o optimizați pentru altceva.
  • 12:09 - 12:12
    (Aplauze)
  • 12:15 - 12:18
    Dar pe lângă faptul de a pune
    presiune pe ei să facă asta
  • 12:18 - 12:21
    și să așteptăm și să sperăm
    că vor face asta,
  • 12:21 - 12:24
    există și alte lucruri
    pe care noi ceilalți le putem face.
  • 12:24 - 12:28
    Așadar, putem crea câteva căi mai bune
    sau sugera câteva căi mai bune
  • 12:28 - 12:30
    încât numărul tinerilor
    revoltați să se reducă.
  • 12:30 - 12:34
    Dacă vedeți ceva și credeți
    că e cu adevărat creativ și profund
  • 12:34 - 12:36
    și doriți să distribuiți acel lucru,
    distribuiți-l,
  • 12:36 - 12:39
    chiar dacă nu vă inundă
    cu o emoție puternică.
  • 12:39 - 12:41
    E un pas foarte mic, îmi dau seama,
  • 12:41 - 12:43
    dar per total, aceste lucruri contează,
  • 12:43 - 12:46
    pentru că acești algoritmi,
    pe cât de puternici sunt,
  • 12:46 - 12:48
    își iau indiciile
    comportamentale de la noi.
  • 12:50 - 12:51
    Deci, lasați-mă să închei cu asta.
  • 12:52 - 12:54
    Acum câțiva ani era la modă
  • 12:54 - 12:57
    să spun că internetul
    e un instrument revoluționar,
  • 12:57 - 12:59
    ce avea să ne unească pe toți.
  • 12:59 - 13:01
    Acum e mai la modă să spunem
  • 13:01 - 13:04
    că internetul e
    un incendiu uriaș, iremediabil.
  • 13:05 - 13:07
    Niciuna nu e adevărată.
  • 13:07 - 13:09
    Știm că internetul e prea vast și complex
  • 13:09 - 13:11
    pentru a fi total bun sau rău.
  • 13:11 - 13:13
    Și pericolul cu aceste moduri de a gândi,
  • 13:13 - 13:16
    fie că e vorba despre ideea utopică
    că internetul ne va salva inevitabil
  • 13:16 - 13:20
    sau părerea distopică
    că ne va distruge inevitabil,
  • 13:20 - 13:22
    oricare ar fi cazul,
    suntem prea permisivi.
  • 13:24 - 13:26
    Nu e nimic inevitabil la viitorul nostru.
  • 13:27 - 13:29
    Internetul e format din oameni.
  • 13:29 - 13:32
    Oamenii iau decizii
    în companiile de socializare.
  • 13:32 - 13:35
    Oamenii stabilesc trendul
    unui hashtag sau nu.
  • 13:35 - 13:38
    Oamenii fac ca societățile
    să progreseze sau să regreseze.
  • 13:39 - 13:41
    Dacă internalizăm acest adevăr,
  • 13:41 - 13:44
    ne putem opri din așteptarea
    unui viitor inevitabil
  • 13:44 - 13:46
    și putem începe să-l construim acum.
  • 13:47 - 13:50
    Cu toții am fost învățați
    că arcul universului moral e lung,
  • 13:50 - 13:52
    dar că se îndoaie spre dreptate.
  • 13:54 - 13:56
    Poate.
  • 13:57 - 13:58
    Poate o va face.
  • 13:59 - 14:01
    Dar asta a fost întotdeauna o aspirație.
  • 14:01 - 14:03
    Nu e o garanție.
  • 14:04 - 14:06
    Arcul nu se îndoaie de la sine.
  • 14:06 - 14:10
    Nu e îndoit inevitabil
    de o forță misterioasă.
  • 14:10 - 14:11
    Adevărul real,
  • 14:11 - 14:14
    care e mai înfricoșător
    și de asemenea mai eliberator,
  • 14:15 - 14:16
    e că noi îl îndoim.
  • 14:17 - 14:18
    Vă mulțumesc!
  • 14:18 - 14:21
    (Aplauze)
Title:
În lumea bizară a trolilor și propagandiștilor de pe internet
Speaker:
Andrew Marantz
Description:

Jurnalistul Andrew Marantz a petrecut trei ani implicat în lumea trolilor de pe internet și a propagandiștilor de pe rețelele de socializare, căutând oamenii care propulsează dezbateri extreme în inima conversației online, și încercând să înțeleagă cum își răspândesc ideile. Să coborâm în obscuritatea propagandei online și a dezinformării - și să învățăm cum putem începe să facem internetul mai puțin toxic.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:36

Romanian subtitles

Revisions