Return to Video

W dziwnym świecie internetowych trolli i propagandzistów

  • 0:01 - 0:02
    Przez ostatnie trzy lata
  • 0:02 - 0:06
    spędziłem wiele czasu, rozmawiając
    z najgorszymi ludźmi w Internecie.
  • 0:06 - 0:09
    Jeśli byliście ostatnio online,
  • 0:09 - 0:12
    to pewnie zauważyliście
    ile tam jest toksycznych rzeczy:
  • 0:12 - 0:17
    rasistowskie memy, dezinformacja,
    propaganda mizoginistyczna.
  • 0:17 - 0:20
    Chciałem dowiedzieć się, kto za tym stoi,
  • 0:20 - 0:22
    zrozumieć, jak to się rozprzestrzenia.
  • 0:22 - 0:23
    Chciałem zrozumieć,
  • 0:23 - 0:26
    jaki wpływ to ma na społeczeństwo.
  • 0:26 - 0:30
    W 2016 roku zacząłem szukać
    źródeł niektórych memów.
  • 0:30 - 0:34
    Szukałem ludzi, którzy je stworzyli,
    albo rozpowszechniali.
  • 0:34 - 0:35
    Kontaktowałem się z nimi mówiąc:
  • 0:35 - 0:38
    "Cześć, jestem dziennikarzem.
    Mogę zobaczyć, co robisz?"
  • 0:38 - 0:40
    Częstą odpowiedzią było:
  • 0:40 - 0:42
    "Po co mam rozmawiać z jakimś frajerem,
  • 0:42 - 0:44
    globalistyczym, brooklińskim Żydem,
  • 0:44 - 0:46
    naiwniakiem na usługach Demokratów?"
  • 0:46 - 0:47
    (Śmiech)
  • 0:47 - 0:51
    Na co ja odpowiadałem:
    "Hej, w tym jest tylko 57% prawdy".
  • 0:51 - 0:52
    (Śmiech)
  • 0:53 - 0:54
    Często dostawałem też inną odpowiedź.
  • 0:54 - 0:56
    "Pewnie, zapraszam".
  • 0:57 - 0:59
    Tak właśnie znalazłem się w mieszkaniu
  • 0:59 - 1:02
    propagandzisty mediów społecznościowych
    w Południowej Kalifornii.
  • 1:02 - 1:05
    To był żonaty, biały gość,
    prawie czterdziestolatek.
  • 1:05 - 1:08
    Siedział przy stole, z kubkiem kawy,
  • 1:08 - 1:10
    laptopem do tweetowania,
  • 1:10 - 1:11
    telefonem do pisania wiadomości
  • 1:11 - 1:15
    i iPadem do streamowania
    na Periscope i YouTube.
  • 1:15 - 1:16
    Nic więcej.
  • 1:17 - 1:18
    Ale to wystarczyło,
  • 1:18 - 1:22
    żeby szerzyć skrajne, szkodliwe opinie
  • 1:22 - 1:24
    wśród amerykańskich odbiorców.
  • 1:25 - 1:27
    Na przykład, kiedy byłem
    u niego pewnego dnia,
  • 1:27 - 1:30
    wybuchła bomba w Nowym Jorku.
  • 1:30 - 1:34
    Sprawca zamachu miał
    muzułmańsko brzmiące imię.
  • 1:34 - 1:38
    Dla propagandzisty w Kalifornii
    to była świetna okazja.
  • 1:38 - 1:40
    Jedną z rzeczy, których pragnął,
  • 1:40 - 1:42
    było odcięcie napływu imigrantów do USA.
  • 1:42 - 1:45
    Szczególnie z krajów muzułmańskich.
  • 1:45 - 1:47
    Więc zaczął streamować na żywo.
  • 1:48 - 1:50
    Jego widzowie nakręcali się wzajemnie,
  • 1:50 - 1:53
    jak to polityka otwartych granic
    nas wszystkich zabije.
  • 1:53 - 1:54
    Namawiał ich do pisania tweetów
  • 1:54 - 1:56
    ze specjalnymi hashtagami,
  • 1:56 - 1:58
    tak żeby były popularne.
  • 1:58 - 1:59
    I zaczęły się tweety.
  • 1:59 - 2:01
    To były setki tweetów.
  • 2:01 - 2:03
    Wiele z nich zawierały obrazki, jak ten.
  • 2:03 - 2:05
    To jest George Soros,
  • 2:05 - 2:08
    węgierski miliarder i filantrop.
  • 2:08 - 2:10
    Według pewnej grupy
    internetowych konspiratorów,
  • 2:10 - 2:13
    George Soros jest wrogiem numer jeden,
  • 2:13 - 2:17
    przedstawicielem elity, która potajemnie
    manipuluje wydarzeniami na świecie.
  • 2:17 - 2:21
    Zatrzymajmy się tutaj na chwilę:
    czy to nie brzmi znajomo?
  • 2:21 - 2:23
    Elity rządzące światem,
  • 2:23 - 2:26
    a większość z nich to bogaci Żydzi?
  • 2:26 - 2:29
    To jedna z najstarszych
    retoryk antysemickich na świecie.
  • 2:30 - 2:34
    Powinienem dodać, że ten gość,
    który podłożył bombę w Nowym Jorku,
  • 2:34 - 2:35
    był obywatelem Ameryki.
  • 2:36 - 2:38
    Więc, o cokolwiek tam chodziło,
  • 2:38 - 2:40
    imigracja nie była głównym problemem.
  • 2:41 - 2:44
    Propagandzista z Kalifornii
    dobrze to rozumiał.
  • 2:44 - 2:47
    Był oczytanym prawnikiem.
  • 2:47 - 2:48
    Znał fakty.
  • 2:48 - 2:52
    Ale też wiedział, że to nie fakty
    wywołują konwersację w Internecie.
  • 2:52 - 2:53
    To, co prowokuje reakcję,
  • 2:53 - 2:55
    to emocje.
  • 2:55 - 2:57
    Początkowo ideą mediów społecznościowych
  • 2:57 - 2:59
    miało być połączenie ludzi.
  • 2:59 - 3:02
    Świat miał być bardziej otwarty,
    tolerancyjny i sprawiedliwy.
  • 3:02 - 3:03
    Po części to się udało.
  • 3:05 - 3:07
    Ale algorytmy mediów
    społecznościowych nie powstały
  • 3:07 - 3:10
    żeby odróżnić prawdę od fałszu,
  • 3:10 - 3:14
    tego, co dobre czy złe dla społeczeństwa,
    co jest pro czy antyspołeczne.
  • 3:14 - 3:16
    Nie temu służą algorytmy.
  • 3:16 - 3:19
    Wiele z nich mierzy zaangażowanie:
  • 3:19 - 3:22
    kliknięcia, komentarze,
    dzielenie się, retweetowanie.
  • 3:22 - 3:25
    Jeśli chcecie, żeby wasze posty
    miały zaangażowanie,
  • 3:25 - 3:26
    muszą wywołać emocje.
  • 3:26 - 3:30
    Behawioryści nazywają to
    "silnym pobudzeniem emocjonalnym".
  • 3:30 - 3:33
    "Silne pobudzenie" nie musi być seksualne,
  • 3:33 - 3:36
    choć w Internecie to też działa.
  • 3:36 - 3:40
    To może być pozytywne lub negatywne,
    ważne, by wywoływało szybsze bicie serca.
  • 3:40 - 3:42
    Tak więc siedziałem z propagandzistami,
  • 3:42 - 3:44
    nie tylko z gościem z Kalifornii,
    ale z wieloma innymi,
  • 3:44 - 3:48
    i obserwowałem,
    jak udawało im się to osiągać.
  • 3:48 - 3:51
    Nie byli rosyjskimi hakerami
    ani komputerowymi guru,
  • 3:51 - 3:54
    nie mieli wyjątkowej wiedzy politycznej.
  • 3:54 - 3:56
    Rozumieli, jak działają
    media społecznościowe
  • 3:56 - 3:59
    i chcieli wykorzystać to
    dla własnej korzyści.
  • 3:59 - 4:02
    Początkowo wmawiałem sobie,
    że to takie nieistotne zjawisko,
  • 4:02 - 4:04
    coś, co istniało tylko w Internecie.
  • 4:04 - 4:09
    Ale dzisiaj już nie ma rozgraniczenia
    między Internetem i całą resztą.
  • 4:09 - 4:11
    Ta reklama ukazała się w wielu stacjach TV
  • 4:11 - 4:14
    podczas wyborów do Kongresu w 2018 roku,
  • 4:14 - 4:16
    twierdząc na podstawie kilku dowodów,
    że jeden z kandydatów
  • 4:17 - 4:19
    jest w garści międzynarodowego
    manipulatora, George'a Sorosa,
  • 4:19 - 4:23
    który na przerobionym zdjęciu
    stoi obok stosów pieniędzy.
  • 4:23 - 4:26
    To tweet prezydenta USA,
  • 4:26 - 4:28
    twierdzącego, znowu bez dowodów,
  • 4:28 - 4:31
    że Soros manipuluje amerykańską polityką.
  • 4:31 - 4:35
    Coś, co kiedyś było szokujące,
    marginalne i niegodne uwagi,
  • 4:35 - 4:38
    stało się normą, z którą się oswoiliśmy.
  • 4:38 - 4:40
    Spędziłem w tamtym świecie trzy lata.
  • 4:40 - 4:42
    Rozmawiałem z wieloma ludźmi.
  • 4:42 - 4:44
    Niektórzy z nich nie mieli
    głębszych przekonań.
  • 4:44 - 4:47
    Obstawiali po prostu zupełnie racjonalnie,
  • 4:47 - 4:49
    że jeśli chcą zarobić pieniądze online,
  • 4:49 - 4:51
    lub uzyskać zainteresowanie,
  • 4:51 - 4:53
    to powinni być szokujący
    na ile to możliwe.
  • 4:53 - 4:55
    Rozmawiałem też z prawdziwymi ideologami.
  • 4:56 - 5:00
    Dla wyjaśnienia, ich ideologia nie była
    tradycyjnym konserwatyzmem.
  • 5:00 - 5:03
    Niektórzy z nich chcieli odwołać
    prawo głosu dla kobiet.
  • 5:03 - 5:06
    Inni nawoływali do powrotu
    do segregacji rasowej.
  • 5:06 - 5:09
    Inni pragnęli całkowicie
    pozbyć się demokracji.
  • 5:09 - 5:12
    Naturalnie, ci ludzie nie urodzili się
    z takimi przekonaniami.
  • 5:12 - 5:15
    Nie wynieśli ich ze szkoły podstawowej.
  • 5:15 - 5:18
    Wielu z nich, zanim wpadli
    w internetową króliczą norę,
  • 5:18 - 5:20
    byli libertarianami, albo socjalistami,
  • 5:20 - 5:23
    albo jeszcze kimś zupełnie innym.
  • 5:23 - 5:24
    Więc o co tu chodzi?
  • 5:25 - 5:27
    Nie mogę generalizować
    każdego przypadku,
  • 5:27 - 5:29
    ale wielu z moich rozmówców,
  • 5:29 - 5:33
    miało połączenie wysokiego IQ
    i niskiego EQ.
  • 5:33 - 5:36
    Czuli się bardziej komfortowo
    w anonimowej przestrzeni Internetu,
  • 5:36 - 5:38
    niż w kontakcie ze światem realnym.
  • 5:39 - 5:41
    Często chowali się na forach dyskusyjnych,
  • 5:41 - 5:42
    takich jak Reddit,
  • 5:42 - 5:45
    gdzie potęgowano najgorsze impulsy.
  • 5:45 - 5:48
    Czasami coś napisali jako głupi dowcip,
  • 5:48 - 5:51
    i dostawali tyle pozytywnych reakcji,
  • 5:51 - 5:54
    tyle nic nie znaczących
    "punktów internetowych",
  • 5:54 - 5:57
    że sami zaczynali wierzyć w swój dowcip.
  • 5:58 - 6:02
    Długo rozmawiałem z pewną młodą kobietą,
    która dorastała w New Jersey.
  • 6:02 - 6:04
    Po szkole średniej przeprowadziła się
  • 6:04 - 6:06
    i nagle poczuła się wyobcowana i samotna
  • 6:06 - 6:08
    i zaczęła chować się w swoim telefonie.
  • 6:09 - 6:11
    Znalazła przestrzeń w Internecie,
  • 6:11 - 6:14
    gdzie ludzie pisali niezwykle
    szokujące i obrzydliwe rzeczy.
  • 6:14 - 6:16
    Dla niej to było odrzucające,
  • 6:16 - 6:18
    ale też wciągające.
  • 6:19 - 6:21
    Nie mogła tego zostawić.
  • 6:21 - 6:24
    Zaczęła wchodzić w interakcję
    z ludźmi z tych stron.
  • 6:24 - 6:27
    Dzięki nim czuła się mądra i potrzebna.
  • 6:27 - 6:29
    Czuła się częścią wspólnoty.
  • 6:29 - 6:32
    Zaczęła się zastanawiać,
    czy te szokujące memy
  • 6:32 - 6:34
    nie zawierają ziarnka prawdy.
  • 6:34 - 6:38
    Kilka miesięcy później razem
    z kilkoma znajomymi z Internetu,
  • 6:38 - 6:40
    jechała do Charlottesville w Wirginii,
  • 6:40 - 6:42
    maszerować z pochodniami
    w imieniu białej rasy.
  • 6:43 - 6:45
    W kilka miesięcy ze zwolenniczki Obamy
  • 6:45 - 6:48
    stała się zradykalizowaną,
    białą supremacjonistką.
  • 6:49 - 6:51
    Akurat w jej przypadku,
  • 6:51 - 6:55
    była potem w stanie wydostać się
    z kultu białej supremacji.
  • 6:56 - 6:58
    Ale wielu ludzi nie miało tego szczęścia.
  • 6:59 - 7:00
    Żeby było jasne:
  • 7:00 - 7:03
    nigdy nie zakładałem, że muszę zgodzić się
  • 7:03 - 7:05
    z każdym rozmówcą.
  • 7:05 - 7:07
    Nie zamierzałem mówić:
  • 7:07 - 7:10
    "Wiesz co, ty jesteś faszystą, ja nie.
  • 7:10 - 7:13
    Nieważne. Uściśniemy się,
    i te różnice przestaną istnieć".
  • 7:13 - 7:15
    Nie. Zdecydowanie, nie.
  • 7:16 - 7:20
    Ale nabrałem przekonania,
    że nie możemy tego zjawiska ignorować.
  • 7:20 - 7:23
    Musimy próbować to zrozumieć.
  • 7:23 - 7:26
    Bo tylko tak możemy
    zacząć się na to uodparniać.
  • 7:27 - 7:31
    Podczas tych trzech lat dostałem
    kilka nieprzyjemnych telefonów,
  • 7:31 - 7:32
    nawet kilka gróźb.
  • 7:32 - 7:36
    Ale to nic w porównaniu z tym,
    co dziennikarki dostają na co dzień.
  • 7:37 - 7:38
    Tak, jestem Żydem,
  • 7:38 - 7:42
    chociaż wielu Nazistów
    nie było w stanie tego stwierdzić,
  • 7:42 - 7:45
    co było dla mnie dosyć rozczarowujące.
  • 7:45 - 7:47
    (Śmiech)
  • 7:47 - 7:51
    Serio, twoje zadanie polega na byciu
    profesjonalnym antysemitą,
  • 7:51 - 7:54
    patrząc na mnie,
    nic nie wzbudza w tobie podejrzeń?
  • 7:54 - 7:55
    Nic?
  • 7:55 - 7:57
    (Śmiech)
  • 7:58 - 7:59
    To nie jest tajemnica.
  • 7:59 - 8:02
    Nazywam się Andrew Marantz,
    piszę dla "The New Yorker",
  • 8:02 - 8:04
    Moja osobowość to jakby Seinfeld
  • 8:04 - 8:06
    wpadł do Park Slope Food Coop.
  • 8:06 - 8:07
    Nic?
  • 8:08 - 8:10
    (Śmiech)
  • 8:13 - 8:15
    Byłoby miło,
  • 8:15 - 8:17
    gdyby istniał jakiś wzór:
  • 8:17 - 8:21
    smartfon plus wyobcowane dziecko
    równa się 12 procent szans na Nazistę.
  • 8:22 - 8:24
    Naturalnie, to nie takie proste.
  • 8:24 - 8:25
    Będąc pisarzem,
  • 8:25 - 8:29
    łatwej jest mi opisywać rzeczy,
    nie dawać rozwiązania.
  • 8:29 - 8:32
    Ale to jest TED,
  • 8:32 - 8:34
    więc bądźmy praktyczni.
  • 8:34 - 8:36
    Mam kilka sugestii,
    które możemy zastosować,
  • 8:36 - 8:39
    jako Internauci,
  • 8:39 - 8:42
    żeby te interakcje były mniej toksyczne.
  • 8:43 - 8:45
    Po pierwsze: bądźmy mądrymi sceptykami.
  • 8:46 - 8:48
    Myślę, że istnieją
    dwa rodzaje sceptycyzmu.
  • 8:48 - 8:52
    Nie chcę was zasypywać technicznymi
    i intelektualnymi różnicami,
  • 8:52 - 8:55
    dlatego je nazywam
    "mądrym i głupim sceptycyzmem".
  • 8:56 - 8:59
    Mądry sceptycyzm:
  • 8:59 - 9:00
    myślenie samodzielne,
  • 9:00 - 9:01
    kwestionowanie stwierdzeń,
  • 9:01 - 9:03
    szukanie dowodów.
  • 9:03 - 9:04
    Super. To jest prawdziwy sceptycyzm.
  • 9:05 - 9:08
    Głupi sceptycyzm - brzmi jak sceptycyzm,
  • 9:08 - 9:11
    ale jest mu bliżej
    do automatycznego zaprzeczania.
  • 9:12 - 9:13
    Mówią, że Ziemia jest okrągła,
  • 9:13 - 9:15
    ty, że jest płaska.
  • 9:15 - 9:16
    Mówią, że rasizm, to zło,
  • 9:16 - 9:19
    a ty: "No nie wiem. Mam wątpliwości".
  • 9:20 - 9:24
    Nie uwierzylibyście ilu młodych, białych
    mężczyzn, z którymi rozmawiałem
  • 9:24 - 9:25
    powtarzało:
  • 9:25 - 9:28
    "Media, nauczyciele,
    wszyscy chcą mnie przekonać
  • 9:28 - 9:31
    o przywilejach białych i mężczyzn,
  • 9:31 - 9:33
    ale ja nie jestem taki pewny tego".
  • 9:33 - 9:37
    Chłopaki, ci, którzy
    odruchowo zaprzeczacie,
  • 9:37 - 9:39
    posłuchajcie:
  • 9:39 - 9:42
    Jeśli kwestionujecie,
    że Ziemia jest okrągła,
  • 9:42 - 9:45
    że mężczyźni są uprzywilejowani,
    a rasizm jest złem,
  • 9:45 - 9:47
    to nie jesteście sceptykami.
    Jesteście palantami.
  • 9:47 - 9:51
    (Brawa)
  • 9:52 - 9:56
    Super, jak myślisz samodzielnie,
    powinniśmy tak myśleć.
  • 9:56 - 9:57
    Ale róbmy to z głową.
  • 9:58 - 10:00
    Druga sugestia jest o wolności słowa.
  • 10:00 - 10:04
    Wielu mądrych ludzi powtarza:
    "Ja jestem za wolnością słowa".
  • 10:04 - 10:07
    I mówią to w taki sposób jakby,
    to miał być koniec debaty.
  • 10:07 - 10:11
    Kiedy tak naprawdę,
    to powinien być wstęp do dyskusji.
  • 10:12 - 10:14
    To co ciekawe, następuje
    po tym stwierdzeniu.
  • 10:14 - 10:16
    Dobra, jesteś za wolnością słowa.
    Co to znaczy?
  • 10:16 - 10:19
    Czy David Duke i Richard Spencer
  • 10:19 - 10:21
    powinni mieć konta na Twitterze?
  • 10:21 - 10:24
    Czy to znaczy, że każdy
    może obrażać każdego online,
  • 10:24 - 10:25
    z jakiegokolwiek powodu?
  • 10:25 - 10:28
    Przejrzałem listę mówców na TED w tym roku
  • 10:28 - 10:30
    i nie znalazłem sceptyka
    wierzącego w płaską Ziemię.
  • 10:30 - 10:33
    Czy to pogwałcenie zasad wolnego słowa?
  • 10:33 - 10:37
    Wszyscy jesteśmy za wolnością słowa,
    to jest wspaniała idea.
  • 10:37 - 10:39
    Ale jeśli tylko tyle potrafisz
    powiedzieć na ten temat,
  • 10:39 - 10:42
    to blokujesz drogę
    do bardziej produktywnej rozmowy.
  • 10:44 - 10:47
    Sugestia trzecia: bycie
    porządnym obywatelem jest spoko.
  • 10:47 - 10:48
    Świetnie!
  • 10:48 - 10:50
    (Brawa)
  • 10:50 - 10:52
    Nawet nie muszę tego tłumaczyć.
  • 10:52 - 10:56
    Podczas mojego projektu
    wchodziłem na Reddit, YouTube i Facebook
  • 10:56 - 10:58
    i wrzucałem hasła jak: "prawo szariatu",
  • 10:58 - 11:00
    czy "Holokaust"
  • 11:01 - 11:04
    i możecie zgadnąć,
    co mi pokazywały algorytmy.
  • 11:04 - 11:07
    "Czy prawo szariatu opanowuje USA?"
  • 11:07 - 11:09
    "Czy Holokaust naprawdę miał miejsce?"
  • 11:10 - 11:12
    Głupi sceptycyzm.
  • 11:13 - 11:15
    Więc znalazłem się
    w tej dziwnej dynamice online,
  • 11:15 - 11:17
    gdzie dla niektórych ta propaganda,
  • 11:17 - 11:20
    to bycie kontrowersyjnym, oryginalnym.
  • 11:20 - 11:23
    I dla tych ludzi podstawowe
    prawdy są cnotliwością, bigoterią,
  • 11:23 - 11:26
    pobożnością czy nawet nudą.
  • 11:26 - 11:30
    Algorytmy mediów społecznościowych,
    celowo lub nie,
  • 11:30 - 11:32
    nagradzają takie postawy.
  • 11:32 - 11:35
    Bo propaganda jest świetna
    dla wywoływania zaangażowania.
  • 11:35 - 11:37
    Wszyscy w to klikają,
    wszyscy to komentują,
  • 11:37 - 11:39
    czy to lubią czy nienawidzą.
  • 11:39 - 11:42
    Więc po pierwsze,
  • 11:42 - 11:45
    media społecznościowe
    muszą naprawić swoje platformy.
  • 11:45 - 11:49
    (Brawa)
  • 11:50 - 11:53
    Jeśli mnie teraz słuchasz
    i pracujesz w mediach społecznościowych,
  • 11:53 - 11:56
    albo zainwestowałeś w nie
    lub jesteś właścicielem,
  • 11:57 - 11:58
    to przesłanie jest do ciebie.
  • 11:58 - 12:02
    Jeśli optymalizujesz na maksymalne
    zaangażowanie emocjonalne,
  • 12:02 - 12:06
    a to emocjonalne zaangażowanie
    wyraźnie szkodzi światu,
  • 12:06 - 12:09
    czas optymalizować coś innego.
  • 12:09 - 12:12
    (Brawa)
  • 12:15 - 12:18
    Ale poza naciskiem na nich,
    żeby coś zmienili
  • 12:18 - 12:21
    i czekaniem, z nadzieją,
  • 12:21 - 12:24
    my też możemy coś zrobić.
  • 12:24 - 12:27
    Możemy stworzyć,
  • 12:27 - 12:30
    pokazać lepsze drogi
    dla niespokojnych nastolatków.
  • 12:30 - 12:33
    Jeśli znalazłeś coś
    kreatywnego, inspirującego
  • 12:33 - 12:36
    i chcesz się tym podzielić, zrób to.
  • 12:36 - 12:39
    Nawet, jeśli to nie wywołuje w tobie
    silnego podniecenia.
  • 12:39 - 12:41
    Wiem, że to jest bardzo mały krok.
  • 12:41 - 12:43
    Ale całościowo, to ma znaczenie.
  • 12:43 - 12:46
    Bo te algorytmy, chociaż są bardzo silne,
  • 12:46 - 12:48
    są reakcją na nasze zachowanie w sieci.
  • 12:50 - 12:52
    Na koniec chcę powiedzieć jedną rzecz.
  • 12:52 - 12:54
    Kilka lat temu, modne było stwierdzenie,
  • 12:54 - 12:57
    że Internet zrewolucjonizuje świat,
  • 12:57 - 12:59
    że zbliży nas do siebie.
  • 12:59 - 13:01
    Teraz się częściej słyszy,
  • 13:01 - 13:04
    że Internet to wielki ogień
    nie do opanowania.
  • 13:05 - 13:07
    Żadna z karykatur nie jest prawdziwa.
  • 13:07 - 13:09
    Wiemy, że Internet
    jest zbyt wielki i złożony,
  • 13:09 - 13:11
    żeby był samym dobrem czy złem.
  • 13:11 - 13:13
    Czai się tu pewne niebezpieczeństwo,
  • 13:13 - 13:16
    czy w utopijnym założeniu,
    że Internet nas zbawi,
  • 13:16 - 13:20
    czy w dystopijnym założeniu,
    że nas zniszczy,
  • 13:20 - 13:22
    w obu przypadkach
    unikamy odpowiedzialności.
  • 13:24 - 13:26
    Nic nie jest przesądzone
    o naszej przyszłości.
  • 13:27 - 13:29
    Internet jest złożony z ludzi.
  • 13:29 - 13:32
    To ludzie podejmują decyzje
    w mediach społecznościowych.
  • 13:32 - 13:35
    To ludzie tworzą hashtagi,
    które są trendujące lub nie.
  • 13:35 - 13:38
    To ludzie pchają społeczeństwa
    do oświecenia lub zacofania.
  • 13:39 - 13:41
    Kiedy to zrozumiemy,
  • 13:41 - 13:44
    możemy przestać czekać
    na nieuniknioną przyszłość
  • 13:44 - 13:46
    i zacząć nad tym pracować. Od zaraz.
  • 13:47 - 13:50
    Uczono nas, że łuk
    wszechświata moralnego jest długi,
  • 13:50 - 13:52
    ale zgina się ku sprawiedliwości.
  • 13:54 - 13:56
    Może.
  • 13:57 - 13:58
    Może tak będzie.
  • 13:59 - 14:01
    Ale to zawsze miała być nasza aspiracja,
  • 14:01 - 14:03
    nie gwarancja.
  • 14:04 - 14:06
    Łuk sam się nie zgina.
  • 14:06 - 14:10
    Nie jest zgięty
    przez jakąś tajemniczą siłę.
  • 14:10 - 14:11
    Prawda jest taka,
  • 14:11 - 14:14
    przerażająca, ale też wyzwalająca,
  • 14:15 - 14:16
    to to, że to my go zginamy.
  • 14:17 - 14:18
    Dziękuję.
  • 14:18 - 14:21
    (Brawa)
Title:
W dziwnym świecie internetowych trolli i propagandzistów
Speaker:
Andrew Marantz
Description:

Dziennikarz Andrew Marantz spędził trzy lata zanurzony w świecie internetowych trolli i propagandzistów z mediów społecznościowych, szukając ludzi, którzy wprowadzają swoje skrajne opinie do centrum dyskusji online i próbował zrozumieć sposób ich działania. Wejdź w głąb króliczej nory propagandy i dezinformacji istniejącej w sieci - i dowiedz się, jak możesz zacząć czynić Internet mniej toksycznym.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:36

Polish subtitles

Revisions