W dziwnym świecie internetowych trolli i propagandzistów
-
0:01 - 0:02Przez ostatnie trzy lata
-
0:02 - 0:06spędziłem wiele czasu, rozmawiając
z najgorszymi ludźmi w Internecie. -
0:06 - 0:09Jeśli byliście ostatnio online,
-
0:09 - 0:12to pewnie zauważyliście
ile tam jest toksycznych rzeczy: -
0:12 - 0:17rasistowskie memy, dezinformacja,
propaganda mizoginistyczna. -
0:17 - 0:20Chciałem dowiedzieć się, kto za tym stoi,
-
0:20 - 0:22zrozumieć, jak to się rozprzestrzenia.
-
0:22 - 0:23Chciałem zrozumieć,
-
0:23 - 0:26jaki wpływ to ma na społeczeństwo.
-
0:26 - 0:30W 2016 roku zacząłem szukać
źródeł niektórych memów. -
0:30 - 0:34Szukałem ludzi, którzy je stworzyli,
albo rozpowszechniali. -
0:34 - 0:35Kontaktowałem się z nimi mówiąc:
-
0:35 - 0:38"Cześć, jestem dziennikarzem.
Mogę zobaczyć, co robisz?" -
0:38 - 0:40Częstą odpowiedzią było:
-
0:40 - 0:42"Po co mam rozmawiać z jakimś frajerem,
-
0:42 - 0:44globalistyczym, brooklińskim Żydem,
-
0:44 - 0:46naiwniakiem na usługach Demokratów?"
-
0:46 - 0:47(Śmiech)
-
0:47 - 0:51Na co ja odpowiadałem:
"Hej, w tym jest tylko 57% prawdy". -
0:51 - 0:52(Śmiech)
-
0:53 - 0:54Często dostawałem też inną odpowiedź.
-
0:54 - 0:56"Pewnie, zapraszam".
-
0:57 - 0:59Tak właśnie znalazłem się w mieszkaniu
-
0:59 - 1:02propagandzisty mediów społecznościowych
w Południowej Kalifornii. -
1:02 - 1:05To był żonaty, biały gość,
prawie czterdziestolatek. -
1:05 - 1:08Siedział przy stole, z kubkiem kawy,
-
1:08 - 1:10laptopem do tweetowania,
-
1:10 - 1:11telefonem do pisania wiadomości
-
1:11 - 1:15i iPadem do streamowania
na Periscope i YouTube. -
1:15 - 1:16Nic więcej.
-
1:17 - 1:18Ale to wystarczyło,
-
1:18 - 1:22żeby szerzyć skrajne, szkodliwe opinie
-
1:22 - 1:24wśród amerykańskich odbiorców.
-
1:25 - 1:27Na przykład, kiedy byłem
u niego pewnego dnia, -
1:27 - 1:30wybuchła bomba w Nowym Jorku.
-
1:30 - 1:34Sprawca zamachu miał
muzułmańsko brzmiące imię. -
1:34 - 1:38Dla propagandzisty w Kalifornii
to była świetna okazja. -
1:38 - 1:40Jedną z rzeczy, których pragnął,
-
1:40 - 1:42było odcięcie napływu imigrantów do USA.
-
1:42 - 1:45Szczególnie z krajów muzułmańskich.
-
1:45 - 1:47Więc zaczął streamować na żywo.
-
1:48 - 1:50Jego widzowie nakręcali się wzajemnie,
-
1:50 - 1:53jak to polityka otwartych granic
nas wszystkich zabije. -
1:53 - 1:54Namawiał ich do pisania tweetów
-
1:54 - 1:56ze specjalnymi hashtagami,
-
1:56 - 1:58tak żeby były popularne.
-
1:58 - 1:59I zaczęły się tweety.
-
1:59 - 2:01To były setki tweetów.
-
2:01 - 2:03Wiele z nich zawierały obrazki, jak ten.
-
2:03 - 2:05To jest George Soros,
-
2:05 - 2:08węgierski miliarder i filantrop.
-
2:08 - 2:10Według pewnej grupy
internetowych konspiratorów, -
2:10 - 2:13George Soros jest wrogiem numer jeden,
-
2:13 - 2:17przedstawicielem elity, która potajemnie
manipuluje wydarzeniami na świecie. -
2:17 - 2:21Zatrzymajmy się tutaj na chwilę:
czy to nie brzmi znajomo? -
2:21 - 2:23Elity rządzące światem,
-
2:23 - 2:26a większość z nich to bogaci Żydzi?
-
2:26 - 2:29To jedna z najstarszych
retoryk antysemickich na świecie. -
2:30 - 2:34Powinienem dodać, że ten gość,
który podłożył bombę w Nowym Jorku, -
2:34 - 2:35był obywatelem Ameryki.
-
2:36 - 2:38Więc, o cokolwiek tam chodziło,
-
2:38 - 2:40imigracja nie była głównym problemem.
-
2:41 - 2:44Propagandzista z Kalifornii
dobrze to rozumiał. -
2:44 - 2:47Był oczytanym prawnikiem.
-
2:47 - 2:48Znał fakty.
-
2:48 - 2:52Ale też wiedział, że to nie fakty
wywołują konwersację w Internecie. -
2:52 - 2:53To, co prowokuje reakcję,
-
2:53 - 2:55to emocje.
-
2:55 - 2:57Początkowo ideą mediów społecznościowych
-
2:57 - 2:59miało być połączenie ludzi.
-
2:59 - 3:02Świat miał być bardziej otwarty,
tolerancyjny i sprawiedliwy. -
3:02 - 3:03Po części to się udało.
-
3:05 - 3:07Ale algorytmy mediów
społecznościowych nie powstały -
3:07 - 3:10żeby odróżnić prawdę od fałszu,
-
3:10 - 3:14tego, co dobre czy złe dla społeczeństwa,
co jest pro czy antyspołeczne. -
3:14 - 3:16Nie temu służą algorytmy.
-
3:16 - 3:19Wiele z nich mierzy zaangażowanie:
-
3:19 - 3:22kliknięcia, komentarze,
dzielenie się, retweetowanie. -
3:22 - 3:25Jeśli chcecie, żeby wasze posty
miały zaangażowanie, -
3:25 - 3:26muszą wywołać emocje.
-
3:26 - 3:30Behawioryści nazywają to
"silnym pobudzeniem emocjonalnym". -
3:30 - 3:33"Silne pobudzenie" nie musi być seksualne,
-
3:33 - 3:36choć w Internecie to też działa.
-
3:36 - 3:40To może być pozytywne lub negatywne,
ważne, by wywoływało szybsze bicie serca. -
3:40 - 3:42Tak więc siedziałem z propagandzistami,
-
3:42 - 3:44nie tylko z gościem z Kalifornii,
ale z wieloma innymi, -
3:44 - 3:48i obserwowałem,
jak udawało im się to osiągać. -
3:48 - 3:51Nie byli rosyjskimi hakerami
ani komputerowymi guru, -
3:51 - 3:54nie mieli wyjątkowej wiedzy politycznej.
-
3:54 - 3:56Rozumieli, jak działają
media społecznościowe -
3:56 - 3:59i chcieli wykorzystać to
dla własnej korzyści. -
3:59 - 4:02Początkowo wmawiałem sobie,
że to takie nieistotne zjawisko, -
4:02 - 4:04coś, co istniało tylko w Internecie.
-
4:04 - 4:09Ale dzisiaj już nie ma rozgraniczenia
między Internetem i całą resztą. -
4:09 - 4:11Ta reklama ukazała się w wielu stacjach TV
-
4:11 - 4:14podczas wyborów do Kongresu w 2018 roku,
-
4:14 - 4:16twierdząc na podstawie kilku dowodów,
że jeden z kandydatów -
4:17 - 4:19jest w garści międzynarodowego
manipulatora, George'a Sorosa, -
4:19 - 4:23który na przerobionym zdjęciu
stoi obok stosów pieniędzy. -
4:23 - 4:26To tweet prezydenta USA,
-
4:26 - 4:28twierdzącego, znowu bez dowodów,
-
4:28 - 4:31że Soros manipuluje amerykańską polityką.
-
4:31 - 4:35Coś, co kiedyś było szokujące,
marginalne i niegodne uwagi, -
4:35 - 4:38stało się normą, z którą się oswoiliśmy.
-
4:38 - 4:40Spędziłem w tamtym świecie trzy lata.
-
4:40 - 4:42Rozmawiałem z wieloma ludźmi.
-
4:42 - 4:44Niektórzy z nich nie mieli
głębszych przekonań. -
4:44 - 4:47Obstawiali po prostu zupełnie racjonalnie,
-
4:47 - 4:49że jeśli chcą zarobić pieniądze online,
-
4:49 - 4:51lub uzyskać zainteresowanie,
-
4:51 - 4:53to powinni być szokujący
na ile to możliwe. -
4:53 - 4:55Rozmawiałem też z prawdziwymi ideologami.
-
4:56 - 5:00Dla wyjaśnienia, ich ideologia nie była
tradycyjnym konserwatyzmem. -
5:00 - 5:03Niektórzy z nich chcieli odwołać
prawo głosu dla kobiet. -
5:03 - 5:06Inni nawoływali do powrotu
do segregacji rasowej. -
5:06 - 5:09Inni pragnęli całkowicie
pozbyć się demokracji. -
5:09 - 5:12Naturalnie, ci ludzie nie urodzili się
z takimi przekonaniami. -
5:12 - 5:15Nie wynieśli ich ze szkoły podstawowej.
-
5:15 - 5:18Wielu z nich, zanim wpadli
w internetową króliczą norę, -
5:18 - 5:20byli libertarianami, albo socjalistami,
-
5:20 - 5:23albo jeszcze kimś zupełnie innym.
-
5:23 - 5:24Więc o co tu chodzi?
-
5:25 - 5:27Nie mogę generalizować
każdego przypadku, -
5:27 - 5:29ale wielu z moich rozmówców,
-
5:29 - 5:33miało połączenie wysokiego IQ
i niskiego EQ. -
5:33 - 5:36Czuli się bardziej komfortowo
w anonimowej przestrzeni Internetu, -
5:36 - 5:38niż w kontakcie ze światem realnym.
-
5:39 - 5:41Często chowali się na forach dyskusyjnych,
-
5:41 - 5:42takich jak Reddit,
-
5:42 - 5:45gdzie potęgowano najgorsze impulsy.
-
5:45 - 5:48Czasami coś napisali jako głupi dowcip,
-
5:48 - 5:51i dostawali tyle pozytywnych reakcji,
-
5:51 - 5:54tyle nic nie znaczących
"punktów internetowych", -
5:54 - 5:57że sami zaczynali wierzyć w swój dowcip.
-
5:58 - 6:02Długo rozmawiałem z pewną młodą kobietą,
która dorastała w New Jersey. -
6:02 - 6:04Po szkole średniej przeprowadziła się
-
6:04 - 6:06i nagle poczuła się wyobcowana i samotna
-
6:06 - 6:08i zaczęła chować się w swoim telefonie.
-
6:09 - 6:11Znalazła przestrzeń w Internecie,
-
6:11 - 6:14gdzie ludzie pisali niezwykle
szokujące i obrzydliwe rzeczy. -
6:14 - 6:16Dla niej to było odrzucające,
-
6:16 - 6:18ale też wciągające.
-
6:19 - 6:21Nie mogła tego zostawić.
-
6:21 - 6:24Zaczęła wchodzić w interakcję
z ludźmi z tych stron. -
6:24 - 6:27Dzięki nim czuła się mądra i potrzebna.
-
6:27 - 6:29Czuła się częścią wspólnoty.
-
6:29 - 6:32Zaczęła się zastanawiać,
czy te szokujące memy -
6:32 - 6:34nie zawierają ziarnka prawdy.
-
6:34 - 6:38Kilka miesięcy później razem
z kilkoma znajomymi z Internetu, -
6:38 - 6:40jechała do Charlottesville w Wirginii,
-
6:40 - 6:42maszerować z pochodniami
w imieniu białej rasy. -
6:43 - 6:45W kilka miesięcy ze zwolenniczki Obamy
-
6:45 - 6:48stała się zradykalizowaną,
białą supremacjonistką. -
6:49 - 6:51Akurat w jej przypadku,
-
6:51 - 6:55była potem w stanie wydostać się
z kultu białej supremacji. -
6:56 - 6:58Ale wielu ludzi nie miało tego szczęścia.
-
6:59 - 7:00Żeby było jasne:
-
7:00 - 7:03nigdy nie zakładałem, że muszę zgodzić się
-
7:03 - 7:05z każdym rozmówcą.
-
7:05 - 7:07Nie zamierzałem mówić:
-
7:07 - 7:10"Wiesz co, ty jesteś faszystą, ja nie.
-
7:10 - 7:13Nieważne. Uściśniemy się,
i te różnice przestaną istnieć". -
7:13 - 7:15Nie. Zdecydowanie, nie.
-
7:16 - 7:20Ale nabrałem przekonania,
że nie możemy tego zjawiska ignorować. -
7:20 - 7:23Musimy próbować to zrozumieć.
-
7:23 - 7:26Bo tylko tak możemy
zacząć się na to uodparniać. -
7:27 - 7:31Podczas tych trzech lat dostałem
kilka nieprzyjemnych telefonów, -
7:31 - 7:32nawet kilka gróźb.
-
7:32 - 7:36Ale to nic w porównaniu z tym,
co dziennikarki dostają na co dzień. -
7:37 - 7:38Tak, jestem Żydem,
-
7:38 - 7:42chociaż wielu Nazistów
nie było w stanie tego stwierdzić, -
7:42 - 7:45co było dla mnie dosyć rozczarowujące.
-
7:45 - 7:47(Śmiech)
-
7:47 - 7:51Serio, twoje zadanie polega na byciu
profesjonalnym antysemitą, -
7:51 - 7:54patrząc na mnie,
nic nie wzbudza w tobie podejrzeń? -
7:54 - 7:55Nic?
-
7:55 - 7:57(Śmiech)
-
7:58 - 7:59To nie jest tajemnica.
-
7:59 - 8:02Nazywam się Andrew Marantz,
piszę dla "The New Yorker", -
8:02 - 8:04Moja osobowość to jakby Seinfeld
-
8:04 - 8:06wpadł do Park Slope Food Coop.
-
8:06 - 8:07Nic?
-
8:08 - 8:10(Śmiech)
-
8:13 - 8:15Byłoby miło,
-
8:15 - 8:17gdyby istniał jakiś wzór:
-
8:17 - 8:21smartfon plus wyobcowane dziecko
równa się 12 procent szans na Nazistę. -
8:22 - 8:24Naturalnie, to nie takie proste.
-
8:24 - 8:25Będąc pisarzem,
-
8:25 - 8:29łatwej jest mi opisywać rzeczy,
nie dawać rozwiązania. -
8:29 - 8:32Ale to jest TED,
-
8:32 - 8:34więc bądźmy praktyczni.
-
8:34 - 8:36Mam kilka sugestii,
które możemy zastosować, -
8:36 - 8:39jako Internauci,
-
8:39 - 8:42żeby te interakcje były mniej toksyczne.
-
8:43 - 8:45Po pierwsze: bądźmy mądrymi sceptykami.
-
8:46 - 8:48Myślę, że istnieją
dwa rodzaje sceptycyzmu. -
8:48 - 8:52Nie chcę was zasypywać technicznymi
i intelektualnymi różnicami, -
8:52 - 8:55dlatego je nazywam
"mądrym i głupim sceptycyzmem". -
8:56 - 8:59Mądry sceptycyzm:
-
8:59 - 9:00myślenie samodzielne,
-
9:00 - 9:01kwestionowanie stwierdzeń,
-
9:01 - 9:03szukanie dowodów.
-
9:03 - 9:04Super. To jest prawdziwy sceptycyzm.
-
9:05 - 9:08Głupi sceptycyzm - brzmi jak sceptycyzm,
-
9:08 - 9:11ale jest mu bliżej
do automatycznego zaprzeczania. -
9:12 - 9:13Mówią, że Ziemia jest okrągła,
-
9:13 - 9:15ty, że jest płaska.
-
9:15 - 9:16Mówią, że rasizm, to zło,
-
9:16 - 9:19a ty: "No nie wiem. Mam wątpliwości".
-
9:20 - 9:24Nie uwierzylibyście ilu młodych, białych
mężczyzn, z którymi rozmawiałem -
9:24 - 9:25powtarzało:
-
9:25 - 9:28"Media, nauczyciele,
wszyscy chcą mnie przekonać -
9:28 - 9:31o przywilejach białych i mężczyzn,
-
9:31 - 9:33ale ja nie jestem taki pewny tego".
-
9:33 - 9:37Chłopaki, ci, którzy
odruchowo zaprzeczacie, -
9:37 - 9:39posłuchajcie:
-
9:39 - 9:42Jeśli kwestionujecie,
że Ziemia jest okrągła, -
9:42 - 9:45że mężczyźni są uprzywilejowani,
a rasizm jest złem, -
9:45 - 9:47to nie jesteście sceptykami.
Jesteście palantami. -
9:47 - 9:51(Brawa)
-
9:52 - 9:56Super, jak myślisz samodzielnie,
powinniśmy tak myśleć. -
9:56 - 9:57Ale róbmy to z głową.
-
9:58 - 10:00Druga sugestia jest o wolności słowa.
-
10:00 - 10:04Wielu mądrych ludzi powtarza:
"Ja jestem za wolnością słowa". -
10:04 - 10:07I mówią to w taki sposób jakby,
to miał być koniec debaty. -
10:07 - 10:11Kiedy tak naprawdę,
to powinien być wstęp do dyskusji. -
10:12 - 10:14To co ciekawe, następuje
po tym stwierdzeniu. -
10:14 - 10:16Dobra, jesteś za wolnością słowa.
Co to znaczy? -
10:16 - 10:19Czy David Duke i Richard Spencer
-
10:19 - 10:21powinni mieć konta na Twitterze?
-
10:21 - 10:24Czy to znaczy, że każdy
może obrażać każdego online, -
10:24 - 10:25z jakiegokolwiek powodu?
-
10:25 - 10:28Przejrzałem listę mówców na TED w tym roku
-
10:28 - 10:30i nie znalazłem sceptyka
wierzącego w płaską Ziemię. -
10:30 - 10:33Czy to pogwałcenie zasad wolnego słowa?
-
10:33 - 10:37Wszyscy jesteśmy za wolnością słowa,
to jest wspaniała idea. -
10:37 - 10:39Ale jeśli tylko tyle potrafisz
powiedzieć na ten temat, -
10:39 - 10:42to blokujesz drogę
do bardziej produktywnej rozmowy. -
10:44 - 10:47Sugestia trzecia: bycie
porządnym obywatelem jest spoko. -
10:47 - 10:48Świetnie!
-
10:48 - 10:50(Brawa)
-
10:50 - 10:52Nawet nie muszę tego tłumaczyć.
-
10:52 - 10:56Podczas mojego projektu
wchodziłem na Reddit, YouTube i Facebook -
10:56 - 10:58i wrzucałem hasła jak: "prawo szariatu",
-
10:58 - 11:00czy "Holokaust"
-
11:01 - 11:04i możecie zgadnąć,
co mi pokazywały algorytmy. -
11:04 - 11:07"Czy prawo szariatu opanowuje USA?"
-
11:07 - 11:09"Czy Holokaust naprawdę miał miejsce?"
-
11:10 - 11:12Głupi sceptycyzm.
-
11:13 - 11:15Więc znalazłem się
w tej dziwnej dynamice online, -
11:15 - 11:17gdzie dla niektórych ta propaganda,
-
11:17 - 11:20to bycie kontrowersyjnym, oryginalnym.
-
11:20 - 11:23I dla tych ludzi podstawowe
prawdy są cnotliwością, bigoterią, -
11:23 - 11:26pobożnością czy nawet nudą.
-
11:26 - 11:30Algorytmy mediów społecznościowych,
celowo lub nie, -
11:30 - 11:32nagradzają takie postawy.
-
11:32 - 11:35Bo propaganda jest świetna
dla wywoływania zaangażowania. -
11:35 - 11:37Wszyscy w to klikają,
wszyscy to komentują, -
11:37 - 11:39czy to lubią czy nienawidzą.
-
11:39 - 11:42Więc po pierwsze,
-
11:42 - 11:45media społecznościowe
muszą naprawić swoje platformy. -
11:45 - 11:49(Brawa)
-
11:50 - 11:53Jeśli mnie teraz słuchasz
i pracujesz w mediach społecznościowych, -
11:53 - 11:56albo zainwestowałeś w nie
lub jesteś właścicielem, -
11:57 - 11:58to przesłanie jest do ciebie.
-
11:58 - 12:02Jeśli optymalizujesz na maksymalne
zaangażowanie emocjonalne, -
12:02 - 12:06a to emocjonalne zaangażowanie
wyraźnie szkodzi światu, -
12:06 - 12:09czas optymalizować coś innego.
-
12:09 - 12:12(Brawa)
-
12:15 - 12:18Ale poza naciskiem na nich,
żeby coś zmienili -
12:18 - 12:21i czekaniem, z nadzieją,
-
12:21 - 12:24my też możemy coś zrobić.
-
12:24 - 12:27Możemy stworzyć,
-
12:27 - 12:30pokazać lepsze drogi
dla niespokojnych nastolatków. -
12:30 - 12:33Jeśli znalazłeś coś
kreatywnego, inspirującego -
12:33 - 12:36i chcesz się tym podzielić, zrób to.
-
12:36 - 12:39Nawet, jeśli to nie wywołuje w tobie
silnego podniecenia. -
12:39 - 12:41Wiem, że to jest bardzo mały krok.
-
12:41 - 12:43Ale całościowo, to ma znaczenie.
-
12:43 - 12:46Bo te algorytmy, chociaż są bardzo silne,
-
12:46 - 12:48są reakcją na nasze zachowanie w sieci.
-
12:50 - 12:52Na koniec chcę powiedzieć jedną rzecz.
-
12:52 - 12:54Kilka lat temu, modne było stwierdzenie,
-
12:54 - 12:57że Internet zrewolucjonizuje świat,
-
12:57 - 12:59że zbliży nas do siebie.
-
12:59 - 13:01Teraz się częściej słyszy,
-
13:01 - 13:04że Internet to wielki ogień
nie do opanowania. -
13:05 - 13:07Żadna z karykatur nie jest prawdziwa.
-
13:07 - 13:09Wiemy, że Internet
jest zbyt wielki i złożony, -
13:09 - 13:11żeby był samym dobrem czy złem.
-
13:11 - 13:13Czai się tu pewne niebezpieczeństwo,
-
13:13 - 13:16czy w utopijnym założeniu,
że Internet nas zbawi, -
13:16 - 13:20czy w dystopijnym założeniu,
że nas zniszczy, -
13:20 - 13:22w obu przypadkach
unikamy odpowiedzialności. -
13:24 - 13:26Nic nie jest przesądzone
o naszej przyszłości. -
13:27 - 13:29Internet jest złożony z ludzi.
-
13:29 - 13:32To ludzie podejmują decyzje
w mediach społecznościowych. -
13:32 - 13:35To ludzie tworzą hashtagi,
które są trendujące lub nie. -
13:35 - 13:38To ludzie pchają społeczeństwa
do oświecenia lub zacofania. -
13:39 - 13:41Kiedy to zrozumiemy,
-
13:41 - 13:44możemy przestać czekać
na nieuniknioną przyszłość -
13:44 - 13:46i zacząć nad tym pracować. Od zaraz.
-
13:47 - 13:50Uczono nas, że łuk
wszechświata moralnego jest długi, -
13:50 - 13:52ale zgina się ku sprawiedliwości.
-
13:54 - 13:56Może.
-
13:57 - 13:58Może tak będzie.
-
13:59 - 14:01Ale to zawsze miała być nasza aspiracja,
-
14:01 - 14:03nie gwarancja.
-
14:04 - 14:06Łuk sam się nie zgina.
-
14:06 - 14:10Nie jest zgięty
przez jakąś tajemniczą siłę. -
14:10 - 14:11Prawda jest taka,
-
14:11 - 14:14przerażająca, ale też wyzwalająca,
-
14:15 - 14:16to to, że to my go zginamy.
-
14:17 - 14:18Dziękuję.
-
14:18 - 14:21(Brawa)
- Title:
- W dziwnym świecie internetowych trolli i propagandzistów
- Speaker:
- Andrew Marantz
- Description:
-
Dziennikarz Andrew Marantz spędził trzy lata zanurzony w świecie internetowych trolli i propagandzistów z mediów społecznościowych, szukając ludzi, którzy wprowadzają swoje skrajne opinie do centrum dyskusji online i próbował zrozumieć sposób ich działania. Wejdź w głąb króliczej nory propagandy i dezinformacji istniejącej w sieci - i dowiedz się, jak możesz zacząć czynić Internet mniej toksycznym.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 14:36
Marta Konieczna approved Polish subtitles for Inside the bizarre world of internet trolls and propagandists | ||
Marta Konieczna edited Polish subtitles for Inside the bizarre world of internet trolls and propagandists | ||
Marta Konieczna edited Polish subtitles for Inside the bizarre world of internet trolls and propagandists | ||
Agnieszka Fijałkowska accepted Polish subtitles for Inside the bizarre world of internet trolls and propagandists | ||
Agnieszka Fijałkowska edited Polish subtitles for Inside the bizarre world of internet trolls and propagandists | ||
Marta Konieczna edited Polish subtitles for Inside the bizarre world of internet trolls and propagandists | ||
Agnieszka Fijałkowska edited Polish subtitles for Inside the bizarre world of internet trolls and propagandists | ||
Marta Konieczna rejected Polish subtitles for Inside the bizarre world of internet trolls and propagandists |