WEBVTT 00:00:00.360 --> 00:00:03.361 [Felnőtt tartalom] NOTE Paragraph 00:00:04.913 --> 00:00:09.005 Moritz Riesewieck: 2013. március 23-án 00:00:09.389 --> 00:00:13.446 egy olyan videót találtak a felhasználók a hírfolyamukban szerte a világban, 00:00:13.470 --> 00:00:18.533 amelyen egy idősebb férfi megerőszakol egy fiatal lányt. 00:00:19.478 --> 00:00:22.994 Mielőtt a videót eltávolították volna a Facebookról, 00:00:23.358 --> 00:00:27.374 már 16 ezren megosztották, 00:00:27.998 --> 00:00:31.640 és négyezren lájkolták is. 00:00:33.268 --> 00:00:36.931 A videó terjedt, és megfertőzte a netet. NOTE Paragraph 00:00:37.873 --> 00:00:40.968 Hans Block: Ez volt az a pillanat, amikor megkérdeztük magunktól, 00:00:40.992 --> 00:00:43.770 hogyan kerülhet fel ilyesmi a Facebookra? 00:00:43.794 --> 00:00:48.196 És ugyanakkor miért nem látunk ilyen tartalmat még sokkal gyakrabban? 00:00:48.220 --> 00:00:51.553 Elvégre sok visszataszító tartalom kering online, 00:00:51.927 --> 00:00:56.382 miért látunk ritkán ilyen ganét a Facebookon, Twitteren vagy Google-on? NOTE Paragraph 00:00:56.958 --> 00:00:59.199 MR: Míg a képeken és videókon 00:00:59.223 --> 00:01:03.266 a képfelismerő szoftverek azonosítani tudják 00:01:03.310 --> 00:01:08.458 a nemi szervek körvonalait, a vért vagy a meztelenséget, 00:01:08.482 --> 00:01:14.022 óriási nehézségeket jelent megkülönböztetni a pornográf tartalmat 00:01:14.046 --> 00:01:18.394 a nyaraláson készült képektől, egy Adonisz-szobortól 00:01:18.418 --> 00:01:21.116 vagy a mellrákszűrés kampányanyagától. 00:01:21.140 --> 00:01:25.395 Nem tudják megkülönböztetni Rómeó és Júlia halálát a színpadon 00:01:25.419 --> 00:01:27.974 egy valódi késes támadástól. 00:01:27.998 --> 00:01:33.220 Nem tudnak különbséget tenni a szatíra és propaganda, 00:01:33.244 --> 00:01:37.212 a gúny és a gyűlölet, és más hasonló dolgok között. 00:01:38.077 --> 00:01:42.155 Tehát emberek kellenek annak eldöntéshez, 00:01:42.179 --> 00:01:45.740 hogy a gyanús tartalmak közül mit kéne törölni, 00:01:46.204 --> 00:01:48.234 és mi az, ami maradhat. NOTE Paragraph 00:01:48.909 --> 00:01:51.720 Olyan emberek, akikről szinte semmit nem tudunk, 00:01:51.744 --> 00:01:53.611 mert titokban dolgoznak. 00:01:54.053 --> 00:01:55.958 Aláírnak egy titoktartási megállapodást, 00:01:55.982 --> 00:01:58.935 amely megtiltja, hogy beszéljenek róla, 00:01:58.959 --> 00:02:02.544 megosszák, mit láttak a képernyőn, milyen hatással van rájuk ez a munka. 00:02:02.887 --> 00:02:07.157 Kódszavakat kötelező használniuk, hogy ki ne derüljön, kinek dolgoznak. 00:02:07.585 --> 00:02:10.490 Megfigyeltetik őket biztonsági magáncégekkel, 00:02:10.514 --> 00:02:13.724 nehogy újságírókkal beszélhessenek, 00:02:14.048 --> 00:02:17.587 büntetéssel fenyegetik őket arra az esetre, ha mégis beszélnének. 00:02:18.421 --> 00:02:22.013 Olyan ez az egész, mint egy hátborzongató krimi, 00:02:22.207 --> 00:02:23.537 de igaz. 00:02:23.561 --> 00:02:25.053 Vannak ilyen emberek, 00:02:25.633 --> 00:02:29.814 tartalommoderátornak nevezik őket. NOTE Paragraph 00:02:30.942 --> 00:02:34.387 HB: Mi rendeztük a "Tisztogatók" című dokumentarista játékfilmet – 00:02:34.411 --> 00:02:36.371 elvisszük önöket egy olyan világba, 00:02:36.395 --> 00:02:38.982 amelynek létezéséről sokuk talán nem is tudott. 00:02:39.006 --> 00:02:41.139 Itt egy rövid részlet a filmből. NOTE Paragraph 00:02:41.959 --> 00:02:44.959 (Zene) NOTE Paragraph 00:02:52.400 --> 00:02:56.296 (Video) Moderátor: Névtelenségben kell maradnom, mert aláírtunk egy szerződést. 00:02:57.784 --> 00:03:01.405 Nem szabad megmondanunk, hogy kivel dolgozunk. 00:03:02.807 --> 00:03:04.570 Azért beszélek most önnek, 00:03:04.594 --> 00:03:08.974 mert a világnak tudnia kell, hogy vagyunk. 00:03:10.544 --> 00:03:13.347 Van itt valaki, aki ellenőrzi a közösségi médiát. 00:03:14.317 --> 00:03:17.921 Minden tőlünk telhetőt megteszünk, hogy ez a platform 00:03:17.945 --> 00:03:19.735 mindenki számára biztonságos legyen. 00:03:30.438 --> 00:03:31.588 Töröl. 00:03:32.278 --> 00:03:33.572 Nem érdekes. 00:03:33.596 --> 00:03:34.746 Töröl. 00:03:35.279 --> 00:03:36.576 Nem érdekes. 00:03:36.600 --> 00:03:37.751 Töröl. 00:03:38.680 --> 00:03:39.831 Nem érdekes. 00:03:39.855 --> 00:03:41.005 Nem érdekes. 00:03:41.625 --> 00:03:42.775 Töröl. NOTE Paragraph 00:03:46.030 --> 00:03:48.007 HB: Az úgynevezett tartalommoderátorok 00:03:48.031 --> 00:03:51.751 nem a Facebooktól, a Twittertől vagy a Goggle-tól kapják a fizetésüket, 00:03:51.751 --> 00:03:54.372 hanem a világ más részeire kiszervezett cégektől, 00:03:54.396 --> 00:03:56.613 hogy munkabérüket alacsonyan lehessen tartani. NOTE Paragraph 00:03:56.833 --> 00:03:58.800 Fiatalok tízezrei néznek végig mindent, 00:03:58.824 --> 00:04:02.037 amit nem kéne látnunk. 00:04:02.061 --> 00:04:05.609 Lefejezésekről, csonkításokról, kivégzésekről, 00:04:05.633 --> 00:04:09.329 halottgyalázásról, kínzásról, gyermekmolesztálásról beszélünk. 00:04:09.743 --> 00:04:12.017 Képek ezrei egyetlen műszakban – 00:04:12.041 --> 00:04:14.956 nem érdekes, töröl – éjjel-nappal. 00:04:15.393 --> 00:04:18.791 E munkák többségét Manilában végzik, 00:04:18.815 --> 00:04:22.117 ahová éveken keresztül szállították teherhajókon 00:04:22.141 --> 00:04:24.749 a veszélyes hulladékot a nyugati világból – 00:04:24.773 --> 00:04:28.776 mára a digitális szemét ömlik ide optikai kábelen. 00:04:28.800 --> 00:04:31.847 És ahogy a guberálók 00:04:31.871 --> 00:04:35.347 átturkálják az óriási szeméthegyeket a város peremén, 00:04:35.371 --> 00:04:40.204 a tartalommoderátorok is utat kattintgatnak maguknak 00:04:40.228 --> 00:04:44.315 a képek és videók intellektuális szemetének végtelen, mérgező óceánján, 00:04:44.339 --> 00:04:46.641 így nekünk nem kell azokat megnéznünk. NOTE Paragraph 00:04:46.665 --> 00:04:50.205 MR: A guberálók sérüléseivel szemben 00:04:50.229 --> 00:04:53.680 a tartalommoderátorok sebei láthatatlanok maradnak. 00:04:54.117 --> 00:04:57.197 Teli sokkoló és megzavaró részletekkel, 00:04:57.221 --> 00:05:00.484 ezek a képek és videók befészkelik magukat memóriájukba, 00:05:00.508 --> 00:05:03.953 és bármikor meg nem jósolható hatást válthatnak ki: 00:05:03.977 --> 00:05:07.334 evészavart, a libidó elvesztését, 00:05:07.358 --> 00:05:11.625 idegrendszeri rendellenességeket, alkoholizmust, depressziót, 00:05:11.625 --> 00:05:13.893 és akár öngyilkossághoz is vezethetnek. 00:05:14.100 --> 00:05:16.545 A képek és videók megfertőzik, 00:05:16.569 --> 00:05:18.958 és gyakran el sem engedik őket többé. 00:05:18.982 --> 00:05:23.823 Ha nincs szerencséjük, poszttraumás stresszszindróma fejlődik ki náluk, 00:05:23.847 --> 00:05:26.047 akár a katonáknál háborús küldetés után. NOTE Paragraph 00:05:27.445 --> 00:05:31.088 Filmünkben egy fiatalember történetét mondjuk el, 00:05:31.112 --> 00:05:36.310 akinek öncsonkításokat és öngyilkossági kísérleteket kellett élőben monitoroznia, 00:05:36.334 --> 00:05:38.009 újra és újra, 00:05:38.033 --> 00:05:41.099 és aki végül maga is öngyilkos lett. 00:05:41.787 --> 00:05:44.527 Ez nem példátlan eset, ahogy megtudtuk. 00:05:45.184 --> 00:05:49.164 Ez az ára annak, amit mindannyian fizetünk 00:05:49.188 --> 00:05:54.515 az ún. biztonságos és egészséges 00:05:54.539 --> 00:05:56.823 környezetért a közösségi médiában. 00:05:58.482 --> 00:06:01.077 Az emberiség történelmében soha korábban 00:06:01.101 --> 00:06:04.433 nem volt ilyen egyszerű emberek millióit elérni világszerte 00:06:04.457 --> 00:06:06.124 néhány másodperc alatt. 00:06:06.148 --> 00:06:10.093 Amit a közösségi médiában posztolunk, gyorsan terjed, 00:06:10.117 --> 00:06:14.053 felkapják, és szerte a földgolyón felzaklatja az embereket. 00:06:14.450 --> 00:06:16.514 Mire törölnék, 00:06:16.538 --> 00:06:18.471 már túl késő. 00:06:18.966 --> 00:06:21.196 Milliókat megfertőzött már 00:06:21.220 --> 00:06:23.077 gyűlölettel és haraggal, 00:06:23.101 --> 00:06:25.831 akik aztán vagy online aktivizálják magukat, 00:06:25.855 --> 00:06:28.708 és terjesztik vagy gerjesztik a gyűlöletet, 00:06:28.708 --> 00:06:32.226 vagy kiviszik az utcára, és harcra készülnek. 00:06:33.188 --> 00:06:37.175 HB: Tehát tartalommoderátorok serege ül a képernyő előtt, NOTE Paragraph 00:06:37.222 --> 00:06:39.695 hogy elkerüljük a további károkozást. 00:06:40.434 --> 00:06:42.553 És döntenek, amilyen gyorsan csak lehet, 00:06:42.577 --> 00:06:46.672 hogy az a tartalom maradhat-e, mert nem érdekes; 00:06:46.696 --> 00:06:49.036 vagy tűnjön el és törli. 00:06:49.823 --> 00:06:52.450 De nem minden döntés annyira egyértelmű, 00:06:52.474 --> 00:06:55.311 mint az a videó a gyermekmolesztálásról. 00:06:55.311 --> 00:06:58.172 Mi a helyzet az ellentmondásos vagy kétértelmű tartalmakkal, 00:06:58.196 --> 00:07:01.349 amelyeket emberjogi aktivisták vagy civil tudósítók töltenek fel? 00:07:02.048 --> 00:07:05.270 A tartalommoderátorok gyakran döntenek ilyeneknél is, 00:07:05.294 --> 00:07:08.027 ugyanolyan gyorsan, mint az egyértelmű esetekben. NOTE Paragraph 00:07:09.515 --> 00:07:12.174 MR: Mutatunk egy videót, 00:07:12.198 --> 00:07:15.507 és szeretnénk, ha döntenének: 00:07:15.531 --> 00:07:17.221 törölnék-e, 00:07:17.245 --> 00:07:19.046 vagy meghagynák? NOTE Paragraph 00:07:19.070 --> 00:07:20.737 (Video) (Légvédelmi sziréna) NOTE Paragraph 00:07:21.100 --> 00:07:23.650 (Robbanás) NOTE Paragraph 00:07:28.076 --> 00:07:31.079 (Arabul beszélő emberek) NOTE Paragraph 00:07:34.053 --> 00:07:36.283 MR: Letakartunk néhány részletet a kedvükért. 00:07:37.196 --> 00:07:40.951 Egy gyereket alkalomadtán vészesen megzavarhat 00:07:40.975 --> 00:07:43.784 és szélsőségesen megrémiszthet az ilyen tartalom. 00:07:43.808 --> 00:07:46.105 Tehát, törölnék inkább? 00:07:47.610 --> 00:07:52.249 És ha ez a videó segíthetné a háborús bűnök kivizsgálását Szíriában? 00:07:52.717 --> 00:07:55.884 És mi van, ha senki nem hall a légicsapásról, 00:07:55.908 --> 00:07:59.646 mert a Facebook, a YouTube és a Twitter eldöntötték, hogy leveszik? 00:08:00.895 --> 00:08:05.220 Az Airwars, egy londoni székhelyű civil szervezet 00:08:05.220 --> 00:08:08.165 megpróbálja minél gyorsabban megtalálni az ilyen videókat, 00:08:08.165 --> 00:08:10.725 bármikor is töltötték fel a közösségi médiába, 00:08:10.749 --> 00:08:12.349 hogy aztán archiválja. 00:08:12.693 --> 00:08:15.526 Tudják, hogy előbb vagy utóbb 00:08:15.550 --> 00:08:18.860 a Facebook, a YouTube, a Twitter törli az ilyen tartalmakat. 00:08:19.345 --> 00:08:23.197 Mobiltelefonjukkal felfegyverkezve sokszor olyan dolgokról is tudósítanak emberek, 00:08:23.197 --> 00:08:25.776 amikhez az újságírók nem férnek hozzá. 00:08:25.800 --> 00:08:28.863 Emberjogi csoportok sokszor nem tehetnek jobbat, 00:08:28.887 --> 00:08:32.688 gyorsan elérhetővé teszik felvételeiket a széles nyilvánosság számára azzal, 00:08:32.712 --> 00:08:35.312 hogy feltöltik őket a közösségi médiába. 00:08:35.950 --> 00:08:40.236 Nem ez kéne legyen az internetben rejlő erő? 00:08:40.966 --> 00:08:42.926 Nem ezeket az álmokat dédelgettük 00:08:42.950 --> 00:08:47.061 a kezdetekkor az internettel kapcsolatban? 00:08:47.608 --> 00:08:50.403 Vajon az ilyen képek és videók 00:08:50.427 --> 00:08:54.811 nem győzik meg a tények iránt érzéketlen embereket, 00:08:55.585 --> 00:08:57.242 hogy gondolják újra? NOTE Paragraph 00:08:57.917 --> 00:09:01.399 HB: De ehelyett mindent törölnek, ami kényelmetlenséget okozhat. 00:09:01.399 --> 00:09:03.601 Van egy általános elmozdulás a társadalomban. 00:09:03.625 --> 00:09:07.522 A média például egyre gyakrabban használ figyelmeztetést 00:09:07.546 --> 00:09:09.339 az olyan cikkek tetején, 00:09:09.363 --> 00:09:12.672 amelyek esetleg fenyegetőnek vagy ijesztőnek értelmezhetők. 00:09:12.696 --> 00:09:16.610 Vagy az Egyesült Államok egyetemein mind több hallgató követeli 00:09:16.634 --> 00:09:19.451 az olyan ókori klasszikusok tiltását a tanrendből, 00:09:19.475 --> 00:09:22.590 amelyek nemi erőszakot vagy tettlegességet ábrázolnak. 00:09:22.991 --> 00:09:25.324 De hová jutunk ezzel? 00:09:25.875 --> 00:09:29.255 Fizikai sértetlenségünket, mint emberi jogot, 00:09:29.279 --> 00:09:31.229 világszerte garantálják az alkotmányok. 00:09:31.422 --> 00:09:35.176 Az Európai Unió Alapjogi Chartája 00:09:35.200 --> 00:09:38.554 ezt a jogot a mentális sértetlenségre is kimondja. 00:09:39.347 --> 00:09:42.005 De még ha nehéz is megjósolni a képek és videók 00:09:42.029 --> 00:09:44.855 lehetséges traumatikus hatását, 00:09:44.879 --> 00:09:46.836 valóban olyan óvatosak akarunk lenni, 00:09:46.860 --> 00:09:50.587 hogy kockáztatnánk azt, hogy tudjunk a társadalmi igazságtalanságokról? 00:09:51.203 --> 00:09:52.353 Mit tegyünk hát? 00:09:52.942 --> 00:09:55.958 Mark Zuckerberg mostanában jelentette be, hogy mi, felhasználók, 00:09:55.958 --> 00:09:59.070 szinte mindenki, 00:09:59.784 --> 00:10:02.045 a jövőben egyénileg fogja eldönteni, 00:10:02.069 --> 00:10:03.897 hogy mit szeretne látni a platformon, 00:10:03.897 --> 00:10:06.172 azzal, hogy beállítja személyes szűrőjét. 00:10:06.196 --> 00:10:09.268 Így bárki könnyen kérheti, hogy ne zavarják 00:10:09.292 --> 00:10:13.031 háborús felvételekkel vagy más erőszakos konfliktusokkal, mint... NOTE Paragraph 00:10:13.849 --> 00:10:18.295 MR: Én olyan fickó vagyok, akit nem zavar a keblek látványa, 00:10:18.319 --> 00:10:22.085 és érdekel a globális felmelegedés, 00:10:22.109 --> 00:10:24.673 de a háborút nem szeretem olyan nagyon. NOTE Paragraph 00:10:25.109 --> 00:10:27.045 HB: Én meg pont az ellenkezője vagyok, 00:10:27.045 --> 00:10:30.908 egy csöppet sem érdekelnek a fedetlen keblek vagy meztelen testek. 00:10:31.209 --> 00:10:34.120 De a fegyverek miért ne? Igen, szeretem a fegyvereket. NOTE Paragraph 00:10:34.901 --> 00:10:38.576 MR: Ha nem osztjuk meg a tudásunkat a hasonló társadalmi problémákról, 00:10:38.576 --> 00:10:41.269 akkor hogyan fogjuk megvitatni a társadalmi kérdéseket? 00:10:41.269 --> 00:10:43.934 Hogyan szólítjuk meg az embereket, hogy tegyenek valamit? 00:10:43.934 --> 00:10:47.069 Még több, egymástól elszigetelt buborék fog létrejönni. 00:10:47.665 --> 00:10:50.896 Az egyik központi kérdés, hogy mi lesz fontosabb a jövőben: 00:10:50.920 --> 00:10:55.823 az önkifejezés szabadsága vagy az igény, hogy biztonságban érezzük magunkat? 00:10:56.441 --> 00:10:57.908 Ez elvi kérdés. 00:10:58.602 --> 00:11:02.850 Hogy nyílt vagy zárt társadalmat szeretnénk 00:11:02.874 --> 00:11:04.513 a digitális térben teremteni? 00:11:05.054 --> 00:11:10.966 Szabadság vagy biztonság – ez a lényegi kérdés. 00:11:12.388 --> 00:11:16.872 A Facebook mindig is "egészséges" platform akart lenni. 00:11:16.896 --> 00:11:20.594 A felhasználóknak először is biztonságban kell érezniük magukat. 00:11:20.618 --> 00:11:22.738 Ugyanígy fogalmaznak 00:11:22.762 --> 00:11:25.720 a filippínó tartalommoderátorok 00:11:25.744 --> 00:11:27.544 számos interjúban. NOTE Paragraph 00:11:28.188 --> 00:11:30.569 (Videó) Az a világ, amiben jelenleg élünk, 00:11:30.593 --> 00:11:32.759 szerintem nem igazán egészséges. NOTE Paragraph 00:11:32.783 --> 00:11:34.331 (Zene) NOTE Paragraph 00:11:34.355 --> 00:11:37.513 Ebben a világban valóban jelen van a gonosz, aki létezik. NOTE Paragraph 00:11:37.537 --> 00:11:40.295 (Zene) NOTE Paragraph 00:11:40.799 --> 00:11:42.862 Szükséges, hogy odafigyeljünk. NOTE Paragraph 00:11:42.886 --> 00:11:44.768 (Zene) NOTE Paragraph 00:11:44.792 --> 00:11:48.042 Kontroll alatt kell tartsuk: jó vagy rossz. NOTE Paragraph 00:11:48.646 --> 00:11:51.066 (Zene) NOTE Paragraph 00:11:58.193 --> 00:12:02.526 [Figyelj, fiatalember! – Isten] NOTE Paragraph 00:12:02.952 --> 00:12:07.230 MR: A szigorúan katolikus Fülöp-szigeteken a fiatal moderátorok számára 00:12:07.254 --> 00:12:10.047 ez a keresztény küldetéshez kötődik. 00:12:10.833 --> 00:12:13.799 Tenni a világ bűnei ellen, 00:12:13.823 --> 00:12:15.997 amelyek a világhálón keresztül terjednek. 00:12:16.641 --> 00:12:20.053 "Erkölcsi kötelességünk megőrizni a tisztaságot" – NOTE Paragraph 00:12:20.077 --> 00:12:23.511 ez általános vélekedés a filippínók között. NOTE Paragraph 00:12:24.035 --> 00:12:25.774 HB: Mások abból nyernek ösztönzést, 00:12:25.788 --> 00:12:29.449 hogy elnökükhöz, Rodrigo Dutertéhez hasonlítják magukat, 00:12:29.837 --> 00:12:33.039 aki 2016 óta kormányozza a Fülöp-szigeteket, 00:12:33.352 --> 00:12:37.345 és az volt a választási ígérete, hogy "feltakarítok". 00:12:37.892 --> 00:12:41.209 Ez azt jelenti, hogy úgy szüntet meg különböző problémákat, 00:12:41.233 --> 00:12:44.962 hogy szó szerint az utcán öli meg a feltételezett bűnözőket, 00:12:44.962 --> 00:12:46.591 bármit is jelentsen ez. 00:12:46.761 --> 00:12:47.871 Megválasztása óta 00:12:47.895 --> 00:12:51.331 nagyjából 20 000 embert gyilkoltak meg. 00:12:51.655 --> 00:12:54.156 A filmben az egyik moderátor azt mondja, 00:12:54.180 --> 00:12:56.235 "Amit Duterte az utcán csinál, 00:12:56.259 --> 00:12:58.363 azt teszem én az internetért." 00:12:58.934 --> 00:13:02.318 Itt vannak ők, az önjelölt szuperhősök, 00:13:02.498 --> 00:13:05.498 akik kikényszerítik a törvényt és rendet digitális világunkban. 00:13:05.522 --> 00:13:07.903 Kitakarítanak, tisztára sikálnak mindent, 00:13:07.927 --> 00:13:10.260 megszabadítanak minket minden gonosztól. 00:13:10.284 --> 00:13:14.013 Ami régebben a hatóságok dolga volt, 00:13:14.037 --> 00:13:17.712 mára 20-as éveik elején járó főiskolát végzettek teszik, 00:13:17.736 --> 00:13:20.629 három-ötnapos képzés után megszerzett papírral. 00:13:20.653 --> 00:13:22.589 Ezzel a minősítéssel rendelkeznek azok, 00:13:22.613 --> 00:13:25.680 akik nem kisebb munkát végeznek, mint a világ megmentése. NOTE Paragraph 00:13:26.756 --> 00:13:30.875 MR: A nemzeti szuverenitás átkerült a magáncégek kezébe, 00:13:30.999 --> 00:13:35.007 ők meg átadják a felelősségüket egy harmadik félnek. 00:13:35.031 --> 00:13:38.094 Ez a kiszervezés kiszervezésének kiszervezése, 00:13:38.118 --> 00:13:39.458 ami most megy. 00:13:39.618 --> 00:13:41.014 A közösségi háló 00:13:41.038 --> 00:13:44.053 merőben új infrastruktúra, 00:13:44.077 --> 00:13:45.593 saját mechanizmusával, 00:13:45.617 --> 00:13:47.490 tevékenységének saját logikájával, 00:13:47.490 --> 00:13:52.465 így egy egészen új, saját veszéllyel, 00:13:52.489 --> 00:13:56.344 ami nem létezett még a digitális világ előtti publikus világban. NOTE Paragraph 00:13:56.344 --> 00:13:59.131 HB: Amikor Mark Zuckenberg megjelent az USA Kongresszusában 00:13:59.131 --> 00:14:00.541 vagy az Európai Parlamentben, 00:14:00.565 --> 00:14:03.200 mindenféle kritikákkal került szembe. 00:14:03.224 --> 00:14:05.804 Mindenre ugyanúgy reagált: 00:14:06.501 --> 00:14:07.969 "Kijavítjuk, 00:14:07.993 --> 00:14:10.544 és ennek megfelelően folytatjuk." 00:14:11.167 --> 00:14:13.319 De az ilyen vitákat nem a Facebook, a Twitter 00:14:13.319 --> 00:14:16.278 vagy a Google hátsó szobáiban kéne lefolytatni – 00:14:16.278 --> 00:14:21.094 ezekről a témákról nyíltan kéne vitázni új, világpolgári parlamentekben, 00:14:21.118 --> 00:14:25.978 olyan új intézményekben, amelyek figyelembe veszik az emberek sokféleségét, 00:14:26.002 --> 00:14:30.544 és ezzel hozzájárulnak a világháló utópisztikus projektjéhez. 00:14:30.568 --> 00:14:33.945 S míg talán lehetetlen a világ felhasználóinak értékrendjét 00:14:33.969 --> 00:14:36.211 figyelembe venni, 00:14:36.235 --> 00:14:37.917 érdemes hinni abban, 00:14:37.941 --> 00:14:41.227 hogy több dolog van, ami közös bennünk, mint ami elválaszt. NOTE Paragraph 00:14:41.624 --> 00:14:45.331 MR: Hát, igen, olyan időkben, amikor a populizmus megerősödik, 00:14:45.355 --> 00:14:48.553 népszerűvé válik tisztázni a jelenségeket, 00:14:48.577 --> 00:14:49.855 megszabadulni tőlük, 00:14:49.879 --> 00:14:51.767 láthatatlanná tenni őket. 00:14:52.919 --> 00:14:56.268 Világszerte terjed ez a felfogás 00:14:56.292 --> 00:14:59.077 az analóg és digitális világban egyaránt. 00:14:59.903 --> 00:15:03.395 A mi kötelességünk megállítani, 00:15:03.419 --> 00:15:05.045 még mielőtt késő lenne. 00:15:05.665 --> 00:15:09.649 Szabadság és demokrácia kérdésében 00:15:09.673 --> 00:15:12.640 más alternatívák is kell, hogy legyenek, mint hogy: NOTE Paragraph 00:15:13.053 --> 00:15:14.219 HB: Töröl. NOTE Paragraph 00:15:14.243 --> 00:15:16.390 MR: Vagy nem érdekes. NOTE Paragraph 00:15:17.300 --> 00:15:18.897 HB: Nagyon köszönjük. NOTE Paragraph 00:15:18.921 --> 00:15:21.650 (Taps)