1 00:00:00,360 --> 00:00:03,361 [Felnőtt tartalom] 2 00:00:04,913 --> 00:00:09,005 Moritz Riesewieck: 2013. március 23-án 3 00:00:09,389 --> 00:00:13,446 egy olyan videót találtak a felhasználók a hírfolyamukban szerte a világban, 4 00:00:13,470 --> 00:00:18,533 amelyen egy idősebb férfi megerőszakol egy fiatal lányt. 5 00:00:19,478 --> 00:00:22,994 Mielőtt a videót eltávolították volna a Facebookról, 6 00:00:23,358 --> 00:00:27,374 már 16 ezren megosztották, 7 00:00:27,998 --> 00:00:31,640 és négyezren lájkolták is. 8 00:00:33,268 --> 00:00:36,931 A videó terjedt, és megfertőzte a netet. 9 00:00:37,873 --> 00:00:40,968 Hans Block: Ez volt az a pillanat, amikor megkérdeztük magunktól, 10 00:00:40,992 --> 00:00:43,770 hogyan kerülhet fel ilyesmi a Facebookra? 11 00:00:43,794 --> 00:00:48,196 És ugyanakkor miért nem látunk ilyen tartalmat még sokkal gyakrabban? 12 00:00:48,220 --> 00:00:51,553 Elvégre sok visszataszító tartalom kering online, 13 00:00:51,927 --> 00:00:56,382 miért látunk ritkán ilyen ganét a Facebookon, Twitteren vagy Google-on? 14 00:00:56,958 --> 00:00:59,199 MR: Míg a képeken és videókon 15 00:00:59,223 --> 00:01:03,266 a képfelismerő szoftverek azonosítani tudják 16 00:01:03,310 --> 00:01:08,458 a nemi szervek körvonalait, a vért vagy a meztelenséget, 17 00:01:08,482 --> 00:01:14,022 óriási nehézségeket jelent megkülönböztetni a pornográf tartalmat 18 00:01:14,046 --> 00:01:18,394 a nyaraláson készült képektől, egy Adonisz-szobortól 19 00:01:18,418 --> 00:01:21,116 vagy a mellrákszűrés kampányanyagától. 20 00:01:21,140 --> 00:01:25,395 Nem tudják megkülönböztetni Rómeó és Júlia halálát a színpadon 21 00:01:25,419 --> 00:01:27,974 egy valódi késes támadástól. 22 00:01:27,998 --> 00:01:33,220 Nem tudnak különbséget tenni a szatíra és propaganda, 23 00:01:33,244 --> 00:01:37,212 a gúny és a gyűlölet, és más hasonló dolgok között. 24 00:01:38,077 --> 00:01:42,155 Tehát emberek kellenek annak eldöntéshez, 25 00:01:42,179 --> 00:01:45,740 hogy a gyanús tartalmak közül mit kéne törölni, 26 00:01:46,204 --> 00:01:48,234 és mi az, ami maradhat. 27 00:01:48,909 --> 00:01:51,720 Olyan emberek, akikről szinte semmit nem tudunk, 28 00:01:51,744 --> 00:01:53,611 mert titokban dolgoznak. 29 00:01:54,053 --> 00:01:55,958 Aláírnak egy titoktartási megállapodást, 30 00:01:55,982 --> 00:01:58,935 amely megtiltja, hogy beszéljenek róla, 31 00:01:58,959 --> 00:02:02,544 megosszák, mit láttak a képernyőn, milyen hatással van rájuk ez a munka. 32 00:02:02,887 --> 00:02:07,157 Kódszavakat kötelező használniuk, hogy ki ne derüljön, kinek dolgoznak. 33 00:02:07,585 --> 00:02:10,490 Megfigyeltetik őket biztonsági magáncégekkel, 34 00:02:10,514 --> 00:02:13,724 nehogy újságírókkal beszélhessenek, 35 00:02:14,048 --> 00:02:17,587 büntetéssel fenyegetik őket arra az esetre, ha mégis beszélnének. 36 00:02:18,421 --> 00:02:22,013 Olyan ez az egész, mint egy hátborzongató krimi, 37 00:02:22,207 --> 00:02:23,537 de igaz. 38 00:02:23,561 --> 00:02:25,053 Vannak ilyen emberek, 39 00:02:25,633 --> 00:02:29,814 tartalommoderátornak nevezik őket. 40 00:02:30,942 --> 00:02:34,387 HB: Mi rendeztük a "Tisztogatók" című dokumentarista játékfilmet – 41 00:02:34,411 --> 00:02:36,371 elvisszük önöket egy olyan világba, 42 00:02:36,395 --> 00:02:38,982 amelynek létezéséről sokuk talán nem is tudott. 43 00:02:39,006 --> 00:02:41,139 Itt egy rövid részlet a filmből. 44 00:02:41,959 --> 00:02:44,959 (Zene) 45 00:02:52,400 --> 00:02:56,296 (Video) Moderátor: Névtelenségben kell maradnom, mert aláírtunk egy szerződést. 46 00:02:57,784 --> 00:03:01,405 Nem szabad megmondanunk, hogy kivel dolgozunk. 47 00:03:02,807 --> 00:03:04,570 Azért beszélek most önnek, 48 00:03:04,594 --> 00:03:08,974 mert a világnak tudnia kell, hogy vagyunk. 49 00:03:10,544 --> 00:03:13,347 Van itt valaki, aki ellenőrzi a közösségi médiát. 50 00:03:14,317 --> 00:03:17,921 Minden tőlünk telhetőt megteszünk, hogy ez a platform 51 00:03:17,945 --> 00:03:19,735 mindenki számára biztonságos legyen. 52 00:03:30,438 --> 00:03:31,588 Töröl. 53 00:03:32,278 --> 00:03:33,572 Nem érdekes. 54 00:03:33,596 --> 00:03:34,746 Töröl. 55 00:03:35,279 --> 00:03:36,576 Nem érdekes. 56 00:03:36,600 --> 00:03:37,751 Töröl. 57 00:03:38,680 --> 00:03:39,831 Nem érdekes. 58 00:03:39,855 --> 00:03:41,005 Nem érdekes. 59 00:03:41,625 --> 00:03:42,775 Töröl. 60 00:03:46,030 --> 00:03:48,007 HB: Az úgynevezett tartalommoderátorok 61 00:03:48,031 --> 00:03:51,751 nem a Facebooktól, a Twittertől vagy a Goggle-tól kapják a fizetésüket, 62 00:03:51,751 --> 00:03:54,372 hanem a világ más részeire kiszervezett cégektől, 63 00:03:54,396 --> 00:03:56,613 hogy munkabérüket alacsonyan lehessen tartani. 64 00:03:56,833 --> 00:03:58,800 Fiatalok tízezrei néznek végig mindent, 65 00:03:58,824 --> 00:04:02,037 amit nem kéne látnunk. 66 00:04:02,061 --> 00:04:05,609 Lefejezésekről, csonkításokról, kivégzésekről, 67 00:04:05,633 --> 00:04:09,329 halottgyalázásról, kínzásról, gyermekmolesztálásról beszélünk. 68 00:04:09,743 --> 00:04:12,017 Képek ezrei egyetlen műszakban – 69 00:04:12,041 --> 00:04:14,956 nem érdekes, töröl – éjjel-nappal. 70 00:04:15,393 --> 00:04:18,791 E munkák többségét Manilában végzik, 71 00:04:18,815 --> 00:04:22,117 ahová éveken keresztül szállították teherhajókon 72 00:04:22,141 --> 00:04:24,749 a veszélyes hulladékot a nyugati világból – 73 00:04:24,773 --> 00:04:28,776 mára a digitális szemét ömlik ide optikai kábelen. 74 00:04:28,800 --> 00:04:31,847 És ahogy a guberálók 75 00:04:31,871 --> 00:04:35,347 átturkálják az óriási szeméthegyeket a város peremén, 76 00:04:35,371 --> 00:04:40,204 a tartalommoderátorok is utat kattintgatnak maguknak 77 00:04:40,228 --> 00:04:44,315 a képek és videók intellektuális szemetének végtelen, mérgező óceánján, 78 00:04:44,339 --> 00:04:46,641 így nekünk nem kell azokat megnéznünk. 79 00:04:46,665 --> 00:04:50,205 MR: A guberálók sérüléseivel szemben 80 00:04:50,229 --> 00:04:53,680 a tartalommoderátorok sebei láthatatlanok maradnak. 81 00:04:54,117 --> 00:04:57,197 Teli sokkoló és megzavaró részletekkel, 82 00:04:57,221 --> 00:05:00,484 ezek a képek és videók befészkelik magukat memóriájukba, 83 00:05:00,508 --> 00:05:03,953 és bármikor meg nem jósolható hatást válthatnak ki: 84 00:05:03,977 --> 00:05:07,334 evészavart, a libidó elvesztését, 85 00:05:07,358 --> 00:05:11,625 idegrendszeri rendellenességeket, alkoholizmust, depressziót, 86 00:05:11,625 --> 00:05:13,893 és akár öngyilkossághoz is vezethetnek. 87 00:05:14,100 --> 00:05:16,545 A képek és videók megfertőzik, 88 00:05:16,569 --> 00:05:18,958 és gyakran el sem engedik őket többé. 89 00:05:18,982 --> 00:05:23,823 Ha nincs szerencséjük, poszttraumás stresszszindróma fejlődik ki náluk, 90 00:05:23,847 --> 00:05:26,047 akár a katonáknál háborús küldetés után. 91 00:05:27,445 --> 00:05:31,088 Filmünkben egy fiatalember történetét mondjuk el, 92 00:05:31,112 --> 00:05:36,310 akinek öncsonkításokat és öngyilkossági kísérleteket kellett élőben monitoroznia, 93 00:05:36,334 --> 00:05:38,009 újra és újra, 94 00:05:38,033 --> 00:05:41,099 és aki végül maga is öngyilkos lett. 95 00:05:41,787 --> 00:05:44,527 Ez nem példátlan eset, ahogy megtudtuk. 96 00:05:45,184 --> 00:05:49,164 Ez az ára annak, amit mindannyian fizetünk 97 00:05:49,188 --> 00:05:54,515 az ún. biztonságos és egészséges 98 00:05:54,539 --> 00:05:56,823 környezetért a közösségi médiában. 99 00:05:58,482 --> 00:06:01,077 Az emberiség történelmében soha korábban 100 00:06:01,101 --> 00:06:04,433 nem volt ilyen egyszerű emberek millióit elérni világszerte 101 00:06:04,457 --> 00:06:06,124 néhány másodperc alatt. 102 00:06:06,148 --> 00:06:10,093 Amit a közösségi médiában posztolunk, gyorsan terjed, 103 00:06:10,117 --> 00:06:14,053 felkapják, és szerte a földgolyón felzaklatja az embereket. 104 00:06:14,450 --> 00:06:16,514 Mire törölnék, 105 00:06:16,538 --> 00:06:18,471 már túl késő. 106 00:06:18,966 --> 00:06:21,196 Milliókat megfertőzött már 107 00:06:21,220 --> 00:06:23,077 gyűlölettel és haraggal, 108 00:06:23,101 --> 00:06:25,831 akik aztán vagy online aktivizálják magukat, 109 00:06:25,855 --> 00:06:28,708 és terjesztik vagy gerjesztik a gyűlöletet, 110 00:06:28,708 --> 00:06:32,226 vagy kiviszik az utcára, és harcra készülnek. 111 00:06:33,188 --> 00:06:37,175 HB: Tehát tartalommoderátorok serege ül a képernyő előtt, 112 00:06:37,222 --> 00:06:39,695 hogy elkerüljük a további károkozást. 113 00:06:40,434 --> 00:06:42,553 És döntenek, amilyen gyorsan csak lehet, 114 00:06:42,577 --> 00:06:46,672 hogy az a tartalom maradhat-e, mert nem érdekes; 115 00:06:46,696 --> 00:06:49,036 vagy tűnjön el és törli. 116 00:06:49,823 --> 00:06:52,450 De nem minden döntés annyira egyértelmű, 117 00:06:52,474 --> 00:06:55,311 mint az a videó a gyermekmolesztálásról. 118 00:06:55,311 --> 00:06:58,172 Mi a helyzet az ellentmondásos vagy kétértelmű tartalmakkal, 119 00:06:58,196 --> 00:07:01,349 amelyeket emberjogi aktivisták vagy civil tudósítók töltenek fel? 120 00:07:02,048 --> 00:07:05,270 A tartalommoderátorok gyakran döntenek ilyeneknél is, 121 00:07:05,294 --> 00:07:08,027 ugyanolyan gyorsan, mint az egyértelmű esetekben. 122 00:07:09,515 --> 00:07:12,174 MR: Mutatunk egy videót, 123 00:07:12,198 --> 00:07:15,507 és szeretnénk, ha döntenének: 124 00:07:15,531 --> 00:07:17,221 törölnék-e, 125 00:07:17,245 --> 00:07:19,046 vagy meghagynák? 126 00:07:19,070 --> 00:07:20,737 (Video) (Légvédelmi sziréna) 127 00:07:21,100 --> 00:07:23,650 (Robbanás) 128 00:07:28,076 --> 00:07:31,079 (Arabul beszélő emberek) 129 00:07:34,053 --> 00:07:36,283 MR: Letakartunk néhány részletet a kedvükért. 130 00:07:37,196 --> 00:07:40,951 Egy gyereket alkalomadtán vészesen megzavarhat 131 00:07:40,975 --> 00:07:43,784 és szélsőségesen megrémiszthet az ilyen tartalom. 132 00:07:43,808 --> 00:07:46,105 Tehát, törölnék inkább? 133 00:07:47,610 --> 00:07:52,249 És ha ez a videó segíthetné a háborús bűnök kivizsgálását Szíriában? 134 00:07:52,717 --> 00:07:55,884 És mi van, ha senki nem hall a légicsapásról, 135 00:07:55,908 --> 00:07:59,646 mert a Facebook, a YouTube és a Twitter eldöntötték, hogy leveszik? 136 00:08:00,895 --> 00:08:05,220 Az Airwars, egy londoni székhelyű civil szervezet 137 00:08:05,220 --> 00:08:08,165 megpróbálja minél gyorsabban megtalálni az ilyen videókat, 138 00:08:08,165 --> 00:08:10,725 bármikor is töltötték fel a közösségi médiába, 139 00:08:10,749 --> 00:08:12,349 hogy aztán archiválja. 140 00:08:12,693 --> 00:08:15,526 Tudják, hogy előbb vagy utóbb 141 00:08:15,550 --> 00:08:18,860 a Facebook, a YouTube, a Twitter törli az ilyen tartalmakat. 142 00:08:19,345 --> 00:08:23,197 Mobiltelefonjukkal felfegyverkezve sokszor olyan dolgokról is tudósítanak emberek, 143 00:08:23,197 --> 00:08:25,776 amikhez az újságírók nem férnek hozzá. 144 00:08:25,800 --> 00:08:28,863 Emberjogi csoportok sokszor nem tehetnek jobbat, 145 00:08:28,887 --> 00:08:32,688 gyorsan elérhetővé teszik felvételeiket a széles nyilvánosság számára azzal, 146 00:08:32,712 --> 00:08:35,312 hogy feltöltik őket a közösségi médiába. 147 00:08:35,950 --> 00:08:40,236 Nem ez kéne legyen az internetben rejlő erő? 148 00:08:40,966 --> 00:08:42,926 Nem ezeket az álmokat dédelgettük 149 00:08:42,950 --> 00:08:47,061 a kezdetekkor az internettel kapcsolatban? 150 00:08:47,608 --> 00:08:50,403 Vajon az ilyen képek és videók 151 00:08:50,427 --> 00:08:54,811 nem győzik meg a tények iránt érzéketlen embereket, 152 00:08:55,585 --> 00:08:57,242 hogy gondolják újra? 153 00:08:57,917 --> 00:09:01,399 HB: De ehelyett mindent törölnek, ami kényelmetlenséget okozhat. 154 00:09:01,399 --> 00:09:03,601 Van egy általános elmozdulás a társadalomban. 155 00:09:03,625 --> 00:09:07,522 A média például egyre gyakrabban használ figyelmeztetést 156 00:09:07,546 --> 00:09:09,339 az olyan cikkek tetején, 157 00:09:09,363 --> 00:09:12,672 amelyek esetleg fenyegetőnek vagy ijesztőnek értelmezhetők. 158 00:09:12,696 --> 00:09:16,610 Vagy az Egyesült Államok egyetemein mind több hallgató követeli 159 00:09:16,634 --> 00:09:19,451 az olyan ókori klasszikusok tiltását a tanrendből, 160 00:09:19,475 --> 00:09:22,590 amelyek nemi erőszakot vagy tettlegességet ábrázolnak. 161 00:09:22,991 --> 00:09:25,324 De hová jutunk ezzel? 162 00:09:25,875 --> 00:09:29,255 Fizikai sértetlenségünket, mint emberi jogot, 163 00:09:29,279 --> 00:09:31,229 világszerte garantálják az alkotmányok. 164 00:09:31,422 --> 00:09:35,176 Az Európai Unió Alapjogi Chartája 165 00:09:35,200 --> 00:09:38,554 ezt a jogot a mentális sértetlenségre is kimondja. 166 00:09:39,347 --> 00:09:42,005 De még ha nehéz is megjósolni a képek és videók 167 00:09:42,029 --> 00:09:44,855 lehetséges traumatikus hatását, 168 00:09:44,879 --> 00:09:46,836 valóban olyan óvatosak akarunk lenni, 169 00:09:46,860 --> 00:09:50,587 hogy kockáztatnánk azt, hogy tudjunk a társadalmi igazságtalanságokról? 170 00:09:51,203 --> 00:09:52,353 Mit tegyünk hát? 171 00:09:52,942 --> 00:09:55,958 Mark Zuckerberg mostanában jelentette be, hogy mi, felhasználók, 172 00:09:55,958 --> 00:09:59,070 szinte mindenki, 173 00:09:59,784 --> 00:10:02,045 a jövőben egyénileg fogja eldönteni, 174 00:10:02,069 --> 00:10:03,897 hogy mit szeretne látni a platformon, 175 00:10:03,897 --> 00:10:06,172 azzal, hogy beállítja személyes szűrőjét. 176 00:10:06,196 --> 00:10:09,268 Így bárki könnyen kérheti, hogy ne zavarják 177 00:10:09,292 --> 00:10:13,031 háborús felvételekkel vagy más erőszakos konfliktusokkal, mint... 178 00:10:13,849 --> 00:10:18,295 MR: Én olyan fickó vagyok, akit nem zavar a keblek látványa, 179 00:10:18,319 --> 00:10:22,085 és érdekel a globális felmelegedés, 180 00:10:22,109 --> 00:10:24,673 de a háborút nem szeretem olyan nagyon. 181 00:10:25,109 --> 00:10:27,045 HB: Én meg pont az ellenkezője vagyok, 182 00:10:27,045 --> 00:10:30,908 egy csöppet sem érdekelnek a fedetlen keblek vagy meztelen testek. 183 00:10:31,209 --> 00:10:34,120 De a fegyverek miért ne? Igen, szeretem a fegyvereket. 184 00:10:34,901 --> 00:10:38,576 MR: Ha nem osztjuk meg a tudásunkat a hasonló társadalmi problémákról, 185 00:10:38,576 --> 00:10:41,269 akkor hogyan fogjuk megvitatni a társadalmi kérdéseket? 186 00:10:41,269 --> 00:10:43,934 Hogyan szólítjuk meg az embereket, hogy tegyenek valamit? 187 00:10:43,934 --> 00:10:47,069 Még több, egymástól elszigetelt buborék fog létrejönni. 188 00:10:47,665 --> 00:10:50,896 Az egyik központi kérdés, hogy mi lesz fontosabb a jövőben: 189 00:10:50,920 --> 00:10:55,823 az önkifejezés szabadsága vagy az igény, hogy biztonságban érezzük magunkat? 190 00:10:56,441 --> 00:10:57,908 Ez elvi kérdés. 191 00:10:58,602 --> 00:11:02,850 Hogy nyílt vagy zárt társadalmat szeretnénk 192 00:11:02,874 --> 00:11:04,513 a digitális térben teremteni? 193 00:11:05,054 --> 00:11:10,966 Szabadság vagy biztonság – ez a lényegi kérdés. 194 00:11:12,388 --> 00:11:16,872 A Facebook mindig is "egészséges" platform akart lenni. 195 00:11:16,896 --> 00:11:20,594 A felhasználóknak először is biztonságban kell érezniük magukat. 196 00:11:20,618 --> 00:11:22,738 Ugyanígy fogalmaznak 197 00:11:22,762 --> 00:11:25,720 a filippínó tartalommoderátorok 198 00:11:25,744 --> 00:11:27,544 számos interjúban. 199 00:11:28,188 --> 00:11:30,569 (Videó) Az a világ, amiben jelenleg élünk, 200 00:11:30,593 --> 00:11:32,759 szerintem nem igazán egészséges. 201 00:11:32,783 --> 00:11:34,331 (Zene) 202 00:11:34,355 --> 00:11:37,513 Ebben a világban valóban jelen van a gonosz, aki létezik. 203 00:11:37,537 --> 00:11:40,295 (Zene) 204 00:11:40,799 --> 00:11:42,862 Szükséges, hogy odafigyeljünk. 205 00:11:42,886 --> 00:11:44,768 (Zene) 206 00:11:44,792 --> 00:11:48,042 Kontroll alatt kell tartsuk: jó vagy rossz. 207 00:11:48,646 --> 00:11:51,066 (Zene) 208 00:11:58,193 --> 00:12:02,526 [Figyelj, fiatalember! – Isten] 209 00:12:02,952 --> 00:12:07,230 MR: A szigorúan katolikus Fülöp-szigeteken a fiatal moderátorok számára 210 00:12:07,254 --> 00:12:10,047 ez a keresztény küldetéshez kötődik. 211 00:12:10,833 --> 00:12:13,799 Tenni a világ bűnei ellen, 212 00:12:13,823 --> 00:12:15,997 amelyek a világhálón keresztül terjednek. 213 00:12:16,641 --> 00:12:20,053 "Erkölcsi kötelességünk megőrizni a tisztaságot" – 214 00:12:20,077 --> 00:12:23,511 ez általános vélekedés a filippínók között. 215 00:12:24,035 --> 00:12:25,774 HB: Mások abból nyernek ösztönzést, 216 00:12:25,788 --> 00:12:29,449 hogy elnökükhöz, Rodrigo Dutertéhez hasonlítják magukat, 217 00:12:29,837 --> 00:12:33,039 aki 2016 óta kormányozza a Fülöp-szigeteket, 218 00:12:33,352 --> 00:12:37,345 és az volt a választási ígérete, hogy "feltakarítok". 219 00:12:37,892 --> 00:12:41,209 Ez azt jelenti, hogy úgy szüntet meg különböző problémákat, 220 00:12:41,233 --> 00:12:44,962 hogy szó szerint az utcán öli meg a feltételezett bűnözőket, 221 00:12:44,962 --> 00:12:46,591 bármit is jelentsen ez. 222 00:12:46,761 --> 00:12:47,871 Megválasztása óta 223 00:12:47,895 --> 00:12:51,331 nagyjából 20 000 embert gyilkoltak meg. 224 00:12:51,655 --> 00:12:54,156 A filmben az egyik moderátor azt mondja, 225 00:12:54,180 --> 00:12:56,235 "Amit Duterte az utcán csinál, 226 00:12:56,259 --> 00:12:58,363 azt teszem én az internetért." 227 00:12:58,934 --> 00:13:02,318 Itt vannak ők, az önjelölt szuperhősök, 228 00:13:02,498 --> 00:13:05,498 akik kikényszerítik a törvényt és rendet digitális világunkban. 229 00:13:05,522 --> 00:13:07,903 Kitakarítanak, tisztára sikálnak mindent, 230 00:13:07,927 --> 00:13:10,260 megszabadítanak minket minden gonosztól. 231 00:13:10,284 --> 00:13:14,013 Ami régebben a hatóságok dolga volt, 232 00:13:14,037 --> 00:13:17,712 mára 20-as éveik elején járó főiskolát végzettek teszik, 233 00:13:17,736 --> 00:13:20,629 három-ötnapos képzés után megszerzett papírral. 234 00:13:20,653 --> 00:13:22,589 Ezzel a minősítéssel rendelkeznek azok, 235 00:13:22,613 --> 00:13:25,680 akik nem kisebb munkát végeznek, mint a világ megmentése. 236 00:13:26,756 --> 00:13:30,875 MR: A nemzeti szuverenitás átkerült a magáncégek kezébe, 237 00:13:30,999 --> 00:13:35,007 ők meg átadják a felelősségüket egy harmadik félnek. 238 00:13:35,031 --> 00:13:38,094 Ez a kiszervezés kiszervezésének kiszervezése, 239 00:13:38,118 --> 00:13:39,458 ami most megy. 240 00:13:39,618 --> 00:13:41,014 A közösségi háló 241 00:13:41,038 --> 00:13:44,053 merőben új infrastruktúra, 242 00:13:44,077 --> 00:13:45,593 saját mechanizmusával, 243 00:13:45,617 --> 00:13:47,490 tevékenységének saját logikájával, 244 00:13:47,490 --> 00:13:52,465 így egy egészen új, saját veszéllyel, 245 00:13:52,489 --> 00:13:56,344 ami nem létezett még a digitális világ előtti publikus világban. 246 00:13:56,344 --> 00:13:59,131 HB: Amikor Mark Zuckenberg megjelent az USA Kongresszusában 247 00:13:59,131 --> 00:14:00,541 vagy az Európai Parlamentben, 248 00:14:00,565 --> 00:14:03,200 mindenféle kritikákkal került szembe. 249 00:14:03,224 --> 00:14:05,804 Mindenre ugyanúgy reagált: 250 00:14:06,501 --> 00:14:07,969 "Kijavítjuk, 251 00:14:07,993 --> 00:14:10,544 és ennek megfelelően folytatjuk." 252 00:14:11,167 --> 00:14:13,319 De az ilyen vitákat nem a Facebook, a Twitter 253 00:14:13,319 --> 00:14:16,278 vagy a Google hátsó szobáiban kéne lefolytatni – 254 00:14:16,278 --> 00:14:21,094 ezekről a témákról nyíltan kéne vitázni új, világpolgári parlamentekben, 255 00:14:21,118 --> 00:14:25,978 olyan új intézményekben, amelyek figyelembe veszik az emberek sokféleségét, 256 00:14:26,002 --> 00:14:30,544 és ezzel hozzájárulnak a világháló utópisztikus projektjéhez. 257 00:14:30,568 --> 00:14:33,945 S míg talán lehetetlen a világ felhasználóinak értékrendjét 258 00:14:33,969 --> 00:14:36,211 figyelembe venni, 259 00:14:36,235 --> 00:14:37,917 érdemes hinni abban, 260 00:14:37,941 --> 00:14:41,227 hogy több dolog van, ami közös bennünk, mint ami elválaszt. 261 00:14:41,624 --> 00:14:45,331 MR: Hát, igen, olyan időkben, amikor a populizmus megerősödik, 262 00:14:45,355 --> 00:14:48,553 népszerűvé válik tisztázni a jelenségeket, 263 00:14:48,577 --> 00:14:49,855 megszabadulni tőlük, 264 00:14:49,879 --> 00:14:51,767 láthatatlanná tenni őket. 265 00:14:52,919 --> 00:14:56,268 Világszerte terjed ez a felfogás 266 00:14:56,292 --> 00:14:59,077 az analóg és digitális világban egyaránt. 267 00:14:59,903 --> 00:15:03,395 A mi kötelességünk megállítani, 268 00:15:03,419 --> 00:15:05,045 még mielőtt késő lenne. 269 00:15:05,665 --> 00:15:09,649 Szabadság és demokrácia kérdésében 270 00:15:09,673 --> 00:15:12,640 más alternatívák is kell, hogy legyenek, mint hogy: 271 00:15:13,053 --> 00:15:14,219 HB: Töröl. 272 00:15:14,243 --> 00:15:16,390 MR: Vagy nem érdekes. 273 00:15:17,300 --> 00:15:18,897 HB: Nagyon köszönjük. 274 00:15:18,921 --> 00:15:21,650 (Taps)