Return to Video

A "tiszta" internet ára

  • 0:00 - 0:03
    [Felnőtt tartalom]
  • 0:05 - 0:09
    Moritz Riesewieck: 2013. március 23-án
  • 0:09 - 0:13
    egy olyan videót találtak a felhasználók
    a hírfolyamukban szerte a világban,
  • 0:13 - 0:19
    amelyen egy idősebb férfi
    megerőszakol egy fiatal lányt.
  • 0:19 - 0:23
    Mielőtt a videót eltávolították
    volna a Facebookról,
  • 0:23 - 0:27
    már 16 ezren megosztották,
  • 0:28 - 0:32
    és négyezren lájkolták is.
  • 0:33 - 0:37
    A videó terjedt, és megfertőzte a netet.
  • 0:38 - 0:41
    Hans Block: Ez volt az a pillanat,
    amikor megkérdeztük magunktól,
  • 0:41 - 0:44
    hogyan kerülhet fel ilyesmi a Facebookra?
  • 0:44 - 0:48
    És ugyanakkor miért nem látunk
    ilyen tartalmat még sokkal gyakrabban?
  • 0:48 - 0:52
    Elvégre sok visszataszító
    tartalom kering online,
  • 0:52 - 0:56
    miért látunk ritkán ilyen ganét
    a Facebookon, Twitteren vagy Google-on?
  • 0:57 - 0:59
    MR: Míg a képeken és videókon
  • 0:59 - 1:03
    a képfelismerő szoftverek
    azonosítani tudják
  • 1:03 - 1:08
    a nemi szervek körvonalait,
    a vért vagy a meztelenséget,
  • 1:08 - 1:14
    óriási nehézségeket jelent
    megkülönböztetni a pornográf tartalmat
  • 1:14 - 1:18
    a nyaraláson készült képektől,
    egy Adonisz-szobortól
  • 1:18 - 1:21
    vagy a mellrákszűrés kampányanyagától.
  • 1:21 - 1:25
    Nem tudják megkülönböztetni
    Rómeó és Júlia halálát a színpadon
  • 1:25 - 1:28
    egy valódi késes támadástól.
  • 1:28 - 1:33
    Nem tudnak különbséget tenni
    a szatíra és propaganda,
  • 1:33 - 1:37
    a gúny és a gyűlölet,
    és más hasonló dolgok között.
  • 1:38 - 1:42
    Tehát emberek kellenek annak eldöntéshez,
  • 1:42 - 1:46
    hogy a gyanús tartalmak közül
    mit kéne törölni,
  • 1:46 - 1:48
    és mi az, ami maradhat.
  • 1:49 - 1:52
    Olyan emberek, akikről
    szinte semmit nem tudunk,
  • 1:52 - 1:54
    mert titokban dolgoznak.
  • 1:54 - 1:56
    Aláírnak egy titoktartási megállapodást,
  • 1:56 - 1:59
    amely megtiltja, hogy beszéljenek róla,
  • 1:59 - 2:03
    megosszák, mit láttak a képernyőn,
    milyen hatással van rájuk ez a munka.
  • 2:03 - 2:07
    Kódszavakat kötelező használniuk,
    hogy ki ne derüljön, kinek dolgoznak.
  • 2:08 - 2:10
    Megfigyeltetik őket
    biztonsági magáncégekkel,
  • 2:11 - 2:14
    nehogy újságírókkal beszélhessenek,
  • 2:14 - 2:18
    büntetéssel fenyegetik őket
    arra az esetre, ha mégis beszélnének.
  • 2:18 - 2:22
    Olyan ez az egész,
    mint egy hátborzongató krimi,
  • 2:22 - 2:24
    de igaz.
  • 2:24 - 2:25
    Vannak ilyen emberek,
  • 2:26 - 2:30
    tartalommoderátornak nevezik őket.
  • 2:31 - 2:34
    HB: Mi rendeztük a "Tisztogatók" című
    dokumentarista játékfilmet –
  • 2:34 - 2:36
    elvisszük önöket egy olyan világba,
  • 2:36 - 2:39
    amelynek létezéséről sokuk
    talán nem is tudott.
  • 2:39 - 2:41
    Itt egy rövid részlet a filmből.
  • 2:42 - 2:45
    (Zene)
  • 2:52 - 2:56
    (Video) Moderátor: Névtelenségben kell
    maradnom, mert aláírtunk egy szerződést.
  • 2:58 - 3:01
    Nem szabad megmondanunk,
    hogy kivel dolgozunk.
  • 3:03 - 3:05
    Azért beszélek most önnek,
  • 3:05 - 3:09
    mert a világnak tudnia kell, hogy vagyunk.
  • 3:11 - 3:13
    Van itt valaki, aki ellenőrzi
    a közösségi médiát.
  • 3:14 - 3:18
    Minden tőlünk telhetőt megteszünk,
    hogy ez a platform
  • 3:18 - 3:20
    mindenki számára biztonságos legyen.
  • 3:30 - 3:32
    Töröl.
  • 3:32 - 3:34
    Nem érdekes.
  • 3:34 - 3:35
    Töröl.
  • 3:35 - 3:37
    Nem érdekes.
  • 3:37 - 3:38
    Töröl.
  • 3:39 - 3:40
    Nem érdekes.
  • 3:40 - 3:41
    Nem érdekes.
  • 3:42 - 3:43
    Töröl.
  • 3:46 - 3:48
    HB: Az úgynevezett tartalommoderátorok
  • 3:48 - 3:52
    nem a Facebooktól, a Twittertől
    vagy a Goggle-tól kapják a fizetésüket,
  • 3:52 - 3:54
    hanem a világ más részeire
    kiszervezett cégektől,
  • 3:54 - 3:57
    hogy munkabérüket
    alacsonyan lehessen tartani.
  • 3:57 - 3:59
    Fiatalok tízezrei néznek végig mindent,
  • 3:59 - 4:02
    amit nem kéne látnunk.
  • 4:02 - 4:06
    Lefejezésekről,
    csonkításokról, kivégzésekről,
  • 4:06 - 4:09
    halottgyalázásról, kínzásról,
    gyermekmolesztálásról beszélünk.
  • 4:10 - 4:12
    Képek ezrei egyetlen műszakban –
  • 4:12 - 4:15
    nem érdekes, töröl – éjjel-nappal.
  • 4:15 - 4:19
    E munkák többségét Manilában végzik,
  • 4:19 - 4:22
    ahová éveken keresztül
    szállították teherhajókon
  • 4:22 - 4:25
    a veszélyes hulladékot
    a nyugati világból –
  • 4:25 - 4:29
    mára a digitális szemét
    ömlik ide optikai kábelen.
  • 4:29 - 4:32
    És ahogy a guberálók
  • 4:32 - 4:35
    átturkálják az óriási
    szeméthegyeket a város peremén,
  • 4:35 - 4:40
    a tartalommoderátorok is utat
    kattintgatnak maguknak
  • 4:40 - 4:44
    a képek és videók intellektuális
    szemetének végtelen, mérgező óceánján,
  • 4:44 - 4:47
    így nekünk nem kell azokat megnéznünk.
  • 4:47 - 4:50
    MR: A guberálók sérüléseivel szemben
  • 4:50 - 4:54
    a tartalommoderátorok sebei
    láthatatlanok maradnak.
  • 4:54 - 4:57
    Teli sokkoló és megzavaró részletekkel,
  • 4:57 - 5:00
    ezek a képek és videók
    befészkelik magukat memóriájukba,
  • 5:01 - 5:04
    és bármikor meg nem jósolható
    hatást válthatnak ki:
  • 5:04 - 5:07
    evészavart, a libidó elvesztését,
  • 5:07 - 5:12
    idegrendszeri rendellenességeket,
    alkoholizmust, depressziót,
  • 5:12 - 5:14
    és akár öngyilkossághoz is vezethetnek.
  • 5:14 - 5:17
    A képek és videók megfertőzik,
  • 5:17 - 5:19
    és gyakran el sem engedik őket többé.
  • 5:19 - 5:24
    Ha nincs szerencséjük, poszttraumás
    stresszszindróma fejlődik ki náluk,
  • 5:24 - 5:26
    akár a katonáknál háborús küldetés után.
  • 5:27 - 5:31
    Filmünkben egy fiatalember
    történetét mondjuk el,
  • 5:31 - 5:36
    akinek öncsonkításokat és öngyilkossági
    kísérleteket kellett élőben monitoroznia,
  • 5:36 - 5:38
    újra és újra,
  • 5:38 - 5:41
    és aki végül maga is öngyilkos lett.
  • 5:42 - 5:45
    Ez nem példátlan eset, ahogy megtudtuk.
  • 5:45 - 5:49
    Ez az ára annak, amit mindannyian fizetünk
  • 5:49 - 5:55
    az ún. biztonságos és egészséges
  • 5:55 - 5:57
    környezetért a közösségi médiában.
  • 5:58 - 6:01
    Az emberiség történelmében soha korábban
  • 6:01 - 6:04
    nem volt ilyen egyszerű
    emberek millióit elérni világszerte
  • 6:04 - 6:06
    néhány másodperc alatt.
  • 6:06 - 6:10
    Amit a közösségi médiában
    posztolunk, gyorsan terjed,
  • 6:10 - 6:14
    felkapják, és szerte a földgolyón
    felzaklatja az embereket.
  • 6:14 - 6:17
    Mire törölnék,
  • 6:17 - 6:18
    már túl késő.
  • 6:19 - 6:21
    Milliókat megfertőzött már
  • 6:21 - 6:23
    gyűlölettel és haraggal,
  • 6:23 - 6:26
    akik aztán vagy online
    aktivizálják magukat,
  • 6:26 - 6:29
    és terjesztik
    vagy gerjesztik a gyűlöletet,
  • 6:29 - 6:32
    vagy kiviszik az utcára,
    és harcra készülnek.
  • 6:33 - 6:37
    HB: Tehát tartalommoderátorok
    serege ül a képernyő előtt,
  • 6:37 - 6:40
    hogy elkerüljük a további károkozást.
  • 6:40 - 6:43
    És döntenek, amilyen gyorsan csak lehet,
  • 6:43 - 6:47
    hogy az a tartalom
    maradhat-e, mert nem érdekes;
  • 6:47 - 6:49
    vagy tűnjön el és törli.
  • 6:50 - 6:52
    De nem minden döntés annyira egyértelmű,
  • 6:52 - 6:55
    mint az a videó a gyermekmolesztálásról.
  • 6:55 - 6:58
    Mi a helyzet az ellentmondásos
    vagy kétértelmű tartalmakkal,
  • 6:58 - 7:01
    amelyeket emberjogi aktivisták
    vagy civil tudósítók töltenek fel?
  • 7:02 - 7:05
    A tartalommoderátorok gyakran
    döntenek ilyeneknél is,
  • 7:05 - 7:08
    ugyanolyan gyorsan,
    mint az egyértelmű esetekben.
  • 7:10 - 7:12
    MR: Mutatunk egy videót,
  • 7:12 - 7:16
    és szeretnénk, ha döntenének:
  • 7:16 - 7:17
    törölnék-e,
  • 7:17 - 7:19
    vagy meghagynák?
  • 7:19 - 7:21
    (Video) (Légvédelmi sziréna)
  • 7:21 - 7:24
    (Robbanás)
  • 7:28 - 7:31
    (Arabul beszélő emberek)
  • 7:34 - 7:36
    MR: Letakartunk néhány
    részletet a kedvükért.
  • 7:37 - 7:41
    Egy gyereket alkalomadtán
    vészesen megzavarhat
  • 7:41 - 7:44
    és szélsőségesen megrémiszthet
    az ilyen tartalom.
  • 7:44 - 7:46
    Tehát, törölnék inkább?
  • 7:48 - 7:52
    És ha ez a videó segíthetné
    a háborús bűnök kivizsgálását Szíriában?
  • 7:53 - 7:56
    És mi van, ha senki nem hall
    a légicsapásról,
  • 7:56 - 8:00
    mert a Facebook, a YouTube és a Twitter
    eldöntötték, hogy leveszik?
  • 8:01 - 8:05
    Az Airwars, egy londoni
    székhelyű civil szervezet
  • 8:05 - 8:08
    megpróbálja minél gyorsabban
    megtalálni az ilyen videókat,
  • 8:08 - 8:11
    bármikor is töltötték fel
    a közösségi médiába,
  • 8:11 - 8:12
    hogy aztán archiválja.
  • 8:13 - 8:16
    Tudják, hogy előbb vagy utóbb
  • 8:16 - 8:19
    a Facebook, a YouTube, a Twitter
    törli az ilyen tartalmakat.
  • 8:19 - 8:23
    Mobiltelefonjukkal felfegyverkezve sokszor
    olyan dolgokról is tudósítanak emberek,
  • 8:23 - 8:26
    amikhez az újságírók nem férnek hozzá.
  • 8:26 - 8:29
    Emberjogi csoportok
    sokszor nem tehetnek jobbat,
  • 8:29 - 8:33
    gyorsan elérhetővé teszik felvételeiket
    a széles nyilvánosság számára azzal,
  • 8:33 - 8:35
    hogy feltöltik őket a közösségi médiába.
  • 8:36 - 8:40
    Nem ez kéne legyen
    az internetben rejlő erő?
  • 8:41 - 8:43
    Nem ezeket az álmokat dédelgettük
  • 8:43 - 8:47
    a kezdetekkor az internettel kapcsolatban?
  • 8:48 - 8:50
    Vajon az ilyen képek és videók
  • 8:50 - 8:55
    nem győzik meg a tények iránt
    érzéketlen embereket,
  • 8:56 - 8:57
    hogy gondolják újra?
  • 8:58 - 9:01
    HB: De ehelyett mindent törölnek,
    ami kényelmetlenséget okozhat.
  • 9:01 - 9:04
    Van egy általános elmozdulás
    a társadalomban.
  • 9:04 - 9:08
    A média például egyre gyakrabban
    használ figyelmeztetést
  • 9:08 - 9:09
    az olyan cikkek tetején,
  • 9:09 - 9:13
    amelyek esetleg fenyegetőnek
    vagy ijesztőnek értelmezhetők.
  • 9:13 - 9:17
    Vagy az Egyesült Államok egyetemein
    mind több hallgató követeli
  • 9:17 - 9:19
    az olyan ókori klasszikusok
    tiltását a tanrendből,
  • 9:19 - 9:23
    amelyek nemi erőszakot
    vagy tettlegességet ábrázolnak.
  • 9:23 - 9:25
    De hová jutunk ezzel?
  • 9:26 - 9:29
    Fizikai sértetlenségünket,
    mint emberi jogot,
  • 9:29 - 9:31
    világszerte garantálják az alkotmányok.
  • 9:31 - 9:35
    Az Európai Unió Alapjogi Chartája
  • 9:35 - 9:39
    ezt a jogot a mentális
    sértetlenségre is kimondja.
  • 9:39 - 9:42
    De még ha nehéz is megjósolni
    a képek és videók
  • 9:42 - 9:45
    lehetséges traumatikus hatását,
  • 9:45 - 9:47
    valóban olyan óvatosak akarunk lenni,
  • 9:47 - 9:51
    hogy kockáztatnánk azt, hogy tudjunk
    a társadalmi igazságtalanságokról?
  • 9:51 - 9:52
    Mit tegyünk hát?
  • 9:53 - 9:56
    Mark Zuckerberg mostanában
    jelentette be, hogy mi, felhasználók,
  • 9:56 - 9:59
    szinte mindenki,
  • 10:00 - 10:02
    a jövőben egyénileg fogja eldönteni,
  • 10:02 - 10:04
    hogy mit szeretne látni a platformon,
  • 10:04 - 10:06
    azzal, hogy beállítja személyes szűrőjét.
  • 10:06 - 10:09
    Így bárki könnyen kérheti,
    hogy ne zavarják
  • 10:09 - 10:13
    háborús felvételekkel vagy más
    erőszakos konfliktusokkal, mint...
  • 10:14 - 10:18
    MR: Én olyan fickó vagyok,
    akit nem zavar a keblek látványa,
  • 10:18 - 10:22
    és érdekel a globális felmelegedés,
  • 10:22 - 10:25
    de a háborút nem szeretem olyan nagyon.
  • 10:25 - 10:27
    HB: Én meg pont az ellenkezője vagyok,
  • 10:27 - 10:31
    egy csöppet sem érdekelnek
    a fedetlen keblek vagy meztelen testek.
  • 10:31 - 10:34
    De a fegyverek miért ne?
    Igen, szeretem a fegyvereket.
  • 10:35 - 10:39
    MR: Ha nem osztjuk meg a tudásunkat
    a hasonló társadalmi problémákról,
  • 10:39 - 10:41
    akkor hogyan fogjuk megvitatni
    a társadalmi kérdéseket?
  • 10:41 - 10:44
    Hogyan szólítjuk meg az embereket,
    hogy tegyenek valamit?
  • 10:44 - 10:47
    Még több, egymástól elszigetelt
    buborék fog létrejönni.
  • 10:48 - 10:51
    Az egyik központi kérdés,
    hogy mi lesz fontosabb a jövőben:
  • 10:51 - 10:56
    az önkifejezés szabadsága vagy az igény,
    hogy biztonságban érezzük magunkat?
  • 10:56 - 10:58
    Ez elvi kérdés.
  • 10:59 - 11:03
    Hogy nyílt vagy zárt
    társadalmat szeretnénk
  • 11:03 - 11:05
    a digitális térben teremteni?
  • 11:05 - 11:11
    Szabadság vagy biztonság –
    ez a lényegi kérdés.
  • 11:12 - 11:17
    A Facebook mindig is
    "egészséges" platform akart lenni.
  • 11:17 - 11:21
    A felhasználóknak először is
    biztonságban kell érezniük magukat.
  • 11:21 - 11:23
    Ugyanígy fogalmaznak
  • 11:23 - 11:26
    a filippínó tartalommoderátorok
  • 11:26 - 11:28
    számos interjúban.
  • 11:28 - 11:31
    (Videó) Az a világ, amiben jelenleg élünk,
  • 11:31 - 11:33
    szerintem nem igazán egészséges.
  • 11:33 - 11:34
    (Zene)
  • 11:34 - 11:38
    Ebben a világban valóban
    jelen van a gonosz, aki létezik.
  • 11:38 - 11:40
    (Zene)
  • 11:41 - 11:43
    Szükséges, hogy odafigyeljünk.
  • 11:43 - 11:45
    (Zene)
  • 11:45 - 11:48
    Kontroll alatt kell tartsuk:
    jó vagy rossz.
  • 11:49 - 11:51
    (Zene)
  • 11:58 - 12:03
    [Figyelj, fiatalember! – Isten]
  • 12:03 - 12:07
    MR: A szigorúan katolikus Fülöp-szigeteken
    a fiatal moderátorok számára
  • 12:07 - 12:10
    ez a keresztény küldetéshez kötődik.
  • 12:11 - 12:14
    Tenni a világ bűnei ellen,
  • 12:14 - 12:16
    amelyek a világhálón keresztül terjednek.
  • 12:17 - 12:20
    "Erkölcsi kötelességünk
    megőrizni a tisztaságot" –
  • 12:20 - 12:24
    ez általános vélekedés
    a filippínók között.
  • 12:24 - 12:26
    HB: Mások abból nyernek ösztönzést,
  • 12:26 - 12:29
    hogy elnökükhöz, Rodrigo Dutertéhez
    hasonlítják magukat,
  • 12:30 - 12:33
    aki 2016 óta kormányozza
    a Fülöp-szigeteket,
  • 12:33 - 12:37
    és az volt a választási ígérete,
    hogy "feltakarítok".
  • 12:38 - 12:41
    Ez azt jelenti, hogy úgy szüntet meg
    különböző problémákat,
  • 12:41 - 12:45
    hogy szó szerint az utcán öli meg
    a feltételezett bűnözőket,
  • 12:45 - 12:47
    bármit is jelentsen ez.
  • 12:47 - 12:48
    Megválasztása óta
  • 12:48 - 12:51
    nagyjából 20 000 embert gyilkoltak meg.
  • 12:52 - 12:54
    A filmben az egyik moderátor azt mondja,
  • 12:54 - 12:56
    "Amit Duterte az utcán csinál,
  • 12:56 - 12:58
    azt teszem én az internetért."
  • 12:59 - 13:02
    Itt vannak ők, az önjelölt szuperhősök,
  • 13:02 - 13:05
    akik kikényszerítik a törvényt
    és rendet digitális világunkban.
  • 13:06 - 13:08
    Kitakarítanak, tisztára sikálnak mindent,
  • 13:08 - 13:10
    megszabadítanak minket minden gonosztól.
  • 13:10 - 13:14
    Ami régebben a hatóságok dolga volt,
  • 13:14 - 13:18
    mára 20-as éveik elején járó
    főiskolát végzettek teszik,
  • 13:18 - 13:21
    három-ötnapos képzés után
    megszerzett papírral.
  • 13:21 - 13:23
    Ezzel a minősítéssel rendelkeznek azok,
  • 13:23 - 13:26
    akik nem kisebb munkát végeznek,
    mint a világ megmentése.
  • 13:27 - 13:31
    MR: A nemzeti szuverenitás
    átkerült a magáncégek kezébe,
  • 13:31 - 13:35
    ők meg átadják a felelősségüket
    egy harmadik félnek.
  • 13:35 - 13:38
    Ez a kiszervezés
    kiszervezésének kiszervezése,
  • 13:38 - 13:39
    ami most megy.
  • 13:40 - 13:41
    A közösségi háló
  • 13:41 - 13:44
    merőben új infrastruktúra,
  • 13:44 - 13:46
    saját mechanizmusával,
  • 13:46 - 13:47
    tevékenységének saját logikájával,
  • 13:47 - 13:52
    így egy egészen új, saját veszéllyel,
  • 13:52 - 13:56
    ami nem létezett még a digitális világ
    előtti publikus világban.
  • 13:56 - 13:59
    HB: Amikor Mark Zuckenberg
    megjelent az USA Kongresszusában
  • 13:59 - 14:01
    vagy az Európai Parlamentben,
  • 14:01 - 14:03
    mindenféle kritikákkal került szembe.
  • 14:03 - 14:06
    Mindenre ugyanúgy reagált:
  • 14:07 - 14:08
    "Kijavítjuk,
  • 14:08 - 14:11
    és ennek megfelelően folytatjuk."
  • 14:11 - 14:13
    De az ilyen vitákat
    nem a Facebook, a Twitter
  • 14:13 - 14:16
    vagy a Google hátsó szobáiban
    kéne lefolytatni –
  • 14:16 - 14:21
    ezekről a témákról nyíltan kéne vitázni
    új, világpolgári parlamentekben,
  • 14:21 - 14:26
    olyan új intézményekben, amelyek
    figyelembe veszik az emberek sokféleségét,
  • 14:26 - 14:31
    és ezzel hozzájárulnak a világháló
    utópisztikus projektjéhez.
  • 14:31 - 14:34
    S míg talán lehetetlen a világ
    felhasználóinak értékrendjét
  • 14:34 - 14:36
    figyelembe venni,
  • 14:36 - 14:38
    érdemes hinni abban,
  • 14:38 - 14:41
    hogy több dolog van,
    ami közös bennünk, mint ami elválaszt.
  • 14:42 - 14:45
    MR: Hát, igen, olyan időkben,
    amikor a populizmus megerősödik,
  • 14:45 - 14:49
    népszerűvé válik tisztázni a jelenségeket,
  • 14:49 - 14:50
    megszabadulni tőlük,
  • 14:50 - 14:52
    láthatatlanná tenni őket.
  • 14:53 - 14:56
    Világszerte terjed ez a felfogás
  • 14:56 - 14:59
    az analóg és digitális világban egyaránt.
  • 15:00 - 15:03
    A mi kötelességünk megállítani,
  • 15:03 - 15:05
    még mielőtt késő lenne.
  • 15:06 - 15:10
    Szabadság és demokrácia kérdésében
  • 15:10 - 15:13
    más alternatívák is kell,
    hogy legyenek, mint hogy:
  • 15:13 - 15:14
    HB: Töröl.
  • 15:14 - 15:16
    MR: Vagy nem érdekes.
  • 15:17 - 15:19
    HB: Nagyon köszönjük.
  • 15:19 - 15:22
    (Taps)
Title:
A "tiszta" internet ára
Speaker:
Hans Block és Moritz Riesewieck
Description:

Képek és videók millióit töltik fel minden nap az internetre, mégis ritkán találkozunk zavaró, sokkoló tartalmakkal hírfolyamunkban. Kik azok, akik tisztán tartják az internetet számunkra? Erről beszél a dokumentumfilmes Hans Block és Moritz Riesewieck leleplező előadásában: beviszik a hallgatóságot az online tartalommoderátorok sötét világába, azokéba, akiket az olyan nagyobb platformok alkalmaznak, mint a Facebook, a Twitter vagy a Google, hogy megszabadítsák őket a mérgező tartalmaktól. Tudjon meg többet arról, milyen pszichikai hatással jár az ilyen munka, és hogy ez a digitális nagytakarítás milyen hatással van gondolkodásunkra és világlátásunkra.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:37
Zsófia Herczeg commented on Hungarian subtitles for The price of a "clean" internet
Zsófia Herczeg edited Hungarian subtitles for The price of a "clean" internet
Maria Ruzsane Cseresnyes commented on Hungarian subtitles for The price of a "clean" internet
Zsófia Herczeg approved Hungarian subtitles for The price of a "clean" internet
Zsófia Herczeg edited Hungarian subtitles for The price of a "clean" internet
Zsófia Herczeg edited Hungarian subtitles for The price of a "clean" internet
Zsuzsa Viola accepted Hungarian subtitles for The price of a "clean" internet
Zsuzsa Viola edited Hungarian subtitles for The price of a "clean" internet
Show all
  • 11: 45 We need to control it -- good or bad. Ezt én úgy értelmezem, hogy:
    Kontroll alatt kell tartsuk, jó vagy rossz. (El kell döntsük, jó vagy rossz.)

  • Szia Marika!
    Köszönöm, hogy jelezted ezt. Teljesen igazad van.
    Javítottam, ahogy megbeszéltük. :-)

Hungarian subtitles

Revisions Compare revisions