Return to Video

Hogyan alakítsuk át megbízható hellyé az internetet?

  • 0:01 - 0:04
    Mindegy, ki ön és hol él,
  • 0:04 - 0:06
    biztos, hogy van legalább egy
    olyan ismerőse,
  • 0:06 - 0:09
    akitől időnként megkapja
    ezeket az üzeneteket.
  • 0:09 - 0:11
    Tudják, melyekről beszélek.
  • 0:11 - 0:14
    Amik gyanús állításokat,
    összeesküvés-elméleteket tartalmaznak.
  • 0:14 - 0:17
    Valószínűleg már blokkolta is
    őket a Facebookon,
  • 0:17 - 0:19
    mert ilyesmiket posztoltak.
  • 0:19 - 0:21
    Ez a kép egy banánt ábrázol,
  • 0:21 - 0:23
    furcsa vörös kereszttel a közepén.
  • 0:23 - 0:26
    A hozzá tartozó szöveg arra figyelmeztet,
  • 0:26 - 0:28
    hogy ne együnk olyan gyümölcsöt,
    ami így néz ki,
  • 0:28 - 0:30
    mert vért fecskendezhettek bele,
  • 0:30 - 0:32
    méghozzá HIV-vírussal fertőzöttet.
  • 0:32 - 0:35
    Legfelül pedig az üzenet egyszerűen ennyi:
  • 0:35 - 0:37
    "Továbbítsa, és életet ment!"
  • 0:38 - 0:41
    Tényellenőrzők már évek óta
    cáfolják ezt a posztot,
  • 0:41 - 0:44
    de a szóbeszéd mégis makacsul tovább él.
  • 0:44 - 0:45
    Zombi szóbeszéd.
  • 0:46 - 0:48
    És persze valótlanság az egész.
  • 0:48 - 0:51
    Hajlamosak vagyunk
    rálegyinteni egy ilyen példára:
  • 0:51 - 0:53
    "Ugyan már, ki dől be ennek?"
  • 0:53 - 0:55
    De a zombi szóbeszéd
    pont azért nem hal ki,
  • 0:55 - 0:58
    mert az emberek
    legmélyebb félelmeire játszik rá
  • 0:58 - 1:01
    saját maguk és szeretteik
    biztonságával kapcsolatban.
  • 1:02 - 1:05
    Ha önök is ugyanannyit tanulmányozzák
    a tévinformációkat, mint én,
  • 1:05 - 1:08
    akkor tudják, hogy ez csupán
    egy példa a sok közül,
  • 1:08 - 1:11
    mely az emberek félelmeire,
    sebezhetőségére épít.
  • 1:11 - 1:16
    Világszerte naponta újabb és újabb
    mémek bukkannak fel az Instagramon,
  • 1:16 - 1:19
    melyek arra buzdítanak,
    hogy ne oltassuk be gyerekünket.
  • 1:19 - 1:23
    YouTube-videókban elmagyarázzák,
    hogy a klímaváltozás merő kitaláció.
  • 1:23 - 1:28
    És bárhova nézünk, posztok
    tömkelege heccel mások ellen
  • 1:28 - 1:31
    faji, vallási vagy szexuális alapon.
  • 1:32 - 1:35
    Hadd mutassam be önöknek
    korunk egyik legnagyobb kihívását!
  • 1:36 - 1:40
    Hogyan tartsuk meg az internetet
    a szólásszabadság színhelyének,
  • 1:40 - 1:43
    miközben azt is biztosítjuk,
    hogy az ott terjedő tartalmak
  • 1:43 - 1:47
    nem okoznak jóvátehetetlen károkat
    demokráciáinkban, közösségeinkben,
  • 1:47 - 1:49
    fizikai és mentális egészségünkben?
  • 1:50 - 1:52
    Információs korban élünk,
  • 1:52 - 1:56
    ám a legfontosabb valuta, melytől
    mind függünk – vagyis az információ –,
  • 1:56 - 1:58
    kezd megbízhatatlanná válni,
  • 1:58 - 2:01
    sőt, időnként kifejezetten
    veszélyesnek tűnik.
  • 2:01 - 2:05
    Ez részben a közösségi platformok
    rohamos terjedésének köszönhető,
  • 2:05 - 2:06
    amelyeket lapozgatva
  • 2:06 - 2:09
    egymás mellett jelennek meg
    tények és hazugságok,
  • 2:09 - 2:12
    bármiféle megkülönböztető jelzés nélkül.
  • 2:12 - 2:16
    És Istenem, az ezzel kapcsolatos
    szóhasználatunk is mennyire zűrzavaros!
  • 2:16 - 2:19
    Imádjuk az "álhír" kifejezést,
  • 2:19 - 2:22
    annak ellenére,
    hogy rendkívül félrevezető!
  • 2:22 - 2:25
    Mégis számos jelenségre ráhúzzuk,
    amelyek valójában mást jelentenek:
  • 2:25 - 2:28
    a hazugságra, a pletykára, a kitalációra,
    az összeesküvésre, a propagandára.
  • 2:29 - 2:32
    Bárcsak ne használnánk többé
    olyan kifejezést,
  • 2:32 - 2:35
    melyet a politikusok
    világszerte magukévá tettek
  • 2:35 - 2:36
    pártállástól függetlenül,
  • 2:36 - 2:39
    hogy segítségével a szabad
    és független sajtót támadják.
  • 2:40 - 2:43
    (Taps)
  • 2:45 - 2:48
    Szakértő sajtóra van szükségünk,
    most jobban, mint eddig bármikor.
  • 2:49 - 2:52
    Ezek a tartalmak egyébként
    még csak nem is hasonlítanak hírekre.
  • 2:52 - 2:55
    Ezek mémek, videók, közösségi posztok.
  • 2:55 - 2:58
    És legtöbbjük nem "ál",
    hanem félrevezetés.
  • 2:58 - 3:01
    Hajlamosak vagyunk arra koncentrálni,
    hogy mi igaz és mi hamis.
  • 3:01 - 3:05
    De ennél aggasztóbb az, hogy e posztok
    fegyverként használhatók.
  • 3:07 - 3:09
    A leghatékonyabb tévinformáció ugyanis az,
  • 3:09 - 3:12
    aminek van némi igazságtartalma.
  • 3:12 - 3:14
    Nézzük példaként ezt a tweetet
  • 3:14 - 3:17
    Londonból 2017 márciusából,
  • 3:17 - 3:21
    a Westminster-hídon történt
    terrorista támadás utánról.
  • 3:21 - 3:23
    Ez eredeti fotó, nem hamisítvány.
  • 3:23 - 3:26
    A képen szereplő nőt
    később meginterjúvolták,
  • 3:26 - 3:29
    és elmagyarázta,
    hogy nagyon megrázták az események.
  • 3:29 - 3:31
    Éppen egy szerettével beszélt telefonon,
  • 3:31 - 3:33
    és hogy tiszteletből
    nem figyelt az áldozatra.
  • 3:33 - 3:37
    Mégis elterjedt az interneten a fotó,
    mégpedig iszlámellenes feliratokkal,
  • 3:37 - 3:40
    olyan hashtagekkel, mint pl. #BanIslam.
  • 3:40 - 3:43
    Ha ön a Twitter
    munkatársa lenne, mit tenne?
  • 3:43 - 3:45
    Levenné az oldalról, vagy fent hagyná?
  • 3:47 - 3:50
    Az én ösztönös, érzelmi reakcióm
    az lenne: vegyük le.
  • 3:50 - 3:52
    Nem tetszik a körítése.
  • 3:53 - 3:55
    De a szólásszabadság alapvető emberi jog,
  • 3:55 - 3:58
    és ha minden, számunkra
    kényelmetlen szöveget letörlünk,
  • 3:58 - 3:59
    akkor nagy a gond.
  • 4:00 - 4:02
    Ez egyértelmű ügynek tűnik,
  • 4:02 - 4:04
    de a legtöbb poszt nem az.
  • 4:04 - 4:06
    Hihetetlenül nehéz
    meghúzni a határvonalat:
  • 4:06 - 4:08
    amit egyikünk jószándékú döntésnek tart,
  • 4:08 - 4:10
    az más számára egyértelmű cenzúrázás.
  • 4:11 - 4:14
    Már tudjuk, hogy ez a felhasználói fiók,
    a Texas Lone Star,
  • 4:14 - 4:17
    egy orosz, tévinformációkat
    terjesztő kampány része volt,
  • 4:17 - 4:19
    közben már törölték.
  • 4:19 - 4:21
    Ettől megváltozna a véleménye?
  • 4:21 - 4:22
    Az enyém biztosan,
  • 4:22 - 4:25
    hiszen most már szervezett
    kampányról beszélünk,
  • 4:25 - 4:26
    amivel viszályt akarnak kelteni.
  • 4:26 - 4:28
    Azoknak üzenem, akik azt hiszik,
  • 4:28 - 4:31
    hogy a mesterséges intelligencia
    majd megoldja minden problémánkat:
  • 4:31 - 4:33
    azt hiszem, egyetérthetünk,
    hogy hosszú még az út,
  • 4:33 - 4:36
    amíg az MI értelmezni tudja
    az ilyen posztokat.
  • 4:37 - 4:39
    Hadd fejtsek ki itt három
    összetartozó gondolatot,
  • 4:39 - 4:42
    amik miatt a helyzet olyan bonyolult,
  • 4:42 - 4:45
    aztán pedig lássuk, hogyan nézhetünk
    szembe ezekkel a kihívásokkal.
  • 4:45 - 4:49
    Először is: sosem észérvek alapján
    közelítünk egy információhoz,
  • 4:49 - 4:51
    hanem érzelmi alapon.
  • 4:51 - 4:54
    Nem igaz, hogy a tények
    mindent a helyükre tesznek,
  • 4:54 - 4:58
    mert az algoritmusok,
    melyek meghatározzák, mit látunk,
  • 4:58 - 5:01
    úgy vannak beállítva, hogy érzelmi
    reakcióinkat jutalmazzák.
  • 5:01 - 5:02
    Ha éppen félünk,
  • 5:02 - 5:05
    a lebutított történetek,
    az összeesküvés-elméletek,
  • 5:05 - 5:09
    és a gyűlöletbeszéd
    óriási hatást gyakorol ránk.
  • 5:10 - 5:11
    Ezenkívül e cégek üzleti modellje
  • 5:11 - 5:14
    a figyelemfelkeltésen alapul,
  • 5:14 - 5:18
    ezek az algoritmusok tehát mindig
    az érzelmekre fognak építeni.
  • 5:18 - 5:23
    Másodszor: e tartalmak többsége
    nem törvényellenes.
  • 5:23 - 5:24
    Más lenne a helyzet,
  • 5:24 - 5:27
    ha gyerekek szexuális
    bántalmazását jelenítenék meg,
  • 5:27 - 5:29
    vagy ha erőszakra bujtanának.
  • 5:29 - 5:32
    Teljesen törvényes az,
    ha valaki hazugságot posztol.
  • 5:33 - 5:37
    Sokat beszélünk a "problémás", "káros"
    tartalmak törléséről,
  • 5:37 - 5:40
    anélkül, hogy meghatároznánk,
    mit értünk ez alatt.
  • 5:40 - 5:41
    Mark Zuckerberg például nemrégiben
  • 5:41 - 5:45
    az internetes tartalmak világszintű
    szabályozására hívott fel.
  • 5:45 - 5:46
    Ez azért aggályos,
  • 5:46 - 5:49
    mert láthatjuk, hogy a kormányok
    világszerte elhamarkodott,
  • 5:49 - 5:51
    stratégiai alapú döntéseket
    hoznak ez ügyben,
  • 5:51 - 5:54
    ami viszont súlyos következményekhez vezet
  • 5:54 - 5:56
    az internetes tartalmakat illetően.
  • 5:56 - 5:59
    Ha el is tudnánk dönteni,
    mit jelentessünk meg és mit töröljünk,
  • 5:59 - 6:02
    még sosem volt dolgunk
    ekkora mennyiségű tartalommal.
  • 6:02 - 6:04
    Másodpercenként több milliónyi
    új poszt jelenik meg
  • 6:04 - 6:06
    szerte a világon,
  • 6:06 - 6:07
    különböző nyelveken,
  • 6:07 - 6:10
    különböző kulturális közegekben.
  • 6:10 - 6:13
    Egyszerűen nem létezik
    hatékony módszerünk arra,
  • 6:13 - 6:15
    amivel ilyen mennyiségű
    tartalmat moderáljunk,
  • 6:15 - 6:18
    akár emberi erőforrások,
    akár a technológia segítségével.
  • 6:18 - 6:22
    Harmadszor: e cégek – a Google,
    a Twitter, a Facebook, a WhatsApp –
  • 6:22 - 6:25
    egy tágabb információs
    ökoszisztéma részei.
  • 6:25 - 6:28
    Csábító mindig őket hibáztatni,
    de az az igazság,
  • 6:28 - 6:31
    hogy a tömegkommunikáció
    és választott képviselőink
  • 6:31 - 6:35
    pont ugyanígy tudnak terjeszteni
    tévinformációkat, ha akarnak.
  • 6:36 - 6:40
    Ahogy mi magunk is,
    amikor gondolkozás nélkül továbbítunk
  • 6:40 - 6:42
    félrevezető, viszályt keltő posztokat.
  • 6:42 - 6:44
    Mi is növeljük
    az információ-szennyeződést.
  • 6:45 - 6:48
    Tudom, hogy jó lenne
    ezt egyszerűen megoldani.
  • 6:48 - 6:50
    De nem létezik egyszerű megoldás.
  • 6:50 - 6:54
    A megoldásnak nagyszabásúnak kell lennie,
    az egész internetre kiterjedőnek,
  • 6:54 - 6:58
    és igen, e platformok
    valóban ezen a szinten dolgoznak.
  • 6:58 - 7:01
    De vajon rájuk bízhatjuk
    e problémák megoldását?
  • 7:02 - 7:03
    Próbálnak ők tökéletesedni, ez igaz.
  • 7:03 - 7:07
    Mégis legtöbben úgy véljük,
    ne világcégek döntsenek
  • 7:07 - 7:09
    az igazság és méltányosság
    kérdéseiről a világhálón.
  • 7:09 - 7:12
    És azt hiszem, ebben e platformok
    is egyetértenének velünk.
  • 7:12 - 7:15
    Jelenleg amúgy is a saját
    házi feladatukkal vannak elfoglalva.
  • 7:15 - 7:16
    Bár azt hangoztatják,
  • 7:16 - 7:19
    az általuk kidolgozott intervenciós
    eljárások működnek,
  • 7:19 - 7:22
    mégis lehetetlen ezeket az állításokat
    független módon megerősíteni,
  • 7:22 - 7:25
    hiszen ők maguk írják saját
    átláthatósági jelentéseiket.
  • 7:26 - 7:29
    (Taps)
  • 7:30 - 7:33
    És szögezzük le, hogy a legtöbb
    változtatás akkor történik,
  • 7:33 - 7:36
    miután újságírók oknyomozásba kezdenek,
  • 7:36 - 7:38
    és rámutatnak olyan torzulásokra
    és tartalmakra,
  • 7:38 - 7:40
    melyek szemben állnak
    a közösségi irányelvekkel.
  • 7:41 - 7:45
    Igen, e cégeknek fontos szerep jut
    ebben a folyamatban,
  • 7:45 - 7:48
    de nem kell, hogy ők
    végezzék az ellenőrzést.
  • 7:48 - 7:49
    És mi a helyzet a kormányokkal?
  • 7:50 - 7:53
    Sokan hiszik, hogy a világszintű
    szabályozás az utolsó reményünk
  • 7:53 - 7:56
    információs környezetünk
    megtisztítása érdekében.
  • 7:56 - 7:59
    De én csak törvényhozókat látok,
    akik megpróbálnak lépést tartani
  • 7:59 - 8:01
    a gyors technológiai fejlődéssel.
  • 8:01 - 8:04
    És ami még rosszabb,
    hogy sötétben tapogatóznak,
  • 8:04 - 8:05
    hisz nem férnek hozzá olyan adatokhoz,
  • 8:05 - 8:08
    amelyek segítségével megértenék,
    mi történik e platformokon.
  • 8:08 - 8:11
    És különben is: melyik kormányra
    bíznánk rá e munkát?
  • 8:11 - 8:14
    Világszinten kell cselekednünk,
    nem nemzeti szinten.
  • 8:15 - 8:18
    A hiányzó láncszem tehát
    mi magunk vagyunk.
  • 8:18 - 8:21
    Azok az emberek, akik naponta
    használják e technológiát.
  • 8:21 - 8:26
    Létrehozható olyan infrastruktúra,
    mely a minőségi információkat támogatja?
  • 8:26 - 8:28
    Én azt hiszem, igen,
  • 8:28 - 8:31
    és van is néhány ötletem,
    mit tehetnénk ez ügyben.
  • 8:31 - 8:34
    Először is: ha valóban be akarjuk
    vonni a nyilvánosságot,
  • 8:34 - 8:37
    forduljunk inspirációért a Wikipédiához.
  • 8:37 - 8:38
    Ott látjuk, mi minden lehetséges.
  • 8:38 - 8:40
    Nem tökéletes, ez igaz.
  • 8:40 - 8:42
    De itt bebizonyosodott,
    hogy megfelelő struktúrával,
  • 8:42 - 8:44
    átfogó szemlélettel és átláthatósággal
  • 8:45 - 8:48
    olyasmit alkothatunk,
    ami kivívja legtöbbünk bizalmát.
  • 8:48 - 8:49
    Meg kell találnunk az utat
  • 8:49 - 8:53
    a felhasználók kollektív tudásához
    és tapasztalatához.
  • 8:54 - 8:56
    Különösen igaz ez a nők, a színes bőrűek
  • 8:56 - 8:58
    és a kisebbségek esetére.
  • 8:58 - 8:59
    Tudják, miért?
  • 8:59 - 9:01
    Mert ha gyűlöletkeltésről
    és tévinformációkról van szó,
  • 9:02 - 9:05
    ők a szakértők,
    hiszen volt ebben részük bőven.
  • 9:05 - 9:07
    És bár évek óta próbálják
    felhívni a figyelmet a problémára,
  • 9:07 - 9:09
    mégsem hallgat rájuk senki.
  • 9:09 - 9:10
    Ennek meg kell változnia.
  • 9:11 - 9:15
    Ki tudunk tehát építeni egy Wikipédiát,
    amiben mindenki megbízik?
  • 9:15 - 9:19
    Melyben a felhasználók
    véleménye is kifejezésre jut?
  • 9:19 - 9:23
    E vélemények befolyásolhatnák
    a nehéz moderálási döntéseket.
  • 9:23 - 9:25
    Visszajelzéseket adhatnának,
  • 9:25 - 9:28
    mikor változásokat
    vezet be egy-egy platform.
  • 9:28 - 9:32
    Másodszor: az információkkal
    kapcsolatos élményünk egyedi.
  • 9:32 - 9:35
    Az én Facebook hírfolyamom
    nagyon más, mint az önöké.
  • 9:35 - 9:38
    Az önök YouTube videóajánlatai
    mások, mint az enyémek.
  • 9:38 - 9:40
    Ezért gyakorlatilag
    lehetetlen megvizsgálni,
  • 9:40 - 9:42
    ki milyen információt lát.
  • 9:43 - 9:44
    El tudnánk tehát képzelni
  • 9:44 - 9:49
    egy anonimizált adatokat tartalmazó
    központi, nyílt adatbázis kiépítését,
  • 9:49 - 9:52
    mely adatvédelmi és etikai
    alapelveket is figyelembe vesz?
  • 9:52 - 9:55
    Gondolják csak el,
    mennyi mindent tanulhatnánk abból,
  • 9:55 - 9:57
    ha világszerte összefognának
    a felelős állampolgárok,
  • 9:57 - 10:01
    és közösségi adataikat hozzáférhetővé
    tennék tudományos célokra.
  • 10:01 - 10:03
    Mert igaziból nagyon keveset tudunk
  • 10:03 - 10:06
    a gyűlölködés
    és a tévinformációk hosszú távú,
  • 10:06 - 10:08
    az attitűdöt és viselkedést
    befolyásoló hatásairól.
  • 10:08 - 10:09
    És amit tudunk róla,
  • 10:09 - 10:12
    az is mind az Egyesült Államokban
    szerzett adatokon alapul,
  • 10:12 - 10:14
    pedig a probléma világjelenség.
  • 10:14 - 10:16
    Ezen is dolgoznunk kell.
  • 10:16 - 10:17
    És harmadszor:
  • 10:17 - 10:20
    vajon össze tudnánk kötni a pontokat?
  • 10:20 - 10:23
    Egyetlen szektor, de még nonprofit,
    start-up szervezet vagy kormány
  • 10:23 - 10:25
    sem fogja ezt megoldani.
  • 10:25 - 10:26
    De szerte a világban
  • 10:26 - 10:29
    okos emberek ezen dolgoznak,
  • 10:29 - 10:32
    hírszerkesztőségekben, civil
    szervezetekben, az egyetemi életben.
  • 10:32 - 10:34
    Néhányukat itt láthatják.
  • 10:34 - 10:37
    Vannak, akik a tartalmak
    hitelességének mutatóit kutatják.
  • 10:37 - 10:39
    Mások a tartalmak
    megbízhatóságát ellenőrzik,
  • 10:39 - 10:42
    így a hamis tartalmak
    lejjebb kerülnek a hírfolyamban.
  • 10:42 - 10:45
    Egy nonprofit szervezet, a First Draft,
    melynek alapításában segédkeztem,
  • 10:45 - 10:48
    egymással versengő
    hírszerkesztőségeknek segít világszerte
  • 10:48 - 10:51
    az együttműködésben
    és az oknyomozó újságírásban.
  • 10:51 - 10:54
    Danny Hillis szoftvertervező
  • 10:54 - 10:56
    pedig új rendszert tervez
    The Underlay néven,
  • 10:56 - 10:59
    mely nyilvános kijelentések tárháza lesz,
  • 10:59 - 11:00
    ellátva forráshivatkozásokkal,
  • 11:00 - 11:04
    így az olvasók és az algoritmusok
    könnyebben dönthetnek a hitelességükről.
  • 11:05 - 11:08
    Pedagógusok világszerte
    különböző technikákat tesztelnek,
  • 11:08 - 11:12
    hogy megtanuljuk kritikával fogadni
    az internetes tartalmakat.
  • 11:12 - 11:16
    E teljesítmények csodálatraméltóak, de
    ezek az emberek elszigetelten dolgoznak,
  • 11:16 - 11:18
    sokuk siralmasan alulfizetett.
  • 11:19 - 11:20
    És okos emberek százai
  • 11:20 - 11:22
    dolgoznak e cégeken belül,
  • 11:22 - 11:25
    de az ő erőfeszítéseik is
    csak lógnak a levegőben,
  • 11:25 - 11:29
    hiszen különböző megoldásokat
    fejlesztenek ki ugyanarra a problémára.
  • 11:29 - 11:31
    Hogyan tudnánk
    ezeket az embereket összehozni
  • 11:31 - 11:35
    ugyanarra a helyre,
    néhány napra vagy hétre,
  • 11:35 - 11:37
    hogy e problémákon együtt dolgozhassanak,
  • 11:37 - 11:39
    de mindegyikük a saját szemszögéből?
  • 11:39 - 11:40
    Képesek vagyunk erre?
  • 11:40 - 11:44
    Képesek vagyunk koordinált,
    igényes választ adni,
  • 11:44 - 11:47
    mely megfelel a probléma
    méretének és összetettségének?
  • 11:48 - 11:49
    Azt hiszem, képesek vagyunk.
  • 11:49 - 11:52
    Építsük újjá együtt
    információs környezetünket!
  • 11:53 - 11:54
    Köszönöm.
  • 11:54 - 11:57
    (Taps)
Title:
Hogyan alakítsuk át megbízható hellyé az internetet?
Speaker:
Claire Wardle
Description:

Hogyan akadályozhatjuk meg félrevezető, olykor veszélyes tartalmak terjedését az interneten úgy, hogy ugyanakkor tiszteletben tartjuk a szólásszabadság elvét? Claire Wardle tévinfomáció-szakértő rámutat szennyezett online környezetünk kihívásaira és felvázolja tervét, hogyan alakíthatnánk az internetet megbízható hellyé – mégpedig a felhasználók segítségével. "Építsük újjá együtt információs környezetünket!" – mondja.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33
  • Sziasztok!
    Nagyszerű előadás. Nagyon szép munka. <3
    Néhány apróságot javítottam.
    0:41
    Itt fontosnak gondoltam betenni a mondatba a szóbeszéd szót. Ez ismétlődik is később, ráerősít az előadó is. (0:44, 0:53)
    5:05
    Itt a "gyűlöletbeszédet" javasolnám. Több ez már, mint "hecc", és később elő is jönnek ennek megerősítésére a gyűlöletkeltés / gyűlölködés szavak... (8:59, 10:03)
    (1:23-nál is volt "hecc". Ott szerintem jó.)
    Nézzétek meg, maradhatnak-e ezek a módosítások. Lezárhatom így a feladatot? Javítsak még valamit?
    Várom és előre is köszönöm a visszajelzést:
    Zsófi

  • Szia, Zsófi :)

    Köszönjük az átnézést! Csak két helyen vannak kételyeim, a többi nagyon tetszik (különösen a "gyűlöletbeszéd").

    1:52 és 2:05 - biztos, hogy kellenek itt a vesszők?

    További szép napot :)
    Gyöngyi

  • Említett két helyen szerintem sem kell vessző, de egyébként minden tetszik. Jó, hogy ami hibát mi nem veszünk észre, azt te még észreveszed.

  • Sziasztok!
    Köszönöm a gyors választ.
    Vesszők:
    1:52-nél az AhH. 253. szerint vessző kell. Ezt megtartanám.
    2:05-höz pedig az Akh. 250/c. szerint gondoltam, hogy szükséges a vessző, de ez egy ilyen "ha úgy érződik" típusú szabály, szóval egyáltalán nem ragaszkodom hozzá. Töröltem.
    Lezárom a feladatot.
    Ha esetleg maradt benne valami, szóljatok.
    Köszönöm a segítséget és további jó munkát kívánok nektek.
    Zsófi

  • Ezt nem értem. AkH 253 megszólítások utáni felkiáltójelekről szól, AkH 250-ben meg nincs is c.
    http://vmek.oszk.hu/01500/01547/01547.pdf
    Valami más kiadás? Hol nézzem?

  • Nagyon vicces. E szerint meg így van, és ugye mivel ez a legújabb – azt hiszem –, így igazad van, Zsófi.
    https://helyesiras.mta.hu/helyesiras/default/akh12
    Persze, elhihetném csak úgy simán is, de ezeket a megkereséseket még gyakorolnom kell. De már egész jól megy, már azt is tudom, hogy csak a legújabbat szabad alapul venni. Minek változtatnak annyit?

Hungarian subtitles

Revisions