Return to Video

Így védhető meg az igazság a félrevezető információk korában

  • 0:01 - 0:07
    2013. április 23-án
  • 0:07 - 0:12
    az Associated Press
    ezt tette közzé a Twitteren:
  • 0:12 - 0:15
    "Friss hírek!
  • 0:15 - 0:17
    Két robbanás történt a Fehér Háznál,
  • 0:17 - 0:20
    Barack Obama megsérült."
  • 0:20 - 0:26
    Ezt a tweetet öt percen belül
    4000-en osztották meg,
  • 0:26 - 0:28
    majd mindenfelé elterjedt az interneten.
  • 0:29 - 0:33
    Ezt a hírt valójában nem is
    az Associated Press tette közzé.
  • 0:33 - 0:36
    Valótlan hír volt, álhír,
  • 0:36 - 0:39
    szíriai hackerek terjesztették,
  • 0:39 - 0:44
    akik beszivárogtak az Associated Press
    Twitterének kezelői felületére.
  • 0:44 - 0:48
    A céljuk a társadalom megosztása volt,
    de sokkal több mindent romboltak le.
  • 0:48 - 0:51
    Merthogy az automatizált
    kereskedő algoritmusok
  • 0:51 - 0:54
    azonnal fogták a tweetre
    adott érzelmi reakciókat,
  • 0:54 - 0:57
    és azon lehetőség alapján
    kezdtek kereskedni,
  • 0:57 - 1:01
    hogy az Egyesült Államok elnöke
    megsérült vagy életét vesztette
  • 1:01 - 1:02
    ebben a robbanásban.
  • 1:02 - 1:04
    Ahogy tweetelni kezdtek,
  • 1:04 - 1:08
    a tőzsde nyomban összeomlott,
  • 1:08 - 1:13
    140 milliárd dollárnyi vételi
    értékű veszteséget okozva.
  • 1:13 - 1:18
    Robert Mueller, az Egyesült
    Államok különleges ügyésze
  • 1:18 - 1:21
    három orosz cég
    és 13 orosz magánszemély ellen
  • 1:21 - 1:24
    emelt vádat azzal a címszóval,
  • 1:24 - 1:27
    hogy összeesküvést szőttek
    az Egyesült Államok ellen,
  • 1:27 - 1:31
    és beavatkoztak
    a 2016-os elnökválasztásba.
  • 1:32 - 1:35
    Ez a vádirat számol be
  • 1:35 - 1:39
    az Internet Research Agency történetéről,
  • 1:39 - 1:42
    a Kreml által a háttérből
    működtetett trollgyárról.
  • 1:43 - 1:46
    Az Internet Agency
    csak az elnökválasztás idején
  • 1:46 - 1:48
    126 millió emberhez jutott el
  • 1:48 - 1:53
    Facebookon az Egyesült Államokban,
  • 1:53 - 1:56
    3 millió egyéni tweetet
  • 1:56 - 2:00
    és 43 órányi YouTube tartalmat tett közzé.
  • 2:00 - 2:02
    Ez mind hamis volt
  • 2:02 - 2:08
    – félrevezető információk, amelyek célja
    viszályszítás volt a választások során.
  • 2:09 - 2:12
    Az Oxfordi Egyetem
    egy újabb tanulmánya szerint
  • 2:12 - 2:15
    a nemrégiben lezajlott
    svéd választások során
  • 2:15 - 2:19
    a közösségi médiában terjedő,
  • 2:19 - 2:21
    a választásokkal kapcsolatos
    híreknek mintegy harmada
  • 2:21 - 2:23
    hamis vagy félrevezető volt.
  • 2:23 - 2:28
    Továbbá ezek a közösségi médiában terjedő,
    félrevezetésre épülő kampányok
  • 2:28 - 2:32
    népirtó propagandaként működnek,
  • 2:32 - 2:35
    például a burmai rohingyák
    esetében is ez történt,
  • 2:35 - 2:38
    Indiában lincseléseket idézve elő.
  • 2:38 - 2:39
    Tanulmányoztuk az álhíreket,
  • 2:39 - 2:43
    már akkor elkezdtük ezt, mielőtt
    a kifejezés ismertté vált.
  • 2:43 - 2:48
    Márciusban pedig a Science magazin
    vezércikkében tettük közzé
  • 2:48 - 2:50
    a valaha készült legnagyobb
  • 2:50 - 2:54
    követéses jellegű kutatást
    az álhírek online terjedéséről.
  • 2:55 - 2:59
    Tanulmányoztuk az összes
    hitelesítetten valós és álhírt,
  • 2:59 - 3:00
    amely valaha terjedt a Twitteren,
  • 3:00 - 3:04
    annak 2006-os indulásától kezdve 2017-ig.
  • 3:05 - 3:07
    Az információkat vizsgálva
  • 3:07 - 3:10
    új, hitelesített híreket tanulmányoztunk,
  • 3:10 - 3:14
    amelyeket hat független tényvizsgáló
    szervezet ellenőrzött és igazolt.
  • 3:14 - 3:17
    Így tudtuk, mely történetek valósak,
  • 3:17 - 3:19
    melyek hamisak.
  • 3:19 - 3:21
    Mérni tudjuk a terjedésüket,
  • 3:21 - 3:22
    a terjedésük sebességét,
  • 3:22 - 3:24
    milyen széles körben
    és mélységben terjednek,
  • 3:24 - 3:29
    hány ember keveredett bele ebbe
    az információ-zuhatagba és így tovább.
  • 3:29 - 3:30
    Ebben a tanulmányban
  • 3:30 - 3:34
    összehasonlítottuk az igaz és hamis
    hírek terjedésének sebességét.
  • 3:34 - 3:36
    Elmondom, mire jutottunk.
  • 3:36 - 3:40
    Az álhírek minden általunk tanulmányozott
    kategóriában gyorsabban, szélesebb körben,
  • 3:40 - 3:42
    több megosztásban, messzebbre
  • 3:42 - 3:45
    terjedtek, mint a valósak,
  • 3:45 - 3:47
    néha egy teljes nagyságrend különbséggel.
  • 3:48 - 3:51
    A valóságban a hamis politikai hírek
    terjedtek a leggyorsabban.
  • 3:51 - 3:54
    Gyorsabban, messzebbre,
    több megosztásban,
  • 3:54 - 3:57
    szélesebb körben terjedtek,
    mint bármilyen más típusú álhír.
  • 3:57 - 3:59
    Egyszerre láttuk
  • 3:59 - 4:02
    ijesztőnek és érdekesnek is.
  • 4:02 - 4:03
    Miért?
  • 4:03 - 4:06
    Az álhírek miért terjednek messzebbre,
    gyorsabban, több megosztásban
  • 4:06 - 4:08
    szélesebb körben, mint a valódiak?
  • 4:08 - 4:11
    Az első feltevésünk ez volt:
  • 4:11 - 4:16
    "Nos, talán az álhírek terjesztőit többen
    követik, vagy ők többeket követnek,
  • 4:16 - 4:18
    esetleg gyakrabban tweetelnek,
  • 4:18 - 4:22
    vagy talán többen is "ellenőrzött",
    megbízhatóbbnak tűnő Twitter-felhasználók,
  • 4:22 - 4:24
    esetleg régebb óta Twitter tagok."
  • 4:24 - 4:26
    Ezek mindegyikét külön-külön megvizsgáltuk
  • 4:27 - 4:30
    – és pont az ellenkezőjére bukkantunk.
  • 4:30 - 4:32
    Az álhírek terjesztőit
    kevesebben követték,
  • 4:32 - 4:34
    kevesebbeket követtek,
    kevésbé voltak aktívak,
  • 4:34 - 4:36
    kevesebbszer "ellenőrzöttek",
  • 4:36 - 4:39
    és rövidebb ideje voltak
    Twitter felhasználók.
  • 4:39 - 4:41
    Mégis, 70%-kal nagyobb valószínűséggel
  • 4:41 - 4:45
    osztják meg az álhíreket,
    mint az igazakat,
  • 4:45 - 4:48
    ellenőrizve mindezeket,
    és más tényezőket is.
  • 4:48 - 4:51
    Elő kellett hát állnunk
    valami más magyarázattal.
  • 4:51 - 4:55
    Megalkottuk az elméletet, amit mi
    "újszerűség-felvetésnek" neveztünk.
  • 4:55 - 4:57
    Ha olvassák a kapcsolódó szakirodalmat,
  • 4:57 - 5:01
    közismert, hogy az emberi
    figyelmet az újszerűség kelti fel,
  • 5:01 - 5:03
    olyan dolgok, amik újak a környezetben.
  • 5:03 - 5:05
    Ha olvassák a szociológiai szakirodalmat,
  • 5:05 - 5:10
    tudják, hogy szeretünk
    új információkat megosztani.
  • 5:10 - 5:14
    Úgy tűnünk általa, mintha bizalmas
    információk birtokában lennénk,
  • 5:14 - 5:17
    és az effajta információk
    terjesztése révén felértékelődünk.
  • 5:18 - 5:24
    Így aztán mérni kezdtük a bejövő
    valós és álhírek újdonságtartalmát
  • 5:24 - 5:28
    ahhoz a hírhalmazhoz képest,
    amit az egyén
  • 5:28 - 5:31
    az azt megelőző hatvan napban
    látott a Twitteren.
  • 5:31 - 5:34
    Ám ez nem volt elég,
    mert magunkban azt gondoltuk:
  • 5:34 - 5:38
    "Nos, talán információelméleti szempontból
    az álhírek inkább számítanak újdonságnak,
  • 5:38 - 5:41
    de lehet, az emberek mégsem
    érzékelik újszerűbbnek."
  • 5:42 - 5:46
    Ezért, hogy megértsük, hogyan
    fogadják be az emberek az álhíreket,
  • 5:46 - 5:49
    megnéztük, milyen érzelmi reakciókat
    váltanak ki az emberekből
  • 5:50 - 5:54
    az igaz és hamis tweetek.
  • 5:54 - 5:55
    Úgy találtuk,
  • 5:55 - 5:59
    hogy a sokféle érzelmi reakció között –
  • 5:59 - 6:03
    meglepetés, undor, félelem, szomorúság,
  • 6:03 - 6:05
    várakozás, öröm és bizalom –
  • 6:05 - 6:11
    az álhírt tartalmazó tweetek
    esetében többször fordult elő
  • 6:11 - 6:14
    meglepetés és undor.
  • 6:14 - 6:18
    A valós híreket tartalmazó tweetekre pedig
  • 6:18 - 6:20
    inkább várakozással,
  • 6:20 - 6:22
    örömmel és bizalommal reagáltak.
  • 6:22 - 6:26
    A meglepetés alátámasztja
    az "újszerűség-felvetésünket".
  • 6:26 - 6:31
    Új és meglepő, ezért sokkal
    valószínűbb, hogy megosztjuk.
  • 6:31 - 6:34
    Ezzel egy időben az Egyesült
    Államok kongresszusának
  • 6:34 - 6:37
    mindkét háza előtt
    meghallgatásokat tartottak,
  • 6:37 - 6:41
    hogy fény derüljön a botok szerepére
    a félrevezető információk terjesztésében.
  • 6:41 - 6:42
    Így ezt is tanulmányoztuk –
  • 6:42 - 6:46
    nagyon kifinomult bot-érzékelő
    algoritmust használtunk,
  • 6:46 - 6:49
    hogy az adatainkból kiszűrjük a botokat.
  • 6:49 - 6:52
    Eltávolítottuk őket, majd visszaraktuk,
  • 6:52 - 6:55
    hogy összehasonlítsuk,
    mi történik a méréseinkkel.
  • 6:55 - 6:57
    Úgy találtuk, hogy a botok valóban
  • 6:57 - 7:01
    felgyorsították az álhírek
    online terjedését,
  • 7:01 - 7:04
    ám nagyjából ugyanilyen sebességgel
    gyorsították fel
  • 7:04 - 7:06
    az igaz hírek terjedését is.
  • 7:06 - 7:09
    Vagyis a botok nem játszanak
    szerepet abban,
  • 7:09 - 7:14
    hogy miért terjednek különböző
    sebességgel az igaz és az álhírek.
  • 7:14 - 7:17
    Nem tolhatjuk le magunkról a felelősséget,
  • 7:17 - 7:21
    mert mi, emberek vagyunk
    felelősek a terjesztésükért.
  • 7:22 - 7:26
    Na most, mindaz, amiről eddig meséltem,
  • 7:26 - 7:28
    mindannyiunk szerencsétlenségére,
  • 7:28 - 7:29
    ez volt a jó hír.
  • 7:31 - 7:35
    Miért? Mert ez az egész
    csak sokkal rosszabb lesz.
  • 7:36 - 7:40
    Két technológia fogja tovább rontani.
  • 7:40 - 7:45
    A szintetikus média nagyarányú
    térhódításának leszünk tanúi.
  • 7:45 - 7:51
    Hamis videók, hamis hanganyagok,
    ránézésre igen meggyőző minőségben.
  • 7:51 - 7:54
    Ezt két technológia fogja elősegíteni.
  • 7:54 - 7:58
    Először is ott az úgynevezett
    "generatív ellenséges hálózat".
  • 7:58 - 8:01
    Ez egy gépi tanulási modell
    két hálózattal:
  • 8:01 - 8:02
    van egy diszkriminátor,
  • 8:02 - 8:06
    ennek a feladata eldönteni,
    hogy valami igaz-e vagy hamis,
  • 8:06 - 8:08
    és van a generátor,
  • 8:08 - 8:11
    ennek az a dolga, hogy
    szintetikus médiát állítson elő.
  • 8:11 - 8:16
    Tehát a szintetikus generátor szintetikus
    videót vagy hanganyagot hoz létre,
  • 8:16 - 8:21
    majd a diszkriminátor megpróbálja
    eldönteni, igaz-e vagy hamis a mű.
  • 8:21 - 8:24
    Tulajdonképp a generátor dolga
    mindent megtenni azért,
  • 8:24 - 8:28
    hogy átverje a diszkriminátort úgy,
  • 8:28 - 8:32
    hogy az valódinak vélje
    a szintetikus videót
  • 8:32 - 8:33
    vagy hanganyagot, amit létrehozott.
  • 8:33 - 8:36
    Képzeljenek el egy
    hiperhurokban lévő gépet,
  • 8:36 - 8:39
    amely egyre ügyesebben
    próbál átverni bennünket.
  • 8:39 - 8:42
    A másik technológiával kombinálva,
  • 8:42 - 8:46
    mely alapvetően hozzáférést ad
    a mesterséges intelligenciához,
  • 8:46 - 8:50
    vagyis lehetővé teszi bárkinek,
    hogy ezekkel az algoritmusokkal
  • 8:50 - 8:52
    anélkül állítson elő szintetikus médiát,
  • 8:52 - 8:54
    hogy bármit is tudna
  • 8:54 - 8:58
    a mesterséges intelligenciáról
    vagy a gépi tanulásról,
  • 8:58 - 9:02
    ez végső soron sokkal jobban
    megkönnyíti videók létrehozását.
  • 9:02 - 9:07
    A Fehér Ház közzétett egy hamis,
    megkozmetikázott videót,
  • 9:07 - 9:11
    amelyen egy gyakornok el akarja venni
    egy újságíró mikrofonját.
  • 9:11 - 9:13
    Kivágtak képkockákat a videóból,
  • 9:13 - 9:17
    hogy az egész ütősebbnek tűnjék.
  • 9:17 - 9:21
    Amikor videósokat
    és kaszkadőröket kérdeztek
  • 9:21 - 9:23
    erről a fajta technikáról,
  • 9:23 - 9:27
    azt mondták: "Igen, a mozifilmekben
    állandóan használjuk ezt a technikát,
  • 9:27 - 9:32
    hogy az ütések és rúgások sokkal
    hevesebbnek és vadabbnak tűnjenek."
  • 9:32 - 9:34
    Közzétették ezt a videót,
  • 9:34 - 9:37
    s részben igazolásként használták arra,
  • 9:37 - 9:40
    miért vonják vissza Jim Acosta újságíró
  • 9:40 - 9:42
    Fehér Ház-beli sajtóbelépőjét.
  • 9:42 - 9:47
    A CNN csak perben tudta visszaállíttatni
    ennek a sajtóbelépőnek az érvényességét.
  • 9:49 - 9:54
    Nagyjából ötféle lehetőség jut eszembe,
  • 9:54 - 9:58
    hogyan beszélhetnénk a jelen eme
    súlyos problémái közül néhányról.
  • 9:58 - 10:00
    Mindegyik ígéretes,
  • 10:00 - 10:03
    de mindegyik kihívásokkal jár.
  • 10:03 - 10:05
    Az egyik a feliratozás.
  • 10:05 - 10:07
    Csak gondoljanak arra,
  • 10:07 - 10:10
    amikor elmennek a boltba
    élelmiszert venni.
  • 10:10 - 10:12
    Minden agyon van címkézve.
  • 10:12 - 10:14
    Tudják, mennyi benne a kalória,
  • 10:14 - 10:16
    mennyi a zsírtartalma –
  • 10:16 - 10:20
    ám ha információkat fogadunk be,
    azt mindenféle címkézés nélkül tesszük.
  • 10:20 - 10:22
    Mit tartalmaz ez az információ?
  • 10:22 - 10:24
    Megbízható a forrása?
  • 10:24 - 10:26
    Honnan származik ez az információ?
  • 10:26 - 10:28
    Ezek egyikét sem tudjuk,
  • 10:28 - 10:30
    mikor informálódunk valamiről.
  • 10:30 - 10:33
    Ez egy lehetséges út,
    de kihívásokkal teli.
  • 10:33 - 10:40
    Például ki döntse el a társadalmon
    belül, mi igaz, mi hamis?
  • 10:40 - 10:42
    A kormányaink?
  • 10:42 - 10:43
    A Facebook?
  • 10:44 - 10:47
    Egy független, tényvalódiságot
    vizsgáló konzorcium?
  • 10:47 - 10:50
    És ki ellenőrzi a tények
    valódiságát ellenőrzőket?
  • 10:50 - 10:54
    Egy másik lehetséges út az ösztönzés.
  • 10:54 - 10:56
    Tudjuk, hogy az amerikai
    elnökválasztás alatt
  • 10:56 - 11:00
    érkezett Makedóniából
    egy információhullám,
  • 11:00 - 11:02
    amelynek nem politikai,
  • 11:02 - 11:05
    hanem gazdasági motivációja volt.
  • 11:05 - 11:07
    Ez a gazdasági motiváció
    azért létezhetett,
  • 11:07 - 11:10
    mert az álhírek ennyivel
    messzebbre, gyorsabban,
  • 11:10 - 11:12
    több megosztásba
    jutnak el, mint az igazak,
  • 11:13 - 11:17
    és ezekkel a fajta információkkal
    hirdetésből származó bevételre
  • 11:17 - 11:19
    és figyelemre tehetnek szert.
  • 11:19 - 11:23
    Ám ha vissza tudnánk szorítani az
    ilyesfajta információk terjedését,
  • 11:23 - 11:26
    a gazdasági motiváció is kisebb lenne,
  • 11:26 - 11:29
    amiért az ilyen híreket
    elsősorban létrehozzák.
  • 11:29 - 11:31
    Egy harmadik lehetőség a szabályozás,
  • 11:31 - 11:34
    és feltétlenül át kell gondolnunk ezt is.
  • 11:34 - 11:36
    Jelenleg az Egyesült Államokban
    azt vizsgáljuk,
  • 11:36 - 11:40
    mi történne, ha a Facebookot
    és hasonlókat szabályoznánk.
  • 11:40 - 11:44
    Bár meg kellene fontoljunk olyasmit,
    mint a politikai beszédek szabályozása:
  • 11:44 - 11:47
    jelölni a tényt, hogy
    politikai beszédről van szó,
  • 11:47 - 11:51
    megakadályozni, hogy külföldi színészek
    politikai beszédeket finanszírozzanak,
  • 11:51 - 11:53
    ennek is megvannak a maga veszélyei.
  • 11:54 - 11:58
    Például Malajziában most törvényesítették,
    hogy hat év börtönnel sújtható bárki,
  • 11:58 - 12:01
    akit hamis információk terjesztésén érnek.
  • 12:02 - 12:04
    A tekintélyelvű rezsimekben
  • 12:04 - 12:08
    az effajta törvénykezést a kisebbségi
    vélemény elnyomására lehet használni,
  • 12:08 - 12:12
    és fokozni az elnyomást.
  • 12:13 - 12:16
    A negyedik lehetőség az átláthatóság.
  • 12:17 - 12:21
    Tudni akarjuk, hogyan működik
    a Facebook algoritmusa.
  • 12:21 - 12:23
    Hogyan "dolgozik össze"
    az adat és az algoritmus,
  • 12:23 - 12:26
    hogy a végén ez legyen a végkimenetel?
  • 12:26 - 12:29
    Szeretnénk, ha lelepleznék
  • 12:29 - 12:33
    a Facebook pontos belső működését.
  • 12:33 - 12:36
    Ha tudni szeretnénk, milyen
    hatással van a társadalomra
  • 12:36 - 12:38
    a közösségi média, tudósokra, kutatókra
  • 12:38 - 12:41
    van szükségünk, hogy hozzáférjünk
    az ilyesfajta információkhoz.
  • 12:41 - 12:43
    Ugyanakkor azt is elvárjuk a Facebooktól,
  • 12:43 - 12:46
    hogy zárjon el mindent,
  • 12:46 - 12:49
    tartsa biztonságban az adatokat.
  • 12:49 - 12:52
    Így a Facebook és hasonló közösségi
    platformok azzal szembesülnek,
  • 12:52 - 12:55
    amit én átláthatósági
    paradoxonnak nevezek.
  • 12:55 - 12:58
    Egyszerre kérjük,
  • 12:58 - 13:03
    hogy legyenek nyitottak és átláthatóak,
    és ezzel párhuzamosan biztonságosak.
  • 13:03 - 13:05
    Ezeknek nagyon nehéz egyszerre megfelelni,
  • 13:06 - 13:07
    de valahogy meg kell felelniük,
  • 13:07 - 13:11
    ha megvalósítjuk a közösségi
    technológiák ígéretét,
  • 13:11 - 13:13
    miközben elkerüljük veszélyeiket.
  • 13:13 - 13:18
    Végül számba vehetjük az algoritmusok
    és gépi tanulás nyújtotta lehetőségeit is.
  • 13:18 - 13:23
    Olyan technológia kell, mely képes
    feltárni és megérteni az álhíreket,
  • 13:23 - 13:25
    terjedésük módját, majd elfojtani azt.
  • 13:26 - 13:29
    Az embernek ott kell lennie ebben
    a technológiai megoldásban,
  • 13:29 - 13:31
    mert tagadhatatlan,
  • 13:31 - 13:35
    hogy amikor letesszük voksunkat
    egy technológiai megoldás mellett,
  • 13:35 - 13:39
    az alapvető filozófiai és etikai
    kérdéseket vet fel arról,
  • 13:39 - 13:42
    hogyan definiáljuk az
    igazságot és valótlant,
  • 13:42 - 13:46
    kinek adjuk a hatalmat, hogy
    ezeket meghatározza,
  • 13:46 - 13:48
    mely vélemények legitimek,
  • 13:48 - 13:52
    mely típusú beszélyek legyenek
    engedélyezettek, és hasonlók.
  • 13:52 - 13:54
    A technológia nem nyújt erre megoldást.
  • 13:54 - 13:58
    Erre az etika és a filozófia
    jelent megoldást.
  • 13:59 - 14:02
    Az emberi döntéshozatal,
    együttműködés és irányítás
  • 14:02 - 14:05
    szinte minden nézetének középpontjában
  • 14:05 - 14:09
    ott az igazság feltételezése.
  • 14:09 - 14:11
    Ám az álhírek felemelkedésével,
  • 14:11 - 14:13
    a hamisított videók
  • 14:13 - 14:15
    és hangfelvételek terjedésével
  • 14:15 - 14:19
    a valóság végének peremén tántorgunk,
  • 14:19 - 14:23
    ahol képtelenek vagyunk megkülönböztetni
    a valóságot a valótlanságtól.
  • 14:23 - 14:26
    Ez pedig valószínűleg
    hihetetlen veszélyes.
  • 14:27 - 14:31
    Éberen kell óvnunk az igazságot
  • 14:31 - 14:32
    a félrevezető információk ellen:
  • 14:33 - 14:36
    műszaki megoldásokkal, szabályokkal
  • 14:36 - 14:38
    és – ami talán még fontosabb –,
  • 14:38 - 14:42
    egyéni felelősségvállalás,
  • 14:42 - 14:45
    döntések, viselkedés és tettek révén.
  • 14:46 - 14:47
    Köszönöm szépen.
  • 14:47 - 14:51
    (Taps)
Title:
Így védhető meg az igazság a félrevezető információk korában
Speaker:
Sinan Aral
Description:

Az álhírek képesek befolyásolni a választásokat, megbuktatni a gazdaságot és viszályt szítani mindennapjainkban. Sinan Aral adatkutató lerántja a leplet, hogyan és miért terjednek ilyen gyorsan – idézve a félrevezető információkról készült legnagyobb cikkből –, és bemutat öt stratégiát is, melyek segítenek kibogozni az igazság és valótlan összegubancolódott hálóját.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Hungarian subtitles

Revisions