Így védhető meg az igazság a félrevezető információk korában
-
0:01 - 0:072013. április 23-án
-
0:07 - 0:12az Associated Press
ezt tette közzé a Twitteren: -
0:12 - 0:15"Friss hírek!
-
0:15 - 0:17Két robbanás történt a Fehér Háznál,
-
0:17 - 0:20Barack Obama megsérült."
-
0:20 - 0:26Ezt a tweetet öt percen belül
4000-en osztották meg, -
0:26 - 0:28majd mindenfelé elterjedt az interneten.
-
0:29 - 0:33Ezt a hírt valójában nem is
az Associated Press tette közzé. -
0:33 - 0:36Valótlan hír volt, álhír,
-
0:36 - 0:39szíriai hackerek terjesztették,
-
0:39 - 0:44akik beszivárogtak az Associated Press
Twitterének kezelői felületére. -
0:44 - 0:48A céljuk a társadalom megosztása volt,
de sokkal több mindent romboltak le. -
0:48 - 0:51Merthogy az automatizált
kereskedő algoritmusok -
0:51 - 0:54azonnal fogták a tweetre
adott érzelmi reakciókat, -
0:54 - 0:57és azon lehetőség alapján
kezdtek kereskedni, -
0:57 - 1:01hogy az Egyesült Államok elnöke
megsérült vagy életét vesztette -
1:01 - 1:02ebben a robbanásban.
-
1:02 - 1:04Ahogy tweetelni kezdtek,
-
1:04 - 1:08a tőzsde nyomban összeomlott,
-
1:08 - 1:13140 milliárd dollárnyi vételi
értékű veszteséget okozva. -
1:13 - 1:18Robert Mueller, az Egyesült
Államok különleges ügyésze -
1:18 - 1:21három orosz cég
és 13 orosz magánszemély ellen -
1:21 - 1:24emelt vádat azzal a címszóval,
-
1:24 - 1:27hogy összeesküvést szőttek
az Egyesült Államok ellen, -
1:27 - 1:31és beavatkoztak
a 2016-os elnökválasztásba. -
1:32 - 1:35Ez a vádirat számol be
-
1:35 - 1:39az Internet Research Agency történetéről,
-
1:39 - 1:42a Kreml által a háttérből
működtetett trollgyárról. -
1:43 - 1:46Az Internet Agency
csak az elnökválasztás idején -
1:46 - 1:48126 millió emberhez jutott el
-
1:48 - 1:53Facebookon az Egyesült Államokban,
-
1:53 - 1:563 millió egyéni tweetet
-
1:56 - 2:00és 43 órányi YouTube tartalmat tett közzé.
-
2:00 - 2:02Ez mind hamis volt
-
2:02 - 2:08– félrevezető információk, amelyek célja
viszályszítás volt a választások során. -
2:09 - 2:12Az Oxfordi Egyetem
egy újabb tanulmánya szerint -
2:12 - 2:15a nemrégiben lezajlott
svéd választások során -
2:15 - 2:19a közösségi médiában terjedő,
-
2:19 - 2:21a választásokkal kapcsolatos
híreknek mintegy harmada -
2:21 - 2:23hamis vagy félrevezető volt.
-
2:23 - 2:28Továbbá ezek a közösségi médiában terjedő,
félrevezetésre épülő kampányok -
2:28 - 2:32népirtó propagandaként működnek,
-
2:32 - 2:35például a burmai rohingyák
esetében is ez történt, -
2:35 - 2:38Indiában lincseléseket idézve elő.
-
2:38 - 2:39Tanulmányoztuk az álhíreket,
-
2:39 - 2:43már akkor elkezdtük ezt, mielőtt
a kifejezés ismertté vált. -
2:43 - 2:48Márciusban pedig a Science magazin
vezércikkében tettük közzé -
2:48 - 2:50a valaha készült legnagyobb
-
2:50 - 2:54követéses jellegű kutatást
az álhírek online terjedéséről. -
2:55 - 2:59Tanulmányoztuk az összes
hitelesítetten valós és álhírt, -
2:59 - 3:00amely valaha terjedt a Twitteren,
-
3:00 - 3:04annak 2006-os indulásától kezdve 2017-ig.
-
3:05 - 3:07Az információkat vizsgálva
-
3:07 - 3:10új, hitelesített híreket tanulmányoztunk,
-
3:10 - 3:14amelyeket hat független tényvizsgáló
szervezet ellenőrzött és igazolt. -
3:14 - 3:17Így tudtuk, mely történetek valósak,
-
3:17 - 3:19melyek hamisak.
-
3:19 - 3:21Mérni tudjuk a terjedésüket,
-
3:21 - 3:22a terjedésük sebességét,
-
3:22 - 3:24milyen széles körben
és mélységben terjednek, -
3:24 - 3:29hány ember keveredett bele ebbe
az információ-zuhatagba és így tovább. -
3:29 - 3:30Ebben a tanulmányban
-
3:30 - 3:34összehasonlítottuk az igaz és hamis
hírek terjedésének sebességét. -
3:34 - 3:36Elmondom, mire jutottunk.
-
3:36 - 3:40Az álhírek minden általunk tanulmányozott
kategóriában gyorsabban, szélesebb körben, -
3:40 - 3:42több megosztásban, messzebbre
-
3:42 - 3:45terjedtek, mint a valósak,
-
3:45 - 3:47néha egy teljes nagyságrend különbséggel.
-
3:48 - 3:51A valóságban a hamis politikai hírek
terjedtek a leggyorsabban. -
3:51 - 3:54Gyorsabban, messzebbre,
több megosztásban, -
3:54 - 3:57szélesebb körben terjedtek,
mint bármilyen más típusú álhír. -
3:57 - 3:59Egyszerre láttuk
-
3:59 - 4:02ijesztőnek és érdekesnek is.
-
4:02 - 4:03Miért?
-
4:03 - 4:06Az álhírek miért terjednek messzebbre,
gyorsabban, több megosztásban -
4:06 - 4:08szélesebb körben, mint a valódiak?
-
4:08 - 4:11Az első feltevésünk ez volt:
-
4:11 - 4:16"Nos, talán az álhírek terjesztőit többen
követik, vagy ők többeket követnek, -
4:16 - 4:18esetleg gyakrabban tweetelnek,
-
4:18 - 4:22vagy talán többen is "ellenőrzött",
megbízhatóbbnak tűnő Twitter-felhasználók, -
4:22 - 4:24esetleg régebb óta Twitter tagok."
-
4:24 - 4:26Ezek mindegyikét külön-külön megvizsgáltuk
-
4:27 - 4:30– és pont az ellenkezőjére bukkantunk.
-
4:30 - 4:32Az álhírek terjesztőit
kevesebben követték, -
4:32 - 4:34kevesebbeket követtek,
kevésbé voltak aktívak, -
4:34 - 4:36kevesebbszer "ellenőrzöttek",
-
4:36 - 4:39és rövidebb ideje voltak
Twitter felhasználók. -
4:39 - 4:41Mégis, 70%-kal nagyobb valószínűséggel
-
4:41 - 4:45osztják meg az álhíreket,
mint az igazakat, -
4:45 - 4:48ellenőrizve mindezeket,
és más tényezőket is. -
4:48 - 4:51Elő kellett hát állnunk
valami más magyarázattal. -
4:51 - 4:55Megalkottuk az elméletet, amit mi
"újszerűség-felvetésnek" neveztünk. -
4:55 - 4:57Ha olvassák a kapcsolódó szakirodalmat,
-
4:57 - 5:01közismert, hogy az emberi
figyelmet az újszerűség kelti fel, -
5:01 - 5:03olyan dolgok, amik újak a környezetben.
-
5:03 - 5:05Ha olvassák a szociológiai szakirodalmat,
-
5:05 - 5:10tudják, hogy szeretünk
új információkat megosztani. -
5:10 - 5:14Úgy tűnünk általa, mintha bizalmas
információk birtokában lennénk, -
5:14 - 5:17és az effajta információk
terjesztése révén felértékelődünk. -
5:18 - 5:24Így aztán mérni kezdtük a bejövő
valós és álhírek újdonságtartalmát -
5:24 - 5:28ahhoz a hírhalmazhoz képest,
amit az egyén -
5:28 - 5:31az azt megelőző hatvan napban
látott a Twitteren. -
5:31 - 5:34Ám ez nem volt elég,
mert magunkban azt gondoltuk: -
5:34 - 5:38"Nos, talán információelméleti szempontból
az álhírek inkább számítanak újdonságnak, -
5:38 - 5:41de lehet, az emberek mégsem
érzékelik újszerűbbnek." -
5:42 - 5:46Ezért, hogy megértsük, hogyan
fogadják be az emberek az álhíreket, -
5:46 - 5:49megnéztük, milyen érzelmi reakciókat
váltanak ki az emberekből -
5:50 - 5:54az igaz és hamis tweetek.
-
5:54 - 5:55Úgy találtuk,
-
5:55 - 5:59hogy a sokféle érzelmi reakció között –
-
5:59 - 6:03meglepetés, undor, félelem, szomorúság,
-
6:03 - 6:05várakozás, öröm és bizalom –
-
6:05 - 6:11az álhírt tartalmazó tweetek
esetében többször fordult elő -
6:11 - 6:14meglepetés és undor.
-
6:14 - 6:18A valós híreket tartalmazó tweetekre pedig
-
6:18 - 6:20inkább várakozással,
-
6:20 - 6:22örömmel és bizalommal reagáltak.
-
6:22 - 6:26A meglepetés alátámasztja
az "újszerűség-felvetésünket". -
6:26 - 6:31Új és meglepő, ezért sokkal
valószínűbb, hogy megosztjuk. -
6:31 - 6:34Ezzel egy időben az Egyesült
Államok kongresszusának -
6:34 - 6:37mindkét háza előtt
meghallgatásokat tartottak, -
6:37 - 6:41hogy fény derüljön a botok szerepére
a félrevezető információk terjesztésében. -
6:41 - 6:42Így ezt is tanulmányoztuk –
-
6:42 - 6:46nagyon kifinomult bot-érzékelő
algoritmust használtunk, -
6:46 - 6:49hogy az adatainkból kiszűrjük a botokat.
-
6:49 - 6:52Eltávolítottuk őket, majd visszaraktuk,
-
6:52 - 6:55hogy összehasonlítsuk,
mi történik a méréseinkkel. -
6:55 - 6:57Úgy találtuk, hogy a botok valóban
-
6:57 - 7:01felgyorsították az álhírek
online terjedését, -
7:01 - 7:04ám nagyjából ugyanilyen sebességgel
gyorsították fel -
7:04 - 7:06az igaz hírek terjedését is.
-
7:06 - 7:09Vagyis a botok nem játszanak
szerepet abban, -
7:09 - 7:14hogy miért terjednek különböző
sebességgel az igaz és az álhírek. -
7:14 - 7:17Nem tolhatjuk le magunkról a felelősséget,
-
7:17 - 7:21mert mi, emberek vagyunk
felelősek a terjesztésükért. -
7:22 - 7:26Na most, mindaz, amiről eddig meséltem,
-
7:26 - 7:28mindannyiunk szerencsétlenségére,
-
7:28 - 7:29ez volt a jó hír.
-
7:31 - 7:35Miért? Mert ez az egész
csak sokkal rosszabb lesz. -
7:36 - 7:40Két technológia fogja tovább rontani.
-
7:40 - 7:45A szintetikus média nagyarányú
térhódításának leszünk tanúi. -
7:45 - 7:51Hamis videók, hamis hanganyagok,
ránézésre igen meggyőző minőségben. -
7:51 - 7:54Ezt két technológia fogja elősegíteni.
-
7:54 - 7:58Először is ott az úgynevezett
"generatív ellenséges hálózat". -
7:58 - 8:01Ez egy gépi tanulási modell
két hálózattal: -
8:01 - 8:02van egy diszkriminátor,
-
8:02 - 8:06ennek a feladata eldönteni,
hogy valami igaz-e vagy hamis, -
8:06 - 8:08és van a generátor,
-
8:08 - 8:11ennek az a dolga, hogy
szintetikus médiát állítson elő. -
8:11 - 8:16Tehát a szintetikus generátor szintetikus
videót vagy hanganyagot hoz létre, -
8:16 - 8:21majd a diszkriminátor megpróbálja
eldönteni, igaz-e vagy hamis a mű. -
8:21 - 8:24Tulajdonképp a generátor dolga
mindent megtenni azért, -
8:24 - 8:28hogy átverje a diszkriminátort úgy,
-
8:28 - 8:32hogy az valódinak vélje
a szintetikus videót -
8:32 - 8:33vagy hanganyagot, amit létrehozott.
-
8:33 - 8:36Képzeljenek el egy
hiperhurokban lévő gépet, -
8:36 - 8:39amely egyre ügyesebben
próbál átverni bennünket. -
8:39 - 8:42A másik technológiával kombinálva,
-
8:42 - 8:46mely alapvetően hozzáférést ad
a mesterséges intelligenciához, -
8:46 - 8:50vagyis lehetővé teszi bárkinek,
hogy ezekkel az algoritmusokkal -
8:50 - 8:52anélkül állítson elő szintetikus médiát,
-
8:52 - 8:54hogy bármit is tudna
-
8:54 - 8:58a mesterséges intelligenciáról
vagy a gépi tanulásról, -
8:58 - 9:02ez végső soron sokkal jobban
megkönnyíti videók létrehozását. -
9:02 - 9:07A Fehér Ház közzétett egy hamis,
megkozmetikázott videót, -
9:07 - 9:11amelyen egy gyakornok el akarja venni
egy újságíró mikrofonját. -
9:11 - 9:13Kivágtak képkockákat a videóból,
-
9:13 - 9:17hogy az egész ütősebbnek tűnjék.
-
9:17 - 9:21Amikor videósokat
és kaszkadőröket kérdeztek -
9:21 - 9:23erről a fajta technikáról,
-
9:23 - 9:27azt mondták: "Igen, a mozifilmekben
állandóan használjuk ezt a technikát, -
9:27 - 9:32hogy az ütések és rúgások sokkal
hevesebbnek és vadabbnak tűnjenek." -
9:32 - 9:34Közzétették ezt a videót,
-
9:34 - 9:37s részben igazolásként használták arra,
-
9:37 - 9:40miért vonják vissza Jim Acosta újságíró
-
9:40 - 9:42Fehér Ház-beli sajtóbelépőjét.
-
9:42 - 9:47A CNN csak perben tudta visszaállíttatni
ennek a sajtóbelépőnek az érvényességét. -
9:49 - 9:54Nagyjából ötféle lehetőség jut eszembe,
-
9:54 - 9:58hogyan beszélhetnénk a jelen eme
súlyos problémái közül néhányról. -
9:58 - 10:00Mindegyik ígéretes,
-
10:00 - 10:03de mindegyik kihívásokkal jár.
-
10:03 - 10:05Az egyik a feliratozás.
-
10:05 - 10:07Csak gondoljanak arra,
-
10:07 - 10:10amikor elmennek a boltba
élelmiszert venni. -
10:10 - 10:12Minden agyon van címkézve.
-
10:12 - 10:14Tudják, mennyi benne a kalória,
-
10:14 - 10:16mennyi a zsírtartalma –
-
10:16 - 10:20ám ha információkat fogadunk be,
azt mindenféle címkézés nélkül tesszük. -
10:20 - 10:22Mit tartalmaz ez az információ?
-
10:22 - 10:24Megbízható a forrása?
-
10:24 - 10:26Honnan származik ez az információ?
-
10:26 - 10:28Ezek egyikét sem tudjuk,
-
10:28 - 10:30mikor informálódunk valamiről.
-
10:30 - 10:33Ez egy lehetséges út,
de kihívásokkal teli. -
10:33 - 10:40Például ki döntse el a társadalmon
belül, mi igaz, mi hamis? -
10:40 - 10:42A kormányaink?
-
10:42 - 10:43A Facebook?
-
10:44 - 10:47Egy független, tényvalódiságot
vizsgáló konzorcium? -
10:47 - 10:50És ki ellenőrzi a tények
valódiságát ellenőrzőket? -
10:50 - 10:54Egy másik lehetséges út az ösztönzés.
-
10:54 - 10:56Tudjuk, hogy az amerikai
elnökválasztás alatt -
10:56 - 11:00érkezett Makedóniából
egy információhullám, -
11:00 - 11:02amelynek nem politikai,
-
11:02 - 11:05hanem gazdasági motivációja volt.
-
11:05 - 11:07Ez a gazdasági motiváció
azért létezhetett, -
11:07 - 11:10mert az álhírek ennyivel
messzebbre, gyorsabban, -
11:10 - 11:12több megosztásba
jutnak el, mint az igazak, -
11:13 - 11:17és ezekkel a fajta információkkal
hirdetésből származó bevételre -
11:17 - 11:19és figyelemre tehetnek szert.
-
11:19 - 11:23Ám ha vissza tudnánk szorítani az
ilyesfajta információk terjedését, -
11:23 - 11:26a gazdasági motiváció is kisebb lenne,
-
11:26 - 11:29amiért az ilyen híreket
elsősorban létrehozzák. -
11:29 - 11:31Egy harmadik lehetőség a szabályozás,
-
11:31 - 11:34és feltétlenül át kell gondolnunk ezt is.
-
11:34 - 11:36Jelenleg az Egyesült Államokban
azt vizsgáljuk, -
11:36 - 11:40mi történne, ha a Facebookot
és hasonlókat szabályoznánk. -
11:40 - 11:44Bár meg kellene fontoljunk olyasmit,
mint a politikai beszédek szabályozása: -
11:44 - 11:47jelölni a tényt, hogy
politikai beszédről van szó, -
11:47 - 11:51megakadályozni, hogy külföldi színészek
politikai beszédeket finanszírozzanak, -
11:51 - 11:53ennek is megvannak a maga veszélyei.
-
11:54 - 11:58Például Malajziában most törvényesítették,
hogy hat év börtönnel sújtható bárki, -
11:58 - 12:01akit hamis információk terjesztésén érnek.
-
12:02 - 12:04A tekintélyelvű rezsimekben
-
12:04 - 12:08az effajta törvénykezést a kisebbségi
vélemény elnyomására lehet használni, -
12:08 - 12:12és fokozni az elnyomást.
-
12:13 - 12:16A negyedik lehetőség az átláthatóság.
-
12:17 - 12:21Tudni akarjuk, hogyan működik
a Facebook algoritmusa. -
12:21 - 12:23Hogyan "dolgozik össze"
az adat és az algoritmus, -
12:23 - 12:26hogy a végén ez legyen a végkimenetel?
-
12:26 - 12:29Szeretnénk, ha lelepleznék
-
12:29 - 12:33a Facebook pontos belső működését.
-
12:33 - 12:36Ha tudni szeretnénk, milyen
hatással van a társadalomra -
12:36 - 12:38a közösségi média, tudósokra, kutatókra
-
12:38 - 12:41van szükségünk, hogy hozzáférjünk
az ilyesfajta információkhoz. -
12:41 - 12:43Ugyanakkor azt is elvárjuk a Facebooktól,
-
12:43 - 12:46hogy zárjon el mindent,
-
12:46 - 12:49tartsa biztonságban az adatokat.
-
12:49 - 12:52Így a Facebook és hasonló közösségi
platformok azzal szembesülnek, -
12:52 - 12:55amit én átláthatósági
paradoxonnak nevezek. -
12:55 - 12:58Egyszerre kérjük,
-
12:58 - 13:03hogy legyenek nyitottak és átláthatóak,
és ezzel párhuzamosan biztonságosak. -
13:03 - 13:05Ezeknek nagyon nehéz egyszerre megfelelni,
-
13:06 - 13:07de valahogy meg kell felelniük,
-
13:07 - 13:11ha megvalósítjuk a közösségi
technológiák ígéretét, -
13:11 - 13:13miközben elkerüljük veszélyeiket.
-
13:13 - 13:18Végül számba vehetjük az algoritmusok
és gépi tanulás nyújtotta lehetőségeit is. -
13:18 - 13:23Olyan technológia kell, mely képes
feltárni és megérteni az álhíreket, -
13:23 - 13:25terjedésük módját, majd elfojtani azt.
-
13:26 - 13:29Az embernek ott kell lennie ebben
a technológiai megoldásban, -
13:29 - 13:31mert tagadhatatlan,
-
13:31 - 13:35hogy amikor letesszük voksunkat
egy technológiai megoldás mellett, -
13:35 - 13:39az alapvető filozófiai és etikai
kérdéseket vet fel arról, -
13:39 - 13:42hogyan definiáljuk az
igazságot és valótlant, -
13:42 - 13:46kinek adjuk a hatalmat, hogy
ezeket meghatározza, -
13:46 - 13:48mely vélemények legitimek,
-
13:48 - 13:52mely típusú beszélyek legyenek
engedélyezettek, és hasonlók. -
13:52 - 13:54A technológia nem nyújt erre megoldást.
-
13:54 - 13:58Erre az etika és a filozófia
jelent megoldást. -
13:59 - 14:02Az emberi döntéshozatal,
együttműködés és irányítás -
14:02 - 14:05szinte minden nézetének középpontjában
-
14:05 - 14:09ott az igazság feltételezése.
-
14:09 - 14:11Ám az álhírek felemelkedésével,
-
14:11 - 14:13a hamisított videók
-
14:13 - 14:15és hangfelvételek terjedésével
-
14:15 - 14:19a valóság végének peremén tántorgunk,
-
14:19 - 14:23ahol képtelenek vagyunk megkülönböztetni
a valóságot a valótlanságtól. -
14:23 - 14:26Ez pedig valószínűleg
hihetetlen veszélyes. -
14:27 - 14:31Éberen kell óvnunk az igazságot
-
14:31 - 14:32a félrevezető információk ellen:
-
14:33 - 14:36műszaki megoldásokkal, szabályokkal
-
14:36 - 14:38és – ami talán még fontosabb –,
-
14:38 - 14:42egyéni felelősségvállalás,
-
14:42 - 14:45döntések, viselkedés és tettek révén.
-
14:46 - 14:47Köszönöm szépen.
-
14:47 - 14:51(Taps)
- Title:
- Így védhető meg az igazság a félrevezető információk korában
- Speaker:
- Sinan Aral
- Description:
-
Az álhírek képesek befolyásolni a választásokat, megbuktatni a gazdaságot és viszályt szítani mindennapjainkban. Sinan Aral adatkutató lerántja a leplet, hogyan és miért terjednek ilyen gyorsan – idézve a félrevezető információkról készült legnagyobb cikkből –, és bemutat öt stratégiát is, melyek segítenek kibogozni az igazság és valótlan összegubancolódott hálóját.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Csaba Lóki approved Hungarian subtitles for How we can protect truth in the age of misinformation | ||
Csaba Lóki edited Hungarian subtitles for How we can protect truth in the age of misinformation | ||
Andi Vida commented on Hungarian subtitles for How we can protect truth in the age of misinformation | ||
Eva Danko commented on Hungarian subtitles for How we can protect truth in the age of misinformation | ||
Andi Vida commented on Hungarian subtitles for How we can protect truth in the age of misinformation | ||
Csaba Lóki edited Hungarian subtitles for How we can protect truth in the age of misinformation | ||
Andi Vida accepted Hungarian subtitles for How we can protect truth in the age of misinformation | ||
Andi Vida edited Hungarian subtitles for How we can protect truth in the age of misinformation |
Andi Vida
Hopp, a cím után ott maradt egy pont - ezer bocs!
Eva Danko
Ez legyen a legnagyobb baj, Andi :-)
Andi Vida
Évi: :DDD