2013. április 23-án
az Associated Press
ezt tette közzé a Twitteren:
"Friss hírek!
Két robbanás történt a Fehér Háznál,
Barack Obama megsérült."
Ezt a tweetet öt percen belül
4000-en osztották meg,
majd mindenfelé elterjedt az interneten.
Ezt a hírt valójában nem is
az Associated Press tette közzé.
Valótlan hír volt, álhír,
szíriai hackerek terjesztették,
akik beszivárogtak az Associated Press
Twitterének kezelői felületére.
A céljuk a társadalom megosztása volt,
de sokkal több mindent romboltak le.
Merthogy az automatizált
kereskedő algoritmusok
azonnal fogták a tweetre
adott érzelmi reakciókat,
és azon lehetőség alapján
kezdtek kereskedni,
hogy az Egyesült Államok elnöke
megsérült vagy életét vesztette
ebben a robbanásban.
Ahogy tweetelni kezdtek,
a tőzsde nyomban összeomlott,
140 milliárd dollárnyi vételi
értékű veszteséget okozva.
Robert Mueller, az Egyesült
Államok különleges ügyésze
három orosz cég
és 13 orosz magánszemély ellen
emelt vádat azzal a címszóval,
hogy összeesküvést szőttek
az Egyesült Államok ellen,
és beavatkoztak
a 2016-os elnökválasztásba.
Ez a vádirat számol be
az Internet Research Agency történetéről,
a Kreml által a háttérből
működtetett trollgyárról.
Az Internet Agency
csak az elnökválasztás idején
126 millió emberhez jutott el
Facebookon az Egyesült Államokban,
3 millió egyéni tweetet
és 43 órányi YouTube tartalmat tett közzé.
Ez mind hamis volt
– félrevezető információk, amelyek célja
viszályszítás volt a választások során.
Az Oxfordi Egyetem
egy újabb tanulmánya szerint
a nemrégiben lezajlott
svéd választások során
a közösségi médiában terjedő,
a választásokkal kapcsolatos
híreknek mintegy harmada
hamis vagy félrevezető volt.
Továbbá ezek a közösségi médiában terjedő,
félrevezetésre épülő kampányok
népirtó propagandaként működnek,
például a burmai rohingyák
esetében is ez történt,
Indiában lincseléseket idézve elő.
Tanulmányoztuk az álhíreket,
már akkor elkezdtük ezt, mielőtt
a kifejezés ismertté vált.
Márciusban pedig a Science magazin
vezércikkében tettük közzé
a valaha készült legnagyobb
követéses jellegű kutatást
az álhírek online terjedéséről.
Tanulmányoztuk az összes
hitelesítetten valós és álhírt,
amely valaha terjedt a Twitteren,
annak 2006-os indulásától kezdve 2017-ig.
Az információkat vizsgálva
új, hitelesített híreket tanulmányoztunk,
amelyeket hat független tényvizsgáló
szervezet ellenőrzött és igazolt.
Így tudtuk, mely történetek valósak,
melyek hamisak.
Mérni tudjuk a terjedésüket,
a terjedésük sebességét,
milyen széles körben
és mélységben terjednek,
hány ember keveredett bele ebbe
az információ-zuhatagba és így tovább.
Ebben a tanulmányban
összehasonlítottuk az igaz és hamis
hírek terjedésének sebességét.
Elmondom, mire jutottunk.
Az álhírek minden általunk tanulmányozott
kategóriában gyorsabban, szélesebb körben,
több megosztásban, messzebbre
terjedtek, mint a valósak,
néha egy teljes nagyságrend különbséggel.
A valóságban a hamis politikai hírek
terjedtek a leggyorsabban.
Gyorsabban, messzebbre,
több megosztásban,
szélesebb körben terjedtek,
mint bármilyen más típusú álhír.
Egyszerre láttuk
ijesztőnek és érdekesnek is.
Miért?
Az álhírek miért terjednek messzebbre,
gyorsabban, több megosztásban
szélesebb körben, mint a valódiak?
Az első feltevésünk ez volt:
"Nos, talán az álhírek terjesztőit többen
követik, vagy ők többeket követnek,
esetleg gyakrabban tweetelnek,
vagy talán többen is "ellenőrzött",
megbízhatóbbnak tűnő Twitter-felhasználók,
esetleg régebb óta Twitter tagok."
Ezek mindegyikét külön-külön megvizsgáltuk
– és pont az ellenkezőjére bukkantunk.
Az álhírek terjesztőit
kevesebben követték,
kevesebbeket követtek,
kevésbé voltak aktívak,
kevesebbszer "ellenőrzöttek",
és rövidebb ideje voltak
Twitter felhasználók.
Mégis, 70%-kal nagyobb valószínűséggel
osztják meg az álhíreket,
mint az igazakat,
ellenőrizve mindezeket,
és más tényezőket is.
Elő kellett hát állnunk
valami más magyarázattal.
Megalkottuk az elméletet, amit mi
"újszerűség-felvetésnek" neveztünk.
Ha olvassák a kapcsolódó szakirodalmat,
közismert, hogy az emberi
figyelmet az újszerűség kelti fel,
olyan dolgok, amik újak a környezetben.
Ha olvassák a szociológiai szakirodalmat,
tudják, hogy szeretünk
új információkat megosztani.
Úgy tűnünk általa, mintha bizalmas
információk birtokában lennénk,
és az effajta információk
terjesztése révén felértékelődünk.
Így aztán mérni kezdtük a bejövő
valós és álhírek újdonságtartalmát
ahhoz a hírhalmazhoz képest,
amit az egyén
az azt megelőző hatvan napban
látott a Twitteren.
Ám ez nem volt elég,
mert magunkban azt gondoltuk:
"Nos, talán információelméleti szempontból
az álhírek inkább számítanak újdonságnak,
de lehet, az emberek mégsem
érzékelik újszerűbbnek."
Ezért, hogy megértsük, hogyan
fogadják be az emberek az álhíreket,
megnéztük, milyen érzelmi reakciókat
váltanak ki az emberekből
az igaz és hamis tweetek.
Úgy találtuk,
hogy a sokféle érzelmi reakció között –
meglepetés, undor, félelem, szomorúság,
várakozás, öröm és bizalom –
az álhírt tartalmazó tweetek
esetében többször fordult elő
meglepetés és undor.
A valós híreket tartalmazó tweetekre pedig
inkább várakozással,
örömmel és bizalommal reagáltak.
A meglepetés alátámasztja
az "újszerűség-felvetésünket".
Új és meglepő, ezért sokkal
valószínűbb, hogy megosztjuk.
Ezzel egy időben az Egyesült
Államok kongresszusának
mindkét háza előtt
meghallgatásokat tartottak,
hogy fény derüljön a botok szerepére
a félrevezető információk terjesztésében.
Így ezt is tanulmányoztuk –
nagyon kifinomult bot-érzékelő
algoritmust használtunk,
hogy az adatainkból kiszűrjük a botokat.
Eltávolítottuk őket, majd visszaraktuk,
hogy összehasonlítsuk,
mi történik a méréseinkkel.
Úgy találtuk, hogy a botok valóban
felgyorsították az álhírek
online terjedését,
ám nagyjából ugyanilyen sebességgel
gyorsították fel
az igaz hírek terjedését is.
Vagyis a botok nem játszanak
szerepet abban,
hogy miért terjednek különböző
sebességgel az igaz és az álhírek.
Nem tolhatjuk le magunkról a felelősséget,
mert mi, emberek vagyunk
felelősek a terjesztésükért.
Na most, mindaz, amiről eddig meséltem,
mindannyiunk szerencsétlenségére,
ez volt a jó hír.
Miért? Mert ez az egész
csak sokkal rosszabb lesz.
Két technológia fogja tovább rontani.
A szintetikus média nagyarányú
térhódításának leszünk tanúi.
Hamis videók, hamis hanganyagok,
ránézésre igen meggyőző minőségben.
Ezt két technológia fogja elősegíteni.
Először is ott az úgynevezett
"generatív ellenséges hálózat".
Ez egy gépi tanulási modell
két hálózattal:
van egy diszkriminátor,
ennek a feladata eldönteni,
hogy valami igaz-e vagy hamis,
és van a generátor,
ennek az a dolga, hogy
szintetikus médiát állítson elő.
Tehát a szintetikus generátor szintetikus
videót vagy hanganyagot hoz létre,
majd a diszkriminátor megpróbálja
eldönteni, igaz-e vagy hamis a mű.
Tulajdonképp a generátor dolga
mindent megtenni azért,
hogy átverje a diszkriminátort úgy,
hogy az valódinak vélje
a szintetikus videót
vagy hanganyagot, amit létrehozott.
Képzeljenek el egy
hiperhurokban lévő gépet,
amely egyre ügyesebben
próbál átverni bennünket.
A másik technológiával kombinálva,
mely alapvetően hozzáférést ad
a mesterséges intelligenciához,
vagyis lehetővé teszi bárkinek,
hogy ezekkel az algoritmusokkal
anélkül állítson elő szintetikus médiát,
hogy bármit is tudna
a mesterséges intelligenciáról
vagy a gépi tanulásról,
ez végső soron sokkal jobban
megkönnyíti videók létrehozását.
A Fehér Ház közzétett egy hamis,
megkozmetikázott videót,
amelyen egy gyakornok el akarja venni
egy újságíró mikrofonját.
Kivágtak képkockákat a videóból,
hogy az egész ütősebbnek tűnjék.
Amikor videósokat
és kaszkadőröket kérdeztek
erről a fajta technikáról,
azt mondták: "Igen, a mozifilmekben
állandóan használjuk ezt a technikát,
hogy az ütések és rúgások sokkal
hevesebbnek és vadabbnak tűnjenek."
Közzétették ezt a videót,
s részben igazolásként használták arra,
miért vonják vissza Jim Acosta újságíró
Fehér Ház-beli sajtóbelépőjét.
A CNN csak perben tudta visszaállíttatni
ennek a sajtóbelépőnek az érvényességét.
Nagyjából ötféle lehetőség jut eszembe,
hogyan beszélhetnénk a jelen eme
súlyos problémái közül néhányról.
Mindegyik ígéretes,
de mindegyik kihívásokkal jár.
Az egyik a feliratozás.
Csak gondoljanak arra,
amikor elmennek a boltba
élelmiszert venni.
Minden agyon van címkézve.
Tudják, mennyi benne a kalória,
mennyi a zsírtartalma –
ám ha információkat fogadunk be,
azt mindenféle címkézés nélkül tesszük.
Mit tartalmaz ez az információ?
Megbízható a forrása?
Honnan származik ez az információ?
Ezek egyikét sem tudjuk,
mikor informálódunk valamiről.
Ez egy lehetséges út,
de kihívásokkal teli.
Például ki döntse el a társadalmon
belül, mi igaz, mi hamis?
A kormányaink?
A Facebook?
Egy független, tényvalódiságot
vizsgáló konzorcium?
És ki ellenőrzi a tények
valódiságát ellenőrzőket?
Egy másik lehetséges út az ösztönzés.
Tudjuk, hogy az amerikai
elnökválasztás alatt
érkezett Makedóniából
egy információhullám,
amelynek nem politikai,
hanem gazdasági motivációja volt.
Ez a gazdasági motiváció
azért létezhetett,
mert az álhírek ennyivel
messzebbre, gyorsabban,
több megosztásba
jutnak el, mint az igazak,
és ezekkel a fajta információkkal
hirdetésből származó bevételre
és figyelemre tehetnek szert.
Ám ha vissza tudnánk szorítani az
ilyesfajta információk terjedését,
a gazdasági motiváció is kisebb lenne,
amiért az ilyen híreket
elsősorban létrehozzák.
Egy harmadik lehetőség a szabályozás,
és feltétlenül át kell gondolnunk ezt is.
Jelenleg az Egyesült Államokban
azt vizsgáljuk,
mi történne, ha a Facebookot
és hasonlókat szabályoznánk.
Bár meg kellene fontoljunk olyasmit,
mint a politikai beszédek szabályozása:
jelölni a tényt, hogy
politikai beszédről van szó,
megakadályozni, hogy külföldi színészek
politikai beszédeket finanszírozzanak,
ennek is megvannak a maga veszélyei.
Például Malajziában most törvényesítették,
hogy hat év börtönnel sújtható bárki,
akit hamis információk terjesztésén érnek.
A tekintélyelvű rezsimekben
az effajta törvénykezést a kisebbségi
vélemény elnyomására lehet használni,
és fokozni az elnyomást.
A negyedik lehetőség az átláthatóság.
Tudni akarjuk, hogyan működik
a Facebook algoritmusa.
Hogyan "dolgozik össze"
az adat és az algoritmus,
hogy a végén ez legyen a végkimenetel?
Szeretnénk, ha lelepleznék
a Facebook pontos belső működését.
Ha tudni szeretnénk, milyen
hatással van a társadalomra
a közösségi média, tudósokra, kutatókra
van szükségünk, hogy hozzáférjünk
az ilyesfajta információkhoz.
Ugyanakkor azt is elvárjuk a Facebooktól,
hogy zárjon el mindent,
tartsa biztonságban az adatokat.
Így a Facebook és hasonló közösségi
platformok azzal szembesülnek,
amit én átláthatósági
paradoxonnak nevezek.
Egyszerre kérjük,
hogy legyenek nyitottak és átláthatóak,
és ezzel párhuzamosan biztonságosak.
Ezeknek nagyon nehéz egyszerre megfelelni,
de valahogy meg kell felelniük,
ha megvalósítjuk a közösségi
technológiák ígéretét,
miközben elkerüljük veszélyeiket.
Végül számba vehetjük az algoritmusok
és gépi tanulás nyújtotta lehetőségeit is.
Olyan technológia kell, mely képes
feltárni és megérteni az álhíreket,
terjedésük módját, majd elfojtani azt.
Az embernek ott kell lennie ebben
a technológiai megoldásban,
mert tagadhatatlan,
hogy amikor letesszük voksunkat
egy technológiai megoldás mellett,
az alapvető filozófiai és etikai
kérdéseket vet fel arról,
hogyan definiáljuk az
igazságot és valótlant,
kinek adjuk a hatalmat, hogy
ezeket meghatározza,
mely vélemények legitimek,
mely típusú beszélyek legyenek
engedélyezettek, és hasonlók.
A technológia nem nyújt erre megoldást.
Erre az etika és a filozófia
jelent megoldást.
Az emberi döntéshozatal,
együttműködés és irányítás
szinte minden nézetének középpontjában
ott az igazság feltételezése.
Ám az álhírek felemelkedésével,
a hamisított videók
és hangfelvételek terjedésével
a valóság végének peremén tántorgunk,
ahol képtelenek vagyunk megkülönböztetni
a valóságot a valótlanságtól.
Ez pedig valószínűleg
hihetetlen veszélyes.
Éberen kell óvnunk az igazságot
a félrevezető információk ellen:
műszaki megoldásokkal, szabályokkal
és – ami talán még fontosabb –,
egyéni felelősségvállalás,
döntések, viselkedés és tettek révén.
Köszönöm szépen.
(Taps)