0:00:01.468,0:00:06.690 2013. április 23-án 0:00:06.714,0:00:12.228 az Associated Press[br]ezt tette közzé a Twitteren: 0:00:12.252,0:00:14.649 "Friss hírek! 0:00:14.673,0:00:17.244 Két robbanás történt a Fehér Háznál, 0:00:17.268,0:00:19.601 Barack Obama megsérült." 0:00:20.212,0:00:25.637 Ezt a tweetet öt percen belül[br]4000-en osztották meg, 0:00:25.661,0:00:27.878 majd mindenfelé elterjedt az interneten. 0:00:28.760,0:00:33.110 Ezt a hírt valójában nem is[br]az Associated Press tette közzé. 0:00:33.134,0:00:36.467 Valótlan hír volt, álhír, 0:00:36.491,0:00:39.316 szíriai hackerek terjesztették, 0:00:39.340,0:00:44.034 akik beszivárogtak az Associated Press[br]Twitterének kezelői felületére. 0:00:44.407,0:00:48.296 A céljuk a társadalom megosztása volt,[br]de sokkal több mindent romboltak le. 0:00:48.320,0:00:50.796 Merthogy az automatizált[br]kereskedő algoritmusok 0:00:50.820,0:00:54.180 azonnal fogták a tweetre[br]adott érzelmi reakciókat, 0:00:54.204,0:00:57.172 és azon lehetőség alapján[br]kezdtek kereskedni, 0:00:57.196,0:01:00.577 hogy az Egyesült Államok elnöke[br]megsérült vagy életét vesztette 0:01:00.601,0:01:01.801 ebben a robbanásban. 0:01:02.188,0:01:04.180 Ahogy tweetelni kezdtek, 0:01:04.204,0:01:07.553 a tőzsde nyomban összeomlott, 0:01:07.577,0:01:12.744 140 milliárd dollárnyi vételi[br]értékű veszteséget okozva. 0:01:13.062,0:01:17.538 Robert Mueller, az Egyesült[br]Államok különleges ügyésze 0:01:17.562,0:01:21.454 három orosz cég[br]és 13 orosz magánszemély ellen 0:01:21.478,0:01:24.097 emelt vádat azzal a címszóval, 0:01:24.121,0:01:27.288 hogy összeesküvést szőttek[br]az Egyesült Államok ellen, 0:01:27.312,0:01:31.092 és beavatkoztak[br]a 2016-os elnökválasztásba. 0:01:31.855,0:01:35.419 Ez a vádirat számol be 0:01:35.443,0:01:38.585 az Internet Research Agency történetéről, 0:01:38.609,0:01:42.203 a Kreml által a háttérből[br]működtetett trollgyárról. 0:01:42.815,0:01:45.592 Az Internet Agency[br]csak az elnökválasztás idején 0:01:45.616,0:01:47.505 126 millió emberhez jutott el 0:01:47.529,0:01:52.696 Facebookon az Egyesült Államokban, 0:01:52.720,0:01:55.997 3 millió egyéni tweetet 0:01:56.021,0:01:59.863 és 43 órányi YouTube tartalmat tett közzé. 0:01:59.887,0:02:01.539 Ez mind hamis volt 0:02:01.563,0:02:07.886 – félrevezető információk, amelyek célja[br]viszályszítás volt a választások során. 0:02:08.996,0:02:11.646 Az Oxfordi Egyetem[br]egy újabb tanulmánya szerint 0:02:11.670,0:02:14.940 a nemrégiben lezajlott[br]svéd választások során 0:02:14.964,0:02:18.689 a közösségi médiában terjedő, 0:02:18.689,0:02:21.225 a választásokkal kapcsolatos[br]híreknek mintegy harmada 0:02:21.225,0:02:22.892 hamis vagy félrevezető volt. 0:02:23.037,0:02:28.115 Továbbá ezek a közösségi médiában terjedő,[br]félrevezetésre épülő kampányok 0:02:28.139,0:02:32.290 népirtó propagandaként működnek, 0:02:32.314,0:02:35.425 például a burmai rohingyák[br]esetében is ez történt, 0:02:35.449,0:02:37.752 Indiában lincseléseket idézve elő. 0:02:37.776,0:02:39.270 Tanulmányoztuk az álhíreket, 0:02:39.294,0:02:42.513 már akkor elkezdtük ezt, mielőtt[br]a kifejezés ismertté vált. 0:02:43.030,0:02:48.070 Márciusban pedig a Science magazin[br]vezércikkében tettük közzé 0:02:48.094,0:02:50.380 a valaha készült legnagyobb 0:02:50.404,0:02:53.608 követéses jellegű kutatást[br]az álhírek online terjedéséről. 0:02:54.523,0:02:58.684 Tanulmányoztuk az összes[br]hitelesítetten valós és álhírt, 0:02:58.708,0:03:00.461 amely valaha terjedt a Twitteren, 0:03:00.485,0:03:04.303 annak 2006-os indulásától kezdve 2017-ig. 0:03:04.612,0:03:06.926 Az információkat vizsgálva 0:03:06.950,0:03:09.826 új, hitelesített híreket tanulmányoztunk, 0:03:09.850,0:03:13.768 amelyeket hat független tényvizsgáló[br]szervezet ellenőrzött és igazolt. 0:03:13.792,0:03:16.554 Így tudtuk, mely történetek valósak, 0:03:16.578,0:03:18.704 melyek hamisak. 0:03:18.728,0:03:20.601 Mérni tudjuk a terjedésüket, 0:03:20.625,0:03:22.276 a terjedésük sebességét, 0:03:22.300,0:03:24.395 milyen széles körben[br]és mélységben terjednek, 0:03:24.419,0:03:28.561 hány ember keveredett bele ebbe[br]az információ-zuhatagba és így tovább. 0:03:28.942,0:03:30.426 Ebben a tanulmányban 0:03:30.450,0:03:34.315 összehasonlítottuk az igaz és hamis[br]hírek terjedésének sebességét. 0:03:34.339,0:03:36.022 Elmondom, mire jutottunk. 0:03:36.046,0:03:40.025 Az álhírek minden általunk tanulmányozott[br]kategóriában gyorsabban, szélesebb körben, 0:03:40.049,0:03:41.855 több megosztásban, messzebbre 0:03:41.879,0:03:44.882 terjedtek, mint a valósak, 0:03:44.906,0:03:47.405 néha egy teljes nagyságrend különbséggel. 0:03:47.842,0:03:51.366 A valóságban a hamis politikai hírek[br]terjedtek a leggyorsabban. 0:03:51.390,0:03:54.147 Gyorsabban, messzebbre,[br]több megosztásban, 0:03:54.147,0:03:57.363 szélesebb körben terjedtek,[br]mint bármilyen más típusú álhír. 0:03:57.387,0:03:58.680 Egyszerre láttuk 0:03:58.704,0:04:01.545 ijesztőnek és érdekesnek is. 0:04:01.569,0:04:02.720 Miért? 0:04:02.744,0:04:06.117 Az álhírek miért terjednek messzebbre,[br]gyorsabban, több megosztásban 0:04:06.141,0:04:08.005 szélesebb körben, mint a valódiak? 0:04:08.339,0:04:11.300 Az első feltevésünk ez volt: 0:04:11.324,0:04:16.116 "Nos, talán az álhírek terjesztőit többen[br]követik, vagy ők többeket követnek, 0:04:16.140,0:04:17.697 esetleg gyakrabban tweetelnek, 0:04:17.721,0:04:21.847 vagy talán többen is "ellenőrzött",[br]megbízhatóbbnak tűnő Twitter-felhasználók, 0:04:21.871,0:04:24.053 esetleg régebb óta Twitter tagok." 0:04:24.077,0:04:26.375 Ezek mindegyikét külön-külön megvizsgáltuk 0:04:26.691,0:04:29.611 – és pont az ellenkezőjére bukkantunk. 0:04:29.635,0:04:32.071 Az álhírek terjesztőit[br]kevesebben követték, 0:04:32.095,0:04:34.349 kevesebbeket követtek,[br]kevésbé voltak aktívak, 0:04:34.373,0:04:35.833 kevesebbszer "ellenőrzöttek", 0:04:35.857,0:04:38.817 és rövidebb ideje voltak[br]Twitter felhasználók. 0:04:38.841,0:04:41.424 Mégis, 70%-kal nagyobb valószínűséggel 0:04:41.424,0:04:45.087 osztják meg az álhíreket,[br]mint az igazakat, 0:04:45.111,0:04:48.474 ellenőrizve mindezeket,[br]és más tényezőket is. 0:04:48.498,0:04:51.188 Elő kellett hát állnunk[br]valami más magyarázattal. 0:04:51.212,0:04:54.679 Megalkottuk az elméletet, amit mi[br]"újszerűség-felvetésnek" neveztünk. 0:04:55.038,0:04:56.998 Ha olvassák a kapcsolódó szakirodalmat, 0:04:57.022,0:05:00.776 közismert, hogy az emberi[br]figyelmet az újszerűség kelti fel, 0:05:00.800,0:05:03.319 olyan dolgok, amik újak a környezetben. 0:05:03.343,0:05:05.328 Ha olvassák a szociológiai szakirodalmat, 0:05:05.352,0:05:09.652 tudják, hogy szeretünk[br]új információkat megosztani. 0:05:09.676,0:05:13.514 Úgy tűnünk általa, mintha bizalmas[br]információk birtokában lennénk, 0:05:13.538,0:05:17.323 és az effajta információk[br]terjesztése révén felértékelődünk. 0:05:17.792,0:05:24.244 Így aztán mérni kezdtük a bejövő[br]valós és álhírek újdonságtartalmát 0:05:24.268,0:05:28.323 ahhoz a hírhalmazhoz képest,[br]amit az egyén 0:05:28.347,0:05:31.299 az azt megelőző hatvan napban[br]látott a Twitteren. 0:05:31.323,0:05:33.982 Ám ez nem volt elég,[br]mert magunkban azt gondoltuk: 0:05:34.006,0:05:38.214 "Nos, talán információelméleti szempontból[br]az álhírek inkább számítanak újdonságnak, 0:05:38.238,0:05:41.496 de lehet, az emberek mégsem[br]érzékelik újszerűbbnek." 0:05:41.849,0:05:45.776 Ezért, hogy megértsük, hogyan[br]fogadják be az emberek az álhíreket, 0:05:45.800,0:05:49.490 megnéztük, milyen érzelmi reakciókat[br]váltanak ki az emberekből 0:05:49.514,0:05:53.720 az igaz és hamis tweetek. 0:05:54.022,0:05:55.228 Úgy találtuk, 0:05:55.252,0:05:59.466 hogy a sokféle érzelmi reakció között – 0:05:59.490,0:06:02.791 meglepetés, undor, félelem, szomorúság, 0:06:02.815,0:06:05.299 várakozás, öröm és bizalom – 0:06:05.323,0:06:11.180 az álhírt tartalmazó tweetek[br]esetében többször fordult elő 0:06:11.204,0:06:14.010 meglepetés és undor. 0:06:14.392,0:06:18.181 A valós híreket tartalmazó tweetekre pedig 0:06:18.205,0:06:19.752 inkább várakozással, 0:06:19.776,0:06:22.323 örömmel és bizalommal reagáltak. 0:06:22.347,0:06:26.133 A meglepetés alátámasztja[br]az "újszerűség-felvetésünket". 0:06:26.157,0:06:30.766 Új és meglepő, ezért sokkal[br]valószínűbb, hogy megosztjuk. 0:06:31.092,0:06:34.017 Ezzel egy időben az Egyesült[br]Államok kongresszusának 0:06:34.041,0:06:37.077 mindkét háza előtt[br]meghallgatásokat tartottak, 0:06:37.101,0:06:40.839 hogy fény derüljön a botok szerepére[br]a félrevezető információk terjesztésében. 0:06:40.863,0:06:42.217 Így ezt is tanulmányoztuk – 0:06:42.241,0:06:45.839 nagyon kifinomult bot-érzékelő[br]algoritmust használtunk, 0:06:45.863,0:06:48.937 hogy az adatainkból kiszűrjük a botokat. 0:06:49.347,0:06:52.006 Eltávolítottuk őket, majd visszaraktuk, 0:06:52.030,0:06:55.149 hogy összehasonlítsuk,[br]mi történik a méréseinkkel. 0:06:55.173,0:06:57.466 Úgy találtuk, hogy a botok valóban 0:06:57.490,0:07:01.172 felgyorsították az álhírek[br]online terjedését, 0:07:01.196,0:07:03.847 ám nagyjából ugyanilyen sebességgel[br]gyorsították fel 0:07:03.871,0:07:06.276 az igaz hírek terjedését is. 0:07:06.300,0:07:09.158 Vagyis a botok nem játszanak[br]szerepet abban, 0:07:09.182,0:07:13.895 hogy miért terjednek különböző[br]sebességgel az igaz és az álhírek. 0:07:13.919,0:07:16.768 Nem tolhatjuk le magunkról a felelősséget, 0:07:16.792,0:07:21.051 mert mi, emberek vagyunk[br]felelősek a terjesztésükért. 0:07:22.472,0:07:25.806 Na most, mindaz, amiről eddig meséltem, 0:07:25.830,0:07:27.584 mindannyiunk szerencsétlenségére, 0:07:27.608,0:07:28.869 ez volt a jó hír. 0:07:30.670,0:07:35.120 Miért? Mert ez az egész[br]csak sokkal rosszabb lesz. 0:07:35.850,0:07:39.532 Két technológia fogja tovább rontani. 0:07:40.207,0:07:45.379 A szintetikus média nagyarányú[br]térhódításának leszünk tanúi. 0:07:45.403,0:07:51.434 Hamis videók, hamis hanganyagok,[br]ránézésre igen meggyőző minőségben. 0:07:51.458,0:07:54.212 Ezt két technológia fogja elősegíteni. 0:07:54.236,0:07:58.069 Először is ott az úgynevezett[br]"generatív ellenséges hálózat". 0:07:58.093,0:08:00.656 Ez egy gépi tanulási modell[br]két hálózattal: 0:08:00.680,0:08:02.227 van egy diszkriminátor, 0:08:02.251,0:08:06.451 ennek a feladata eldönteni,[br]hogy valami igaz-e vagy hamis, 0:08:06.475,0:08:07.642 és van a generátor, 0:08:07.666,0:08:10.816 ennek az a dolga, hogy[br]szintetikus médiát állítson elő. 0:08:10.840,0:08:15.942 Tehát a szintetikus generátor szintetikus[br]videót vagy hanganyagot hoz létre, 0:08:15.966,0:08:20.641 majd a diszkriminátor megpróbálja[br]eldönteni, igaz-e vagy hamis a mű. 0:08:20.665,0:08:23.539 Tulajdonképp a generátor dolga[br]mindent megtenni azért, 0:08:23.563,0:08:27.998 hogy átverje a diszkriminátort úgy, 0:08:28.022,0:08:31.609 hogy az valódinak vélje[br]a szintetikus videót 0:08:31.633,0:08:33.363 vagy hanganyagot, amit létrehozott. 0:08:33.387,0:08:35.760 Képzeljenek el egy[br]hiperhurokban lévő gépet, 0:08:35.784,0:08:38.587 amely egyre ügyesebben[br]próbál átverni bennünket. 0:08:39.114,0:08:41.614 A másik technológiával kombinálva, 0:08:41.638,0:08:46.390 mely alapvetően hozzáférést ad[br]a mesterséges intelligenciához, 0:08:46.390,0:08:49.573 vagyis lehetővé teszi bárkinek,[br]hogy ezekkel az algoritmusokkal 0:08:49.597,0:08:52.427 anélkül állítson elő szintetikus médiát, 0:08:52.451,0:08:53.633 hogy bármit is tudna 0:08:53.657,0:08:57.760 a mesterséges intelligenciáról[br]vagy a gépi tanulásról, 0:08:57.784,0:09:02.331 ez végső soron sokkal jobban[br]megkönnyíti videók létrehozását. 0:09:02.355,0:09:06.776 A Fehér Ház közzétett egy hamis,[br]megkozmetikázott videót, 0:09:06.800,0:09:11.088 amelyen egy gyakornok el akarja venni[br]egy újságíró mikrofonját. 0:09:11.427,0:09:13.426 Kivágtak képkockákat a videóból, 0:09:13.450,0:09:16.737 hogy az egész ütősebbnek tűnjék. 0:09:17.157,0:09:20.542 Amikor videósokat[br]és kaszkadőröket kérdeztek 0:09:20.566,0:09:22.993 erről a fajta technikáról, 0:09:23.017,0:09:26.845 azt mondták: "Igen, a mozifilmekben[br]állandóan használjuk ezt a technikát, 0:09:26.869,0:09:31.632 hogy az ütések és rúgások sokkal[br]hevesebbnek és vadabbnak tűnjenek." 0:09:32.268,0:09:34.135 Közzétették ezt a videót, 0:09:34.159,0:09:36.659 s részben igazolásként használták arra, 0:09:36.683,0:09:39.592 miért vonják vissza Jim Acosta újságíró 0:09:39.592,0:09:42.045 Fehér Ház-beli sajtóbelépőjét. 0:09:42.069,0:09:46.878 A CNN csak perben tudta visszaállíttatni[br]ennek a sajtóbelépőnek az érvényességét. 0:09:48.538,0:09:54.141 Nagyjából ötféle lehetőség jut eszembe, 0:09:54.165,0:09:57.904 hogyan beszélhetnénk a jelen eme[br]súlyos problémái közül néhányról. 0:09:58.379,0:10:00.189 Mindegyik ígéretes, 0:10:00.213,0:10:03.212 de mindegyik kihívásokkal jár. 0:10:03.236,0:10:05.244 Az egyik a feliratozás. 0:10:05.268,0:10:06.625 Csak gondoljanak arra, 0:10:06.649,0:10:10.260 amikor elmennek a boltba[br]élelmiszert venni. 0:10:10.284,0:10:12.188 Minden agyon van címkézve. 0:10:12.212,0:10:14.204 Tudják, mennyi benne a kalória, 0:10:14.228,0:10:16.029 mennyi a zsírtartalma – 0:10:16.053,0:10:20.331 ám ha információkat fogadunk be,[br]azt mindenféle címkézés nélkül tesszük. 0:10:20.355,0:10:22.283 Mit tartalmaz ez az információ? 0:10:22.307,0:10:23.760 Megbízható a forrása? 0:10:23.784,0:10:26.101 Honnan származik ez az információ? 0:10:26.125,0:10:27.950 Ezek egyikét sem tudjuk, 0:10:27.974,0:10:30.077 mikor informálódunk valamiről. 0:10:30.101,0:10:33.339 Ez egy lehetséges út,[br]de kihívásokkal teli. 0:10:33.363,0:10:39.814 Például ki döntse el a társadalmon[br]belül, mi igaz, mi hamis? 0:10:40.387,0:10:42.029 A kormányaink? 0:10:42.053,0:10:43.203 A Facebook? 0:10:43.601,0:10:47.363 Egy független, tényvalódiságot[br]vizsgáló konzorcium? 0:10:47.387,0:10:49.853 És ki ellenőrzi a tények[br]valódiságát ellenőrzőket? 0:10:50.427,0:10:53.511 Egy másik lehetséges út az ösztönzés. 0:10:53.535,0:10:56.169 Tudjuk, hogy az amerikai[br]elnökválasztás alatt 0:10:56.193,0:10:59.883 érkezett Makedóniából[br]egy információhullám, 0:10:59.907,0:11:02.244 amelynek nem politikai, 0:11:02.268,0:11:04.728 hanem gazdasági motivációja volt. 0:11:04.752,0:11:06.900 Ez a gazdasági motiváció[br]azért létezhetett, 0:11:06.924,0:11:10.448 mert az álhírek ennyivel[br]messzebbre, gyorsabban, 0:11:10.472,0:11:12.482 több megosztásba[br]jutnak el, mint az igazak, 0:11:12.506,0:11:17.466 és ezekkel a fajta információkkal[br]hirdetésből származó bevételre 0:11:17.490,0:11:19.450 és figyelemre tehetnek szert. 0:11:19.474,0:11:23.307 Ám ha vissza tudnánk szorítani az[br]ilyesfajta információk terjedését, 0:11:23.331,0:11:26.228 a gazdasági motiváció is kisebb lenne, 0:11:26.252,0:11:28.942 amiért az ilyen híreket[br]elsősorban létrehozzák. 0:11:28.966,0:11:31.466 Egy harmadik lehetőség a szabályozás, 0:11:31.490,0:11:33.815 és feltétlenül át kell gondolnunk ezt is. 0:11:33.839,0:11:36.324 Jelenleg az Egyesült Államokban[br]azt vizsgáljuk, 0:11:36.324,0:11:40.322 mi történne, ha a Facebookot[br]és hasonlókat szabályoznánk. 0:11:40.346,0:11:44.147 Bár meg kellene fontoljunk olyasmit,[br]mint a politikai beszédek szabályozása: 0:11:44.171,0:11:46.679 jelölni a tényt, hogy[br]politikai beszédről van szó, 0:11:46.703,0:11:50.522 megakadályozni, hogy külföldi színészek[br]politikai beszédeket finanszírozzanak, 0:11:50.546,0:11:53.093 ennek is megvannak a maga veszélyei. 0:11:53.522,0:11:58.400 Például Malajziában most törvényesítették,[br]hogy hat év börtönnel sújtható bárki, 0:11:58.424,0:12:01.158 akit hamis információk terjesztésén érnek. 0:12:01.696,0:12:03.775 A tekintélyelvű rezsimekben 0:12:03.799,0:12:08.465 az effajta törvénykezést a kisebbségi[br]vélemény elnyomására lehet használni, 0:12:08.489,0:12:11.997 és fokozni az elnyomást. 0:12:12.680,0:12:16.223 A negyedik lehetőség az átláthatóság. 0:12:16.843,0:12:20.557 Tudni akarjuk, hogyan működik[br]a Facebook algoritmusa. 0:12:20.581,0:12:23.461 Hogyan "dolgozik össze"[br]az adat és az algoritmus, 0:12:23.485,0:12:26.323 hogy a végén ez legyen a végkimenetel? 0:12:26.347,0:12:28.696 Szeretnénk, ha lelepleznék 0:12:28.720,0:12:32.934 a Facebook pontos belső működését. 0:12:32.958,0:12:35.737 Ha tudni szeretnénk, milyen[br]hatással van a társadalomra 0:12:35.761,0:12:37.847 a közösségi média, tudósokra, kutatókra 0:12:37.871,0:12:41.014 van szükségünk, hogy hozzáférjünk[br]az ilyesfajta információkhoz. 0:12:41.038,0:12:43.385 Ugyanakkor azt is elvárjuk a Facebooktól, 0:12:43.409,0:12:46.410 hogy zárjon el mindent, 0:12:46.434,0:12:48.607 tartsa biztonságban az adatokat. 0:12:48.631,0:12:51.790 Így a Facebook és hasonló közösségi[br]platformok azzal szembesülnek, 0:12:51.814,0:12:54.948 amit én átláthatósági[br]paradoxonnak nevezek. 0:12:55.266,0:12:57.940 Egyszerre kérjük, 0:12:57.964,0:13:02.773 hogy legyenek nyitottak és átláthatóak,[br]és ezzel párhuzamosan biztonságosak. 0:13:02.797,0:13:05.488 Ezeknek nagyon nehéz egyszerre megfelelni, 0:13:05.512,0:13:07.425 de valahogy meg kell felelniük, 0:13:07.449,0:13:11.236 ha megvalósítjuk a közösségi[br]technológiák ígéretét, 0:13:11.260,0:13:12.902 miközben elkerüljük veszélyeiket. 0:13:12.926,0:13:17.617 Végül számba vehetjük az algoritmusok[br]és gépi tanulás nyújtotta lehetőségeit is. 0:13:17.641,0:13:22.918 Olyan technológia kell, mely képes[br]feltárni és megérteni az álhíreket, 0:13:22.942,0:13:25.273 terjedésük módját, majd elfojtani azt. 0:13:25.824,0:13:28.721 Az embernek ott kell lennie ebben[br]a technológiai megoldásban, 0:13:28.745,0:13:31.023 mert tagadhatatlan, 0:13:31.047,0:13:35.085 hogy amikor letesszük voksunkat[br]egy technológiai megoldás mellett, 0:13:35.109,0:13:39.156 az alapvető filozófiai és etikai[br]kérdéseket vet fel arról, 0:13:39.180,0:13:42.450 hogyan definiáljuk az[br]igazságot és valótlant, 0:13:42.474,0:13:45.654 kinek adjuk a hatalmat, hogy[br]ezeket meghatározza, 0:13:45.678,0:13:48.138 mely vélemények legitimek, 0:13:48.162,0:13:51.868 mely típusú beszélyek legyenek[br]engedélyezettek, és hasonlók. 0:13:51.892,0:13:54.220 A technológia nem nyújt erre megoldást. 0:13:54.244,0:13:57.942 Erre az etika és a filozófia[br]jelent megoldást. 0:13:58.950,0:14:02.268 Az emberi döntéshozatal,[br]együttműködés és irányítás 0:14:02.292,0:14:05.053 szinte minden nézetének középpontjában 0:14:05.077,0:14:08.751 ott az igazság feltételezése. 0:14:09.347,0:14:11.403 Ám az álhírek felemelkedésével, 0:14:11.427,0:14:12.870 a hamisított videók 0:14:12.894,0:14:14.776 és hangfelvételek terjedésével 0:14:14.800,0:14:18.724 a valóság végének peremén tántorgunk, 0:14:18.748,0:14:22.637 ahol képtelenek vagyunk megkülönböztetni[br]a valóságot a valótlanságtól. 0:14:22.661,0:14:25.700 Ez pedig valószínűleg[br]hihetetlen veszélyes. 0:14:26.931,0:14:30.879 Éberen kell óvnunk az igazságot 0:14:30.903,0:14:32.437 a félrevezető információk ellen: 0:14:32.919,0:14:36.355 műszaki megoldásokkal, szabályokkal 0:14:36.379,0:14:38.299 és – ami talán még fontosabb –, 0:14:38.323,0:14:41.537 egyéni felelősségvállalás, 0:14:41.561,0:14:45.116 döntések, viselkedés és tettek révén. 0:14:45.553,0:14:46.990 Köszönöm szépen. 0:14:47.014,0:14:50.531 (Taps)