چگونه در عصر اطلاعات جعلی میتوانیم از حقیقت محافظت کنیم
-
0:01 - 0:07خب در ۲۳ آوریل سال ۲۰۱۳،
-
0:07 - 0:12آسوشیتد پرس توئیتی در صفحهاش گذاشت.
-
0:12 - 0:15که نوشته شده بود: «خبر فوری:
-
0:15 - 0:17در دو انفجار در کاخ سفید
-
0:17 - 0:20باراک اوباما مجروح شده است.»
-
0:20 - 0:26این توئیت در کمتر از ۵ دقیقه
۴۰۰۰ بار توئیت مجدد شد، -
0:26 - 0:28و بعد از آن فراگیر شد.
-
0:29 - 0:33خب خبر این توئیت آسوشیتد پرس حقیقت نداشت.
-
0:33 - 0:36در واقع خبری اشتباه یا جعلی بود،
-
0:36 - 0:39که توسط هکرهای سوری پخش شده بود
-
0:39 - 0:44که در توئیتر آسوشیتد پرس نفوذ کرده بود.
-
0:44 - 0:48هدف آنها ایجاد اختلال در جامعه بود اما
موجب اختلال خیلی شدیدتری شدند. -
0:48 - 0:51چون الگوریتمهای خودکار تجاری
-
0:51 - 0:54بلافاصله با این توئیت
تحت تاثیر قرار گرفتند، -
0:54 - 0:57و شروع به داد وستد بر اساس
این پتانسیل کردند که -
0:57 - 1:01رئیس جمهور ایالات متحده آمریکا
مجروح در این انفجار -
1:01 - 1:02یا کشته شده است.
-
1:02 - 1:04و به محض اینکه آنها شروع به توئیت کردند،
-
1:04 - 1:08بلافاصله بازار سهام سقوط کرد،
-
1:08 - 1:13۱۴۰ میلیارد دلار
ارزش سهام در یک روز از بین رفت. -
1:13 - 1:18رابرت مولر مشاور ویژه
دادستان ایالات متحده آمریکا، -
1:18 - 1:21علیه سه شرکت روسی و همینطور ۱۳ فرد روسی
-
1:21 - 1:24کیفرخواست صادر کرد.
-
1:24 - 1:27این کیفرخواست دررابطه با توطئهی
فریب دادن ایالات متحده آمریکا -
1:27 - 1:31با مداخله درانتخابات
سال ۲۰۱۶ ریاست جمهوری بود. -
1:32 - 1:35و داستان این کیفر خواست چه بود
-
1:35 - 1:39داستان آژانس پژوهشی اینترنت بود،
-
1:39 - 1:42بازوی پنهان کرملین در رسانههای اجتماعی.
-
1:43 - 1:46فقط در مدت انتخابات ریاست جمهوری،
-
1:46 - 1:48با تلاشهای آژانس اینترنتی
-
1:48 - 1:53۱۲۶ میلیون نفردر امریکا از طریق فیس بوک،
-
1:53 - 1:56به توئیت سه میلیون نفر
-
1:56 - 2:00و معادل ۴۳ ساعت محتوای یوتیوب
دسترسی پیدا کردند. -
2:00 - 2:02که همه جعلی بودند--
-
2:02 - 2:08اطلاعات جعلی برای ایجاد اختلاف نظر در
انتخابات ریاست جمهوری ایالات متحده آمریکا. -
2:09 - 2:12پژوهش اخیر دانشگاه آکسفورد
-
2:12 - 2:15نشان داد که در انتخابات اخیر سوئد،
-
2:15 - 2:19یک سوم ازاطلاعات اشاعه داده شده
در رسانههای اجتماعی -
2:19 - 2:21در مورد انتخابات
-
2:21 - 2:23اطلاعات جعلی و یا اشتباه بودند.
-
2:23 - 2:28به علاوه این نوع از کمپینهای
اطلاعات اشتباه رسانههای اجتماعی -
2:28 - 2:32میتوانند چیزی باعنوان
«تبلیغ نسل کشی» گسترش دهند، -
2:32 - 2:35برای مثال علیه روهینگیا در برمه،
-
2:35 - 2:38تحریک اوباش، موجب کشته شدن مردم در هند شد.
-
2:38 - 2:39ما خبرهای جعلی را بررسی کردیم
-
2:39 - 2:43وشروع به بررسی آنها
قبل آنکه فراگیرشدنشان کردیم. -
2:43 - 2:48اخیرا ما بزرگترین
پژوهش طولی را -
2:48 - 2:50در مورد انتشار آنلاین
اخبار جعلی منتشر کردهایم -
2:50 - 2:54در ماه مارس امسال با عنوان «علم».
-
2:55 - 2:59ما تمام اخبار تایید شده
درست و غلط را مطالعه کردیم -
2:59 - 3:00که تا به حال در توئیترمنتشر شدهاند،
-
3:00 - 3:04از ابتدای سال ۲۰۰۶ تا ۲۰۱۷.
-
3:05 - 3:07و وقتی داشتیم این اطلاعات
را مطالعه میکردیم، -
3:07 - 3:10اخباری را مورد مطالعه قرار دادیم
که تایید شده بودند -
3:10 - 3:14تایید این اخبار از طرف ۶ سازمان مستقل
حقیقت یاب اتفاق افتاده بود. -
3:14 - 3:17پس میدانستیم کدام یک از خبرها درست هستند
-
3:17 - 3:19و کدام یک اشتباه.
-
3:19 - 3:21میزان انتشارشان قابل اندازیگیری است،
-
3:21 - 3:22سرعت انتشار هم همینطور،
-
3:22 - 3:24همینطور عمق و وسعت آنها،
-
3:24 - 3:29چند نفر در این نوع از
انتشار اطلاعات گرفتار شدهاند. -
3:29 - 3:30و ما در این مقاله چه کردیم
-
3:30 - 3:34ما انتشار اخبار درست و غلط
را باهم مقایسه کردیم. -
3:34 - 3:36و این چیزی است که ما به آن رسیدیم.
-
3:36 - 3:40ما متوجه شدیم که اخبار غلط
بیشتر، سریعتر و عمیقتر پخش میشوند -
3:40 - 3:42بسیار گستردهتر از خبر واقعی
-
3:42 - 3:45در همه دسته بندیهای اطلاعاتی
ما مطالعه کردیم، -
3:45 - 3:47بعضی مواقع با ایجاد یک بزرگنمایی.
-
3:48 - 3:51و در واقع اخبار سیاسی غلط
در صدر این انتشار بودند. -
3:51 - 3:55انتشاراخبار سیاسی بیشتر و
سریعتر و عمیقتر و بسیار گستردهتر -
3:55 - 3:57از دیگر انواع خبرها بود.
-
3:57 - 3:59وقتی این را فهمیدیم،
-
3:59 - 4:02نه تنها نگران بودیم
بلکه کنجکاو هم شده بودیم. -
4:02 - 4:03چرا؟
-
4:03 - 4:06چرا باید اخبارغلط
بسیار بیشتر، سریعتر و عمیقتر -
4:06 - 4:08ازاخبار صحیح پخش شود؟
-
4:08 - 4:11فرضیه اولی که ما به آن رسیدیم این بود که،
-
4:11 - 4:16«شاید منتشرکنندگان اخبار جعلی، فالوئر زیاد
دارند یا نفرات زیادی را دنبال میکنند، -
4:16 - 4:18یا توئیت بیشتری میکنند،
-
4:18 - 4:22یا شاید اغلب آنها کاربران
مورد تایید توئیتر بودند با اعتبار زیاد، -
4:22 - 4:24یا شاید مدت زمان زیادی
هست که درتوئیتر هستند.» -
4:24 - 4:26پس ما هریک از اینها را
به ترتیب چک کردیم. -
4:27 - 4:30و آنچه که به آن رسیدیم دقیقا برعکس بود.
-
4:30 - 4:32انتشاردهندگان اخبار اشتباه
دنبال کنندگان کمی دارند، -
4:32 - 4:34نفرات کمی را دنبال میکنند
که فعالیت کمی دارند، -
4:34 - 4:36و اغلب کمتر «تایید شدهاند»
-
4:36 - 4:39و سابقه حضورشان در توئیتر کم بود.
-
4:39 - 4:40و هنوز،
-
4:40 - 4:45به نظر میرسد که اخبار اشتباه ۷۰ درصد
بیشتر از اخبار درست توئیت مجدد میشود، -
4:45 - 4:48که همه اینها و دیگر عوامل را کنترل میکند.
-
4:48 - 4:51خب ما مجبور شدیم توضیحات دیگری ارائه دهیم.
-
4:51 - 4:55و فرضیه جدید را ابداع کردیم.
-
4:55 - 4:57خوب اگر ادبیات خوانده باشید،
-
4:57 - 5:01واضح است که انسان توجه اش
به چیزهای جدید جلب میشود، -
5:01 - 5:03چیزهایی که در محیط جدید هستند.
-
5:03 - 5:05و اگر ادبیات جامعه شناسی خوانده باشید،
-
5:05 - 5:10میدانید که همه ما دوست داریم
مطالب جدید به اشتراک بگذاریم. -
5:10 - 5:14این باعث میشود که ما اینطور به نظر برسیم
که دسترسی به اطلاعات داخل داریم، -
5:14 - 5:17و با انتشار این اطلاعات
اوضاع را تحت کنترل داریم. -
5:18 - 5:24پس کاری که ما میکنیم سنجش میزان
جدید بودن توئیتهای درست و یا غلط، -
5:24 - 5:28در مقایسه با مجموع نوشتههایی
که یک فرد دیده است -
5:28 - 5:31در ۶۰ روز قبل در توئیتر.
-
5:31 - 5:34اما این کافی نبود چون ما
به خودمان فکر کردیم، -
5:34 - 5:38«خب شاید اخبارغلط در مفهوم
اطلاعات نظری بسیار جدیدتر بودند، -
5:38 - 5:41اما شاید مردم آنرا جدید تلقی نکنند.»
-
5:42 - 5:46پس برای فهم تلقی مردم از اخبار غلط،
-
5:46 - 5:49ما نگاهی به اطلاعات و احساسات انداختیم
-
5:50 - 5:54که شامل پاسخ به توئیتهای غلط و درست بود.
-
5:54 - 5:55و آنچه که به آن رسیدیم
-
5:55 - 5:59میان مجموعهای از احساسات --
-
5:59 - 6:03تعجب، نفرت، ترس، اندوه،
-
6:03 - 6:05انتظار، شادی و اعتماد--
-
6:05 - 6:11اخبار غلط بطور معناداری
تعجب و نفرت را بیشتر نشان میدادند -
6:11 - 6:14در پاسخ به توئیتهای غلط.
-
6:14 - 6:18و اخبار درست به طور معناداری
انتظار بیشتری را به نمایش گذاشته بودند، -
6:18 - 6:20و البته شادی و اعتماد
-
6:20 - 6:22در پاسخ به توئیتهای درست.
-
6:22 - 6:26تعجب, تایید کننده فرضیه جدید ما است.
-
6:26 - 6:31جدید و تعجب آور است و میخواهیم
که آن را به اشتراک بگذاریم. -
6:31 - 6:34در همان زمان کنگرهای
-
6:34 - 6:37در مقابل دو ساختمان کنگره
در ایالات متحده، -
6:37 - 6:41با عنوان نگاهی به نقش رباتها
در انتشاراطلاعات غلط برگزار می شد. -
6:41 - 6:42خب ما این را هم بررسی کردیم-
-
6:42 - 6:46و ما از الگوریتمهای
تشخیص ربات استفاده نمودیم -
6:46 - 6:49تا رباتها را در دادههای خود
پیدا و آنها را بیرون بیاندازیم. -
6:49 - 6:52خب ما آنها را بیرون انداختیم
و دوباره بازگرداندیم -
6:52 - 6:55و مقایسه کردیم که چه اتفاقی
برای معیار سنجش ما افتاد. -
6:55 - 6:57وچیزی که پیدا کردیم این بود که، بله واقعا،
-
6:57 - 7:01رباتها به گسترش اخبار غلط
در فضای اینترنت سرعت میبخشند، -
7:01 - 7:04اما آنها به انتشار اخبار
درست هم سرعت میدادند -
7:04 - 7:06تقریبا با همان میزان.
-
7:06 - 7:09که به این معناست که رباتها مسئول
-
7:09 - 7:14تعیین میزان تغییرات انتشار
درست یا غلط بودن نیستند. -
7:14 - 7:17ما نمیتوانیم از این مسئولیت
چشمپوشی کنیم، -
7:17 - 7:21چون ما انسانها مسئول انتشار آن هستیم.
-
7:22 - 7:26خب تا اینجا هر چیزی را که به شما گفتم،
-
7:26 - 7:28متاسفانه برای همه ما،
-
7:28 - 7:29اخبار خوب است.
-
7:31 - 7:35دلیل این است که قرار است بدتر از این شود.
-
7:36 - 7:40و دو تکنولوژی خاص اوضاع را بدتر میکنند.
-
7:40 - 7:45ما منتظر ظهور موج عظیمی
از رسانههای مصنوعی هستیم. -
7:45 - 7:51ویدئوهای جعلی, فایلهای صوتی جعلی
که به نظر انسان متقاعدکننده هستند. -
7:51 - 7:54که توسط دو تکنولوژی طراحی میشود.
-
7:54 - 7:58نام یکی از آنها
«شبکه های مخالف مولد» است. -
7:58 - 8:01این یک مدل یادگیری ماشینی با دو شبکه است:
-
8:01 - 8:02یک تفکیک کننده،
-
8:02 - 8:06که کارش تعیین این است که
آیا چیزی درست است یا نه، -
8:06 - 8:08و یک مولد،
-
8:08 - 8:11که کارش تولید رسانه مصنوعی است.
-
8:11 - 8:16بنابراین ژنراتور مصنوعی
ویدئو و صدای مصنوعی تولید میکند، -
8:16 - 8:21و تفکیک کننده سعی میکند تشخیص
دهد که «این درست است یا جعلی»؟ -
8:21 - 8:24و در واقع این کار ژنراتور است
-
8:24 - 8:28که شباهت را به حداکثر برساند
و تفکیک کننده فریب بخورد -
8:28 - 8:32و فکر کند که ویدئو و صدای تولید شده
-
8:32 - 8:33واقعا درست است.
-
8:33 - 8:36ماشینی درهایپرلوپ (سیستم سریع حمل ونقل)
مجسم کنید، -
8:36 - 8:39که در فریب دادن ما
هر روز بهتر و بهتر میشود. -
8:39 - 8:42این، ترکیبی از تکنولوژی نسل دوم است که،
-
8:42 - 8:47در واقع دموکراتیک سازی
هوش مصنوعی برای مردم است، -
8:47 - 8:50توانایی برای هر کسی،
-
8:50 - 8:52بدون هیچ پیشینه خاصی در هوش مصنوعی
-
8:52 - 8:54یا آموزش ماشینی،
-
8:54 - 8:58برای بکارگیری این نوع از
الگوریتمها برای تولید رسانه مصنوعی -
8:58 - 9:02که در نهایت فرآیند تولید ویدئو
را آسانتر میکند. -
9:02 - 9:07کاخ سفید یک ویدئوی
جعلی و دستکاری شده -
9:07 - 9:11یک خبرنگاررا که با یک کارآموزدر تعامل بود
سعی داشت میکروفنش را پس بگیرد، پخش کرد. -
9:11 - 9:13آنها فریمهایی از ویدئو را حذف کرده بودند
-
9:13 - 9:17بطوری که کارهای او تاثیرگذار به نظر برسد.
-
9:17 - 9:21و وقتی فیلمبرداران و بدلکاران و زنان
-
9:21 - 9:23درمورد این نوع از تکنیک مصاحبه کردند،
-
9:23 - 9:27گفتند «بله ما از این همیشه در
فیلمها استفاده میکنیم -
9:27 - 9:32تا مشت و لگدهایمان
واقعیتر و تهاجمیتر به نظر برسد.» -
9:32 - 9:34آنها این ویدئو را بیرون دادند
-
9:34 - 9:37و تا حدی از آن برای حذف
-
9:37 - 9:41جیمآکوستا استفاده کردند، او خبرنگارپرسپس
(کارتی که خبرنگارازمحدودیت معاف میشود) -
9:41 - 9:42از کاخ سفید بود.
-
9:42 - 9:47و CNN باید شکایت کند تا
کارت پرس بازگردانده شود. -
9:49 - 9:54حدود ۵ راه مختلف وجود دارد که
من فکر میکنم میتوانیم پیگیری کنیم -
9:54 - 9:58و امروز به برخی از این
مشکلات خیلی سخت بپردازیم. -
9:58 - 10:00هر کدام از آنها قولی دارند،
-
10:00 - 10:03اما هرکدام از آنها
چالشهای خاص خود را دارند. -
10:03 - 10:05اولین مورد برچسب زدن است.
-
10:05 - 10:07اینطور به آن فکر کنید:
-
10:07 - 10:10وقتی به فروشگاه موادغذایی
برای خرید غذای مصرفی میروید، -
10:10 - 10:12برچسب بزرگی روی آن وجود دارد.
-
10:12 - 10:14میدانید که چقدر کالری دارد،
-
10:14 - 10:16چقدر چربی دارد--
-
10:16 - 10:20با اینحال وقتی اطلاعاتی
ارائه میکنیم برچسبی نداریم. -
10:20 - 10:22این اطلاعات چه محتوایی دارد؟
-
10:22 - 10:24آیا منبع معتبری دارد؟
-
10:24 - 10:26این اطلاعات از کجا جمع آوری میشوند؟
-
10:26 - 10:28ما هیچ کدام از آن اطلاعات را نداریم
-
10:28 - 10:30وقتی اطلاعاتی را استفاده میکنیم.
-
10:30 - 10:33این یک راه بالقوه است
اما با چالشهایی همراه است. -
10:33 - 10:40برای مثال، در جامعه چه کسی تصمیم میگیرد،
چه چیزی اشتباه و چه چیزی درست است؟ -
10:40 - 10:42دولتها؟
-
10:42 - 10:43فیس بوک؟
-
10:44 - 10:47آیا این یک کنسرسیوم ازافراد حقیقتیاب است؟
-
10:47 - 10:50چه کسی خود این افراد را چک میکند؟
-
10:50 - 10:54یکی دیگر از راههای بالقوه مشوقها هستند.
-
10:54 - 10:56ما میدانیم که طی انتخابات
ریاست جمهوری ایالات متحده -
10:56 - 11:00موجی از اطلاعات جعلی از مقدونیه میآمد
-
11:00 - 11:02هیچ انگیزه سیاسی پشت آن نبود
-
11:02 - 11:05اما در مقابل انگیزه اقتصادی در آن بود.
-
11:05 - 11:07و این انگیزه اقتصادی وجود داشت،
-
11:07 - 11:10چون اطلاعات غلط بسیار بیشتر و سریعتر
-
11:10 - 11:12وبسیارعمیقترازاطلاعات درست
جابهجا میشود، -
11:13 - 11:17و شما هم دلارهای تبلیغات را بدست میآورید
همانطور که توجهها را سمت خود جلب میکنید -
11:17 - 11:19با این نوع از اطلاعات.
-
11:19 - 11:23اما اگربتوانیم گسترش این اطلاعات
را تحت فشار قرار دهیم، -
11:23 - 11:26شاید انگیزه اقصادی را
-
11:26 - 11:29در همان وهله اول قبل از تولید کاهش دهد.
-
11:29 - 11:31سوم، میتوانیم در مورد مقررات فکر کنیم،
-
11:31 - 11:34و مطمئنا باید در این مورد فکر کنیم.
-
11:34 - 11:35درحال حاضردر ایالات متحده آمریکا،
-
11:35 - 11:40ما به دنبال آن هستیم که بدانیم چه اتفاقی
میافتد اگر فیس بوک و دیگران تنظیم شوند. -
11:40 - 11:44درحالی که ما باید مواردی چون نحوه
نظارت برسخنرانی سیاسی را در نظر بگیریم -
11:44 - 11:47با این برچسب که این یک
سخنرانی سیاسی است، -
11:47 - 11:51با حصول اطمینان از سرمایه گذاری نکردن
بازیگران خارجی از سخنرانی سیاسی، -
11:51 - 11:53که البته آن هم خطرات خودش را دارد.
-
11:54 - 11:58برای مثال، مالزی حکم شش سال
زندان صادر کرده است -
11:58 - 12:01برای کسانی که اطلاعات جعلی منتشر کنند.
-
12:02 - 12:04و در رژیمهای استبدادی،
-
12:04 - 12:08این نوع از سیاست برای سرکوب
عقاید اقلیت استفاده میشود -
12:08 - 12:12و سرکوب را افزایش میدهند.
-
12:13 - 12:16انتخاب چهارم شفافیت است.
-
12:17 - 12:21ما میخواهیم بدانیم الگوریتم
فیس بوک چگونه کار میکند. -
12:21 - 12:23چگونه دادهها با الگوریتمها ترکیب میشوند
-
12:23 - 12:26تا خروجی که میبینیم تولید شود؟
-
12:26 - 12:29از آنها میخواهیم کیمونو را باز کنند
-
12:29 - 12:33و به ما نشان بدهند که دقیقا در
لایههای داخلی فیس بوک چگونه کار میکند. -
12:33 - 12:36و اگر میخواهیم تاثیر
رسانه جمعی بر جامعه را بدانیم، -
12:36 - 12:38نیاز به دانشمند و محقق و دیگر
افرادی داریم -
12:38 - 12:41که دسترسی به این
نوع از اطلاعات داشته باشند. -
12:41 - 12:43اما هم زمان،
-
12:43 - 12:46از فیسبوک میخواهیم که همه چیزرا قفل کند،
-
12:46 - 12:49که همه آن دادهها در امنیت باشند.
-
12:49 - 12:52پس بستر فیس بوک و دیگر رسانه های جمعی
-
12:52 - 12:55با آنچه من شفافیت متناقض
مینامم, مواجه هستند. -
12:55 - 12:58ما همزمان از آنها خواستیم،
-
12:58 - 13:03باز و شفاف باشند و همزمان ایمن.
-
13:03 - 13:05خیلی سخت است که این سوزن نخ شود،
-
13:06 - 13:07اما آنها نیازدارند که
این سوزن را نخ کنند -
13:07 - 13:11اگر ما به وعده
فناوریهای اجتماعی دست پیدا کنیم -
13:11 - 13:13در حالیکه از
خطرات آنها جلوگیری شود -
13:13 - 13:18آخرین چیزی که میتوانیم به آن فکر کنیم،
الگوریتمها و آموزش ماشینی است. -
13:18 - 13:23فناوری برای ریشه کن کردن و درک اخبار جعلی
و چگونگی انتشار آن طراحی شده است، -
13:23 - 13:25که سعی در تعدیل جریان آن دارد.
-
13:26 - 13:29انسان ها باید از این تکنولوژی آگاه باشند،
-
13:29 - 13:31چون نمیتوانیم از آن فرار کنیم
-
13:31 - 13:35و پایه و اساس هر راه حل یا رویکرد فناوری
-
13:35 - 13:39یک سوال بنیادی اخلاقی و فلسفی است
-
13:39 - 13:42در مورد اینکه ما چگونه
درست و غلط را تعریف میکنیم، -
13:42 - 13:46به چه کسی این قدرت را میدهیم که
درست و غلط را تعریف کند -
13:46 - 13:48و کدام یک از نظرات موجه است،
-
13:48 - 13:52به کدام نوع از سخنرانی باید مجوز داده شود
و از این قبیل چیزها. -
13:52 - 13:54تکنولوژی یک راه حل برای آن نیست.
-
13:54 - 13:58اخلاقیات و فلسفه راه حل آن است.
-
13:59 - 14:02تقریبا هر نظریه تصمیم گیری انسانی،
-
14:02 - 14:05همکاری انسانی و هماهنگی انسانی
-
14:05 - 14:09در وجودش یک حس درست بودن وجود دارد.
-
14:09 - 14:11اما با ظهور اخبار جعلی،
-
14:11 - 14:13ظهور ویدئوهای جعلی،
-
14:13 - 14:15ظهور فایلهای صوتی جعلی،
-
14:15 - 14:19میتوان در مورد نزدیک شدن به
مرز پایان واقعیت صحبت کرد، -
14:19 - 14:23جایی که دیگر نمیتوان گفت
چه چیزی درست است و چه چیزی غلط. -
14:23 - 14:26و این بطور بالقوه فوق العاده خطرناک است.
-
14:27 - 14:31باید در دفاع از حقیقت در مقابل
-
14:31 - 14:32اطلاعات اشتباه هوشیار باشیم.
-
14:33 - 14:36با تکنولوژیمان، با سیاستهایمان
-
14:36 - 14:38و شاید مهمتر از همه چیز،
-
14:38 - 14:42با مسئولیت پذیری فردیمان،
-
14:42 - 14:45تصمیمات، رفتارها و عملکردها.
-
14:46 - 14:47خیلی ممنونم.
-
14:47 - 14:51(تشویق حضار)
- Title:
- چگونه در عصر اطلاعات جعلی میتوانیم از حقیقت محافظت کنیم
- Speaker:
- سینان آرال
- Description:
-
اخبار جعلی میتواند باعث تغییر در انتخابات و ایجاد اختلاف در زندگی روزمره شود. دانشمند داده، سینان آرال توضیح می دهد که چگونه و چرا این اطلاعات با این سرعت انتشار می یابد - با استناد به یکی از بزرگترین مطالعات در مورد اطلاعات جعلی- او پنج استراتژی را برای شناساندن شبکه درهم و برهم درست و غلط معرفی می کند.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Leila Ataei approved Persian subtitles for How we can protect truth in the age of misinformation | ||
Leila Ataei edited Persian subtitles for How we can protect truth in the age of misinformation | ||
Leila Ataei edited Persian subtitles for How we can protect truth in the age of misinformation | ||
Masoud Motamedifar accepted Persian subtitles for How we can protect truth in the age of misinformation | ||
Masoud Motamedifar edited Persian subtitles for How we can protect truth in the age of misinformation | ||
Masoud Motamedifar edited Persian subtitles for How we can protect truth in the age of misinformation | ||
Mitra Shishegari edited Persian subtitles for How we can protect truth in the age of misinformation | ||
Mitra Shishegari edited Persian subtitles for How we can protect truth in the age of misinformation |