Return to Video

چگونه در عصر اطلاعات جعلی می‌توانیم از حقیقت محافظت کنیم

  • 0:01 - 0:07
    خب در ۲۳ آوریل سال ۲۰۱۳،
  • 0:07 - 0:12
    آسوشیتد پرس توئیتی در صفحه‌اش گذاشت.
  • 0:12 - 0:15
    که نوشته شده بود: «خبر فوری:
  • 0:15 - 0:17
    در دو انفجار در کاخ سفید
  • 0:17 - 0:20
    باراک اوباما مجروح شده است.»
  • 0:20 - 0:26
    این توئیت در کمتر از ۵ دقیقه
    ۴۰۰۰ بار توئیت مجدد شد،
  • 0:26 - 0:28
    و بعد از آن فراگیر شد.
  • 0:29 - 0:33
    خب خبر این توئیت آسوشیتد پرس حقیقت نداشت.
  • 0:33 - 0:36
    در واقع خبری اشتباه یا جعلی بود،
  • 0:36 - 0:39
    که توسط هکرهای سوری پخش شده بود
  • 0:39 - 0:44
    که در توئیتر آسوشیتد پرس نفوذ کرده بود.
  • 0:44 - 0:48
    هدف آنها ایجاد اختلال در جامعه بود اما
    موجب اختلال خیلی شدیدتری شدند.
  • 0:48 - 0:51
    چون الگوریتم‌های خودکار تجاری
  • 0:51 - 0:54
    بلافاصله با این توئیت
    تحت تاثیر قرار گرفتند،
  • 0:54 - 0:57
    و شروع به داد وستد بر اساس
    این پتانسیل کردند که
  • 0:57 - 1:01
    رئیس جمهور ایالات متحده آمریکا
    مجروح در این انفجار
  • 1:01 - 1:02
    یا کشته شده است.
  • 1:02 - 1:04
    و به محض اینکه آنها شروع به توئیت کردند،
  • 1:04 - 1:08
    بلافاصله بازار سهام سقوط کرد،
  • 1:08 - 1:13
    ۱۴۰ میلیارد دلار
    ارزش سهام در یک روز از بین رفت.
  • 1:13 - 1:18
    رابرت مولر مشاور ویژه
    دادستان ایالات متحده آمریکا،
  • 1:18 - 1:21
    علیه سه شرکت روسی و همینطور ۱۳ فرد روسی
  • 1:21 - 1:24
    کیفرخواست صادر کرد.
  • 1:24 - 1:27
    این کیفرخواست دررابطه با توطئه‌ی
    فریب دادن ایالات متحده آمریکا
  • 1:27 - 1:31
    با مداخله درانتخابات
    سال ۲۰۱۶ ریاست جمهوری بود.
  • 1:32 - 1:35
    و داستان این کیفر خواست چه بود
  • 1:35 - 1:39
    داستان آژانس پژوهشی اینترنت بود،
  • 1:39 - 1:42
    بازوی پنهان کرملین در رسانه‌های اجتماعی.
  • 1:43 - 1:46
    فقط در مدت انتخابات ریاست جمهوری،
  • 1:46 - 1:48
    با تلاش‌های آژانس اینترنتی
  • 1:48 - 1:53
    ۱۲۶ میلیون نفردر امریکا از طریق فیس بوک،
  • 1:53 - 1:56
    به توئیت سه میلیون نفر
  • 1:56 - 2:00
    و معادل ۴۳ ساعت محتوای یوتیوب
    دسترسی پیدا کردند.
  • 2:00 - 2:02
    که همه جعلی بودند--
  • 2:02 - 2:08
    اطلاعات جعلی برای ایجاد اختلاف نظر در
    انتخابات ریاست جمهوری ایالات متحده آمریکا.
  • 2:09 - 2:12
    پژوهش اخیر دانشگاه آکسفورد
  • 2:12 - 2:15
    نشان داد که در انتخابات اخیر سوئد،
  • 2:15 - 2:19
    یک سوم ازاطلاعات اشاعه داده شده
    در رسانه‌های اجتماعی
  • 2:19 - 2:21
    در مورد انتخابات
  • 2:21 - 2:23
    اطلاعات جعلی و یا اشتباه بودند.
  • 2:23 - 2:28
    به علاوه این نوع از کمپین‌های
    اطلاعات اشتباه رسانه‌های اجتماعی
  • 2:28 - 2:32
    می‌توانند چیزی باعنوان
    «تبلیغ نسل کشی» گسترش دهند،
  • 2:32 - 2:35
    برای مثال علیه روهینگیا در برمه،
  • 2:35 - 2:38
    تحریک اوباش، موجب کشته شدن مردم در هند شد.
  • 2:38 - 2:39
    ما خبرهای جعلی را بررسی کردیم
  • 2:39 - 2:43
    وشروع به بررسی آنها
    قبل آنکه فراگیرشدنشان کردیم.
  • 2:43 - 2:48
    اخیرا ما بزرگترین
    پژوهش طولی را
  • 2:48 - 2:50
    در مورد انتشار آنلاین
    اخبار جعلی منتشر کرده‌ایم
  • 2:50 - 2:54
    در ماه مارس امسال با عنوان «علم».
  • 2:55 - 2:59
    ما تمام اخبار تایید شده
    درست و غلط را مطالعه کردیم
  • 2:59 - 3:00
    که تا به حال در توئیترمنتشر شده‌اند،
  • 3:00 - 3:04
    از ابتدای سال ۲۰۰۶ تا ۲۰۱۷.
  • 3:05 - 3:07
    و وقتی داشتیم این اطلاعات
    را مطالعه می‌کردیم،
  • 3:07 - 3:10
    اخباری را مورد مطالعه قرار دادیم
    که تایید شده بودند
  • 3:10 - 3:14
    تایید این اخبار از طرف ۶ سازمان مستقل
    حقیقت یاب اتفاق افتاده بود.
  • 3:14 - 3:17
    پس می‌دانستیم کدام یک از خبرها درست هستند
  • 3:17 - 3:19
    و کدام یک اشتباه.
  • 3:19 - 3:21
    میزان انتشارشان قابل اندازی‌گیری است،
  • 3:21 - 3:22
    سرعت انتشار هم همینطور،
  • 3:22 - 3:24
    همینطور عمق و وسعت آنها،
  • 3:24 - 3:29
    چند نفر در این نوع از
    انتشار اطلاعات گرفتار شده‌اند.
  • 3:29 - 3:30
    و ما در این مقاله چه کردیم
  • 3:30 - 3:34
    ما انتشار اخبار درست و غلط
    را باهم مقایسه کردیم.
  • 3:34 - 3:36
    و این چیزی است که ما به آن رسیدیم.
  • 3:36 - 3:40
    ما متوجه شدیم که اخبار غلط
    بیشتر، سریعتر و عمیق‌تر پخش می‌شوند
  • 3:40 - 3:42
    بسیار گسترده‌تر از خبر واقعی
  • 3:42 - 3:45
    در همه دسته بندی‌های اطلاعاتی
    ما مطالعه کردیم،
  • 3:45 - 3:47
    بعضی مواقع با ایجاد یک بزرگنمایی.
  • 3:48 - 3:51
    و در واقع اخبار سیاسی غلط
    در صدر این انتشار بودند.
  • 3:51 - 3:55
    انتشاراخبار سیاسی بیشتر و
    سریع‌تر و عمیق‌تر و بسیار گسترده‌تر
  • 3:55 - 3:57
    از دیگر انواع خبرها بود.
  • 3:57 - 3:59
    وقتی این را فهمیدیم،
  • 3:59 - 4:02
    نه تنها نگران بودیم
    بلکه کنجکاو هم شده بودیم.
  • 4:02 - 4:03
    چرا؟
  • 4:03 - 4:06
    چرا باید اخبارغلط
    بسیار بیشتر، سریع‌تر و عمیق‌تر
  • 4:06 - 4:08
    ازاخبار صحیح پخش شود؟
  • 4:08 - 4:11
    فرضیه اولی که ما به آن رسیدیم این بود که،
  • 4:11 - 4:16
    «شاید منتشرکنندگان اخبار جعلی، فالوئر زیاد
    دارند یا نفرات زیادی را دنبال می‌کنند،
  • 4:16 - 4:18
    یا توئیت بیشتری می‌کنند،
  • 4:18 - 4:22
    یا شاید اغلب آنها کاربران
    مورد تایید توئیتر بودند با اعتبار زیاد،
  • 4:22 - 4:24
    یا شاید مدت زمان زیادی
    هست که درتوئیتر هستند.»
  • 4:24 - 4:26
    پس ما هریک از این‌ها را
    به ترتیب چک کردیم.
  • 4:27 - 4:30
    و آنچه که به آن رسیدیم دقیقا برعکس بود.
  • 4:30 - 4:32
    انتشاردهندگان اخبار اشتباه
    دنبال کنندگان کمی دارند،
  • 4:32 - 4:34
    نفرات کمی را دنبال می‌کنند
    که فعالیت کمی دارند،
  • 4:34 - 4:36
    و اغلب کمتر «تایید شده‌اند»
  • 4:36 - 4:39
    و سابقه حضورشان در توئیتر کم بود.
  • 4:39 - 4:40
    و هنوز،
  • 4:40 - 4:45
    به نظر می‌رسد که اخبار اشتباه ۷۰ درصد
    بیشتر از اخبار درست توئیت مجدد می‌شود،
  • 4:45 - 4:48
    که همه اینها و دیگر عوامل را کنترل می‌کند.
  • 4:48 - 4:51
    خب ما مجبور شدیم توضیحات دیگری ارائه دهیم.
  • 4:51 - 4:55
    و فرضیه جدید را ابداع کردیم.
  • 4:55 - 4:57
    خوب اگر ادبیات خوانده باشید،
  • 4:57 - 5:01
    واضح است که انسان توجه اش
    به چیزهای جدید جلب می‌شود،
  • 5:01 - 5:03
    چیزهایی که در محیط جدید هستند.
  • 5:03 - 5:05
    و اگر ادبیات جامعه شناسی خوانده باشید،
  • 5:05 - 5:10
    می‌دانید که همه ما دوست داریم
    مطالب جدید به اشتراک بگذاریم.
  • 5:10 - 5:14
    این باعث می‌شود که ما اینطور به نظر برسیم
    که دسترسی به اطلاعات داخل داریم،
  • 5:14 - 5:17
    و با انتشار این اطلاعات
    اوضاع را تحت کنترل داریم.
  • 5:18 - 5:24
    پس کاری که ما می‌کنیم سنجش میزان
    جدید بودن توئیت‌های درست و یا غلط،
  • 5:24 - 5:28
    در مقایسه با مجموع نوشته‌هایی
    که یک فرد دیده است
  • 5:28 - 5:31
    در ۶۰ روز قبل در توئیتر.
  • 5:31 - 5:34
    اما این کافی نبود چون ما
    به خودمان فکر کردیم،
  • 5:34 - 5:38
    «خب شاید اخبارغلط در مفهوم
    اطلاعات نظری بسیار جدیدتر بودند،
  • 5:38 - 5:41
    اما شاید مردم آنرا جدید تلقی نکنند.»
  • 5:42 - 5:46
    پس برای فهم تلقی مردم از اخبار غلط،
  • 5:46 - 5:49
    ما نگاهی به اطلاعات و احساسات انداختیم
  • 5:50 - 5:54
    که شامل پاسخ به توئیت‌های غلط و درست بود.
  • 5:54 - 5:55
    و آنچه که به آن رسیدیم
  • 5:55 - 5:59
    میان مجموعه‌ای از احساسات --
  • 5:59 - 6:03
    تعجب، نفرت، ترس، اندوه،
  • 6:03 - 6:05
    انتظار، شادی و اعتماد--
  • 6:05 - 6:11
    اخبار غلط بطور معناداری
    تعجب و نفرت را بیشتر نشان می‌دادند
  • 6:11 - 6:14
    در پاسخ به توئیت‌های غلط.
  • 6:14 - 6:18
    و اخبار درست به طور معناداری
    انتظار بیشتری را به نمایش گذاشته بودند،
  • 6:18 - 6:20
    و البته شادی و اعتماد
  • 6:20 - 6:22
    در پاسخ به توئیت‌های درست.
  • 6:22 - 6:26
    تعجب, تایید کننده فرضیه جدید ما است.
  • 6:26 - 6:31
    جدید و تعجب آور است و می‌خواهیم
    که آن را به اشتراک بگذاریم.
  • 6:31 - 6:34
    در همان زمان کنگره‌ای
  • 6:34 - 6:37
    در مقابل دو ساختمان کنگره
    در ایالات متحده،
  • 6:37 - 6:41
    با عنوان نگاهی به نقش ربات‌ها
    در انتشاراطلاعات غلط برگزار می شد.
  • 6:41 - 6:42
    خب ما این را هم بررسی کردیم-
  • 6:42 - 6:46
    و ما از الگوریتم‌های
    تشخیص ربات استفاده نمودیم
  • 6:46 - 6:49
    تا ربات‌ها را در داده‌های خود
    پیدا و آنها را بیرون بیاندازیم.
  • 6:49 - 6:52
    خب ما آنها را بیرون انداختیم
    و دوباره بازگرداندیم
  • 6:52 - 6:55
    و مقایسه کردیم که چه اتفاقی
    برای معیار سنجش ما افتاد.
  • 6:55 - 6:57
    وچیزی که پیدا کردیم این بود که، بله واقعا،
  • 6:57 - 7:01
    ربات‌ها به گسترش اخبار غلط
    در فضای اینترنت سرعت می‌بخشند،
  • 7:01 - 7:04
    اما آنها به انتشار اخبار
    درست هم سرعت می‌دادند
  • 7:04 - 7:06
    تقریبا با همان میزان.
  • 7:06 - 7:09
    که به این معناست که ربات‌ها مسئول
  • 7:09 - 7:14
    تعیین میزان تغییرات انتشار
    درست یا غلط بودن نیستند.
  • 7:14 - 7:17
    ما نمی‌توانیم از این مسئولیت
    چشم‌پوشی کنیم،
  • 7:17 - 7:21
    چون ما انسان‌ها مسئول انتشار آن هستیم.
  • 7:22 - 7:26
    خب تا اینجا هر چیزی را که به شما گفتم،
  • 7:26 - 7:28
    متاسفانه برای همه ما،
  • 7:28 - 7:29
    اخبار خوب است.
  • 7:31 - 7:35
    دلیل این است که قرار است بدتر از این شود.
  • 7:36 - 7:40
    و دو تکنولوژی خاص اوضاع را بدتر می‌کنند.
  • 7:40 - 7:45
    ما منتظر ظهور موج عظیمی
    از رسانه‌های مصنوعی هستیم.
  • 7:45 - 7:51
    ویدئوهای جعلی, فایل‌های صوتی جعلی
    که به نظر انسان متقاعدکننده هستند.
  • 7:51 - 7:54
    که توسط دو تکنولوژی طراحی می‌شود.
  • 7:54 - 7:58
    نام یکی از آن‌ها
    «شبکه های مخالف مولد» است.
  • 7:58 - 8:01
    این یک مدل یادگیری ماشینی با دو شبکه است:
  • 8:01 - 8:02
    یک تفکیک کننده،
  • 8:02 - 8:06
    که کارش تعیین این است که
    آیا چیزی درست است یا نه،
  • 8:06 - 8:08
    و یک مولد،
  • 8:08 - 8:11
    که کارش تولید رسانه مصنوعی است.
  • 8:11 - 8:16
    بنابراین ژنراتور مصنوعی
    ویدئو و صدای مصنوعی تولید می‌کند،
  • 8:16 - 8:21
    و تفکیک کننده سعی می‌کند تشخیص
    دهد که «این درست است یا جعلی»؟
  • 8:21 - 8:24
    و در واقع این کار ژنراتور است
  • 8:24 - 8:28
    که شباهت را به حداکثر برساند
    و تفکیک کننده فریب بخورد
  • 8:28 - 8:32
    و فکر کند که ویدئو و صدای تولید شده
  • 8:32 - 8:33
    واقعا درست است.
  • 8:33 - 8:36
    ماشینی درهایپرلوپ (سیستم سریع حمل ونقل)
    مجسم کنید،
  • 8:36 - 8:39
    که در فریب دادن ما
    هر روز بهتر و بهتر می‌شود.
  • 8:39 - 8:42
    این، ترکیبی از تکنولوژی نسل دوم است که،
  • 8:42 - 8:47
    در واقع دموکراتیک سازی
    هوش مصنوعی برای مردم است،
  • 8:47 - 8:50
    توانایی برای هر کسی،
  • 8:50 - 8:52
    بدون هیچ پیشینه خاصی در هوش مصنوعی
  • 8:52 - 8:54
    یا آموزش ماشینی،
  • 8:54 - 8:58
    برای بکارگیری این نوع از
    الگوریتم‌ها برای تولید رسانه مصنوعی
  • 8:58 - 9:02
    که در نهایت فرآیند تولید ویدئو
    را آسان‌تر می‌کند.
  • 9:02 - 9:07
    کاخ سفید یک ویدئوی
    جعلی و دستکاری شده
  • 9:07 - 9:11
    یک خبرنگاررا که با یک کارآموزدر تعامل بود
    سعی داشت میکروفنش را پس بگیرد، پخش کرد.
  • 9:11 - 9:13
    آنها فریم‌هایی از ویدئو را حذف کرده بودند
  • 9:13 - 9:17
    بطوری که کارهای او تاثیرگذار به نظر برسد.
  • 9:17 - 9:21
    و وقتی فیلمبرداران و بدلکاران و زنان
  • 9:21 - 9:23
    درمورد این نوع از تکنیک مصاحبه کردند،
  • 9:23 - 9:27
    گفتند «بله ما از این همیشه در
    فیلم‌ها استفاده می‌کنیم
  • 9:27 - 9:32
    تا مشت و لگدهایمان
    واقعی‌تر و تهاجمی‌تر به نظر برسد.»
  • 9:32 - 9:34
    آنها این ویدئو را بیرون دادند
  • 9:34 - 9:37
    و تا حدی از آن برای حذف
  • 9:37 - 9:41
    جیم‌آکوستا استفاده کردند، او خبرنگارپرس‌پس
    (کارتی که خبرنگارازمحدودیت معاف می‌شود)
  • 9:41 - 9:42
    از کاخ سفید بود.
  • 9:42 - 9:47
    و CNN باید شکایت کند تا
    کارت پرس بازگردانده شود.
  • 9:49 - 9:54
    حدود ۵ راه مختلف وجود دارد که
    من فکر می‌کنم می‌توانیم پیگیری کنیم
  • 9:54 - 9:58
    و امروز به برخی از این
    مشکلات خیلی سخت بپردازیم.
  • 9:58 - 10:00
    هر کدام از آن‌ها قولی دارند،
  • 10:00 - 10:03
    اما هرکدام از آنها
    چالش‌های خاص خود را دارند.
  • 10:03 - 10:05
    اولین مورد برچسب زدن است.
  • 10:05 - 10:07
    اینطور به آن فکر کنید:
  • 10:07 - 10:10
    وقتی به فروشگاه موادغذایی
    برای خرید غذای مصرفی می‌روید،
  • 10:10 - 10:12
    برچسب بزرگی روی آن وجود دارد.
  • 10:12 - 10:14
    می‌دانید که چقدر کالری دارد،
  • 10:14 - 10:16
    چقدر چربی دارد--
  • 10:16 - 10:20
    با اینحال وقتی اطلاعاتی
    ارائه می‌کنیم برچسبی نداریم.
  • 10:20 - 10:22
    این اطلاعات چه محتوایی دارد؟
  • 10:22 - 10:24
    آیا منبع معتبری دارد؟
  • 10:24 - 10:26
    این اطلاعات از کجا جمع آوری می‌شوند؟
  • 10:26 - 10:28
    ما هیچ کدام از آن اطلاعات را نداریم
  • 10:28 - 10:30
    وقتی اطلاعاتی را استفاده می‌کنیم.
  • 10:30 - 10:33
    این یک راه بالقوه است
    اما با چالش‌هایی همراه است.
  • 10:33 - 10:40
    برای مثال، در جامعه چه کسی تصمیم می‌گیرد،
    چه چیزی اشتباه و چه چیزی درست است؟
  • 10:40 - 10:42
    دولت‌ها؟
  • 10:42 - 10:43
    فیس بوک؟
  • 10:44 - 10:47
    آیا این یک کنسرسیوم ازافراد حقیقت‌یاب است؟
  • 10:47 - 10:50
    چه کسی خود این افراد را چک می‌کند؟
  • 10:50 - 10:54
    یکی دیگر از راه‌های بالقوه مشوق‌ها هستند.
  • 10:54 - 10:56
    ما می‌دانیم که طی انتخابات
    ریاست جمهوری ایالات متحده
  • 10:56 - 11:00
    موجی از اطلاعات جعلی از مقدونیه می‌آمد
  • 11:00 - 11:02
    هیچ انگیزه سیاسی پشت آن نبود
  • 11:02 - 11:05
    اما در مقابل انگیزه اقتصادی در آن بود.
  • 11:05 - 11:07
    و این انگیزه اقتصادی وجود داشت،
  • 11:07 - 11:10
    چون اطلاعات غلط بسیار بیشتر و سریعتر
  • 11:10 - 11:12
    وبسیارعمیق‌ترازاطلاعات درست
    جابه‌جا می‌شود،
  • 11:13 - 11:17
    و شما هم دلارهای تبلیغات را بدست می‌آورید
    همانطور که توجه‌ها را سمت خود جلب می‌کنید
  • 11:17 - 11:19
    با این نوع از اطلاعات.
  • 11:19 - 11:23
    اما اگربتوانیم گسترش این اطلاعات
    را تحت فشار قرار دهیم،
  • 11:23 - 11:26
    شاید انگیزه اقصادی را
  • 11:26 - 11:29
    در همان وهله اول قبل از تولید کاهش دهد.
  • 11:29 - 11:31
    سوم، می‌توانیم در مورد مقررات فکر کنیم،
  • 11:31 - 11:34
    و مطمئنا باید در این مورد فکر کنیم.
  • 11:34 - 11:35
    درحال حاضردر ایالات متحده آمریکا،
  • 11:35 - 11:40
    ما به دنبال آن هستیم که بدانیم چه اتفاقی
    می‌افتد اگر فیس بوک و دیگران تنظیم شوند.
  • 11:40 - 11:44
    درحالی که ما باید مواردی چون نحوه
    نظارت برسخنرانی سیاسی را در نظر بگیریم
  • 11:44 - 11:47
    با این برچسب که این یک
    سخنرانی سیاسی است،
  • 11:47 - 11:51
    با حصول اطمینان از سرمایه گذاری نکردن
    بازیگران خارجی از سخنرانی سیاسی،
  • 11:51 - 11:53
    که البته آن هم خطرات خودش را دارد.
  • 11:54 - 11:58
    برای مثال، مالزی حکم شش سال
    زندان صادر کرده است
  • 11:58 - 12:01
    برای کسانی که اطلاعات جعلی منتشر کنند.
  • 12:02 - 12:04
    و در رژیم‌های استبدادی،
  • 12:04 - 12:08
    این نوع از سیاست برای سرکوب
    عقاید اقلیت استفاده می‌شود
  • 12:08 - 12:12
    و سرکوب را افزایش می‌دهند.
  • 12:13 - 12:16
    انتخاب چهارم شفافیت است.
  • 12:17 - 12:21
    ما می‌خواهیم بدانیم الگوریتم
    فیس بوک چگونه کار می‌کند.
  • 12:21 - 12:23
    چگونه داده‌ها با الگوریتم‌ها ترکیب می‌شوند
  • 12:23 - 12:26
    تا خروجی که می‌بینیم تولید شود؟
  • 12:26 - 12:29
    از آنها می‌خواهیم کیمونو را باز کنند
  • 12:29 - 12:33
    و به ما نشان بدهند که دقیقا در
    لایه‌های داخلی فیس بوک چگونه کار می‌کند.
  • 12:33 - 12:36
    و اگر می‌خواهیم تاثیر
    رسانه جمعی بر جامعه را بدانیم،
  • 12:36 - 12:38
    نیاز به دانشمند و محقق و دیگر
    افرادی داریم
  • 12:38 - 12:41
    که دسترسی به این
    نوع از اطلاعات داشته باشند.
  • 12:41 - 12:43
    اما هم زمان،
  • 12:43 - 12:46
    از فیس‌بوک می‌خواهیم که همه چیزرا قفل کند،
  • 12:46 - 12:49
    که همه آن داده‌ها در امنیت باشند.
  • 12:49 - 12:52
    پس بستر فیس بوک و دیگر رسانه های جمعی
  • 12:52 - 12:55
    با آنچه من شفافیت متناقض
    می‌نامم, مواجه هستند.
  • 12:55 - 12:58
    ما همزمان از آن‌ها خواستیم،
  • 12:58 - 13:03
    باز و شفاف باشند و همزمان ایمن.
  • 13:03 - 13:05
    خیلی سخت است که این سوزن نخ شود،
  • 13:06 - 13:07
    اما آنها نیازدارند که
    این سوزن را نخ کنند
  • 13:07 - 13:11
    اگر ما به وعده
    فناوری‌های اجتماعی دست پیدا کنیم
  • 13:11 - 13:13
    در حالیکه از
    خطرات آنها جلوگیری شود
  • 13:13 - 13:18
    آخرین چیزی که می‌توانیم به آن فکر کنیم،
    الگوریتم‌ها و آموزش ماشینی است.
  • 13:18 - 13:23
    فناوری برای ریشه کن کردن و درک اخبار جعلی
    و چگونگی انتشار آن طراحی شده است،
  • 13:23 - 13:25
    که سعی در تعدیل جریان آن دارد.
  • 13:26 - 13:29
    انسان ها باید از این تکنولوژی آگاه باشند،
  • 13:29 - 13:31
    چون نمی‌توانیم از آن فرار کنیم
  • 13:31 - 13:35
    و پایه و اساس هر راه حل یا رویکرد فناوری
  • 13:35 - 13:39
    یک سوال بنیادی اخلاقی و فلسفی است
  • 13:39 - 13:42
    در مورد اینکه ما چگونه
    درست و غلط را تعریف می‌کنیم،
  • 13:42 - 13:46
    به چه کسی این قدرت را می‌دهیم که
    درست و غلط را تعریف کند
  • 13:46 - 13:48
    و کدام یک از نظرات موجه است،
  • 13:48 - 13:52
    به کدام نوع از سخنرانی باید مجوز داده شود
    و از این قبیل چیزها.
  • 13:52 - 13:54
    تکنولوژی یک راه حل برای آن نیست.
  • 13:54 - 13:58
    اخلاقیات و فلسفه راه حل آن است.
  • 13:59 - 14:02
    تقریبا هر نظریه تصمیم گیری انسانی،
  • 14:02 - 14:05
    همکاری انسانی و هماهنگی انسانی
  • 14:05 - 14:09
    در وجودش یک حس درست بودن وجود دارد.
  • 14:09 - 14:11
    اما با ظهور اخبار جعلی،
  • 14:11 - 14:13
    ظهور ویدئوهای جعلی،
  • 14:13 - 14:15
    ظهور فایل‌های صوتی جعلی،
  • 14:15 - 14:19
    می‌توان در مورد نزدیک شدن به
    مرز پایان واقعیت صحبت کرد،
  • 14:19 - 14:23
    جایی که دیگر نمی‌توان گفت
    چه چیزی درست است و چه چیزی غلط.
  • 14:23 - 14:26
    و این بطور بالقوه فوق العاده خطرناک است.
  • 14:27 - 14:31
    باید در دفاع از حقیقت در مقابل
  • 14:31 - 14:32
    اطلاعات اشتباه هوشیار باشیم.
  • 14:33 - 14:36
    با تکنولوژی‌مان، با سیاست‌هایمان
  • 14:36 - 14:38
    و شاید مهمتر از همه چیز،
  • 14:38 - 14:42
    با مسئولیت پذیری فردیمان،
  • 14:42 - 14:45
    تصمیمات، رفتارها و عملکردها.
  • 14:46 - 14:47
    خیلی ممنونم.
  • 14:47 - 14:51
    (تشویق حضار)
Title:
چگونه در عصر اطلاعات جعلی می‌توانیم از حقیقت محافظت کنیم
Speaker:
سینان آرال
Description:

اخبار جعلی می‌تواند باعث تغییر در انتخابات و ایجاد اختلاف در زندگی روزمره شود. دانشمند داده، سینان آرال توضیح می دهد که چگونه و چرا این اطلاعات با این سرعت انتشار می یابد - با استناد به یکی از بزرگترین مطالعات در مورد اطلاعات جعلی- او پنج استراتژی را برای شناساندن شبکه درهم و برهم درست و غلط معرفی می کند.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Persian subtitles

Revisions