Return to Video

چگونه در عصر اخبار جعلی حقیقت را دریابیم

  • 0:01 - 0:03
    کریس اندرسون: کریستین،
    خیلی خوش اومدی.
  • 0:03 - 0:05
    خب تو این نقطهنظر فوقالعاده رو داری،
  • 0:05 - 0:08
    و شاید منصفانه باشه بگیم
    که طی چند سال اخیر،
  • 0:08 - 0:12
    اتفاقات هشداردهندهای در جریان بوده
    که تو شاهدشون بودی.
  • 0:12 - 0:14
    چه چیزی بیشتر از همه نگرانت کرده؟
  • 0:14 - 0:17
    کریستین امانپور: خب، با شنیدن
    صحبتهای سخنرانان قبلی،
  • 0:17 - 0:19
    میتونم با اونچه اونها میگفتن
    چارچوببندیش کنم:
  • 0:19 - 0:23
    تغییر اقلیم، برای مثال --
    شهرها، تهدیدهای محیط زیستی،
  • 0:23 - 0:24
    و زندگیهامون.
  • 0:24 - 0:28
    در اصل ماجرا ختم
    به درک این حقیقت میشه
  • 0:28 - 0:31
    که به ما توانایی میده که حقیقت
    اونچه در موردش حرف میزنیم رو بفهمیم
  • 0:31 - 0:33
    برای اینکه بتوانیم واقعا حلش کنیم.
  • 0:34 - 0:37
    بنابراین اگر ۹۹٫۹ درصد
    از علم در مورد آب و هوا
  • 0:37 - 0:41
    تجربی و بر مبنای شواعد علمیست
  • 0:41 - 0:45
    ولی تقریباً به همان میزان هم
    با جمعی از انکارکنندگان در رقابت است
  • 0:45 - 0:47
    این حقیقت نیست؛
  • 0:47 - 0:49
    این نمونهی اخبار جعلیست.
  • 0:49 - 0:54
    پس برای من، این چند سال اخیر --
    به ویژه سال گذشته --
  • 0:54 - 0:59
    مفهوم اخبار جعلی را به وضوح مشخص کرده
    طوریکه واقعا نگرانکنندهست
  • 0:59 - 1:01
    و فقط یک شعار نیست
    که همینطوری ازش استفاده بشه.
  • 1:01 - 1:05
    چون وقتی نشه بین حقیقت
    و اخبار جعلی تمایز قائل شد،
  • 1:05 - 1:09
    تلاش برای حل و فصل برخی از
    مشکلات بزرگی که با آنها مواجه میشویم.
  • 1:09 - 1:12
    کار به مراتب دشوارتری خواهد بود.
  • 1:13 - 1:16
    اندرسون: خب، تو هم درگیر
    این سوال بودی که،
  • 1:16 - 1:19
    تعادل چیه، حقیقت چیه،
    بیطرفی چیه،
  • 1:19 - 1:20
    برای یک مدت طولانی.
  • 1:20 - 1:26
    ۲۵ سال پیش در خط مقدم
    جبهههای جنگ بالکان گزارش تهیه میکردی.
  • 1:26 - 1:29
    و نقل قول معروفی ازت هست که گفتی،
  • 1:30 - 1:32
    با اشاره به نمونههای نقض حقوق بشر،
  • 1:32 - 1:36
    گفتی که، "ببینین، بعضی موقعیتها هستن
    که نمیشه در برابرشون موضع خنثی داشت،
  • 1:36 - 1:38
    چون وقتی بیطرف باشید،
  • 1:38 - 1:40
    شما هم شریک جرم هستین."
  • 1:41 - 1:46
    بنابراین، فکر میکنی خبرنگاران امروزی
    به این توصیه در مورد تعادل
  • 1:46 - 1:48
    بیاعتنایی نمیکنن؟
  • 1:48 - 1:52
    ببین، من فکر میکنم برای روزنامهنگاران
    بیطرفی یک قانون طلاییه.
  • 1:52 - 1:56
    ولی فکر میکنم گاهی ما متوجه نیستیم
    معنای بیطرفی چیه.
  • 1:56 - 1:59
    و من در واقع این موضوع رو
    خیلی زود و همون اوایل شروع کارم فهمیدم،
  • 1:59 - 2:01
    که در دوران همون جنگهای بالکان بود.
  • 2:01 - 2:02
    من اونموقع جوون بودم.
  • 2:02 - 2:05
    حدوداً ۲۵ سال پیش بود.
  • 2:05 - 2:10
    و اونچه ما باهاش روبهرو بودیم
    یک خشونت تمام عیار بود،
  • 2:10 - 2:13
    نه تنها نقض حقوق بشر،
    بلکه پاکسازیهای قومی و نسلکشی،
  • 2:13 - 2:17
    که این جرایم در بالاترین ردههای
    دادگاههای جنایت جنگی
  • 2:17 - 2:19
    در جهان محاکمه شدهاند.
  • 2:19 - 2:20
    پس، ما میدونیم که شاهد چی بودیم.
  • 2:20 - 2:23
    تلاش برای انتقال آنچه
    شاهدش بودیم به جهان
  • 2:23 - 2:26
    ما رو متهم به جانبداری کرد،
  • 2:26 - 2:28
    به حمایت از یکی از طرفهای درگیر،
  • 2:28 - 2:29
    به ندیدن تمام بخشها،
  • 2:30 - 2:32
    و فقط، میدونین،
    تلاش برای روایت یک داستان.
  • 2:32 - 2:36
    من به شخصه و به طور ویژه
    متهم شدم به جانبداری از،
  • 2:36 - 2:38
    به طور مثال، شهروندان سارایوو --
  • 2:38 - 2:40
    "جانبداری از مسلمانان،"
  • 2:40 - 2:43
    چون اونها اقلیتی بودن
    که مورد حمله قرار گرفتن
  • 2:43 - 2:46
    توسط مسیحیهای صربستان
  • 2:46 - 2:48
    که در اون منطقه بودن.
  • 2:48 - 2:50
    و این موضوع من رو نگران کرد.
  • 2:50 - 2:52
    نگران شدم از اینکه دارم
    به چنین چیزی متهم میشم.
  • 2:52 - 2:53
    فکر کردم شاید اشتباه میکنم،
  • 2:53 - 2:56
    شاید یادم رفته بیطرفی یعنی چی.
  • 2:56 - 2:59
    ولی بعد فهمیدم
    اونچه مردم میخواستن
  • 2:59 - 3:00
    این بود که در واقع هیچکاری انجام نشه،
  • 3:00 - 3:02
    دخالتی صورت نگیره،
  • 3:02 - 3:03
    وضعیت تغییری نکنه،
  • 3:03 - 3:05
    راهحلی پیدا نشه.
  • 3:05 - 3:07
    و بنابراین، اخبار جعلی اونها در اون زمان،
  • 3:07 - 3:09
    دروغ اونها در اون زمان --
  • 3:09 - 3:12
    شامل دولت ما،
    دولت منتخب مردمی ما،
  • 3:12 - 3:14
    با ارزشها و اصول
    حقوق بشری --
  • 3:15 - 3:18
    دروغ اونها این بود که گفتن
    هر دو طرف ماجرا به یک اندازه مقصرن،
  • 3:18 - 3:21
    که این ماجرا یک کینهی قومی
    با قرنها قدمت بوده،
  • 3:21 - 3:23
    درحالیکه ما میدونستیم این حقیقت نداره،
  • 3:23 - 3:26
    و یک طرف دعوا تصمیم گرفته بود طرف مقابل رو
    بکشه، قتل عام کنه و قوم مقابل رو
  • 3:26 - 3:28
    پاکسازی کنه.
  • 3:28 - 3:29
    بنابراین برای من، این جا بود
  • 3:29 - 3:34
    که فهمیدم بیطرفی به این معناست
    که به همه طرفین دعوا گوش کنی،
  • 3:34 - 3:37
    و با همهی طرفین دعوا حرف بزنی،
  • 3:37 - 3:40
    ولی نه اینکه با همهشون به مساوات
    برخورد کنی.
  • 3:40 - 3:45
    و نه اینکه یک برابری اخلاقی یا واقعی
    از سر اجبار به وجود بیاری.
  • 3:45 - 3:50
    و وقتی شما در مقابل
    این نقطهی بحرانی قرار میگیرین
  • 3:50 - 3:55
    در شرایط قانونشکنیهای بزرگ
    قوانین بینالمللی و بشردوستانه،
  • 3:55 - 3:58
    اگر اونچه میبینین رو درک نکنین،
  • 3:58 - 4:00
    اگر حقیقت رو درک نکنین
  • 4:00 - 4:03
    و در پارادایم اخبار جعلی گرفتار بشین،
  • 4:03 - 4:05
    اونوقت شما هم شریک جرم هستین.
  • 4:06 - 4:09
    و من نمیخوام شریک جرم نسلکشی باشم.
  • 4:09 - 4:12
    (تشویق حضار)
  • 4:14 - 4:17
    اندرسون: خب این جنگهای تبلیغاتی
    همیشه وجود داشتهن،
  • 4:17 - 4:21
    و شما در اون موضعگیری
    شجاعت به خرج دادین.
  • 4:22 - 4:25
    امروز ولی یک راه کاملاً جدید وجود داره،
  • 4:25 - 4:28
    که به نظر میاد در اون اخبار
    به سمت جعلی شدن پیش میرن.
  • 4:28 - 4:29
    این رو چطور تفسیر میکنین؟
  • 4:29 - 4:31
    خب، ببینین -- من خیلی نگرانم.
  • 4:31 - 4:34
    و هر طرف رو که نگاه میکنم،
  • 4:34 - 4:36
    میدونین، ما زیر ضربات حملهی اون هستیم.
  • 4:36 - 4:38
    واضحه که وقتی رهبر دنیای آزاد،
  • 4:38 - 4:40
    وقتی قدرتمندترین انسان در تمام دنیا،
  • 4:40 - 4:42
    که رییسجمهور ایالات متحده آمریکا باشه --
  • 4:42 - 4:47
    این مهمترین، قدرتمندترین
    کشور در تمام دنیاست،
  • 4:47 - 4:52
    از لحاظ اقتصادی، نظامی، سیاسی
    از هر لحاظ --
  • 4:52 - 4:57
    و آشکارا به دنبال بالا بردن ارزشها
    و قدرتش در تمام دنیاست.
  • 4:57 - 5:01
    بنابراین ما روزنامهنگاران،
    که فقط به دنبال حقیقت هستیم --
  • 5:01 - 5:03
    یعنی این ماموریت ماست --
  • 5:03 - 5:05
    ما به دور دنیا سفر میکنیم
    به دنبال حقیقت
  • 5:05 - 5:07
    برای اینکه چشم و گوش همه باشیم،
  • 5:07 - 5:10
    آدمایی که نمیتونن به جاهای
    مختلف دنیا برن،
  • 5:10 - 5:13
    تا خودشون بفهمن چه اتفاقی داره میافته
    در مورد مسائلی که اهمیت حیاتی دارن
  • 5:13 - 5:15
    برای سلامتی و امنیت همه.
  • 5:15 - 5:22
    بنابراین وقتی شما یک رهبر مهم جهانی دارین
    که شما رو به جعلی بودن متهم میکنه،
  • 5:22 - 5:26
    این کار یک اثر موجی فزاینده داره،
  • 5:26 - 5:30
    و کاری که میکنه اینه که
    شروع میکنه به از بین بردن
  • 5:30 - 5:33
    نه تنها اعتبار ما،
  • 5:33 - 5:35
    بلکه در ذهن مردم --
  • 5:36 - 5:39
    مردمی که به ما نگاه میکنن،
    و شاید با خودشون فکر میکنن،
  • 5:39 - 5:41
    خب، اگه رییسجمهور ایالات متحده داره
    این حرف رو میزنه،
  • 5:41 - 5:44
    شاید واقعاً یه حقیقتی توش هست.
  • 5:44 - 5:48
    اندرسون: رؤسای جمهور همیشه
    منتقد رسانهها بودهن --
  • 5:48 - 5:50
    امانپور: نه به این شکل.
  • 5:50 - 5:51
    خب، پس تا چه حدی ..
  • 5:52 - 5:53
    (خنده حضار)
  • 5:53 - 5:56
    (تشویق)
  • 5:56 - 6:02
    اندرسون: منظورم اینه که، دو سال پیش
    یک نفر همینطور که داشت به انبوه اطلاعات
  • 6:02 - 6:06
    که مثل بهمن از توییتر و
    فیسبوک و غیره میاومد نگاه میکرد،
  • 6:06 - 6:07
    ممکن بود بگه،
  • 6:07 - 6:10
    "ببینین، دمکراسی ما از همیشه سالمتره.
  • 6:10 - 6:11
    اخبار بیشتری از همیشه در دسترسه.
  • 6:12 - 6:14
    البته که روسای جمهور حرف خودشون رو میزنن
  • 6:14 - 6:16
    ولی بقیه هم میتونن حرف خودشون رو بزنن.
  • 6:16 - 6:20
    ایرادش کجاست؟
    چرا این یه خطر اضافی تلقی میشه؟"
  • 6:20 - 6:23
    امانپور: خب، کاش این موضوع واقعیت داشت.
  • 6:23 - 6:29
    کاش تکثیر این پلتفرمهایی که
    ما از طریق اونها اطلاعات کسب میکنیم
  • 6:29 - 6:33
    به معنای تکثیر شفافیت و حقیقت بود
  • 6:33 - 6:35
    و عمق و صحت.
  • 6:35 - 6:37
    ولی من فکر میکنم برعکسش اتفاق افتاده.
  • 6:37 - 6:39
    میدونین، من یه کم تکنولوژیستیز هستم،
  • 6:39 - 6:41
    اعتراف میکنم.
  • 6:41 - 6:45
    حتی اونموقعی که شروع به صحبت در مورد
    شاهراههای اطلاعاتی کردیم،
  • 6:45 - 6:46
    که خیلی وقت پیش بود،
  • 6:46 - 6:49
    قبل از شبکههای اجتماعی،
    توییتر و بقیهشون،
  • 6:49 - 6:51
    من واقعاً خیلی میترسیدم از اینکه
  • 6:51 - 6:55
    این موضوع مردم رو در خطوط
    و مسیرهای مشخصی قرار بده
  • 6:55 - 6:59
    و کاری کنه اونها فقط بر موضوعاتی
    که مورد علاقهی خودشونه تمرکز کنن
  • 6:59 - 7:01
    به جای اینکه تصویر کلی و بزرگتر رو ببینن.
  • 7:01 - 7:06
    و متاسفانه باید بگم
    که با الگوریتمها، لگاریتمها
  • 7:06 - 7:08
    و هرچیز "--ایتم"دار دیگه
  • 7:08 - 7:12
    که ما رو به این کانالهای اطلاعاتی
    خاص هدایت میکنن،
  • 7:12 - 7:14
    به نظر میاد الان همون اتفاق افتاده.
  • 7:14 - 7:17
    یعنی افرادی هستن که
    در مورد این پدیده مطالبی نوشتن.
  • 7:17 - 7:19
    اونها گفتن که بله،
    اینترنت اومد، با این وعده
  • 7:19 - 7:24
    که دسترسی ما رو به دمکراسی بیشتر
    به شکل فزایندهای بالا ببره،
  • 7:25 - 7:26
    اطلاعات بیشتر،
  • 7:26 - 7:28
    جانبداری کمتر،
  • 7:28 - 7:31
    تنوع اطلاعات بیشتر.
  • 7:31 - 7:33
    و در واقع درست برعکس
    این موضوع اتفاق افتاد.
  • 7:33 - 7:37
    بنابراین برای من،
    این مساله بینهایت خطرناکه.
  • 7:37 - 7:41
    و دوباره میگم، وقتی شما رییسجمهور
    این مملکت هستین و یک چیزهایی میگین،
  • 7:42 - 7:47
    به رهبران کشورهای غیردمکراتیک
    یک پوششی میدین
  • 7:48 - 7:50
    برای اینکه بدتر از گذشته
    به ما بیاحترامی کنن،
  • 7:50 - 7:53
    و واقعا به ما بتازن --
    و به روزنامهنگاران خودشون --
  • 7:53 - 7:55
    با این چماق اخبار جعلی.
  • 7:56 - 7:58
    اندرسون: تا چه میزان اما
    اونچه که اتفاق افتاده
  • 7:58 - 8:00
    تا قسمتی، فقط یک نتیجهی غیرعمدی،
  • 8:00 - 8:03
    که رسانهی سنتیای که شما توش کار کردین
  • 8:03 - 8:05
    این نقش واسطهی جمعآوری اطلاعات رو داشته،
  • 8:05 - 8:07
    که یک سری هنجارها توش بررسی شده،
  • 8:07 - 8:10
    خبرهای خاصی رد میشدن
    به دلیل اینکه صحتشون معلوم نبوده،
  • 8:10 - 8:17
    ولی حالا که استاندارد یک خبر
    برای انتشار و گسترش خبر
  • 8:17 - 8:20
    فقط علاقه، توجه، هیجان
    و تعداد کلیکها روی مطالبه،
  • 8:20 - 8:22
    "تعداد کلیک خبر بالا بوده؟"
  • 8:22 - 8:23
    "بفرستش بره!"
  • 8:23 - 8:26
    و این چیزیه که --
    این اون قسمتیه که ایجاد مشکل کرده؟
  • 8:26 - 8:30
    فکر میکنم این یک مشکل بزرگه،
    و در انتخابات سال ۲۰۱۶ شاهدش بودیم
  • 8:30 - 8:35
    وقتی ایدهی "طعمه کلیک"
    خیلی اغواکننده و خیلی جذاب بود،
  • 8:35 - 8:39
    و بنابراین تمام این سایتهای
    اخبار جعلی و عناوین خبرهای جعلی
  • 8:39 - 8:43
    فقط به طور شانسی و اتفاقی منتشر نمیشدن،
  • 8:43 - 8:48
    یک صنعت پشت خلق این اخبار جعلی بوده
  • 8:48 - 8:51
    در بخشهایی از اروپای شرقی، هرجا،
  • 8:51 - 8:54
    و میدونین، این اخبار در فضای واقعی
    و در فضای مجازی قرار گرفته.
  • 8:54 - 8:57
    بنابراین فکر میکنم، که همچنین،
  • 8:57 - 9:02
    توانایی تکنولوژی ما
    در تکثیر این چیزها
  • 9:02 - 9:05
    به سرعت صدا
    یا نور، یا همین حدود --
  • 9:05 - 9:07
    ما قبلا هرگز با چنین چیزی روبهرو نبودیم.
  • 9:07 - 9:12
    و هرگز قبلا با چنین حجم عظیمی
    از اطلاعات هم روبهرو نبودیم
  • 9:12 - 9:14
    که توسط کسانی جمعآوری نشده باشه
  • 9:14 - 9:19
    که حرفهشون اونها رو
    سوق میده به سمت وفاداری به حقیقت،
  • 9:19 - 9:20
    به راستیآزمایی،
  • 9:20 - 9:25
    و رعایت ضوابط حرفهای
    و اصول اخلاق حرفهای.
  • 9:25 - 9:29
    خیلی از افرادی که اینجا حاضرن
    ممکنه کسانی رو بشناسن که در فیسبوک
  • 9:29 - 9:31
    یا توییتر یا گوگل مشغول به کار هستن.
  • 9:31 - 9:34
    همهی اونها آدمهایی خوب با
    نیتهای خوب به نظر میان --
  • 9:34 - 9:35
    بیاین فرض رو بر این بگذاریم.
  • 9:35 - 9:39
    اگر میتونستین با رهبران
    این شرکتها حرف بزنین،
  • 9:39 - 9:40
    به اونها چی میگفتین؟
  • 9:40 - 9:42
    خب، میدونین چیه --
  • 9:42 - 9:45
    من مطمئنم که اونها بینهایت خوش نیت هستن
  • 9:45 - 9:50
    و قطعا اونها یک سیستم باورنکردنی و
    متحول کننده رو توسعه دادن،
  • 9:50 - 9:53
    که همهی آدمها از طریق چیزی
    به نام فیسبوک به هم متصل هستن.
  • 9:53 - 9:57
    و برای خودشون هم یک اقتصاد عظیم خلق کردن
  • 9:57 - 10:00
    و میزان شگفتانگیزی درآمد مالی.
  • 10:00 - 10:01
    من فقط میخوام بگم،
  • 10:01 - 10:05
    "دوستان، میدونین، وقتش شده
    از خواب بیدار شین و بوی قهوه رو حس کنین
  • 10:05 - 10:08
    و ببینین الان داره
    چه اتفاقی برامون میافته."
  • 10:08 - 10:11
    مارک زاکربرگ میخواد
    یک جامعهی جهانی خلق کنه.
  • 10:11 - 10:14
    من میخوام بدونم: این جامعهی جهانی
    قراره چه شکلی باشه؟
  • 10:14 - 10:18
    میخوام بدونم این اصول حرفهای
    در واقع قراره کجا باشن.
  • 10:18 - 10:20
    مارک زاکربرگ گفته --
  • 10:20 - 10:23
    و من ملامتش نمیکنم،
    احتمالا باورش همینه --
  • 10:23 - 10:25
    که این دیوانگیه که فکر کنیم
  • 10:25 - 10:29
    روسها یا هرکس دیگهای
    ممکنه این مسیر رو دستکاری کنه
  • 10:29 - 10:30
    یا خرابکاریای انجام بده.
  • 10:30 - 10:33
    و ما در همین هفتههای گذشته چی فهمیدیم؟
  • 10:33 - 10:36
    که در واقع، مشکل خیلی بزرگی
    در این زمینه وجود داشته،
  • 10:36 - 10:39
    و حالا باید در این مورد تحقیق بشه
    و بفهمن که ماجرا چی بوده.
  • 10:39 - 10:42
    بله، اونها دارن کاری که
    الان از دستشون برمیاد
  • 10:42 - 10:45
    برای جلوگیری از افزایش
    اخبار جعلی انجام میدن،
  • 10:45 - 10:46
    ولی، میدونین،
  • 10:46 - 10:51
    این قضیه برای مدتی خیلی خیلی طولانی
    بی هیچ محدودیتی پیش رفته.
  • 10:51 - 10:53
    بنابراین فکر میکنم،
    که خواهم گفت، میدونین
  • 10:53 - 10:55
    شماها در زمینهی تکنولوژی درخشان هستین،
  • 10:55 - 10:57
    بیاین یک الگوریتم دیگه پیدا کنیم.
  • 10:57 - 10:58
    نمیتونیم؟
  • 10:58 - 11:01
    الگوریتمی که شامل تحقیقات
    روزنامهنگاری باشه --
  • 11:01 - 11:05
    من واقعا نمیدونم چطور اینکارو میکنن
    ولی یه جورایی، میدونین --
  • 11:05 - 11:06
    مزخرفات رو فیلتر کنن!
  • 11:06 - 11:08
    (خنده حضار)
  • 11:08 - 11:10
    و نه فقط غیرعمدیها رو --
  • 11:10 - 11:13
    (تشویق)
  • 11:13 - 11:15
    بلکه اون دروغهای تعمدی که پخش میشن
  • 11:15 - 11:19
    توسط افرادی که دهههاست
    به مثابه جنگ
  • 11:19 - 11:21
    این کارو انجام میدن.
  • 11:21 - 11:23
    رهبران شوروی، روسها --
  • 11:23 - 11:28
    اونها استاد جنگ با انواع
    ابزارها هستن، جنگ آمیخته.
  • 11:29 - 11:30
    و این کاریه که --
  • 11:31 - 11:34
    این کاریه که تصمیم گرفتن انجام بدن.
  • 11:34 - 11:35
    این کار در آمریکا جواب داد،
  • 11:35 - 11:37
    در فرانسه جواب نداد،
  • 11:37 - 11:38
    و در آلمان هم جواب نداده.
  • 11:38 - 11:41
    در ایام انتخابات در اونجا،
    وقتی تلاش کرده بودن مداخله کنن
  • 11:41 - 11:44
    امانوئل مکرون، رییسجمهور
    حال حاضر فرانسه،
  • 11:44 - 11:46
    موضعی بسیار قوی گرفت
    و مستقیما با موضوع مقابله کرد،
  • 11:47 - 11:48
    همینطور آنگلا مرکل.
  • 11:48 - 11:51
    این جای امیدواری داره، نداره؟
  • 11:51 - 11:52
    که دنیا یاد میگیره.
  • 11:52 - 11:53
    ما یک بار گول خوردیم،
  • 11:53 - 11:55
    ممکنه باز هم گول بخوریم.
  • 11:55 - 11:56
    ولی بار سومی در کار نخواهد بود.
  • 11:56 - 11:57
    درسته؟
  • 11:57 - 11:58
    خب، بیاین امیدوار باشیم.
  • 11:58 - 12:02
    ولی فکر میکنم در این مورد
    که بخش زیادیش به تکنولوژی مربوطه
  • 12:02 - 12:05
    به تکنولوژی هم باید یک جور
    قطبنمای اخلاقی داده بشه.
  • 12:05 - 12:08
    میدونم حرفهام بیمعنیان،
    ولی میدونین منظورم چیه.
  • 12:08 - 12:12
    پس ما یک الگوریتم فیلترکنندهی مزخرفات
    با یک قطبنمای اخلاقی لازم داریم --
  • 12:12 - 12:13
    دقیقا!
  • 12:13 - 12:14
    فکر میکنم خوبه.
  • 12:14 - 12:16
    نه -- "تکنولوژی اخلاقمدار".
  • 12:16 - 12:19
    همهی ما قطبنمای اخلاقی داریم --
    تکنولوژی اخلاقمدار.
  • 12:19 - 12:22
    فکر میکنم این چالش بزرگیه.
    میفهمین منظورم چیه.
  • 12:22 - 12:24
    یک دقیقه در مورد رهبری حرف بزنین.
  • 12:24 - 12:27
    این فرصت رو داشتی که با افراد
    زیادی از سرتاسر دنیا صحبت کنی.
  • 12:27 - 12:29
    فکر میکنم برای
    بعضی از ما --
  • 12:29 - 12:31
    من از جانب خودم میگم،
    نمیدونم بقیه هم همین حس رو دارن
  • 12:31 - 12:33
    یک جور ناامیدی وجود داره که:
  • 12:33 - 12:35
    رهبران کجا هستن؟
  • 12:35 - 12:37
    خیلی از ما ناامید شدیم --
  • 12:37 - 12:39
    آنگ سان سوچی،
    اتفاقاتی که اخیرا افتاد،
  • 12:39 - 12:42
    انگار که، "نه، یکی دیگهشون هم مرد."
  • 12:42 - 12:43
    میدونین، آدم قلبش میشکنه.
  • 12:43 - 12:44
    (خنده حضار)
  • 12:44 - 12:46
    کی رو ملاقات کردی که
  • 12:46 - 12:49
    تحت تاثیر قرارت داده،
    کی برات الهامبخش بوده؟
  • 12:49 - 12:52
    خب، تو داری از جهان درگیر بحران حرف میزنی
  • 12:52 - 12:53
    که کاملا درسته،
  • 12:53 - 12:58
    و امثال ما که تمام عمرمون
    در این بحرانها غرق بودیم --
  • 12:58 - 13:01
    خب، ما در آستانهی فروپاشی عصبی هستیم.
  • 13:01 - 13:03
    خب الان اوضاع خیلی پراسترسه.
  • 13:04 - 13:05
    و تو درست میگی --
  • 13:05 - 13:08
    که درحال حاضر یک خلا واقعی
    از مفهوم رهبری در دنیا وجود داره،
  • 13:08 - 13:11
    و فقط من نیستم که اینو میگم،
    از همه پرسیدم --
  • 13:11 - 13:13
    با هرکسی که صحبت میکنم
    در مورد مفهوم رهبری سوال میکنم.
  • 13:13 - 13:18
    امروز با رییسجمهور در شرف رفتن
    لیبریا صحبت میکردم،
  • 13:18 - 13:20
    [الن سیرلیف جانسون]
  • 13:20 - 13:21
    که --
  • 13:21 - 13:23
    (تشویق حضار)
  • 13:23 - 13:25
    تا سه هفته دیگه،
  • 13:25 - 13:28
    یکی از نادرترین نمونههای سران
    کشورهای آفریقایی خواهد بود
  • 13:28 - 13:31
    که به قانون اساسی احترام خواهد گذاشت
  • 13:31 - 13:34
    و پس از اتمام دوران ریاستجمهوریش
    از قدرت کنار خواهد رفت.
  • 13:34 - 13:38
    او گفت قصدش از این کار اینه
    که به دیگران درس بده.
  • 13:38 - 13:40
    ولی وقتی ازش در مورد
    مفهوم رهبری پرسیدم،
  • 13:40 - 13:43
    و خیلی سریع از چند نفر اسم بردم
  • 13:43 - 13:46
    و بعد از رییسجمهور جدید فرانسه نام بردم
  • 13:46 - 13:47
    امانوئل مکرون.
  • 13:47 - 13:49
    و او گفت --
  • 13:49 - 13:51
    من گفتم، "وقتی اسمش رو میشنوین
    چی به ذهنتون میرسه؟"
  • 13:51 - 13:53
    و او گفت،
  • 13:54 - 13:56
    "پتانسیل شکل گرفتن یک رهبر
  • 13:56 - 14:00
    که بتونه این خلا رهبری
    در حال حاضر رو پر کنه."
  • 14:00 - 14:02
    من فکر کردم این خیلی جالبه.
  • 14:02 - 14:04
    دیروز اتفاقا با مکرون مصاحبهای داشتم.
  • 14:04 - 14:06
    و خیلی مفتخرم که بگم،
  • 14:06 - 14:09
    من اولین مصاحبهگر بینالمللی او بودم.
    عالی بود. دیروز این اتفاق افتاد.
  • 14:09 - 14:10
    و واقعا تحت تاثیر قرار گرفتم.
  • 14:10 - 14:13
    نمیدونم که آیا درست هست
    که این حرف رو در یک جلسه عمومی بزنم،
  • 14:13 - 14:15
    ولی واقعا تحت تاثیر قرار گرفتم.
  • 14:15 - 14:16
    (خنده حضار)
  • 14:17 - 14:19
    و شاید دلیل این باشه
    که این اولین مصاحبهش بود،
  • 14:19 - 14:22
    اما -- من سوالهای زیادی پرسیدم
    و میدونین چی شد؟
  • 14:22 - 14:23
    او جواب داد.
  • 14:23 - 14:25
    (خنده حضار)
  • 14:25 - 14:28
    (تشویق حضار)
  • 14:28 - 14:30
    بدون هیچ چرخوندن مطلبی،
  • 14:30 - 14:32
    بدون هیچ جلو عقب کردن حرف،
  • 14:32 - 14:35
    بدون اینکه پنج دقیقه زمان تلف کنه
    برای اینکه برگرده سر موضوع.
  • 14:35 - 14:37
    من مجبور نبودم مدام حرفش رو قطع کنم،
  • 14:37 - 14:39
    کاری که کم و بیش به انجامش معروفم،
  • 14:39 - 14:41
    چون میخوام که آدمها
    به سوال جواب بدن.
  • 14:41 - 14:43
    و او به من جواب میداد،
  • 14:43 - 14:46
    و این خیلی جالب بود.
  • 14:46 - 14:48
    و او گفت --
  • 14:48 - 14:49
    بگو چی گفت.
  • 14:49 - 14:51
    نه، نه، بگو.
  • 14:51 - 14:53
    تویی که حرف بقیه رو قطع میکنی
    من شنونده هستم.
  • 14:53 - 14:54
    نه، نه، بگو.
  • 14:54 - 14:55
    او چی گفت؟
  • 14:55 - 14:58
    خب. امروز اینجا تو در مورد
    ناسیونالیسم و نظام قبیلهای صحبت کردی.
  • 14:58 - 15:02
    ازش پرسیدم، "چطور دل و جرات به خرج دادین
    که با تمام این بادهای غالب
  • 15:02 - 15:07
    جنبشهای ضدجهانی سازی
    ناسیونالیسم، پوپولیسم مقابله کنین
  • 15:07 - 15:09
    وقتی میبینید چه اتفاقی
    در برگزیت افتاد،
  • 15:09 - 15:11
    وقتی دیدید چه اتفاقی در آمریکا افتاد،
  • 15:11 - 15:14
    و اونچه ممکن بود
    در خیلی از انتخابات اروپا
  • 15:14 - 15:16
    در ابتدای سال ۲۰۱۷ اتفاق بیفته؟"
  • 15:16 - 15:17
    و او گفت،
  • 15:18 - 15:21
    "برای من، ناسیونالیسم به معنای جنگه.
  • 15:21 - 15:23
    ما قبلا هم شاهدش بودیم،
  • 15:23 - 15:25
    در قارهی من قبلا در شرایطش زندگی کردیم،
  • 15:25 - 15:28
    و من موضع خیلی روشنی در این مورد دارم."
  • 15:28 - 15:32
    بنابراین او قصد نداشت
    فقط به خاطر فرصتطلبی سیاسی،
  • 15:32 - 15:36
    این به نوعی نازلترین
    عنوان عمومی رو بپذیره
  • 15:36 - 15:40
    که در سایر انتخابات سیاسی پذیرفته شده بود.
  • 15:40 - 15:44
    و او در مقابل مارین لوپن ایستاد
    که زن بسیار خطرناکیه.
  • 15:45 - 15:47
    آخرین سوال از تو، کریستین.
  • 15:47 - 15:50
    از ایدههایی برامون بگو
    که ارزش انتشار دارن.
  • 15:50 - 15:55
    اگر میتونستی یک ایده رو
    در ذهن همهی کسانی که اینجا هستن بکاری،
  • 15:55 - 15:56
    اون ایده چی بود؟
  • 15:56 - 16:01
    خواهم گفت بسیار مراقب
    منبع اطلاعاتیتون باشین
  • 16:01 - 16:07
    واقعا مسئولیت اونچه میخونین،
    گوش میدین یا تماشا میکنین رو بپذیرین؛
  • 16:07 - 16:11
    مطمئن بشین که به سراغ نامهای معتمد
    برای کسب اطلاعات اصلیتون میرین،
  • 16:11 - 16:16
    مهم نیست حتی اگر
    یک ورودی وسیع التقاطی دارین،
  • 16:16 - 16:19
    واقعا به نامهایی که میشناسین بچسبین،
  • 16:19 - 16:23
    برای اینکه در دنیای امروز،
    در همین لحظه،
  • 16:23 - 16:27
    بحرانهای ما، چالشهای ما،
    مشکلات ما چنان شدید هستن،
  • 16:27 - 16:31
    که تا وقتی ما به عنوان
    شهروندان جهانی درگیر نباشیم
  • 16:31 - 16:33
    مایی که برای حقیقت ارزش قائلیم،
  • 16:33 - 16:37
    که علم رو درک میکنیم،
    شواهد تجربی و واقعیتها رو میفهمیم،
  • 16:37 - 16:40
    اونوقت به راحتی به
    سمت چیزی خواهیم رفت
  • 16:41 - 16:42
    که یک فاجعهی بالقوهست.
  • 16:42 - 16:44
    بنابراین من میگم، حقیقت،
  • 16:44 - 16:46
    و بعد باز به امانوئل مکرون برمیگردم
  • 16:46 - 16:47
    و در مورد عشق حرف میزنم.
  • 16:48 - 16:52
    خواهم گفت که میزان
    عشقی که در جریانه کافی نیست.
  • 16:53 - 16:55
    و من از او خواستم در مورد عشق صحبت کنه.
  • 16:55 - 16:59
    گفتم: "میدونین، ازدواج شما
    به یک موضوع وسواس جهانی تبدیل شده."
  • 16:59 - 17:00
    (خنده حضار)
  • 17:01 - 17:02
    "میتونین از عشق برام بگین؟
  • 17:02 - 17:03
    برای شما چه مفهومی داره؟"
  • 17:03 - 17:06
    من هرگز از هیچ رییسجمهور یا
    رهبر منتخبی در مورد عشق نپرسیده بودم.
  • 17:06 - 17:08
    ولی گفتم بذار امتحان کنم.
  • 17:08 - 17:11
    و او گفت -- میدونین،
    واقعا جواب سوالم رو داد..
  • 17:11 - 17:16
    و گفت،"من عاشق همسرم هستم،
    او بخشی از وجود منه،
  • 17:16 - 17:17
    ما دهههاست که با هم هستیم."
  • 17:17 - 17:19
    ولی اینجا بود که حرفش واقعا مهم شد،
  • 17:19 - 17:20
    چیزی که به یاد من موند.
  • 17:20 - 17:22
    او گفت،
  • 17:22 - 17:25
    "این برای من خیلی مهمه
    که کسی رو در خونه داشته باشم
  • 17:25 - 17:27
    که حقیقت رو به من بگه."
  • 17:28 - 17:31
    پس میبینین، حرف رو به اینجا رسوندم.
    همهچیز به حقیقت مربوطه.
  • 17:31 - 17:32
    (خنده حضار)
  • 17:32 - 17:35
    خب پس همینه. حقیقت و عشق.
    ایدههای که ارزش انتشار دارن.
  • 17:35 - 17:38
    کریستین امانپور، خیلی ازت ممنونم.
    عالی بود.
  • 17:38 - 17:39
    (تشویق حضار)
  • 17:39 - 17:41
    ممنونم.
    خیلی خوب بود.
  • 17:41 - 17:43
    (تشویق حضار)
  • 17:43 - 17:44
    ممنونم.
Title:
چگونه در عصر اخبار جعلی حقیقت را دریابیم
Speaker:
کریستین امانپور
Description:

کریستین امانپور، روزنامه‌نگاری که به خاطر شجاعت و شفافیت‌ش شهرت جهانی دارد سه دهه‌ی گذشته را به مصاحبه با رهبران تجاری، فرهنگی و سیاسی تاریخ‌ساز گذرانده است. در این گفتگو با کریس اندرسون مسئول برگزاری همایش، امانپور از اخبار جعلی، بی‌طرفی در روزنامه‌نگاری، خلا رهبری در مدیریت جهانی و دیگر مطالب می‌گوید، و تعالیم خود را به اشتراک می‌گذارد. او می‌گوید: "مراقب منابع اطلاعاتی‌تان باشید. تا وقتی همه‌ی ما به عنوان شهروندان جهانی که برای حقیقت ارزش قائلیم و علم، شواهد تجربی و وقایع را درک می‌کنیم، درگیر موضوعات نباشیم، آن‌گاه به سمت چیزی پیش خواهیم رفت که یک فاجعه‌ی بالقوه خواهد بود."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:58

Persian subtitles

Revisions