Return to Video

چطور جعل‌عمیق حقیقت را تضعیف کرده و دموکراسی را تهدید می‌کند

  • 0:01 - 0:03
    (این سخنرانی محتوایی بالغانه دارد)
  • 0:06 - 0:09
    رانا ایوب خبرنگار هندی است که
  • 0:09 - 0:11
    فعالیت‌هایش، فساد حکومتی
  • 0:12 - 0:15
    و نقض حقوق بشر را افشا کرده است.
  • 0:15 - 0:16
    و طی سال‌ها،
  • 0:16 - 0:19
    به هجمه و جدال پیرامون کار
    خود عادت کرده بود.
  • 0:20 - 0:25
    اما هیچ‌ کدام، او را برای آنچه که در آوریل
    ۲۰۱۸ با آن روبه‌رو شد، آماده نکرده بود.
  • 0:26 - 0:30
    وقتی برای بار اول آن را مشاهده کرد
    با دوستی در یک کافه نشسته بود:
  • 0:30 - 0:35
    فیلم دو دقیقه و ۲۰ ثانیه‌ای از
    رابطه‌ایی جنسی با حضور خودش.
  • 0:35 - 0:38
    نمی‌توانست به چشمانش اعتماد کند.
  • 0:38 - 0:40
    او هرگز یک فیلم سکسی نساخته بود.
  • 0:41 - 0:44
    اما متاسفانه هزاران هزار نفر باور داشتند
  • 0:44 - 0:46
    که خودش بوده است.
  • 0:47 - 0:50
    من با خانم ایوب سه ماه
    پیش در رابطه با کتابم،
  • 0:50 - 0:52
    با موضوع حریم جنسی، مصاحبه کردم.
  • 0:53 - 0:56
    من استاد حقوق، وکیل و
    طرفدار حقوق مدنی هستم.
  • 0:56 - 1:01
    بنابراین برای من بی‌اندازه
    مایوس‌کننده است که می‌دانم
  • 1:01 - 1:03
    در حال حاضر قانون کمک
    خاصی به او نمی‌کند.
  • 1:03 - 1:05
    و وقتی صحبت می‌کردیم،
  • 1:05 - 1:10
    او توضیح داد که باید فکر انتشار
    فیلم تقلبی از رابطه جنسی را می‌کرد.
  • 1:10 - 1:16
    او گفت، <<در واقع سکس اغلب برای تحقیر
    کردن و خجالت‌زده کردن زنان استفاده می‌شود،
  • 1:16 - 1:18
    خصوصا زنان اقلیت،
  • 1:18 - 1:22
    و خصوصا زنان اقلیتی که جرات
    مبارزه با مردان قدرتمند را دارند.>>
  • 1:22 - 1:24
    چیزی که او در کارش داشت.
  • 1:25 - 1:29
    فیلم سکس جعلی در عرض
    ۴۸ ساعت پخش (وایرال) شد.
  • 1:30 - 1:35
    تمام حساب‌های آنلاین او غرق
    اسکرین‌شات‌ها از آن فیلم،
  • 1:35 - 1:38
    و تهدیدهای گرافیکیِ تجاوز و قتل شده بود.
  • 1:38 - 1:41
    به همراه لکه دار کردن اعتقادات اسلامی او.
  • 1:41 - 1:46
    در مطالب اینترنتی او را برای
    رابطه جنسی پیشنهاد می‌کردند.
  • 1:46 - 1:48
    و او dox شده بود،
  • 1:48 - 1:50
    به این معنی که آدرس خانه و شماره تلفن او
  • 1:50 - 1:52
    در سراسر اینترنت پخش شده بود.
  • 1:53 - 1:57
    فیلم بیش از ۴۰,۰۰۰ بار به
    اشتراک گذاشته شده بود.
  • 1:58 - 2:02
    وقتی یک نفر با چنین حمله
    سایبری مورد هدف قرار می‌گیرد،
  • 2:02 - 2:04
    ضربه‌ای اساسی به او وارد شده است.
  • 2:04 - 2:08
    زندگی رانا ایوب وارونه شد.
  • 2:08 - 2:12
    او برای هفته‌ها به سختی غذا
    می‌خورد و صحبت می‌کرد.
  • 2:12 - 2:16
    او از نوشتن دست کشید و تمام حساب‌های
    شبکه‌های آنلاین خود را بست،
  • 2:16 - 2:19
    مسئله‌ای که می‌دانید چقدر مشکل است
    وقتی که یک خبرنگار باشید.
  • 2:19 - 2:23
    او از اینکه از خانه خودشان
    خارج شود می‌ترسید.
  • 2:23 - 2:26
    اگر افرادی که مطلب گذاشته بودند، تهدیدشان
    را عملی می‌کردند، چه اتفاقی می‌افتاد؟
  • 2:26 - 2:31
    شورای حقوق بشر سازمان ملل متحد
    تایید کرد که او دیوانه نشده است.
  • 2:31 - 2:35
    یک بیانیه عمومی منتشر کرد که
    می‌گفت که آنها نگران امنیت او هستند.
  • 2:37 - 2:41
    رانا ایوب با یک جعل‌عمیق مواجه شده بود:
  • 2:41 - 2:44
    فناوری یادگیری-ماشین
  • 2:44 - 2:48
    که صوت‌ها و فیلم‌ها را
    دستکاری و جعل می‌کند
  • 2:48 - 2:50
    تا نشان دهد مردم چیزهایی
    می‌گویند و یا انجام می‌دهند که
  • 2:50 - 2:52
    هرگز نگفته و نکرده‌اند.
  • 2:53 - 2:56
    جعل‌عمیق‌ها به صورت موثق و واقعی
    ظاهر می‌شوند اما چنین نیستند،
  • 2:56 - 2:58
    آنها به کلی کذب هستند.
  • 2:59 - 3:03
    فناوری هنوز با تمام پیچیدگی‌هایش
    در حال توسعه است،
  • 3:03 - 3:05
    و بطور گسترده در دسترس است.
  • 3:05 - 3:08
    اخیرا توجه به جعل‌عمیق افزایش یافته است،
  • 3:08 - 3:11
    به طوری که می‌شود به صورت آنلاین خیلی از
  • 3:11 - 3:12
    کارها در رابطه با پرنوگرافی انجام داد.
  • 3:12 - 3:15
    اوایل سال ۲۰۱۸،
  • 3:15 - 3:17
    یک نفر ابزاری را در Reddit منتشرکرد که
  • 3:17 - 3:22
    به کاربر امکان اضافه کردن چهره
    به فیلم‌های سکسی را می‌داد.
  • 3:22 - 3:25
    و چیزی که به دنبالش بود سرازیر
    شدن فیلم‌های سکسی جعلی
  • 3:25 - 3:28
    با چهره‌ی زنان مشهور و محبوب مردم بود.
  • 3:29 - 3:32
    و امروز، می‌توانید وارد سایت یوتیوب
    شده و تمرین‌های بیشماری را
  • 3:32 - 3:34
    با دستورالعمل‌های گام‌به‌گام
  • 3:35 - 3:38
    برای درست کردن یک جعل‌عمیق
    بر روی کامیپوتر خود، بیابید.
  • 3:38 - 3:42
    و به زودی شاید امکان آن را داشته باشیم
    تا با گوشی‌هایمان آنها را درست کنیم.
  • 3:43 - 3:48
    اکنون این برهم کنش بعضی
    از ضعف‌های اساسی بشر و
  • 3:48 - 3:50
    ابزارهای شبکه‌است که
  • 3:50 - 3:53
    می‌تواند جعل‌عمیق را به سلاح تبدیل کند.
  • 3:53 - 3:54
    اجازه دهید توضیح دهم.
  • 3:55 - 3:59
    به عنوان انسان، ما واکنشی غریزی
    نسبت به فیلم وصوت داریم.
  • 4:00 - 4:01
    ما باور داریم آنها حقیقی هستند،
  • 4:01 - 4:03
    البته با این تصور که
    شما می‌توانید هر آنچه
  • 4:03 - 4:06
    که چشم‌ها و گوش‌هایتان می‌گوید باور کنید.
  • 4:06 - 4:08
    و این همان سازوکاری است که
  • 4:08 - 4:12
    ممکن است حس واقع‌گرایی ما را سست کند.
  • 4:12 - 4:15
    و باور کنیم که جعل‌های عمیق
    درست هستند در حالی که نیستند.
  • 4:16 - 4:20
    و ما به محتوی جنسی و
    بحث‌برانگیز جذب می‌شویم.
  • 4:20 - 4:23
    تمایل داریم اطلاعاتی که
    منفی و جدید هستند را
  • 4:23 - 4:25
    باور کنیم و به اشتراک بگذاریم.
  • 4:26 - 4:31
    تحقیقات نشان داده است که حقه‌های
    آنلاین ده برابر داستان‌های دقیق
  • 4:31 - 4:32
    منتشر می‌شوند.
  • 4:34 - 4:38
    حال ما به اطلاعاتی که در
    راستای دیدگاه‌هایمان است
  • 4:38 - 4:40
    کشیده می‌شویم.
  • 4:41 - 4:45
    روانشناسان این تمایل را
    <<سوگیری تاییدی>> می‌نامند.
  • 4:45 - 4:50
    و شبکه‌های اجتماعی به شدت
    این گرایش را با امکان
  • 4:50 - 4:54
    اشتراک گذاری سریع و گسترده اطلاعاتی
    که با نقطه نظرات ما همخوانی دارد،
  • 4:54 - 4:55
    تقویت می‌کنند.
  • 4:57 - 5:02
    اکنون جعل‌عمیق پتانسیل این را دارد تا موجب
    یک صدمه‌ی شخصی و اجتماعی جدی شود.
  • 5:03 - 5:05
    جعل‌عمیقی را تصور کنید که
  • 5:05 - 5:09
    نشان می‌دهد که یک سرباز آمریکایی
    در افغانستان قرآن را می‌سوزاند.
  • 5:11 - 5:14
    می‌توانید تصور کنید که
    جعل‌عمیق می‌تواند به خشونت
  • 5:14 - 5:15
    علیه آن سربازان دامن بزند.
  • 5:16 - 5:19
    و چه اتفاقی خواهد افتاد، اگر در روز بعد
  • 5:19 - 5:21
    یک جعل‌عمیق دیگر به راه بی‌افتد،
  • 5:21 - 5:24
    که نشان می‌دهد یک شیخ مشهور ساکن لندن،
  • 5:24 - 5:27
    حمله به آن سربازان را ستایش می‌کند؟
  • 5:28 - 5:31
    و شاید شاهد خشونت و ناآرامی‌های مدنی،
  • 5:31 - 5:34
    نه تنها در افغانستان و بریتانیا
  • 5:34 - 5:36
    بلکه در سرتاسر جهان باشیم.
  • 5:36 - 5:37
    ممکن است بگویید،
  • 5:37 - 5:40
    <<بیخیال دنیل، خیلی بعید است.>>
  • 5:40 - 5:41
    ولی نیست.
  • 5:41 - 5:43
    مشاهده کرده‌ایم که انتشار دروغ‌ها
  • 5:44 - 5:46
    بر روی واتس‌آپ و دیگر
    سرویس‌های پیام‌رسان آنلاین
  • 5:46 - 5:49
    منجر به خشونت علیه اقلیت‌های قومی می‌شود.
  • 5:49 - 5:51
    و این فقط متن است --
  • 5:51 - 5:53
    تصور کنید فیلم باشد.
  • 5:55 - 6:00
    اکنون جعل‌عمیق پتانسیل این را دارد
    که اعتمادی که به نهادهای دموکراتیک داریم
  • 6:00 - 6:02
    ذره ذره نابود کند.
  • 6:03 - 6:06
    شب قبل انتخابات را تصور کنید.
  • 6:06 - 6:09
    یک جعل‌عمیق نشان می‌دهد
    که یکی از کاندید‌اهای حزب اصلی
  • 6:09 - 6:10
    به شدت مریض است.
  • 6:11 - 6:14
    جعل‌عمیق می‌تواند انتخابات
    را از مسیر خود خارج کند
  • 6:14 - 6:17
    و احساس ما نسبت به انتخابات
    قانونی را تکان دهد.
  • 6:19 - 6:22
    تصور کنید شب قبل از
    عرضه اولیه یک سهام،
  • 6:22 - 6:24
    توسط یک بانک بزرگ جهانی،
  • 6:24 - 6:27
    جعل‌عمیقی نشان می‌دهد مدیرعامل آن بانک
  • 6:27 - 6:30
    در حالت مستی حرف‌های بی‌جایی
    درباره تئوری‌ توطئه‌ می‌زند.
  • 6:31 - 6:34
    جعل‌عمیق می‌تواند عرضه سهام
    را به ورطه نابودی بکشاند.
  • 6:34 - 6:38
    و بدتر، احساس ما درباره اینکه بازارهای
    مالی باثبات هستند را تکان دهد.
  • 6:39 - 6:46
    بنابراین جعل‌های‌عمیق می‌توانند بی‌اعتمادی
    زیادی که همین الان هم به سیاست‌مداران،
  • 6:46 - 6:51
    رهبران اقتصادی و دیگر رهبران بانفوذ داریم
    بزرگتر کرده و از آن سواستقاده کنند.
  • 6:51 - 6:54
    آنها مخاطب بالقوه برای
    باور کردن را پیدا می‌کنند.
  • 6:55 - 6:58
    و همچنین دنبال کردن حقیقت هم در خطر است.
  • 6:59 - 7:03
    اهل فن منتظر پیشرفت در هوش مصنوعی هستند،
  • 7:03 - 7:06
    بزودی به سختی و حتی غیرممکن است که
  • 7:06 - 7:10
    تفاوت بین یک فیلم
    واقعی و تقلبی را بگوییم.
  • 7:11 - 7:16
    پس حقیقت چگونه می‌تواند در بازار
    داغ ایده‌‌های جعلی‌عمیق نمایان شود؟
  • 7:17 - 7:20
    به مسیر خود بدون هیچ مقاومتی ادامه می‌دهیم
  • 7:20 - 7:23
    و چیزی که می‌خواهیم باور
    کنیم را باور می‌کنیم،
  • 7:23 - 7:24
    و حقیقت را نادیده می‌گیریم؟
  • 7:25 - 7:28
    و نه تنها ممکن است جعلیات را باور کنیم،
  • 7:28 - 7:31
    ممکن است باورنکردن حقیقت
    را هم شروع کنیم.
  • 7:32 - 7:36
    اخیرا دیده‌ایم که مردم به جعل‌های
    عمیق متوسل می‌شوند
  • 7:36 - 7:40
    تا بر روی مدارک واقعی
    تخلفاتشان شبه افکنی کنند.
  • 7:40 - 7:46
    شنیده‌ایم که سیاستمداران درباره
    صوت نظرات آزاردهنده‌شان گفته‌اند،
  • 7:46 - 7:48
    <<بیخیال، آنها خبرهای جعلی هستند.
  • 7:48 - 7:52
    شما نمی‌توانید به آنچه که گوش‌ها
    و چشم‌هایتان می‌گوید، اعتماد کنید.>>
  • 7:52 - 7:54
    و این همان خطری است که
  • 7:54 - 8:00
    پرفسور روبرت چسنی و من
    آن را "منفعت دروغگوها" می‌نامیم.
  • 8:00 - 8:03
    خطر اینکه دروغگوها با توسل به جعل‌های‌عمیق
  • 8:03 - 8:06
    از مسئولیت تخلفاتشان فرار کنند.
  • 8:07 - 8:10
    پس ما کار بسیار سختی در پیش داریم،
    هیج شکی در آن نیست.
  • 8:11 - 8:14
    ما به یک راه حل پیشگیرانه
    از شرکت‌های فناوری
  • 8:14 - 8:17
    از قانونگذارن، از حکمفرمایان
  • 8:17 - 8:19
    و رسانه‌ها نیاز داریم.
  • 8:20 - 8:24
    ما به دُز سالمی از مقاومت
    اجتماعی احتیاح داریم.
  • 8:26 - 8:29
    امروزه، در بسیاری از بحث‌های عمومی درباره
  • 8:29 - 8:32
    مسئولیت شرکت‌های فناوری شرکت می‌کنیم.
  • 8:33 - 8:36
    و پیشنهاد من به پایگاه شبکه‌های
    اجتماعی این بوده است که
  • 8:36 - 8:40
    شرایط استفاده از خدمات و دستورالعمل‌های
    عمومی خود را طوری تغییر دهند که
  • 8:40 - 8:42
    جعل‌های‌عمیقی که صدمه
    می‌زنند را ممنوع کند.
  • 8:43 - 8:47
    این اقدام، به یک داوری انسانی
    نیاز خواهد داشت،
  • 8:47 - 8:48
    و بسیار پرهزینه است.
  • 8:49 - 8:51
    اما ما به انسان‌هایی نیاز داریم که
  • 8:51 - 8:55
    محتوی و متن یک جعل‌عمیق را بررسی کنند
  • 8:55 - 8:59
    تا تشخیص دهند که پشت آن یک
    هویت جعلی مخرب قرار دارد
  • 8:59 - 9:03
    یا اینکه یک طنز، هنر و یا
    دانش ارزشمند است.
  • 9:04 - 9:06
    حالا قانون چه کار می‌کند؟
  • 9:07 - 9:09
    قانون مربی ماست.
  • 9:10 - 9:14
    او به ما درباره آنچه که مضر و
    آنچه که اشتباه است، درس می‌دهد.
  • 9:14 - 9:18
    و با مجازات افراد خاطی، رفتارهای
    بازدارنده را شکل می‌دهد
  • 9:18 - 9:20
    و برای قربانیان راه چاره می‌یابد.
  • 9:21 - 9:25
    در حال حاضر قانون مناسب
    برای جعل‌عمیق وجود ندارد.
  • 9:26 - 9:28
    در سرتاسر جهان،
  • 9:28 - 9:30
    با کمبود قوانین مناسب و طراحی شده
  • 9:30 - 9:34
    برای برخورد با هویت‌های
    جعلی دیجیتالی مواجهه هستیم،
  • 9:34 - 9:36
    کسانی که نقض‌کننده حریم جنسی هستند،
  • 9:36 - 9:37
    و اعتبار افراد را خدشه دار می‌کنند،
  • 9:37 - 9:39
    و آنهایی که مسبب مشکلات روحی هستند.
  • 9:40 - 9:44
    اتفاقی که برای رانا ایوب افتاد به
    سرعت در حال عادی شدن است.
  • 9:44 - 9:46
    در عین حال وقتی که به نهاد
    مجری قانون در دهلی رفت،
  • 9:46 - 9:48
    به او گفتند که هیج کاری نمی‌شود انجام داد.
  • 9:49 - 9:52
    و حقیقت تلخ آن است که در اروپا
  • 9:52 - 9:55
    و ایالات متحده هم همینطور است.
  • 9:55 - 10:00
    بنابراین یک خلا قانونی داریم
    که لازم است پر شود.
  • 10:00 - 10:04
    همکارم، دکتر مری آن فرنکس و من با
    قانون‌گذاران ایالات متحده همکاری می کنم تا
  • 10:04 - 10:09
    قانونی را تدوین کنیم که مانع
    هویت‌های جعلی دیجیتال شوند،
  • 10:09 - 10:12
    کسانی که تفاوتی با سارقین هویت ندارند.
  • 10:12 - 10:14
    و ما شاهد اقدامات مشابهی در
  • 10:14 - 10:18
    ایسلند، بریتانیا و استرالیا هستیم.
  • 10:18 - 10:21
    و البته این فقط یک تکه کوچک
    از پازل نظارت است.
  • 10:23 - 10:26
    من می‌دانم که قانون علاج همه
    دردها نیست. درست است؟
  • 10:26 - 10:28
    یک ابزار کند است.
  • 10:28 - 10:30
    و باید از آن هوشمندانه استفاده کنیم.
  • 10:30 - 10:33
    و همجنین موانع عملی بسیاری دارد.
  • 10:34 - 10:39
    شما نمی‌توانید قانون را علیه کسانی
    که نمی‌شناسید و پیدا نمی‌کنید اعمال کنید.
  • 10:39 - 10:43
    اگر فرد خاطی خارج از کشوری باشد
  • 10:43 - 10:45
    که قربانی در آن زندگی کند،
  • 10:45 - 10:46
    امکان ندارید بتوانید پافشاری کنید
  • 10:46 - 10:49
    که آن فرد خاطی به دادگاه‌های محلی بیاید تا
  • 10:49 - 10:50
    با عدالت روبه‌رو شود.
  • 10:50 - 10:54
    بنابراین به یک واکنش بین‌المللی
    هماهنگ نیاز خواهیم داشت.
  • 10:56 - 10:59
    آموزش هم باید بخشی از واکنش ما باشد.
  • 11:00 - 11:04
    قانونگذاران درباره چیزی که نمی‌دانند چیست
  • 11:04 - 11:05
    و چه مشکلاتی بوجود می‌آورد،
  • 11:05 - 11:08
    قانون وضع نمی‌کنند.
  • 11:08 - 11:11
    در تحقیقاتم در مورد آزار و اذیت‌های سایبری
  • 11:11 - 11:14
    متوجه شدم مجریان قانون آموزش کافی برای
  • 11:14 - 11:17
    فهمیدن قوانینی که در اختیار دارند و
  • 11:17 - 11:19
    معضل توهین‌های آنلاین، ندیده‌اند.
  • 11:19 - 11:22
    و خیلی اوقات به قربانیان گفته‌اند،
  • 11:22 - 11:26
    <<رایانه را خاموش کن. محل نگذار.
    خود به خود ناپدید می‌شود.>>
  • 11:26 - 11:29
    این را در مورد رانا ایوب مشاهده کردیم.
  • 11:29 - 11:33
    به او گفته شد،
    <<بیخیال، بی‌خود بزرگش کردی.
  • 11:33 - 11:34
    پسرها همین‌اند دیگه.>>
  • 11:35 - 11:41
    بنابراین باید قانون جدید را با تلاش‌های
    در زمینه آموزش همگام کنیم.
  • 11:42 - 11:45
    و آموزش در رسانه‌ها نیز باید هدفمند باشد.
  • 11:46 - 11:50
    لازم است خبرنگاران در مورد
    پدیده جعل‌عمیق آموزش ببینند
  • 11:50 - 11:54
    بنابراین آنها را تقویت و منتشر نمی‌کنند.
  • 11:55 - 11:57
    و این جایی‌ست که همه
    ما باید در آن درگیر شویم.
  • 11:57 - 12:01
    همه ما نیازمند آموزش هستیم.
  • 12:01 - 12:05
    ما هستیم که کلیک می‌کنیم، به اشتراک
    می‌گذاریم، می‌پسندیم و حتی فکر هم نمی‌کنیم.
  • 12:06 - 12:07
    باید بهتر عمل کنیم.
  • 12:08 - 12:11
    به رادارهای بهتری برای جعلیات نیاز داریم.
  • 12:14 - 12:18
    همان زمانی که بر روی
    این راه‌حل‌ها کار می‌کنیم،
  • 12:18 - 12:20
    رنج زیادی در حال پخش شدن است.
  • 12:21 - 12:24
    رانا ایوب هنوز با پیامدهای
    آن اتفاق کلنجار می‌رود.
  • 12:25 - 12:29
    هنوز برای بیان خودش آنلاین و
    آفلاین احساس راحتی نمی‌کند.
  • 12:30 - 12:31
    و همانطور که به من گفت،
  • 12:31 - 12:36
    کماکان احساس می‌کند هزاران
    نگاه به بدن لخت اوست،
  • 12:36 - 12:40
    اگرچه به صورت منطقی می‌داند
    که آن بدن او نبوده است.
  • 12:40 - 12:43
    و به او مرتب حمله‌های عصبی می‌شود،
  • 12:43 - 12:47
    خصوصا زمانی که کسی که نمی‌شناسد،
    تلاش می‌کند از او عکس بگیرد.
  • 12:47 - 12:50
    با خودش فکر می‌کند: << اگر بخواهند یک جعل
    عمیق دیگر بسازند، چه؟>>
  • 12:51 - 12:55
    پس بخاطر افرادی مثل رانا ایوب
  • 12:55 - 12:57
    و بخاطر دموکراسی
  • 12:57 - 13:00
    لازم است که همین الان کاری بکنیم.
  • 13:00 - 13:01
    متشکرم.
  • 13:01 - 13:03
    (تشویق)
Title:
چطور جعل‌عمیق حقیقت را تضعیف کرده و دموکراسی را تهدید می‌کند
Speaker:
دنیل سیترون
Description:

استفاده از فناوری جعل‌عمیق برای دستکاری فیلم و صوت برای دستیابی به اهداف شوم و بدخواهانه -- چه جهت شعله‌ور کردن خشنونت باشد، چه برای بدنام کردن سیاست‌مدارن یا روزنامه‌نگارها -- در حال تبدیل شدن به یک تهدید جدی است. اگر این ابزارها بیشتر در دسترس قرار بگیرند و محصول آنها واقعی‌تر بنظر بیاید، تصور ما نسبت به جهان به چه شکل درخواهند آمد؟ در یک سخنرانی تلخ، استاد حقوق دنیل سیترون فاش می‌کند که چطور جعل‌عمیق به بدگمانی ما دامن می‌زند -- و راه حل‌هایی برای محافظت از حقیقت پیشنهاد می‌کند.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Persian subtitles

Revisions