چطور جعلعمیق حقیقت را تضعیف کرده و دموکراسی را تهدید میکند
-
0:01 - 0:03(این سخنرانی محتوایی بالغانه دارد)
-
0:06 - 0:09رانا ایوب خبرنگار هندی است که
-
0:09 - 0:11فعالیتهایش، فساد حکومتی
-
0:12 - 0:15و نقض حقوق بشر را افشا کرده است.
-
0:15 - 0:16و طی سالها،
-
0:16 - 0:19به هجمه و جدال پیرامون کار
خود عادت کرده بود. -
0:20 - 0:25اما هیچ کدام، او را برای آنچه که در آوریل
۲۰۱۸ با آن روبهرو شد، آماده نکرده بود. -
0:26 - 0:30وقتی برای بار اول آن را مشاهده کرد
با دوستی در یک کافه نشسته بود: -
0:30 - 0:35فیلم دو دقیقه و ۲۰ ثانیهای از
رابطهایی جنسی با حضور خودش. -
0:35 - 0:38نمیتوانست به چشمانش اعتماد کند.
-
0:38 - 0:40او هرگز یک فیلم سکسی نساخته بود.
-
0:41 - 0:44اما متاسفانه هزاران هزار نفر باور داشتند
-
0:44 - 0:46که خودش بوده است.
-
0:47 - 0:50من با خانم ایوب سه ماه
پیش در رابطه با کتابم، -
0:50 - 0:52با موضوع حریم جنسی، مصاحبه کردم.
-
0:53 - 0:56من استاد حقوق، وکیل و
طرفدار حقوق مدنی هستم. -
0:56 - 1:01بنابراین برای من بیاندازه
مایوسکننده است که میدانم -
1:01 - 1:03در حال حاضر قانون کمک
خاصی به او نمیکند. -
1:03 - 1:05و وقتی صحبت میکردیم،
-
1:05 - 1:10او توضیح داد که باید فکر انتشار
فیلم تقلبی از رابطه جنسی را میکرد. -
1:10 - 1:16او گفت، <<در واقع سکس اغلب برای تحقیر
کردن و خجالتزده کردن زنان استفاده میشود، -
1:16 - 1:18خصوصا زنان اقلیت،
-
1:18 - 1:22و خصوصا زنان اقلیتی که جرات
مبارزه با مردان قدرتمند را دارند.>> -
1:22 - 1:24چیزی که او در کارش داشت.
-
1:25 - 1:29فیلم سکس جعلی در عرض
۴۸ ساعت پخش (وایرال) شد. -
1:30 - 1:35تمام حسابهای آنلاین او غرق
اسکرینشاتها از آن فیلم، -
1:35 - 1:38و تهدیدهای گرافیکیِ تجاوز و قتل شده بود.
-
1:38 - 1:41به همراه لکه دار کردن اعتقادات اسلامی او.
-
1:41 - 1:46در مطالب اینترنتی او را برای
رابطه جنسی پیشنهاد میکردند. -
1:46 - 1:48و او dox شده بود،
-
1:48 - 1:50به این معنی که آدرس خانه و شماره تلفن او
-
1:50 - 1:52در سراسر اینترنت پخش شده بود.
-
1:53 - 1:57فیلم بیش از ۴۰,۰۰۰ بار به
اشتراک گذاشته شده بود. -
1:58 - 2:02وقتی یک نفر با چنین حمله
سایبری مورد هدف قرار میگیرد، -
2:02 - 2:04ضربهای اساسی به او وارد شده است.
-
2:04 - 2:08زندگی رانا ایوب وارونه شد.
-
2:08 - 2:12او برای هفتهها به سختی غذا
میخورد و صحبت میکرد. -
2:12 - 2:16او از نوشتن دست کشید و تمام حسابهای
شبکههای آنلاین خود را بست، -
2:16 - 2:19مسئلهای که میدانید چقدر مشکل است
وقتی که یک خبرنگار باشید. -
2:19 - 2:23او از اینکه از خانه خودشان
خارج شود میترسید. -
2:23 - 2:26اگر افرادی که مطلب گذاشته بودند، تهدیدشان
را عملی میکردند، چه اتفاقی میافتاد؟ -
2:26 - 2:31شورای حقوق بشر سازمان ملل متحد
تایید کرد که او دیوانه نشده است. -
2:31 - 2:35یک بیانیه عمومی منتشر کرد که
میگفت که آنها نگران امنیت او هستند. -
2:37 - 2:41رانا ایوب با یک جعلعمیق مواجه شده بود:
-
2:41 - 2:44فناوری یادگیری-ماشین
-
2:44 - 2:48که صوتها و فیلمها را
دستکاری و جعل میکند -
2:48 - 2:50تا نشان دهد مردم چیزهایی
میگویند و یا انجام میدهند که -
2:50 - 2:52هرگز نگفته و نکردهاند.
-
2:53 - 2:56جعلعمیقها به صورت موثق و واقعی
ظاهر میشوند اما چنین نیستند، -
2:56 - 2:58آنها به کلی کذب هستند.
-
2:59 - 3:03فناوری هنوز با تمام پیچیدگیهایش
در حال توسعه است، -
3:03 - 3:05و بطور گسترده در دسترس است.
-
3:05 - 3:08اخیرا توجه به جعلعمیق افزایش یافته است،
-
3:08 - 3:11به طوری که میشود به صورت آنلاین خیلی از
-
3:11 - 3:12کارها در رابطه با پرنوگرافی انجام داد.
-
3:12 - 3:15اوایل سال ۲۰۱۸،
-
3:15 - 3:17یک نفر ابزاری را در Reddit منتشرکرد که
-
3:17 - 3:22به کاربر امکان اضافه کردن چهره
به فیلمهای سکسی را میداد. -
3:22 - 3:25و چیزی که به دنبالش بود سرازیر
شدن فیلمهای سکسی جعلی -
3:25 - 3:28با چهرهی زنان مشهور و محبوب مردم بود.
-
3:29 - 3:32و امروز، میتوانید وارد سایت یوتیوب
شده و تمرینهای بیشماری را -
3:32 - 3:34با دستورالعملهای گامبهگام
-
3:35 - 3:38برای درست کردن یک جعلعمیق
بر روی کامیپوتر خود، بیابید. -
3:38 - 3:42و به زودی شاید امکان آن را داشته باشیم
تا با گوشیهایمان آنها را درست کنیم. -
3:43 - 3:48اکنون این برهم کنش بعضی
از ضعفهای اساسی بشر و -
3:48 - 3:50ابزارهای شبکهاست که
-
3:50 - 3:53میتواند جعلعمیق را به سلاح تبدیل کند.
-
3:53 - 3:54اجازه دهید توضیح دهم.
-
3:55 - 3:59به عنوان انسان، ما واکنشی غریزی
نسبت به فیلم وصوت داریم. -
4:00 - 4:01ما باور داریم آنها حقیقی هستند،
-
4:01 - 4:03البته با این تصور که
شما میتوانید هر آنچه -
4:03 - 4:06که چشمها و گوشهایتان میگوید باور کنید.
-
4:06 - 4:08و این همان سازوکاری است که
-
4:08 - 4:12ممکن است حس واقعگرایی ما را سست کند.
-
4:12 - 4:15و باور کنیم که جعلهای عمیق
درست هستند در حالی که نیستند. -
4:16 - 4:20و ما به محتوی جنسی و
بحثبرانگیز جذب میشویم. -
4:20 - 4:23تمایل داریم اطلاعاتی که
منفی و جدید هستند را -
4:23 - 4:25باور کنیم و به اشتراک بگذاریم.
-
4:26 - 4:31تحقیقات نشان داده است که حقههای
آنلاین ده برابر داستانهای دقیق -
4:31 - 4:32منتشر میشوند.
-
4:34 - 4:38حال ما به اطلاعاتی که در
راستای دیدگاههایمان است -
4:38 - 4:40کشیده میشویم.
-
4:41 - 4:45روانشناسان این تمایل را
<<سوگیری تاییدی>> مینامند. -
4:45 - 4:50و شبکههای اجتماعی به شدت
این گرایش را با امکان -
4:50 - 4:54اشتراک گذاری سریع و گسترده اطلاعاتی
که با نقطه نظرات ما همخوانی دارد، -
4:54 - 4:55تقویت میکنند.
-
4:57 - 5:02اکنون جعلعمیق پتانسیل این را دارد تا موجب
یک صدمهی شخصی و اجتماعی جدی شود. -
5:03 - 5:05جعلعمیقی را تصور کنید که
-
5:05 - 5:09نشان میدهد که یک سرباز آمریکایی
در افغانستان قرآن را میسوزاند. -
5:11 - 5:14میتوانید تصور کنید که
جعلعمیق میتواند به خشونت -
5:14 - 5:15علیه آن سربازان دامن بزند.
-
5:16 - 5:19و چه اتفاقی خواهد افتاد، اگر در روز بعد
-
5:19 - 5:21یک جعلعمیق دیگر به راه بیافتد،
-
5:21 - 5:24که نشان میدهد یک شیخ مشهور ساکن لندن،
-
5:24 - 5:27حمله به آن سربازان را ستایش میکند؟
-
5:28 - 5:31و شاید شاهد خشونت و ناآرامیهای مدنی،
-
5:31 - 5:34نه تنها در افغانستان و بریتانیا
-
5:34 - 5:36بلکه در سرتاسر جهان باشیم.
-
5:36 - 5:37ممکن است بگویید،
-
5:37 - 5:40<<بیخیال دنیل، خیلی بعید است.>>
-
5:40 - 5:41ولی نیست.
-
5:41 - 5:43مشاهده کردهایم که انتشار دروغها
-
5:44 - 5:46بر روی واتسآپ و دیگر
سرویسهای پیامرسان آنلاین -
5:46 - 5:49منجر به خشونت علیه اقلیتهای قومی میشود.
-
5:49 - 5:51و این فقط متن است --
-
5:51 - 5:53تصور کنید فیلم باشد.
-
5:55 - 6:00اکنون جعلعمیق پتانسیل این را دارد
که اعتمادی که به نهادهای دموکراتیک داریم -
6:00 - 6:02ذره ذره نابود کند.
-
6:03 - 6:06شب قبل انتخابات را تصور کنید.
-
6:06 - 6:09یک جعلعمیق نشان میدهد
که یکی از کاندیداهای حزب اصلی -
6:09 - 6:10به شدت مریض است.
-
6:11 - 6:14جعلعمیق میتواند انتخابات
را از مسیر خود خارج کند -
6:14 - 6:17و احساس ما نسبت به انتخابات
قانونی را تکان دهد. -
6:19 - 6:22تصور کنید شب قبل از
عرضه اولیه یک سهام، -
6:22 - 6:24توسط یک بانک بزرگ جهانی،
-
6:24 - 6:27جعلعمیقی نشان میدهد مدیرعامل آن بانک
-
6:27 - 6:30در حالت مستی حرفهای بیجایی
درباره تئوری توطئه میزند. -
6:31 - 6:34جعلعمیق میتواند عرضه سهام
را به ورطه نابودی بکشاند. -
6:34 - 6:38و بدتر، احساس ما درباره اینکه بازارهای
مالی باثبات هستند را تکان دهد. -
6:39 - 6:46بنابراین جعلهایعمیق میتوانند بیاعتمادی
زیادی که همین الان هم به سیاستمداران، -
6:46 - 6:51رهبران اقتصادی و دیگر رهبران بانفوذ داریم
بزرگتر کرده و از آن سواستقاده کنند. -
6:51 - 6:54آنها مخاطب بالقوه برای
باور کردن را پیدا میکنند. -
6:55 - 6:58و همچنین دنبال کردن حقیقت هم در خطر است.
-
6:59 - 7:03اهل فن منتظر پیشرفت در هوش مصنوعی هستند،
-
7:03 - 7:06بزودی به سختی و حتی غیرممکن است که
-
7:06 - 7:10تفاوت بین یک فیلم
واقعی و تقلبی را بگوییم. -
7:11 - 7:16پس حقیقت چگونه میتواند در بازار
داغ ایدههای جعلیعمیق نمایان شود؟ -
7:17 - 7:20به مسیر خود بدون هیچ مقاومتی ادامه میدهیم
-
7:20 - 7:23و چیزی که میخواهیم باور
کنیم را باور میکنیم، -
7:23 - 7:24و حقیقت را نادیده میگیریم؟
-
7:25 - 7:28و نه تنها ممکن است جعلیات را باور کنیم،
-
7:28 - 7:31ممکن است باورنکردن حقیقت
را هم شروع کنیم. -
7:32 - 7:36اخیرا دیدهایم که مردم به جعلهای
عمیق متوسل میشوند -
7:36 - 7:40تا بر روی مدارک واقعی
تخلفاتشان شبه افکنی کنند. -
7:40 - 7:46شنیدهایم که سیاستمداران درباره
صوت نظرات آزاردهندهشان گفتهاند، -
7:46 - 7:48<<بیخیال، آنها خبرهای جعلی هستند.
-
7:48 - 7:52شما نمیتوانید به آنچه که گوشها
و چشمهایتان میگوید، اعتماد کنید.>> -
7:52 - 7:54و این همان خطری است که
-
7:54 - 8:00پرفسور روبرت چسنی و من
آن را "منفعت دروغگوها" مینامیم. -
8:00 - 8:03خطر اینکه دروغگوها با توسل به جعلهایعمیق
-
8:03 - 8:06از مسئولیت تخلفاتشان فرار کنند.
-
8:07 - 8:10پس ما کار بسیار سختی در پیش داریم،
هیج شکی در آن نیست. -
8:11 - 8:14ما به یک راه حل پیشگیرانه
از شرکتهای فناوری -
8:14 - 8:17از قانونگذارن، از حکمفرمایان
-
8:17 - 8:19و رسانهها نیاز داریم.
-
8:20 - 8:24ما به دُز سالمی از مقاومت
اجتماعی احتیاح داریم. -
8:26 - 8:29امروزه، در بسیاری از بحثهای عمومی درباره
-
8:29 - 8:32مسئولیت شرکتهای فناوری شرکت میکنیم.
-
8:33 - 8:36و پیشنهاد من به پایگاه شبکههای
اجتماعی این بوده است که -
8:36 - 8:40شرایط استفاده از خدمات و دستورالعملهای
عمومی خود را طوری تغییر دهند که -
8:40 - 8:42جعلهایعمیقی که صدمه
میزنند را ممنوع کند. -
8:43 - 8:47این اقدام، به یک داوری انسانی
نیاز خواهد داشت، -
8:47 - 8:48و بسیار پرهزینه است.
-
8:49 - 8:51اما ما به انسانهایی نیاز داریم که
-
8:51 - 8:55محتوی و متن یک جعلعمیق را بررسی کنند
-
8:55 - 8:59تا تشخیص دهند که پشت آن یک
هویت جعلی مخرب قرار دارد -
8:59 - 9:03یا اینکه یک طنز، هنر و یا
دانش ارزشمند است. -
9:04 - 9:06حالا قانون چه کار میکند؟
-
9:07 - 9:09قانون مربی ماست.
-
9:10 - 9:14او به ما درباره آنچه که مضر و
آنچه که اشتباه است، درس میدهد. -
9:14 - 9:18و با مجازات افراد خاطی، رفتارهای
بازدارنده را شکل میدهد -
9:18 - 9:20و برای قربانیان راه چاره مییابد.
-
9:21 - 9:25در حال حاضر قانون مناسب
برای جعلعمیق وجود ندارد. -
9:26 - 9:28در سرتاسر جهان،
-
9:28 - 9:30با کمبود قوانین مناسب و طراحی شده
-
9:30 - 9:34برای برخورد با هویتهای
جعلی دیجیتالی مواجهه هستیم، -
9:34 - 9:36کسانی که نقضکننده حریم جنسی هستند،
-
9:36 - 9:37و اعتبار افراد را خدشه دار میکنند،
-
9:37 - 9:39و آنهایی که مسبب مشکلات روحی هستند.
-
9:40 - 9:44اتفاقی که برای رانا ایوب افتاد به
سرعت در حال عادی شدن است. -
9:44 - 9:46در عین حال وقتی که به نهاد
مجری قانون در دهلی رفت، -
9:46 - 9:48به او گفتند که هیج کاری نمیشود انجام داد.
-
9:49 - 9:52و حقیقت تلخ آن است که در اروپا
-
9:52 - 9:55و ایالات متحده هم همینطور است.
-
9:55 - 10:00بنابراین یک خلا قانونی داریم
که لازم است پر شود. -
10:00 - 10:04همکارم، دکتر مری آن فرنکس و من با
قانونگذاران ایالات متحده همکاری می کنم تا -
10:04 - 10:09قانونی را تدوین کنیم که مانع
هویتهای جعلی دیجیتال شوند، -
10:09 - 10:12کسانی که تفاوتی با سارقین هویت ندارند.
-
10:12 - 10:14و ما شاهد اقدامات مشابهی در
-
10:14 - 10:18ایسلند، بریتانیا و استرالیا هستیم.
-
10:18 - 10:21و البته این فقط یک تکه کوچک
از پازل نظارت است. -
10:23 - 10:26من میدانم که قانون علاج همه
دردها نیست. درست است؟ -
10:26 - 10:28یک ابزار کند است.
-
10:28 - 10:30و باید از آن هوشمندانه استفاده کنیم.
-
10:30 - 10:33و همجنین موانع عملی بسیاری دارد.
-
10:34 - 10:39شما نمیتوانید قانون را علیه کسانی
که نمیشناسید و پیدا نمیکنید اعمال کنید. -
10:39 - 10:43اگر فرد خاطی خارج از کشوری باشد
-
10:43 - 10:45که قربانی در آن زندگی کند،
-
10:45 - 10:46امکان ندارید بتوانید پافشاری کنید
-
10:46 - 10:49که آن فرد خاطی به دادگاههای محلی بیاید تا
-
10:49 - 10:50با عدالت روبهرو شود.
-
10:50 - 10:54بنابراین به یک واکنش بینالمللی
هماهنگ نیاز خواهیم داشت. -
10:56 - 10:59آموزش هم باید بخشی از واکنش ما باشد.
-
11:00 - 11:04قانونگذاران درباره چیزی که نمیدانند چیست
-
11:04 - 11:05و چه مشکلاتی بوجود میآورد،
-
11:05 - 11:08قانون وضع نمیکنند.
-
11:08 - 11:11در تحقیقاتم در مورد آزار و اذیتهای سایبری
-
11:11 - 11:14متوجه شدم مجریان قانون آموزش کافی برای
-
11:14 - 11:17فهمیدن قوانینی که در اختیار دارند و
-
11:17 - 11:19معضل توهینهای آنلاین، ندیدهاند.
-
11:19 - 11:22و خیلی اوقات به قربانیان گفتهاند،
-
11:22 - 11:26<<رایانه را خاموش کن. محل نگذار.
خود به خود ناپدید میشود.>> -
11:26 - 11:29این را در مورد رانا ایوب مشاهده کردیم.
-
11:29 - 11:33به او گفته شد،
<<بیخیال، بیخود بزرگش کردی. -
11:33 - 11:34پسرها همیناند دیگه.>>
-
11:35 - 11:41بنابراین باید قانون جدید را با تلاشهای
در زمینه آموزش همگام کنیم. -
11:42 - 11:45و آموزش در رسانهها نیز باید هدفمند باشد.
-
11:46 - 11:50لازم است خبرنگاران در مورد
پدیده جعلعمیق آموزش ببینند -
11:50 - 11:54بنابراین آنها را تقویت و منتشر نمیکنند.
-
11:55 - 11:57و این جاییست که همه
ما باید در آن درگیر شویم. -
11:57 - 12:01همه ما نیازمند آموزش هستیم.
-
12:01 - 12:05ما هستیم که کلیک میکنیم، به اشتراک
میگذاریم، میپسندیم و حتی فکر هم نمیکنیم. -
12:06 - 12:07باید بهتر عمل کنیم.
-
12:08 - 12:11به رادارهای بهتری برای جعلیات نیاز داریم.
-
12:14 - 12:18همان زمانی که بر روی
این راهحلها کار میکنیم، -
12:18 - 12:20رنج زیادی در حال پخش شدن است.
-
12:21 - 12:24رانا ایوب هنوز با پیامدهای
آن اتفاق کلنجار میرود. -
12:25 - 12:29هنوز برای بیان خودش آنلاین و
آفلاین احساس راحتی نمیکند. -
12:30 - 12:31و همانطور که به من گفت،
-
12:31 - 12:36کماکان احساس میکند هزاران
نگاه به بدن لخت اوست، -
12:36 - 12:40اگرچه به صورت منطقی میداند
که آن بدن او نبوده است. -
12:40 - 12:43و به او مرتب حملههای عصبی میشود،
-
12:43 - 12:47خصوصا زمانی که کسی که نمیشناسد،
تلاش میکند از او عکس بگیرد. -
12:47 - 12:50با خودش فکر میکند: << اگر بخواهند یک جعل
عمیق دیگر بسازند، چه؟>> -
12:51 - 12:55پس بخاطر افرادی مثل رانا ایوب
-
12:55 - 12:57و بخاطر دموکراسی
-
12:57 - 13:00لازم است که همین الان کاری بکنیم.
-
13:00 - 13:01متشکرم.
-
13:01 - 13:03(تشویق)
- Title:
- چطور جعلعمیق حقیقت را تضعیف کرده و دموکراسی را تهدید میکند
- Speaker:
- دنیل سیترون
- Description:
-
استفاده از فناوری جعلعمیق برای دستکاری فیلم و صوت برای دستیابی به اهداف شوم و بدخواهانه -- چه جهت شعلهور کردن خشنونت باشد، چه برای بدنام کردن سیاستمدارن یا روزنامهنگارها -- در حال تبدیل شدن به یک تهدید جدی است. اگر این ابزارها بیشتر در دسترس قرار بگیرند و محصول آنها واقعیتر بنظر بیاید، تصور ما نسبت به جهان به چه شکل درخواهند آمد؟ در یک سخنرانی تلخ، استاد حقوق دنیل سیترون فاش میکند که چطور جعلعمیق به بدگمانی ما دامن میزند -- و راه حلهایی برای محافظت از حقیقت پیشنهاد میکند.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Leila Ataei approved Persian subtitles for How deepfakes undermine truth and threaten democracy | ||
Leila Ataei accepted Persian subtitles for How deepfakes undermine truth and threaten democracy | ||
Leila Ataei edited Persian subtitles for How deepfakes undermine truth and threaten democracy | ||
Erfan Yasseri edited Persian subtitles for How deepfakes undermine truth and threaten democracy | ||
Erfan Yasseri edited Persian subtitles for How deepfakes undermine truth and threaten democracy | ||
Erfan Yasseri edited Persian subtitles for How deepfakes undermine truth and threaten democracy | ||
Erfan Yasseri edited Persian subtitles for How deepfakes undermine truth and threaten democracy | ||
Erfan Yasseri edited Persian subtitles for How deepfakes undermine truth and threaten democracy |