1 00:00:00,535 --> 00:00:03,302 (این سخنرانی محتوایی بالغانه دارد) 2 00:00:05,762 --> 00:00:08,754 رانا ایوب خبرنگار هندی است که 3 00:00:08,778 --> 00:00:11,380 فعالیت‌هایش، فساد حکومتی 4 00:00:12,411 --> 00:00:14,568 و نقض حقوق بشر را افشا کرده است. 5 00:00:14,990 --> 00:00:16,157 و طی سال‌ها، 6 00:00:16,181 --> 00:00:19,484 به هجمه و جدال پیرامون کار خود عادت کرده بود. 7 00:00:20,149 --> 00:00:25,258 اما هیچ‌ کدام، او را برای آنچه که در آوریل ۲۰۱۸ با آن روبه‌رو شد، آماده نکرده بود. 8 00:00:26,125 --> 00:00:29,776 وقتی برای بار اول آن را مشاهده کرد با دوستی در یک کافه نشسته بود: 9 00:00:29,800 --> 00:00:34,743 فیلم دو دقیقه و ۲۰ ثانیه‌ای از رابطه‌ایی جنسی با حضور خودش. 10 00:00:35,188 --> 00:00:37,537 نمی‌توانست به چشمانش اعتماد کند. 11 00:00:37,561 --> 00:00:39,834 او هرگز یک فیلم سکسی نساخته بود. 12 00:00:40,506 --> 00:00:43,971 اما متاسفانه هزاران هزار نفر باور داشتند 13 00:00:43,995 --> 00:00:45,661 که خودش بوده است. 14 00:00:46,673 --> 00:00:49,617 من با خانم ایوب سه ماه پیش در رابطه با کتابم، 15 00:00:49,641 --> 00:00:52,145 با موضوع حریم جنسی، مصاحبه کردم. 16 00:00:52,681 --> 00:00:55,879 من استاد حقوق، وکیل و طرفدار حقوق مدنی هستم. 17 00:00:56,204 --> 00:01:00,815 بنابراین برای من بی‌اندازه مایوس‌کننده است که می‌دانم 18 00:01:00,839 --> 00:01:03,077 در حال حاضر قانون کمک خاصی به او نمی‌کند. 19 00:01:03,458 --> 00:01:05,005 و وقتی صحبت می‌کردیم، 20 00:01:05,029 --> 00:01:09,541 او توضیح داد که باید فکر انتشار فیلم تقلبی از رابطه جنسی را می‌کرد. 21 00:01:10,038 --> 00:01:15,634 او گفت، <<در واقع سکس اغلب برای تحقیر کردن و خجالت‌زده کردن زنان استفاده می‌شود، 22 00:01:15,658 --> 00:01:18,086 خصوصا زنان اقلیت، 23 00:01:18,110 --> 00:01:22,422 و خصوصا زنان اقلیتی که جرات مبارزه با مردان قدرتمند را دارند.>> 24 00:01:22,446 --> 00:01:23,979 چیزی که او در کارش داشت. 25 00:01:25,191 --> 00:01:29,167 فیلم سکس جعلی در عرض ۴۸ ساعت پخش (وایرال) شد. 26 00:01:30,064 --> 00:01:35,371 تمام حساب‌های آنلاین او غرق اسکرین‌شات‌ها از آن فیلم، 27 00:01:35,395 --> 00:01:38,022 و تهدیدهای گرافیکیِ تجاوز و قتل شده بود. 28 00:01:38,046 --> 00:01:40,579 به همراه لکه دار کردن اعتقادات اسلامی او. 29 00:01:41,426 --> 00:01:45,990 در مطالب اینترنتی او را برای رابطه جنسی پیشنهاد می‌کردند. 30 00:01:46,014 --> 00:01:47,624 و او dox شده بود، 31 00:01:47,648 --> 00:01:50,426 به این معنی که آدرس خانه و شماره تلفن او 32 00:01:50,450 --> 00:01:52,196 در سراسر اینترنت پخش شده بود. 33 00:01:52,879 --> 00:01:56,963 فیلم بیش از ۴۰,۰۰۰ بار به اشتراک گذاشته شده بود. 34 00:01:57,760 --> 00:02:01,696 وقتی یک نفر با چنین حمله سایبری مورد هدف قرار می‌گیرد، 35 00:02:01,720 --> 00:02:03,783 ضربه‌ای اساسی به او وارد شده است. 36 00:02:04,482 --> 00:02:07,521 زندگی رانا ایوب وارونه شد. 37 00:02:08,211 --> 00:02:11,545 او برای هفته‌ها به سختی غذا می‌خورد و صحبت می‌کرد. 38 00:02:11,919 --> 00:02:15,608 او از نوشتن دست کشید و تمام حساب‌های شبکه‌های آنلاین خود را بست، 39 00:02:15,632 --> 00:02:18,790 مسئله‌ای که می‌دانید چقدر مشکل است وقتی که یک خبرنگار باشید. 40 00:02:19,188 --> 00:02:22,672 او از اینکه از خانه خودشان خارج شود می‌ترسید. 41 00:02:22,672 --> 00:02:26,395 اگر افرادی که مطلب گذاشته بودند، تهدیدشان را عملی می‌کردند، چه اتفاقی می‌افتاد؟ 42 00:02:26,395 --> 00:02:30,760 شورای حقوق بشر سازمان ملل متحد تایید کرد که او دیوانه نشده است. 43 00:02:30,784 --> 00:02:35,421 یک بیانیه عمومی منتشر کرد که می‌گفت که آنها نگران امنیت او هستند. 44 00:02:36,776 --> 00:02:41,005 رانا ایوب با یک جعل‌عمیق مواجه شده بود: 45 00:02:41,029 --> 00:02:43,569 فناوری یادگیری-ماشین 46 00:02:43,593 --> 00:02:47,704 که صوت‌ها و فیلم‌ها را دستکاری و جعل می‌کند 47 00:02:47,728 --> 00:02:50,451 تا نشان دهد مردم چیزهایی می‌گویند و یا انجام می‌دهند که 48 00:02:50,475 --> 00:02:52,341 هرگز نگفته و نکرده‌اند. 49 00:02:52,807 --> 00:02:56,168 جعل‌عمیق‌ها به صورت موثق و واقعی ظاهر می‌شوند اما چنین نیستند، 50 00:02:56,192 --> 00:02:57,964 آنها به کلی کذب هستند. 51 00:02:59,228 --> 00:03:03,022 فناوری هنوز با تمام پیچیدگی‌هایش در حال توسعه است، 52 00:03:03,046 --> 00:03:04,660 و بطور گسترده در دسترس است. 53 00:03:05,371 --> 00:03:08,443 اخیرا توجه به جعل‌عمیق افزایش یافته است، 54 00:03:08,467 --> 00:03:10,628 به طوری که می‌شود به صورت آنلاین خیلی از 55 00:03:10,652 --> 00:03:12,458 کارها در رابطه با پرنوگرافی انجام داد. 56 00:03:12,498 --> 00:03:14,609 اوایل سال ۲۰۱۸، 57 00:03:14,633 --> 00:03:17,101 یک نفر ابزاری را در Reddit منتشرکرد که 58 00:03:17,125 --> 00:03:21,601 به کاربر امکان اضافه کردن چهره به فیلم‌های سکسی را می‌داد. 59 00:03:21,601 --> 00:03:25,065 و چیزی که به دنبالش بود سرازیر شدن فیلم‌های سکسی جعلی 60 00:03:25,065 --> 00:03:27,882 با چهره‌ی زنان مشهور و محبوب مردم بود. 61 00:03:28,712 --> 00:03:32,189 و امروز، می‌توانید وارد سایت یوتیوب شده و تمرین‌های بیشماری را 62 00:03:32,213 --> 00:03:34,499 با دستورالعمل‌های گام‌به‌گام 63 00:03:34,523 --> 00:03:37,686 برای درست کردن یک جعل‌عمیق بر روی کامیپوتر خود، بیابید. 64 00:03:38,260 --> 00:03:41,966 و به زودی شاید امکان آن را داشته باشیم تا با گوشی‌هایمان آنها را درست کنیم. 65 00:03:43,072 --> 00:03:48,454 اکنون این برهم کنش بعضی از ضعف‌های اساسی بشر و 66 00:03:48,478 --> 00:03:50,160 ابزارهای شبکه‌است که 67 00:03:50,184 --> 00:03:52,850 می‌تواند جعل‌عمیق را به سلاح تبدیل کند. 68 00:03:52,874 --> 00:03:54,074 اجازه دهید توضیح دهم. 69 00:03:54,875 --> 00:03:59,441 به عنوان انسان، ما واکنشی غریزی نسبت به فیلم وصوت داریم. 70 00:03:59,860 --> 00:04:01,348 ما باور داریم آنها حقیقی هستند، 71 00:04:01,372 --> 00:04:03,450 البته با این تصور که شما می‌توانید هر آنچه 72 00:04:03,474 --> 00:04:05,952 که چشم‌ها و گوش‌هایتان می‌گوید باور کنید. 73 00:04:06,476 --> 00:04:08,175 و این همان سازوکاری است که 74 00:04:08,199 --> 00:04:11,897 ممکن است حس واقع‌گرایی ما را سست کند. 75 00:04:11,921 --> 00:04:15,068 و باور کنیم که جعل‌های عمیق درست هستند در حالی که نیستند. 76 00:04:15,604 --> 00:04:19,761 و ما به محتوی جنسی و بحث‌برانگیز جذب می‌شویم. 77 00:04:20,365 --> 00:04:23,412 تمایل داریم اطلاعاتی که منفی و جدید هستند را 78 00:04:23,436 --> 00:04:25,459 باور کنیم و به اشتراک بگذاریم. 79 00:04:25,809 --> 00:04:30,828 تحقیقات نشان داده است که حقه‌های آنلاین ده برابر داستان‌های دقیق 80 00:04:30,852 --> 00:04:32,479 منتشر می‌شوند. 81 00:04:34,015 --> 00:04:38,395 حال ما به اطلاعاتی که در راستای دیدگاه‌هایمان است 82 00:04:38,419 --> 00:04:40,311 کشیده می‌شویم. 83 00:04:40,950 --> 00:04:44,511 روانشناسان این تمایل را <<سوگیری تاییدی>> می‌نامند. 84 00:04:45,300 --> 00:04:49,687 و شبکه‌های اجتماعی به شدت این گرایش را با امکان 85 00:04:49,711 --> 00:04:53,592 اشتراک گذاری سریع و گسترده اطلاعاتی که با نقطه نظرات ما همخوانی دارد، 86 00:04:53,616 --> 00:04:55,408 تقویت می‌کنند. 87 00:04:56,735 --> 00:05:02,303 اکنون جعل‌عمیق پتانسیل این را دارد تا موجب یک صدمه‌ی شخصی و اجتماعی جدی شود. 88 00:05:03,204 --> 00:05:05,228 جعل‌عمیقی را تصور کنید که 89 00:05:05,252 --> 00:05:09,434 نشان می‌دهد که یک سرباز آمریکایی در افغانستان قرآن را می‌سوزاند. 90 00:05:10,807 --> 00:05:13,831 می‌توانید تصور کنید که جعل‌عمیق می‌تواند به خشونت 91 00:05:13,855 --> 00:05:15,388 علیه آن سربازان دامن بزند. 92 00:05:15,847 --> 00:05:18,720 و چه اتفاقی خواهد افتاد، اگر در روز بعد 93 00:05:18,744 --> 00:05:20,998 یک جعل‌عمیق دیگر به راه بی‌افتد، 94 00:05:21,022 --> 00:05:24,339 که نشان می‌دهد یک شیخ مشهور ساکن لندن، 95 00:05:24,363 --> 00:05:26,830 حمله به آن سربازان را ستایش می‌کند؟ 96 00:05:27,617 --> 00:05:30,780 و شاید شاهد خشونت و ناآرامی‌های مدنی، 97 00:05:30,804 --> 00:05:34,053 نه تنها در افغانستان و بریتانیا 98 00:05:34,077 --> 00:05:35,592 بلکه در سرتاسر جهان باشیم. 99 00:05:36,251 --> 00:05:37,409 ممکن است بگویید، 100 00:05:37,433 --> 00:05:39,680 <<بیخیال دنیل، خیلی بعید است.>> 101 00:05:39,704 --> 00:05:40,854 ولی نیست. 102 00:05:41,293 --> 00:05:43,484 مشاهده کرده‌ایم که انتشار دروغ‌ها 103 00:05:43,508 --> 00:05:46,230 بر روی واتس‌آپ و دیگر سرویس‌های پیام‌رسان آنلاین 104 00:05:46,254 --> 00:05:49,015 منجر به خشونت علیه اقلیت‌های قومی می‌شود. 105 00:05:49,039 --> 00:05:50,926 و این فقط متن است -- 106 00:05:50,950 --> 00:05:52,974 تصور کنید فیلم باشد. 107 00:05:54,593 --> 00:06:00,034 اکنون جعل‌عمیق پتانسیل این را دارد که اعتمادی که به نهادهای دموکراتیک داریم 108 00:06:00,034 --> 00:06:02,096 ذره ذره نابود کند. 109 00:06:03,006 --> 00:06:05,673 شب قبل انتخابات را تصور کنید. 110 00:06:05,996 --> 00:06:09,234 یک جعل‌عمیق نشان می‌دهد که یکی از کاندید‌اهای حزب اصلی 111 00:06:09,258 --> 00:06:10,408 به شدت مریض است. 112 00:06:11,202 --> 00:06:13,599 جعل‌عمیق می‌تواند انتخابات را از مسیر خود خارج کند 113 00:06:13,599 --> 00:06:17,164 و احساس ما نسبت به انتخابات قانونی را تکان دهد. 114 00:06:18,515 --> 00:06:21,841 تصور کنید شب قبل از عرضه اولیه یک سهام، 115 00:06:21,865 --> 00:06:24,198 توسط یک بانک بزرگ جهانی، 116 00:06:24,222 --> 00:06:27,371 جعل‌عمیقی نشان می‌دهد مدیرعامل آن بانک 117 00:06:27,395 --> 00:06:30,092 در حالت مستی حرف‌های بی‌جایی درباره تئوری‌ توطئه‌ می‌زند. 118 00:06:30,887 --> 00:06:33,934 جعل‌عمیق می‌تواند عرضه سهام را به ورطه نابودی بکشاند. 119 00:06:33,958 --> 00:06:38,073 و بدتر، احساس ما درباره اینکه بازارهای مالی باثبات هستند را تکان دهد. 120 00:06:39,385 --> 00:06:46,374 بنابراین جعل‌های‌عمیق می‌توانند بی‌اعتمادی زیادی که همین الان هم به سیاست‌مداران، 121 00:06:46,398 --> 00:06:50,612 رهبران اقتصادی و دیگر رهبران بانفوذ داریم بزرگتر کرده و از آن سواستقاده کنند. 122 00:06:50,945 --> 00:06:54,229 آنها مخاطب بالقوه برای باور کردن را پیدا می‌کنند. 123 00:06:55,287 --> 00:06:58,052 و همچنین دنبال کردن حقیقت هم در خطر است. 124 00:06:59,077 --> 00:07:02,641 اهل فن منتظر پیشرفت در هوش مصنوعی هستند، 125 00:07:02,665 --> 00:07:06,347 بزودی به سختی و حتی غیرممکن است که 126 00:07:06,371 --> 00:07:10,140 تفاوت بین یک فیلم واقعی و تقلبی را بگوییم. 127 00:07:11,022 --> 00:07:16,363 پس حقیقت چگونه می‌تواند در بازار داغ ایده‌‌های جعلی‌عمیق نمایان شود؟ 128 00:07:16,752 --> 00:07:20,172 به مسیر خود بدون هیچ مقاومتی ادامه می‌دهیم 129 00:07:20,196 --> 00:07:22,633 و چیزی که می‌خواهیم باور کنیم را باور می‌کنیم، 130 00:07:22,657 --> 00:07:23,947 و حقیقت را نادیده می‌گیریم؟ 131 00:07:24,831 --> 00:07:28,006 و نه تنها ممکن است جعلیات را باور کنیم، 132 00:07:28,030 --> 00:07:31,356 ممکن است باورنکردن حقیقت را هم شروع کنیم. 133 00:07:31,887 --> 00:07:35,966 اخیرا دیده‌ایم که مردم به جعل‌های عمیق متوسل می‌شوند 134 00:07:35,990 --> 00:07:39,910 تا بر روی مدارک واقعی تخلفاتشان شبه افکنی کنند. 135 00:07:39,934 --> 00:07:45,903 شنیده‌ایم که سیاستمداران درباره صوت نظرات آزاردهنده‌شان گفته‌اند، 136 00:07:45,927 --> 00:07:47,673 <<بیخیال، آنها خبرهای جعلی هستند. 137 00:07:47,697 --> 00:07:51,617 شما نمی‌توانید به آنچه که گوش‌ها و چشم‌هایتان می‌گوید، اعتماد کنید.>> 138 00:07:52,402 --> 00:07:54,133 و این همان خطری است که 139 00:07:54,157 --> 00:07:59,593 پرفسور روبرت چسنی و من آن را "منفعت دروغگوها" می‌نامیم. 140 00:07:59,617 --> 00:08:02,974 خطر اینکه دروغگوها با توسل به جعل‌های‌عمیق 141 00:08:02,998 --> 00:08:05,903 از مسئولیت تخلفاتشان فرار کنند. 142 00:08:06,963 --> 00:08:10,034 پس ما کار بسیار سختی در پیش داریم، هیج شکی در آن نیست. 143 00:08:10,606 --> 00:08:13,931 ما به یک راه حل پیشگیرانه از شرکت‌های فناوری 144 00:08:13,955 --> 00:08:17,466 از قانونگذارن، از حکمفرمایان 145 00:08:17,490 --> 00:08:19,474 و رسانه‌ها نیاز داریم. 146 00:08:20,093 --> 00:08:24,109 ما به دُز سالمی از مقاومت اجتماعی احتیاح داریم. 147 00:08:25,506 --> 00:08:29,402 امروزه، در بسیاری از بحث‌های عمومی درباره 148 00:08:29,426 --> 00:08:32,339 مسئولیت شرکت‌های فناوری شرکت می‌کنیم. 149 00:08:32,926 --> 00:08:35,958 و پیشنهاد من به پایگاه شبکه‌های اجتماعی این بوده است که 150 00:08:35,982 --> 00:08:39,855 شرایط استفاده از خدمات و دستورالعمل‌های عمومی خود را طوری تغییر دهند که 151 00:08:39,879 --> 00:08:42,215 جعل‌های‌عمیقی که صدمه می‌زنند را ممنوع کند. 152 00:08:42,712 --> 00:08:46,672 این اقدام، به یک داوری انسانی نیاز خواهد داشت، 153 00:08:46,696 --> 00:08:48,267 و بسیار پرهزینه است. 154 00:08:48,673 --> 00:08:50,958 اما ما به انسان‌هایی نیاز داریم که 155 00:08:50,982 --> 00:08:54,855 محتوی و متن یک جعل‌عمیق را بررسی کنند 156 00:08:54,879 --> 00:08:58,561 تا تشخیص دهند که پشت آن یک هویت جعلی مخرب قرار دارد 157 00:08:58,585 --> 00:09:02,967 یا اینکه یک طنز، هنر و یا دانش ارزشمند است. 158 00:09:04,118 --> 00:09:05,613 حالا قانون چه کار می‌کند؟ 159 00:09:06,666 --> 00:09:09,015 قانون مربی ماست. 160 00:09:09,515 --> 00:09:13,553 او به ما درباره آنچه که مضر و آنچه که اشتباه است، درس می‌دهد. 161 00:09:13,577 --> 00:09:18,132 و با مجازات افراد خاطی، رفتارهای بازدارنده را شکل می‌دهد 162 00:09:18,156 --> 00:09:20,423 و برای قربانیان راه چاره می‌یابد. 163 00:09:21,148 --> 00:09:25,428 در حال حاضر قانون مناسب برای جعل‌عمیق وجود ندارد. 164 00:09:26,116 --> 00:09:27,506 در سرتاسر جهان، 165 00:09:27,530 --> 00:09:29,974 با کمبود قوانین مناسب و طراحی شده 166 00:09:29,998 --> 00:09:33,568 برای برخورد با هویت‌های جعلی دیجیتالی مواجهه هستیم، 167 00:09:33,592 --> 00:09:35,687 کسانی که نقض‌کننده حریم جنسی هستند، 168 00:09:35,687 --> 00:09:37,398 و اعتبار افراد را خدشه دار می‌کنند، 169 00:09:37,398 --> 00:09:39,209 و آنهایی که مسبب مشکلات روحی هستند. 170 00:09:39,725 --> 00:09:43,598 اتفاقی که برای رانا ایوب افتاد به سرعت در حال عادی شدن است. 171 00:09:43,954 --> 00:09:46,288 در عین حال وقتی که به نهاد مجری قانون در دهلی رفت، 172 00:09:46,312 --> 00:09:48,447 به او گفتند که هیج کاری نمی‌شود انجام داد. 173 00:09:49,101 --> 00:09:52,284 و حقیقت تلخ آن است که در اروپا 174 00:09:52,308 --> 00:09:54,574 و ایالات متحده هم همینطور است. 175 00:09:55,300 --> 00:09:59,656 بنابراین یک خلا قانونی داریم که لازم است پر شود. 176 00:10:00,292 --> 00:10:04,384 همکارم، دکتر مری آن فرنکس و من با قانون‌گذاران ایالات متحده همکاری می کنم تا 177 00:10:04,408 --> 00:10:09,212 قانونی را تدوین کنیم که مانع هویت‌های جعلی دیجیتال شوند، 178 00:10:09,236 --> 00:10:11,769 کسانی که تفاوتی با سارقین هویت ندارند. 179 00:10:12,252 --> 00:10:14,378 و ما شاهد اقدامات مشابهی در 180 00:10:14,402 --> 00:10:17,703 ایسلند، بریتانیا و استرالیا هستیم. 181 00:10:18,157 --> 00:10:21,416 و البته این فقط یک تکه کوچک از پازل نظارت است. 182 00:10:22,911 --> 00:10:26,080 من می‌دانم که قانون علاج همه دردها نیست. درست است؟ 183 00:10:26,104 --> 00:10:27,704 یک ابزار کند است. 184 00:10:28,246 --> 00:10:29,965 و باید از آن هوشمندانه استفاده کنیم. 185 00:10:30,411 --> 00:10:33,223 و همجنین موانع عملی بسیاری دارد. 186 00:10:33,657 --> 00:10:38,701 شما نمی‌توانید قانون را علیه کسانی که نمی‌شناسید و پیدا نمی‌کنید اعمال کنید. 187 00:10:39,463 --> 00:10:42,749 اگر فرد خاطی خارج از کشوری باشد 188 00:10:42,773 --> 00:10:44,527 که قربانی در آن زندگی کند، 189 00:10:44,551 --> 00:10:46,180 امکان ندارید بتوانید پافشاری کنید 190 00:10:46,204 --> 00:10:48,553 که آن فرد خاطی به دادگاه‌های محلی بیاید تا 191 00:10:48,577 --> 00:10:49,727 با عدالت روبه‌رو شود. 192 00:10:50,236 --> 00:10:54,299 بنابراین به یک واکنش بین‌المللی هماهنگ نیاز خواهیم داشت. 193 00:10:55,819 --> 00:10:59,152 آموزش هم باید بخشی از واکنش ما باشد. 194 00:10:59,803 --> 00:11:03,534 قانونگذاران درباره چیزی که نمی‌دانند چیست 195 00:11:03,558 --> 00:11:05,016 و چه مشکلاتی بوجود می‌آورد، 196 00:11:05,040 --> 00:11:07,636 قانون وضع نمی‌کنند. 197 00:11:08,376 --> 00:11:10,567 در تحقیقاتم در مورد آزار و اذیت‌های سایبری 198 00:11:10,591 --> 00:11:14,090 متوجه شدم مجریان قانون آموزش کافی برای 199 00:11:14,114 --> 00:11:16,696 فهمیدن قوانینی که در اختیار دارند و 200 00:11:16,720 --> 00:11:19,069 معضل توهین‌های آنلاین، ندیده‌اند. 201 00:11:19,093 --> 00:11:21,775 و خیلی اوقات به قربانیان گفته‌اند، 202 00:11:21,799 --> 00:11:25,770 <<رایانه را خاموش کن. محل نگذار. خود به خود ناپدید می‌شود.>> 203 00:11:26,261 --> 00:11:28,727 این را در مورد رانا ایوب مشاهده کردیم. 204 00:11:29,102 --> 00:11:32,570 به او گفته شد، <<بیخیال، بی‌خود بزرگش کردی. 205 00:11:32,594 --> 00:11:34,337 پسرها همین‌اند دیگه.>> 206 00:11:35,268 --> 00:11:40,520 بنابراین باید قانون جدید را با تلاش‌های در زمینه آموزش همگام کنیم. 207 00:11:42,053 --> 00:11:45,482 و آموزش در رسانه‌ها نیز باید هدفمند باشد. 208 00:11:46,180 --> 00:11:50,440 لازم است خبرنگاران در مورد پدیده جعل‌عمیق آموزش ببینند 209 00:11:50,464 --> 00:11:53,503 بنابراین آنها را تقویت و منتشر نمی‌کنند. 210 00:11:54,583 --> 00:11:56,751 و این جایی‌ست که همه ما باید در آن درگیر شویم. 211 00:11:56,775 --> 00:12:00,630 همه ما نیازمند آموزش هستیم. 212 00:12:01,375 --> 00:12:05,050 ما هستیم که کلیک می‌کنیم، به اشتراک می‌گذاریم، می‌پسندیم و حتی فکر هم نمی‌کنیم. 213 00:12:05,551 --> 00:12:07,098 باید بهتر عمل کنیم. 214 00:12:07,726 --> 00:12:10,535 به رادارهای بهتری برای جعلیات نیاز داریم. 215 00:12:13,744 --> 00:12:17,585 همان زمانی که بر روی این راه‌حل‌ها کار می‌کنیم، 216 00:12:17,609 --> 00:12:20,172 رنج زیادی در حال پخش شدن است. 217 00:12:21,093 --> 00:12:23,839 رانا ایوب هنوز با پیامدهای آن اتفاق کلنجار می‌رود. 218 00:12:24,669 --> 00:12:28,858 هنوز برای بیان خودش آنلاین و آفلاین احساس راحتی نمی‌کند. 219 00:12:29,566 --> 00:12:30,931 و همانطور که به من گفت، 220 00:12:30,955 --> 00:12:36,029 کماکان احساس می‌کند هزاران نگاه به بدن لخت اوست، 221 00:12:36,053 --> 00:12:39,714 اگرچه به صورت منطقی می‌داند که آن بدن او نبوده است. 222 00:12:40,371 --> 00:12:42,720 و به او مرتب حمله‌های عصبی می‌شود، 223 00:12:42,744 --> 00:12:46,844 خصوصا زمانی که کسی که نمی‌شناسد، تلاش می‌کند از او عکس بگیرد. 224 00:12:46,868 --> 00:12:50,379 با خودش فکر می‌کند: << اگر بخواهند یک جعل عمیق دیگر بسازند، چه؟>> 225 00:12:51,082 --> 00:12:55,003 پس بخاطر افرادی مثل رانا ایوب 226 00:12:55,027 --> 00:12:57,333 و بخاطر دموکراسی 227 00:12:57,357 --> 00:12:59,539 لازم است که همین الان کاری بکنیم. 228 00:12:59,563 --> 00:13:00,714 متشکرم. 229 00:13:00,738 --> 00:13:03,246 (تشویق)