1 00:00:01,548 --> 00:00:04,064 مهم نیست چه کسی هستید و یا کجا زندگی می‌کنید، 2 00:00:04,064 --> 00:00:06,444 حدس می‌زنم شما هم حداقل یک دوست یا آشنایی دارید که 3 00:00:06,444 --> 00:00:08,802 دوست دارد چنین پیام‌هایی را برای شما ارسال کند. 4 00:00:09,097 --> 00:00:10,670 می‌دانید کدام پیام‌ها را می‌گویم، 5 00:00:10,670 --> 00:00:13,984 پیام‌هایی که شامل ادعاهای مشکوک و فیلم‌های توطئه آمیز هستند. 6 00:00:14,315 --> 00:00:16,983 و احتمالاً به خاطرِ به اشتراک گذاشتن چنین مطالبی، 7 00:00:16,983 --> 00:00:19,355 آن‌ها را در فیس‌بوکتان بی صدا کرده‌اید. 8 00:00:19,379 --> 00:00:20,783 این تصویر یک موز است 9 00:00:20,807 --> 00:00:23,474 که از وسط آن، صلیب قرمز عجیبی گذشته است. 10 00:00:23,498 --> 00:00:25,637 و متنی در بالای آن، که به مردم هشدار می‌دهد 11 00:00:25,661 --> 00:00:27,819 هرگز میوه‌هایی مانند این را نخورند، 12 00:00:27,843 --> 00:00:29,871 چراکه آن‌ها را با خونی آلوده کرده‌اند، 13 00:00:29,895 --> 00:00:32,025 که حاوی ویروس اچ‌آی‌وی است. 14 00:00:32,049 --> 00:00:34,652 و پیام نوشته‌ شده در بالای آن تأکید زیادی دارد که، 15 00:00:34,652 --> 00:00:36,887 «برای نجات انسان‌ها، پیام را به اشتراک بگذارید.» 16 00:00:37,672 --> 00:00:40,966 با اینکه محققان سال‌هاست شایعه بودن این خبر را تائید کرده‌اند، 17 00:00:40,990 --> 00:00:43,799 اما این یکی از آن شایعاتی است که هرگز از بین نمی‌رود. 18 00:00:43,823 --> 00:00:45,094 یک شایعه‌ی زامبی! 19 00:00:45,513 --> 00:00:47,606 و مطمئن هستیم که کاملاً اشتباه است. 20 00:00:48,180 --> 00:00:51,139 ممکن است به چنین مثالی بخندید، و بگویید، 21 00:00:51,163 --> 00:00:53,047 «به ‌هر حال چه کسی این را باور می‌کند؟» 22 00:00:53,047 --> 00:00:55,189 اما دلیل برگشتن دوباره‌ این شایعه، این است که 23 00:00:55,189 --> 00:00:58,958 عمیق‌ترین ترس‌های انسان‌ها را در مورد سلامتی خودشان و عزیزانشان، 24 00:00:58,982 --> 00:01:01,157 مورد هدف قرار می‌دهد. 25 00:01:01,783 --> 00:01:05,056 و اگر به‌ اندازه‌ی من، زمانتان را صرف بررسی اطلاعات جعلی کرده باشید، 26 00:01:05,080 --> 00:01:07,524 می‌فهمید که این تنها یک نمونه از بی‌شمار خبری است که 27 00:01:07,524 --> 00:01:10,571 به ترس‌ها و آسیب‌پذیری‌های عمیق مردم حمله می‌کند. 28 00:01:11,214 --> 00:01:15,583 هر روزه در سراسر جهان، شاهد جوک‌های زیادی در اینستاگرام هستیم، 29 00:01:15,607 --> 00:01:18,646 که والدین را تشویق می‌کند به کودکانشان واکسن نزنند. 30 00:01:18,670 --> 00:01:23,202 فیلم‌های زیادی در یوتیوب توضیح می‌دهند که چرا گرمایش زمین برای گول زدن ماست، 31 00:01:23,226 --> 00:01:27,528 و در همه‌ی شبکه‌های اجتماعی، مطالب بی‌شماری می‌بینیم که ساخته‌‌شده‌اند، 32 00:01:27,552 --> 00:01:31,053 تا بر اساس نژاد، مذهب یا جنسیت، دیگران را قضاوت و سرزنش کنند. 33 00:01:32,314 --> 00:01:35,344 به یکی از اساسی‌ترین چالش‌های عصر ما خوش‌ آمدید. 34 00:01:35,647 --> 00:01:39,672 چگونه می‌توانیم اینترنتی بسازیم که در بطن آن، آزادی بیان وجود داشته باشد، 35 00:01:39,696 --> 00:01:42,999 اما مطمئن باشیم مطالبی که در آن منتشر می‌شوند، 36 00:01:43,023 --> 00:01:46,909 به دموکراسی، اقلیت‌ها و سلامت جسم و روانمان، 37 00:01:46,933 --> 00:01:49,171 آسیب‌های جبران‌ناپذیری نمی‌زنند؟ 38 00:01:49,998 --> 00:01:52,085 از آنجا که ما در عصر اطلاعات زندگی می‌کنیم، 39 00:01:52,109 --> 00:01:55,656 ارز رایجی هست که همه‌ به آن وابسته‌ایم -یعنی اطلاعات- 40 00:01:55,680 --> 00:01:58,037 اما دیگر، کاملاً قابل اعتماد به نظر نمی‌رسد 41 00:01:58,061 --> 00:02:00,389 و در مواقعی می‌تواند بسیار خطرناک عمل کند. 42 00:02:00,811 --> 00:02:04,748 علت آن رشد غیرقابل‌کنترلِ پلتفرم‌های اجتماعی متعددی است که 43 00:02:04,748 --> 00:02:06,154 به ما اجازه می‌دهند در میانِ 44 00:02:06,154 --> 00:02:08,678 خبرهایی بگردیم که حقیقت و دروغ در آن‌ها مخلوط شده‌اند، 45 00:02:08,678 --> 00:02:11,755 اما هیچ ‌یک از نشانه‌های مرسوم اعتمادپذیری وجود ندارد. 46 00:02:12,268 --> 00:02:15,887 و شکر خدا، اصطلاحاتمان هم در این زمینه به طرز وحشتناکی به‌هم‌ریخته است. 47 00:02:15,911 --> 00:02:19,014 مردم هنوز به عبارت «اخبار جعلی» توجه نشان می‌دهند، 48 00:02:19,038 --> 00:02:21,569 با اینکه در اکثر مواقع هیچ کمکی نمی‌کند، 49 00:02:21,593 --> 00:02:25,053 و برای توصیف چیزهای بسیار متفاوتی استفاده می‌شود: 50 00:02:25,077 --> 00:02:28,463 دروغ، شایعه، فریب، توطئه، پروپاگاندا. 51 00:02:28,891 --> 00:02:31,847 و من آرزو می‌کنم که بتوانیم استفاده از این عبارت را متوقف کنیم. 52 00:02:31,847 --> 00:02:34,709 عبارتی که سیاستمداران همه‌ احزاب در سراسر دنیا 53 00:02:34,733 --> 00:02:36,204 توافق کرده‌اند که از آن 54 00:02:36,228 --> 00:02:39,450 برای حمله به رسانه‌های آزاد و مستقل استفاده کنند. 55 00:02:40,307 --> 00:02:45,009 (تشویق حضار) 56 00:02:45,033 --> 00:02:48,495 چراکه ما بیش از هر زمان دیگری به رسانه‌‌های خبری حرفه‌ای نیاز داریم. 57 00:02:48,882 --> 00:02:52,255 و علاوه بر آن، بیشتر این محتوا حتی شبیه به اخبار هم نیست، 58 00:02:52,279 --> 00:02:54,921 بلکه کمیک، ویدیو و پست‌های اجتماعی است. 59 00:02:54,945 --> 00:02:58,398 و بیشتر آن‌ها کاملاً جعلی نیست؛ بلکه تنها گمراه‌کننده است. 60 00:02:58,422 --> 00:03:01,437 ما سعی داریم ثابت کنیم چه چیزی درست یا غلط است. 61 00:03:01,461 --> 00:03:05,493 اما در واقع بزرگ‌ترین نگرانی، تبدیل این مسئله به یک سلاح است. 62 00:03:06,855 --> 00:03:08,823 چراکه مؤثرترین نمونه‌های شایعات، 63 00:03:08,847 --> 00:03:11,895 همواره مواردی بوده‌اند که در پوسته‌ای از حقیقت قرار داشته‌اند. 64 00:03:11,919 --> 00:03:15,395 بیایید این مثال از ماه مارس سال ۲۰۱۷، در لندن را ببینیم: 65 00:03:15,419 --> 00:03:16,959 یک توییت، که بسیار هم دیده شد، 66 00:03:16,983 --> 00:03:20,570 بعد از یک واقعه‌ی تروریستی بر روی پل «وست‌مینیستر». 67 00:03:20,594 --> 00:03:23,022 این یک عکس واقعی است، و نه تقلبی. 68 00:03:23,046 --> 00:03:25,738 زنی در این عکس دیده می‌شود، که بعداً با او مصاحبه شد، 69 00:03:25,738 --> 00:03:28,441 و توضیح داد که در زمان حادثه کاملاً شوکه شده بود. 70 00:03:28,441 --> 00:03:30,464 او در حال صحبت کردن با یکی از عزیزانش بوده، 71 00:03:30,464 --> 00:03:33,052 و به منظور حفظ احترام، به قربانی نگاه نمی‌کرد. 72 00:03:33,076 --> 00:03:37,036 اما این عکس، همچنان با نگاهی اسلام‌ستیزانِ در حال پخش شدن بود. 73 00:03:37,060 --> 00:03:40,106 با چندین هشتک مانند #BanIslam. 74 00:03:40,425 --> 00:03:42,823 خب اگر شما در توییتر کار می‌کردید چه کار می‌کردید؟ 75 00:03:42,847 --> 00:03:45,409 آن را حذف می‌کردید؟ یا همین‌طور که هست رهایش می‌کردید؟ 76 00:03:46,553 --> 00:03:49,982 واکنش لحظه‌ای و احساسی من این است که آن را حذف کنم. 77 00:03:50,006 --> 00:03:52,148 من طرز نگاه این تصویر را، نمی‌پسندم. 78 00:03:52,585 --> 00:03:54,973 اما آزادی بیان یک حق انسانی است. 79 00:03:54,973 --> 00:03:58,021 و اگر ما شروع کنیم به حذف کردنِ هر سخنی که برایمان ناخوشایند است، 80 00:03:58,021 --> 00:03:59,476 به مشکل برمی‌خوریم. 81 00:03:59,476 --> 00:04:01,818 و در این نمونه، ممکن است تصمیم واضح به نظر برسد، 82 00:04:01,818 --> 00:04:03,516 اما، بیشتر موارد این‌طور نیستند. 83 00:04:03,540 --> 00:04:05,976 مشخص کردن مرزها کار بسیار سختی است. 84 00:04:06,000 --> 00:04:08,281 تصمیم درست از نظر یک نفر، 85 00:04:08,305 --> 00:04:10,382 ممکن است از نظر فرد دیگری سانسور مطلق باشد. 86 00:04:10,759 --> 00:04:13,688 چیزی که الآن می‌دانیم، این است که، این کاربر «Texas Lone Star» 87 00:04:13,712 --> 00:04:16,942 بخشی از یک کمپین بزرگ روسی برای انتشار اطلاعات نادرست بوده، 88 00:04:16,966 --> 00:04:19,117 که از آن زمان با آن مقابله شده است. 89 00:04:19,141 --> 00:04:20,704 آیا این نظرتان را عوض می‌کند؟ 90 00:04:21,322 --> 00:04:22,481 نظر من را که عوض می‌کند، 91 00:04:22,505 --> 00:04:24,806 زیرا حالا با یک کمپینِ سازمان‌یافته طرف هستیم، 92 00:04:24,806 --> 00:04:26,045 که هدفش ایجاد دعوا است. 93 00:04:26,045 --> 00:04:28,030 و برای بعضی از شما، که دوست دارید فکر کنید 94 00:04:28,030 --> 00:04:30,885 که هوش مصنوعی همه مشکلات را حل خواهد کرد، 95 00:04:30,885 --> 00:04:33,358 فکر می‌کنم با هم توافق داریم که تا سطحی از هوش مصنوعی 96 00:04:33,358 --> 00:04:36,215 که قادر باشد چنین پست‌هایی را تشخیص دهد، فاصله‌ی زیادی داریم. 97 00:04:36,856 --> 00:04:39,363 من قصد دارم ۳ مشکل مرتبط را شرح دهم، 98 00:04:39,387 --> 00:04:41,760 که این کار را بسیار پیچیده می‌کنند. 99 00:04:41,784 --> 00:04:44,906 و سپس راه‌حل‌هایی برای فکر کردن در مورد این مشکلات پیشنهاد دهم. 100 00:04:45,348 --> 00:04:49,238 اول از همه، ما تنها رابطه‌ی منطقی با اطلاعات نداریم، 101 00:04:49,262 --> 00:04:50,730 این یک ارتباط احساسی است. 102 00:04:50,754 --> 00:04:54,548 مشاهده‌ حقایق بیشتر، مشکل را حل نمی‌کند، 103 00:04:54,548 --> 00:04:57,672 زیرا الگوریتم‌هایی که محتوایی را که می‌بینیم، انتخاب می‌کنند، 104 00:04:57,696 --> 00:05:00,823 طوری طراحی شده‌اند که به پاسخ‌های احساسی ما جایزه بدهند. 105 00:05:00,847 --> 00:05:02,228 و زمانی که ما ترسیده باشیم، 106 00:05:02,252 --> 00:05:05,426 روایت‌های ساده‌شده، توضیحات توطئه آمیز، 107 00:05:05,450 --> 00:05:08,868 و متهم کردن دیگران بسیار مؤثرتر عمل می‌کنند. 108 00:05:09,538 --> 00:05:11,412 علاوه بر آن، بسیاری از این کمپانی‌ها، 109 00:05:11,436 --> 00:05:13,982 حیاتی وابسته به توجه دارند. 110 00:05:14,006 --> 00:05:17,696 و به این معناست که این الگوریتم‌ها، همواره به سمت احساسات متمایل خواهند بود. 111 00:05:18,371 --> 00:05:22,669 دوم، بیشترِ مطالبی که من در موردشان صحبت می‌کنم، موارد قانونی هستند. 112 00:05:22,951 --> 00:05:24,527 اگر در موردِ مطالبی حرف می‌زدم که 113 00:05:24,527 --> 00:05:27,623 مربوط به سوءاستفاده‌ی جنسی از کودکان یا ترویج کننده‌ی خشونت هستند، 114 00:05:27,623 --> 00:05:28,867 اوضاع بسیار فرق می‌کرد. 115 00:05:28,867 --> 00:05:32,137 اما انتشار دروغی آشکار، کاملاً قانونی است. 116 00:05:33,130 --> 00:05:37,164 مردم همواره از حذف کردنِ مطالب مشکل‌ساز و آسیب‌زا صحبت می‌کنند، 117 00:05:37,188 --> 00:05:39,614 اما تعریف دقیق و مشخصی از آن ارائه نمی‌دهند، 118 00:05:39,614 --> 00:05:40,741 ازجمله «مارک زاکربرگ» 119 00:05:40,741 --> 00:05:44,521 که اخیراً خواستار وضع مقررات جهانی برای تعدیل صحبت‌ها شد. 120 00:05:44,870 --> 00:05:47,085 و نگرانی من این است که می‌بینیم دولت‌ها 121 00:05:47,109 --> 00:05:48,401 در همه جای جهان 122 00:05:48,425 --> 00:05:51,101 عجولانه در حال گرفتن تصمیم‌هایی هستند که 123 00:05:51,101 --> 00:05:53,871 ممکن است تبعاتی بسیار جدی در پی داشته باشد 124 00:05:53,871 --> 00:05:55,689 به‌خصوص اکنون‌که موضوع، صحبت کردن ماست. 125 00:05:56,006 --> 00:05:59,522 و اگر می‌توانستیم تصمیم بگیریم کدام سخن را نگه‌داریم و کدام‌یک را حذف کنیم، 126 00:05:59,736 --> 00:06:01,910 هرگز این حجم از مطالب را نداشتیم. 127 00:06:01,934 --> 00:06:04,065 در هر ثانیه میلیون‌ها عکس و متن 128 00:06:04,089 --> 00:06:06,196 توسط افراد مختلف در جهان آپلود می‌شود 129 00:06:06,220 --> 00:06:07,388 به زبان‌های متفاوت، 130 00:06:07,412 --> 00:06:10,180 و با هزاران زمینه‌ فرهنگی‌ متفاوت. 131 00:06:10,204 --> 00:06:12,736 ما هرگز روش مناسبی 132 00:06:12,736 --> 00:06:14,522 برای تعدیل کردن این حجم از صحبت‌ها را 133 00:06:14,522 --> 00:06:17,323 چه به‌ وسیله‌ انسان و چه کامپیوتر، نداشته‌ایم. 134 00:06:18,284 --> 00:06:22,228 و سوم، این کمپانی‌ها مانند گوگل، توییتر، فیس‌بوک و واتس‌اپ 135 00:06:22,252 --> 00:06:25,093 بخشی از اکوسیستم اطلاعاتی بزرگ‌تری هستند. 136 00:06:25,117 --> 00:06:28,469 ما علاقه داریم همه‌ی تقصیرها را گردن آن‌ها بیندازیم، 137 00:06:28,493 --> 00:06:32,323 اما در حقیقت رسانه‌های جمعی و مقامات رسمی هنگامی‌که بخواهند، 138 00:06:32,323 --> 00:06:35,520 می‌توانند نقشی به همان مقدار در تشدید شایعات و توطئه‌ها داشته باشند. 139 00:06:35,800 --> 00:06:40,744 همان‌قدرهم، ما می‌توانیم بدون هیچ تلاشی، با بازپخش کردن چشم‌بسته‌ مطالب گمراه‌کننده 140 00:06:40,768 --> 00:06:42,053 نقش داشته باشیم. 141 00:06:42,053 --> 00:06:43,957 ما هم داریم این آلودگی را اضافه می‌کنیم. 142 00:06:45,236 --> 00:06:47,854 همه‌ی ما به دنبال یک راه‌حل ساده هستیم. 143 00:06:47,878 --> 00:06:49,545 اما چنین راهی وجود ندارد. 144 00:06:49,950 --> 00:06:54,395 هر راه‌حلی لازم است در مقیاس بزرگی به‌اندازه‌ی اینترنت اعمال شود. 145 00:06:54,419 --> 00:06:57,680 و بله، پلتفرم‌ها در این سطح عمل می‌کنند. 146 00:06:57,704 --> 00:07:01,176 اما آیا می‌توانیم و خوب است که به آن‌ها اجازه‌ حل این مشکل را بدهیم؟ 147 00:07:01,668 --> 00:07:02,900 آن‌ها در حال تلاش هستند. 148 00:07:02,924 --> 00:07:07,010 اما بیشتر ما، مایل نیستیم این شرکت‌های بین‌المللی 149 00:07:07,034 --> 00:07:09,366 محافظان حقیقت و عدالت در فضای آنلاین باشند. 150 00:07:09,390 --> 00:07:11,927 و فکر می‌کنم خود این پلتفرم‌ها هم با من هم‌نظر باشند. 151 00:07:12,257 --> 00:07:15,138 هم‌اکنون آن‌ها در حالِ نمره دادن به تکالیف خودشان هستند. 152 00:07:15,138 --> 00:07:16,384 آن‌ها دوست دارند بگویند که 153 00:07:16,384 --> 00:07:18,347 مداخله‌هایشان تابه‌حال جواب داده است، 154 00:07:18,347 --> 00:07:21,306 اما از آنجا که آن‌ها گزارش شفافیت خودشان را می‌دهند، 155 00:07:21,306 --> 00:07:25,169 راهی نیست که ما مستقیماً بفهمیم واقعاً چه اتفاقی در حال افتادن است. 156 00:07:26,431 --> 00:07:29,773 (تشویق حضار) 157 00:07:29,797 --> 00:07:32,749 و بگذارید این را هم صراحتاً بگویم بیشتر تغییراتی که می‌بینیم، 158 00:07:32,749 --> 00:07:35,767 زمانی اتفاق می‌افتند که روزنامه‌نگاران دست به تحقیقات می‌زنند 159 00:07:35,791 --> 00:07:37,402 و مدارکی نشان‌دهنده‌ جانبداری 160 00:07:37,426 --> 00:07:40,255 یا محتوای ناقض قواعد اجتماعی پیدا می‌کنند. 161 00:07:40,815 --> 00:07:45,410 بله، این کمپانی‌ها باید نقش مهمی در این جریان داشته باشند، 162 00:07:45,410 --> 00:07:46,994 اما نمی‌توانند آن را کنترل کنند. 163 00:07:47,855 --> 00:07:49,373 در مورد دولت‌ها چطور؟ 164 00:07:49,863 --> 00:07:52,959 بسیاری از مردم فکر می‌کنند که مقررات جهانی، 165 00:07:52,983 --> 00:07:55,863 به‌منظور تمیز کردن فضای اطلاعاتی، آخرین امید ما باشند. 166 00:07:55,887 --> 00:07:57,604 اما قانونگذارانی که من می‌بینم، 167 00:07:57,604 --> 00:08:01,216 قادر نیستند پابه‌پا‌ی تغییراتِ سریع تکنولوژی حرکت کنند. 168 00:08:01,216 --> 00:08:03,370 و بدتر اینکه آن‌ها در تاریکی حرکت می‌کنند. 169 00:08:03,370 --> 00:08:05,191 چراکه دسترسی کافی به داده‌‌ها ندارند 170 00:08:05,215 --> 00:08:07,865 که بفهمند در این پلتفرم‌ها دقیقاً چه اتفاقی می‌افتند. 171 00:08:08,170 --> 00:08:11,355 و از طرفی، ما به کدام دولت اعتماد می‌کنیم که چنین کاری را انجام دهد؟ 172 00:08:11,355 --> 00:08:14,125 ما به یک پاسخ بین‌المللی نیاز داریم، نه یک پاسخ ملی. 173 00:08:15,419 --> 00:08:17,696 پس حلقه‌ گم شده خود ما هستیم. 174 00:08:17,720 --> 00:08:20,843 ما مردمی که روزانه از این تکنولوژی‌ها استفاده می‌کنیم. 175 00:08:21,260 --> 00:08:25,851 آیا می‌توانیم زیرساخت تازه‌ای بنا کنیم که از کیفیت اطلاعات حمایت کند؟ 176 00:08:26,371 --> 00:08:27,625 من باور دارم که می‌توانیم، 177 00:08:27,625 --> 00:08:30,982 و چند ایده دارم که در عمل چه‌کاری می‌توانیم انجام دهیم. 178 00:08:31,006 --> 00:08:34,109 اول از همه، اگر ما قصد داریم مردم را در این کار داخل کنیم، 179 00:08:34,133 --> 00:08:36,514 آیا می‌توانیم از ویکی‌پدیا انگیزه بگیریم؟ 180 00:08:36,538 --> 00:08:38,362 آن‌ها نشان دادند که چه‌کاری ممکن است. 181 00:08:38,362 --> 00:08:39,561 بله، این کار بی‌نقص نیست، 182 00:08:39,561 --> 00:08:42,195 اما آن‌ها نشان داده‌اند با زیرساخت مناسب، 183 00:08:42,219 --> 00:08:44,362 با چشم‌اندازی جهانی، و شفافیتی فوق‌العاده، 184 00:08:44,362 --> 00:08:47,974 می‌توان چیزی ساخت که اعتماد اکثر مردم را جلب کند. 185 00:08:47,998 --> 00:08:51,160 زیرا ما باید راهی برای کمک گرفتن از خِردِ جمعی 186 00:08:51,184 --> 00:08:53,493 و تجربیات همه‌ی کاربران پیدا کنیم. 187 00:08:53,517 --> 00:08:56,123 به‌خصوص از طریق زنان، رنگین‌پوستان 188 00:08:56,123 --> 00:08:57,557 و گروه‌هایی که در اقلیت هستند. 189 00:08:57,557 --> 00:08:58,723 حدس می‌زنید چرا؟ 190 00:08:58,747 --> 00:09:01,482 چون این افراد متخصص اطلاعات نادرست و نفرت پراکنی هستند، 191 00:09:01,506 --> 00:09:05,022 چراکه سال‌هاست هدفِ چنین کمپین‌هایی بوده‌اند. 192 00:09:05,046 --> 00:09:07,396 و در طی سال‌ها پرچم‌دارِ این مبارزات بوده‌اند، 193 00:09:07,420 --> 00:09:09,085 و به آن‌ها گوش داده نشده است. 194 00:09:09,109 --> 00:09:10,389 این باید تغییر کند. 195 00:09:10,807 --> 00:09:15,133 آیا می‌توانیم یک ویکی‌پدیا از افراد مورد اعتماد بسازیم؟ 196 00:09:15,157 --> 00:09:19,346 آیا می‌توانیم راهی پیدا کنیم که کاربران 197 00:09:19,370 --> 00:09:23,067 در مورد تصمیم‌گیری‌های دشوار برای تعدیل محتوا نظر بدهند. 198 00:09:23,091 --> 00:09:24,554 اگر پلتفرمی تصمیم بگیرد که 199 00:09:24,578 --> 00:09:27,619 تغییرات جدیدی اعمال کند، آن‌ها می‌توانند بازخورد بدهند. 200 00:09:28,241 --> 00:09:32,403 دوم آنکه تجربه‌ افراد از اطلاعات، شخصی‌سازی شده است. 201 00:09:32,427 --> 00:09:35,070 خبرهای فیس‌بوک من با شما بسیار تفاوت دارد. 202 00:09:35,094 --> 00:09:37,839 پیشنهاد‌های یوتیوب شما با من متفاوت است. 203 00:09:37,863 --> 00:09:40,355 بنابراین عملاً غیرممکن است بررسی کنیم که 204 00:09:40,379 --> 00:09:42,402 چه کسی چه اطلاعاتی را مشاهده می‌کند. 205 00:09:42,815 --> 00:09:44,204 پس آیا می‌توانید تصور کنید 206 00:09:44,228 --> 00:09:49,006 یک مجموعه‌ متمرکز و منبع باز از داده‌های ناشناس 207 00:09:49,030 --> 00:09:51,894 با رعایت محرمانگی و حساسیت‌های اخلاقی جمع‌آوری کنیم؟ 208 00:09:52,120 --> 00:09:54,022 فکر کنید چه چیزهایی می‌توانیم بفهمیم، 209 00:09:54,022 --> 00:09:57,283 اگر یک شبکه‌ی جهانی، از شهروندان نگرانی بسازیم که 210 00:09:57,307 --> 00:10:00,601 دوست دارند داده‌های شبکه‌های اجتماعی‌شان را وقف علم کنند. 211 00:10:01,141 --> 00:10:02,863 چراکه ما واقعاً خیلی کم 212 00:10:02,887 --> 00:10:05,768 در مورد آثار درازمدتِ نفرت پراکنی و اطلاعات اشتباه 213 00:10:05,792 --> 00:10:07,767 روی دیدگاه‌ها و رفتارهای مردم، می‌دانیم. 214 00:10:08,236 --> 00:10:09,403 و آنچه می‌دانیم نیز، 215 00:10:09,427 --> 00:10:11,620 عمدتاً در ایالات‌متحده بررسی شده است، 216 00:10:11,644 --> 00:10:14,025 بدون توجه به اینکه این یک مشکل جهانی است. 217 00:10:14,025 --> 00:10:15,684 لازم است روی این مشکل هم کار کنیم. 218 00:10:16,053 --> 00:10:17,037 و سوم، 219 00:10:17,037 --> 00:10:19,676 راهی هست که نهادهای مختلف را به هم متصل کنیم؟ 220 00:10:19,700 --> 00:10:23,138 هیچ نهادی، اعم از غیرانتفاعی، استارت‌آپ و یا دولت، 221 00:10:23,162 --> 00:10:24,584 این مشکل را حل نخواهد کرد. 222 00:10:24,608 --> 00:10:27,172 اما افراد بسیار باهوشی سرتاسر جهان، 223 00:10:27,196 --> 00:10:28,577 روی این مشکلات کار می‌کنند، 224 00:10:28,601 --> 00:10:32,127 از خبرنگاران، جوامع مدنی، دانشگاهیان و اکتیویست‌ها 225 00:10:32,127 --> 00:10:34,123 که تصویر تعدادی از آن‌ها را مشاهده می‌کنید. 226 00:10:34,123 --> 00:10:37,050 بعضی از آن‌ها در حال ایجاد شاخص‌های اعتبار محتوا هستند. 227 00:10:37,074 --> 00:10:38,320 برخی در حال چک کردن حقایق، 228 00:10:38,344 --> 00:10:41,555 تا ادعاها، تصاویر و فیلم‌های نادرست توسط پلتفرم‌ها محدود شوند. 229 00:10:41,555 --> 00:10:44,326 نهاد غیرانتفاعی به نام «فرست درفت» که در تأسیس آن کمک کردم، 230 00:10:44,326 --> 00:10:47,164 سعی می‌کند با کمک خبرگزاری‌های مختلف سراسر جهان، 231 00:10:47,188 --> 00:10:50,691 برنامه‌های تحقیقاتی مشترکی راه‌اندازی کند. 232 00:10:51,231 --> 00:10:53,540 و «دنی هیلیس»، یک معمار نرم‌افزار، 233 00:10:53,564 --> 00:10:55,855 در حال طراحی یک سیستم جدید به نام «آندرلی» است، 234 00:10:55,855 --> 00:10:58,454 که یک بانک اطلاعاتی، برای اظهارات عمومی از حقایق 235 00:10:58,454 --> 00:11:00,121 و اتصال آن‌ها به منبعشان خواهد بود. 236 00:11:00,121 --> 00:11:03,775 تا انسان‌ها و الگوریتم‌ها بهتر بتوانند موارد معتبر را تشخیص دهند. 237 00:11:04,800 --> 00:11:08,156 و معلمانی از کشورهای مختلف روش‌های مختلفی را آزمایش می‌کنند، 238 00:11:08,180 --> 00:11:11,664 تا به مردم یاد دهند نگاهی انتقادی به مطالبی که مصرف می‌کنند داشته باشند. 239 00:11:12,503 --> 00:11:15,798 همه‌ این تلاش‌ها عالی‌اند، اما هر کدام به‌ دور از سایرین انجام می‌شود، 240 00:11:15,798 --> 00:11:18,478 و بسیاری از آن‌ها کسری بودجه قابل‌توجهی دارند. 241 00:11:18,502 --> 00:11:20,555 همچنین صدها انسان بسیار باهوش 242 00:11:20,579 --> 00:11:22,231 در این کمپانی‌ها کار می‌کنند، 243 00:11:22,231 --> 00:11:24,634 اما باز هم، این تلاش‌ها ممکن است ایزوله احساس شوند، 244 00:11:24,634 --> 00:11:28,541 زیرا به دنبال راه‌حل‌های مختلفی برای یک مشکل یکسان هستند. 245 00:11:29,205 --> 00:11:31,474 چگونه می‌توانیم راهی بیابیم که این افراد 246 00:11:31,498 --> 00:11:34,776 برای چند روز یا چند هفته در مکانی دور هم جمع شوند، 247 00:11:34,800 --> 00:11:37,196 تا بتوانند به کمک یکدیگر با این مشکل مقابله کنند 248 00:11:37,220 --> 00:11:38,988 اما هر یک از دیدگاه خودشان؟ 249 00:11:38,988 --> 00:11:40,426 آیا از عهده این کار برمی‌آییم؟ 250 00:11:40,426 --> 00:11:43,665 می‌توانیم یک پاسخ بلندپروازانِ‌ همگانی، 251 00:11:43,689 --> 00:11:47,398 متناسب برای مسئله‌ای با این ابعاد و پیچیدگی پیدا کنیم؟ 252 00:11:47,819 --> 00:11:49,192 من فکر می‌کنم، بله. 253 00:11:49,216 --> 00:11:52,175 بیایید با کمک همدیگر، فضای اطلاعاتی‌مان را بازسازی کنیم. 254 00:11:52,819 --> 00:11:54,009 متشکرم. 255 00:11:54,033 --> 00:11:57,761 (تشویق حضار)