Return to Video

چطور می‌توانیم اینترنت را به فضای قابل‌ اعتمادی تبدیل کنیم

  • 0:02 - 0:04
    مهم نیست چه کسی هستید
    و یا کجا زندگی می‌کنید،
  • 0:04 - 0:06
    حدس می‌زنم شما هم
    حداقل یک دوست یا آشنایی دارید که
  • 0:06 - 0:09
    دوست دارد چنین پیام‌هایی را
    برای شما ارسال کند.
  • 0:09 - 0:11
    می‌دانید کدام پیام‌ها را می‌گویم،
  • 0:11 - 0:14
    پیام‌هایی که شامل ادعاهای مشکوک
    و فیلم‌های توطئه آمیز هستند.
  • 0:14 - 0:17
    و احتمالاً به خاطرِ
    به اشتراک گذاشتن چنین مطالبی،
  • 0:17 - 0:19
    آن‌ها را در فیس‌بوکتان بی صدا کرده‌اید.
  • 0:19 - 0:21
    این تصویر یک موز است
  • 0:21 - 0:23
    که از وسط آن،
    صلیب قرمز عجیبی گذشته است.
  • 0:23 - 0:26
    و متنی در بالای آن،
    که به مردم هشدار می‌دهد
  • 0:26 - 0:28
    هرگز میوه‌هایی مانند این را نخورند،
  • 0:28 - 0:30
    چراکه آن‌ها را با خونی آلوده کرده‌اند،
  • 0:30 - 0:32
    که حاوی ویروس اچ‌آی‌وی است.
  • 0:32 - 0:35
    و پیام نوشته‌ شده در بالای آن
    تأکید زیادی دارد که،
  • 0:35 - 0:37
    «برای نجات انسان‌ها،
    پیام را به اشتراک بگذارید.»
  • 0:38 - 0:41
    با اینکه محققان سال‌هاست
    شایعه بودن این خبر را تائید کرده‌اند،
  • 0:41 - 0:44
    اما این یکی از آن شایعاتی است که
    هرگز از بین نمی‌رود.
  • 0:44 - 0:45
    یک شایعه‌ی زامبی!
  • 0:46 - 0:48
    و مطمئن هستیم که کاملاً اشتباه است.
  • 0:48 - 0:51
    ممکن است به چنین مثالی بخندید، و بگویید،
  • 0:51 - 0:53
    «به ‌هر حال چه کسی این را باور می‌کند؟»
  • 0:53 - 0:55
    اما دلیل برگشتن دوباره‌ این شایعه،
    این است که
  • 0:55 - 0:59
    عمیق‌ترین ترس‌های انسان‌ها را
    در مورد سلامتی خودشان و عزیزانشان،
  • 0:59 - 1:01
    مورد هدف قرار می‌دهد.
  • 1:02 - 1:05
    و اگر به‌ اندازه‌ی من، زمانتان را
    صرف بررسی اطلاعات جعلی کرده باشید،
  • 1:05 - 1:08
    می‌فهمید که این تنها
    یک نمونه از بی‌شمار خبری است که
  • 1:08 - 1:11
    به ترس‌ها و آسیب‌پذیری‌های
    عمیق مردم حمله می‌کند.
  • 1:11 - 1:16
    هر روزه در سراسر جهان،
    شاهد جوک‌های زیادی در اینستاگرام هستیم،
  • 1:16 - 1:19
    که والدین را تشویق می‌کند
    به کودکانشان واکسن نزنند.
  • 1:19 - 1:23
    فیلم‌های زیادی در یوتیوب توضیح می‌دهند که
    چرا گرمایش زمین برای گول زدن ماست،
  • 1:23 - 1:28
    و در همه‌ی شبکه‌های اجتماعی،
    مطالب بی‌شماری می‌بینیم که ساخته‌‌شده‌اند،
  • 1:28 - 1:31
    تا بر اساس نژاد، مذهب یا جنسیت،
    دیگران را قضاوت و سرزنش کنند.
  • 1:32 - 1:35
    به یکی از اساسی‌ترین
    چالش‌های عصر ما خوش‌ آمدید.
  • 1:36 - 1:40
    چگونه می‌توانیم اینترنتی بسازیم که
    در بطن آن، آزادی بیان وجود داشته باشد،
  • 1:40 - 1:43
    اما مطمئن باشیم مطالبی که
    در آن منتشر می‌شوند،
  • 1:43 - 1:47
    به دموکراسی، اقلیت‌ها
    و سلامت جسم و روانمان،
  • 1:47 - 1:49
    آسیب‌های جبران‌ناپذیری نمی‌زنند؟
  • 1:50 - 1:52
    از آنجا که ما در عصر اطلاعات
    زندگی می‌کنیم،
  • 1:52 - 1:56
    ارز رایجی هست که همه‌
    به آن وابسته‌ایم -یعنی اطلاعات-
  • 1:56 - 1:58
    اما دیگر، کاملاً قابل اعتماد
    به نظر نمی‌رسد
  • 1:58 - 2:00
    و در مواقعی می‌تواند بسیار خطرناک عمل کند.
  • 2:01 - 2:05
    علت آن رشد غیرقابل‌کنترلِ
    پلتفرم‌های اجتماعی متعددی است که
  • 2:05 - 2:06
    به ما اجازه می‌دهند در میانِ
  • 2:06 - 2:09
    خبرهایی بگردیم که
    حقیقت و دروغ در آن‌ها مخلوط شده‌اند،
  • 2:09 - 2:12
    اما هیچ ‌یک از نشانه‌های مرسوم
    اعتمادپذیری وجود ندارد.
  • 2:12 - 2:16
    و شکر خدا، اصطلاحاتمان هم در این زمینه
    به طرز وحشتناکی به‌هم‌ریخته است.
  • 2:16 - 2:19
    مردم هنوز به عبارت
    «اخبار جعلی» توجه نشان می‌دهند،
  • 2:19 - 2:22
    با اینکه در اکثر مواقع هیچ کمکی نمی‌کند،
  • 2:22 - 2:25
    و برای توصیف چیزهای
    بسیار متفاوتی استفاده می‌شود:
  • 2:25 - 2:28
    دروغ، شایعه، فریب، توطئه، پروپاگاندا.
  • 2:29 - 2:32
    و من آرزو می‌کنم که بتوانیم
    استفاده از این عبارت را متوقف کنیم.
  • 2:32 - 2:35
    عبارتی که سیاستمداران همه‌ احزاب
    در سراسر دنیا
  • 2:35 - 2:36
    توافق کرده‌اند که از آن
  • 2:36 - 2:39
    برای حمله به رسانه‌های آزاد
    و مستقل استفاده کنند.
  • 2:40 - 2:45
    (تشویق حضار)
  • 2:45 - 2:48
    چراکه ما بیش از هر زمان دیگری
    به رسانه‌‌های خبری حرفه‌ای نیاز داریم.
  • 2:49 - 2:52
    و علاوه بر آن، بیشتر این محتوا
    حتی شبیه به اخبار هم نیست،
  • 2:52 - 2:55
    بلکه کمیک، ویدیو و پست‌های اجتماعی است.
  • 2:55 - 2:58
    و بیشتر آن‌ها کاملاً جعلی نیست؛
    بلکه تنها گمراه‌کننده است.
  • 2:58 - 3:01
    ما سعی داریم ثابت کنیم
    چه چیزی درست یا غلط است.
  • 3:01 - 3:05
    اما در واقع بزرگ‌ترین نگرانی،
    تبدیل این مسئله به یک سلاح است.
  • 3:07 - 3:09
    چراکه مؤثرترین نمونه‌های شایعات،
  • 3:09 - 3:12
    همواره مواردی بوده‌اند که
    در پوسته‌ای از حقیقت قرار داشته‌اند.
  • 3:12 - 3:15
    بیایید این مثال از ماه مارس سال ۲۰۱۷،
    در لندن را ببینیم:
  • 3:15 - 3:17
    یک توییت، که بسیار هم دیده شد،
  • 3:17 - 3:21
    بعد از یک واقعه‌ی تروریستی
    بر روی پل «وست‌مینیستر».
  • 3:21 - 3:23
    این یک عکس واقعی است، و نه تقلبی.
  • 3:23 - 3:26
    زنی در این عکس دیده می‌شود،
    که بعداً با او مصاحبه شد،
  • 3:26 - 3:28
    و توضیح داد که در زمان حادثه
    کاملاً شوکه شده بود.
  • 3:28 - 3:30
    او در حال صحبت کردن
    با یکی از عزیزانش بوده،
  • 3:30 - 3:33
    و به منظور حفظ احترام،
    به قربانی نگاه نمی‌کرد.
  • 3:33 - 3:37
    اما این عکس، همچنان با نگاهی
    اسلام‌ستیزانِ در حال پخش شدن بود.
  • 3:37 - 3:40
    با چندین هشتک مانند #BanIslam.
  • 3:40 - 3:43
    خب اگر شما در توییتر کار می‌کردید
    چه کار می‌کردید؟
  • 3:43 - 3:45
    آن را حذف می‌کردید؟
    یا همین‌طور که هست رهایش می‌کردید؟
  • 3:47 - 3:50
    واکنش لحظه‌ای و احساسی من
    این است که آن را حذف کنم.
  • 3:50 - 3:52
    من طرز نگاه این تصویر را، نمی‌پسندم.
  • 3:53 - 3:55
    اما آزادی بیان یک حق انسانی است.
  • 3:55 - 3:58
    و اگر ما شروع کنیم به حذف کردنِ
    هر سخنی که برایمان ناخوشایند است،
  • 3:58 - 3:59
    به مشکل برمی‌خوریم.
  • 3:59 - 4:02
    و در این نمونه، ممکن است
    تصمیم واضح به نظر برسد،
  • 4:02 - 4:04
    اما، بیشتر موارد این‌طور نیستند.
  • 4:04 - 4:06
    مشخص کردن مرزها کار بسیار سختی است.
  • 4:06 - 4:08
    تصمیم درست از نظر یک نفر،
  • 4:08 - 4:10
    ممکن است از نظر فرد دیگری
    سانسور مطلق باشد.
  • 4:11 - 4:14
    چیزی که الآن می‌دانیم، این است که،
    این کاربر «Texas Lone Star»
  • 4:14 - 4:17
    بخشی از یک کمپین بزرگ روسی
    برای انتشار اطلاعات نادرست بوده،
  • 4:17 - 4:19
    که از آن زمان با آن مقابله شده است.
  • 4:19 - 4:21
    آیا این نظرتان را عوض می‌کند؟
  • 4:21 - 4:22
    نظر من را که عوض می‌کند،
  • 4:23 - 4:25
    زیرا حالا با یک کمپینِ
    سازمان‌یافته طرف هستیم،
  • 4:25 - 4:26
    که هدفش ایجاد دعوا است.
  • 4:26 - 4:28
    و برای بعضی از شما،
    که دوست دارید فکر کنید
  • 4:28 - 4:31
    که هوش مصنوعی
    همه مشکلات را حل خواهد کرد،
  • 4:31 - 4:33
    فکر می‌کنم با هم توافق داریم که
    تا سطحی از هوش مصنوعی
  • 4:33 - 4:36
    که قادر باشد چنین پست‌هایی را
    تشخیص دهد، فاصله‌ی زیادی داریم.
  • 4:37 - 4:39
    من قصد دارم ۳ مشکل مرتبط را شرح دهم،
  • 4:39 - 4:42
    که این کار را بسیار پیچیده می‌کنند.
  • 4:42 - 4:45
    و سپس راه‌حل‌هایی برای فکر کردن
    در مورد این مشکلات پیشنهاد دهم.
  • 4:45 - 4:49
    اول از همه، ما تنها
    رابطه‌ی منطقی با اطلاعات نداریم،
  • 4:49 - 4:51
    این یک ارتباط احساسی است.
  • 4:51 - 4:55
    مشاهده‌ حقایق بیشتر، مشکل را حل نمی‌کند،
  • 4:55 - 4:58
    زیرا الگوریتم‌هایی که محتوایی را
    که می‌بینیم، انتخاب می‌کنند،
  • 4:58 - 5:01
    طوری طراحی شده‌اند که
    به پاسخ‌های احساسی ما جایزه بدهند.
  • 5:01 - 5:02
    و زمانی که ما ترسیده باشیم،
  • 5:02 - 5:05
    روایت‌های ساده‌شده، توضیحات توطئه آمیز،
  • 5:05 - 5:09
    و متهم کردن دیگران
    بسیار مؤثرتر عمل می‌کنند.
  • 5:10 - 5:11
    علاوه بر آن، بسیاری از این کمپانی‌ها،
  • 5:11 - 5:14
    حیاتی وابسته به توجه دارند.
  • 5:14 - 5:18
    و به این معناست که این الگوریتم‌ها،
    همواره به سمت احساسات متمایل خواهند بود.
  • 5:18 - 5:23
    دوم، بیشترِ مطالبی که من در موردشان
    صحبت می‌کنم، موارد قانونی هستند.
  • 5:23 - 5:25
    اگر در موردِ مطالبی حرف می‌زدم که
  • 5:25 - 5:28
    مربوط به سوءاستفاده‌ی جنسی از کودکان
    یا ترویج کننده‌ی خشونت هستند،
  • 5:28 - 5:29
    اوضاع بسیار فرق می‌کرد.
  • 5:29 - 5:32
    اما انتشار دروغی آشکار، کاملاً قانونی است.
  • 5:33 - 5:37
    مردم همواره از حذف کردنِ
    مطالب مشکل‌ساز و آسیب‌زا صحبت می‌کنند،
  • 5:37 - 5:40
    اما تعریف دقیق و مشخصی
    از آن ارائه نمی‌دهند،
  • 5:40 - 5:41
    ازجمله «مارک زاکربرگ»
  • 5:41 - 5:45
    که اخیراً خواستار وضع مقررات جهانی
    برای تعدیل صحبت‌ها شد.
  • 5:45 - 5:47
    و نگرانی من این است که می‌بینیم دولت‌ها
  • 5:47 - 5:48
    در همه جای جهان
  • 5:48 - 5:51
    عجولانه در حال گرفتن تصمیم‌هایی هستند که
  • 5:51 - 5:54
    ممکن است تبعاتی بسیار جدی
    در پی داشته باشد
  • 5:54 - 5:56
    به‌خصوص اکنون‌که موضوع،
    صحبت کردن ماست.
  • 5:56 - 6:00
    و اگر می‌توانستیم تصمیم بگیریم کدام سخن را
    نگه‌داریم و کدام‌یک را حذف کنیم،
  • 6:00 - 6:02
    هرگز این حجم از مطالب را نداشتیم.
  • 6:02 - 6:04
    در هر ثانیه میلیون‌ها عکس و متن
  • 6:04 - 6:06
    توسط افراد مختلف در جهان آپلود می‌شود
  • 6:06 - 6:07
    به زبان‌های متفاوت،
  • 6:07 - 6:10
    و با هزاران زمینه‌ فرهنگی‌ متفاوت.
  • 6:10 - 6:13
    ما هرگز روش مناسبی
  • 6:13 - 6:15
    برای تعدیل کردن این حجم از صحبت‌ها را
  • 6:15 - 6:17
    چه به‌ وسیله‌ انسان و
    چه کامپیوتر، نداشته‌ایم.
  • 6:18 - 6:22
    و سوم، این کمپانی‌ها
    مانند گوگل، توییتر، فیس‌بوک و واتس‌اپ
  • 6:22 - 6:25
    بخشی از اکوسیستم اطلاعاتی بزرگ‌تری هستند.
  • 6:25 - 6:28
    ما علاقه داریم همه‌ی تقصیرها را
    گردن آن‌ها بیندازیم،
  • 6:28 - 6:32
    اما در حقیقت رسانه‌های جمعی
    و مقامات رسمی هنگامی‌که بخواهند،
  • 6:32 - 6:36
    می‌توانند نقشی به همان مقدار
    در تشدید شایعات و توطئه‌ها داشته باشند.
  • 6:36 - 6:41
    همان‌قدرهم، ما می‌توانیم بدون هیچ تلاشی،
    با بازپخش کردن چشم‌بسته‌ مطالب گمراه‌کننده
  • 6:41 - 6:42
    نقش داشته باشیم.
  • 6:42 - 6:44
    ما هم داریم این آلودگی را اضافه می‌کنیم.
  • 6:45 - 6:48
    همه‌ی ما به دنبال یک راه‌حل ساده هستیم.
  • 6:48 - 6:50
    اما چنین راهی وجود ندارد.
  • 6:50 - 6:54
    هر راه‌حلی لازم است در مقیاس بزرگی
    به‌اندازه‌ی اینترنت اعمال شود.
  • 6:54 - 6:58
    و بله، پلتفرم‌ها در این سطح عمل می‌کنند.
  • 6:58 - 7:01
    اما آیا می‌توانیم و خوب است که
    به آن‌ها اجازه‌ حل این مشکل را بدهیم؟
  • 7:02 - 7:03
    آن‌ها در حال تلاش هستند.
  • 7:03 - 7:07
    اما بیشتر ما، مایل نیستیم
    این شرکت‌های بین‌المللی
  • 7:07 - 7:09
    محافظان حقیقت و عدالت
    در فضای آنلاین باشند.
  • 7:09 - 7:12
    و فکر می‌کنم خود این پلتفرم‌ها هم
    با من هم‌نظر باشند.
  • 7:12 - 7:15
    هم‌اکنون آن‌ها در حالِ
    نمره دادن به تکالیف خودشان هستند.
  • 7:15 - 7:16
    آن‌ها دوست دارند بگویند که
  • 7:16 - 7:18
    مداخله‌هایشان تابه‌حال جواب داده است،
  • 7:18 - 7:21
    اما از آنجا که آن‌ها
    گزارش شفافیت خودشان را می‌دهند،
  • 7:21 - 7:25
    راهی نیست که ما مستقیماً بفهمیم
    واقعاً چه اتفاقی در حال افتادن است.
  • 7:26 - 7:30
    (تشویق حضار)
  • 7:30 - 7:33
    و بگذارید این را هم صراحتاً بگویم
    بیشتر تغییراتی که می‌بینیم،
  • 7:33 - 7:36
    زمانی اتفاق می‌افتند که
    روزنامه‌نگاران دست به تحقیقات می‌زنند
  • 7:36 - 7:37
    و مدارکی نشان‌دهنده‌ جانبداری
  • 7:37 - 7:40
    یا محتوای ناقض قواعد اجتماعی پیدا می‌کنند.
  • 7:41 - 7:45
    بله، این کمپانی‌ها باید نقش مهمی
    در این جریان داشته باشند،
  • 7:45 - 7:47
    اما نمی‌توانند آن را کنترل کنند.
  • 7:48 - 7:49
    در مورد دولت‌ها چطور؟
  • 7:50 - 7:53
    بسیاری از مردم فکر می‌کنند
    که مقررات جهانی،
  • 7:53 - 7:56
    به‌منظور تمیز کردن فضای اطلاعاتی،
    آخرین امید ما باشند.
  • 7:56 - 7:58
    اما قانونگذارانی که من می‌بینم،
  • 7:58 - 8:01
    قادر نیستند پابه‌پا‌ی تغییراتِ
    سریع تکنولوژی حرکت کنند.
  • 8:01 - 8:03
    و بدتر اینکه آن‌ها در تاریکی حرکت می‌کنند.
  • 8:03 - 8:05
    چراکه دسترسی کافی به داده‌‌ها ندارند
  • 8:05 - 8:08
    که بفهمند در این پلتفرم‌ها
    دقیقاً چه اتفاقی می‌افتند.
  • 8:08 - 8:11
    و از طرفی، ما به کدام دولت اعتماد می‌کنیم
    که چنین کاری را انجام دهد؟
  • 8:11 - 8:14
    ما به یک پاسخ بین‌المللی نیاز داریم،
    نه یک پاسخ ملی.
  • 8:15 - 8:18
    پس حلقه‌ گم شده خود ما هستیم.
  • 8:18 - 8:21
    ما مردمی که روزانه
    از این تکنولوژی‌ها استفاده می‌کنیم.
  • 8:21 - 8:26
    آیا می‌توانیم زیرساخت تازه‌ای بنا کنیم
    که از کیفیت اطلاعات حمایت کند؟
  • 8:26 - 8:28
    من باور دارم که می‌توانیم،
  • 8:28 - 8:31
    و چند ایده دارم که در عمل
    چه‌کاری می‌توانیم انجام دهیم.
  • 8:31 - 8:34
    اول از همه، اگر ما قصد داریم
    مردم را در این کار داخل کنیم،
  • 8:34 - 8:37
    آیا می‌توانیم از ویکی‌پدیا انگیزه بگیریم؟
  • 8:37 - 8:38
    آن‌ها نشان دادند که چه‌کاری ممکن است.
  • 8:38 - 8:40
    بله، این کار بی‌نقص نیست،
  • 8:40 - 8:42
    اما آن‌ها نشان داده‌اند با زیرساخت مناسب،
  • 8:42 - 8:44
    با چشم‌اندازی جهانی،
    و شفافیتی فوق‌العاده،
  • 8:44 - 8:48
    می‌توان چیزی ساخت که
    اعتماد اکثر مردم را جلب کند.
  • 8:48 - 8:51
    زیرا ما باید راهی برای
    کمک گرفتن از خِردِ جمعی
  • 8:51 - 8:53
    و تجربیات همه‌ی کاربران پیدا کنیم.
  • 8:54 - 8:56
    به‌خصوص از طریق زنان، رنگین‌پوستان
  • 8:56 - 8:58
    و گروه‌هایی که در اقلیت هستند.
  • 8:58 - 8:59
    حدس می‌زنید چرا؟
  • 8:59 - 9:01
    چون این افراد متخصص اطلاعات نادرست
    و نفرت پراکنی هستند،
  • 9:02 - 9:05
    چراکه سال‌هاست هدفِ
    چنین کمپین‌هایی بوده‌اند.
  • 9:05 - 9:07
    و در طی سال‌ها پرچم‌دارِ
    این مبارزات بوده‌اند،
  • 9:07 - 9:09
    و به آن‌ها گوش داده نشده است.
  • 9:09 - 9:10
    این باید تغییر کند.
  • 9:11 - 9:15
    آیا می‌توانیم یک ویکی‌پدیا
    از افراد مورد اعتماد بسازیم؟
  • 9:15 - 9:19
    آیا می‌توانیم راهی پیدا کنیم که کاربران
  • 9:19 - 9:23
    در مورد تصمیم‌گیری‌های دشوار
    برای تعدیل محتوا نظر بدهند.
  • 9:23 - 9:25
    اگر پلتفرمی تصمیم بگیرد که
  • 9:25 - 9:28
    تغییرات جدیدی اعمال کند،
    آن‌ها می‌توانند بازخورد بدهند.
  • 9:28 - 9:32
    دوم آنکه تجربه‌ افراد از اطلاعات،
    شخصی‌سازی شده است.
  • 9:32 - 9:35
    خبرهای فیس‌بوک من با شما بسیار تفاوت دارد.
  • 9:35 - 9:38
    پیشنهاد‌های یوتیوب شما با من متفاوت است.
  • 9:38 - 9:40
    بنابراین عملاً غیرممکن است بررسی کنیم که
  • 9:40 - 9:42
    چه کسی چه اطلاعاتی را مشاهده می‌کند.
  • 9:43 - 9:44
    پس آیا می‌توانید تصور کنید
  • 9:44 - 9:49
    یک مجموعه‌ متمرکز
    و منبع باز از داده‌های ناشناس
  • 9:49 - 9:52
    با رعایت محرمانگی
    و حساسیت‌های اخلاقی جمع‌آوری کنیم؟
  • 9:52 - 9:54
    فکر کنید چه چیزهایی می‌توانیم بفهمیم،
  • 9:54 - 9:57
    اگر یک شبکه‌ی جهانی،
    از شهروندان نگرانی بسازیم که
  • 9:57 - 10:01
    دوست دارند داده‌های
    شبکه‌های اجتماعی‌شان را وقف علم کنند.
  • 10:01 - 10:03
    چراکه ما واقعاً خیلی کم
  • 10:03 - 10:06
    در مورد آثار درازمدتِ
    نفرت پراکنی و اطلاعات اشتباه
  • 10:06 - 10:08
    روی دیدگاه‌ها و رفتارهای مردم، می‌دانیم.
  • 10:08 - 10:09
    و آنچه می‌دانیم نیز،
  • 10:09 - 10:12
    عمدتاً در ایالات‌متحده بررسی شده است،
  • 10:12 - 10:14
    بدون توجه به اینکه
    این یک مشکل جهانی است.
  • 10:14 - 10:16
    لازم است روی این مشکل هم کار کنیم.
  • 10:16 - 10:17
    و سوم،
  • 10:17 - 10:20
    راهی هست که نهادهای مختلف
    را به هم متصل کنیم؟
  • 10:20 - 10:23
    هیچ نهادی، اعم از غیرانتفاعی،
    استارت‌آپ و یا دولت،
  • 10:23 - 10:25
    این مشکل را حل نخواهد کرد.
  • 10:25 - 10:27
    اما افراد بسیار باهوشی سرتاسر جهان،
  • 10:27 - 10:29
    روی این مشکلات کار می‌کنند،
  • 10:29 - 10:32
    از خبرنگاران، جوامع مدنی،
    دانشگاهیان و اکتیویست‌ها
  • 10:32 - 10:34
    که تصویر تعدادی از آن‌ها را
    مشاهده می‌کنید.
  • 10:34 - 10:37
    بعضی از آن‌ها در حال ایجاد
    شاخص‌های اعتبار محتوا هستند.
  • 10:37 - 10:38
    برخی در حال چک کردن حقایق،
  • 10:38 - 10:42
    تا ادعاها، تصاویر و فیلم‌های نادرست
    توسط پلتفرم‌ها محدود شوند.
  • 10:42 - 10:44
    نهاد غیرانتفاعی به نام «فرست درفت»
    که در تأسیس آن کمک کردم،
  • 10:44 - 10:47
    سعی می‌کند با کمک
    خبرگزاری‌های مختلف سراسر جهان،
  • 10:47 - 10:51
    برنامه‌های تحقیقاتی مشترکی راه‌اندازی کند.
  • 10:51 - 10:54
    و «دنی هیلیس»، یک معمار نرم‌افزار،
  • 10:54 - 10:56
    در حال طراحی یک سیستم جدید
    به نام «آندرلی» است،
  • 10:56 - 10:58
    که یک بانک اطلاعاتی،
    برای اظهارات عمومی از حقایق
  • 10:58 - 11:00
    و اتصال آن‌ها به منبعشان خواهد بود.
  • 11:00 - 11:04
    تا انسان‌ها و الگوریتم‌ها بهتر بتوانند
    موارد معتبر را تشخیص دهند.
  • 11:05 - 11:08
    و معلمانی از کشورهای مختلف
    روش‌های مختلفی را آزمایش می‌کنند،
  • 11:08 - 11:12
    تا به مردم یاد دهند نگاهی انتقادی
    به مطالبی که مصرف می‌کنند داشته باشند.
  • 11:13 - 11:16
    همه‌ این تلاش‌ها عالی‌اند، اما هر کدام
    به‌ دور از سایرین انجام می‌شود،
  • 11:16 - 11:18
    و بسیاری از آن‌ها کسری بودجه
    قابل‌توجهی دارند.
  • 11:19 - 11:21
    همچنین صدها انسان بسیار باهوش
  • 11:21 - 11:22
    در این کمپانی‌ها کار می‌کنند،
  • 11:22 - 11:25
    اما باز هم، این تلاش‌ها ممکن است
    ایزوله احساس شوند،
  • 11:25 - 11:29
    زیرا به دنبال راه‌حل‌های مختلفی
    برای یک مشکل یکسان هستند.
  • 11:29 - 11:31
    چگونه می‌توانیم راهی بیابیم که این افراد
  • 11:31 - 11:35
    برای چند روز یا چند هفته
    در مکانی دور هم جمع شوند،
  • 11:35 - 11:37
    تا بتوانند به کمک یکدیگر
    با این مشکل مقابله کنند
  • 11:37 - 11:39
    اما هر یک از دیدگاه خودشان؟
  • 11:39 - 11:40
    آیا از عهده این کار برمی‌آییم؟
  • 11:40 - 11:44
    می‌توانیم یک پاسخ بلندپروازانِ‌ همگانی،
  • 11:44 - 11:47
    متناسب برای مسئله‌ای
    با این ابعاد و پیچیدگی پیدا کنیم؟
  • 11:48 - 11:49
    من فکر می‌کنم، بله.
  • 11:49 - 11:52
    بیایید با کمک همدیگر،
    فضای اطلاعاتی‌مان را بازسازی کنیم.
  • 11:53 - 11:54
    متشکرم.
  • 11:54 - 11:58
    (تشویق حضار)
Title:
چطور می‌توانیم اینترنت را به فضای قابل‌ اعتمادی تبدیل کنیم
Speaker:
کلر واردل
Description:

چطور می‌توانیم جلوی پخش شدن محتوای نادرست و حتی خطرناک در اینترنت را بگیریم درحالی‌که آزادی بیان را در آن محدود نکرده باشیم؟ متخصص اطلاعات گمراه‌کننده، «کلر واردل» چالش‌های جدید فضای مجازی آلوده‌ی فعلی را بررسی می‌کند و پیشنهاد‌هایی می‌دهد که اینترنت را با کمک کاربران روزانه‌اش به جایی قابل ‌اعتماد تبدیل کنیم. او می‌گوید: «بیایید با هم، فضای اطلاعاتی‌مان را بازسازی کنیم.»

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Persian subtitles

Revisions