0:00:01.041,0:00:04.175 سلام ، من جوی هستم ، شاعر کد، 0:00:04.199,0:00:09.192 در یک ماموریت برای متوقف کردن[br]یک نیروی دیده نشده در حال ظهور، 0:00:09.216,0:00:12.072 نیرویی که من آن را "نگاه رمزی" صدا می کنم 0:00:12.096,0:00:15.405 اصطلاح من برای تبعیض الگوریتمی. 0:00:15.429,0:00:19.729 تبعیض الگوریتمی، مانند تبعیض انسانی[br]باعث نابرابری میشود. 0:00:19.753,0:00:25.775 با این حال،الگوریتم ها، مانند ویروس ها[br]می تونن در ابعاد عظیم 0:00:25.799,0:00:27.381 و سرعت زیادی، تبعیض رو گسترش یابند 0:00:27.943,0:00:32.330 تبعیض الگوریتمی همچنین میتونه باعث[br]تجربیات انحصاری 0:00:32.354,0:00:34.482 و اعمال تبعیض آمیز بشه. 0:00:34.506,0:00:36.567 بذارین منظورمو بهتون نشون بدم. 0:00:36.980,0:00:39.416 [فیلم] جوی: سلام دوربین.[br]من یک صورت دارم. 0:00:40.162,0:00:42.026 میتونی صورتمو ببینی 0:00:42.051,0:00:43.676 صورت بدون عینکم رو؟ 0:00:43.701,0:00:45.915 تو میتونی صورتشو ببینی. 0:00:46.237,0:00:48.482 صورت من رو چطور؟ 0:00:51.890,0:00:55.640 من یک ماسک دارم. می تونی ماسک من رو ببینی؟ 0:00:56.474,0:00:58.839 پس چطور این اتفاق افتاد؟ 0:00:58.863,0:01:02.004 چرا من روبه روی یک کامپیوتر نشستم 0:01:02.028,0:01:03.452 به همراه یک ماسک سفید 0:01:03.476,0:01:07.126 و تلاش می کنم تا به وسیله یک وب کم[br]ارزان قیمت شناخته شوم؟ 0:01:07.150,0:01:09.441 خب وقتی که من[br]با "نگاه رمزی" مبارزه نمی کنم 0:01:09.465,0:01:10.985 به عنوان یک شاعر کد، 0:01:11.009,0:01:14.281 من یک دانشجوی تحصیلات تکمیلی[br]در آزمایشگاه رسانه MIT هستم 0:01:14.305,0:01:19.222 من آنجا فرصت دارم تا روی انواع پروژه های[br]جالب و خیالبافانه کار کنم 0:01:19.246,0:01:21.273 مثل آینه آرزو 0:01:21.297,0:01:26.431 پروژه ای که می تواند[br]روی تصویر من ماسک بگذارد 0:01:26.455,0:01:28.805 پس در صبح، اگر من بخوام احساس قدرت کنم، 0:01:28.829,0:01:30.263 میتونم ماسک یک شیر رو بذارم. 0:01:30.287,0:01:33.783 یا اگر بخواهم با روحیه باشم[br]می توانم یک نقل قول ببینم. 0:01:33.807,0:01:36.796 بنابراین از یک دستگاه تشخیص چهره[br]استفاده کردم 0:01:36.820,0:01:38.171 تا این سیستم رو بسازم، 0:01:38.195,0:01:43.298 ولی فهمیدم که واقعا بدون ماسک سفید[br]امکان تست این سیستم وجود نداره. 0:01:44.282,0:01:48.628 متاسفانه قبلاً هم[br]به این مشکل برخورد کرده بودم 0:01:48.652,0:01:52.955 وقتی که در دانشگاه Gerogia Tech[br]دانشجوی کارشناسی رشته علوم کامپیوتر بودم، 0:01:52.979,0:01:55.034 روی رباتهای اجتماعی کار میکردم، 0:01:55.058,0:01:58.835 و یکی از وظایفم این بود که به ربات[br]بازی peek-a-boo رو یاد بدم 0:01:58.859,0:02:00.542 یک بازی نوبتی ساده[br](مثل دالّی کردن) 0:02:00.566,0:02:04.887 که تو اون به نوبت هرکی صورتشو میپوشونه و [br]بعد پوشش رو بر میداره و میگه "peek-a-boo" 0:02:04.911,0:02:09.340 مشکل اینه که، این بازی[br]اگر من نتونم ببینمتون فایده نداره 0:02:09.364,0:02:11.863 و ربات من نمیتونست من رو ببینه. 0:02:11.887,0:02:15.837 ولی من صورت هم اتاقیم رو قرض گرفتم[br]تا پروژم رو انجام بدم 0:02:15.861,0:02:17.241 تمرین رو انجام دادم، 0:02:17.265,0:02:21.018 و فهمیدم که، میدونی چیه؟[br]یکی دیگه این مشکل رو حل خواهد کرد. 0:02:21.669,0:02:23.672 مدت کوتاهی بعد از این ماجرا، 0:02:23.696,0:02:27.855 من برای یک مسابقه کارآفرینی[br]در هنگ کنگ بودم. 0:02:28.339,0:02:31.033 برگزارکنندگان تصیمیم گرفتن[br]که شرکت کننده ها رو 0:02:31.057,0:02:33.429 به یک تور بازدید از استارتاپ های محلی ببرن 0:02:33.453,0:02:36.168 یکی از استارتاپها یک ربات اجتماعی داشت، 0:02:36.192,0:02:38.104 و تصمیم گرفتن که یک دمو برگزار کنن. 0:02:38.128,0:02:41.108 دمو روی همه کار کرد تا اینکه نوبت من شد 0:02:41.132,0:02:43.055 و احتمالا میتونین حدس بزنین. 0:02:43.079,0:02:46.044 که ربات نتونست صورت من رو تشخیص بده. 0:02:46.068,0:02:48.579 من از توسعهدهندگان ربات پرسیدم جریان چیه 0:02:48.603,0:02:54.136 و معلوم شد که همون نرمافزار تشخیص چهرهای[br]رو استفاده میکردن که ما میکردیم. 0:02:54.160,0:02:55.810 اون طرف دنیا، 0:02:55.834,0:02:59.686 من یاد گرفتم که تبعیض الگوریتمی[br]میتونه خیلی سریع سفر کنه 0:02:59.710,0:03:02.880 به سرعت دانلود چندتا فایل از اینترنت. 0:03:03.745,0:03:06.821 حالا جریان چیه؟[br]چرا صورت من تشخیص داده نشد؟ 0:03:06.845,0:03:10.201 باید ببینیم که ما چطوری به ماشینها[br]توانایی دیدن میدیم. 0:03:10.225,0:03:13.634 بینایی کامپیوتر برای تشخیص چهره[br]از تکنیکهای یادگیری ماشین استفاده میکنه 0:03:15.562,0:03:19.459 روش کارش اینطوریه که یک مجموعه داده آموزشی[br]از نمونه صورت ها درست میکنید. 0:03:19.483,0:03:22.301 این یک صورته. این یک صورته. این صورت نیست. 0:03:22.325,0:03:26.844 و به مرور زمان، میتونین به کامپیوتر[br]یاد بدین که چطوری صورت هارو تشخیص بده. 0:03:26.868,0:03:30.857 اما اگه مجموعه داده آموزشی[br]واقعا متنوع نباشه. 0:03:30.881,0:03:34.230 هر چهرهای که خیلی با معیار فرق کنه، 0:03:34.254,0:03:35.903 تشخیصش سخت تر میشه 0:03:35.927,0:03:37.890 که این برای من هم پیش اومد. 0:03:37.914,0:03:40.296 ولی نگران نباشین[br]خبرهای خوبی برای شنیدن هستن 0:03:40.320,0:03:43.091 مجموعه داده آموزشی[br]همینطوری از ناکجا آباد نمیان. 0:03:43.115,0:03:44.903 در واقع ما میسازیمشون. 0:03:44.927,0:03:49.103 پس این فرصت برای ساخت مجموعه داده آموزشی[br]متنوع و فراگیر وجود داره. 0:03:49.127,0:03:52.951 که تصویر غنیتری از انسانیت رو نشون بدن. 0:03:52.975,0:03:55.196 شما در مثالهای من دیدین که 0:03:55.220,0:03:56.988 چجوری رباتهای اجتماعی 0:03:57.012,0:04:01.623 باعث کشف من درباره[br]محرومیت به وسیله تبعیض الگوریتمی شدن. 0:04:01.647,0:04:06.462 ولی تبعیض الگوریتمی میتونه[br]باعث رفتارهای تبعیضآمیز بشه 0:04:07.437,0:04:08.890 در سراسر ایالات متحده 0:04:08.914,0:04:13.112 دپارتمانهای پلیس شروع به استفاده[br]از نرمافزار تشخیص چهره کردن. 0:04:13.136,0:04:15.595 و اون رو به تجهیزاتشون[br]در جنگ با جرم اضافه کردن. 0:04:15.619,0:04:17.632 Georgetown Law گزارشی رو منتشر کرده که 0:04:17.656,0:04:24.419 نشون میده، در ایالت متحده[br]از هر دو نفر یک نفر 0:04:24.443,0:04:27.977 چیزی حدود ۱۱۷ میلیون نفر[br]تصاویرشون در شبکههای تشخیص چهره قرار داره 0:04:28.001,0:04:32.553 پلیس بدون نظارت مراجع مربوطه[br]میتونه به این شبکهها نگاه کنه 0:04:32.577,0:04:36.863 اونم با استفاده از الگوریتمهایی که[br]صحتشون تایید نشده. 0:04:36.887,0:04:40.751 با این وجود میدونیم که[br]تشخیص چهره، عاری از خطا نیست 0:04:40.775,0:04:44.954 و مشخص کردن چهرهها[br]همیشه یک چالش باقی خواهد ماند. 0:04:44.978,0:04:46.740 شاید شما اینو تو فیسبوک دیده باشین. 0:04:46.764,0:04:51.632 من و دوستام همیشه ازینکه بقیه[br]اشتباه تو عکسهامون مشخص شدن خندمون میگیره. 0:04:52.258,0:04:57.849 ولی تشخیص اشتباه یک مظنون جنایی[br]اصلا چیز خنده داری نیست. 0:04:57.873,0:05:00.700 نقض آزادیهای مدنی هم همینطور. 0:05:00.724,0:05:03.929 برای تشخیص چهره،[br]از یادگیری ماشین داره استفاده میشه 0:05:03.953,0:05:08.458 ولی یادگیری ماشین[br]فراتر از محدوده بینایی ماشین هست. 0:05:09.266,0:05:13.282 در کتاب "سلاحهای ریاضی مخرب" 0:05:13.306,0:05:19.987 Cathy O'Neil که یک داده شناس هست،[br]درباره ظهور این سلاحهای جدید صحبت میکنه 0:05:20.011,0:05:24.364 الگوریتمهایی مرموز، فراگیر و مخرب 0:05:24.388,0:05:27.352 که به طور روز افزون در حال استفاده شدن[br]در تصمیم گیریها هستند. 0:05:27.376,0:05:30.553 و روی جنبه های بیشتری از[br]زندگیهای ما تاثیر میذارن. 0:05:30.577,0:05:32.447 مثلا کی استخدام شه کی اخراج؟ 0:05:32.471,0:05:34.843 فلان وام رو بگیرین؟[br]بیمه بشین؟ 0:05:34.843,0:05:38.110 در دانشگاهی که میخواهین برین پذیرفته شین؟ 0:05:38.134,0:05:41.643 من و شما یک کالا رو از یک مکان[br]با یک قیمت بخریم؟ 0:05:44.133,0:05:47.892 مجریان قانونی هم شروع به[br]استفاده از یادگیری ماشین 0:05:47.916,0:05:50.205 برای محافظت پیشگیرانه کرده اند. 0:05:50.229,0:05:54.123 برخی از قاضی ها از مقدار ریسک محاسبه شده[br]توسط ماشین برای مشخص کردن اینکه 0:05:54.123,0:05:58.149 یک فرد چقدر در زندان باشد، استفاده میکنند. 0:05:58.173,0:06:00.627 پس ما باید خیلی جدی[br]درباره این تصمیمات فکر کنیم. 0:06:00.651,0:06:01.833 آیا منصفانه هستن؟ 0:06:01.857,0:06:04.747 و ما تبعیض الگوریتمی رو دیده ایم 0:06:04.771,0:06:08.145 که لزوماً باعث نتایج منصفانه نمیشن. 0:06:08.169,0:06:10.133 خب ما چه کار میتونیم بکنیم؟ 0:06:10.157,0:06:13.837 ما میتونیم شروع کنیم به فکر کردن[br]درباره ساختن کدهای غیر انحصاری تر 0:06:13.861,0:06:16.851 و رفتارهای غیر انحصاری رو[br]برای کد زدن استفاده کنیم. 0:06:16.875,0:06:19.184 همه چی واقعاً از آدمها شروع میشه. 0:06:19.708,0:06:21.669 اینکه چه کسی کُد میزنه مهمه. 0:06:21.693,0:06:25.812 آیا ما داریم تیم هایی[br]با طیف مختلفی از افراد درست میکنیم؟ 0:06:25.836,0:06:28.247 که بتونن نقاط ضعف همدیگه رو بررسی کنن؟ 0:06:28.271,0:06:31.816 در سمت تکنیکال، اینکه چطوری کد میزنیم مهمه 0:06:31.840,0:06:35.491 آیا وقتی که یک سیستم رو توسعه میدیم[br]برامون برابری یک شاخص هست؟ 0:06:35.515,0:06:38.428 و در پایان، اینکه چرا کد میزنیم مهمه. 0:06:38.785,0:06:43.868 ما از ابزارهای کامپیوتری برای[br]بدست آوردن ثروت زیادی استفاده کرده ایم. 0:06:43.892,0:06:48.339 حالا این فرصت رو داریم[br]که حتی برابری بیشتری هم بدست بیاریم. 0:06:48.363,0:06:51.293 به شرط اینکه[br]تغییر اجتماعی رو یک اولویت بذاریم 0:06:51.317,0:06:53.767 و به عنوان نه چیزی که [br]حالا بعدا بهش فکر میکنیم 0:06:54.008,0:06:58.530 پس برای جنبش "کد غیرانحصاری"[br]این سه اصل رو داریم: 0:06:58.554,0:07:00.206 اینکه کی کد میزنه مهمه، 0:07:00.230,0:07:01.773 اینکه چطوری کد میزنیم مهمه 0:07:01.797,0:07:03.820 و اینکه چرا کد میزنیم هم مهمه. 0:07:03.844,0:07:06.943 پس برای اینکه به این سمت بریم،[br]میتونیم شروع کنیم به فکر کردن 0:07:06.967,0:07:10.131 درباره ساختن پلتفرمهایی که[br]تبعیض رو تشخیص میدن 0:07:10.155,0:07:13.233 استفاده از تجربیات افراد،[br]مثل اونایی که من به اشتراک گذاشتم 0:07:13.257,0:07:16.327 و البته نظارت و بازرسی بر نرم افزارها. 0:07:16.351,0:07:20.116 همچنین میتونیم شروع کنیم به ساختن[br]مجموعه دادههای آموزشی غیرانحصاری تر. 0:07:20.140,0:07:22.943 کمپین "سلفی برای باهم بودن" رو تصور کنید 0:07:22.967,0:07:25.816 که من و شما میتونیم[br]به برنامهنویسها کمک کنیم 0:07:25.816,0:07:28.649 تا مجموعه دادههای غیرانحصاریتری[br]بسازن و تست کنن 0:07:29.302,0:07:32.130 و میتونیم با وجدان بیشتری[br]شروع به فکر کردن کنیم 0:07:32.154,0:07:37.545 درباره مسائلی مثل تاثیر اجتماعی[br]تکنولوژی که خودمون توسعش میدیم. 0:07:37.569,0:07:39.962 برای شروع این جنبش، 0:07:39.986,0:07:42.833 من لیگ عدالت الگوریتمی رو راه اندازی کردم 0:07:42.857,0:07:48.729 که هرکس که به برابری اهمیت میده[br]میتونه برای مبارزه با نگاه رمزی مبارزه کنه 0:07:48.753,0:07:52.049 شما میتونین در سایت codedgaze.com[br]تبعیض ها رو گزارش بدین، 0:07:52.073,0:07:54.518 درخواست بررسی کنین،[br]یک تست کننده بشین 0:07:54.542,0:07:57.313 و به گفتگو در جریان بپیوندید. 0:07:57.337,0:07:59.624 codedgaze# 0:08:00.742,0:08:03.229 من شما رو دعوت میکنم که به من ملحق شین 0:08:03.253,0:08:06.972 برای ساخت جهانی که در آن، تکنولوژی[br]برای همهی ما، نه فقط بعضیها کار کنه. 0:08:08.917,0:08:13.505 جهانی که به غیر انحصاری بودن ارزش میدیم[br]و تغییرات اجتماعی مورد توجهمون هست. 0:08:13.529,0:08:14.704 خیلی ممنون. 0:08:14.728,0:08:18.999 (تشویق حاضرین) 0:08:20.873,0:08:23.727 ولی من یک سوال ازتون دارم: 0:08:23.751,0:08:25.810 آیا به من در این مبارزه میپیوندید؟ 0:08:25.834,0:08:27.119 (خنده حاضرین) 0:08:27.143,0:08:30.830 (تشویق حاضرین)