1 00:00:01,041 --> 00:00:04,175 سلام ، من جوی هستم ، شاعر کد، 2 00:00:04,199 --> 00:00:09,192 در یک ماموریت برای متوقف کردن یک نیروی دیده نشده در حال ظهور، 3 00:00:09,216 --> 00:00:12,072 نیرویی که من آن را "نگاه رمزی" صدا می کنم 4 00:00:12,096 --> 00:00:15,405 اصطلاح من برای تبعیض الگوریتمی. 5 00:00:15,429 --> 00:00:19,729 تبعیض الگوریتمی، مانند تبعیض انسانی باعث نابرابری میشود. 6 00:00:19,753 --> 00:00:25,775 با این حال،الگوریتم ها، مانند ویروس ها می تونن در ابعاد عظیم 7 00:00:25,799 --> 00:00:27,381 و سرعت زیادی، تبعیض رو گسترش یابند 8 00:00:27,943 --> 00:00:32,330 تبعیض الگوریتمی همچنین میتونه باعث تجربیات انحصاری 9 00:00:32,354 --> 00:00:34,482 و اعمال تبعیض آمیز بشه. 10 00:00:34,506 --> 00:00:36,567 بذارین منظورمو بهتون نشون بدم. 11 00:00:36,980 --> 00:00:39,416 [فیلم] جوی: سلام دوربین. من یک صورت دارم. 12 00:00:40,162 --> 00:00:42,026 میتونی صورتمو ببینی 13 00:00:42,051 --> 00:00:43,676 صورت بدون عینکم رو؟ 14 00:00:43,701 --> 00:00:45,915 تو میتونی صورتشو ببینی. 15 00:00:46,237 --> 00:00:48,482 صورت من رو چطور؟ 16 00:00:51,890 --> 00:00:55,640 من یک ماسک دارم. می تونی ماسک من رو ببینی؟ 17 00:00:56,474 --> 00:00:58,839 پس چطور این اتفاق افتاد؟ 18 00:00:58,863 --> 00:01:02,004 چرا من روبه روی یک کامپیوتر نشستم 19 00:01:02,028 --> 00:01:03,452 به همراه یک ماسک سفید 20 00:01:03,476 --> 00:01:07,126 و تلاش می کنم تا به وسیله یک وب کم ارزان قیمت شناخته شوم؟ 21 00:01:07,150 --> 00:01:09,441 خب وقتی که من با "نگاه رمزی" مبارزه نمی کنم 22 00:01:09,465 --> 00:01:10,985 به عنوان یک شاعر کد، 23 00:01:11,009 --> 00:01:14,281 من یک دانشجوی تحصیلات تکمیلی در آزمایشگاه رسانه MIT هستم 24 00:01:14,305 --> 00:01:19,222 من آنجا فرصت دارم تا روی انواع پروژه های جالب و خیالبافانه کار کنم 25 00:01:19,246 --> 00:01:21,273 مثل آینه آرزو 26 00:01:21,297 --> 00:01:26,431 پروژه ای که می تواند روی تصویر من ماسک بگذارد 27 00:01:26,455 --> 00:01:28,805 پس در صبح، اگر من بخوام احساس قدرت کنم، 28 00:01:28,829 --> 00:01:30,263 میتونم ماسک یک شیر رو بذارم. 29 00:01:30,287 --> 00:01:33,783 یا اگر بخواهم با روحیه باشم می توانم یک نقل قول ببینم. 30 00:01:33,807 --> 00:01:36,796 بنابراین از یک دستگاه تشخیص چهره استفاده کردم 31 00:01:36,820 --> 00:01:38,171 تا این سیستم رو بسازم، 32 00:01:38,195 --> 00:01:43,298 ولی فهمیدم که واقعا بدون ماسک سفید امکان تست این سیستم وجود نداره. 33 00:01:44,282 --> 00:01:48,628 متاسفانه قبلاً هم به این مشکل برخورد کرده بودم 34 00:01:48,652 --> 00:01:52,955 وقتی که در دانشگاه Gerogia Tech دانشجوی کارشناسی رشته علوم کامپیوتر بودم، 35 00:01:52,979 --> 00:01:55,034 روی رباتهای اجتماعی کار میکردم، 36 00:01:55,058 --> 00:01:58,835 و یکی از وظایفم این بود که به ربات بازی peek-a-boo رو یاد بدم 37 00:01:58,859 --> 00:02:00,542 یک بازی نوبتی ساده (مثل دالّی کردن) 38 00:02:00,566 --> 00:02:04,887 که تو اون به نوبت هرکی صورتشو میپوشونه و بعد پوشش رو بر میداره و میگه "peek-a-boo" 39 00:02:04,911 --> 00:02:09,340 مشکل اینه که، این بازی اگر من نتونم ببینمتون فایده نداره 40 00:02:09,364 --> 00:02:11,863 و ربات من نمیتونست من رو ببینه. 41 00:02:11,887 --> 00:02:15,837 ولی من صورت هم اتاقیم رو قرض گرفتم تا پروژم رو انجام بدم 42 00:02:15,861 --> 00:02:17,241 تمرین رو انجام دادم، 43 00:02:17,265 --> 00:02:21,018 و فهمیدم که، میدونی چیه؟ یکی دیگه این مشکل رو حل خواهد کرد. 44 00:02:21,669 --> 00:02:23,672 مدت کوتاهی بعد از این ماجرا، 45 00:02:23,696 --> 00:02:27,855 من برای یک مسابقه کارآفرینی در هنگ کنگ بودم. 46 00:02:28,339 --> 00:02:31,033 برگزارکنندگان تصیمیم گرفتن که شرکت کننده ها رو 47 00:02:31,057 --> 00:02:33,429 به یک تور بازدید از استارتاپ های محلی ببرن 48 00:02:33,453 --> 00:02:36,168 یکی از استارتاپها یک ربات اجتماعی داشت، 49 00:02:36,192 --> 00:02:38,104 و تصمیم گرفتن که یک دمو برگزار کنن. 50 00:02:38,128 --> 00:02:41,108 دمو روی همه کار کرد تا اینکه نوبت من شد 51 00:02:41,132 --> 00:02:43,055 و احتمالا میتونین حدس بزنین. 52 00:02:43,079 --> 00:02:46,044 که ربات نتونست صورت من رو تشخیص بده. 53 00:02:46,068 --> 00:02:48,579 من از توسعهدهندگان ربات پرسیدم جریان چیه 54 00:02:48,603 --> 00:02:54,136 و معلوم شد که همون نرمافزار تشخیص چهرهای رو استفاده میکردن که ما میکردیم. 55 00:02:54,160 --> 00:02:55,810 اون طرف دنیا، 56 00:02:55,834 --> 00:02:59,686 من یاد گرفتم که تبعیض الگوریتمی میتونه خیلی سریع سفر کنه 57 00:02:59,710 --> 00:03:02,880 به سرعت دانلود چندتا فایل از اینترنت. 58 00:03:03,745 --> 00:03:06,821 حالا جریان چیه؟ چرا صورت من تشخیص داده نشد؟ 59 00:03:06,845 --> 00:03:10,201 باید ببینیم که ما چطوری به ماشینها توانایی دیدن میدیم. 60 00:03:10,225 --> 00:03:13,634 بینایی کامپیوتر برای تشخیص چهره از تکنیکهای یادگیری ماشین استفاده میکنه 61 00:03:15,562 --> 00:03:19,459 روش کارش اینطوریه که یک مجموعه داده آموزشی از نمونه صورت ها درست میکنید. 62 00:03:19,483 --> 00:03:22,301 این یک صورته. این یک صورته. این صورت نیست. 63 00:03:22,325 --> 00:03:26,844 و به مرور زمان، میتونین به کامپیوتر یاد بدین که چطوری صورت هارو تشخیص بده. 64 00:03:26,868 --> 00:03:30,857 اما اگه مجموعه داده آموزشی واقعا متنوع نباشه. 65 00:03:30,881 --> 00:03:34,230 هر چهرهای که خیلی با معیار فرق کنه، 66 00:03:34,254 --> 00:03:35,903 تشخیصش سخت تر میشه 67 00:03:35,927 --> 00:03:37,890 که این برای من هم پیش اومد. 68 00:03:37,914 --> 00:03:40,296 ولی نگران نباشین خبرهای خوبی برای شنیدن هستن 69 00:03:40,320 --> 00:03:43,091 مجموعه داده آموزشی همینطوری از ناکجا آباد نمیان. 70 00:03:43,115 --> 00:03:44,903 در واقع ما میسازیمشون. 71 00:03:44,927 --> 00:03:49,103 پس این فرصت برای ساخت مجموعه داده آموزشی متنوع و فراگیر وجود داره. 72 00:03:49,127 --> 00:03:52,951 که تصویر غنیتری از انسانیت رو نشون بدن. 73 00:03:52,975 --> 00:03:55,196 شما در مثالهای من دیدین که 74 00:03:55,220 --> 00:03:56,988 چجوری رباتهای اجتماعی 75 00:03:57,012 --> 00:04:01,623 باعث کشف من درباره محرومیت به وسیله تبعیض الگوریتمی شدن. 76 00:04:01,647 --> 00:04:06,462 ولی تبعیض الگوریتمی میتونه باعث رفتارهای تبعیضآمیز بشه 77 00:04:07,437 --> 00:04:08,890 در سراسر ایالات متحده 78 00:04:08,914 --> 00:04:13,112 دپارتمانهای پلیس شروع به استفاده از نرمافزار تشخیص چهره کردن. 79 00:04:13,136 --> 00:04:15,595 و اون رو به تجهیزاتشون در جنگ با جرم اضافه کردن. 80 00:04:15,619 --> 00:04:17,632 Georgetown Law گزارشی رو منتشر کرده که 81 00:04:17,656 --> 00:04:24,419 نشون میده، در ایالت متحده از هر دو نفر یک نفر 82 00:04:24,443 --> 00:04:27,977 چیزی حدود ۱۱۷ میلیون نفر تصاویرشون در شبکههای تشخیص چهره قرار داره 83 00:04:28,001 --> 00:04:32,553 پلیس بدون نظارت مراجع مربوطه میتونه به این شبکهها نگاه کنه 84 00:04:32,577 --> 00:04:36,863 اونم با استفاده از الگوریتمهایی که صحتشون تایید نشده. 85 00:04:36,887 --> 00:04:40,751 با این وجود میدونیم که تشخیص چهره، عاری از خطا نیست 86 00:04:40,775 --> 00:04:44,954 و مشخص کردن چهرهها همیشه یک چالش باقی خواهد ماند. 87 00:04:44,978 --> 00:04:46,740 شاید شما اینو تو فیسبوک دیده باشین. 88 00:04:46,764 --> 00:04:51,632 من و دوستام همیشه ازینکه بقیه اشتباه تو عکسهامون مشخص شدن خندمون میگیره. 89 00:04:52,258 --> 00:04:57,849 ولی تشخیص اشتباه یک مظنون جنایی اصلا چیز خنده داری نیست. 90 00:04:57,873 --> 00:05:00,700 نقض آزادیهای مدنی هم همینطور. 91 00:05:00,724 --> 00:05:03,929 برای تشخیص چهره، از یادگیری ماشین داره استفاده میشه 92 00:05:03,953 --> 00:05:08,458 ولی یادگیری ماشین فراتر از محدوده بینایی ماشین هست. 93 00:05:09,266 --> 00:05:13,282 در کتاب "سلاحهای ریاضی مخرب" 94 00:05:13,306 --> 00:05:19,987 Cathy O'Neil که یک داده شناس هست، درباره ظهور این سلاحهای جدید صحبت میکنه 95 00:05:20,011 --> 00:05:24,364 الگوریتمهایی مرموز، فراگیر و مخرب 96 00:05:24,388 --> 00:05:27,352 که به طور روز افزون در حال استفاده شدن در تصمیم گیریها هستند. 97 00:05:27,376 --> 00:05:30,553 و روی جنبه های بیشتری از زندگیهای ما تاثیر میذارن. 98 00:05:30,577 --> 00:05:32,447 مثلا کی استخدام شه کی اخراج؟ 99 00:05:32,471 --> 00:05:34,843 فلان وام رو بگیرین؟ بیمه بشین؟ 100 00:05:34,843 --> 00:05:38,110 در دانشگاهی که میخواهین برین پذیرفته شین؟ 101 00:05:38,134 --> 00:05:41,643 من و شما یک کالا رو از یک مکان با یک قیمت بخریم؟ 102 00:05:44,133 --> 00:05:47,892 مجریان قانونی هم شروع به استفاده از یادگیری ماشین 103 00:05:47,916 --> 00:05:50,205 برای محافظت پیشگیرانه کرده اند. 104 00:05:50,229 --> 00:05:54,123 برخی از قاضی ها از مقدار ریسک محاسبه شده توسط ماشین برای مشخص کردن اینکه 105 00:05:54,123 --> 00:05:58,149 یک فرد چقدر در زندان باشد، استفاده میکنند. 106 00:05:58,173 --> 00:06:00,627 پس ما باید خیلی جدی درباره این تصمیمات فکر کنیم. 107 00:06:00,651 --> 00:06:01,833 آیا منصفانه هستن؟ 108 00:06:01,857 --> 00:06:04,747 و ما تبعیض الگوریتمی رو دیده ایم 109 00:06:04,771 --> 00:06:08,145 که لزوماً باعث نتایج منصفانه نمیشن. 110 00:06:08,169 --> 00:06:10,133 خب ما چه کار میتونیم بکنیم؟ 111 00:06:10,157 --> 00:06:13,837 ما میتونیم شروع کنیم به فکر کردن درباره ساختن کدهای غیر انحصاری تر 112 00:06:13,861 --> 00:06:16,851 و رفتارهای غیر انحصاری رو برای کد زدن استفاده کنیم. 113 00:06:16,875 --> 00:06:19,184 همه چی واقعاً از آدمها شروع میشه. 114 00:06:19,708 --> 00:06:21,669 اینکه چه کسی کُد میزنه مهمه. 115 00:06:21,693 --> 00:06:25,812 آیا ما داریم تیم هایی با طیف مختلفی از افراد درست میکنیم؟ 116 00:06:25,836 --> 00:06:28,247 که بتونن نقاط ضعف همدیگه رو بررسی کنن؟ 117 00:06:28,271 --> 00:06:31,816 در سمت تکنیکال، اینکه چطوری کد میزنیم مهمه 118 00:06:31,840 --> 00:06:35,491 آیا وقتی که یک سیستم رو توسعه میدیم برامون برابری یک شاخص هست؟ 119 00:06:35,515 --> 00:06:38,428 و در پایان، اینکه چرا کد میزنیم مهمه. 120 00:06:38,785 --> 00:06:43,868 ما از ابزارهای کامپیوتری برای بدست آوردن ثروت زیادی استفاده کرده ایم. 121 00:06:43,892 --> 00:06:48,339 حالا این فرصت رو داریم که حتی برابری بیشتری هم بدست بیاریم. 122 00:06:48,363 --> 00:06:51,293 به شرط اینکه تغییر اجتماعی رو یک اولویت بذاریم 123 00:06:51,317 --> 00:06:53,767 و به عنوان نه چیزی که حالا بعدا بهش فکر میکنیم 124 00:06:54,008 --> 00:06:58,530 پس برای جنبش "کد غیرانحصاری" این سه اصل رو داریم: 125 00:06:58,554 --> 00:07:00,206 اینکه کی کد میزنه مهمه، 126 00:07:00,230 --> 00:07:01,773 اینکه چطوری کد میزنیم مهمه 127 00:07:01,797 --> 00:07:03,820 و اینکه چرا کد میزنیم هم مهمه. 128 00:07:03,844 --> 00:07:06,943 پس برای اینکه به این سمت بریم، میتونیم شروع کنیم به فکر کردن 129 00:07:06,967 --> 00:07:10,131 درباره ساختن پلتفرمهایی که تبعیض رو تشخیص میدن 130 00:07:10,155 --> 00:07:13,233 استفاده از تجربیات افراد، مثل اونایی که من به اشتراک گذاشتم 131 00:07:13,257 --> 00:07:16,327 و البته نظارت و بازرسی بر نرم افزارها. 132 00:07:16,351 --> 00:07:20,116 همچنین میتونیم شروع کنیم به ساختن مجموعه دادههای آموزشی غیرانحصاری تر. 133 00:07:20,140 --> 00:07:22,943 کمپین "سلفی برای باهم بودن" رو تصور کنید 134 00:07:22,967 --> 00:07:25,816 که من و شما میتونیم به برنامهنویسها کمک کنیم 135 00:07:25,816 --> 00:07:28,649 تا مجموعه دادههای غیرانحصاریتری بسازن و تست کنن 136 00:07:29,302 --> 00:07:32,130 و میتونیم با وجدان بیشتری شروع به فکر کردن کنیم 137 00:07:32,154 --> 00:07:37,545 درباره مسائلی مثل تاثیر اجتماعی تکنولوژی که خودمون توسعش میدیم. 138 00:07:37,569 --> 00:07:39,962 برای شروع این جنبش، 139 00:07:39,986 --> 00:07:42,833 من لیگ عدالت الگوریتمی رو راه اندازی کردم 140 00:07:42,857 --> 00:07:48,729 که هرکس که به برابری اهمیت میده میتونه برای مبارزه با نگاه رمزی مبارزه کنه 141 00:07:48,753 --> 00:07:52,049 شما میتونین در سایت codedgaze.com تبعیض ها رو گزارش بدین، 142 00:07:52,073 --> 00:07:54,518 درخواست بررسی کنین، یک تست کننده بشین 143 00:07:54,542 --> 00:07:57,313 و به گفتگو در جریان بپیوندید. 144 00:07:57,337 --> 00:07:59,624 codedgaze# 145 00:08:00,742 --> 00:08:03,229 من شما رو دعوت میکنم که به من ملحق شین 146 00:08:03,253 --> 00:08:06,972 برای ساخت جهانی که در آن، تکنولوژی برای همهی ما، نه فقط بعضیها کار کنه. 147 00:08:08,917 --> 00:08:13,505 جهانی که به غیر انحصاری بودن ارزش میدیم و تغییرات اجتماعی مورد توجهمون هست. 148 00:08:13,529 --> 00:08:14,704 خیلی ممنون. 149 00:08:14,728 --> 00:08:18,999 (تشویق حاضرین) 150 00:08:20,873 --> 00:08:23,727 ولی من یک سوال ازتون دارم: 151 00:08:23,751 --> 00:08:25,810 آیا به من در این مبارزه میپیوندید؟ 152 00:08:25,834 --> 00:08:27,119 (خنده حاضرین) 153 00:08:27,143 --> 00:08:30,830 (تشویق حاضرین)