من چگونه با تبعیض در الگوریتمها مبارزه میکنم؟
-
0:01 - 0:04سلام ، من جوی هستم ، شاعر کد،
-
0:04 - 0:09در یک ماموریت برای متوقف کردن
یک نیروی دیده نشده در حال ظهور، -
0:09 - 0:12نیرویی که من آن را "نگاه رمزی" صدا می کنم
-
0:12 - 0:15اصطلاح من برای تبعیض الگوریتمی.
-
0:15 - 0:20تبعیض الگوریتمی، مانند تبعیض انسانی
باعث نابرابری میشود. -
0:20 - 0:26با این حال،الگوریتم ها، مانند ویروس ها
می تونن در ابعاد عظیم -
0:26 - 0:27و سرعت زیادی، تبعیض رو گسترش یابند
-
0:28 - 0:32تبعیض الگوریتمی همچنین میتونه باعث
تجربیات انحصاری -
0:32 - 0:34و اعمال تبعیض آمیز بشه.
-
0:35 - 0:37بذارین منظورمو بهتون نشون بدم.
-
0:37 - 0:39[فیلم] جوی: سلام دوربین.
من یک صورت دارم. -
0:40 - 0:42میتونی صورتمو ببینی
-
0:42 - 0:44صورت بدون عینکم رو؟
-
0:44 - 0:46تو میتونی صورتشو ببینی.
-
0:46 - 0:48صورت من رو چطور؟
-
0:52 - 0:56من یک ماسک دارم. می تونی ماسک من رو ببینی؟
-
0:56 - 0:59پس چطور این اتفاق افتاد؟
-
0:59 - 1:02چرا من روبه روی یک کامپیوتر نشستم
-
1:02 - 1:03به همراه یک ماسک سفید
-
1:03 - 1:07و تلاش می کنم تا به وسیله یک وب کم
ارزان قیمت شناخته شوم؟ -
1:07 - 1:09خب وقتی که من
با "نگاه رمزی" مبارزه نمی کنم -
1:09 - 1:11به عنوان یک شاعر کد،
-
1:11 - 1:14من یک دانشجوی تحصیلات تکمیلی
در آزمایشگاه رسانه MIT هستم -
1:14 - 1:19من آنجا فرصت دارم تا روی انواع پروژه های
جالب و خیالبافانه کار کنم -
1:19 - 1:21مثل آینه آرزو
-
1:21 - 1:26پروژه ای که می تواند
روی تصویر من ماسک بگذارد -
1:26 - 1:29پس در صبح، اگر من بخوام احساس قدرت کنم،
-
1:29 - 1:30میتونم ماسک یک شیر رو بذارم.
-
1:30 - 1:34یا اگر بخواهم با روحیه باشم
می توانم یک نقل قول ببینم. -
1:34 - 1:37بنابراین از یک دستگاه تشخیص چهره
استفاده کردم -
1:37 - 1:38تا این سیستم رو بسازم،
-
1:38 - 1:43ولی فهمیدم که واقعا بدون ماسک سفید
امکان تست این سیستم وجود نداره. -
1:44 - 1:49متاسفانه قبلاً هم
به این مشکل برخورد کرده بودم -
1:49 - 1:53وقتی که در دانشگاه Gerogia Tech
دانشجوی کارشناسی رشته علوم کامپیوتر بودم، -
1:53 - 1:55روی رباتهای اجتماعی کار میکردم،
-
1:55 - 1:59و یکی از وظایفم این بود که به ربات
بازی peek-a-boo رو یاد بدم -
1:59 - 2:01یک بازی نوبتی ساده
(مثل دالّی کردن) -
2:01 - 2:05که تو اون به نوبت هرکی صورتشو میپوشونه و
بعد پوشش رو بر میداره و میگه "peek-a-boo" -
2:05 - 2:09مشکل اینه که، این بازی
اگر من نتونم ببینمتون فایده نداره -
2:09 - 2:12و ربات من نمیتونست من رو ببینه.
-
2:12 - 2:16ولی من صورت هم اتاقیم رو قرض گرفتم
تا پروژم رو انجام بدم -
2:16 - 2:17تمرین رو انجام دادم،
-
2:17 - 2:21و فهمیدم که، میدونی چیه؟
یکی دیگه این مشکل رو حل خواهد کرد. -
2:22 - 2:24مدت کوتاهی بعد از این ماجرا،
-
2:24 - 2:28من برای یک مسابقه کارآفرینی
در هنگ کنگ بودم. -
2:28 - 2:31برگزارکنندگان تصیمیم گرفتن
که شرکت کننده ها رو -
2:31 - 2:33به یک تور بازدید از استارتاپ های محلی ببرن
-
2:33 - 2:36یکی از استارتاپها یک ربات اجتماعی داشت،
-
2:36 - 2:38و تصمیم گرفتن که یک دمو برگزار کنن.
-
2:38 - 2:41دمو روی همه کار کرد تا اینکه نوبت من شد
-
2:41 - 2:43و احتمالا میتونین حدس بزنین.
-
2:43 - 2:46که ربات نتونست صورت من رو تشخیص بده.
-
2:46 - 2:49من از توسعهدهندگان ربات پرسیدم جریان چیه
-
2:49 - 2:54و معلوم شد که همون نرمافزار تشخیص چهرهای
رو استفاده میکردن که ما میکردیم. -
2:54 - 2:56اون طرف دنیا،
-
2:56 - 3:00من یاد گرفتم که تبعیض الگوریتمی
میتونه خیلی سریع سفر کنه -
3:00 - 3:03به سرعت دانلود چندتا فایل از اینترنت.
-
3:04 - 3:07حالا جریان چیه؟
چرا صورت من تشخیص داده نشد؟ -
3:07 - 3:10باید ببینیم که ما چطوری به ماشینها
توانایی دیدن میدیم. -
3:10 - 3:14بینایی کامپیوتر برای تشخیص چهره
از تکنیکهای یادگیری ماشین استفاده میکنه -
3:16 - 3:19روش کارش اینطوریه که یک مجموعه داده آموزشی
از نمونه صورت ها درست میکنید. -
3:19 - 3:22این یک صورته. این یک صورته. این صورت نیست.
-
3:22 - 3:27و به مرور زمان، میتونین به کامپیوتر
یاد بدین که چطوری صورت هارو تشخیص بده. -
3:27 - 3:31اما اگه مجموعه داده آموزشی
واقعا متنوع نباشه. -
3:31 - 3:34هر چهرهای که خیلی با معیار فرق کنه،
-
3:34 - 3:36تشخیصش سخت تر میشه
-
3:36 - 3:38که این برای من هم پیش اومد.
-
3:38 - 3:40ولی نگران نباشین
خبرهای خوبی برای شنیدن هستن -
3:40 - 3:43مجموعه داده آموزشی
همینطوری از ناکجا آباد نمیان. -
3:43 - 3:45در واقع ما میسازیمشون.
-
3:45 - 3:49پس این فرصت برای ساخت مجموعه داده آموزشی
متنوع و فراگیر وجود داره. -
3:49 - 3:53که تصویر غنیتری از انسانیت رو نشون بدن.
-
3:53 - 3:55شما در مثالهای من دیدین که
-
3:55 - 3:57چجوری رباتهای اجتماعی
-
3:57 - 4:02باعث کشف من درباره
محرومیت به وسیله تبعیض الگوریتمی شدن. -
4:02 - 4:06ولی تبعیض الگوریتمی میتونه
باعث رفتارهای تبعیضآمیز بشه -
4:07 - 4:09در سراسر ایالات متحده
-
4:09 - 4:13دپارتمانهای پلیس شروع به استفاده
از نرمافزار تشخیص چهره کردن. -
4:13 - 4:16و اون رو به تجهیزاتشون
در جنگ با جرم اضافه کردن. -
4:16 - 4:18Georgetown Law گزارشی رو منتشر کرده که
-
4:18 - 4:24نشون میده، در ایالت متحده
از هر دو نفر یک نفر -
4:24 - 4:28چیزی حدود ۱۱۷ میلیون نفر
تصاویرشون در شبکههای تشخیص چهره قرار داره -
4:28 - 4:33پلیس بدون نظارت مراجع مربوطه
میتونه به این شبکهها نگاه کنه -
4:33 - 4:37اونم با استفاده از الگوریتمهایی که
صحتشون تایید نشده. -
4:37 - 4:41با این وجود میدونیم که
تشخیص چهره، عاری از خطا نیست -
4:41 - 4:45و مشخص کردن چهرهها
همیشه یک چالش باقی خواهد ماند. -
4:45 - 4:47شاید شما اینو تو فیسبوک دیده باشین.
-
4:47 - 4:52من و دوستام همیشه ازینکه بقیه
اشتباه تو عکسهامون مشخص شدن خندمون میگیره. -
4:52 - 4:58ولی تشخیص اشتباه یک مظنون جنایی
اصلا چیز خنده داری نیست. -
4:58 - 5:01نقض آزادیهای مدنی هم همینطور.
-
5:01 - 5:04برای تشخیص چهره،
از یادگیری ماشین داره استفاده میشه -
5:04 - 5:08ولی یادگیری ماشین
فراتر از محدوده بینایی ماشین هست. -
5:09 - 5:13در کتاب "سلاحهای ریاضی مخرب"
-
5:13 - 5:20Cathy O'Neil که یک داده شناس هست،
درباره ظهور این سلاحهای جدید صحبت میکنه -
5:20 - 5:24الگوریتمهایی مرموز، فراگیر و مخرب
-
5:24 - 5:27که به طور روز افزون در حال استفاده شدن
در تصمیم گیریها هستند. -
5:27 - 5:31و روی جنبه های بیشتری از
زندگیهای ما تاثیر میذارن. -
5:31 - 5:32مثلا کی استخدام شه کی اخراج؟
-
5:32 - 5:35فلان وام رو بگیرین؟
بیمه بشین؟ -
5:35 - 5:38در دانشگاهی که میخواهین برین پذیرفته شین؟
-
5:38 - 5:42من و شما یک کالا رو از یک مکان
با یک قیمت بخریم؟ -
5:44 - 5:48مجریان قانونی هم شروع به
استفاده از یادگیری ماشین -
5:48 - 5:50برای محافظت پیشگیرانه کرده اند.
-
5:50 - 5:54برخی از قاضی ها از مقدار ریسک محاسبه شده
توسط ماشین برای مشخص کردن اینکه -
5:54 - 5:58یک فرد چقدر در زندان باشد، استفاده میکنند.
-
5:58 - 6:01پس ما باید خیلی جدی
درباره این تصمیمات فکر کنیم. -
6:01 - 6:02آیا منصفانه هستن؟
-
6:02 - 6:05و ما تبعیض الگوریتمی رو دیده ایم
-
6:05 - 6:08که لزوماً باعث نتایج منصفانه نمیشن.
-
6:08 - 6:10خب ما چه کار میتونیم بکنیم؟
-
6:10 - 6:14ما میتونیم شروع کنیم به فکر کردن
درباره ساختن کدهای غیر انحصاری تر -
6:14 - 6:17و رفتارهای غیر انحصاری رو
برای کد زدن استفاده کنیم. -
6:17 - 6:19همه چی واقعاً از آدمها شروع میشه.
-
6:20 - 6:22اینکه چه کسی کُد میزنه مهمه.
-
6:22 - 6:26آیا ما داریم تیم هایی
با طیف مختلفی از افراد درست میکنیم؟ -
6:26 - 6:28که بتونن نقاط ضعف همدیگه رو بررسی کنن؟
-
6:28 - 6:32در سمت تکنیکال، اینکه چطوری کد میزنیم مهمه
-
6:32 - 6:35آیا وقتی که یک سیستم رو توسعه میدیم
برامون برابری یک شاخص هست؟ -
6:36 - 6:38و در پایان، اینکه چرا کد میزنیم مهمه.
-
6:39 - 6:44ما از ابزارهای کامپیوتری برای
بدست آوردن ثروت زیادی استفاده کرده ایم. -
6:44 - 6:48حالا این فرصت رو داریم
که حتی برابری بیشتری هم بدست بیاریم. -
6:48 - 6:51به شرط اینکه
تغییر اجتماعی رو یک اولویت بذاریم -
6:51 - 6:54و به عنوان نه چیزی که
حالا بعدا بهش فکر میکنیم -
6:54 - 6:59پس برای جنبش "کد غیرانحصاری"
این سه اصل رو داریم: -
6:59 - 7:00اینکه کی کد میزنه مهمه،
-
7:00 - 7:02اینکه چطوری کد میزنیم مهمه
-
7:02 - 7:04و اینکه چرا کد میزنیم هم مهمه.
-
7:04 - 7:07پس برای اینکه به این سمت بریم،
میتونیم شروع کنیم به فکر کردن -
7:07 - 7:10درباره ساختن پلتفرمهایی که
تبعیض رو تشخیص میدن -
7:10 - 7:13استفاده از تجربیات افراد،
مثل اونایی که من به اشتراک گذاشتم -
7:13 - 7:16و البته نظارت و بازرسی بر نرم افزارها.
-
7:16 - 7:20همچنین میتونیم شروع کنیم به ساختن
مجموعه دادههای آموزشی غیرانحصاری تر. -
7:20 - 7:23کمپین "سلفی برای باهم بودن" رو تصور کنید
-
7:23 - 7:26که من و شما میتونیم
به برنامهنویسها کمک کنیم -
7:26 - 7:29تا مجموعه دادههای غیرانحصاریتری
بسازن و تست کنن -
7:29 - 7:32و میتونیم با وجدان بیشتری
شروع به فکر کردن کنیم -
7:32 - 7:38درباره مسائلی مثل تاثیر اجتماعی
تکنولوژی که خودمون توسعش میدیم. -
7:38 - 7:40برای شروع این جنبش،
-
7:40 - 7:43من لیگ عدالت الگوریتمی رو راه اندازی کردم
-
7:43 - 7:49که هرکس که به برابری اهمیت میده
میتونه برای مبارزه با نگاه رمزی مبارزه کنه -
7:49 - 7:52شما میتونین در سایت codedgaze.com
تبعیض ها رو گزارش بدین، -
7:52 - 7:55درخواست بررسی کنین،
یک تست کننده بشین -
7:55 - 7:57و به گفتگو در جریان بپیوندید.
-
7:57 - 8:00codedgaze#
-
8:01 - 8:03من شما رو دعوت میکنم که به من ملحق شین
-
8:03 - 8:07برای ساخت جهانی که در آن، تکنولوژی
برای همهی ما، نه فقط بعضیها کار کنه. -
8:09 - 8:14جهانی که به غیر انحصاری بودن ارزش میدیم
و تغییرات اجتماعی مورد توجهمون هست. -
8:14 - 8:15خیلی ممنون.
-
8:15 - 8:19(تشویق حاضرین)
-
8:21 - 8:24ولی من یک سوال ازتون دارم:
-
8:24 - 8:26آیا به من در این مبارزه میپیوندید؟
-
8:26 - 8:27(خنده حاضرین)
-
8:27 - 8:31(تشویق حاضرین)
- Title:
- من چگونه با تبعیض در الگوریتمها مبارزه میکنم؟
- Speaker:
- جوی بولاموینی
- Description:
-
جوی بولاموینی ، دانشجوی تحصیلات تکمیلی MIT در حال کار روی نرم افزار تشخیص چهره بود که متوجه مشکلی شد: نرم افزار چهرهاش رو تشخیص نمیده -- چون افرادی که الگورتیم رو تبدیل به کد کرده بودند، بهش انوع متنوعی از رنگهای پوست و قالب چهره انسانها رو یاد نداده بودند. حالا او در ماموریتی برای مبارزه با تبعیض در یادگیری ماشین است که خودش به آن "چهره رمزی" میگوید. این یک سخنرانی تلنگر بخش درباره نیاز به مسئولیت در کد زدن است همانطور که الگوریتمها ابعاد بیشتر و بیشتری از زندگیهای ما را تسخیر میکنند.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
soheila Jafari approved Persian subtitles for How I'm fighting bias in algorithms | ||
soheila Jafari accepted Persian subtitles for How I'm fighting bias in algorithms | ||
soheila Jafari edited Persian subtitles for How I'm fighting bias in algorithms | ||
soheila Jafari edited Persian subtitles for How I'm fighting bias in algorithms | ||
Iman Mirzadeh edited Persian subtitles for How I'm fighting bias in algorithms | ||
Iman Mirzadeh edited Persian subtitles for How I'm fighting bias in algorithms | ||
Iman Mirzadeh edited Persian subtitles for How I'm fighting bias in algorithms | ||
Iman Mirzadeh edited Persian subtitles for How I'm fighting bias in algorithms |