Return to Video

من چگونه با تبعیض در الگوریتم‌ها مبارزه میکنم؟

  • 0:01 - 0:04
    سلام ، من جوی هستم ، شاعر کد،
  • 0:04 - 0:09
    در یک ماموریت برای متوقف کردن
    یک نیروی دیده نشده در حال ظهور،
  • 0:09 - 0:12
    نیرویی که من آن را "نگاه رمزی" صدا می کنم
  • 0:12 - 0:15
    اصطلاح من برای تبعیض الگوریتمی.
  • 0:15 - 0:20
    تبعیض الگوریتمی، مانند تبعیض انسانی
    باعث نابرابری میشود.
  • 0:20 - 0:26
    با این حال،الگوریتم ها، مانند ویروس ها
    می تونن در ابعاد عظیم
  • 0:26 - 0:27
    و سرعت زیادی، تبعیض رو گسترش یابند
  • 0:28 - 0:32
    تبعیض الگوریتمی همچنین میتونه باعث
    تجربیات انحصاری
  • 0:32 - 0:34
    و اعمال تبعیض آمیز بشه.
  • 0:35 - 0:37
    بذارین منظورمو بهتون نشون بدم.
  • 0:37 - 0:39
    [فیلم] جوی: سلام دوربین.
    من یک صورت دارم.
  • 0:40 - 0:42
    میتونی صورتمو ببینی
  • 0:42 - 0:44
    صورت بدون عینکم رو؟
  • 0:44 - 0:46
    تو میتونی صورتشو ببینی.
  • 0:46 - 0:48
    صورت من رو چطور؟
  • 0:52 - 0:56
    من یک ماسک دارم. می تونی ماسک من رو ببینی؟
  • 0:56 - 0:59
    پس چطور این اتفاق افتاد؟
  • 0:59 - 1:02
    چرا من روبه روی یک کامپیوتر نشستم
  • 1:02 - 1:03
    به همراه یک ماسک سفید
  • 1:03 - 1:07
    و تلاش می کنم تا به وسیله یک وب کم
    ارزان قیمت شناخته شوم؟
  • 1:07 - 1:09
    خب وقتی که من
    با "نگاه رمزی" مبارزه نمی کنم
  • 1:09 - 1:11
    به عنوان یک شاعر کد،
  • 1:11 - 1:14
    من یک دانشجوی تحصیلات تکمیلی
    در آزمایشگاه رسانه MIT هستم
  • 1:14 - 1:19
    من آنجا فرصت دارم تا روی انواع پروژه های
    جالب و خیالبافانه کار کنم
  • 1:19 - 1:21
    مثل آینه آرزو
  • 1:21 - 1:26
    پروژه ای که می تواند
    روی تصویر من ماسک بگذارد
  • 1:26 - 1:29
    پس در صبح، اگر من بخوام احساس قدرت کنم،
  • 1:29 - 1:30
    میتونم ماسک یک شیر رو بذارم.
  • 1:30 - 1:34
    یا اگر بخواهم با روحیه باشم
    می توانم یک نقل قول ببینم.
  • 1:34 - 1:37
    بنابراین از یک دستگاه تشخیص چهره
    استفاده کردم
  • 1:37 - 1:38
    تا این سیستم رو بسازم،
  • 1:38 - 1:43
    ولی فهمیدم که واقعا بدون ماسک سفید
    امکان تست این سیستم وجود نداره.
  • 1:44 - 1:49
    متاسفانه قبلاً هم
    به این مشکل برخورد کرده بودم
  • 1:49 - 1:53
    وقتی که در دانشگاه Gerogia Tech
    دانشجوی کارشناسی رشته علوم کامپیوتر بودم،
  • 1:53 - 1:55
    روی رباتهای اجتماعی کار میکردم،
  • 1:55 - 1:59
    و یکی از وظایفم این بود که به ربات
    بازی peek-a-boo رو یاد بدم
  • 1:59 - 2:01
    یک بازی نوبتی ساده
    (مثل دالّی کردن)
  • 2:01 - 2:05
    که تو اون به نوبت هرکی صورتشو میپوشونه و
    بعد پوشش رو بر میداره و میگه "peek-a-boo"
  • 2:05 - 2:09
    مشکل اینه که، این بازی
    اگر من نتونم ببینمتون فایده نداره
  • 2:09 - 2:12
    و ربات من نمیتونست من رو ببینه.
  • 2:12 - 2:16
    ولی من صورت هم اتاقیم رو قرض گرفتم
    تا پروژم رو انجام بدم
  • 2:16 - 2:17
    تمرین رو انجام دادم،
  • 2:17 - 2:21
    و فهمیدم که، میدونی چیه؟
    یکی دیگه این مشکل رو حل خواهد کرد.
  • 2:22 - 2:24
    مدت کوتاهی بعد از این ماجرا،
  • 2:24 - 2:28
    من برای یک مسابقه کارآفرینی
    در هنگ کنگ بودم.
  • 2:28 - 2:31
    برگزارکنندگان تصیمیم گرفتن
    که شرکت کننده ها رو
  • 2:31 - 2:33
    به یک تور بازدید از استارتاپ های محلی ببرن
  • 2:33 - 2:36
    یکی از استارتاپها یک ربات اجتماعی داشت،
  • 2:36 - 2:38
    و تصمیم گرفتن که یک دمو برگزار کنن.
  • 2:38 - 2:41
    دمو روی همه کار کرد تا اینکه نوبت من شد
  • 2:41 - 2:43
    و احتمالا میتونین حدس بزنین.
  • 2:43 - 2:46
    که ربات نتونست صورت من رو تشخیص بده.
  • 2:46 - 2:49
    من از توسعهدهندگان ربات پرسیدم جریان چیه
  • 2:49 - 2:54
    و معلوم شد که همون نرمافزار تشخیص چهرهای
    رو استفاده میکردن که ما میکردیم.
  • 2:54 - 2:56
    اون طرف دنیا،
  • 2:56 - 3:00
    من یاد گرفتم که تبعیض الگوریتمی
    میتونه خیلی سریع سفر کنه
  • 3:00 - 3:03
    به سرعت دانلود چندتا فایل از اینترنت.
  • 3:04 - 3:07
    حالا جریان چیه؟
    چرا صورت من تشخیص داده نشد؟
  • 3:07 - 3:10
    باید ببینیم که ما چطوری به ماشینها
    توانایی دیدن میدیم.
  • 3:10 - 3:14
    بینایی کامپیوتر برای تشخیص چهره
    از تکنیکهای یادگیری ماشین استفاده میکنه
  • 3:16 - 3:19
    روش کارش اینطوریه که یک مجموعه داده آموزشی
    از نمونه صورت ها درست میکنید.
  • 3:19 - 3:22
    این یک صورته. این یک صورته. این صورت نیست.
  • 3:22 - 3:27
    و به مرور زمان، میتونین به کامپیوتر
    یاد بدین که چطوری صورت هارو تشخیص بده.
  • 3:27 - 3:31
    اما اگه مجموعه داده آموزشی
    واقعا متنوع نباشه.
  • 3:31 - 3:34
    هر چهرهای که خیلی با معیار فرق کنه،
  • 3:34 - 3:36
    تشخیصش سخت تر میشه
  • 3:36 - 3:38
    که این برای من هم پیش اومد.
  • 3:38 - 3:40
    ولی نگران نباشین
    خبرهای خوبی برای شنیدن هستن
  • 3:40 - 3:43
    مجموعه داده آموزشی
    همینطوری از ناکجا آباد نمیان.
  • 3:43 - 3:45
    در واقع ما میسازیمشون.
  • 3:45 - 3:49
    پس این فرصت برای ساخت مجموعه داده آموزشی
    متنوع و فراگیر وجود داره.
  • 3:49 - 3:53
    که تصویر غنیتری از انسانیت رو نشون بدن.
  • 3:53 - 3:55
    شما در مثالهای من دیدین که
  • 3:55 - 3:57
    چجوری رباتهای اجتماعی
  • 3:57 - 4:02
    باعث کشف من درباره
    محرومیت به وسیله تبعیض الگوریتمی شدن.
  • 4:02 - 4:06
    ولی تبعیض الگوریتمی میتونه
    باعث رفتارهای تبعیضآمیز بشه
  • 4:07 - 4:09
    در سراسر ایالات متحده
  • 4:09 - 4:13
    دپارتمانهای پلیس شروع به استفاده
    از نرمافزار تشخیص چهره کردن.
  • 4:13 - 4:16
    و اون رو به تجهیزاتشون
    در جنگ با جرم اضافه کردن.
  • 4:16 - 4:18
    Georgetown Law گزارشی رو منتشر کرده که
  • 4:18 - 4:24
    نشون میده، در ایالت متحده
    از هر دو نفر یک نفر
  • 4:24 - 4:28
    چیزی حدود ۱۱۷ میلیون نفر
    تصاویرشون در شبکههای تشخیص چهره قرار داره
  • 4:28 - 4:33
    پلیس بدون نظارت مراجع مربوطه
    میتونه به این شبکهها نگاه کنه
  • 4:33 - 4:37
    اونم با استفاده از الگوریتمهایی که
    صحتشون تایید نشده.
  • 4:37 - 4:41
    با این وجود میدونیم که
    تشخیص چهره، عاری از خطا نیست
  • 4:41 - 4:45
    و مشخص کردن چهرهها
    همیشه یک چالش باقی خواهد ماند.
  • 4:45 - 4:47
    شاید شما اینو تو فیسبوک دیده باشین.
  • 4:47 - 4:52
    من و دوستام همیشه ازینکه بقیه
    اشتباه تو عکسهامون مشخص شدن خندمون میگیره.
  • 4:52 - 4:58
    ولی تشخیص اشتباه یک مظنون جنایی
    اصلا چیز خنده داری نیست.
  • 4:58 - 5:01
    نقض آزادیهای مدنی هم همینطور.
  • 5:01 - 5:04
    برای تشخیص چهره،
    از یادگیری ماشین داره استفاده میشه
  • 5:04 - 5:08
    ولی یادگیری ماشین
    فراتر از محدوده بینایی ماشین هست.
  • 5:09 - 5:13
    در کتاب "سلاحهای ریاضی مخرب"
  • 5:13 - 5:20
    Cathy O'Neil که یک داده شناس هست،
    درباره ظهور این سلاحهای جدید صحبت میکنه
  • 5:20 - 5:24
    الگوریتمهایی مرموز، فراگیر و مخرب
  • 5:24 - 5:27
    که به طور روز افزون در حال استفاده شدن
    در تصمیم گیریها هستند.
  • 5:27 - 5:31
    و روی جنبه های بیشتری از
    زندگیهای ما تاثیر میذارن.
  • 5:31 - 5:32
    مثلا کی استخدام شه کی اخراج؟
  • 5:32 - 5:35
    فلان وام رو بگیرین؟
    بیمه بشین؟
  • 5:35 - 5:38
    در دانشگاهی که میخواهین برین پذیرفته شین؟
  • 5:38 - 5:42
    من و شما یک کالا رو از یک مکان
    با یک قیمت بخریم؟
  • 5:44 - 5:48
    مجریان قانونی هم شروع به
    استفاده از یادگیری ماشین
  • 5:48 - 5:50
    برای محافظت پیشگیرانه کرده اند.
  • 5:50 - 5:54
    برخی از قاضی ها از مقدار ریسک محاسبه شده
    توسط ماشین برای مشخص کردن اینکه
  • 5:54 - 5:58
    یک فرد چقدر در زندان باشد، استفاده میکنند.
  • 5:58 - 6:01
    پس ما باید خیلی جدی
    درباره این تصمیمات فکر کنیم.
  • 6:01 - 6:02
    آیا منصفانه هستن؟
  • 6:02 - 6:05
    و ما تبعیض الگوریتمی رو دیده ایم
  • 6:05 - 6:08
    که لزوماً باعث نتایج منصفانه نمیشن.
  • 6:08 - 6:10
    خب ما چه کار میتونیم بکنیم؟
  • 6:10 - 6:14
    ما میتونیم شروع کنیم به فکر کردن
    درباره ساختن کدهای غیر انحصاری تر
  • 6:14 - 6:17
    و رفتارهای غیر انحصاری رو
    برای کد زدن استفاده کنیم.
  • 6:17 - 6:19
    همه چی واقعاً از آدمها شروع میشه.
  • 6:20 - 6:22
    اینکه چه کسی کُد میزنه مهمه.
  • 6:22 - 6:26
    آیا ما داریم تیم هایی
    با طیف مختلفی از افراد درست میکنیم؟
  • 6:26 - 6:28
    که بتونن نقاط ضعف همدیگه رو بررسی کنن؟
  • 6:28 - 6:32
    در سمت تکنیکال، اینکه چطوری کد میزنیم مهمه
  • 6:32 - 6:35
    آیا وقتی که یک سیستم رو توسعه میدیم
    برامون برابری یک شاخص هست؟
  • 6:36 - 6:38
    و در پایان، اینکه چرا کد میزنیم مهمه.
  • 6:39 - 6:44
    ما از ابزارهای کامپیوتری برای
    بدست آوردن ثروت زیادی استفاده کرده ایم.
  • 6:44 - 6:48
    حالا این فرصت رو داریم
    که حتی برابری بیشتری هم بدست بیاریم.
  • 6:48 - 6:51
    به شرط اینکه
    تغییر اجتماعی رو یک اولویت بذاریم
  • 6:51 - 6:54
    و به عنوان نه چیزی که
    حالا بعدا بهش فکر میکنیم
  • 6:54 - 6:59
    پس برای جنبش "کد غیرانحصاری"
    این سه اصل رو داریم:
  • 6:59 - 7:00
    اینکه کی کد میزنه مهمه،
  • 7:00 - 7:02
    اینکه چطوری کد میزنیم مهمه
  • 7:02 - 7:04
    و اینکه چرا کد میزنیم هم مهمه.
  • 7:04 - 7:07
    پس برای اینکه به این سمت بریم،
    میتونیم شروع کنیم به فکر کردن
  • 7:07 - 7:10
    درباره ساختن پلتفرمهایی که
    تبعیض رو تشخیص میدن
  • 7:10 - 7:13
    استفاده از تجربیات افراد،
    مثل اونایی که من به اشتراک گذاشتم
  • 7:13 - 7:16
    و البته نظارت و بازرسی بر نرم افزارها.
  • 7:16 - 7:20
    همچنین میتونیم شروع کنیم به ساختن
    مجموعه دادههای آموزشی غیرانحصاری تر.
  • 7:20 - 7:23
    کمپین "سلفی برای باهم بودن" رو تصور کنید
  • 7:23 - 7:26
    که من و شما میتونیم
    به برنامهنویسها کمک کنیم
  • 7:26 - 7:29
    تا مجموعه دادههای غیرانحصاریتری
    بسازن و تست کنن
  • 7:29 - 7:32
    و میتونیم با وجدان بیشتری
    شروع به فکر کردن کنیم
  • 7:32 - 7:38
    درباره مسائلی مثل تاثیر اجتماعی
    تکنولوژی که خودمون توسعش میدیم.
  • 7:38 - 7:40
    برای شروع این جنبش،
  • 7:40 - 7:43
    من لیگ عدالت الگوریتمی رو راه اندازی کردم
  • 7:43 - 7:49
    که هرکس که به برابری اهمیت میده
    میتونه برای مبارزه با نگاه رمزی مبارزه کنه
  • 7:49 - 7:52
    شما میتونین در سایت codedgaze.com
    تبعیض ها رو گزارش بدین،
  • 7:52 - 7:55
    درخواست بررسی کنین،
    یک تست کننده بشین
  • 7:55 - 7:57
    و به گفتگو در جریان بپیوندید.
  • 7:57 - 8:00
    codedgaze#
  • 8:01 - 8:03
    من شما رو دعوت میکنم که به من ملحق شین
  • 8:03 - 8:07
    برای ساخت جهانی که در آن، تکنولوژی
    برای همهی ما، نه فقط بعضیها کار کنه.
  • 8:09 - 8:14
    جهانی که به غیر انحصاری بودن ارزش میدیم
    و تغییرات اجتماعی مورد توجهمون هست.
  • 8:14 - 8:15
    خیلی ممنون.
  • 8:15 - 8:19
    (تشویق حاضرین)
  • 8:21 - 8:24
    ولی من یک سوال ازتون دارم:
  • 8:24 - 8:26
    آیا به من در این مبارزه میپیوندید؟
  • 8:26 - 8:27
    (خنده حاضرین)
  • 8:27 - 8:31
    (تشویق حاضرین)
Title:
من چگونه با تبعیض در الگوریتم‌ها مبارزه میکنم؟
Speaker:
جوی بولاموینی
Description:

جوی بولاموینی ، دانشجوی تحصیلات تکمیلی MIT در حال کار روی نرم افزار تشخیص چهره بود که متوجه مشکلی شد: نرم‌ افزار چهره‌اش رو تشخیص نمیده -- چون افرادی که الگورتیم رو تبدیل به کد کرده بودند، بهش انوع متنوعی از رنگ‌های پوست و قالب چهره انسان‌ها رو یاد نداده بودند. حالا او در ماموریتی برای مبارزه با تبعیض در یادگیری ماشین است که خودش به آن "چهره رمزی" می‌گوید. این یک سخنرانی تلنگر بخش درباره نیاز به مسئولیت در کد زدن است همانطور که الگوریتمها ابعاد بیشتر و بیشتری از زندگی‌های ما را تسخیر میکنند.

more » « less
Video Language:
English
Team:
TED
Project:
TEDTalks
Duration:
08:46

Persian subtitles

Revisions