1 00:00:13,961 --> 00:00:17,119 أهلاً. اسمي جوي، وأنا بارعة في البرمجة. 2 00:00:17,119 --> 00:00:22,112 أنا أعمل لإيقاف قوة خفية صاعدة. 3 00:00:22,136 --> 00:00:24,992 قوة أُطلقُ عليها اسم: 'النظرة المبرمَجة'، 4 00:00:25,016 --> 00:00:28,325 المصطلح اللذي أطلقه على التحيز الخوارزمي. 5 00:00:28,349 --> 00:00:32,649 التحيز الخوارزمي، كحال التحيز البشري، يؤدي إلى عدم المساواة. 6 00:00:32,673 --> 00:00:38,695 والخوارزميات البرمجية، كما الفيروسات، تنشر التحيز على نطاق واسع 7 00:00:38,719 --> 00:00:40,301 بسرعة فائقة. 8 00:00:40,863 --> 00:00:45,250 يؤدي التحيز الخوارزمي لتجارب إقصائية 9 00:00:45,274 --> 00:00:47,402 وممارسات تمييزية وعنصرية. 10 00:00:47,426 --> 00:00:49,487 دعوني أبين لكم ما أقصده. 11 00:00:50,340 --> 00:00:52,776 (فيديو) جوي بولامويني: مرحبًا يا كاميرا. أنا لي وجه. 12 00:00:53,242 --> 00:00:55,107 هل بإمكانك رؤية وجهي؟ 13 00:00:55,131 --> 00:00:56,756 وجهي الذي لا يحتوي أي نظارات؟ 14 00:00:58,461 --> 00:01:00,207 بإمكانك رؤية وجهها. 15 00:01:01,084 --> 00:01:02,691 ماذا بشأن وجهي؟ 16 00:01:05,874 --> 00:01:07,054 (ضحك) 17 00:01:07,078 --> 00:01:09,737 أضع قناعًا. هل بإمكانك رؤية القناع؟ 18 00:01:11,914 --> 00:01:14,279 جوي بولامويني: كيف حصل ذلك؟ 19 00:01:14,303 --> 00:01:17,444 لماذا أجلس أمام الحاسوب 20 00:01:17,468 --> 00:01:18,892 مرتدية قناعًا أبيض 21 00:01:18,916 --> 00:01:22,566 في محاولة لترصدني كاميرا رخيصة؟ 22 00:01:22,590 --> 00:01:24,881 في الأوقات التي لا أحارب فيها النظرة المبرمجة 23 00:01:24,905 --> 00:01:26,425 كإنسانة بارعة في البرمجة، 24 00:01:26,449 --> 00:01:29,721 أكون طالبة ماجستير لدى (MIT Media Lab). 25 00:01:29,745 --> 00:01:34,662 وهناك تتسنى لي فرصة للعمل على العديد من المشاريع الغريبة، 26 00:01:34,686 --> 00:01:36,713 كمشروع "أسباير ميرور"، 27 00:01:36,737 --> 00:01:41,871 وهو مشروع أنشأته حتى أتمكن من وضع أقنعة افتراضية على انعكاسي. 28 00:01:41,895 --> 00:01:44,245 فإذا أردت مثلًا أن أشعر بأنني قوية في الصباح، 29 00:01:44,269 --> 00:01:45,703 يمكنني وضع قناع أسد. 30 00:01:45,727 --> 00:01:49,223 أما إذا أردت رفع معنوياتي، ربما أقرأ اقتباسًا ما. 31 00:01:49,247 --> 00:01:52,236 استخدمت برنامجًا عامًا للتعرف على الوجوه 32 00:01:52,260 --> 00:01:53,611 لبناء نظام محوسب. 33 00:01:53,635 --> 00:01:58,738 ولكن وجدت صعوبة بتجربته دون ارتداء قناع أبيض. 34 00:01:59,722 --> 00:02:04,068 للأسف، لم تكن هذه المرة الأولى التي أواجه فيها هذه المشكلة. 35 00:02:04,092 --> 00:02:08,435 عندما كنت طالبة بكالوريوس علوم حاسوب في معهد جورجيا التقني، 36 00:02:08,459 --> 00:02:10,514 كنت أعمل على الروبوتات الاجتماعية. 37 00:02:10,538 --> 00:02:14,315 وقد كانت إحدى مهامي أن أجعل الروبوت يلعب لعبة (peek-a-boo). 38 00:02:14,339 --> 00:02:16,272 وهي لعبة تبادل أدوار بسيطة 39 00:02:16,296 --> 00:02:20,617 يأخذ الأفراد فيها أدوارًا في تغطية وجوههم ومن ثم الكشف عنها وقول:"Peek-a-boo!". 40 00:02:20,741 --> 00:02:25,170 تكمن المشكلة في أنه لا يمكن اللعب إذا لم تكن قادرًا على رؤيتي، 41 00:02:25,194 --> 00:02:27,693 والروبوت خاصتي لم يستطع أن يراني. 42 00:02:27,717 --> 00:02:31,667 لذلك قمت باستعارة وجه زميلتي في السكن لإتمام المشروع، 43 00:02:31,691 --> 00:02:33,071 وسلّمت الواجب، 44 00:02:33,095 --> 00:02:36,848 واعتقدت حينها بأنّ شخصًا آخر سيحل هذه المشكلة. 45 00:02:37,499 --> 00:02:39,502 بعد فترة بسيطة، 46 00:02:39,526 --> 00:02:43,685 كنت في هونغ كونغ للمشاركة في مسابقة ريادة أعمال. 47 00:02:44,169 --> 00:02:46,863 قرر القائمون على المسابقة أخذ المشاركين 48 00:02:46,887 --> 00:02:49,259 في جولة لزيارة المشاريع الناشئة المحلية. 49 00:02:49,283 --> 00:02:51,998 أحد هذه المشاريع كان يتضمن روبوتًا اجتماعيًا، 50 00:02:52,022 --> 00:02:53,934 وقرروا القيام بعرض تجريبي. 51 00:02:53,958 --> 00:02:56,938 نجح العرض حتى أتى دوري، 52 00:02:56,938 --> 00:02:58,909 ويمكنكم على الأرجح أن تحزروا ماذا حصل. 53 00:02:58,909 --> 00:03:01,874 لم يستطع البرنامج التقاط وجهي. 54 00:03:01,898 --> 00:03:04,409 استفسرت من المطورين عن السبب، 55 00:03:04,433 --> 00:03:09,966 واتضح أننا استخدمنا برنامج التعرف على الوجوه نفسه. 56 00:03:09,990 --> 00:03:11,640 في الجانب الآخر من العالم، 57 00:03:11,664 --> 00:03:15,516 تعلمت أن التحيز الخوارزمي يستطيع التنقل 58 00:03:15,540 --> 00:03:18,710 بسرعة تنزيل بعض الملفات من الإنترنت. 59 00:03:19,575 --> 00:03:22,651 لنستوضح ما يحصل هنا إذن.. لماذا لا يستطيع الجهاز التقاط وجهي؟ 60 00:03:22,675 --> 00:03:26,031 يجب علينا أن نتفحص الآلية المستخدمة لجعل الجهاز قادرًا على الرؤية. 61 00:03:26,055 --> 00:03:29,464 رؤية الحاسب ترتكز على تقنيات تعلم الآلة 62 00:03:29,488 --> 00:03:31,368 للتعرف على الوجوه. 63 00:03:31,392 --> 00:03:35,289 يحدث هذا عبر إنشاء مجموعة من البيانات التدريبية التي تتكون من أمثلة وجوه مختلفة. 64 00:03:35,313 --> 00:03:38,131 يعرف بين إذا كان هذا وجهًا أم لا. 65 00:03:38,155 --> 00:03:42,674 وبعد فترة من الوقت تستطيع تعليم الحاسوب كيفية التعرف على وجوه أخرى. 66 00:03:42,698 --> 00:03:46,687 ولكن في بعض الحالات، إذا كانت مجموعة البيانات غير متنوعة، 67 00:03:46,687 --> 00:03:51,757 فلن يستطيع الحاسوب التعرف على الوجوه كثيرة الاختلاف، 68 00:03:51,757 --> 00:03:53,720 وهذا بالضبط ما كان يحصل معي. 69 00:03:53,744 --> 00:03:56,126 لكن لا تقلقوا. ثمة أخبار جيدة. 70 00:03:56,150 --> 00:03:58,921 مجموعات البيانات التجريبية هذه لا تأتي من الفراغ. 71 00:03:58,945 --> 00:04:00,733 يمكننا صنعهم بأنفسنا. 72 00:04:00,757 --> 00:04:04,933 وهذا يخلق فرصة لصنع مجموعة بيانات متنوعة وتشمل الجميع 73 00:04:04,957 --> 00:04:08,781 والتي تعكس صورة أوضح للبشرية. 74 00:04:08,805 --> 00:04:11,026 كما رأيتم في الأمثلة التي ذكرتها 75 00:04:11,050 --> 00:04:12,818 تعلمت عبر الروبوتات الاجتماعية 76 00:04:12,842 --> 00:04:17,453 عن الإقصاء من خلال التحيز الخوارزمي. 77 00:04:17,477 --> 00:04:22,292 ويمكن أن ينتج عن هذا التحيز الخوارزمي ممارسات عنصرية وتمييزية. 78 00:04:23,207 --> 00:04:24,720 في كافة أنحاء الولايات المتحدة، 79 00:04:24,744 --> 00:04:28,942 بدأت مراكز الشرطة باستخدام برامج التعرف على الوجوه 80 00:04:28,966 --> 00:04:31,425 في محاربتها للجريمة. 81 00:04:31,425 --> 00:04:33,486 كلية القانون في جامعة جورج تاون نشرت تقريرًا 82 00:04:33,486 --> 00:04:40,249 أظهر أن واحدًا من كل شخصين في الولايات المتحدة، بمجموع 117 مليون شخص، 83 00:04:40,273 --> 00:04:43,807 ظهرت وجوههم وحفظت على برامج التعرف على الوجوه. 84 00:04:43,831 --> 00:04:48,383 يمكن حاليًا لمراكز الشرطة البحث في هذه البيانات دون أي رقابة أو تحكم، 85 00:04:48,407 --> 00:04:52,693 باستخدام خوارزميات لم تُفحص دقتها. 86 00:04:52,717 --> 00:04:56,581 ولكننا نعلم بأنها قابلة للخطأ، 87 00:04:56,605 --> 00:05:00,304 وأن التعرف الصحيح على الوجوه بشكل دائم لا يزال يمثل أحد التحديات. 88 00:05:00,304 --> 00:05:02,514 ربما شاهدتم ما يشبه ذلك على فيسبوك. 89 00:05:02,514 --> 00:05:05,582 نجد من المضحك 90 00:05:05,606 --> 00:05:08,064 أن يخطئ فيسبوك في تسمية الأشخاص في صورنا. 91 00:05:08,088 --> 00:05:13,679 إنّ التعرف الخاطئ على مشتبه به ليس بالأمر المضحك. 92 00:05:13,703 --> 00:05:16,530 كذلك الأمر عندما يحدث تعدٍّ على الحريات المدنية. 93 00:05:16,554 --> 00:05:19,759 تُستخدم أساليب تعلم الآلة للتعرف على الوجوه. 94 00:05:19,783 --> 00:05:24,288 وتنتشر هذه التقنيات في مجالات أخرى، بالإضافة إلى قدرة تحليل الرؤية أيضًا. 95 00:05:25,096 --> 00:05:31,476 في كتابها "ويبونز أوف ماث دستركشن" للكاتبة: كاثي أونيل، 96 00:05:31,476 --> 00:05:35,817 تتحدث عن ظهور خطر أسلحة الدمار الرياضية، 97 00:05:35,841 --> 00:05:40,194 وهي الخوارزميات واسعة الانتشار والمدمرة وغامضة التأثير، 98 00:05:40,218 --> 00:05:43,116 التي تُستخدم على نطاق أوسع لاتخاذ القرارات 99 00:05:43,116 --> 00:05:46,383 التي تتحكم بجوانب مختلفة من الحياة. 100 00:05:46,407 --> 00:05:48,277 من سيُوظّف أو يُطرد؟ 101 00:05:48,301 --> 00:05:50,413 هل ستحصل على ذلك القرض؟ أو ذلك التأمين أم لا؟ 102 00:05:50,437 --> 00:05:53,940 هل سيقبلوننا في الكلية التي أردتها أم لا؟ 103 00:05:53,964 --> 00:05:57,473 هل سندفع نفس السعر للمنتَج نفسه، 104 00:05:57,497 --> 00:05:59,939 والذي سوف نشتريه من نفس الموقع؟ 105 00:05:59,963 --> 00:06:03,722 كما بدأ استخدام تقنية تعلم الآلة لدى الجهات الأمنية 106 00:06:03,746 --> 00:06:06,035 للتنبؤ بالخطر لغايات ضبط الأمن. 107 00:06:06,059 --> 00:06:09,553 يستخدم بعض القضاة تقييم درجة الخطر الذي تولّده الآلة 108 00:06:09,577 --> 00:06:13,979 في قرارهم حول الفترة التي يجب أن يقضيها الفرد في السجن. 109 00:06:13,979 --> 00:06:16,457 علينا التمعن في كيفية اتخاذنا لتلك القرارات. 110 00:06:16,481 --> 00:06:17,663 هل هي عادلة؟ 111 00:06:17,687 --> 00:06:20,577 كما رأينا أن التحيز الخوارزمي 112 00:06:20,601 --> 00:06:23,975 لا ينتج عنه قرارات عادلة دائمًا. 113 00:06:23,999 --> 00:06:25,963 ما الذي يمكننا فعله بهذا الشأن إذن؟ 114 00:06:25,987 --> 00:06:29,667 يمكننا البدء بكتابة برامج تأخذ الجميع بعين الاعتبار 115 00:06:29,691 --> 00:06:32,681 وتوظيف ممارسات أكثر شموليةً في البرمجة. 116 00:06:32,705 --> 00:06:35,014 وكل ذلك يبدأ بالأفراد. 117 00:06:35,538 --> 00:06:37,499 لذلك فإنّ هوية المبرمج مهمة. 118 00:06:37,523 --> 00:06:41,642 هل فريق البرمجة شامل للجميع ويضم أفرادًا بخبرات متنوعة 119 00:06:41,666 --> 00:06:44,077 قادرين على تفقد نقاط الضعف لدى بعضهم؟ 120 00:06:44,101 --> 00:06:47,646 في الجانب التقني، الطريقة التي نُبرمج من خلالها مهمة. 121 00:06:47,670 --> 00:06:51,321 هل نأخذ العدالة بعين الاعتبار أثناء تطويرنا للأنظمة؟ 122 00:06:51,345 --> 00:06:54,258 وأخيرًا، فإنّ الدافع الذي يقودنا للبرمجة مهم أيضًا. 123 00:06:54,615 --> 00:06:59,698 لقد استخدمنا أدوات من صنع الحاسوب للحصول على ثروات طائلة. 124 00:06:59,722 --> 00:07:04,169 لدينا الفرصة الآن لخلق مستوى جديد من العدالة، 125 00:07:04,193 --> 00:07:07,123 إذا ما جعلنا من التطوير المجتمعي أولوية 126 00:07:07,147 --> 00:07:09,317 عوضًا عن فكرة عارضة. 127 00:07:09,838 --> 00:07:14,360 تلك هي الأسس الثلاثة لحركة "التشفير الشمولية". 128 00:07:14,384 --> 00:07:16,036 معرفةُ مَن المبرمج مهمة، 129 00:07:16,060 --> 00:07:17,603 ومعرفة كيفية البرمجة مهمة، 130 00:07:17,627 --> 00:07:19,650 ومعرفتنا للدافع الذي يقودنا للبرمجة مهمة. 131 00:07:19,674 --> 00:07:22,773 الخطوة الأولى في التشفير الشمولي 132 00:07:22,797 --> 00:07:25,961 هي بناء منصات قادرة على رصد التحيز والعنصرية 133 00:07:25,985 --> 00:07:29,063 عبر جمع خبرات الأشخاص الشبيهة بخبرتي، 134 00:07:29,087 --> 00:07:32,157 وفحص البرامج الموجودة أصلًا. 135 00:07:32,181 --> 00:07:35,946 كما نستطيع البدء بعمل مجموعات بيانات تدريبية أكثر شمولًا. 136 00:07:35,970 --> 00:07:38,773 تخيل مثلًا حملة "سلفي لمحاربة التحيز" 137 00:07:38,797 --> 00:07:42,452 والتي تمكن أي فرد منا من مساعدة المطورين 138 00:07:42,476 --> 00:07:44,569 من اختبار مجموعات بيانات تدريبية شمولية وإنشائها. 139 00:07:45,132 --> 00:07:47,960 كما يمكننا التفكير بشكل واعٍ 140 00:07:47,984 --> 00:07:53,375 في الأثر المجتمعي للتقنية التي نصنعها. 141 00:07:53,399 --> 00:07:55,792 لندفع حركة "التشفير الشمولي" نحو التحرك، 142 00:07:55,816 --> 00:07:58,663 أسسنا "فريق العدالة الخوارزمي"، 143 00:07:58,687 --> 00:08:04,559 حيث يمكن لكل من يهتم بشأن العدالة محاربة النظرة المشفرة. 144 00:08:04,583 --> 00:08:07,879 على موقع codedgaze.com بإمكانك التبليغ عن التحيز 145 00:08:07,903 --> 00:08:10,426 أو طلب عملية مراجعة لبرنامج أو أن تصبح فاحصًا للبرامج 146 00:08:10,426 --> 00:08:13,143 والمشاركة في الحوار المستمر 147 00:08:13,167 --> 00:08:15,454 على هاشتاغ #codedgaze. 148 00:08:16,572 --> 00:08:19,059 أدعوكم لمشاركتي 149 00:08:19,083 --> 00:08:22,802 في خلق عالمٍ حيث تعمل التكنولوجيا في صالحنا جميعًا 150 00:08:22,826 --> 00:08:24,723 وليس فقط لفئة قليلة منا. 151 00:08:24,747 --> 00:08:29,395 فلنعمل معًا لخلق عالم يحث على التضامن ويترأسه التطوير المجتمعي. 152 00:08:29,419 --> 00:08:30,594 شكرًا لكم. 153 00:08:30,618 --> 00:08:35,912 (تصفيق) 154 00:08:36,763 --> 00:08:39,617 لكن لدي سؤال لكم: 155 00:08:39,641 --> 00:08:41,700 هل ستشاركونني في النضال؟ 156 00:08:41,724 --> 00:08:43,009 (ضحك) 157 00:08:43,033 --> 00:08:46,720 (تصفيق)