WEBVTT 00:00:17.069 --> 00:00:19.763 إذا، اسمحوا لي أن أطرح عليكم سؤالًا: 00:00:20.130 --> 00:00:24.390 كم شخصًا منكم كان قد شهد نوعًا من العنصرية أو التمييز الجنسي 00:00:24.390 --> 00:00:27.143 فقط اليوم، في الأربع وعشرين ساعة الماضية؟ 00:00:27.290 --> 00:00:29.500 أو، دعوني أعيد صياغة السؤال: 00:00:29.907 --> 00:00:32.617 كم منكم استخدم الإنترنت اليوم؟ 00:00:32.617 --> 00:00:33.680 (ضحك) 00:00:34.021 --> 00:00:37.861 للأسف، هذان الأمران متشابهان على نحو كبير. 00:00:38.542 --> 00:00:40.492 أنا عالمة حاسوب بالتدريب، 00:00:40.492 --> 00:00:44.980 وأعمل على تصميم تكنولوجيا الذكاء الاصطناعي لتحسين عالمنا الحالي. 00:00:45.770 --> 00:00:48.498 ولكن كلما عملت عليها أكثر، كلما أدركت أكثر 00:00:48.498 --> 00:00:52.426 أن هذه التكنولوجيا في كثير من الأحيان تستخدم تحت ظل الكذب الموضوعي. 00:00:53.261 --> 00:00:54.441 أحب الموضوعية؛ 00:00:54.441 --> 00:00:59.249 وقد درست الرياضيات وعلوم الحاسوب لأني أحبُ هذا الجانب. 00:00:59.940 --> 00:01:01.722 هنالك مشاكل يصعب حلها بطبيعة الحال، 00:01:01.722 --> 00:01:04.119 ولكنك تحصل على إجابة في نهاية المطاف، 00:01:04.119 --> 00:01:06.326 وتتيقن أن الإجابة صائبة. 00:01:06.890 --> 00:01:08.540 الذكاء الاصطناعي لا يشبه ذلك. 00:01:08.962 --> 00:01:13.312 يُبنى الذكاء الاصطناعي على البيانات، والبيانات ليست حقيقة. 00:01:14.059 --> 00:01:15.799 البيانات ليست الواقع. 00:01:15.803 --> 00:01:19.554 وتبعد البيانات والذكاء الاصطناعي كل البعد عن الهدف. 00:01:20.700 --> 00:01:22.500 دعوني أمدكم بمثال، 00:01:23.101 --> 00:01:25.281 كيف يبدو المدير التنفيذي برأيكم؟ 00:01:25.937 --> 00:01:28.187 وفقاً لموقع جوجل، 00:01:28.870 --> 00:01:30.224 هكذا يبدو. 00:01:30.224 --> 00:01:33.974 هكذا يبدو المدير التنفيذي بحسب موقع جوجل. 00:01:34.765 --> 00:01:38.875 يبدو كل هؤلاء الأشخاص كالمدراء التنفيذيين بالتأكيد، 00:01:39.423 --> 00:01:41.311 لكن هناك أيضًا العديد من الأشخاص 00:01:41.311 --> 00:01:44.651 الذين لا يبدون بهذا المظهر ولكنهم مدراء تنفيذيين. 00:01:45.378 --> 00:01:49.285 ما ترونه هنا غير واقعي بل هو صورة نمطية. 00:01:51.131 --> 00:01:53.272 أوضحت دراسة حديثة 00:01:53.682 --> 00:01:58.842 أنهُ على الرَغم من وجود نسبة قدرها 25% من المدراء نساء، 00:01:58.842 --> 00:02:02.631 ما ترونه في صور موقع جوجل يمثل فقط 11% من هؤلاء النساء. 00:02:03.038 --> 00:02:05.755 وذلك ينطبق على كل المهن التي دُرست. 00:02:05.755 --> 00:02:09.534 مثلت الصور القوالب النمطية الجنسية في الواقع. 00:02:10.393 --> 00:02:15.363 فكيف لهذا الذكاء الاصطناعي الذي يُفترض أنه "ذكي" 00:02:15.813 --> 00:02:17.933 القيام بهذه الأخطاء البسيطة؟ 00:02:19.053 --> 00:02:22.633 تكمن المشكلة في كل خطوة في الطريق، 00:02:23.101 --> 00:02:27.371 منذ اللحظة التي نجمع بها البيانات حتى طريقتنا في تصميم الخوارزميات، 00:02:28.116 --> 00:02:31.186 إلى كيفية قيامنا بتحليلها ونشرها واستخدامها. 00:02:31.527 --> 00:02:34.817 كل خطوة من هذه الخطوات تحتاج إلى قرارات بشرية 00:02:35.367 --> 00:02:37.816 وتحددها الدوافع البشرية. 00:02:38.376 --> 00:02:43.326 نادرًا ما نتوقف ونسأل أنفسنا، من الذي يتخذ هذه القرارات؟ 00:02:44.081 --> 00:02:45.991 ومن هو المستفيد منها؟ 00:02:46.176 --> 00:02:48.226 ومن الذي يتم استبعاده؟ 00:02:49.874 --> 00:02:52.774 يحدث ذلك في كل أنحاء الإنترنت. 00:02:53.183 --> 00:02:58.007 لنأخذ إعلانات الإنترنت كمثال لممارسة التمييز مرارًا وتكرارًا 00:02:58.007 --> 00:03:01.317 في الإسكان والإقراض والعمل. 00:03:02.268 --> 00:03:05.274 أظهرت دراسة حديثة أن الإعلانات للوظائف ذات رواتب مرتفعة 00:03:05.274 --> 00:03:09.274 أكثر احتمالًا أن تعرض للرجال مقابل النساء بخمسة أضعاف، 00:03:09.772 --> 00:03:12.792 واستثناء إعلانات الإسكان للشعوب الملونة. 00:03:13.304 --> 00:03:18.325 يعرضون إعلانات شراء المنازل لفئات بيضاء من الجمهور بنسبة 75%، 00:03:18.547 --> 00:03:23.867 بينما الإعلانات التي تستهدف الجماهير المنوعة تعرض منازل للإيجار. 00:03:25.266 --> 00:03:26.769 بالنسبة لي، هذا أمر شخصي. 00:03:27.733 --> 00:03:31.263 أنا امرأة لاتينية وأم. 00:03:31.516 --> 00:03:35.139 هذا ليس العالم الذي أريده، إنه ليس العالم الذي أريده لأطفالي، 00:03:35.139 --> 00:03:38.249 ومن المؤكد أنه ليس العالم الذي أريد أن أكون جزءًا من إعماره. 00:03:38.818 --> 00:03:42.358 حين أدركت هذا، علمت أن يجب علي القيام بشيء ما، 00:03:42.358 --> 00:03:45.161 وهذا ما كنت أعمل عليه في السنوات العديدة الأخيرة، 00:03:45.161 --> 00:03:48.837 برفقة زملائي ومجتمع مُذهل من الباحثين 00:03:48.837 --> 00:03:51.285 الذين يقومون ببناء هذا في جميع أنحاء العالم. 00:03:51.826 --> 00:03:55.056 نحن نقوم بتعريف وتصميم تكنولوجيا الذكاء الاصطناعي 00:03:55.056 --> 00:03:59.267 التي لا تعاني من مشاكل التمييز والتحيز. 00:04:00.472 --> 00:04:02.288 إذًا فكروا في مثال المدير التنفيذي. 00:04:02.288 --> 00:04:04.243 هذا ما ندعوه بمشكلة في الاختيار. 00:04:04.243 --> 00:04:06.502 لدينا الكثير من البيانات والصور، 00:04:06.502 --> 00:04:08.491 وعلينا اختيار البعض منهم. 00:04:08.491 --> 00:04:11.224 وفي العالم الحقيقي لدينا مشاكل مشابهة. 00:04:11.481 --> 00:04:14.112 لنقل أني صاحبة العمل وعلي توظيف بعض الأشخاص. 00:04:14.112 --> 00:04:16.064 في حوزتي الكثير من المرشحين، 00:04:16.064 --> 00:04:18.449 مع سيرتهم الذاتية ومقابلاتهم 00:04:18.449 --> 00:04:20.064 ويجب علي أن أختار البعض منهم. 00:04:20.289 --> 00:04:22.482 ولكن في العالم الحقيقي هنالك حمايات. 00:04:22.881 --> 00:04:24.161 لو على سبيل المثال، 00:04:24.161 --> 00:04:27.421 لدي 100 من المرشحين الذكور و100 من المرشحات الإناث، 00:04:27.421 --> 00:04:31.321 إن قمت بتعيين 10 من هؤلاء المرشحين الذكور، 00:04:31.321 --> 00:04:34.500 قانونيًا يجب أن يكون هناك سببًا منطقيًا جدًا 00:04:34.500 --> 00:04:37.491 لعدم توظيفي 8 نساء على الأقل أيضًا. 00:04:38.481 --> 00:04:42.162 فهل لنا أن نسأل الذكاء الاصطناعي أن يتبع القوانين ذاتها؟ 00:04:42.162 --> 00:04:44.743 وبشكل متزايد، نعم، نقدر. 00:04:44.743 --> 00:04:46.843 إنها مجرد مسألة تغيير النظام. 00:04:47.172 --> 00:04:52.192 يمكننا إنشاء ذكاء اصطناعي يُحاسب باستخدام نفس المعايير لدى الأشخاص 00:04:52.192 --> 00:04:53.806 والشركات. 00:04:54.625 --> 00:04:56.195 أتذكرون مدرائنا التنفيذين؟ 00:04:56.840 --> 00:04:58.280 يمكننا الانتقال من ذلك 00:04:58.976 --> 00:04:59.876 إلى هذا. 00:05:00.240 --> 00:05:03.550 يمكننا عبور الجسر من الصور النمطية إلى الواقع. 00:05:03.937 --> 00:05:07.035 باستطاعتنا الانتقال من واقعنا الحالي 00:05:07.035 --> 00:05:10.225 إلى الواقع الذي نريده لعالمنا. 00:05:10.908 --> 00:05:14.418 الآن، هناك حلول تقنية 00:05:15.195 --> 00:05:18.665 للإعلانات والكثير من مشاكل الذكاء الاصطناعي. 00:05:20.677 --> 00:05:23.447 ولكنني لا أريد أن تظنوا أن هذا يكفي. 00:05:25.237 --> 00:05:28.487 يُستخدم الذكاء الاصطناعي في مجتمعاتكم الآن، 00:05:29.069 --> 00:05:32.540 في أقسام الشرطة والمكاتب الحكومية. 00:05:33.070 --> 00:05:36.550 تستخدم لاتخاذ القرار بشأن القرض الذي تريده، 00:05:37.451 --> 00:05:39.956 ولفحصك من الأمراض المحتملة 00:05:40.956 --> 00:05:44.836 ولتقرر ما إذا كنت ستحصل على تلك الوظيفة. 00:05:46.495 --> 00:05:49.245 يؤثر الذكاء الاصطناعي على حياتنا جميعًا 00:05:49.245 --> 00:05:54.095 ويحدث كل ذلك إلى حد كبير بطريقة غير خاضعة للرقابة وغير منظمة. 00:05:56.086 --> 00:05:57.666 على سبيل المثال، 00:05:57.947 --> 00:06:01.677 تستخدم تقنية التعرف على الوجه في جميع أنحاء الولايات المتحدة، 00:06:01.677 --> 00:06:04.381 في كل مكان ابتداءً من أقسام الشرطة إلى المراكز التجارية، 00:06:04.381 --> 00:06:06.177 للمساعدة في تحديد هوية المجرمين. 00:06:07.866 --> 00:06:10.116 هل تبدو أي من هذه الوجوه مألوفة؟ 00:06:11.248 --> 00:06:14.878 أظهر الاتحاد الأمريكي للحريات المدنية أن كل هؤلاء الأشخاص 00:06:15.919 --> 00:06:22.199 تم التعرف عليهم بتقنية الذكاء الاصطناعي المتوفرة بأمازون بأنهم مجرمون معتقلون، 00:06:23.011 --> 00:06:28.873 ولكن يجدر علي أن أقول أنهم حُددوا خطأً لأن جميعهم أعضاء في الكونغرس الأمريكي. 00:06:29.313 --> 00:06:30.313 (ضحك) 00:06:31.192 --> 00:06:33.210 الذكاء الاصطناعي يخطئ، 00:06:33.210 --> 00:06:37.056 وتلك الأخطاء تؤثر على الأشخاص، 00:06:37.616 --> 00:06:41.000 ابتداءً من الذي قيل لهم أنهم غير مصابين بالسرطان 00:06:41.000 --> 00:06:44.674 ليكتشفوا فقط بعد فوات الأوان أن ذلك كان خطأً. 00:06:44.674 --> 00:06:48.474 إلى أولئك الذين سُجنوا لفترات زمنية طويلة 00:06:48.474 --> 00:06:52.614 بناء على توصيات خاطئة من تقنية الذكاء الاصطناعي. 00:06:53.544 --> 00:06:56.314 إن هذه الأخطاء تخلف تأثيرًا على البشر. 00:06:56.846 --> 00:06:58.756 هذه الأخطاء حقيقية. 00:07:01.100 --> 00:07:04.570 وكما في الأمثلة السابقة، 00:07:04.570 --> 00:07:09.473 نثبت أن هذه الأخطاء تؤدي إلى تفاقم التحيزات المجتمعية القائمة. 00:07:11.239 --> 00:07:12.749 وسط أعضاء الكونجرس، 00:07:14.722 --> 00:07:17.972 على الرغم من أن 20٪ فقط من الكونجرس 00:07:18.775 --> 00:07:21.071 من ذوي البشرة الملونة. 00:07:21.071 --> 00:07:24.812 تتضاعف احتمالية أن يشير النظام إلى هؤلاء 00:07:24.812 --> 00:07:26.652 بكونهم مجرمون معتقلون. 00:07:27.695 --> 00:07:32.295 علينا منع هذا الذكاء الاصطناعي ذو الموضوعية المزيفة 00:07:33.000 --> 00:07:35.720 من إضفاء شرعية الأنظمة الاضطهادية. 00:07:37.675 --> 00:07:39.115 ومرة أخرى، أريد أن أقول، 00:07:40.233 --> 00:07:42.928 نعم هنالك مشاكل تقنية صعبة، 00:07:42.928 --> 00:07:45.388 لكننا نعمل على ذلك؛ لدينا حلول. 00:07:45.388 --> 00:07:46.727 أنا متأكدة من ذلك. 00:07:47.408 --> 00:07:50.938 لكن التوصل إلى هذا الحل الفني لا يكفي. 00:07:52.338 --> 00:07:56.618 ما نحتاج إليه هو الانتقال من هذه الحلول التقنية 00:07:56.618 --> 00:07:58.137 إلى أنظمة العدالة. 00:07:59.516 --> 00:08:02.346 يجب علينا أن نحاسب الذكاء الاصطناعي 00:08:02.724 --> 00:08:05.900 كما نحاسب بعضنا البعض. 00:08:05.900 --> 00:08:09.650 والأشخاص أمثالكم هم من يجعلون هذا حقيقة. 00:08:10.857 --> 00:08:14.408 عندما يتعلق الأمر بالحكومات، في الأشهر القليلة الماضية وحدها، 00:08:14.408 --> 00:08:18.358 سان فرانسيسكو وأوكلاند وسومرفيل في ماساتشوستس 00:08:18.650 --> 00:08:23.040 أصدروا قوانين تمنع الحكومة من استخدام تقنية التعرف على الوجه. 00:08:23.749 --> 00:08:27.809 هذا هو نتاج عمل أشخاص يذهبون إلى عملهم 00:08:27.809 --> 00:08:31.437 ويجتمعون في المدينة ويكتبون الرسائل ويطرحون الأسئلة 00:08:31.437 --> 00:08:34.584 ولا يخضعون لكل ما يقوله الذكاء الاصطناعي. 00:08:35.506 --> 00:08:37.065 عندما يتعلق الأمر بالشركات، 00:08:37.065 --> 00:08:40.827 يجب أن لا نقلل من قوة العمل الجماعي. 00:08:42.440 --> 00:08:43.985 فبسبب الضغط العام، 00:08:43.985 --> 00:08:47.735 توقفت الشركات الكبيرة عن استخدام الذكاء الاصطناعي. 00:08:47.735 --> 00:08:50.971 ابتداءً من واتسن هيلث التي تخطئ بتشخيص مرضى السرطان، 00:08:51.580 --> 00:08:54.810 إلى أداة شركة أمازون للتوظيف التي تميز ضد المرأة. 00:08:55.091 --> 00:08:59.811 وقد ثبت أن الشركات الكبيرة تتراجع وتتوقف 00:09:00.192 --> 00:09:02.112 عندما يكون هنالك احتجاج شعبي. 00:09:03.459 --> 00:09:07.709 معاً يمكننا منع الذكاء الاصطناعي من أن يعيقنا، 00:09:07.709 --> 00:09:09.759 أو ما هو أسوأ وأن يدفعنا إلى الوراء. 00:09:10.174 --> 00:09:11.984 إن كنا حريصين باستخدامه، 00:09:12.314 --> 00:09:15.854 وحاسبناه واستخدمناه استخدامًا حكيمًا، 00:09:16.437 --> 00:09:20.337 عندها يمكن للذكاء الاصطناعي أن يرينا ليس العالم الذي نعيش فيه فحسب، 00:09:20.740 --> 00:09:22.950 بل أيضًا العالم الذي نطمح إليه. 00:09:23.258 --> 00:09:25.335 إن الإمكانيات مذهلة، 00:09:25.335 --> 00:09:28.225 والأمر يعود لنا جميعًا فيجب علينا أن نتأكد من حدوثه. 00:09:28.530 --> 00:09:29.490 شكراً لكم. 00:09:29.490 --> 00:09:30.949 (تصفيق) (هتاف)