0:00:17.069,0:00:19.763 إذا، اسمحوا لي أن أطرح عليكم سؤالًا: 0:00:20.130,0:00:24.390 كم شخصًا منكم كان قد شهد نوعًا[br]من العنصرية أو التمييز الجنسي 0:00:24.390,0:00:27.143 فقط اليوم، في الأربع وعشرين ساعة الماضية؟ 0:00:27.290,0:00:29.500 أو، دعوني أعيد صياغة السؤال: 0:00:29.907,0:00:32.617 كم منكم استخدم الإنترنت اليوم؟ 0:00:32.617,0:00:33.680 (ضحك) 0:00:34.021,0:00:37.861 للأسف، هذان الأمران متشابهان على نحو كبير. 0:00:38.542,0:00:40.492 أنا عالمة حاسوب بالتدريب، 0:00:40.492,0:00:44.980 وأعمل على تصميم تكنولوجيا الذكاء [br]الاصطناعي لتحسين عالمنا الحالي. 0:00:45.770,0:00:48.498 ولكن كلما عملت عليها أكثر،[br]كلما أدركت أكثر 0:00:48.498,0:00:52.426 أن هذه التكنولوجيا في كثير من الأحيان[br]تستخدم تحت ظل الكذب الموضوعي. 0:00:53.261,0:00:54.441 أحب الموضوعية؛ 0:00:54.441,0:00:59.249 وقد درست الرياضيات وعلوم الحاسوب[br]لأني أحبُ هذا الجانب. 0:00:59.940,0:01:01.722 هنالك مشاكل يصعب حلها بطبيعة الحال، 0:01:01.722,0:01:04.119 ولكنك تحصل على إجابة في نهاية المطاف، 0:01:04.119,0:01:06.326 وتتيقن أن الإجابة صائبة. 0:01:06.890,0:01:08.540 الذكاء الاصطناعي لا يشبه ذلك. 0:01:08.962,0:01:13.312 يُبنى الذكاء الاصطناعي على البيانات، [br]والبيانات ليست حقيقة. 0:01:14.059,0:01:15.799 البيانات ليست الواقع. 0:01:15.803,0:01:19.554 وتبعد البيانات والذكاء الاصطناعي[br]كل البعد عن الهدف. 0:01:20.700,0:01:22.500 دعوني أمدكم بمثال، 0:01:23.101,0:01:25.281 كيف يبدو المدير التنفيذي برأيكم؟ 0:01:25.937,0:01:28.187 وفقاً لموقع جوجل، 0:01:28.870,0:01:30.224 هكذا يبدو. 0:01:30.224,0:01:33.974 هكذا يبدو المدير التنفيذي[br]بحسب موقع جوجل. 0:01:34.765,0:01:38.875 يبدو كل هؤلاء الأشخاص[br]كالمدراء التنفيذيين بالتأكيد، 0:01:39.423,0:01:41.311 لكن هناك أيضًا العديد من الأشخاص 0:01:41.311,0:01:44.651 الذين لا يبدون بهذا المظهر[br]ولكنهم مدراء تنفيذيين. 0:01:45.378,0:01:49.285 ما ترونه هنا غير واقعي بل هو صورة نمطية. 0:01:51.131,0:01:53.272 أوضحت دراسة حديثة 0:01:53.682,0:01:58.842 أنهُ على الرَغم من وجود نسبة قدرها[br]25% من المدراء نساء، 0:01:58.842,0:02:02.631 ما ترونه في صور موقع جوجل يمثل فقط[br]11% من هؤلاء النساء. 0:02:03.038,0:02:05.755 وذلك ينطبق على كل المهن التي دُرست. 0:02:05.755,0:02:09.534 مثلت الصور القوالب النمطية[br]الجنسية في الواقع. 0:02:10.393,0:02:15.363 فكيف لهذا الذكاء الاصطناعي[br]الذي يُفترض أنه "ذكي" 0:02:15.813,0:02:17.933 القيام بهذه الأخطاء البسيطة؟ 0:02:19.053,0:02:22.633 تكمن المشكلة في كل خطوة في الطريق، 0:02:23.101,0:02:27.371 منذ اللحظة التي نجمع بها البيانات[br]حتى طريقتنا في تصميم الخوارزميات، 0:02:28.116,0:02:31.186 إلى كيفية قيامنا بتحليلها[br]ونشرها واستخدامها. 0:02:31.527,0:02:34.817 كل خطوة من هذه الخطوات[br]تحتاج إلى قرارات بشرية 0:02:35.367,0:02:37.816 وتحددها الدوافع البشرية. 0:02:38.376,0:02:43.326 نادرًا ما نتوقف ونسأل أنفسنا،[br]من الذي يتخذ هذه القرارات؟ 0:02:44.081,0:02:45.991 ومن هو المستفيد منها؟ 0:02:46.176,0:02:48.226 ومن الذي يتم استبعاده؟ 0:02:49.874,0:02:52.774 يحدث ذلك في كل أنحاء الإنترنت. 0:02:53.183,0:02:58.007 لنأخذ إعلانات الإنترنت كمثال [br]لممارسة التمييز مرارًا وتكرارًا 0:02:58.007,0:03:01.317 في الإسكان والإقراض والعمل. 0:03:02.268,0:03:05.274 أظهرت دراسة حديثة أن الإعلانات[br]للوظائف ذات رواتب مرتفعة 0:03:05.274,0:03:09.274 أكثر احتمالًا أن تعرض للرجال[br]مقابل النساء بخمسة أضعاف، 0:03:09.772,0:03:12.792 واستثناء إعلانات الإسكان للشعوب الملونة. 0:03:13.304,0:03:18.325 يعرضون إعلانات شراء المنازل [br]لفئات بيضاء من الجمهور بنسبة 75%، 0:03:18.547,0:03:23.867 بينما الإعلانات التي تستهدف[br]الجماهير المنوعة تعرض منازل للإيجار. 0:03:25.266,0:03:26.769 بالنسبة لي، هذا أمر شخصي. 0:03:27.733,0:03:31.263 أنا امرأة لاتينية وأم. 0:03:31.516,0:03:35.139 هذا ليس العالم الذي أريده،[br]إنه ليس العالم الذي أريده لأطفالي، 0:03:35.139,0:03:38.249 ومن المؤكد أنه ليس العالم [br]الذي أريد أن أكون جزءًا من إعماره. 0:03:38.818,0:03:42.358 حين أدركت هذا، علمت أن يجب [br]علي القيام بشيء ما، 0:03:42.358,0:03:45.161 وهذا ما كنت أعمل عليه [br]في السنوات العديدة الأخيرة، 0:03:45.161,0:03:48.837 برفقة زملائي ومجتمع مُذهل من الباحثين 0:03:48.837,0:03:51.285 الذين يقومون ببناء هذا[br]في جميع أنحاء العالم. 0:03:51.826,0:03:55.056 نحن نقوم بتعريف وتصميم[br]تكنولوجيا الذكاء الاصطناعي 0:03:55.056,0:03:59.267 التي لا تعاني من مشاكل التمييز والتحيز. 0:04:00.472,0:04:02.288 إذًا فكروا في مثال المدير التنفيذي. 0:04:02.288,0:04:04.243 هذا ما ندعوه بمشكلة في الاختيار. 0:04:04.243,0:04:06.502 لدينا الكثير من البيانات والصور، 0:04:06.502,0:04:08.491 وعلينا اختيار البعض منهم. 0:04:08.491,0:04:11.224 وفي العالم الحقيقي لدينا مشاكل مشابهة. 0:04:11.481,0:04:14.112 لنقل أني صاحبة العمل[br]وعلي توظيف بعض الأشخاص. 0:04:14.112,0:04:16.064 في حوزتي الكثير من المرشحين، 0:04:16.064,0:04:18.449 مع سيرتهم الذاتية ومقابلاتهم 0:04:18.449,0:04:20.064 ويجب علي أن أختار البعض منهم. 0:04:20.289,0:04:22.482 ولكن في العالم الحقيقي هنالك حمايات. 0:04:22.881,0:04:24.161 لو على سبيل المثال، 0:04:24.161,0:04:27.421 لدي 100 من المرشحين الذكور[br]و100 من المرشحات الإناث، 0:04:27.421,0:04:31.321 إن قمت بتعيين 10 من هؤلاء المرشحين الذكور، 0:04:31.321,0:04:34.500 قانونيًا يجب أن يكون هناك[br]سببًا منطقيًا جدًا 0:04:34.500,0:04:37.491 لعدم توظيفي 8 نساء على الأقل أيضًا. 0:04:38.481,0:04:42.162 فهل لنا أن نسأل الذكاء الاصطناعي[br]أن يتبع القوانين ذاتها؟ 0:04:42.162,0:04:44.743 وبشكل متزايد، نعم، نقدر. 0:04:44.743,0:04:46.843 إنها مجرد مسألة تغيير النظام. 0:04:47.172,0:04:52.192 يمكننا إنشاء ذكاء اصطناعي يُحاسب [br]باستخدام نفس المعايير لدى الأشخاص 0:04:52.192,0:04:53.806 والشركات. 0:04:54.625,0:04:56.195 أتذكرون مدرائنا التنفيذين؟ 0:04:56.840,0:04:58.280 يمكننا الانتقال من ذلك 0:04:58.976,0:04:59.876 إلى هذا. 0:05:00.240,0:05:03.550 يمكننا عبور الجسر من الصور[br]النمطية إلى الواقع. 0:05:03.937,0:05:07.035 باستطاعتنا الانتقال من واقعنا الحالي 0:05:07.035,0:05:10.225 إلى الواقع الذي نريده لعالمنا. 0:05:10.908,0:05:14.418 الآن، هناك حلول تقنية 0:05:15.195,0:05:18.665 للإعلانات والكثير[br]من مشاكل الذكاء الاصطناعي. 0:05:20.677,0:05:23.447 ولكنني لا أريد أن تظنوا أن هذا يكفي. 0:05:25.237,0:05:28.487 يُستخدم الذكاء الاصطناعي[br]في مجتمعاتكم الآن، 0:05:29.069,0:05:32.540 في أقسام الشرطة والمكاتب الحكومية. 0:05:33.070,0:05:36.550 تستخدم لاتخاذ القرار بشأن[br]القرض الذي تريده، 0:05:37.451,0:05:39.956 ولفحصك من الأمراض المحتملة 0:05:40.956,0:05:44.836 ولتقرر ما إذا كنت ستحصل على تلك الوظيفة. 0:05:46.495,0:05:49.245 يؤثر الذكاء الاصطناعي على حياتنا جميعًا 0:05:49.245,0:05:54.095 ويحدث كل ذلك إلى حد كبير[br]بطريقة غير خاضعة للرقابة وغير منظمة. 0:05:56.086,0:05:57.666 على سبيل المثال، 0:05:57.947,0:06:01.677 تستخدم تقنية التعرف على الوجه[br]في جميع أنحاء الولايات المتحدة، 0:06:01.677,0:06:04.381 في كل مكان ابتداءً من أقسام الشرطة [br]إلى المراكز التجارية، 0:06:04.381,0:06:06.177 للمساعدة في تحديد هوية المجرمين. 0:06:07.866,0:06:10.116 هل تبدو أي من هذه الوجوه مألوفة؟ 0:06:11.248,0:06:14.878 أظهر الاتحاد الأمريكي للحريات المدنية [br]أن كل هؤلاء الأشخاص 0:06:15.919,0:06:22.199 تم التعرف عليهم بتقنية الذكاء الاصطناعي[br]المتوفرة بأمازون بأنهم مجرمون معتقلون، 0:06:23.011,0:06:28.873 ولكن يجدر علي أن أقول أنهم حُددوا خطأً [br]لأن جميعهم أعضاء في الكونغرس الأمريكي. 0:06:29.313,0:06:30.313 (ضحك) 0:06:31.192,0:06:33.210 الذكاء الاصطناعي يخطئ، 0:06:33.210,0:06:37.056 وتلك الأخطاء تؤثر على الأشخاص، 0:06:37.616,0:06:41.000 ابتداءً من الذي قيل لهم أنهم[br]غير مصابين بالسرطان 0:06:41.000,0:06:44.674 ليكتشفوا فقط بعد فوات الأوان[br]أن ذلك كان خطأً. 0:06:44.674,0:06:48.474 إلى أولئك الذين سُجنوا لفترات زمنية طويلة 0:06:48.474,0:06:52.614 بناء على توصيات خاطئة[br]من تقنية الذكاء الاصطناعي. 0:06:53.544,0:06:56.314 إن هذه الأخطاء تخلف تأثيرًا على البشر. 0:06:56.846,0:06:58.756 هذه الأخطاء حقيقية. 0:07:01.100,0:07:04.570 وكما في الأمثلة السابقة، 0:07:04.570,0:07:09.473 نثبت أن هذه الأخطاء تؤدي إلى تفاقم[br]التحيزات المجتمعية القائمة. 0:07:11.239,0:07:12.749 وسط أعضاء الكونجرس، 0:07:14.722,0:07:17.972 على الرغم من أن 20٪ فقط من الكونجرس 0:07:18.775,0:07:21.071 من ذوي البشرة الملونة. 0:07:21.071,0:07:24.812 تتضاعف احتمالية أن يشير النظام إلى هؤلاء 0:07:24.812,0:07:26.652 بكونهم مجرمون معتقلون. 0:07:27.695,0:07:32.295 علينا منع هذا الذكاء الاصطناعي [br]ذو الموضوعية المزيفة 0:07:33.000,0:07:35.720 من إضفاء شرعية الأنظمة الاضطهادية. 0:07:37.675,0:07:39.115 ومرة أخرى، أريد أن أقول، 0:07:40.233,0:07:42.928 نعم هنالك مشاكل تقنية صعبة، 0:07:42.928,0:07:45.388 لكننا نعمل على ذلك؛ لدينا حلول. 0:07:45.388,0:07:46.727 أنا متأكدة من ذلك. 0:07:47.408,0:07:50.938 لكن التوصل إلى هذا الحل الفني لا يكفي. 0:07:52.338,0:07:56.618 ما نحتاج إليه هو الانتقال[br]من هذه الحلول التقنية 0:07:56.618,0:07:58.137 إلى أنظمة العدالة. 0:07:59.516,0:08:02.346 يجب علينا أن نحاسب الذكاء الاصطناعي 0:08:02.724,0:08:05.900 كما نحاسب بعضنا البعض. 0:08:05.900,0:08:09.650 والأشخاص أمثالكم هم من يجعلون هذا حقيقة. 0:08:10.857,0:08:14.408 عندما يتعلق الأمر بالحكومات،[br]في الأشهر القليلة الماضية وحدها، 0:08:14.408,0:08:18.358 سان فرانسيسكو وأوكلاند[br]وسومرفيل في ماساتشوستس 0:08:18.650,0:08:23.040 أصدروا قوانين تمنع الحكومة من[br]استخدام تقنية التعرف على الوجه. 0:08:23.749,0:08:27.809 هذا هو نتاج عمل أشخاص يذهبون إلى عملهم 0:08:27.809,0:08:31.437 ويجتمعون في المدينة ويكتبون الرسائل[br]ويطرحون الأسئلة 0:08:31.437,0:08:34.584 ولا يخضعون لكل ما يقوله الذكاء الاصطناعي. 0:08:35.506,0:08:37.065 عندما يتعلق الأمر بالشركات، 0:08:37.065,0:08:40.827 يجب أن لا نقلل من قوة العمل الجماعي. 0:08:42.440,0:08:43.985 فبسبب الضغط العام، 0:08:43.985,0:08:47.735 توقفت الشركات الكبيرة[br]عن استخدام الذكاء الاصطناعي. 0:08:47.735,0:08:50.971 ابتداءً من واتسن هيلث التي تخطئ [br]بتشخيص مرضى السرطان، 0:08:51.580,0:08:54.810 إلى أداة شركة أمازون للتوظيف[br]التي تميز ضد المرأة. 0:08:55.091,0:08:59.811 وقد ثبت أن الشركات الكبيرة تتراجع وتتوقف 0:09:00.192,0:09:02.112 عندما يكون هنالك احتجاج شعبي. 0:09:03.459,0:09:07.709 معاً يمكننا منع الذكاء الاصطناعي [br]من أن يعيقنا، 0:09:07.709,0:09:09.759 أو ما هو أسوأ وأن يدفعنا إلى الوراء. 0:09:10.174,0:09:11.984 إن كنا حريصين باستخدامه، 0:09:12.314,0:09:15.854 وحاسبناه واستخدمناه استخدامًا حكيمًا، 0:09:16.437,0:09:20.337 عندها يمكن للذكاء الاصطناعي[br]أن يرينا ليس العالم الذي نعيش فيه فحسب، 0:09:20.740,0:09:22.950 بل أيضًا العالم الذي نطمح إليه. 0:09:23.258,0:09:25.335 إن الإمكانيات مذهلة، 0:09:25.335,0:09:28.225 والأمر يعود لنا جميعًا [br]فيجب علينا أن نتأكد من حدوثه. 0:09:28.530,0:09:29.490 شكراً لكم. 0:09:29.490,0:09:30.949 (تصفيق) (هتاف)