< Return to Video

هل يجب أن تثق بما يقوله الذكاء الاصطناعي؟ | إليسا سيليس | TEDxProvidence

  • 0:17 - 0:20
    إذا، اسمحوا لي أن أطرح عليكم سؤالًا:
  • 0:20 - 0:24
    كم شخصًا منكم كان قد شهد نوعًا
    من العنصرية أو التمييز الجنسي
  • 0:24 - 0:27
    فقط اليوم، في الأربع وعشرين ساعة الماضية؟
  • 0:27 - 0:30
    أو، دعوني أعيد صياغة السؤال:
  • 0:30 - 0:33
    كم منكم استخدم الإنترنت اليوم؟
  • 0:33 - 0:34
    (ضحك)
  • 0:34 - 0:38
    للأسف، هذان الأمران متشابهان على نحو كبير.
  • 0:39 - 0:40
    أنا عالمة حاسوب بالتدريب،
  • 0:40 - 0:45
    وأعمل على تصميم تكنولوجيا الذكاء
    الاصطناعي لتحسين عالمنا الحالي.
  • 0:46 - 0:48
    ولكن كلما عملت عليها أكثر،
    كلما أدركت أكثر
  • 0:48 - 0:52
    أن هذه التكنولوجيا في كثير من الأحيان
    تستخدم تحت ظل الكذب الموضوعي.
  • 0:53 - 0:54
    أحب الموضوعية؛
  • 0:54 - 0:59
    وقد درست الرياضيات وعلوم الحاسوب
    لأني أحبُ هذا الجانب.
  • 1:00 - 1:02
    هنالك مشاكل يصعب حلها بطبيعة الحال،
  • 1:02 - 1:04
    ولكنك تحصل على إجابة في نهاية المطاف،
  • 1:04 - 1:06
    وتتيقن أن الإجابة صائبة.
  • 1:07 - 1:09
    الذكاء الاصطناعي لا يشبه ذلك.
  • 1:09 - 1:13
    يُبنى الذكاء الاصطناعي على البيانات،
    والبيانات ليست حقيقة.
  • 1:14 - 1:16
    البيانات ليست الواقع.
  • 1:16 - 1:20
    وتبعد البيانات والذكاء الاصطناعي
    كل البعد عن الهدف.
  • 1:21 - 1:22
    دعوني أمدكم بمثال،
  • 1:23 - 1:25
    كيف يبدو المدير التنفيذي برأيكم؟
  • 1:26 - 1:28
    وفقاً لموقع جوجل،
  • 1:29 - 1:30
    هكذا يبدو.
  • 1:30 - 1:34
    هكذا يبدو المدير التنفيذي
    بحسب موقع جوجل.
  • 1:35 - 1:39
    يبدو كل هؤلاء الأشخاص
    كالمدراء التنفيذيين بالتأكيد،
  • 1:39 - 1:41
    لكن هناك أيضًا العديد من الأشخاص
  • 1:41 - 1:45
    الذين لا يبدون بهذا المظهر
    ولكنهم مدراء تنفيذيين.
  • 1:45 - 1:49
    ما ترونه هنا غير واقعي بل هو صورة نمطية.
  • 1:51 - 1:53
    أوضحت دراسة حديثة
  • 1:54 - 1:59
    أنهُ على الرَغم من وجود نسبة قدرها
    25% من المدراء نساء،
  • 1:59 - 2:03
    ما ترونه في صور موقع جوجل يمثل فقط
    11% من هؤلاء النساء.
  • 2:03 - 2:06
    وذلك ينطبق على كل المهن التي دُرست.
  • 2:06 - 2:10
    مثلت الصور القوالب النمطية
    الجنسية في الواقع.
  • 2:10 - 2:15
    فكيف لهذا الذكاء الاصطناعي
    الذي يُفترض أنه "ذكي"
  • 2:16 - 2:18
    القيام بهذه الأخطاء البسيطة؟
  • 2:19 - 2:23
    تكمن المشكلة في كل خطوة في الطريق،
  • 2:23 - 2:27
    منذ اللحظة التي نجمع بها البيانات
    حتى طريقتنا في تصميم الخوارزميات،
  • 2:28 - 2:31
    إلى كيفية قيامنا بتحليلها
    ونشرها واستخدامها.
  • 2:32 - 2:35
    كل خطوة من هذه الخطوات
    تحتاج إلى قرارات بشرية
  • 2:35 - 2:38
    وتحددها الدوافع البشرية.
  • 2:38 - 2:43
    نادرًا ما نتوقف ونسأل أنفسنا،
    من الذي يتخذ هذه القرارات؟
  • 2:44 - 2:46
    ومن هو المستفيد منها؟
  • 2:46 - 2:48
    ومن الذي يتم استبعاده؟
  • 2:50 - 2:53
    يحدث ذلك في كل أنحاء الإنترنت.
  • 2:53 - 2:58
    لنأخذ إعلانات الإنترنت كمثال
    لممارسة التمييز مرارًا وتكرارًا
  • 2:58 - 3:01
    في الإسكان والإقراض والعمل.
  • 3:02 - 3:05
    أظهرت دراسة حديثة أن الإعلانات
    للوظائف ذات رواتب مرتفعة
  • 3:05 - 3:09
    أكثر احتمالًا أن تعرض للرجال
    مقابل النساء بخمسة أضعاف،
  • 3:10 - 3:13
    واستثناء إعلانات الإسكان للشعوب الملونة.
  • 3:13 - 3:18
    يعرضون إعلانات شراء المنازل
    لفئات بيضاء من الجمهور بنسبة 75%،
  • 3:19 - 3:24
    بينما الإعلانات التي تستهدف
    الجماهير المنوعة تعرض منازل للإيجار.
  • 3:25 - 3:27
    بالنسبة لي، هذا أمر شخصي.
  • 3:28 - 3:31
    أنا امرأة لاتينية وأم.
  • 3:32 - 3:35
    هذا ليس العالم الذي أريده،
    إنه ليس العالم الذي أريده لأطفالي،
  • 3:35 - 3:38
    ومن المؤكد أنه ليس العالم
    الذي أريد أن أكون جزءًا من إعماره.
  • 3:39 - 3:42
    حين أدركت هذا، علمت أن يجب
    علي القيام بشيء ما،
  • 3:42 - 3:45
    وهذا ما كنت أعمل عليه
    في السنوات العديدة الأخيرة،
  • 3:45 - 3:49
    برفقة زملائي ومجتمع مُذهل من الباحثين
  • 3:49 - 3:51
    الذين يقومون ببناء هذا
    في جميع أنحاء العالم.
  • 3:52 - 3:55
    نحن نقوم بتعريف وتصميم
    تكنولوجيا الذكاء الاصطناعي
  • 3:55 - 3:59
    التي لا تعاني من مشاكل التمييز والتحيز.
  • 4:00 - 4:02
    إذًا فكروا في مثال المدير التنفيذي.
  • 4:02 - 4:04
    هذا ما ندعوه بمشكلة في الاختيار.
  • 4:04 - 4:07
    لدينا الكثير من البيانات والصور،
  • 4:07 - 4:08
    وعلينا اختيار البعض منهم.
  • 4:08 - 4:11
    وفي العالم الحقيقي لدينا مشاكل مشابهة.
  • 4:11 - 4:14
    لنقل أني صاحبة العمل
    وعلي توظيف بعض الأشخاص.
  • 4:14 - 4:16
    في حوزتي الكثير من المرشحين،
  • 4:16 - 4:18
    مع سيرتهم الذاتية ومقابلاتهم
  • 4:18 - 4:20
    ويجب علي أن أختار البعض منهم.
  • 4:20 - 4:22
    ولكن في العالم الحقيقي هنالك حمايات.
  • 4:23 - 4:24
    لو على سبيل المثال،
  • 4:24 - 4:27
    لدي 100 من المرشحين الذكور
    و100 من المرشحات الإناث،
  • 4:27 - 4:31
    إن قمت بتعيين 10 من هؤلاء المرشحين الذكور،
  • 4:31 - 4:34
    قانونيًا يجب أن يكون هناك
    سببًا منطقيًا جدًا
  • 4:34 - 4:37
    لعدم توظيفي 8 نساء على الأقل أيضًا.
  • 4:38 - 4:42
    فهل لنا أن نسأل الذكاء الاصطناعي
    أن يتبع القوانين ذاتها؟
  • 4:42 - 4:45
    وبشكل متزايد، نعم، نقدر.
  • 4:45 - 4:47
    إنها مجرد مسألة تغيير النظام.
  • 4:47 - 4:52
    يمكننا إنشاء ذكاء اصطناعي يُحاسب
    باستخدام نفس المعايير لدى الأشخاص
  • 4:52 - 4:54
    والشركات.
  • 4:55 - 4:56
    أتذكرون مدرائنا التنفيذين؟
  • 4:57 - 4:58
    يمكننا الانتقال من ذلك
  • 4:59 - 5:00
    إلى هذا.
  • 5:00 - 5:04
    يمكننا عبور الجسر من الصور
    النمطية إلى الواقع.
  • 5:04 - 5:07
    باستطاعتنا الانتقال من واقعنا الحالي
  • 5:07 - 5:10
    إلى الواقع الذي نريده لعالمنا.
  • 5:11 - 5:14
    الآن، هناك حلول تقنية
  • 5:15 - 5:19
    للإعلانات والكثير
    من مشاكل الذكاء الاصطناعي.
  • 5:21 - 5:23
    ولكنني لا أريد أن تظنوا أن هذا يكفي.
  • 5:25 - 5:28
    يُستخدم الذكاء الاصطناعي
    في مجتمعاتكم الآن،
  • 5:29 - 5:33
    في أقسام الشرطة والمكاتب الحكومية.
  • 5:33 - 5:37
    تستخدم لاتخاذ القرار بشأن
    القرض الذي تريده،
  • 5:37 - 5:40
    ولفحصك من الأمراض المحتملة
  • 5:41 - 5:45
    ولتقرر ما إذا كنت ستحصل على تلك الوظيفة.
  • 5:46 - 5:49
    يؤثر الذكاء الاصطناعي على حياتنا جميعًا
  • 5:49 - 5:54
    ويحدث كل ذلك إلى حد كبير
    بطريقة غير خاضعة للرقابة وغير منظمة.
  • 5:56 - 5:58
    على سبيل المثال،
  • 5:58 - 6:02
    تستخدم تقنية التعرف على الوجه
    في جميع أنحاء الولايات المتحدة،
  • 6:02 - 6:04
    في كل مكان ابتداءً من أقسام الشرطة
    إلى المراكز التجارية،
  • 6:04 - 6:06
    للمساعدة في تحديد هوية المجرمين.
  • 6:08 - 6:10
    هل تبدو أي من هذه الوجوه مألوفة؟
  • 6:11 - 6:15
    أظهر الاتحاد الأمريكي للحريات المدنية
    أن كل هؤلاء الأشخاص
  • 6:16 - 6:22
    تم التعرف عليهم بتقنية الذكاء الاصطناعي
    المتوفرة بأمازون بأنهم مجرمون معتقلون،
  • 6:23 - 6:29
    ولكن يجدر علي أن أقول أنهم حُددوا خطأً
    لأن جميعهم أعضاء في الكونغرس الأمريكي.
  • 6:29 - 6:30
    (ضحك)
  • 6:31 - 6:33
    الذكاء الاصطناعي يخطئ،
  • 6:33 - 6:37
    وتلك الأخطاء تؤثر على الأشخاص،
  • 6:38 - 6:41
    ابتداءً من الذي قيل لهم أنهم
    غير مصابين بالسرطان
  • 6:41 - 6:45
    ليكتشفوا فقط بعد فوات الأوان
    أن ذلك كان خطأً.
  • 6:45 - 6:48
    إلى أولئك الذين سُجنوا لفترات زمنية طويلة
  • 6:48 - 6:53
    بناء على توصيات خاطئة
    من تقنية الذكاء الاصطناعي.
  • 6:54 - 6:56
    إن هذه الأخطاء تخلف تأثيرًا على البشر.
  • 6:57 - 6:59
    هذه الأخطاء حقيقية.
  • 7:01 - 7:05
    وكما في الأمثلة السابقة،
  • 7:05 - 7:09
    نثبت أن هذه الأخطاء تؤدي إلى تفاقم
    التحيزات المجتمعية القائمة.
  • 7:11 - 7:13
    وسط أعضاء الكونجرس،
  • 7:15 - 7:18
    على الرغم من أن 20٪ فقط من الكونجرس
  • 7:19 - 7:21
    من ذوي البشرة الملونة.
  • 7:21 - 7:25
    تتضاعف احتمالية أن يشير النظام إلى هؤلاء
  • 7:25 - 7:27
    بكونهم مجرمون معتقلون.
  • 7:28 - 7:32
    علينا منع هذا الذكاء الاصطناعي
    ذو الموضوعية المزيفة
  • 7:33 - 7:36
    من إضفاء شرعية الأنظمة الاضطهادية.
  • 7:38 - 7:39
    ومرة أخرى، أريد أن أقول،
  • 7:40 - 7:43
    نعم هنالك مشاكل تقنية صعبة،
  • 7:43 - 7:45
    لكننا نعمل على ذلك؛ لدينا حلول.
  • 7:45 - 7:47
    أنا متأكدة من ذلك.
  • 7:47 - 7:51
    لكن التوصل إلى هذا الحل الفني لا يكفي.
  • 7:52 - 7:57
    ما نحتاج إليه هو الانتقال
    من هذه الحلول التقنية
  • 7:57 - 7:58
    إلى أنظمة العدالة.
  • 8:00 - 8:02
    يجب علينا أن نحاسب الذكاء الاصطناعي
  • 8:03 - 8:06
    كما نحاسب بعضنا البعض.
  • 8:06 - 8:10
    والأشخاص أمثالكم هم من يجعلون هذا حقيقة.
  • 8:11 - 8:14
    عندما يتعلق الأمر بالحكومات،
    في الأشهر القليلة الماضية وحدها،
  • 8:14 - 8:18
    سان فرانسيسكو وأوكلاند
    وسومرفيل في ماساتشوستس
  • 8:19 - 8:23
    أصدروا قوانين تمنع الحكومة من
    استخدام تقنية التعرف على الوجه.
  • 8:24 - 8:28
    هذا هو نتاج عمل أشخاص يذهبون إلى عملهم
  • 8:28 - 8:31
    ويجتمعون في المدينة ويكتبون الرسائل
    ويطرحون الأسئلة
  • 8:31 - 8:35
    ولا يخضعون لكل ما يقوله الذكاء الاصطناعي.
  • 8:36 - 8:37
    عندما يتعلق الأمر بالشركات،
  • 8:37 - 8:41
    يجب أن لا نقلل من قوة العمل الجماعي.
  • 8:42 - 8:44
    فبسبب الضغط العام،
  • 8:44 - 8:48
    توقفت الشركات الكبيرة
    عن استخدام الذكاء الاصطناعي.
  • 8:48 - 8:51
    ابتداءً من واتسن هيلث التي تخطئ
    بتشخيص مرضى السرطان،
  • 8:52 - 8:55
    إلى أداة شركة أمازون للتوظيف
    التي تميز ضد المرأة.
  • 8:55 - 9:00
    وقد ثبت أن الشركات الكبيرة تتراجع وتتوقف
  • 9:00 - 9:02
    عندما يكون هنالك احتجاج شعبي.
  • 9:03 - 9:08
    معاً يمكننا منع الذكاء الاصطناعي
    من أن يعيقنا،
  • 9:08 - 9:10
    أو ما هو أسوأ وأن يدفعنا إلى الوراء.
  • 9:10 - 9:12
    إن كنا حريصين باستخدامه،
  • 9:12 - 9:16
    وحاسبناه واستخدمناه استخدامًا حكيمًا،
  • 9:16 - 9:20
    عندها يمكن للذكاء الاصطناعي
    أن يرينا ليس العالم الذي نعيش فيه فحسب،
  • 9:21 - 9:23
    بل أيضًا العالم الذي نطمح إليه.
  • 9:23 - 9:25
    إن الإمكانيات مذهلة،
  • 9:25 - 9:28
    والأمر يعود لنا جميعًا
    فيجب علينا أن نتأكد من حدوثه.
  • 9:29 - 9:29
    شكراً لكم.
  • 9:29 - 9:31
    (تصفيق) (هتاف)
Title:
هل يجب أن تثق بما يقوله الذكاء الاصطناعي؟ | إليسا سيليس | TEDxProvidence
Description:

عملت الأستاذة إليسا سيليس في جامعة ييل على إنشاء تكنولوجيا الذكاء الاصطناعي لتحسين العالم، لتكتشف أن لديها مشكلة كبيرة. إن الذكاء الاصطناعي المصمم لخدمة كل واحد منا في الحقيقة يستبعد معظمنا. تعرف على سبب حدوث ذلك، وما الذي يمكن إصلاحه، وإذا كان ذلك كافيا حقًا.

إليسا سيليس أستاذة مساعدة في الإحصاء وعلوم البيانات في جامعة ييل. يركز بحث إليسا على المشاكل التي تنشأ في واجهة الحوسبة والتعلم الآلي وتداعياتها المجتمعية. على وجه التحديد ، تدرس مظاهر التحيز الاجتماعي والاقتصادي في حياتنا عبر الإنترنت من خلال الخوارزميات التي تشفرها وتديمها. يمتد عملها إلى مجالات متعددة، بما في ذلك الحوسبة الاجتماعية والتعهيد المفتوح وعلوم البيانات وتصميم الخوارزميات مع التركيز الحالي على العدل والتنوع في الذكاء الاصطناعي والتعلم الآلي.

قدمت هذه المحادثة في حدث TEDx باستخدام تنسيق مؤتمر TED لكن تم تنظيمه بشكل مستقل بواسطة مجتمع محلي. لمعرفة المزيد في http://ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
09:33

Arabic subtitles

Revisions