هل يجب أن تثق بما يقوله الذكاء الاصطناعي؟ | إليسا سيليس | TEDxProvidence
-
0:17 - 0:20إذا، اسمحوا لي أن أطرح عليكم سؤالًا:
-
0:20 - 0:24كم شخصًا منكم كان قد شهد نوعًا
من العنصرية أو التمييز الجنسي -
0:24 - 0:27فقط اليوم، في الأربع وعشرين ساعة الماضية؟
-
0:27 - 0:30أو، دعوني أعيد صياغة السؤال:
-
0:30 - 0:33كم منكم استخدم الإنترنت اليوم؟
-
0:33 - 0:34(ضحك)
-
0:34 - 0:38للأسف، هذان الأمران متشابهان على نحو كبير.
-
0:39 - 0:40أنا عالمة حاسوب بالتدريب،
-
0:40 - 0:45وأعمل على تصميم تكنولوجيا الذكاء
الاصطناعي لتحسين عالمنا الحالي. -
0:46 - 0:48ولكن كلما عملت عليها أكثر،
كلما أدركت أكثر -
0:48 - 0:52أن هذه التكنولوجيا في كثير من الأحيان
تستخدم تحت ظل الكذب الموضوعي. -
0:53 - 0:54أحب الموضوعية؛
-
0:54 - 0:59وقد درست الرياضيات وعلوم الحاسوب
لأني أحبُ هذا الجانب. -
1:00 - 1:02هنالك مشاكل يصعب حلها بطبيعة الحال،
-
1:02 - 1:04ولكنك تحصل على إجابة في نهاية المطاف،
-
1:04 - 1:06وتتيقن أن الإجابة صائبة.
-
1:07 - 1:09الذكاء الاصطناعي لا يشبه ذلك.
-
1:09 - 1:13يُبنى الذكاء الاصطناعي على البيانات،
والبيانات ليست حقيقة. -
1:14 - 1:16البيانات ليست الواقع.
-
1:16 - 1:20وتبعد البيانات والذكاء الاصطناعي
كل البعد عن الهدف. -
1:21 - 1:22دعوني أمدكم بمثال،
-
1:23 - 1:25كيف يبدو المدير التنفيذي برأيكم؟
-
1:26 - 1:28وفقاً لموقع جوجل،
-
1:29 - 1:30هكذا يبدو.
-
1:30 - 1:34هكذا يبدو المدير التنفيذي
بحسب موقع جوجل. -
1:35 - 1:39يبدو كل هؤلاء الأشخاص
كالمدراء التنفيذيين بالتأكيد، -
1:39 - 1:41لكن هناك أيضًا العديد من الأشخاص
-
1:41 - 1:45الذين لا يبدون بهذا المظهر
ولكنهم مدراء تنفيذيين. -
1:45 - 1:49ما ترونه هنا غير واقعي بل هو صورة نمطية.
-
1:51 - 1:53أوضحت دراسة حديثة
-
1:54 - 1:59أنهُ على الرَغم من وجود نسبة قدرها
25% من المدراء نساء، -
1:59 - 2:03ما ترونه في صور موقع جوجل يمثل فقط
11% من هؤلاء النساء. -
2:03 - 2:06وذلك ينطبق على كل المهن التي دُرست.
-
2:06 - 2:10مثلت الصور القوالب النمطية
الجنسية في الواقع. -
2:10 - 2:15فكيف لهذا الذكاء الاصطناعي
الذي يُفترض أنه "ذكي" -
2:16 - 2:18القيام بهذه الأخطاء البسيطة؟
-
2:19 - 2:23تكمن المشكلة في كل خطوة في الطريق،
-
2:23 - 2:27منذ اللحظة التي نجمع بها البيانات
حتى طريقتنا في تصميم الخوارزميات، -
2:28 - 2:31إلى كيفية قيامنا بتحليلها
ونشرها واستخدامها. -
2:32 - 2:35كل خطوة من هذه الخطوات
تحتاج إلى قرارات بشرية -
2:35 - 2:38وتحددها الدوافع البشرية.
-
2:38 - 2:43نادرًا ما نتوقف ونسأل أنفسنا،
من الذي يتخذ هذه القرارات؟ -
2:44 - 2:46ومن هو المستفيد منها؟
-
2:46 - 2:48ومن الذي يتم استبعاده؟
-
2:50 - 2:53يحدث ذلك في كل أنحاء الإنترنت.
-
2:53 - 2:58لنأخذ إعلانات الإنترنت كمثال
لممارسة التمييز مرارًا وتكرارًا -
2:58 - 3:01في الإسكان والإقراض والعمل.
-
3:02 - 3:05أظهرت دراسة حديثة أن الإعلانات
للوظائف ذات رواتب مرتفعة -
3:05 - 3:09أكثر احتمالًا أن تعرض للرجال
مقابل النساء بخمسة أضعاف، -
3:10 - 3:13واستثناء إعلانات الإسكان للشعوب الملونة.
-
3:13 - 3:18يعرضون إعلانات شراء المنازل
لفئات بيضاء من الجمهور بنسبة 75%، -
3:19 - 3:24بينما الإعلانات التي تستهدف
الجماهير المنوعة تعرض منازل للإيجار. -
3:25 - 3:27بالنسبة لي، هذا أمر شخصي.
-
3:28 - 3:31أنا امرأة لاتينية وأم.
-
3:32 - 3:35هذا ليس العالم الذي أريده،
إنه ليس العالم الذي أريده لأطفالي، -
3:35 - 3:38ومن المؤكد أنه ليس العالم
الذي أريد أن أكون جزءًا من إعماره. -
3:39 - 3:42حين أدركت هذا، علمت أن يجب
علي القيام بشيء ما، -
3:42 - 3:45وهذا ما كنت أعمل عليه
في السنوات العديدة الأخيرة، -
3:45 - 3:49برفقة زملائي ومجتمع مُذهل من الباحثين
-
3:49 - 3:51الذين يقومون ببناء هذا
في جميع أنحاء العالم. -
3:52 - 3:55نحن نقوم بتعريف وتصميم
تكنولوجيا الذكاء الاصطناعي -
3:55 - 3:59التي لا تعاني من مشاكل التمييز والتحيز.
-
4:00 - 4:02إذًا فكروا في مثال المدير التنفيذي.
-
4:02 - 4:04هذا ما ندعوه بمشكلة في الاختيار.
-
4:04 - 4:07لدينا الكثير من البيانات والصور،
-
4:07 - 4:08وعلينا اختيار البعض منهم.
-
4:08 - 4:11وفي العالم الحقيقي لدينا مشاكل مشابهة.
-
4:11 - 4:14لنقل أني صاحبة العمل
وعلي توظيف بعض الأشخاص. -
4:14 - 4:16في حوزتي الكثير من المرشحين،
-
4:16 - 4:18مع سيرتهم الذاتية ومقابلاتهم
-
4:18 - 4:20ويجب علي أن أختار البعض منهم.
-
4:20 - 4:22ولكن في العالم الحقيقي هنالك حمايات.
-
4:23 - 4:24لو على سبيل المثال،
-
4:24 - 4:27لدي 100 من المرشحين الذكور
و100 من المرشحات الإناث، -
4:27 - 4:31إن قمت بتعيين 10 من هؤلاء المرشحين الذكور،
-
4:31 - 4:34قانونيًا يجب أن يكون هناك
سببًا منطقيًا جدًا -
4:34 - 4:37لعدم توظيفي 8 نساء على الأقل أيضًا.
-
4:38 - 4:42فهل لنا أن نسأل الذكاء الاصطناعي
أن يتبع القوانين ذاتها؟ -
4:42 - 4:45وبشكل متزايد، نعم، نقدر.
-
4:45 - 4:47إنها مجرد مسألة تغيير النظام.
-
4:47 - 4:52يمكننا إنشاء ذكاء اصطناعي يُحاسب
باستخدام نفس المعايير لدى الأشخاص -
4:52 - 4:54والشركات.
-
4:55 - 4:56أتذكرون مدرائنا التنفيذين؟
-
4:57 - 4:58يمكننا الانتقال من ذلك
-
4:59 - 5:00إلى هذا.
-
5:00 - 5:04يمكننا عبور الجسر من الصور
النمطية إلى الواقع. -
5:04 - 5:07باستطاعتنا الانتقال من واقعنا الحالي
-
5:07 - 5:10إلى الواقع الذي نريده لعالمنا.
-
5:11 - 5:14الآن، هناك حلول تقنية
-
5:15 - 5:19للإعلانات والكثير
من مشاكل الذكاء الاصطناعي. -
5:21 - 5:23ولكنني لا أريد أن تظنوا أن هذا يكفي.
-
5:25 - 5:28يُستخدم الذكاء الاصطناعي
في مجتمعاتكم الآن، -
5:29 - 5:33في أقسام الشرطة والمكاتب الحكومية.
-
5:33 - 5:37تستخدم لاتخاذ القرار بشأن
القرض الذي تريده، -
5:37 - 5:40ولفحصك من الأمراض المحتملة
-
5:41 - 5:45ولتقرر ما إذا كنت ستحصل على تلك الوظيفة.
-
5:46 - 5:49يؤثر الذكاء الاصطناعي على حياتنا جميعًا
-
5:49 - 5:54ويحدث كل ذلك إلى حد كبير
بطريقة غير خاضعة للرقابة وغير منظمة. -
5:56 - 5:58على سبيل المثال،
-
5:58 - 6:02تستخدم تقنية التعرف على الوجه
في جميع أنحاء الولايات المتحدة، -
6:02 - 6:04في كل مكان ابتداءً من أقسام الشرطة
إلى المراكز التجارية، -
6:04 - 6:06للمساعدة في تحديد هوية المجرمين.
-
6:08 - 6:10هل تبدو أي من هذه الوجوه مألوفة؟
-
6:11 - 6:15أظهر الاتحاد الأمريكي للحريات المدنية
أن كل هؤلاء الأشخاص -
6:16 - 6:22تم التعرف عليهم بتقنية الذكاء الاصطناعي
المتوفرة بأمازون بأنهم مجرمون معتقلون، -
6:23 - 6:29ولكن يجدر علي أن أقول أنهم حُددوا خطأً
لأن جميعهم أعضاء في الكونغرس الأمريكي. -
6:29 - 6:30(ضحك)
-
6:31 - 6:33الذكاء الاصطناعي يخطئ،
-
6:33 - 6:37وتلك الأخطاء تؤثر على الأشخاص،
-
6:38 - 6:41ابتداءً من الذي قيل لهم أنهم
غير مصابين بالسرطان -
6:41 - 6:45ليكتشفوا فقط بعد فوات الأوان
أن ذلك كان خطأً. -
6:45 - 6:48إلى أولئك الذين سُجنوا لفترات زمنية طويلة
-
6:48 - 6:53بناء على توصيات خاطئة
من تقنية الذكاء الاصطناعي. -
6:54 - 6:56إن هذه الأخطاء تخلف تأثيرًا على البشر.
-
6:57 - 6:59هذه الأخطاء حقيقية.
-
7:01 - 7:05وكما في الأمثلة السابقة،
-
7:05 - 7:09نثبت أن هذه الأخطاء تؤدي إلى تفاقم
التحيزات المجتمعية القائمة. -
7:11 - 7:13وسط أعضاء الكونجرس،
-
7:15 - 7:18على الرغم من أن 20٪ فقط من الكونجرس
-
7:19 - 7:21من ذوي البشرة الملونة.
-
7:21 - 7:25تتضاعف احتمالية أن يشير النظام إلى هؤلاء
-
7:25 - 7:27بكونهم مجرمون معتقلون.
-
7:28 - 7:32علينا منع هذا الذكاء الاصطناعي
ذو الموضوعية المزيفة -
7:33 - 7:36من إضفاء شرعية الأنظمة الاضطهادية.
-
7:38 - 7:39ومرة أخرى، أريد أن أقول،
-
7:40 - 7:43نعم هنالك مشاكل تقنية صعبة،
-
7:43 - 7:45لكننا نعمل على ذلك؛ لدينا حلول.
-
7:45 - 7:47أنا متأكدة من ذلك.
-
7:47 - 7:51لكن التوصل إلى هذا الحل الفني لا يكفي.
-
7:52 - 7:57ما نحتاج إليه هو الانتقال
من هذه الحلول التقنية -
7:57 - 7:58إلى أنظمة العدالة.
-
8:00 - 8:02يجب علينا أن نحاسب الذكاء الاصطناعي
-
8:03 - 8:06كما نحاسب بعضنا البعض.
-
8:06 - 8:10والأشخاص أمثالكم هم من يجعلون هذا حقيقة.
-
8:11 - 8:14عندما يتعلق الأمر بالحكومات،
في الأشهر القليلة الماضية وحدها، -
8:14 - 8:18سان فرانسيسكو وأوكلاند
وسومرفيل في ماساتشوستس -
8:19 - 8:23أصدروا قوانين تمنع الحكومة من
استخدام تقنية التعرف على الوجه. -
8:24 - 8:28هذا هو نتاج عمل أشخاص يذهبون إلى عملهم
-
8:28 - 8:31ويجتمعون في المدينة ويكتبون الرسائل
ويطرحون الأسئلة -
8:31 - 8:35ولا يخضعون لكل ما يقوله الذكاء الاصطناعي.
-
8:36 - 8:37عندما يتعلق الأمر بالشركات،
-
8:37 - 8:41يجب أن لا نقلل من قوة العمل الجماعي.
-
8:42 - 8:44فبسبب الضغط العام،
-
8:44 - 8:48توقفت الشركات الكبيرة
عن استخدام الذكاء الاصطناعي. -
8:48 - 8:51ابتداءً من واتسن هيلث التي تخطئ
بتشخيص مرضى السرطان، -
8:52 - 8:55إلى أداة شركة أمازون للتوظيف
التي تميز ضد المرأة. -
8:55 - 9:00وقد ثبت أن الشركات الكبيرة تتراجع وتتوقف
-
9:00 - 9:02عندما يكون هنالك احتجاج شعبي.
-
9:03 - 9:08معاً يمكننا منع الذكاء الاصطناعي
من أن يعيقنا، -
9:08 - 9:10أو ما هو أسوأ وأن يدفعنا إلى الوراء.
-
9:10 - 9:12إن كنا حريصين باستخدامه،
-
9:12 - 9:16وحاسبناه واستخدمناه استخدامًا حكيمًا،
-
9:16 - 9:20عندها يمكن للذكاء الاصطناعي
أن يرينا ليس العالم الذي نعيش فيه فحسب، -
9:21 - 9:23بل أيضًا العالم الذي نطمح إليه.
-
9:23 - 9:25إن الإمكانيات مذهلة،
-
9:25 - 9:28والأمر يعود لنا جميعًا
فيجب علينا أن نتأكد من حدوثه. -
9:29 - 9:29شكراً لكم.
-
9:29 - 9:31(تصفيق) (هتاف)
- Title:
- هل يجب أن تثق بما يقوله الذكاء الاصطناعي؟ | إليسا سيليس | TEDxProvidence
- Description:
-
عملت الأستاذة إليسا سيليس في جامعة ييل على إنشاء تكنولوجيا الذكاء الاصطناعي لتحسين العالم، لتكتشف أن لديها مشكلة كبيرة. إن الذكاء الاصطناعي المصمم لخدمة كل واحد منا في الحقيقة يستبعد معظمنا. تعرف على سبب حدوث ذلك، وما الذي يمكن إصلاحه، وإذا كان ذلك كافيا حقًا.
إليسا سيليس أستاذة مساعدة في الإحصاء وعلوم البيانات في جامعة ييل. يركز بحث إليسا على المشاكل التي تنشأ في واجهة الحوسبة والتعلم الآلي وتداعياتها المجتمعية. على وجه التحديد ، تدرس مظاهر التحيز الاجتماعي والاقتصادي في حياتنا عبر الإنترنت من خلال الخوارزميات التي تشفرها وتديمها. يمتد عملها إلى مجالات متعددة، بما في ذلك الحوسبة الاجتماعية والتعهيد المفتوح وعلوم البيانات وتصميم الخوارزميات مع التركيز الحالي على العدل والتنوع في الذكاء الاصطناعي والتعلم الآلي.
قدمت هذه المحادثة في حدث TEDx باستخدام تنسيق مؤتمر TED لكن تم تنظيمه بشكل مستقل بواسطة مجتمع محلي. لمعرفة المزيد في http://ted.com/tedx
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDxTalks
- Duration:
- 09:33
![]() |
Riyad Altayeb approved Arabic subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Riyad Altayeb edited Arabic subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Shimaa Nabil accepted Arabic subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Shimaa Nabil edited Arabic subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Shimaa Nabil edited Arabic subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Abdelrahman Elmadny edited Arabic subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Abdelrahman Elmadny edited Arabic subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Abdelrahman Elmadny edited Arabic subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence |