WEBVTT 00:00:13.298 --> 00:00:17.148 ارتقاء الآلات! 00:00:17.928 --> 00:00:22.748 من هنا يخشى الروبوتات القاتلة؟ 00:00:23.140 --> 00:00:25.250 (ضحك) 00:00:25.612 --> 00:00:27.212 أنا! 00:00:28.226 --> 00:00:31.896 اعتدتُ العملَ في مجال المركبات الجوية غير المأهولة 00:00:31.896 --> 00:00:36.736 وكلّ ما شغل تفكيري عند رؤيتي لتلك الأشياء أنه يوماً ما 00:00:37.133 --> 00:00:40.903 سيقوم أحدهم بتزويد تلك الآلات بسلاح، 00:00:40.903 --> 00:00:43.853 وسوف تطاردني على شكل أسراب. 00:00:44.688 --> 00:00:49.848 أعملُ في مجال علم الروبوت في جامعة "براون" ومع ذلك أنا أخشى الروبوتات. 00:00:50.541 --> 00:00:53.281 حقيقةً أنا مُصاب بالذعر، 00:00:53.761 --> 00:00:55.811 لكن هل تلومونني؟ 00:00:55.811 --> 00:00:59.501 ما شاهدته من أفلام مذ كنت طفلاً، 00:00:59.501 --> 00:01:03.011 هي تلك التي تُصوّر هيمنة الذكاء الصناعي 00:01:03.011 --> 00:01:05.811 ومواجهة الإنسان الحتمية لها. 00:01:05.811 --> 00:01:11.041 فيلم "أوديسة الفضاء 2001"، "الفاني"، "المصفوفة"، 00:01:11.800 --> 00:01:16.200 والقصص التي يروونها مرعبة للغاية، 00:01:16.200 --> 00:01:20.918 عصبة شريرة من البشر يفرّون من آلات خارقة الذكاء. 00:01:21.935 --> 00:01:26.795 ذلك يُخيفني، وأيديكم المرفوعة تثبت أنه يخيفكم أنتم أيضاً. 00:01:26.795 --> 00:01:30.235 وأعلم أنه يخيف (إلون ماسك). 00:01:30.825 --> 00:01:35.245 لكن أتعلمون؟ لدينا بعض الوقت قبل أن تنتفض الروبوتات. 00:01:35.245 --> 00:01:38.571 فروبوتات (ب ر 2) التي أعمل معها في مشروعي 00:01:38.571 --> 00:01:41.381 لا يمكنها فتح الباب بعد. 00:01:42.191 --> 00:01:46.707 وحسب اعتقادي، فإن مناقشة موضوع الروبوتات خارقة الذكاء 00:01:46.707 --> 00:01:51.997 يعتبر ابتعاداً عن موضوع أكثر مكراً، 00:01:51.997 --> 00:01:56.217 وهو ما يجري خلال استخدامنا لأنظمة الذكاء الصناعي في البلاد. 00:01:56.917 --> 00:02:00.067 فالآن يوجد أشخاصٌ 00:02:00.067 --> 00:02:04.227 كالأطباء والقضاة والمحاسبين 00:02:04.227 --> 00:02:07.957 الذين يتلقون معلوماتٍ من أنظمة الذكاء الصناعي 00:02:07.957 --> 00:02:12.717 ويُعاملونها كما لو أنها جاءت من مصدر موثوق. 00:02:13.931 --> 00:02:16.901 فتلك الثقة هي ما يزعجني، 00:02:17.141 --> 00:02:20.182 ليس بسبب عدد المرات التي تُخطئ فيها أنظمة الذكاء الصناعي، 00:02:20.182 --> 00:02:24.403 فالباحثون في مجال الذكاء الصناعي يتباهونَ بالنتائج الدقيقة، 00:02:24.869 --> 00:02:27.849 بل مدى فداحة هذه الأخطاء عند ارتكابها 00:02:27.849 --> 00:02:29.779 هي ما يُقلِقني. 00:02:29.779 --> 00:02:33.579 فتلك الأنظمة لا تفشل بشكلٍ آمن. 00:02:34.240 --> 00:02:36.960 دعونا نُلقي نظرةً على هذه الصورة، 00:02:37.120 --> 00:02:42.560 هذا الكلب تم تعريفه بالخطأ على أنه ذئب من قبل خوارزمية ذكاء صناعي. 00:02:43.233 --> 00:02:45.239 أراد الباحثون معرفة السبب، 00:02:45.239 --> 00:02:49.509 لماذا أخطأت بالتعرف على كلب الهاسكي هذا على أنه ذئب؟ 00:02:49.751 --> 00:02:52.721 لذا، قاموا بإعادة تكويد الخوارزمية بغية توضيح 00:02:52.721 --> 00:02:55.651 الأجزاء التي كانت محل اهتمام الخوارزمية 00:02:55.651 --> 00:02:58.501 لحظة اتخاذها القرار. 00:02:59.039 --> 00:03:02.749 في هذه الصورة، ما الأجزاء التي لاحظتها برأيكم؟ 00:03:02.869 --> 00:03:05.099 ماذا ستلاحظون؟ 00:03:05.359 --> 00:03:10.479 ربما العيون، أو الأذنين أو الأنف المدبب .. 00:03:13.041 --> 00:03:16.531 هذا ما لاحظته الخوارزمية، 00:03:16.981 --> 00:03:20.391 إنه الثلج الموجود في خلفية الصورة. 00:03:21.003 --> 00:03:25.853 يوجد خطأ منهجي في البيانات المُدخلة للخوارزمية. 00:03:26.293 --> 00:03:30.373 فمعظم صور الذئاب كانت على الثلج، 00:03:30.573 --> 00:03:34.783 فقد قرنت الخوارزمية وجود الثلج وعدمه 00:03:34.783 --> 00:03:38.373 بوجود الذئب وعدم وجوده. 00:03:39.912 --> 00:03:42.027 والمخيف في الأمر 00:03:42.027 --> 00:03:46.287 هو أن الباحثين لم يعلموا بحدوثه أصلاً 00:03:46.287 --> 00:03:50.107 إلى أن أعادوا تكويد الخوارزمية لتوضيح السبب. 00:03:50.836 --> 00:03:55.326 وهذا هو الحال مع خوارزميات الذكاء الصناعي والتعلّم العميق وتعلّم الآلة. 00:03:55.326 --> 00:03:59.346 إذ أن حتى المطورين الذي يعملون عليها 00:03:59.346 --> 00:04:02.396 لا يملكون أدنى فكرة عما تفعله 00:04:03.001 --> 00:04:07.591 قد يكون هذا مثالاً رائعاً في أحد البحوث، 00:04:07.591 --> 00:04:10.281 لكن ماذا يعني ذلك في الحياة العملية؟ 00:04:10.611 --> 00:04:15.841 تُستخدم خوارزمية نظام "كومبس" للأحكام الجنائية في 13 ولاية 00:04:15.841 --> 00:04:17.991 لتحديد احتمالية تكرار الجريمة 00:04:17.991 --> 00:04:22.471 أو احتمالية ارتكابك لجريمة فور إطلاق سراحك. 00:04:23.199 --> 00:04:26.959 لقد وجدت مؤسسة "برو بابليكا" أنك لو كنت من أصول إفريقية، 00:04:26.959 --> 00:04:32.023 فإن نظام "كومبس" سوف يرى احتمالية ارتكابك للعنف بنسبة 77% 00:04:32.023 --> 00:04:34.123 مما لو كنت قوقازياً. 00:04:34.784 --> 00:04:39.404 إنه نظام موجود في عالمنا هذا، يُستخدم من قبل قضاة حقيقيين 00:04:39.404 --> 00:04:42.434 لإطلاق أحكام تتعلق بحياة أُناس حقيقيين. 00:04:44.115 --> 00:04:48.815 لماذا يثق القضاة بنظامٍ يُظهر أخطاءً منهجية؟ 00:04:49.866 --> 00:04:55.176 إن السبب وراء استخدامهم لنظام "كومبس" هو أنه نموذج لتحقيق الكفاءة. 00:04:55.622 --> 00:05:00.072 يخوّلهم نظام "كومبس" بالتعامل السريع مع مئات القضايا 00:05:00.072 --> 00:05:02.992 المتراكمة في النظام القضائي الجنائي. 00:05:04.877 --> 00:05:07.297 لمَ قد يُشكّكون بنظامهم الخاص؟ 00:05:07.297 --> 00:05:10.957 لقد كَثُر الطلب عليها في مؤسسات الدولة واعتمدتهُ إدارة شؤون الموظفين. 00:05:10.957 --> 00:05:13.357 لماذا يُشكّكون به؟ 00:05:13.357 --> 00:05:16.513 حسناً، لقد شكّك بأدائه الأشخاص المحكوم عليهم بنظام "كومبس"، 00:05:16.513 --> 00:05:18.853 وسوف تُفاجئنا قضاياهم جميعاً. 00:05:19.243 --> 00:05:22.123 لقد قضت محكمة "ويسكنسون" العليا 00:05:22.123 --> 00:05:25.643 بأن نظام "كومبس" لا يُنكر حق المتهم بمحاكمة عادلة ومشروعة 00:05:25.643 --> 00:05:28.433 شريطة أن يُستخدم "بالشكل المناسب". 00:05:28.963 --> 00:05:30.688 ومن بين القوانين التي أقرتها أيضاً، 00:05:30.688 --> 00:05:34.758 أنه لا يحق للمُتهم الاطلاع على الشفرة المصدرية لنظام "كومبس". 00:05:35.700 --> 00:05:39.990 يجب أن يُستخدم بشكل مناسب لكن لا يمكنك الاطلاع على الشفرة المصدرية. 00:05:40.425 --> 00:05:43.425 هذه قوانين مُقلقة عند مواجهتها 00:05:43.425 --> 00:05:46.175 من قبل شخص يواجه أحكاماً جنائية. 00:05:46.625 --> 00:05:50.705 قد لا تكترثون بذلك لأن أحداً منكم لا يواجه أحكاماً جنائية، 00:05:51.056 --> 00:05:55.056 لكن ماذا لو أخبرتكم أن خوازميات الذكاء الصناعي، بالغة السرية، هذه 00:05:55.056 --> 00:05:59.376 تُستخدم لتحديد فيما إذا كنت مُستحقاً للحصول على قرض لمنزلك أو لا، 00:06:00.144 --> 00:06:02.844 أو حصولك على مقابلة عمل، 00:06:03.364 --> 00:06:05.863 أو الرعاية الصحية، 00:06:05.954 --> 00:06:10.434 وحتى فيما يخصّ قيادة العربات والشاحنات على الطريق السريع، 00:06:10.831 --> 00:06:14.531 ألا تريدون للعامة من الناس أن يطّلعوا على الخوارزمية 00:06:14.531 --> 00:06:17.239 التي تحاول التمييز بين سلة التسوق 00:06:17.239 --> 00:06:20.899 وبين عربة الطفل في سيارة ذاتية التحكم، 00:06:20.899 --> 00:06:23.679 بنفس الطريقة التي تحاول بها الخوارزمية التمييز 00:06:23.679 --> 00:06:26.069 بين كلب وذئب؟ 00:06:26.282 --> 00:06:31.462 هل أنتم بمثابة الكلب، بالمعنى المجازي، الذي تم تعريفه بالخطأ على أنه ذئب 00:06:31.462 --> 00:06:34.262 من قبل خوازمية ذكاء صناعي كتبها أحدهم؟ 00:06:34.868 --> 00:06:38.718 بالنظر إلى التعقيد الذي يلف الناس، هذا ممكن. 00:06:38.811 --> 00:06:42.031 هل يوجد ما يمكننا فعله الآن؟ 00:06:42.031 --> 00:06:46.841 على الأرجح لا، وهذا ما يجب التركيز عليه. 00:06:47.487 --> 00:06:50.567 علينا وضع معايير للمُساءلة 00:06:50.567 --> 00:06:55.397 والشفافية والطعن بأنظمة الذكاء الصناعي. 00:06:56.456 --> 00:07:01.034 لقد شكلت منظمة توحيد المقاييس الدولية لجنةً لتوها، 00:07:01.034 --> 00:07:04.504 بشأن القرارات حول ما يمكن فعله بخصوص معايير الذكاء الصنعي. 00:07:04.923 --> 00:07:08.739 لدينا خمس سنوات قبل أن يخرجوا علينا بمعايير تخص هذا الشأن. 00:07:08.989 --> 00:07:12.479 لكن هذه الأنظمة هي قيد الاستخدام الآن، 00:07:13.671 --> 00:07:19.361 ليس فقط بما يخص القروض، لكن أيضاً بما يخص الشاحنات كما أسلفت سابقاً. 00:07:20.841 --> 00:07:25.273 وتُستخدم في أمور مثل أنظمة مراقبة الرحلات البحرية ذات التوجيه الذاتي. 00:07:25.273 --> 00:07:27.973 ومن المضحك تسميتها "بأنظمة مراقبة بحرية" 00:07:27.973 --> 00:07:32.703 لأن خاصية المراقبة المستخدمة في الملاحة البحرية هي من طراز (PID)، 00:07:32.703 --> 00:07:38.323 التي استُخدِمت لمدة 30 سنة في المصانع الكيميائية قبل استخدامها في السيارة. 00:07:39.139 --> 00:07:41.138 ونظام المراقبة المُستخدم 00:07:41.138 --> 00:07:44.628 في السيارات ذاتية القيادة والتعلّم الآلي، 00:07:44.628 --> 00:07:48.878 استخدِم فقط لأغراض بحثية منذ العام 2007. 00:07:49.680 --> 00:07:52.230 تلك تقنيات جديدة، 00:07:52.470 --> 00:07:56.430 علينا المطالبة بالمعايير والمطالبة بقوانين ناظمة 00:07:56.430 --> 00:08:00.340 حتى لا نُخدع بادعاءات السلامة الزائفة. 00:08:00.819 --> 00:08:05.059 وعلينا التشكيك بها بعض الشيء. 00:08:05.861 --> 00:08:07.871 إن تجارب برنامج "أوثورتي" 00:08:07.871 --> 00:08:11.121 التي قام بها (ستانلي ميلغرام) بعد الحرب العالمية الثانية، 00:08:11.121 --> 00:08:16.031 أظهرت أن الشخص العادي سوف يُنفّذ أوامر رجل السلطة 00:08:16.031 --> 00:08:19.741 حتى لو كان على حساب أذية مواطن آخر. 00:08:20.461 --> 00:08:22.850 في هذه التجربة، 00:08:22.850 --> 00:08:27.130 يقوم مواطنون أمريكيون بصعق رجل ممثل، 00:08:27.689 --> 00:08:31.269 متجاهلين كونه يشتكي من هذا الموقف 00:08:31.577 --> 00:08:35.427 ومتجاهلين صراخه تحت تأثير الألم 00:08:35.934 --> 00:08:40.894 ومتجاهلين لحظة صمته وتمثيله الموت، 00:08:41.613 --> 00:08:44.099 كل ذلك لأن شخصاً، 00:08:44.099 --> 00:08:47.969 بدون أوراق اعتماد ويرتدي معطفًا أبيضًا، 00:08:47.969 --> 00:08:50.795 كان يقول ما يشبه عبارة: 00:08:50.795 --> 00:08:54.475 "التجربة يجب أن تستمر". 00:08:56.945 --> 00:09:02.398 وفي الذكاء الصناعي، لدينا رجل سلطة مشابه لتجربة (ميلغرام). 00:09:03.656 --> 00:09:08.366 لدينا نظام لا يبدي أية مشاعر، 00:09:09.370 --> 00:09:12.640 لا يعود عن قراراته، 00:09:12.920 --> 00:09:14.902 ولا ملاذ من قراراته 00:09:15.074 --> 00:09:20.454 التي تنص على أن النظام أو العملية يجب أن تستمر. 00:09:23.313 --> 00:09:25.883 سوف أخبركم الآن بقصة قصيرة. 00:09:25.883 --> 00:09:29.723 تدور حول رحلة بالسيارة قمت بها في الريف. 00:09:30.790 --> 00:09:34.690 كنت أقترب من مدينة "سالت ليك" وبدأ المطر ينهمر. 00:09:35.211 --> 00:09:39.900 وكلما صعدت أكثر نحو الجبل، أخذ المطر يتحول إلى ثلوج، 00:09:40.380 --> 00:09:42.580 وسرعان ما تحول الثلج إلى عاصفة ثلجية، 00:09:42.580 --> 00:09:45.720 لم أستطع رؤية المصابيح الخلفية للسيارة المقابلة لي، 00:09:46.153 --> 00:09:48.023 وبدأت السيارة بالانزلاق. 00:09:48.023 --> 00:09:51.033 انحرفت بدرجة 360 بهذا الاتجاه و360 بالاتجاه الآخر. 00:09:51.033 --> 00:09:52.773 انحرفت عن مسار الطريق. 00:09:52.773 --> 00:09:54.953 كانت النوافذ مغطاة بالوحل ولم أبصر شيئاً. 00:09:54.953 --> 00:09:59.103 كنت مذعوراً من أن سيارة ما قد ترتطم بي وتتحطم. 00:09:59.924 --> 00:10:03.864 أخبرتكم بهذه القصة كي أدفعكم على التفكير 00:10:03.864 --> 00:10:07.324 كيف أن أمراً صغيراً، ويبدو عادياً 00:10:07.324 --> 00:10:10.094 كانهمار المطر، 00:10:10.094 --> 00:10:14.584 قد يتطور بسهولة ليبصح موقفاً خطيراً. 00:10:15.409 --> 00:10:19.789 نحن نقود السيارات المزودة بتقنية الذكاء الصناعي الآن، 00:10:20.442 --> 00:10:23.402 وهذا المطر سوف يتحول إلى ثلج، 00:10:23.887 --> 00:10:27.457 وقد يتحول الثلج إلى عاصفة ثلجية عنيفة. 00:10:28.097 --> 00:10:30.347 علينا التوقف قليلاً 00:10:30.537 --> 00:10:32.857 لنتفحص الظروف 00:10:33.002 --> 00:10:35.502 وأن نضع معايير السلامة في مكانها الصحيح، 00:10:35.642 --> 00:10:41.232 ونسأل أنفسنا، إلى أي مدى نريد أن نمضي، 00:10:42.267 --> 00:10:46.437 لأن الدوافع الاقتصادية المشجعة للذكاء الصناعي والأتمتة 00:10:46.437 --> 00:10:48.363 لاستبدال العمالة البشرية، 00:10:48.363 --> 00:10:53.313 ستكون أكثر حماساً مما كانت عليه منذ الثورة الصناعية. 00:10:54.043 --> 00:10:58.040 فلن تكون رواتب البشر أقل كلفةً 00:10:58.040 --> 00:11:01.650 من تكلفة فواتير الكهرباء العادية. 00:11:02.480 --> 00:11:07.915 سوف تحلّ أنظمة الذكاء الصناعي والروبوتات محلّ طهاة البطاطس والوجبات السريعة 00:11:07.915 --> 00:11:10.415 وأخصائيو الأشعة في المشافي. 00:11:11.135 --> 00:11:14.330 يوماً ما، سوف يُشخص السرطان بأنظمة الذكاء الصنعي، 00:11:14.330 --> 00:11:17.430 وسيقوم أحد الروبوتات بإجراء العمليات الجراحية. 00:11:17.960 --> 00:11:22.420 وحده الحس التشكيكي السليم بهذه الأنظمة، 00:11:22.420 --> 00:11:25.981 سوف يحول دون استبعاد البشر من اللعبة. 00:11:26.291 --> 00:11:31.473 وأنا على ثقة أننا إن استطعنا إبقاء البشر في اللعبة، 00:11:31.473 --> 00:11:36.393 وإن تمكنّا من تطوير أنظمة ذكاء صناعي تتحلّى بالشفافية كمثال الكلب والذئب 00:11:36.393 --> 00:11:39.658 حيث أظهرالذكاء الصناعي طريقة تعامله معنا، 00:11:39.658 --> 00:11:42.588 وتمكنّا من ملاحظة الخلل، 00:11:42.588 --> 00:11:47.028 نستطيع عندها، خلق فرص عمل جديدة بالتعاون من أنظمة الذكاء الصناعي. 00:11:48.573 --> 00:11:51.043 إن عملنا سوياً مع الذكاء الصناعي، 00:11:51.043 --> 00:11:55.563 قد نتمكن من حل بعض أكبر التحديات التي نواجهها. 00:11:56.764 --> 00:12:01.354 وكي نحقق ذلك، علينا أن نقود لا أن نتبع. 00:12:01.801 --> 00:12:05.491 علينا أن نختار ألا نكون شبيهين بالروبوتات، 00:12:05.491 --> 00:12:10.131 وتطوير روبوتات تكون أقرب من البشر، 00:12:11.020 --> 00:12:13.350 لأنه في نهاية المطاف، 00:12:13.350 --> 00:12:18.160 ما علينا خشيته ليست الروبوتات القاتلة، 00:12:18.700 --> 00:12:21.641 بل تكاسلنا الذهني. 00:12:22.215 --> 00:12:26.655 الشيء الوحيد الذي يجب أن نخشاه هو أنفسنا. 00:12:26.989 --> 00:12:28.441 شكراً لكم. 00:12:28.441 --> 00:12:29.831 (تصفيق)