0:00:13.298,0:00:17.148 ارتقاء الآلات! 0:00:17.928,0:00:22.748 من هنا يخشى الروبوتات القاتلة؟ 0:00:23.140,0:00:25.250 (ضحك) 0:00:25.612,0:00:27.212 أنا! 0:00:28.226,0:00:31.896 اعتدتُ العملَ في مجال[br]المركبات الجوية غير المأهولة 0:00:31.896,0:00:36.736 وكلّ ما شغل تفكيري[br]عند رؤيتي لتلك الأشياء أنه يوماً ما 0:00:37.133,0:00:40.903 سيقوم أحدهم بتزويد تلك الآلات بسلاح، 0:00:40.903,0:00:43.853 وسوف تطاردني على شكل أسراب. 0:00:44.688,0:00:49.848 أعملُ في مجال علم الروبوت في جامعة[br]"براون" ومع ذلك أنا أخشى الروبوتات. 0:00:50.541,0:00:53.281 حقيقةً أنا مُصاب بالذعر، 0:00:53.761,0:00:55.811 لكن هل تلومونني؟ 0:00:55.811,0:00:59.501 ما شاهدته من أفلام مذ كنت طفلاً، 0:00:59.501,0:01:03.011 هي تلك التي تُصوّر هيمنة الذكاء الصناعي 0:01:03.011,0:01:05.811 ومواجهة الإنسان الحتمية لها. 0:01:05.811,0:01:11.041 فيلم "أوديسة الفضاء 2001"،[br]"الفاني"، "المصفوفة"، 0:01:11.800,0:01:16.200 والقصص التي يروونها مرعبة للغاية، 0:01:16.200,0:01:20.918 عصبة شريرة من البشر [br]يفرّون من آلات خارقة الذكاء. 0:01:21.935,0:01:26.795 ذلك يُخيفني، وأيديكم المرفوعة [br]تثبت أنه يخيفكم أنتم أيضاً. 0:01:26.795,0:01:30.235 وأعلم أنه يخيف (إلون ماسك). 0:01:30.825,0:01:35.245 لكن أتعلمون؟ لدينا بعض الوقت[br]قبل أن تنتفض الروبوتات. 0:01:35.245,0:01:38.571 فروبوتات (ب ر 2) التي أعمل معها في مشروعي 0:01:38.571,0:01:41.381 لا يمكنها فتح الباب بعد. 0:01:42.191,0:01:46.707 وحسب اعتقادي، فإن مناقشة موضوع[br]الروبوتات خارقة الذكاء 0:01:46.707,0:01:51.997 يعتبر ابتعاداً عن موضوع أكثر مكراً، 0:01:51.997,0:01:56.217 وهو ما يجري خلال استخدامنا [br]لأنظمة الذكاء الصناعي في البلاد. 0:01:56.917,0:02:00.067 فالآن يوجد أشخاصٌ 0:02:00.067,0:02:04.227 كالأطباء والقضاة والمحاسبين 0:02:04.227,0:02:07.957 الذين يتلقون معلوماتٍ [br]من أنظمة الذكاء الصناعي 0:02:07.957,0:02:12.717 ويُعاملونها كما لو أنها جاءت [br]من مصدر موثوق. 0:02:13.931,0:02:16.901 فتلك الثقة هي ما يزعجني، 0:02:17.141,0:02:20.182 ليس بسبب عدد المرات التي تُخطئ فيها[br]أنظمة الذكاء الصناعي، 0:02:20.182,0:02:24.403 فالباحثون في مجال الذكاء الصناعي[br]يتباهونَ بالنتائج الدقيقة، 0:02:24.869,0:02:27.849 بل مدى فداحة هذه الأخطاء عند ارتكابها 0:02:27.849,0:02:29.779 هي ما يُقلِقني. 0:02:29.779,0:02:33.579 فتلك الأنظمة لا تفشل بشكلٍ آمن. 0:02:34.240,0:02:36.960 دعونا نُلقي نظرةً على هذه الصورة، 0:02:37.120,0:02:42.560 هذا الكلب تم تعريفه بالخطأ على أنه ذئب[br]من قبل خوارزمية ذكاء صناعي. 0:02:43.233,0:02:45.239 أراد الباحثون معرفة السبب، 0:02:45.239,0:02:49.509 لماذا أخطأت بالتعرف على كلب[br]الهاسكي هذا على أنه ذئب؟ 0:02:49.751,0:02:52.721 لذا، قاموا بإعادة تكويد الخوارزمية [br]بغية توضيح 0:02:52.721,0:02:55.651 الأجزاء التي كانت محل اهتمام الخوارزمية 0:02:55.651,0:02:58.501 لحظة اتخاذها القرار. 0:02:59.039,0:03:02.749 في هذه الصورة، [br]ما الأجزاء التي لاحظتها برأيكم؟ 0:03:02.869,0:03:05.099 ماذا ستلاحظون؟ 0:03:05.359,0:03:10.479 ربما العيون، أو الأذنين [br]أو الأنف المدبب .. 0:03:13.041,0:03:16.531 هذا ما لاحظته الخوارزمية، 0:03:16.981,0:03:20.391 إنه الثلج الموجود في خلفية الصورة. 0:03:21.003,0:03:25.853 يوجد خطأ منهجي في البيانات[br]المُدخلة للخوارزمية. 0:03:26.293,0:03:30.373 فمعظم صور الذئاب كانت على الثلج، 0:03:30.573,0:03:34.783 فقد قرنت الخوارزمية وجود الثلج وعدمه 0:03:34.783,0:03:38.373 بوجود الذئب وعدم وجوده. 0:03:39.912,0:03:42.027 والمخيف في الأمر 0:03:42.027,0:03:46.287 هو أن الباحثين لم يعلموا بحدوثه أصلاً 0:03:46.287,0:03:50.107 إلى أن أعادوا تكويد الخوارزمية [br]لتوضيح السبب. 0:03:50.836,0:03:55.326 وهذا هو الحال مع خوارزميات الذكاء الصناعي[br]والتعلّم العميق وتعلّم الآلة. 0:03:55.326,0:03:59.346 إذ أن حتى المطورين الذي يعملون عليها 0:03:59.346,0:04:02.396 لا يملكون أدنى فكرة عما تفعله 0:04:03.001,0:04:07.591 قد يكون هذا مثالاً رائعاً في أحد البحوث، 0:04:07.591,0:04:10.281 لكن ماذا يعني ذلك في الحياة العملية؟ 0:04:10.611,0:04:15.841 تُستخدم خوارزمية نظام "كومبس" [br]للأحكام الجنائية في 13 ولاية 0:04:15.841,0:04:17.991 لتحديد احتمالية تكرار الجريمة 0:04:17.991,0:04:22.471 أو احتمالية ارتكابك لجريمة[br]فور إطلاق سراحك. 0:04:23.199,0:04:26.959 لقد وجدت مؤسسة "برو بابليكا" [br]أنك لو كنت من أصول إفريقية، 0:04:26.959,0:04:32.023 فإن نظام "كومبس" سوف يرى[br]احتمالية ارتكابك للعنف بنسبة 77% 0:04:32.023,0:04:34.123 مما لو كنت قوقازياً. 0:04:34.784,0:04:39.404 إنه نظام موجود في عالمنا هذا، [br]يُستخدم من قبل قضاة حقيقيين 0:04:39.404,0:04:42.434 لإطلاق أحكام تتعلق بحياة أُناس حقيقيين. 0:04:44.115,0:04:48.815 لماذا يثق القضاة بنظامٍ[br]يُظهر أخطاءً منهجية؟ 0:04:49.866,0:04:55.176 إن السبب وراء استخدامهم لنظام "كومبس"[br]هو أنه نموذج لتحقيق الكفاءة. 0:04:55.622,0:05:00.072 يخوّلهم نظام "كومبس" بالتعامل السريع[br]مع مئات القضايا 0:05:00.072,0:05:02.992 المتراكمة في النظام القضائي الجنائي. 0:05:04.877,0:05:07.297 لمَ قد يُشكّكون بنظامهم الخاص؟ 0:05:07.297,0:05:10.957 لقد كَثُر الطلب عليها في مؤسسات الدولة[br]واعتمدتهُ إدارة شؤون الموظفين. 0:05:10.957,0:05:13.357 لماذا يُشكّكون به؟ 0:05:13.357,0:05:16.513 حسناً، لقد شكّك بأدائه [br]الأشخاص المحكوم عليهم بنظام "كومبس"، 0:05:16.513,0:05:18.853 وسوف تُفاجئنا قضاياهم جميعاً. 0:05:19.243,0:05:22.123 لقد قضت محكمة "ويسكنسون" العليا 0:05:22.123,0:05:25.643 بأن نظام "كومبس" لا يُنكر حق المتهم[br]بمحاكمة عادلة ومشروعة 0:05:25.643,0:05:28.433 شريطة أن يُستخدم "بالشكل المناسب". 0:05:28.963,0:05:30.688 ومن بين القوانين التي أقرتها أيضاً، 0:05:30.688,0:05:34.758 أنه لا يحق للمُتهم الاطلاع[br]على الشفرة المصدرية لنظام "كومبس". 0:05:35.700,0:05:39.990 يجب أن يُستخدم بشكل مناسب[br]لكن لا يمكنك الاطلاع على الشفرة المصدرية. 0:05:40.425,0:05:43.425 هذه قوانين مُقلقة عند مواجهتها 0:05:43.425,0:05:46.175 من قبل شخص يواجه أحكاماً جنائية. 0:05:46.625,0:05:50.705 قد لا تكترثون بذلك لأن أحداً منكم لا يواجه[br]أحكاماً جنائية، 0:05:51.056,0:05:55.056 لكن ماذا لو أخبرتكم أن خوازميات[br]الذكاء الصناعي، بالغة السرية، هذه 0:05:55.056,0:05:59.376 تُستخدم لتحديد فيما إذا كنت مُستحقاً[br]للحصول على قرض لمنزلك أو لا، 0:06:00.144,0:06:02.844 أو حصولك على مقابلة عمل، 0:06:03.364,0:06:05.863 أو الرعاية الصحية، 0:06:05.954,0:06:10.434 وحتى فيما يخصّ قيادة العربات والشاحنات [br]على الطريق السريع، 0:06:10.831,0:06:14.531 ألا تريدون للعامة من الناس[br]أن يطّلعوا على الخوارزمية 0:06:14.531,0:06:17.239 التي تحاول التمييز بين سلة التسوق 0:06:17.239,0:06:20.899 وبين عربة الطفل [br]في سيارة ذاتية التحكم، 0:06:20.899,0:06:23.679 بنفس الطريقة التي تحاول بها[br]الخوارزمية التمييز 0:06:23.679,0:06:26.069 بين كلب وذئب؟ 0:06:26.282,0:06:31.462 هل أنتم بمثابة الكلب، بالمعنى المجازي،[br]الذي تم تعريفه بالخطأ على أنه ذئب 0:06:31.462,0:06:34.262 من قبل خوازمية ذكاء صناعي كتبها أحدهم؟ 0:06:34.868,0:06:38.718 بالنظر إلى التعقيد الذي يلف الناس،[br]هذا ممكن. 0:06:38.811,0:06:42.031 هل يوجد ما يمكننا فعله الآن؟ 0:06:42.031,0:06:46.841 على الأرجح لا، وهذا ما يجب التركيز عليه. 0:06:47.487,0:06:50.567 علينا وضع معايير للمُساءلة 0:06:50.567,0:06:55.397 والشفافية والطعن بأنظمة الذكاء الصناعي. 0:06:56.456,0:07:01.034 لقد شكلت منظمة توحيد المقاييس الدولية[br]لجنةً لتوها، 0:07:01.034,0:07:04.504 بشأن القرارات حول ما يمكن فعله [br]بخصوص معايير الذكاء الصنعي. 0:07:04.923,0:07:08.739 لدينا خمس سنوات قبل أن يخرجوا علينا[br]بمعايير تخص هذا الشأن. 0:07:08.989,0:07:12.479 لكن هذه الأنظمة هي قيد الاستخدام الآن، 0:07:13.671,0:07:19.361 ليس فقط بما يخص القروض، لكن أيضاً[br]بما يخص الشاحنات كما أسلفت سابقاً. 0:07:20.841,0:07:25.273 وتُستخدم في أمور مثل أنظمة مراقبة[br]الرحلات البحرية ذات التوجيه الذاتي. 0:07:25.273,0:07:27.973 ومن المضحك تسميتها "بأنظمة مراقبة بحرية" 0:07:27.973,0:07:32.703 لأن خاصية المراقبة المستخدمة[br]في الملاحة البحرية هي من طراز (PID)، 0:07:32.703,0:07:38.323 التي استُخدِمت لمدة 30 سنة في المصانع[br]الكيميائية قبل استخدامها في السيارة. 0:07:39.139,0:07:41.138 ونظام المراقبة المُستخدم 0:07:41.138,0:07:44.628 في السيارات ذاتية القيادة والتعلّم الآلي، 0:07:44.628,0:07:48.878 استخدِم فقط لأغراض بحثية منذ العام 2007. 0:07:49.680,0:07:52.230 تلك تقنيات جديدة، 0:07:52.470,0:07:56.430 علينا المطالبة بالمعايير[br]والمطالبة بقوانين ناظمة 0:07:56.430,0:08:00.340 حتى لا نُخدع بادعاءات السلامة الزائفة. 0:08:00.819,0:08:05.059 وعلينا التشكيك بها بعض الشيء. 0:08:05.861,0:08:07.871 إن تجارب برنامج "أوثورتي" 0:08:07.871,0:08:11.121 التي قام بها (ستانلي ميلغرام) [br]بعد الحرب العالمية الثانية، 0:08:11.121,0:08:16.031 أظهرت أن الشخص العادي [br]سوف يُنفّذ أوامر رجل السلطة 0:08:16.031,0:08:19.741 حتى لو كان على حساب أذية مواطن آخر. 0:08:20.461,0:08:22.850 في هذه التجربة، 0:08:22.850,0:08:27.130 يقوم مواطنون أمريكيون بصعق رجل ممثل، 0:08:27.689,0:08:31.269 متجاهلين كونه يشتكي من هذا الموقف 0:08:31.577,0:08:35.427 ومتجاهلين صراخه تحت تأثير الألم 0:08:35.934,0:08:40.894 ومتجاهلين لحظة صمته وتمثيله الموت، 0:08:41.613,0:08:44.099 كل ذلك لأن شخصاً، 0:08:44.099,0:08:47.969 بدون أوراق اعتماد ويرتدي معطفًا أبيضًا، 0:08:47.969,0:08:50.795 كان يقول ما يشبه عبارة: 0:08:50.795,0:08:54.475 "التجربة يجب أن تستمر". 0:08:56.945,0:09:02.398 وفي الذكاء الصناعي، لدينا رجل سلطة [br]مشابه لتجربة (ميلغرام). 0:09:03.656,0:09:08.366 لدينا نظام لا يبدي أية مشاعر، 0:09:09.370,0:09:12.640 لا يعود عن قراراته، 0:09:12.920,0:09:14.902 ولا ملاذ من قراراته 0:09:15.074,0:09:20.454 التي تنص على أن النظام[br]أو العملية يجب أن تستمر. 0:09:23.313,0:09:25.883 سوف أخبركم الآن بقصة قصيرة. 0:09:25.883,0:09:29.723 تدور حول رحلة بالسيارة قمت بها في الريف. 0:09:30.790,0:09:34.690 كنت أقترب من مدينة "سالت ليك"[br]وبدأ المطر ينهمر. 0:09:35.211,0:09:39.900 وكلما صعدت أكثر نحو الجبل،[br]أخذ المطر يتحول إلى ثلوج، 0:09:40.380,0:09:42.580 وسرعان ما تحول الثلج إلى عاصفة ثلجية، 0:09:42.580,0:09:45.720 لم أستطع رؤية المصابيح الخلفية [br]للسيارة المقابلة لي، 0:09:46.153,0:09:48.023 وبدأت السيارة بالانزلاق. 0:09:48.023,0:09:51.033 انحرفت بدرجة 360 بهذا الاتجاه[br]و360 بالاتجاه الآخر. 0:09:51.033,0:09:52.773 انحرفت عن مسار الطريق. 0:09:52.773,0:09:54.953 كانت النوافذ مغطاة بالوحل[br]ولم أبصر شيئاً. 0:09:54.953,0:09:59.103 كنت مذعوراً من أن سيارة ما [br]قد ترتطم بي وتتحطم. 0:09:59.924,0:10:03.864 أخبرتكم بهذه القصة كي أدفعكم على التفكير 0:10:03.864,0:10:07.324 كيف أن أمراً صغيراً، ويبدو عادياً 0:10:07.324,0:10:10.094 كانهمار المطر، 0:10:10.094,0:10:14.584 قد يتطور بسهولة ليبصح موقفاً خطيراً. 0:10:15.409,0:10:19.789 نحن نقود السيارات المزودة [br]بتقنية الذكاء الصناعي الآن، 0:10:20.442,0:10:23.402 وهذا المطر سوف يتحول إلى ثلج، 0:10:23.887,0:10:27.457 وقد يتحول الثلج إلى عاصفة ثلجية عنيفة. 0:10:28.097,0:10:30.347 علينا التوقف قليلاً 0:10:30.537,0:10:32.857 لنتفحص الظروف 0:10:33.002,0:10:35.502 وأن نضع معايير السلامة في مكانها الصحيح، 0:10:35.642,0:10:41.232 ونسأل أنفسنا، إلى أي مدى نريد أن نمضي، 0:10:42.267,0:10:46.437 لأن الدوافع الاقتصادية المشجعة[br]للذكاء الصناعي والأتمتة 0:10:46.437,0:10:48.363 لاستبدال العمالة البشرية، 0:10:48.363,0:10:53.313 ستكون أكثر حماساً مما كانت عليه[br]منذ الثورة الصناعية. 0:10:54.043,0:10:58.040 فلن تكون رواتب البشر أقل كلفةً 0:10:58.040,0:11:01.650 من تكلفة فواتير الكهرباء العادية. 0:11:02.480,0:11:07.915 سوف تحلّ أنظمة الذكاء الصناعي والروبوتات [br]محلّ طهاة البطاطس والوجبات السريعة 0:11:07.915,0:11:10.415 وأخصائيو الأشعة في المشافي. 0:11:11.135,0:11:14.330 يوماً ما، سوف يُشخص السرطان [br]بأنظمة الذكاء الصنعي، 0:11:14.330,0:11:17.430 وسيقوم أحد الروبوتات[br]بإجراء العمليات الجراحية. 0:11:17.960,0:11:22.420 وحده الحس التشكيكي السليم بهذه الأنظمة، 0:11:22.420,0:11:25.981 سوف يحول دون استبعاد البشر من اللعبة. 0:11:26.291,0:11:31.473 وأنا على ثقة أننا إن استطعنا[br]إبقاء البشر في اللعبة، 0:11:31.473,0:11:36.393 وإن تمكنّا من تطوير أنظمة ذكاء صناعي[br]تتحلّى بالشفافية كمثال الكلب والذئب 0:11:36.393,0:11:39.658 حيث أظهرالذكاء الصناعي[br]طريقة تعامله معنا، 0:11:39.658,0:11:42.588 وتمكنّا من ملاحظة الخلل، 0:11:42.588,0:11:47.028 نستطيع عندها، خلق فرص عمل جديدة[br]بالتعاون من أنظمة الذكاء الصناعي. 0:11:48.573,0:11:51.043 إن عملنا سوياً مع الذكاء الصناعي، 0:11:51.043,0:11:55.563 قد نتمكن من حل [br]بعض أكبر التحديات التي نواجهها. 0:11:56.764,0:12:01.354 وكي نحقق ذلك، علينا أن نقود [br]لا أن نتبع. 0:12:01.801,0:12:05.491 علينا أن نختار[br]ألا نكون شبيهين بالروبوتات، 0:12:05.491,0:12:10.131 وتطوير روبوتات تكون أقرب من البشر، 0:12:11.020,0:12:13.350 لأنه في نهاية المطاف، 0:12:13.350,0:12:18.160 ما علينا خشيته ليست الروبوتات القاتلة، 0:12:18.700,0:12:21.641 بل تكاسلنا الذهني. 0:12:22.215,0:12:26.655 الشيء الوحيد الذي يجب أن نخشاه [br]هو أنفسنا. 0:12:26.989,0:12:28.441 شكراً لكم. 0:12:28.441,0:12:29.831 (تصفيق)