ارتقاء الآلات! من هنا يخشى الروبوتات القاتلة؟ (ضحك) أنا! اعتدتُ العملَ في مجال المركبات الجوية غير المأهولة وكلّ ما شغل تفكيري عند رؤيتي لتلك الأشياء أنه يوماً ما سيقوم أحدهم بتزويد تلك الآلات بسلاح، وسوف تطاردني على شكل أسراب. أعملُ في مجال علم الروبوت في جامعة "براون" ومع ذلك أنا أخشى الروبوتات. حقيقةً أنا مُصاب بالذعر، لكن هل تلومونني؟ ما شاهدته من أفلام مذ كنت طفلاً، هي تلك التي تُصوّر هيمنة الذكاء الصناعي ومواجهة الإنسان الحتمية لها. فيلم "أوديسة الفضاء 2001"، "الفاني"، "المصفوفة"، والقصص التي يروونها مرعبة للغاية، عصبة شريرة من البشر يفرّون من آلات خارقة الذكاء. ذلك يُخيفني، وأيديكم المرفوعة تثبت أنه يخيفكم أنتم أيضاً. وأعلم أنه يخيف (إلون ماسك). لكن أتعلمون؟ لدينا بعض الوقت قبل أن تنتفض الروبوتات. فروبوتات (ب ر 2) التي أعمل معها في مشروعي لا يمكنها فتح الباب بعد. وحسب اعتقادي، فإن مناقشة موضوع الروبوتات خارقة الذكاء يعتبر ابتعاداً عن موضوع أكثر مكراً، وهو ما يجري خلال استخدامنا لأنظمة الذكاء الصناعي في البلاد. فالآن يوجد أشخاصٌ كالأطباء والقضاة والمحاسبين الذين يتلقون معلوماتٍ من أنظمة الذكاء الصناعي ويُعاملونها كما لو أنها جاءت من مصدر موثوق. فتلك الثقة هي ما يزعجني، ليس بسبب عدد المرات التي تُخطئ فيها أنظمة الذكاء الصناعي، فالباحثون في مجال الذكاء الصناعي يتباهونَ بالنتائج الدقيقة، بل مدى فداحة هذه الأخطاء عند ارتكابها هي ما يُقلِقني. فتلك الأنظمة لا تفشل بشكلٍ آمن. دعونا نُلقي نظرةً على هذه الصورة، هذا الكلب تم تعريفه بالخطأ على أنه ذئب من قبل خوارزمية ذكاء صناعي. أراد الباحثون معرفة السبب، لماذا أخطأت بالتعرف على كلب الهاسكي هذا على أنه ذئب؟ لذا، قاموا بإعادة تكويد الخوارزمية بغية توضيح الأجزاء التي كانت محل اهتمام الخوارزمية لحظة اتخاذها القرار. في هذه الصورة، ما الأجزاء التي لاحظتها برأيكم؟ ماذا ستلاحظون؟ ربما العيون، أو الأذنين أو الأنف المدبب .. هذا ما لاحظته الخوارزمية، إنه الثلج الموجود في خلفية الصورة. يوجد خطأ منهجي في البيانات المُدخلة للخوارزمية. فمعظم صور الذئاب كانت على الثلج، فقد قرنت الخوارزمية وجود الثلج وعدمه بوجود الذئب وعدم وجوده. والمخيف في الأمر هو أن الباحثين لم يعلموا بحدوثه أصلاً إلى أن أعادوا تكويد الخوارزمية لتوضيح السبب. وهذا هو الحال مع خوارزميات الذكاء الصناعي والتعلّم العميق وتعلّم الآلة. إذ أن حتى المطورين الذي يعملون عليها لا يملكون أدنى فكرة عما تفعله قد يكون هذا مثالاً رائعاً في أحد البحوث، لكن ماذا يعني ذلك في الحياة العملية؟ تُستخدم خوارزمية نظام "كومبس" للأحكام الجنائية في 13 ولاية لتحديد احتمالية تكرار الجريمة أو احتمالية ارتكابك لجريمة فور إطلاق سراحك. لقد وجدت مؤسسة "برو بابليكا" أنك لو كنت من أصول إفريقية، فإن نظام "كومبس" سوف يرى احتمالية ارتكابك للعنف بنسبة 77% مما لو كنت قوقازياً. إنه نظام موجود في عالمنا هذا، يُستخدم من قبل قضاة حقيقيين لإطلاق أحكام تتعلق بحياة أُناس حقيقيين. لماذا يثق القضاة بنظامٍ يُظهر أخطاءً منهجية؟ إن السبب وراء استخدامهم لنظام "كومبس" هو أنه نموذج لتحقيق الكفاءة. يخوّلهم نظام "كومبس" بالتعامل السريع مع مئات القضايا المتراكمة في النظام القضائي الجنائي. لمَ قد يُشكّكون بنظامهم الخاص؟ لقد كَثُر الطلب عليها في مؤسسات الدولة واعتمدتهُ إدارة شؤون الموظفين. لماذا يُشكّكون به؟ حسناً، لقد شكّك بأدائه الأشخاص المحكوم عليهم بنظام "كومبس"، وسوف تُفاجئنا قضاياهم جميعاً. لقد قضت محكمة "ويسكنسون" العليا بأن نظام "كومبس" لا يُنكر حق المتهم بمحاكمة عادلة ومشروعة شريطة أن يُستخدم "بالشكل المناسب". ومن بين القوانين التي أقرتها أيضاً، أنه لا يحق للمُتهم الاطلاع على الشفرة المصدرية لنظام "كومبس". يجب أن يُستخدم بشكل مناسب لكن لا يمكنك الاطلاع على الشفرة المصدرية. هذه قوانين مُقلقة عند مواجهتها من قبل شخص يواجه أحكاماً جنائية. قد لا تكترثون بذلك لأن أحداً منكم لا يواجه أحكاماً جنائية، لكن ماذا لو أخبرتكم أن خوازميات الذكاء الصناعي، بالغة السرية، هذه تُستخدم لتحديد فيما إذا كنت مُستحقاً للحصول على قرض لمنزلك أو لا، أو حصولك على مقابلة عمل، أو الرعاية الصحية، وحتى فيما يخصّ قيادة العربات والشاحنات على الطريق السريع، ألا تريدون للعامة من الناس أن يطّلعوا على الخوارزمية التي تحاول التمييز بين سلة التسوق وبين عربة الطفل في سيارة ذاتية التحكم، بنفس الطريقة التي تحاول بها الخوارزمية التمييز بين كلب وذئب؟ هل أنتم بمثابة الكلب، بالمعنى المجازي، الذي تم تعريفه بالخطأ على أنه ذئب من قبل خوازمية ذكاء صناعي كتبها أحدهم؟ بالنظر إلى التعقيد الذي يلف الناس، هذا ممكن. هل يوجد ما يمكننا فعله الآن؟ على الأرجح لا، وهذا ما يجب التركيز عليه. علينا وضع معايير للمُساءلة والشفافية والطعن بأنظمة الذكاء الصناعي. لقد شكلت منظمة توحيد المقاييس الدولية لجنةً لتوها، بشأن القرارات حول ما يمكن فعله بخصوص معايير الذكاء الصنعي. لدينا خمس سنوات قبل أن يخرجوا علينا بمعايير تخص هذا الشأن. لكن هذه الأنظمة هي قيد الاستخدام الآن، ليس فقط بما يخص القروض، لكن أيضاً بما يخص الشاحنات كما أسلفت سابقاً. وتُستخدم في أمور مثل أنظمة مراقبة الرحلات البحرية ذات التوجيه الذاتي. ومن المضحك تسميتها "بأنظمة مراقبة بحرية" لأن خاصية المراقبة المستخدمة في الملاحة البحرية هي من طراز (PID)، التي استُخدِمت لمدة 30 سنة في المصانع الكيميائية قبل استخدامها في السيارة. ونظام المراقبة المُستخدم في السيارات ذاتية القيادة والتعلّم الآلي، استخدِم فقط لأغراض بحثية منذ العام 2007. تلك تقنيات جديدة، علينا المطالبة بالمعايير والمطالبة بقوانين ناظمة حتى لا نُخدع بادعاءات السلامة الزائفة. وعلينا التشكيك بها بعض الشيء. إن تجارب برنامج "أوثورتي" التي قام بها (ستانلي ميلغرام) بعد الحرب العالمية الثانية، أظهرت أن الشخص العادي سوف يُنفّذ أوامر رجل السلطة حتى لو كان على حساب أذية مواطن آخر. في هذه التجربة، يقوم مواطنون أمريكيون بصعق رجل ممثل، متجاهلين كونه يشتكي من هذا الموقف ومتجاهلين صراخه تحت تأثير الألم ومتجاهلين لحظة صمته وتمثيله الموت، كل ذلك لأن شخصاً، بدون أوراق اعتماد ويرتدي معطفًا أبيضًا، كان يقول ما يشبه عبارة: "التجربة يجب أن تستمر". وفي الذكاء الصناعي، لدينا رجل سلطة مشابه لتجربة (ميلغرام). لدينا نظام لا يبدي أية مشاعر، لا يعود عن قراراته، ولا ملاذ من قراراته التي تنص على أن النظام أو العملية يجب أن تستمر. سوف أخبركم الآن بقصة قصيرة. تدور حول رحلة بالسيارة قمت بها في الريف. كنت أقترب من مدينة "سالت ليك" وبدأ المطر ينهمر. وكلما صعدت أكثر نحو الجبل، أخذ المطر يتحول إلى ثلوج، وسرعان ما تحول الثلج إلى عاصفة ثلجية، لم أستطع رؤية المصابيح الخلفية للسيارة المقابلة لي، وبدأت السيارة بالانزلاق. انحرفت بدرجة 360 بهذا الاتجاه و360 بالاتجاه الآخر. انحرفت عن مسار الطريق. كانت النوافذ مغطاة بالوحل ولم أبصر شيئاً. كنت مذعوراً من أن سيارة ما قد ترتطم بي وتتحطم. أخبرتكم بهذه القصة كي أدفعكم على التفكير كيف أن أمراً صغيراً، ويبدو عادياً كانهمار المطر، قد يتطور بسهولة ليبصح موقفاً خطيراً. نحن نقود السيارات المزودة بتقنية الذكاء الصناعي الآن، وهذا المطر سوف يتحول إلى ثلج، وقد يتحول الثلج إلى عاصفة ثلجية عنيفة. علينا التوقف قليلاً لنتفحص الظروف وأن نضع معايير السلامة في مكانها الصحيح، ونسأل أنفسنا، إلى أي مدى نريد أن نمضي، لأن الدوافع الاقتصادية المشجعة للذكاء الصناعي والأتمتة لاستبدال العمالة البشرية، ستكون أكثر حماساً مما كانت عليه منذ الثورة الصناعية. فلن تكون رواتب البشر أقل كلفةً من تكلفة فواتير الكهرباء العادية. سوف تحلّ أنظمة الذكاء الصناعي والروبوتات محلّ طهاة البطاطس والوجبات السريعة وأخصائيو الأشعة في المشافي. يوماً ما، سوف يُشخص السرطان بأنظمة الذكاء الصنعي، وسيقوم أحد الروبوتات بإجراء العمليات الجراحية. وحده الحس التشكيكي السليم بهذه الأنظمة، سوف يحول دون استبعاد البشر من اللعبة. وأنا على ثقة أننا إن استطعنا إبقاء البشر في اللعبة، وإن تمكنّا من تطوير أنظمة ذكاء صناعي تتحلّى بالشفافية كمثال الكلب والذئب حيث أظهرالذكاء الصناعي طريقة تعامله معنا، وتمكنّا من ملاحظة الخلل، نستطيع عندها، خلق فرص عمل جديدة بالتعاون من أنظمة الذكاء الصناعي. إن عملنا سوياً مع الذكاء الصناعي، قد نتمكن من حل بعض أكبر التحديات التي نواجهها. وكي نحقق ذلك، علينا أن نقود لا أن نتبع. علينا أن نختار ألا نكون شبيهين بالروبوتات، وتطوير روبوتات تكون أقرب من البشر، لأنه في نهاية المطاف، ما علينا خشيته ليست الروبوتات القاتلة، بل تكاسلنا الذهني. الشيء الوحيد الذي يجب أن نخشاه هو أنفسنا. شكراً لكم. (تصفيق)