1 00:00:13,298 --> 00:00:17,148 ارتقاء الآلات! 2 00:00:17,928 --> 00:00:22,748 من هنا يخشى الروبوتات القاتلة؟ 3 00:00:23,140 --> 00:00:25,250 (ضحك) 4 00:00:25,612 --> 00:00:27,212 أنا! 5 00:00:28,226 --> 00:00:31,896 اعتدتُ العملَ في مجال المركبات الجوية غير المأهولة 6 00:00:31,896 --> 00:00:36,736 وكلّ ما شغل تفكيري عند رؤيتي لتلك الأشياء أنه يوماً ما 7 00:00:37,133 --> 00:00:40,903 سيقوم أحدهم بتزويد تلك الآلات بسلاح، 8 00:00:40,903 --> 00:00:43,853 وسوف تطاردني على شكل أسراب. 9 00:00:44,688 --> 00:00:49,848 أعملُ في مجال علم الروبوت في جامعة "براون" ومع ذلك أنا أخشى الروبوتات. 10 00:00:50,541 --> 00:00:53,281 حقيقةً أنا مُصاب بالذعر، 11 00:00:53,761 --> 00:00:55,811 لكن هل تلومونني؟ 12 00:00:55,811 --> 00:00:59,501 ما شاهدته من أفلام مذ كنت طفلاً، 13 00:00:59,501 --> 00:01:03,011 هي تلك التي تُصوّر هيمنة الذكاء الصناعي 14 00:01:03,011 --> 00:01:05,811 ومواجهة الإنسان الحتمية لها. 15 00:01:05,811 --> 00:01:11,041 فيلم "أوديسة الفضاء 2001"، "الفاني"، "المصفوفة"، 16 00:01:11,800 --> 00:01:16,200 والقصص التي يروونها مرعبة للغاية، 17 00:01:16,200 --> 00:01:20,918 عصبة شريرة من البشر يفرّون من آلات خارقة الذكاء. 18 00:01:21,935 --> 00:01:26,795 ذلك يُخيفني، وأيديكم المرفوعة تثبت أنه يخيفكم أنتم أيضاً. 19 00:01:26,795 --> 00:01:30,235 وأعلم أنه يخيف (إلون ماسك). 20 00:01:30,825 --> 00:01:35,245 لكن أتعلمون؟ لدينا بعض الوقت قبل أن تنتفض الروبوتات. 21 00:01:35,245 --> 00:01:38,571 فروبوتات (ب ر 2) التي أعمل معها في مشروعي 22 00:01:38,571 --> 00:01:41,381 لا يمكنها فتح الباب بعد. 23 00:01:42,191 --> 00:01:46,707 وحسب اعتقادي، فإن مناقشة موضوع الروبوتات خارقة الذكاء 24 00:01:46,707 --> 00:01:51,997 يعتبر ابتعاداً عن موضوع أكثر مكراً، 25 00:01:51,997 --> 00:01:56,217 وهو ما يجري خلال استخدامنا لأنظمة الذكاء الصناعي في البلاد. 26 00:01:56,917 --> 00:02:00,067 فالآن يوجد أشخاصٌ 27 00:02:00,067 --> 00:02:04,227 كالأطباء والقضاة والمحاسبين 28 00:02:04,227 --> 00:02:07,957 الذين يتلقون معلوماتٍ من أنظمة الذكاء الصناعي 29 00:02:07,957 --> 00:02:12,717 ويُعاملونها كما لو أنها جاءت من مصدر موثوق. 30 00:02:13,931 --> 00:02:16,901 فتلك الثقة هي ما يزعجني، 31 00:02:17,141 --> 00:02:20,182 ليس بسبب عدد المرات التي تُخطئ فيها أنظمة الذكاء الصناعي، 32 00:02:20,182 --> 00:02:24,403 فالباحثون في مجال الذكاء الصناعي يتباهونَ بالنتائج الدقيقة، 33 00:02:24,869 --> 00:02:27,849 بل مدى فداحة هذه الأخطاء عند ارتكابها 34 00:02:27,849 --> 00:02:29,779 هي ما يُقلِقني. 35 00:02:29,779 --> 00:02:33,579 فتلك الأنظمة لا تفشل بشكلٍ آمن. 36 00:02:34,240 --> 00:02:36,960 دعونا نُلقي نظرةً على هذه الصورة، 37 00:02:37,120 --> 00:02:42,560 هذا الكلب تم تعريفه بالخطأ على أنه ذئب من قبل خوارزمية ذكاء صناعي. 38 00:02:43,233 --> 00:02:45,239 أراد الباحثون معرفة السبب، 39 00:02:45,239 --> 00:02:49,509 لماذا أخطأت بالتعرف على كلب الهاسكي هذا على أنه ذئب؟ 40 00:02:49,751 --> 00:02:52,721 لذا، قاموا بإعادة تكويد الخوارزمية بغية توضيح 41 00:02:52,721 --> 00:02:55,651 الأجزاء التي كانت محل اهتمام الخوارزمية 42 00:02:55,651 --> 00:02:58,501 لحظة اتخاذها القرار. 43 00:02:59,039 --> 00:03:02,749 في هذه الصورة، ما الأجزاء التي لاحظتها برأيكم؟ 44 00:03:02,869 --> 00:03:05,099 ماذا ستلاحظون؟ 45 00:03:05,359 --> 00:03:10,479 ربما العيون، أو الأذنين أو الأنف المدبب .. 46 00:03:13,041 --> 00:03:16,531 هذا ما لاحظته الخوارزمية، 47 00:03:16,981 --> 00:03:20,391 إنه الثلج الموجود في خلفية الصورة. 48 00:03:21,003 --> 00:03:25,853 يوجد خطأ منهجي في البيانات المُدخلة للخوارزمية. 49 00:03:26,293 --> 00:03:30,373 فمعظم صور الذئاب كانت على الثلج، 50 00:03:30,573 --> 00:03:34,783 فقد قرنت الخوارزمية وجود الثلج وعدمه 51 00:03:34,783 --> 00:03:38,373 بوجود الذئب وعدم وجوده. 52 00:03:39,912 --> 00:03:42,027 والمخيف في الأمر 53 00:03:42,027 --> 00:03:46,287 هو أن الباحثين لم يعلموا بحدوثه أصلاً 54 00:03:46,287 --> 00:03:50,107 إلى أن أعادوا تكويد الخوارزمية لتوضيح السبب. 55 00:03:50,836 --> 00:03:55,326 وهذا هو الحال مع خوارزميات الذكاء الصناعي والتعلّم العميق وتعلّم الآلة. 56 00:03:55,326 --> 00:03:59,346 إذ أن حتى المطورين الذي يعملون عليها 57 00:03:59,346 --> 00:04:02,396 لا يملكون أدنى فكرة عما تفعله 58 00:04:03,001 --> 00:04:07,591 قد يكون هذا مثالاً رائعاً في أحد البحوث، 59 00:04:07,591 --> 00:04:10,281 لكن ماذا يعني ذلك في الحياة العملية؟ 60 00:04:10,611 --> 00:04:15,841 تُستخدم خوارزمية نظام "كومبس" للأحكام الجنائية في 13 ولاية 61 00:04:15,841 --> 00:04:17,991 لتحديد احتمالية تكرار الجريمة 62 00:04:17,991 --> 00:04:22,471 أو احتمالية ارتكابك لجريمة فور إطلاق سراحك. 63 00:04:23,199 --> 00:04:26,959 لقد وجدت مؤسسة "برو بابليكا" أنك لو كنت من أصول إفريقية، 64 00:04:26,959 --> 00:04:32,023 فإن نظام "كومبس" سوف يرى احتمالية ارتكابك للعنف بنسبة 77% 65 00:04:32,023 --> 00:04:34,123 مما لو كنت قوقازياً. 66 00:04:34,784 --> 00:04:39,404 إنه نظام موجود في عالمنا هذا، يُستخدم من قبل قضاة حقيقيين 67 00:04:39,404 --> 00:04:42,434 لإطلاق أحكام تتعلق بحياة أُناس حقيقيين. 68 00:04:44,115 --> 00:04:48,815 لماذا يثق القضاة بنظامٍ يُظهر أخطاءً منهجية؟ 69 00:04:49,866 --> 00:04:55,176 إن السبب وراء استخدامهم لنظام "كومبس" هو أنه نموذج لتحقيق الكفاءة. 70 00:04:55,622 --> 00:05:00,072 يخوّلهم نظام "كومبس" بالتعامل السريع مع مئات القضايا 71 00:05:00,072 --> 00:05:02,992 المتراكمة في النظام القضائي الجنائي. 72 00:05:04,877 --> 00:05:07,297 لمَ قد يُشكّكون بنظامهم الخاص؟ 73 00:05:07,297 --> 00:05:10,957 لقد كَثُر الطلب عليها في مؤسسات الدولة واعتمدتهُ إدارة شؤون الموظفين. 74 00:05:10,957 --> 00:05:13,357 لماذا يُشكّكون به؟ 75 00:05:13,357 --> 00:05:16,513 حسناً، لقد شكّك بأدائه الأشخاص المحكوم عليهم بنظام "كومبس"، 76 00:05:16,513 --> 00:05:18,853 وسوف تُفاجئنا قضاياهم جميعاً. 77 00:05:19,243 --> 00:05:22,123 لقد قضت محكمة "ويسكنسون" العليا 78 00:05:22,123 --> 00:05:25,643 بأن نظام "كومبس" لا يُنكر حق المتهم بمحاكمة عادلة ومشروعة 79 00:05:25,643 --> 00:05:28,433 شريطة أن يُستخدم "بالشكل المناسب". 80 00:05:28,963 --> 00:05:30,688 ومن بين القوانين التي أقرتها أيضاً، 81 00:05:30,688 --> 00:05:34,758 أنه لا يحق للمُتهم الاطلاع على الشفرة المصدرية لنظام "كومبس". 82 00:05:35,700 --> 00:05:39,990 يجب أن يُستخدم بشكل مناسب لكن لا يمكنك الاطلاع على الشفرة المصدرية. 83 00:05:40,425 --> 00:05:43,425 هذه قوانين مُقلقة عند مواجهتها 84 00:05:43,425 --> 00:05:46,175 من قبل شخص يواجه أحكاماً جنائية. 85 00:05:46,625 --> 00:05:50,705 قد لا تكترثون بذلك لأن أحداً منكم لا يواجه أحكاماً جنائية، 86 00:05:51,056 --> 00:05:55,056 لكن ماذا لو أخبرتكم أن خوازميات الذكاء الصناعي، بالغة السرية، هذه 87 00:05:55,056 --> 00:05:59,376 تُستخدم لتحديد فيما إذا كنت مُستحقاً للحصول على قرض لمنزلك أو لا، 88 00:06:00,144 --> 00:06:02,844 أو حصولك على مقابلة عمل، 89 00:06:03,364 --> 00:06:05,863 أو الرعاية الصحية، 90 00:06:05,954 --> 00:06:10,434 وحتى فيما يخصّ قيادة العربات والشاحنات على الطريق السريع، 91 00:06:10,831 --> 00:06:14,531 ألا تريدون للعامة من الناس أن يطّلعوا على الخوارزمية 92 00:06:14,531 --> 00:06:17,239 التي تحاول التمييز بين سلة التسوق 93 00:06:17,239 --> 00:06:20,899 وبين عربة الطفل في سيارة ذاتية التحكم، 94 00:06:20,899 --> 00:06:23,679 بنفس الطريقة التي تحاول بها الخوارزمية التمييز 95 00:06:23,679 --> 00:06:26,069 بين كلب وذئب؟ 96 00:06:26,282 --> 00:06:31,462 هل أنتم بمثابة الكلب، بالمعنى المجازي، الذي تم تعريفه بالخطأ على أنه ذئب 97 00:06:31,462 --> 00:06:34,262 من قبل خوازمية ذكاء صناعي كتبها أحدهم؟ 98 00:06:34,868 --> 00:06:38,718 بالنظر إلى التعقيد الذي يلف الناس، هذا ممكن. 99 00:06:38,811 --> 00:06:42,031 هل يوجد ما يمكننا فعله الآن؟ 100 00:06:42,031 --> 00:06:46,841 على الأرجح لا، وهذا ما يجب التركيز عليه. 101 00:06:47,487 --> 00:06:50,567 علينا وضع معايير للمُساءلة 102 00:06:50,567 --> 00:06:55,397 والشفافية والطعن بأنظمة الذكاء الصناعي. 103 00:06:56,456 --> 00:07:01,034 لقد شكلت منظمة توحيد المقاييس الدولية لجنةً لتوها، 104 00:07:01,034 --> 00:07:04,504 بشأن القرارات حول ما يمكن فعله بخصوص معايير الذكاء الصنعي. 105 00:07:04,923 --> 00:07:08,739 لدينا خمس سنوات قبل أن يخرجوا علينا بمعايير تخص هذا الشأن. 106 00:07:08,989 --> 00:07:12,479 لكن هذه الأنظمة هي قيد الاستخدام الآن، 107 00:07:13,671 --> 00:07:19,361 ليس فقط بما يخص القروض، لكن أيضاً بما يخص الشاحنات كما أسلفت سابقاً. 108 00:07:20,841 --> 00:07:25,273 وتُستخدم في أمور مثل أنظمة مراقبة الرحلات البحرية ذات التوجيه الذاتي. 109 00:07:25,273 --> 00:07:27,973 ومن المضحك تسميتها "بأنظمة مراقبة بحرية" 110 00:07:27,973 --> 00:07:32,703 لأن خاصية المراقبة المستخدمة في الملاحة البحرية هي من طراز (PID)، 111 00:07:32,703 --> 00:07:38,323 التي استُخدِمت لمدة 30 سنة في المصانع الكيميائية قبل استخدامها في السيارة. 112 00:07:39,139 --> 00:07:41,138 ونظام المراقبة المُستخدم 113 00:07:41,138 --> 00:07:44,628 في السيارات ذاتية القيادة والتعلّم الآلي، 114 00:07:44,628 --> 00:07:48,878 استخدِم فقط لأغراض بحثية منذ العام 2007. 115 00:07:49,680 --> 00:07:52,230 تلك تقنيات جديدة، 116 00:07:52,470 --> 00:07:56,430 علينا المطالبة بالمعايير والمطالبة بقوانين ناظمة 117 00:07:56,430 --> 00:08:00,340 حتى لا نُخدع بادعاءات السلامة الزائفة. 118 00:08:00,819 --> 00:08:05,059 وعلينا التشكيك بها بعض الشيء. 119 00:08:05,861 --> 00:08:07,871 إن تجارب برنامج "أوثورتي" 120 00:08:07,871 --> 00:08:11,121 التي قام بها (ستانلي ميلغرام) بعد الحرب العالمية الثانية، 121 00:08:11,121 --> 00:08:16,031 أظهرت أن الشخص العادي سوف يُنفّذ أوامر رجل السلطة 122 00:08:16,031 --> 00:08:19,741 حتى لو كان على حساب أذية مواطن آخر. 123 00:08:20,461 --> 00:08:22,850 في هذه التجربة، 124 00:08:22,850 --> 00:08:27,130 يقوم مواطنون أمريكيون بصعق رجل ممثل، 125 00:08:27,689 --> 00:08:31,269 متجاهلين كونه يشتكي من هذا الموقف 126 00:08:31,577 --> 00:08:35,427 ومتجاهلين صراخه تحت تأثير الألم 127 00:08:35,934 --> 00:08:40,894 ومتجاهلين لحظة صمته وتمثيله الموت، 128 00:08:41,613 --> 00:08:44,099 كل ذلك لأن شخصاً، 129 00:08:44,099 --> 00:08:47,969 بدون أوراق اعتماد ويرتدي معطفًا أبيضًا، 130 00:08:47,969 --> 00:08:50,795 كان يقول ما يشبه عبارة: 131 00:08:50,795 --> 00:08:54,475 "التجربة يجب أن تستمر". 132 00:08:56,945 --> 00:09:02,398 وفي الذكاء الصناعي، لدينا رجل سلطة مشابه لتجربة (ميلغرام). 133 00:09:03,656 --> 00:09:08,366 لدينا نظام لا يبدي أية مشاعر، 134 00:09:09,370 --> 00:09:12,640 لا يعود عن قراراته، 135 00:09:12,920 --> 00:09:14,902 ولا ملاذ من قراراته 136 00:09:15,074 --> 00:09:20,454 التي تنص على أن النظام أو العملية يجب أن تستمر. 137 00:09:23,313 --> 00:09:25,883 سوف أخبركم الآن بقصة قصيرة. 138 00:09:25,883 --> 00:09:29,723 تدور حول رحلة بالسيارة قمت بها في الريف. 139 00:09:30,790 --> 00:09:34,690 كنت أقترب من مدينة "سالت ليك" وبدأ المطر ينهمر. 140 00:09:35,211 --> 00:09:39,900 وكلما صعدت أكثر نحو الجبل، أخذ المطر يتحول إلى ثلوج، 141 00:09:40,380 --> 00:09:42,580 وسرعان ما تحول الثلج إلى عاصفة ثلجية، 142 00:09:42,580 --> 00:09:45,720 لم أستطع رؤية المصابيح الخلفية للسيارة المقابلة لي، 143 00:09:46,153 --> 00:09:48,023 وبدأت السيارة بالانزلاق. 144 00:09:48,023 --> 00:09:51,033 انحرفت بدرجة 360 بهذا الاتجاه و360 بالاتجاه الآخر. 145 00:09:51,033 --> 00:09:52,773 انحرفت عن مسار الطريق. 146 00:09:52,773 --> 00:09:54,953 كانت النوافذ مغطاة بالوحل ولم أبصر شيئاً. 147 00:09:54,953 --> 00:09:59,103 كنت مذعوراً من أن سيارة ما قد ترتطم بي وتتحطم. 148 00:09:59,924 --> 00:10:03,864 أخبرتكم بهذه القصة كي أدفعكم على التفكير 149 00:10:03,864 --> 00:10:07,324 كيف أن أمراً صغيراً، ويبدو عادياً 150 00:10:07,324 --> 00:10:10,094 كانهمار المطر، 151 00:10:10,094 --> 00:10:14,584 قد يتطور بسهولة ليبصح موقفاً خطيراً. 152 00:10:15,409 --> 00:10:19,789 نحن نقود السيارات المزودة بتقنية الذكاء الصناعي الآن، 153 00:10:20,442 --> 00:10:23,402 وهذا المطر سوف يتحول إلى ثلج، 154 00:10:23,887 --> 00:10:27,457 وقد يتحول الثلج إلى عاصفة ثلجية عنيفة. 155 00:10:28,097 --> 00:10:30,347 علينا التوقف قليلاً 156 00:10:30,537 --> 00:10:32,857 لنتفحص الظروف 157 00:10:33,002 --> 00:10:35,502 وأن نضع معايير السلامة في مكانها الصحيح، 158 00:10:35,642 --> 00:10:41,232 ونسأل أنفسنا، إلى أي مدى نريد أن نمضي، 159 00:10:42,267 --> 00:10:46,437 لأن الدوافع الاقتصادية المشجعة للذكاء الصناعي والأتمتة 160 00:10:46,437 --> 00:10:48,363 لاستبدال العمالة البشرية، 161 00:10:48,363 --> 00:10:53,313 ستكون أكثر حماساً مما كانت عليه منذ الثورة الصناعية. 162 00:10:54,043 --> 00:10:58,040 فلن تكون رواتب البشر أقل كلفةً 163 00:10:58,040 --> 00:11:01,650 من تكلفة فواتير الكهرباء العادية. 164 00:11:02,480 --> 00:11:07,915 سوف تحلّ أنظمة الذكاء الصناعي والروبوتات محلّ طهاة البطاطس والوجبات السريعة 165 00:11:07,915 --> 00:11:10,415 وأخصائيو الأشعة في المشافي. 166 00:11:11,135 --> 00:11:14,330 يوماً ما، سوف يُشخص السرطان بأنظمة الذكاء الصنعي، 167 00:11:14,330 --> 00:11:17,430 وسيقوم أحد الروبوتات بإجراء العمليات الجراحية. 168 00:11:17,960 --> 00:11:22,420 وحده الحس التشكيكي السليم بهذه الأنظمة، 169 00:11:22,420 --> 00:11:25,981 سوف يحول دون استبعاد البشر من اللعبة. 170 00:11:26,291 --> 00:11:31,473 وأنا على ثقة أننا إن استطعنا إبقاء البشر في اللعبة، 171 00:11:31,473 --> 00:11:36,393 وإن تمكنّا من تطوير أنظمة ذكاء صناعي تتحلّى بالشفافية كمثال الكلب والذئب 172 00:11:36,393 --> 00:11:39,658 حيث أظهرالذكاء الصناعي طريقة تعامله معنا، 173 00:11:39,658 --> 00:11:42,588 وتمكنّا من ملاحظة الخلل، 174 00:11:42,588 --> 00:11:47,028 نستطيع عندها، خلق فرص عمل جديدة بالتعاون من أنظمة الذكاء الصناعي. 175 00:11:48,573 --> 00:11:51,043 إن عملنا سوياً مع الذكاء الصناعي، 176 00:11:51,043 --> 00:11:55,563 قد نتمكن من حل بعض أكبر التحديات التي نواجهها. 177 00:11:56,764 --> 00:12:01,354 وكي نحقق ذلك، علينا أن نقود لا أن نتبع. 178 00:12:01,801 --> 00:12:05,491 علينا أن نختار ألا نكون شبيهين بالروبوتات، 179 00:12:05,491 --> 00:12:10,131 وتطوير روبوتات تكون أقرب من البشر، 180 00:12:11,020 --> 00:12:13,350 لأنه في نهاية المطاف، 181 00:12:13,350 --> 00:12:18,160 ما علينا خشيته ليست الروبوتات القاتلة، 182 00:12:18,700 --> 00:12:21,641 بل تكاسلنا الذهني. 183 00:12:22,215 --> 00:12:26,655 الشيء الوحيد الذي يجب أن نخشاه هو أنفسنا. 184 00:12:26,989 --> 00:12:28,441 شكراً لكم. 185 00:12:28,441 --> 00:12:29,831 (تصفيق)