< Return to Video

الذكاء الاصطناعي بحاجة إلينا جميعاً | د. راشيل توماس | TEDxSanFrancisco

  • 0:01 - 0:03
    نحن ممتنون للتعاون مع doc.ai
  • 0:04 - 0:05
    أُجرؤ على أن تعرف
  • 0:06 - 0:07
    مسرح هربست، 9 اكتوبر 2018
  • 0:10 - 0:11
    راشيل توماس
  • 0:11 - 0:14
    حسنا، من هنا متحمس للذكاء الاصطناعي؟
  • 0:15 - 0:17
    من قلق حياله؟
  • 0:17 - 0:19
    حسنا، أري أن هنا مزيج من الآراء
  • 0:19 - 0:21
    لدي الشعورين، وهنالك سبب وجيه.
  • 0:21 - 0:24
    الذكاء الإصطناعي
    هو موضوع معقد ومثير للجدل،
  • 0:25 - 0:27
    ونحن نسمع كل الأراء المتضاربة:
  • 0:27 - 0:31
    "إن الربوتات القاتلة
    سوف تأخذ جميع وظائفنا وتقتلنا. "
  • 0:32 - 0:35
    "الذكاء الإصطناعي سوف يعالج السرطان
    ويوصلنا إلى المثالية."
  • 0:36 - 0:40
    "هذا ليس إلا عبارة عن ضجيج تسويقي
    والذكاء الاصطناعي ليس إلا شعار رنان."
  • 0:40 - 0:42
    هناك نواة للحقيقة
    في كل من هذه التصريحات،
  • 0:42 - 0:45
    ولكن الحقيقة أكثر تعقيداً وغموضاً.
  • 0:45 - 0:48
    إنه من الطبيعي أن تشعر بهذا
    إن لم تكن عبقري رياضيات
  • 0:48 - 0:50
    أو لم تحصل على دكتوراه من استانفورد،
  • 0:50 - 0:53
    وبالتالي لا يمكنك أن تأمل
    في فهم ماذا يحدث،
  • 0:53 - 0:55
    أقل بكثير للمشاركة.
  • 0:55 - 0:58
    أنا هنا لأقول أن هذا خاطئ.
  • 0:58 - 1:02
    ليس فقط أن في إمكان الجميع
    أن يشارك في الذكاء الاصطناعي
  • 1:02 - 1:05
    بل إنه من المهم أن يشترك الجميع.
  • 1:06 - 1:08
    أقول هذا كشخص لم يحالفه الحظ
  • 1:08 - 1:10
    لكي يصبح باحثا في الذكاء الإصطناعي،
  • 1:10 - 1:13
    ونحتاج المزيد من الناس غير محظوظين
    في هذا المجال
  • 1:13 - 1:16
    على حد سواء لمعالجة الأضرار التي تحدث
  • 1:16 - 1:20
    وكذلك للاستفادة الكاملة
    من الفرص الإيجابية.
  • 1:20 - 1:23
    ولكن في البداية،
    ما هو الذكاء الاصطناعي؟
  • 1:23 - 1:26
    الذكاء الإصطناعي يشار إليه
    في أي تقنية تمكن الحاسوب
  • 1:26 - 1:29
    أن يتعامل وكأن لدية درجة من الذكاء،
  • 1:29 - 1:30
    الذكاء الاصطناعي في المنتجات
  • 1:30 - 1:34
    مثل كيفية صور جوجل تنظم مجموعة صورك آلياً.
  • 1:35 - 1:39
    هنا، صور معابد وناطحات سحاب
    وطعام مُجمعة معاً
  • 1:39 - 1:40
    في مجموعات منفصلة.
  • 1:41 - 1:43
    الذكاء الاصطناعي في مترجم سكايب،
  • 1:43 - 1:46
    الذي يمكن أُناس يتكلمون لغات مختلفة
  • 1:46 - 1:47
    أن يتواصلوا معاً.
  • 1:48 - 1:52
    هذان المثالان من نوع معين من
    الذكاء الاصطناعي يعرف ب "التعلم العميق."
  • 1:52 - 1:54
    في العامين الماضيين،
  • 1:54 - 1:57
    حقق التعلم العميق نتائج أفضل من البشر،
  • 1:57 - 2:00
    في المهام التي اعتدنا على اعتقاد
    أن البشر فقط يمكنهم تنفيذها
  • 2:00 - 2:03
    مثل التعرف على الصور وفهم الخطابات.
  • 2:04 - 2:07
    مفهوم خاطئ عن باحثي الذكاء الاصطناعي
  • 2:07 - 2:10
    هو أننا جميعًا نحاول صناعة دماغ بشري
  • 2:10 - 2:13
    أو الحصول على حاسوب لديه وعي بشري.
  • 2:14 - 2:15
    الكثير منا ليسوا كذلك.
  • 2:15 - 2:17
    الكثير منا، وأنا معهم،
  • 2:17 - 2:21
    مهتمون بإيجاد حلول عملية للمشاكل في العالم
  • 2:21 - 2:24
    كتحديد سرطان الرئة
    من خلال الأشعة المقطعية.
  • 2:25 - 2:28
    سأتحدث أكثرعن بعض
    هذه التطبيقات الإيجابية،
  • 2:28 - 2:32
    لكن أولاً أريد احدد ثلاثة جوانب
    للذكاء الاصطناعي تقلقني.
  • 2:33 - 2:38
    الأول هو أن الذكاء الإصطناعي
    يشفر ويزيد من التحيز البشري.
  • 2:38 - 2:43
    كان أداء رؤية الحاسوب أسوأ
    بشكل متكرر على الأشخاص الملونين.
  • 2:43 - 2:47
    بحث في وقت سابق من هذا العام
    من جو بولامويني وتيمنت جبرو
  • 2:47 - 2:52
    تقييم منتجات رؤية الحاسوب
    من آي بي ام و ميكروسوفت وأماكن أخرى،
  • 2:52 - 2:56
    ووجدوا أن هذه المنتجات
    كان أداؤها أسوأ على النساء منها على الرجال
  • 2:56 - 3:00
    أسوأ على الأشخاص ذوي البشرة الداكنة
    مقارنة بالأشخاص ذوي البشرة الفاتحة.
  • 3:00 - 3:01
    على سبيل المثال،
  • 3:01 - 3:03
    برنامج رؤية الحاسوب لشركة IBM
  • 3:03 - 3:08
    كانت دقته 99.7٪
    على الرجال ذوي البشرة الفاتحة
  • 3:08 - 3:13
    ودقته 65٪ فقط
    على النساء ذوات البشرة الداكنة.
  • 3:13 - 3:14
    هذا كلام سخيف.
  • 3:14 - 3:16
    هذا فرق كبير: 34٪.
  • 3:18 - 3:22
    يتم أيضًا ترميز التحيز في اللغة
    في أدوات الترجمة،
  • 3:22 - 3:24
    مثل ترجمة جوجل.
  • 3:24 - 3:27
    إذا أعطيت ترجمة Google
    زوجًا من الجمل الإنجليزية -
  • 3:27 - 3:30
    "هي طبيبة"، "هو ممرض" -
  • 3:30 - 3:31
    ويترجمهم إلى اللغه التركية،
  • 3:31 - 3:34
    الذي له ضمير مفرد محايد جنسايا،
  • 3:34 - 3:35
    ثم العودة إلى اللغة الإنجليزية،
  • 3:35 - 3:38
    يعودون مع الأجناس المقلوبة
    لتناسب الصورة النمطية:
  • 3:38 - 3:40
    "هو طبيب،"
  • 3:40 - 3:42
    "هي ممرضة."
  • 3:43 - 3:45
    وهذا مثال واحد فقط
  • 3:45 - 3:48
    من العديد من التحيزات
    التي تم ترميزها في ترجمة جوجل.
  • 3:51 - 3:53
    المجال الثاني الذي يقلقني
  • 3:53 - 3:57
    هو أن الذكاء الإصطناعي يعمل
    على تعزيز وتحفيز نظريات المؤامرة.
  • 3:58 - 4:03
    يشاهد الأشخاص أكثر من مليار ساعة
    من اليوتيوب يوميًا.
  • 4:03 - 4:04
    هذا في اليوم الواحد.
  • 4:04 - 4:06
    هذا هائل.
  • 4:06 - 4:09
    يرجع جزء من نجاح اليوتيوب
    إلى خوارزمية التوصية الخاصة به.
  • 4:09 - 4:11
    لذلك عندما تشاهد اليوتيوب،
  • 4:11 - 4:13
    هناك شريط جانبي يقول "التالي"
  • 4:13 - 4:16
    ولديه العديد من مقاطع الفيديو
    المحددة بواسطة خوارزمية.
  • 4:16 - 4:20
    تتضمن هذه التوصيات بشكل غير متناسب
  • 4:20 - 4:23
    نظريات المؤامرة والمتفوقون البيض.
  • 4:23 - 4:26
    تم التحقيق في هذه الظاهرة
  • 4:26 - 4:28
    عن طريق صحيفة وول ستريت
    جورنال والجارديان،
  • 4:28 - 4:34
    وقد كتب عنه في نيويورك تايمز.
  • 4:35 - 4:37
    إذن ما الذي يحدث هنا؟
  • 4:37 - 4:39
    هذه ليست مؤامرة شريرة مقصودة،
  • 4:39 - 4:40
    لكن خوارزمية يوتيوب
  • 4:40 - 4:44
    تحاول زيادة الوقت الذي يقضيه
    الأشخاص في مشاهدة يوتيوب
  • 4:44 - 4:46
    لأنهم يكسبون المزيد من المال
    بهذه الطريقة
  • 4:46 - 4:50
    ومشاهدي المؤامرات
    يشاهدون الكثير من اليوتيوب
  • 4:50 - 4:53
    من الأشخاص الذين يثقون
    بمجموعة متنوعة من مصادر الوسائط.
  • 4:53 - 4:54
    (ضحك)
  • 4:55 - 5:00
    الوقت الذي نقضيه على مصادر إعلامية أخرى
    سيىء بالنسبة الحد الأدني لليوتيوب.
  • 5:02 - 5:04
    لذا فإن جوجل، التي تمتلك موقع يوتيوب،
  • 5:04 - 5:06
    يكسب الكثير من المال
  • 5:07 - 5:10
    أثناء ضخ التلوث في بقية المجتمع.
  • 5:10 - 5:13
    في هذه الحالة، هذا التلوث
    في شكل التأثير السياسي والاجتماعي
  • 5:13 - 5:16
    لوجود الكثير من الناس الذين
    يعتقدون نظريات المؤامرة
  • 5:16 - 5:19
    وعدم الثقة في مصادر
    وسائل الإعلام الرئيسية،
  • 5:19 - 5:21
    بالإضافة إلى التحريض على نظريات المؤامرة
  • 5:21 - 5:23
    للخروج بمواد أكثر تطرفًا
  • 5:23 - 5:25
    لأن هذا ما يكافأ.
  • 5:26 - 5:30
    غالبًا ما تبدو المشاكل التي يطرحها
    الذكاء الإصطناعي جديدة جدًا.
  • 5:30 - 5:31
    ولكن في هذه الحالة،
  • 5:31 - 5:33
    هذه مشكلة ما يجب
    القيام بها عندما تستفيد الشركة
  • 5:33 - 5:36
    بينما تعوض تكلفتها أي شيء آخر
  • 5:36 - 5:40
    كان هذا أمر يبحث عنه خبراء
    الاقتصاد والسياسة العامة منذ أمد بعيد،
  • 5:40 - 5:42
    ويمكننا استخدام مساعدتهم هنا.
  • 5:43 - 5:46
    وقبل أن أشرح المجال الثالث،
  • 5:46 - 5:48
    لنبدأ بمشاهدة هذا الفيديو.
  • 5:48 - 5:52
    سترى بعض المستطيلات
    الخضراء والحمراء على اليسار،
  • 5:52 - 5:55
    وهي تحديد رؤوس وجوه الناس
  • 5:55 - 5:59
    على الرغم من أن هذا الفيديو على مسافة
    وأن هناك عدد كبير من الناس.
  • 6:01 - 6:03
    أجد هذا مخيفاً جداً.
  • 6:03 - 6:06
    يمكن للحكومات الاستبدادية
    استخدام الذكاء الاصطناعي
  • 6:06 - 6:07
    للمراقبة.
  • 6:07 - 6:09
    لذا، حاليًا في الصين،
  • 6:09 - 6:11
    مليون شخص ينتمون لأقلية عرقية
  • 6:11 - 6:13
    في معسكرات الاعتقال،
  • 6:13 - 6:16
    والمراقبة ساعدت على ذلك.
  • 6:16 - 6:19
    هذا الفيديو من شركة صينية تدعي "ديب جلينت"
  • 6:19 - 6:20
    عمرها سنتان.
  • 6:20 - 6:24
    استمرت التقنية في التقدم فقط
    منذ ذلك الحين.
  • 6:25 - 6:26
    العام الفائت،
  • 6:27 - 6:31
    كان هناك بحث حول كيفية التعرف
    على المتظاهرين في حشد من الناس
  • 6:31 - 6:35
    حتي إذا كانوا يرتدون قبعات أو أوشحة
    لمحاوله إخفاء هوياتهم.
  • 6:36 - 6:39
    وهذه ليست مجرد مشكلة في الخارج.
  • 6:39 - 6:42
    في الولايات المتحدة
    في وقت سابق من هذا العام،
  • 6:42 - 6:43
    تعلمنا أن بالانتير،
  • 6:43 - 6:46
    وهي شركة تقنية أسسها
    الملياردير ومانح ترامب
  • 6:46 - 6:48
    بيتر ثيل
  • 6:48 - 6:50
    كان بالانتير يستخدم
    نيو أورليانز كسرير اختبار
  • 6:50 - 6:52
    لتقنية الشرطة التنبؤية
  • 6:52 - 6:55
    خلال السنوات الست الفائتة.
  • 6:55 - 6:57
    كان هذا البرنامج سريا للغاية
  • 6:57 - 6:59
    أنه حتى أعضاء مجلس المدينة
    لم يعرفوا ذلك،
  • 6:59 - 7:01
    ناهيك عن الإشراف.
  • 7:02 - 7:07
    تبيع أمازون بالفعل
    برامج التعرف على الوجه للشرطة،
  • 7:07 - 7:11
    وهذا البرنامج قيد الاستخدام
    من قبل الشرطة في أورلاندو وأوريغون
  • 7:11 - 7:13
    على الرغم من أن اتحاد الحريات المدنية
    لديه مخاوف
  • 7:13 - 7:17
    حول التحيز العنصري
    وعدم الدقة في برامج أمازون.
  • 7:18 - 7:20
    أعتقد أن الجمع
  • 7:20 - 7:24
    بين الافتقار التام للمساءلة
    والشفافية أو الرقابة،
  • 7:24 - 7:27
    جنبا إلى جنب مع التحيز العنصري
    في بيانات الشرطة الموجودة
  • 7:27 - 7:30
    التي سيتم استخدامها
    لتدريب هذه الخوارزميات،
  • 7:30 - 7:34
    جنبا إلى جنب مع الفشل المتكرر
    للرؤية الحاسوبية على الأشخاص الملونين
  • 7:34 - 7:36
    يجعل هذا مزيجًا مخيفًا حقًا.
  • 7:38 - 7:39
    لذا جزء من السبب
  • 7:39 - 7:44
    أننا نرى الكثير من التطبيقات المقلقة
    وحتى المخيفة للذكاء الاصطناعي
  • 7:44 - 7:48
    هو بسبب مدى ضيق مجموعة قليلة العدد
    من الأشخاص الذين ينشئونها
  • 7:48 - 7:51
    وكم منا لا يمثلهم تلك المجموعة.
  • 7:53 - 7:56
    النساء يمثلن 12% فقط
    من الباحثين في تعليم الآلات.
  • 7:58 - 7:59
    والأرقام رهيبة بالمثل
  • 7:59 - 8:03
    عندما يتعلق الأمر بالعرق،
    التنوع الجغرافي والخلفية.
  • 8:05 - 8:06
    وعلى رأس ذلك.
  • 8:06 - 8:08
    غالبًا ما يبني الأشخاص في مجال
    تقنية الذكاء الاصطناعي
  • 8:08 - 8:10
    بدون أي نوع من المدخلات أو التعاون
  • 8:10 - 8:14
    من مجالات مثل علم الاجتماع،
    علم النفس أو التاريخ
  • 8:14 - 8:18
    والتي يمكنها أن تساعدنا على فهم
    أفضل لكيفية تفاعل التقنية والبشر.
  • 8:19 - 8:23
    لقد اختبرت شخصيا كيف
    يمكن أن تكون البيئة سامة
  • 8:23 - 8:26
    في مجالات العلوم والتقنيات
    والهندسة والرياضيات وفي صناعة التقنيات،
  • 8:26 - 8:27
    وهي تخيفني
  • 8:27 - 8:31
    أن نفس الأشخاص المسؤولين
    عن خلق هذه البيئات السامة
  • 8:31 - 8:35
    هم الأساسيون الذين يخلقون
    تقنية الذكاء الإصطناعي القوية.
  • 8:36 - 8:38
    أنا باحثة في الذكاء الاصطناعي،
  • 8:38 - 8:42
    ولكني غير مظوظة بكوني باحثة
    في الذكاء الاصطناعي.
  • 8:42 - 8:45
    وهدفي هو مساعدة اُناس غير محظوظين
  • 8:45 - 8:47
    لكي يجدوا طريقهم داخل هذا المجال
  • 8:49 - 8:52
    شعرت وكأنني غريبة طوال حياتي.
  • 8:52 - 8:54
    لم يكن ياستطاعتي قط أن أجد
    المجتمع الذي أتطلع إليه
  • 8:54 - 8:56
    ليس في الأوساط الأكاديمية،
    وليس في التقنيات.
  • 8:56 - 8:59
    لذلك في النهاية قررت أن أصنع مجتمعا لنفسي،
  • 8:59 - 9:01
    للغرباء الآخرين،
  • 9:01 - 9:02
    للأشخاص الذين تم استبعادهم
  • 9:02 - 9:04
    أو الذين لا يستطيعون تحمل الموارد.
  • 9:06 - 9:11
    لقد نشأت على ساحل خليج تكساس
    بالقرب من مجموعة من المصافي الكيميائية.
  • 9:11 - 9:15
    حضرت مدرسة ثانوية
    عامة فقيرة في الغالب سوداء
  • 9:15 - 9:18
    التي تم تصنيفها لاحقًا في أدنى 2٪
    من مدارس ولاية تكساس.
  • 9:19 - 9:22
    لقد تم رشي برذاذ الفلفل
    عندما كنت في المدرسة
  • 9:23 - 9:26
    وكان هنالك طلاب ومدرسين عظماء في المدرسة
  • 9:26 - 9:27
    ولكن حتى عندما كنت مراهقًا،
  • 9:27 - 9:30
    كان من الواضح أنه لم يكن لدينا الموارد
  • 9:30 - 9:32
    أو الفرص التي لدي المدارس الأكثر ثراءً
  • 9:32 - 9:33
    ولم نعامل بالمثل.
  • 9:35 - 9:39
    وعلى غير المعتاد،
    اكملت الدكتوراه خاصتي في الرياضيات.
  • 9:39 - 9:41
    لم يكن يناسبني.
  • 9:42 - 9:46
    مثل معظم برامج الدكتوراه في الرياضيات،
    كان برنامجي من الذكور بالكامل تقريبًا.
  • 9:46 - 9:50
    لقد عانيت من التحيز الجنسي
    والتحرش والعزلة.
  • 9:51 - 9:55
    شاهدت العديد من صديقاتي
    يتسربن بسبب الثقافة.
  • 9:55 - 10:00
    وقد أخبرني مشرف رسالتي أني كنت
    أتحلى بصفات الأنوثة التي تعيق النجاح
  • 10:00 - 10:02
    وتوقف بعد ذلك عن لقائي.
  • 10:04 - 10:06
    كانت مدمرة.
  • 10:09 - 10:10
    بعد سنوات،
  • 10:10 - 10:13
    بعت سيارتي وأثاثي وتقريبا كل ما أملك
  • 10:13 - 10:15
    لكي أنتقل لسان فرانسسكوا
  • 10:15 - 10:16
    بحقيبتين فقط
  • 10:16 - 10:19
    وحلم جديد أن أكون عالمة البيانات.
  • 10:19 - 10:22
    لم أجن أعرف أي أحد يعمل في التقنيات
  • 10:22 - 10:24
    لم يكن خيار عمل قمت بالاحتكاك به من قبل
  • 10:24 - 10:28
    وشعرت أن الناس في مجال
    التقنيات يتحدثون لغة أجنبية.
  • 10:29 - 10:30
    في النهاية، حققت هدفي،
  • 10:30 - 10:34
    وحصلت على وظيفة
    كعالم بيانات ومهندس برمجيات
  • 10:34 - 10:36
    في شركة ناشئة
  • 10:36 - 10:39
    التي أصبحت لاحقًا شركة بمليارات الدولارات
  • 10:39 - 10:41
    واسمً مشهوراً.
  • 10:41 - 10:44
    استمر الجميع في إخباري بأنني قمت بذلك،
  • 10:44 - 10:46
    ولكني كنت تعيسة.
  • 10:47 - 10:49
    مرة أخرى، لم أتأقلم.
  • 10:50 - 10:53
    كانت البيئة عدوانية وجنسية وعزلة،
  • 10:53 - 10:56
    وكنت أخشى الذهاب إلى العمل كل صباح.
  • 10:58 - 11:01
    خلال نفس الفترة الزمنية،
    اهتممت أولاً بالتعلم العميق.
  • 11:01 - 11:05
    في عام 2012، قرأت مقالة نيويورك تايمز
  • 11:05 - 11:09
    عن مجموعة أكاديمية ليس لديها
    معرفة متخصصة بالكيمياء الحيوية
  • 11:09 - 11:11
    لكنها كانت تستخدم التعلم العميق
  • 11:11 - 11:13
    لتصميم عقاقير دوائية جديدة آلياً.
  • 11:14 - 11:18
    هذا هو النوع العملي
    في الذكاء الاصطناعي بالضبط الذي اهتم به.
  • 11:18 - 11:21
    كما أخبرت الأصدقاء والمعارف ما كنت أتعلمه،
  • 11:21 - 11:24
    أخبرني الكثير من الناس أنهم
    لا يستطيعون فهم الذكاء الاصطناعي،
  • 11:24 - 11:28
    أنهم لم يكونوا أذكياء بما فيه الكفاية أو
    أن دماغهم لم يتم توصيله بالطريقة الصحيحة.
  • 11:28 - 11:30
    هذه كلها أساطير.
  • 11:30 - 11:33
    هذا غير صحيح تمامًا لعدد من الأسباب.
  • 11:34 - 11:36
    كلما تعمقت في هذا المجال
  • 11:36 - 11:40
    وتعلمت التقنيات العملية
    اللازمة لإنشاء نماذج حديثة،
  • 11:40 - 11:41
    رأيت ذلك في معظم الحالات
  • 11:41 - 11:45
    لم تكن نظرية الرياضيات ضرورية
    حتى تصبح ممارسًا عاملاً.
  • 11:46 - 11:49
    رأيت أيضًا أن المجال كان محصوراً دون داعٍ.
  • 11:49 - 11:53
    في عام 2013، ذهبت إلى عرض
    كان يلقية شخصية بارزه في المجال،
  • 11:53 - 11:57
    وسألته سؤالا عمليا بسيطا
    أثناء فترة الأسئلة،
  • 11:57 - 12:00
    لم يكتفي بأنه لم يجيب السؤال،
  • 12:00 - 12:02
    ولكن أخبرني أن لا أحد يعرف الأجابة
  • 12:02 - 12:04
    لذلك الأشخاص أمثاله
  • 12:04 - 12:05
    لم يكتبه أحد.
  • 12:05 - 12:08
    إذا لم تكن جزءًا من الحشد الداخلي،
    لست محظوظاً.
  • 12:09 - 12:11
    ولكن لا يجب أن يكون الأمر كذلك.
  • 12:12 - 12:13
    لكثير من حياتي،
  • 12:13 - 12:16
    اعتقدت أنها كانت سلبية
    ولم أتمكن من التأقلم.
  • 12:16 - 12:19
    كنت أتمنى في بعض الأحيان أن أكون شخصًا أخر
  • 12:19 - 12:22
    حتى أتمكن من التوافق بشكل أفضل
    مع البيئات السامة التي كنت فيها.
  • 12:22 - 12:25
    ولكن تبين أن الطرق
    التي لا تناسبني لها قيمة.
  • 12:25 - 12:27
    سمحت لي برؤية فجوة:
  • 12:27 - 12:31
    أن النظام الحالي والأوساط الأكاديمية وفي
    مجال التقنيات وفي مجتمع الذكاء الاصطناعي
  • 12:31 - 12:33
    ليست مبنية لأشخاص مثلي.
  • 12:33 - 12:35
    لم يتم بناؤه لمعظمنا.
  • 12:36 - 12:39
    سمحت لي خلفيتي المختلفة بإنشاء شيء مختلف.
  • 12:41 - 12:44
    قبل عامين، دخلت في شراكة مع جيريمي هوارد،
  • 12:44 - 12:45
    من هو رائد في الفلسفة
  • 12:45 - 12:50
    بدون شهادة دراسات عليا
    أو تدريب رسمي لتعلم الآلة.
  • 12:50 - 12:53
    وقررنا إنشاء دورة لتدريس
    التعلم العميق المتطور
  • 12:53 - 12:56
    مع عدم وجود متطلبات الرياضيات المتقدمة.
  • 12:56 - 12:58
    وجعلنا هذا متاحًا بالكامل مجانًا.
  • 12:59 - 13:02
    شعارنا هو "جعل الشبكات العصبية غير رائعة"
  • 13:02 - 13:05
    لأن كونك رائعًا هو أن تكون حصريًا
  • 13:05 - 13:07
    وهذا عكس ما أردت.
  • 13:09 - 13:11
    لذلك معظم الملتحقين الدورة
  • 13:11 - 13:15
    يعملون بشكل محترف في وقت فراغهم.
  • 13:15 - 13:18
    ولدينا عشرات الآلاف
    من الأشخاص الذين حضروا الفصل
  • 13:18 - 13:21
    وتطبيق التعلم العميق
    على المشاكل التي تهمهم،
  • 13:21 - 13:25
    سواء كان ذلك في المؤسسات غير الربحية
    أو شركات فورتشين 500
  • 13:25 - 13:26
    إطلاق شركات ناشئة،
  • 13:26 - 13:28
    أو يفوزون في هاكاثون
  • 13:28 - 13:30
    على الرغم من قصص النجاح هذه،
  • 13:30 - 13:33
    ما زلت أسمع من الخبراء
    يقولون إن ما نقوم به مستحيل.
  • 13:35 - 13:37
    نحن ندحض الأسطورة
  • 13:37 - 13:40
    أنك بحاجة إلى الكمبيوتر الأكثر فخامة وأغلى
  • 13:40 - 13:43
    والخلفية المرموقة والأبهى
  • 13:43 - 13:45
    للقيام بعمل متطور.
  • 13:45 - 13:47
    في وقت سابق من هذا العام،
  • 13:47 - 13:49
    مجموعة من طلابنا بدوام جزئي
  • 13:49 - 13:53
    دخلت في مسابقة ضد المهندسين
    من جوجل وستانفورد -
  • 13:53 - 13:55
    آسفة، جوجل وإنتل.
  • 13:55 - 13:57
    وهذه الفرق في جوجل وإنتل
  • 13:57 - 14:00
    لديهم أجهزة الكمبيوتر أكثر تكلفة.
  • 14:00 - 14:02
    ومع ذلك فاز فريقنا.
  • 14:03 - 14:04
    (ضحك)
  • 14:04 - 14:05
    (تصفيق)
  • 14:11 - 14:13
    شكرا لكم - أنا فخورة بهم.
  • 14:13 - 14:16
    تم تغطية ذلك في ذا فيرج
    ومراجعة تقنية ام اي تي،
  • 14:16 - 14:17
    ويوضحون أن
  • 14:17 - 14:20
    أنك لست مضطرًا للعمل في جوجل
    أو أن يكون لديك موارد تشبه جوجل
  • 14:20 - 14:23
    للقيام بأحدث الأعمال.
  • 14:24 - 14:27
    الشخص الذي أخذ دورتنا هو ميليسا فابروس.
  • 14:27 - 14:32
    ميليسا كانت طالبة دكتوراه في الأدب
    الإنجليزي تركز على الشعر الأمريكي
  • 14:32 - 14:35
    قبل تبديل الوظائف قبل بضع سنوات.
  • 14:35 - 14:38
    هي الآن مهندسة في مؤسسة كيفا
    غير الهادفة للربح،
  • 14:38 - 14:42
    مما يتيح للناس تقديم قروض صغيرة
    لرواد الأعمال حول العالم.
  • 14:42 - 14:45
    اكتشفت ميليسا أن برنامج
    الرؤية في الكمبيوتر
  • 14:45 - 14:48
    لا يمكن التعرف على صور مستخدمي كيفا،
  • 14:48 - 14:51
    لأن البرنامج تم تدريبه بشكل أساسي
    من قبل الأشخاص البيض.
  • 14:52 - 14:56
    حصلت ميليسا على منحة مرموقة للمساعدة
    في تمويل مشروعها لمعالجة هذا الأمر.
  • 14:58 - 15:01
    شخص آخر أخذ صفنا هو سارة هوكر.
  • 15:01 - 15:03
    كانت سارة خبيرة في الاقتصاد
  • 15:03 - 15:06
    الذتي تعلموا البرمجة فقط
    قبل سنوات قليلة من الفصل.
  • 15:06 - 15:12
    بدأت سارة برنامج دلتا انلاتيكس لإقران
    علماء البيانات مع المنظمات غير الربحية.
  • 15:12 - 15:15
    عملت سارة وفريق مع راين فورس كونيكشن،
  • 15:15 - 15:19
    الذي يضع هواتف محمولة معاد تدويرها على
    أشجار بالغابات المطيرة المهددة بالانقراض،
  • 15:19 - 15:20
    تدفقات الصوت،
  • 15:20 - 15:24
    ثم يستخدم التعلم العميق
    لتحديد ضوضاء المنشار
  • 15:24 - 15:27
    إذا قام شخص ما بقطع
    الغابة بشكل غير قانوني.
  • 15:27 - 15:31
    هناك خبراء يقولون إن طلابنا
    لن يحصلوا أبدًا على وظائف في هذا المجال،
  • 15:31 - 15:33
    ومع ذلك، تعمل سارة الآن مع جوجل
  • 15:33 - 15:35
    وتساعد على فتح أول مركز
    أبحاث للذكاء الاصطناعي في جوجل
  • 15:35 - 15:37
    في افريقيا.
  • 15:38 - 15:41
    هذه ليست سوى عدد قليل من القصص من كثير.
  • 15:41 - 15:44
    ساعد الأشخاص الآخرون الذين
    أخذوا صفنا المزارعين في الهند،
  • 15:44 - 15:48
    خلق أجهزة يمكن ارتداؤها
    للمرضى المصابين بمرض باركنسون،
  • 15:48 - 15:51
    اخترع أنماط جديدة
    من الأعمال الفنية والموسيقى،
  • 15:51 - 15:54
    وحتى تم عرض عملهم على اتش بي او و فوربيز.
  • 15:57 - 16:01
    اتصل بي مزارع كندي للألبان
  • 16:01 - 16:02
    الذي يريد استخدام التعلم العميق
  • 16:02 - 16:05
    لتحسين صحة ضروع الماعز.
  • 16:06 - 16:09
    لم أكن لأتوقع أبدًا أنه يمكن تطبيق
    الذكاء الاصطناعي على ضروع الماعز،
  • 16:10 - 16:13
    ولكن هذا هو بالضبط
    نوع الشخص الذي أريد مساعدته.
  • 16:13 - 16:16
    أريد أن أساعد أشخاصًا غير مرادين آخرين،
    غرباء آخرين.
  • 16:18 - 16:23
    يسألني الناس أحيانًا إذا كان من الخطر جعل
    الذكاء الاصطناعي بمتناول المزيد من الناس.
  • 16:25 - 16:29
    ما هو خطير هو وجود مجموعة حصرية ومتجانسة
  • 16:29 - 16:32
    خلق التقنيات التي تؤثر علينا جميعا.
  • 16:33 - 16:34
    لقد رأينا الأذى الناجم
  • 16:34 - 16:39
    بواسطة شركات مثل فيسبوك وجوجل
    يوتيوب وأمازون وبالانتير وغيرها.
  • 16:39 - 16:41
    نحن بحاجة إلى الناس من خلفيات أكثر تنوعًا
  • 16:41 - 16:43
    لمحاولة معالجة تلك الأضرار.
  • 16:44 - 16:46
    نحن بحاجة إلى أشخاص من المجتمعات
  • 16:46 - 16:49
    التي تم استهدافها بشكل غير لائق للمضايقة
  • 16:49 - 16:51
    للمساعدة في إنشاء تقنيتنا
  • 16:51 - 16:52
    بسبب فهمهم
  • 16:52 - 16:56
    كيف يمكن استخدام التقنيات
    كسلاح ضد الأكثر ضعفا
  • 16:56 - 16:59
    وما هي الضمانات التي نحتاج إلى وضعها.
  • 16:59 - 17:02
    ونحتاج أيضًا إلى المزيد من الأشخاص
    الخبراء بشأن البشر،
  • 17:02 - 17:07
    عن السلوك البشري،
    علم النفس البشري، وتاريخ البشرية.
  • 17:09 - 17:12
    السبب وراء رغبتي في مشاركة
    الجميع في الذكاء الاصطناعي
  • 17:12 - 17:16
    هو أنك تعرف عن المشاكل
    التي لا يعرفها أحد آخر،
  • 17:16 - 17:20
    ولديك مهارات وخلفية لا يمتلكها أي شخص آخر.
  • 17:21 - 17:25
    لم أكن أعرف عن استخدام الهواتف المحمولة
    القديمة لحماية الغابات المطيرة،
  • 17:25 - 17:29
    حول معدل الانتحار للمزارعين في الهند،
  • 17:29 - 17:31
    أو عن صحة ضرع الماعز.
  • 17:31 - 17:34
    إلى الآن هذه كلها مشاكل عمل طلابي عليها.
  • 17:35 - 17:38
    أنا سعيدة للغاية لأن طلابي
    لم يصدقوا الأسطورة
  • 17:38 - 17:40
    أن الذكاء الاصطناعي مخصص
    لعباقرة الرياضيات فقط
  • 17:40 - 17:42
    لكنهم يعرفون أن وجهات نظرهم ذات قيمة.
  • 17:45 - 17:51
    نحن بحاجة إلى الصحفيين والمحامين
    ومدراء المستشفيات
  • 17:51 - 17:55
    مدراء مبيعات الفنادق وعلماء الاجتماع
  • 17:55 - 17:57
    والرؤساء التنفيذيين والمؤرخين والمزيد
  • 17:57 - 18:00
    لفهم قدرات الذكاء الاصطناعي.
  • 18:00 - 18:03
    لا يهم إذا لم تذهب إلى المدرسة الصحيحة،
  • 18:03 - 18:05
    إذا جعلتك الرياضيات قلق،
  • 18:06 - 18:07
    إذا كان أصدقائك وزملائك
  • 18:07 - 18:11
    يعتقدون أنك آخر شخص
    يتوقع أن يعمل مع الذكاء الاصطناعي.
  • 18:12 - 18:14
    يحتاج الذكاء الاصطناعي
    إلى أشخاص غير متشابهين،
  • 18:14 - 18:17
    والعالم يحتاجك منخرط في الذكاء الاصطناعي.
  • 18:18 - 18:19
    شكراً لكم.
  • 18:19 - 18:20
    (تصفيق)
Title:
الذكاء الاصطناعي بحاجة إلينا جميعاً | د. راشيل توماس | TEDxSanFrancisco
Description:

راشيل توماس باحثة في التعلم العميق والشريك المؤسس لـ fast.ai، التي أنشأت دورة "التعلم العميق العملي للمبرمجين" التي درسها أكثر من 100.000 طالب. في حديثها ، تشرح لماذا يجب أن يكون الوصول إلى الذكاء الاصطناعي متاحًا لنا جميعًا، حتى أولئك الذين ليس لديهم خلفية رياضية.

حصلت راشيل على درجة الدكتوراه في الرياضيات في جامعة ديوك وكانت مهندسة مبكرة في أوبر. في عام 2017، اختارتها مجلة فوربس كواحدة من أكثر من 20 امرأة رائدة في أبحاث الذكاء الاصطناعي. قرأ أكثر من نصف مليون شخص كتاباتها حول الذكاء الاصطناعي، وقد تُرجمت إلى الصينية والإسبانية والكورية والبرتغالية.

ألقيت هذه المحادثة في حدث TEDx باستخدام صيغة مؤتمر TED، ولكن بتنظيمٍ مستقل من المجتمع المحلي. لمعرفة المزيد من خلال: http://ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
18:27

Arabic subtitles

Revisions Compare revisions