< Return to Video

أن تكون روبوتًا!

  • 0:01 - 0:03
    لا تحظى سوى بفرصة واحدة
    لتترك الانطباع الأول،
  • 0:03 - 0:07
    وينطبق عليك هذا الأمر سواء كنت
    روبوتًا أو إنسانًا.
  • 0:07 - 0:10
    كانت أول مرة ألتقي فيها بأحد
    هذه الروبوتات
  • 0:10 - 0:13
    في مكان يسمى (ويلو جراج) عام 2008.
  • 0:13 - 0:16
    عندما ذهبت لزيارة المكان،
    اصطحبني مضيفي إلى داخل المبنى
  • 0:16 - 0:17
    والتقينا بهذا الرجل الصغير.
  • 0:17 - 0:19
    كان يتدحرج في الرواق،
  • 0:19 - 0:21
    اقترب مني، وجلس هناك،
  • 0:21 - 0:23
    وحدق ببصره إلى ما خلفي دون أي تعبير،
  • 0:23 - 0:25
    لم يفعل أي شيء لفترة،
  • 0:25 - 0:27
    ثم أدار رأسه حوالي 180 درجة بسرعة،
  • 0:27 - 0:28
    وركض بعيدًا.
  • 0:28 - 0:30
    و هذا لم يكن انطباعًا أولًا رائعًا.
  • 0:30 - 0:33
    الشيء الذي عرفته عن الروبوتات ذلك اليوم
  • 0:33 - 0:35
    هو أنها إلى حدٍ ما تقوم بما تجيده،
  • 0:35 - 0:37
    وهي ليست على وعيٍ كاملٍ بنا.
  • 0:37 - 0:40
    وأعتقد أن باختبارنا لهذه السيناريوهات
    المستقبلية المحتمَلة للروبوتات،
  • 0:40 - 0:43
    ينتهي بنا المطاف لنتعلم أكثر عن أنفسنا
  • 0:43 - 0:45
    في مقابل هذه الآلات وحسب.
  • 0:45 - 0:46
    وما تعلمته ذلك اليوم
  • 0:46 - 0:49
    كان أني توقعت الكثير من هذا الصديق الصغير.
  • 0:49 - 0:53
    لم يكن متوقعًا منه القدرة على التحرك
    في العالم المادي وحسب،
  • 0:53 - 0:55
    بل أيضًا التحرك في عالمي الاجتماعي --
  • 0:55 - 0:57
    هو في نطاق حيزي، إنه روبوت شخصي.
  • 0:58 - 1:00
    لماذا لم يفهمني؟
  • 1:00 - 1:01
    وضح لي مضيفي:
  • 1:01 - 1:04
    "حسنًا، إن الروبوت يحاول
    الانتقال من النقطة أ إلى النقطة ب،
  • 1:04 - 1:06
    وقد شكلتِ عقبةً في طريقه،
  • 1:06 - 1:08
    لذلك كان عليه إعادة تخطيط مساره،
  • 1:08 - 1:09
    و معرفة أين يذهب،
  • 1:09 - 1:11
    ثم الوصول لهناك بطريقة أخرى."
  • 1:11 - 1:13
    وهو لم يكن في الواقع
    أمرًا حاذقًا للقيام به.
  • 1:13 - 1:17
    فلو عرف الروبوت أنني إنسانة، لا كرسي،
  • 1:17 - 1:19
    وأني كنت أنوي الابتعاد عن طريقه
  • 1:19 - 1:20
    إن كان يحاول الوصول لمكان ما،
  • 1:20 - 1:23
    فكان الأمر سيصبح أكثر فعالية
  • 1:23 - 1:24
    من أجل إتمام عمله.
  • 1:24 - 1:26
    إذا أولى جهدًا ليلاحظ أني إنسانة
  • 1:26 - 1:30
    وأن لدي قدرات مختلفة عن الكرسي والحائط.
  • 1:30 - 1:33
    كما تعلمون، نحن نميل للتفكير
    في الروبوت على أنه من الفضاء الخارجي
  • 1:33 - 1:35
    ومن المستقبل ومن الخيال العلمي،
  • 1:35 - 1:37
    وبينما قد يكون هذا صحيحًا،
  • 1:37 - 1:39
    فإني أحب في الحقيقة أن أجادل
    بأن الروبوتات موجودة اليوم،
  • 1:39 - 1:42
    وهي تعيش وتعمل بيننا الآن.
  • 1:42 - 1:45
    هذان روبوتان يعيشان في منزلي.
  • 1:45 - 1:47
    يكنسان الأرض كهربائيًا ويجزان العشب
  • 1:48 - 1:49
    كل يوم،
  • 1:49 - 1:52
    وهذا أكثر مما كنت سأفعله إذا كان
    لدي الوقت فعلًا للقيام بهذه المهام،
  • 1:52 - 1:54
    وهما على الأرجح يقومان به
    بشكل أفضل مني، أيضًا.
  • 1:55 - 1:57
    هذا في الحقيقة يعتني بقطي.
  • 1:57 - 2:00
    في كل مرة يستخدم قطي الصندوق،
    يقوم بتنظيفه،
  • 2:00 - 2:02
    وهو شيء لا أنوي القيام به،
  • 2:02 - 2:04
    وهو في الحقيقة يجعل حياته أفضل،
    وحياتي أيضًا.
  • 2:04 - 2:07
    وبينما نطلق على هذه الروبوتات منتجات --
  • 2:07 - 2:09
    إنها مكنسة كهربائية روبوتية،
    إنه جزاز عشب روبوتي،
  • 2:09 - 2:11
    إنه صندوق مخلفات قطط روبوتي؛
  • 2:11 - 2:15
    فإنني أرى في الحقيقة أن هناك مجموعة
    من الروبوتات الأخرى المختبئة أمام أعيننا
  • 2:15 - 2:17
    التي أصبحت بالفعل نافعة للغاية
  • 2:17 - 2:18
    وشائعة للغاية لدرجة
  • 2:18 - 2:21
    أن نطلق عليها أسماء مثل
    "غسالة الأطباق"، أليس كذلك؟
  • 2:21 - 2:22
    إنها تكتسب أسماء جديدة.
  • 2:22 - 2:24
    لم يعد يطلق عليها روبوتات
  • 2:24 - 2:26
    لأنها في الحقيقة تؤدي غرضًا في حياتنا.
  • 2:26 - 2:28
    وبالمثل ناظم الحرارة، صحيح؟
  • 2:28 - 2:30
    أعرف أن أصدقائي متخصصي الروبوتات
  • 2:30 - 2:32
    في الخارج غالبًا يخجلون
    من تسميتي له روبوتًا.
  • 2:32 - 2:33
    إلا أن له هدفًا.
  • 2:33 - 2:36
    وهدفه ان يجعل درجة حرارة
    منزلي 19 درجة مئوية،
  • 2:36 - 2:37
    ويقوم بجس العالم من حوله:
  • 2:38 - 2:39
    يعرف أن الجو بارد قليلًا،
  • 2:39 - 2:42
    فيضع خطة ثم يتخذ إجراء
    يؤثر على العالم المادي.
  • 2:42 - 2:43
    إنه عمل الروبوتات.
  • 2:43 - 2:46
    حتى إن لم يكن يشبه الروبوت(روزي)،
  • 2:46 - 2:49
    فهو يفعل شيئًا مفيدًا جدًا في حياتي
  • 2:49 - 2:50
    بحيث لا أضطر للاهتمام
  • 2:50 - 2:53
    برفع درجة الحرارة وخفضها بنفسي.
  • 2:53 - 2:56
    وأنا أعتقد أن هذه الأنظمة
    تعيش وتعمل بيننا الآن،
  • 2:56 - 2:59
    ولا يقتصر الأمر على عيش هذه الأنظمة بيننا
  • 2:59 - 3:01
    بل في الغالب أنتم أيضًا مشغلو روبوتات.
  • 3:01 - 3:03
    عندما تقودون سيارتكم،
  • 3:03 - 3:05
    تشعرون وكأنكم تشغلون آلة.
  • 3:05 - 3:08
    أنتم أيضًا تنتقلون
    من النقطة أ إلى النقطة ب،
  • 3:08 - 3:10
    لكن في الغالب سيارتكم مزودة
    بنظام توجيه كهربي،
  • 3:10 - 3:13
    ومزودة غالبًا بأنظمة كبح آلية،
  • 3:13 - 3:17
    وقد تكون مزودة بنظام نقل آلي
    وحتى تحكم تكيفي في السرعة.
  • 3:17 - 3:19
    وعلى الرغم من أنها قد لا تكون
    سيارة ذاتية التحكم بشكل كامل؛
  • 3:20 - 3:21
    إلا أنها ذاتية جزئيًا،
  • 3:21 - 3:22
    وهي مفيدة للغاية
  • 3:22 - 3:24
    وتجعلنا نقود بشكل أكثر أمانًا،
  • 3:24 - 3:28
    ونحن نشعر نوعًا ما أنها دارجة
    الاستخدام بحيث لا نشعر بها، أليس كذلك؟
  • 3:28 - 3:29
    إذًا عندما تقودون سيارتكم،
  • 3:29 - 3:32
    يُفترض ألا تشعروا سوى أنكم
    ذاهبون من مكان لآخر.
  • 3:32 - 3:36
    ولا تشعرون بأنها ذاك الشيء الضخم
    الذي يتعين عليكم التعامل معه وتشغيله
  • 3:36 - 3:37
    تستخدمون منظمات التحكم هذه
  • 3:37 - 3:40
    لأننا قضينا وقتًا طويلًا جدًا
    لتعلم كيف نقود
  • 3:40 - 3:42
    بالدرجة التي جعلتها تصبح امتدادًا لأنفسنا.
  • 3:42 - 3:45
    عندما تركنون السيارة في مساحة
    الركن الصغيرة والضيقة تلك،
  • 3:45 - 3:47
    تكونون على علم بأماكن زواياكم.
  • 3:47 - 3:50
    وعندما تقودون سيارة مستأجرة
    ربما لم تقودوها من قبل،
  • 3:50 - 3:53
    يستغرق الأمر منكم بعض الوقت
    حتى تعتادوا على جسم روبوتكم الجديد.
  • 3:53 - 3:57
    ينطبق هذا الأمر أيضًا على الأشخاص
    الذين يشغلون أنواعًا أخرى من الروبوتات،
  • 3:57 - 4:00
    لهذا سأشارككم بعض القصص بهذا الشأن.
  • 4:00 - 4:03
    التعامل مع مشكلة العمل المشترك عن بعد.
  • 4:03 - 4:05
    كان لدي زميل عمل بـ(ويلو جراج)
    يُدعى (دالاس)،
  • 4:05 - 4:07
    وهكذا كان يبدو (دالاس).
  • 4:07 - 4:11
    كان يعمل من منزله في (إنديانا)
    لدى شركتنا في (كاليفورنيا).
  • 4:11 - 4:14
    كان عبارة عن صوت داخل صندوق
    على الطاولة في معظم اجاتماعاتنا،
  • 4:14 - 4:16
    وكان أمرًا مقبولًا نوعًأ ما،
    إلا أنه كما تعلمون
  • 4:16 - 4:19
    إذا كنا في نقاشٍ محتدم
    ولم يرُق لنا ما كان يقوله،
  • 4:19 - 4:21
    فقد نعلق المكالمة معه ببساطة.
  • 4:21 - 4:22
    (ضحك)
  • 4:22 - 4:24
    ثم قد نعقد اجتماعًا بعد ذلك الاجتماع
  • 4:24 - 4:27
    ونتخذ القرارات بالفعل بعد ذلك في الرواق
  • 4:27 - 4:28
    في غيابه.
  • 4:28 - 4:30
    لذا لم يكن ذلك مثاليًا بالنسبة له.
  • 4:30 - 4:32
    ولكوننا في (ويلو) شركة روبوتات؛
  • 4:32 - 4:34
    كان لدينا أجزاء جسم روبوت زائدة
    ملقاة على الأرض،
  • 4:34 - 4:37
    فقام (دالاس) وصديقه (كيرت)
    بتجميع هذا الشيء،
  • 4:37 - 4:40
    الذي يبدو عبارة عن سكايب
    على عصا على عجلتين،
  • 4:40 - 4:41
    مما يبديه مثل لعبة سخيفة ومجنونة،
  • 4:41 - 4:44
    لكنها في الحقيقة واحدة
    من الأدوات الأكثر فعالية
  • 4:44 - 4:47
    التي رأيتها على الإطلاق من أجل
    العمل المشترك عن بعد.
  • 4:47 - 4:51
    وبالتالي الآن، إذا لم أرد على سؤال (دالاس)
    الوارد بالبريد الإلكتروني،
  • 4:51 - 4:53
    يمكنه حرفيًا أن يتدحرج داخل مكتبي،
  • 4:53 - 4:55
    ويسد المدخل ويطرح
    عليَّ السؤال مرة أخرى --
  • 4:56 - 4:57
    (ضحك)
  • 4:57 - 4:58
    حتى أجيبه.
  • 4:58 - 5:01
    ولن أقوم بإطفائه، أليس كذلك؟
    سيكون ذلك تصرفًا فظًا.
  • 5:01 - 5:03
    لم يكن ذلك جيدًا للتواصل الفردي وحسب،
  • 5:04 - 5:06
    بل أيضًا لحضور اجتماع كل موظفي الشركة.
  • 5:06 - 5:08
    وضع مؤخرتكم في ذلك الكرسي
  • 5:08 - 5:11
    وإظهار أنكم حاضرون وملتزمون بمشروعكم
  • 5:11 - 5:13
    هو أمرٌ له شأن كبير
  • 5:13 - 5:15
    ويمكن أن يساعد في العمل المشترك
    كثيرًا جدًا.
  • 5:15 - 5:18
    لقد لاحظنا ذلك عبر الشهور ثم السنوات،
  • 5:18 - 5:20
    ليس في شركتنا فقط،
    بل لدى شركات أخرى أيضًا.
  • 5:21 - 5:23
    أفضل ما يحدث باستخدام هذه الأنظمة
  • 5:23 - 5:25
    هو أن تبدؤوا بالشعور بأنكم هناك تمامًا.
  • 5:25 - 5:27
    إنه أنت تمامًا، إنه جسمك تمامًا؛
  • 5:27 - 5:30
    وبالتالي يبدأ الناس بتوفير
    مساحة شخصية لهذه الأشياء.
  • 5:30 - 5:32
    لذا عندما يكون لديكم اجتماع يُحضَر وقوفًا
  • 5:32 - 5:34
    سيصطف الناس حول المساحة
  • 5:34 - 5:36
    بالضبط مثلما سيفعلون إذا كنتم هناك شخصيًا.
  • 5:36 - 5:39
    هذا أمرُ رائع إلى أن تحدث أعطال
    فلا يصبح رائعًا.
  • 5:39 - 5:41
    عندما يرى الناس هذه الروبوتات لأول مرة،
  • 5:41 - 5:44
    تكون ردة فعلهم مثل،
    "أين المكونات؟ لابد من وجود كاميرا هنا."
  • 5:44 - 5:46
    ويبدؤون بنقر وجهك.
  • 5:46 - 5:49
    "أنت تتحدث بصوت منخفض جدًا،
    سأقوم برفع مستوى الصوت،"
  • 5:49 - 5:52
    الأمر الذي يشبه اقتراب زميلك في العمل
    منك وقوله:
  • 5:52 - 5:54
    "أنت تتحدث بصوت منخفض جدًا،
    سأقوم بإدارة وجهك."
  • 5:55 - 5:56
    هذا غير ملائم وغير مقبول،
  • 5:56 - 5:58
    لذا ينتهي الأمر بإرسائنا
    هذه الأعراف الاجتماعية الجديدة
  • 5:58 - 6:01
    بخصوص استخدام هذه الأنظمة.
  • 6:01 - 6:04
    بالمثل، عندما تبدؤون بالشعور أنه جسمكم،
  • 6:04 - 6:08
    تبدؤون بملاحظة أشياء مثل،
    آه، يا إلهي روبوتي قصير نوعًا ما."
  • 6:08 - 6:10
    كان (دالاس) يقول لي بعض الأشياء --
    كان طوله 183 سم --
  • 6:11 - 6:14
    وكنا نصطحبه من خلال الروبوت
    إلى حفلات الكوكتيل وما شابه،
  • 6:14 - 6:15
    مثلما تفعلون،
  • 6:15 - 6:19
    وكان ارتفاع الروبوت حوالي 152 سم،
    ما يقارب طولي.
  • 6:19 - 6:20
    وأخبرني،
  • 6:20 - 6:22
    "هل تعلمين؟ الناس لا ينظرون إليَّ فعلًا.
  • 6:22 - 6:25
    أنا أشعر وكأني أنظر
    إلى هذا البحر من الأكتاف،
  • 6:25 - 6:27
    إن ما نحتاجه فقط هو روبوت أكثر ارتفاعًا."
  • 6:27 - 6:28
    وقلت له:
  • 6:28 - 6:30
    "لا.
  • 6:30 - 6:32
    عليك أن تكون مكاني اليوم.
  • 6:32 - 6:35
    عليك أن ترى كيف يكون الأمر
    عند الطرف القصير من طيف الأطوال."
  • 6:35 - 6:39
    وانتهى به الأمر في الحقيقة بتكوين
    تعاطف كبير من التجربة،
  • 6:39 - 6:40
    الأمر الذي كان رائعًا.
  • 6:40 - 6:42
    لذا عندما كان يحضر شخصيًا،
  • 6:42 - 6:44
    لم يعد يقف فوق رأسي أثناء التحدث معي،
  • 6:44 - 6:46
    بل كان يجلس ويحدثني وعيناه أمام عينيّ،
  • 6:46 - 6:48
    الأمر الذي كان لطيفًا نوعًا ما.
  • 6:48 - 6:51
    لذا قررنا في الواقع أن ندرس هذا في المختبر
  • 6:51 - 6:54
    ونرى الأنواع الأخرى من الاختلافات
    التي يمكن أن يسببها ارتفاع الروبوت.
  • 6:54 - 6:57
    لذا استخدم نصف الأشخاص في دراستنا
    روبوتًا أقصر،
  • 6:57 - 7:00
    استخدم نصف الأشخاص روبوتًا أطول،
  • 7:00 - 7:02
    ووجدنا في الحقيفة أن الشخص ذاته
  • 7:02 - 7:05
    الذي لديه الجسم ذاته
    ويقول ذات الأشياء لشخص ما
  • 7:05 - 7:08
    يكون أكثر إقناعًا ويُرى أكثر مصداقية
  • 7:08 - 7:10
    إذا استخدموا نموذج الروبوت الأطول.
  • 7:10 - 7:11
    ليس لهذا أي معنى منطقي،
  • 7:11 - 7:13
    لكن لهذا السبب نحن ندرس علم النفس.
  • 7:13 - 7:16
    وفي الواقع، كما تعلمون، كيف كان
    (كليفورد ناس) سيصيغ هذا
  • 7:16 - 7:19
    هو أن علينا التعامل
    مع هذه التقنيات الحديثة
  • 7:19 - 7:22
    على الرغم من حقيقة
    أن لدينا عقول قديمة جدًا.
  • 7:22 - 7:25
    علم النفس الإنساني لا يتطور
    بنفس سرعة تطور التكنولوجيا
  • 7:25 - 7:27
    لذلك فإننا دومًا نلعب لعبة الملاحقة،
  • 7:27 - 7:28
    في محاولة لإيجاد معنى لهذا العالم
  • 7:28 - 7:31
    الذي تتجول فيه هذه الأشياء ذاتية التحكم.
  • 7:31 - 7:33
    في العادة، تكون الأشياء المتكلمة أناسًا
    وليست آلات، صحيح؟
  • 7:33 - 7:38
    نحن نمنح الكثير من المعاني
    لأشياء مثل ارتفاع الآلة،
  • 7:38 - 7:39
    لا طول الشخص،
  • 7:39 - 7:42
    ونعزي هذا للشخص الذي يستخدم النظام.
  • 7:43 - 7:45
    كما تعلمون، هذا، على ما أعتقد، هام للغاية
  • 7:45 - 7:47
    عندما نفكر في الروبوتات.
  • 7:47 - 7:49
    الأمر لا يعد كثيرًا عن إعادة
    اختراع الإنسان،
  • 7:49 - 7:52
    بل هو أكثر عن اكتشاف كيف
    نصنع امتدادات لأنفسنا، صحيح؟
  • 7:52 - 7:55
    وينتهي بنا الأمر باستخدام الأشياء
    بطرق مفاجئة إلى حد ما.
  • 7:55 - 8:00
    هؤلاء الأشخاص لا يمكنهم لعب البلياردو
    لأن الروبوتات ليس لها ذراعان،
  • 8:00 - 8:02
    لكن يمكنهم بالكلام إزعاج
    من يلعبون البلياردو
  • 8:02 - 8:05
    وقد يكون هذا مهمًا في توطيد روابط الفريق،
  • 8:05 - 8:07
    وهو أمر مذهل.
  • 8:07 - 8:09
    الأشخاص البارعون في تشغيل
    هذه الأنظمة
  • 8:09 - 8:11
    سيقومون حتى بأشياء مثل ابتكار ألعاب جديدة،
  • 8:11 - 8:13
    مثل كرة قدم الروبوتات في منتصف الليل،
  • 8:13 - 8:15
    دفع العلب هنا وهناك.
  • 8:15 - 8:16
    لكن ليس الجميع بارعين.
  • 8:16 - 8:19
    يواجه العديد من الناس مشكلات
    في تشغيل هذه الأنظمة.
  • 8:19 - 8:21
    هذا في الحقيقة شخص دخل إلى نظام الروبوت
  • 8:21 - 8:24
    وكرة عينه كانت مدارة 90 درجة لليسار.
  • 8:24 - 8:25
    وهو لم يكن يعرف ذلك؛
  • 8:25 - 8:27
    لذلك انتهى به الأمر وهو يتخبط
    في أرجاء المكتب،
  • 8:27 - 8:29
    ويصطدم بمكاتب الناس، ويصبح محرَجًا للغاية،
  • 8:29 - 8:32
    ويضحك على الموقف.
    كان مستوى الصوت مرتفعًا جدًا.
  • 8:32 - 8:34
    وهذا الشخص هنا في الصورة يقول لي،
  • 8:34 - 8:36
    "نحن نحتاج لزر كتم الصوت بالروبوت."
  • 8:36 - 8:40
    وما عناه بذلك حقيقةً هو أننا لا نرغب
    في أن يكون مخربًا لهذه الدرجة.
  • 8:40 - 8:41
    ولكوننا شركة روبوتات،
  • 8:42 - 8:44
    أضفنا خاصية تجنب العقبات للنظام.
  • 8:44 - 8:47
    زُود بمكتشف ليزري محدود النطاق
    يمكنه أن يرى العقبات،
  • 8:47 - 8:50
    وإذا حاولت أنا كمشغل للروبوت،
    على سبيل المثال، الاصطدام بكرسي،
  • 8:50 - 8:53
    فلن يسمح لي بذلك، بل سيخطط مسارًا حوله،
  • 8:53 - 8:55
    وهو أمر يبدو فكرة جيدة.
  • 8:55 - 8:58
    اصطدم الناس بالفعل بعقبات أقل
    باستخدام هذا النظام، بالطبع،
  • 8:58 - 9:00
    لكن في الحقيقة بالنسبة لأشخاص آخرين
  • 9:00 - 9:03
    استغرق الأمر وقتًا أطول ليجتازوا
    دورة العقبات الخاصة بنا،
  • 9:03 - 9:04
    وأردنا أن نعرف السبب.
  • 9:05 - 9:08
    واتضح وجود هذا البُعد البشري الهام --
  • 9:08 - 9:10
    وهو بُعد مرتبط بالشخصية
    يطلق عليه محل السيطرة،
  • 9:10 - 9:14
    والأشخاص الذين لديهم
    محل سيطرة داخلي قوي،
  • 9:14 - 9:17
    يريدون أن يكونوا أسياد مصائرهم --
  • 9:17 - 9:20
    لا يحبون أبدًا التنازل عن السيطرة
    لنظام ذاتي التحكم --
  • 9:20 - 9:22
    بدرجة كبيرة حتى أنهم
    سيقاومون التحكم الذاتي؛
  • 9:22 - 9:25
    "إذا أردت أن أصدم ذلك الكرسي،
    فسأصدم ذلك الكرسي."
  • 9:25 - 9:29
    لذلك هم سيعانون في الحقيقة
    من هذه المساعدة ذاتية التحكم،
  • 9:29 - 9:31
    وهو أمر معرفته هامة بالنسبة لنا
  • 9:31 - 9:35
    أثناء بنائنا لأشياء متزايدة التحكم الذاتي
    مثل السيارات، أليس كذلك؟
  • 9:35 - 9:38
    كيف سيجابه الأشخاص المختلفون
    فقدان السيطرة هذا؟
  • 9:39 - 9:42
    سيكون ذلك مختلفًا باختلاف البُعد الإنساني.
  • 9:42 - 9:45
    لا يمكننا التعامل مع البشر كما لو أننا
    كنا شيئًا واحدًا متجانسًا.
  • 9:45 - 9:48
    نحن نختلف باختلاف الشخصية والثقافة
  • 9:48 - 9:50
    بل ونختلف باختلاف
    الحالة العاطفية من لحظة لأخرى،
  • 9:50 - 9:52
    ولنكون قادرين على تصميم هذه الأنظمة،
  • 9:52 - 9:54
    أنظمة التفاعل بين الإنسان والروبوت هذه،
  • 9:54 - 9:57
    نحتاج أن نأخذ في اعتبارنا
    الأبعاد الإنسانية،
  • 9:57 - 9:59
    وألا نقتصر على الأبعاد التقنية فقط.
  • 10:00 - 10:04
    حس التحكم يأتي معه حس المسؤولية.
  • 10:04 - 10:07
    وإذا كنت مشغل روبوت
    وتستخدم أحد هذه الأنظمة،
  • 10:07 - 10:09
    فهكذا ستبدو واجهة التفاعل.
  • 10:09 - 10:11
    إنها تشبه قليلًا ألعاب الفيديو،
  • 10:11 - 10:14
    ويمكن أن يكون هذا جيدًا
    لأنه مألوف جدًا للناس،
  • 10:14 - 10:15
    لكن قد يكون سيئًا أيضًا
  • 10:15 - 10:18
    لأنه يجعل الناس يشعرون وكأنه لعبة فيديو.
  • 10:18 - 10:20
    دعونا مجموعة من الأطفال في ستانفورد
    للعب باستخدام النظام
  • 10:20 - 10:23
    وقيادة الروبوت في أرجاء
    مكتبنا في (ميلانو بارك)،
  • 10:23 - 10:24
    وبدأ الأطفال يقولون أشياء
  • 10:24 - 10:28
    مثل "10 نقاط إذا صدمت الرجل الموجود هناك.
    20 نقطة لذلك الرجل."
  • 10:28 - 10:30
    وكانوا سيسعون خلفهم بطول الرواق.
  • 10:30 - 10:31
    (ضحك)
  • 10:31 - 10:33
    قلت لهم، "هؤلاء أشخاص حقيقيون.
  • 10:33 - 10:36
    وهم سينزفون ويتألمون بالفعل إذا صدمتوهم."
  • 10:36 - 10:38
    وكان رد فعلهم، "حسنًا، فهمنا ذلك."
  • 10:38 - 10:40
    لكن بعد خمس دقائق، أصبحوا،
  • 10:40 - 10:44
    "20 نقطة لهذا الرجل هناك،
    يبدو أنه يريد أن يُصدَم."
  • 10:44 - 10:46
    هذا يشبه قليلًا "لعبة (إندر)،"
    أليس كذلك؟
  • 10:46 - 10:48
    يوجد عالم حقيقي على تلك الجهة الأخرى
  • 10:48 - 10:51
    وأظن أنها مسؤوليتنا كأشخاص مصممين
    لواجهات التفاعل هذه
  • 10:51 - 10:53
    أن نساعد الناس أن يتذكروا
  • 10:53 - 10:55
    وجود عواقب حقيقية لتصرفاتهم
  • 10:55 - 10:57
    وأن يستشعروا المسؤولية
  • 10:57 - 11:01
    عند تشغيلهم لهذه الأشياء
    متزايدة التحكم الذاتي.
  • 11:02 - 11:04
    تعد هذه مثالًا رائعًا
  • 11:04 - 11:07
    لاختبار واحد من السيناريوهات المستقبلية
    المحتملة للروبوتات،
  • 11:07 - 11:11
    وأظن أنه من الرائع أن نصنع
    امتدادات لأنفسنا
  • 11:11 - 11:14
    وأن نعرف عن الطرق التي نصنع بها
    امتدادًا لأنفسنا
  • 11:14 - 11:15
    داخل هذه الآلات
  • 11:15 - 11:18
    مع قدرتنا في نفس الوقت
    على التعبير عن بشريتنا
  • 11:18 - 11:19
    وشخصيتنا.
  • 11:19 - 11:21
    إننا نكوّن أيضًا تعاطفًا
    مع الآخرين
  • 11:21 - 11:24
    من حيث كونهم أقصر أو أطول
    أو أسرع أو أبطأ
  • 11:24 - 11:25
    أو حتى ربما بلا ذراعين،
  • 11:25 - 11:26
    وهذا أمر رائع نوعًا ما.
  • 11:27 - 11:29
    ونكوّن أيضًا تعاطفًا مع الروبوتات نفسها.
  • 11:29 - 11:31
    هذا واحد من روبوتاتي المفضلة.
  • 11:31 - 11:32
    ويطلق عليه Tweenbot.
  • 11:32 - 11:34
    ويحمل هذا الروبوت علمًا صغيرًا يذكر،
  • 11:34 - 11:37
    "أنا أحاول الوصول لهذا التقاطع في منهاتن،"
  • 11:37 - 11:40
    وهو لطيف ويتدحرج للأمام،
    هذا كل شيء.
  • 11:40 - 11:43
    لا يعرف كيف ينشئ خريطة،
    ولا يعرف كيف يرى العالم،
  • 11:43 - 11:44
    إنه يطلب المساعدة وحسب.
  • 11:44 - 11:46
    الشيء الظريف بخصوص الناس
  • 11:46 - 11:49
    هو أنه يمكنه بالفعل الاعتماد على
    لطف الغرباء.
  • 11:49 - 11:53
    لقد نجح في عبور المتنزّة
    إلى الجهة الأخرى من منهاتن --
  • 11:53 - 11:54
    وهو أمر رائع جدًا --
  • 11:54 - 11:58
    فقط لأن الناس يرفعونه
    ويوجهونه بالاتجاه الصحيح.
  • 11:58 - 11:58
    (ضحك)
  • 11:59 - 12:00
    وهذا رائع، أليس كذلك؟
  • 12:00 - 12:02
    إننا نحاول بناء هذا العالم
    حيث يتفاعل الإنسان والروبوت
  • 12:03 - 12:06
    ويمكننا أن نتواجد معًا
    ونتعاون مع بعضنا البعض،
  • 12:06 - 12:09
    ولسنا بحاجة لأن نكون ذاتيي التحكم كليًا
    والقيام بالأشياء بأنفسنا وحسب.
  • 12:09 - 12:11
    إننا نقوم بالأشياء معًا بالفعل.
  • 12:11 - 12:12
    ولتحقيق ذلك،
  • 12:12 - 12:15
    نحتاج في الحقيقة مساعدة أشخاص
    مثل الفنانين والمصممين
  • 12:15 - 12:17
    وصانعي السياسة وعلماء القانون
  • 12:17 - 12:20
    وعلماء النفس وعلماء الاجتماع
    والأنثروبولوجيا --
  • 12:20 - 12:21
    إننا نحتاج مناظير أكثر داخل الغرفة
  • 12:21 - 12:24
    إذا كنا سنفعل الشيء الذي قال
    (ستيوارت كارد) أنه يجب علينا فعله
  • 12:24 - 12:28
    وهو ابتكار المستقبل الذي نرغب بالفعل
    أن نعيش فيه.
  • 12:28 - 12:31
    وأظن أن بإمكاننا أن نواصل
    اختبارنا معًا لهذه
  • 12:31 - 12:33
    السيناريوهات المستقبلية
    المختلفة للروبوتات،
  • 12:33 - 12:38
    وبفعلنا لهذا، سينتهي بنا المطاف
    بتعلم الكثير عن أنفسنا.
  • 12:39 - 12:40
    شكرًا لكم.
  • 12:40 - 12:42
    (تصفيق)
Title:
أن تكون روبوتًا!
Speaker:
ليلى تاكاياما
Description:

نحن نعيش بالفعل بين الروبوتات: الأدوات والآلات مثل غسالات الأطباق ونواظم درجة الحرارة مدمجة في حياتنا بدرجة كبيرة حتى أننا لا نفكر أن نطلق عليها اسم روبوتات. كيف سيبدو المستقبل بوجود روبوتات أكثر كثيرًا. تشارك الباحثة الاجتماعية ليلي تاكاياما بعض التحديات الفريدة التي تواجه التصميم من أجل التفاعل بين الإنسان والروبوت -- وكيف أن اختبار السيناريوهات المستقبلية للروبوتات تقودنا بالفعل نحو فهمٍ أفضل لأنفسنا.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:55

Arabic subtitles

Revisions