< Return to Video

ربات بودن چه شکلی است؟

  • 0:01 - 0:03
    شما فقط یک شانس دارید
    تا اولین تاثیر را بگذارید،
  • 0:03 - 0:07
    چه ربات باشید چه انسان،
    این جمله درست است.
  • 0:07 - 0:10
    اولین بار که من یکی از این رباتها را دیدم
  • 0:10 - 0:13
    در موسسهٔ «ویلو گِراج» در سال ۲۰۰۸ بود.
  • 0:13 - 0:16
    وقتی برای بازدید آنجا رفتم،
    میزبانم با من به ساختمان آمد
  • 0:16 - 0:17
    و ما این کوچولو را ملاقات کردیم.
  • 0:17 - 0:19
    او به سمت محل ورودی حرکت میکرد،
  • 0:19 - 0:21
    به طرف من آمد، آنجا نشست،
  • 0:21 - 0:23
    خیره و بدون هیچ علاقهای به من
    از کنارم گذشت،
  • 0:23 - 0:25
    برای مدتی هیچ کاری انجام نداد،
  • 0:25 - 0:27
    به سرعت سرش را ۱۸۰ درجه چرخاند
  • 0:27 - 0:28
    و بعد فرار کرد.
  • 0:28 - 0:30
    به عنوان اولین تأثیر، عالی نبود.
  • 0:30 - 0:33
    آنچه من آن روز دربارهٔ رباتها آموختم
  • 0:33 - 0:35
    این بود که به نوعی
    کار خود را انجام میدهند،
  • 0:35 - 0:37
    و کاملاً از حضور ما آگاه نیستند.
  • 0:37 - 0:40
    فکر میکنم وقتی آیندههای
    رباتی ممکن را آزمایش میکنیم،
  • 0:40 - 0:43
    دربارهٔ خود بسیار یاد میگیریم
  • 0:43 - 0:45
    بیشتر از آموختن دربارهٔ ماشینها.
  • 0:45 - 0:46
    من آن روز آموختم
  • 0:46 - 0:49
    که انتظارات من دربارهٔ این رفیق کوچک
    فوقالعاده زیاد بود.
  • 0:49 - 0:53
    او نه تنها قرار بود که بتواند مسیر را
    در جهان واقعی پیدا کند،
  • 0:53 - 0:55
    که همچنین باید مسیر را
    در جهان اجتماعی بیابد --
  • 0:55 - 0:57
    او در اتاق من است؛ این یک ربات شخصی است.
  • 0:58 - 1:00
    چرا من را نمیفهمید؟
  • 1:00 - 1:01
    میزبان برایم توضیح داد،
  • 1:01 - 1:04
    « خب، ربات تلاش میکند
    از نقطه «آ» به نقطه «ب» برود،
  • 1:04 - 1:06
    و شما یک مانع بر سر راهش بودید،
  • 1:06 - 1:08
    او مجبور بود
    دوباره برنامهریزی کند،
  • 1:08 - 1:09
    بفهمد کجا برود،
  • 1:09 - 1:11
    و بعد مسیر دیگری را برود،»
  • 1:11 - 1:13
    آنچه چندان روش مؤثری در عمل نبود.
  • 1:13 - 1:17
    اگر آن ربات فهمیده بود که من
    یک انسانم، نه یکی صندلی،
  • 1:17 - 1:19
    و میخواهم از سر راهش کنار بروم
  • 1:19 - 1:20
    اگر تلاش میکرد تا جایی برود،
  • 1:20 - 1:23
    در واقع بعد از آن میتوانست مؤثرتر باشد
  • 1:23 - 1:24
    در انجام دادن کارهایش
  • 1:24 - 1:26
    اگر اهمیت داده بود
    که من یک انسان بودم
  • 1:26 - 1:30
    و این که من قابلیتهای متفاوتتری
    نسبت به صندلیها و دیوارها دارم.
  • 1:30 - 1:33
    میدانید، ما تمایل داریم فکر کنیم
    این رباتها موجوداتی فضایی هستند
  • 1:33 - 1:35
    از آینده و داستان علمی-تخیلی آمدهاند،
  • 1:35 - 1:37
    اگرچه این میتوانست درست باشد
  • 1:37 - 1:39
    میخواهم دلیل بیاورم
    که رباتها امروز اینجا هستند،
  • 1:39 - 1:42
    و آنها امروز دقیقاً میان ما
    زندگی و کار میکنند.
  • 1:42 - 1:45
    اینها دو رباتی هستند
    که در خانهام زندگی میکنند.
  • 1:45 - 1:47
    آنها خانه را جارو و علفها را هرس میکنند
  • 1:48 - 1:49
    هر روز،
  • 1:49 - 1:52
    بیشتر از آنچه ممکن است انجام بدهم
    اگر برای انجام این وظایف وقت داشتم،
  • 1:52 - 1:54
    آنها احتمالاً بهتر از من هم انجام میدهند.
  • 1:55 - 1:57
    این یکی از بچه گربهٔ من مراقبت میکند.
  • 1:57 - 2:00
    هر دفعه بعد از دستشویی گربه،
    ربات آنجا را تمیز میکند،
  • 2:00 - 2:02
    آنچه من مشتاق انجام دادنش نیستم،
  • 2:02 - 2:04
    در واقع او زندگی بچهگربه
    و من را بهتر میکند.
  • 2:04 - 2:07
    در حالی که ما این رباتها را
    محصولات مینامیم --
  • 2:07 - 2:09
    این «یک ربات جارو کننده است،
    این یک ربات علف هرسکُن است،
  • 2:09 - 2:11
    این ربات دستشویی گربه است.»
  • 2:11 - 2:15
    فکر میکنم تعداد زیادی از رباتهای دیگر
    هستند که ظاهرا قابل رویت نیستند
  • 2:15 - 2:17
    که خیلی مفید محسوب میشوند
  • 2:17 - 2:18
    و خیلی معمولی
  • 2:18 - 2:21
    که ما به آنها مثلا «ماشین ظرفشویی»
    میگوییم، درسته؟
  • 2:21 - 2:22
    آنها نام جدید میگیرند.
  • 2:22 - 2:24
    به آنها دیگر ربات گفته نمیشود
  • 2:24 - 2:26
    چون آنها در واقع یک هدف
    در زندگی ما دارند.
  • 2:26 - 2:28
    مثل یک ترموستات، درسته؟
  • 2:28 - 2:30
    میدانم دوستان رباتیک من خارج از اینجا
  • 2:30 - 2:32
    احتمالاً جا میخورند
    که به این ربات میگویم،
  • 2:32 - 2:33
    اما این یک هدف دارد.
  • 2:33 - 2:36
    هدفش این است که دمای خانهٔ من
    ۱۹ درجه سانتیگراد باشد،
  • 2:36 - 2:37
    و این جهان را میفهمد.
  • 2:38 - 2:39
    میداند کمی هوا سرد است،
  • 2:39 - 2:42
    برنامه میریزد و بعد در دنیای واقعی
    آن را اجرا میکند.
  • 2:42 - 2:43
    این رباتیک است.
  • 2:43 - 2:46
    حتی اگر ممکن است ربات شبیه رُزی نباشد،
  • 2:46 - 2:49
    کاری انجام میدهد
    که برای زندگی من مفید است
  • 2:49 - 2:50
    پس مجبور نیستم مراقب باشم
  • 2:50 - 2:53
    تا خودم درجه گرما را بالا و پایین ببرم.
  • 2:53 - 2:56
    و من فکر میکنم حالا این سیستمها بین ما
    زندگی و کار میکنند،
  • 2:56 - 2:59
    و نه تنها بین ما زندگی میکنند
  • 2:59 - 3:01
    که احتمالاً شما هم یک عامل رباتی هستید.
  • 3:01 - 3:03
    وقتی رانندگی میکنید،
  • 3:03 - 3:05
    حس میکنید که ماشینوار
    آن را اجرا میکنید.
  • 3:05 - 3:08
    شما هم از نقطه «آ»
    به نقطه «ب» حرکت میکنید،
  • 3:08 - 3:10
    اما ماشین شما احتمالاً
    فرمان هیدرولیک دارد،
  • 3:10 - 3:13
    احتمالاً سیستمهای پدالی خودکار دارد،
  • 3:13 - 3:17
    ممکن است که فرستنده خودکار داشته باشد
    یا شاید حتی کنترل کنندهٔ سرعت هوشمند.
  • 3:17 - 3:19
    و اگرچه یک ماشین کاملاً مستقل نیست،
  • 3:20 - 3:21
    کمی استقلال هم دارد،
  • 3:21 - 3:22
    و آنها بسیار مفید هستند
  • 3:22 - 3:24
    و رانندگی ما را ایمنتر میکنند،
  • 3:24 - 3:28
    ما به نوعی احساس میکنیم
    که آنها نامرئی کار میکنند، درسته؟
  • 3:28 - 3:29
    خب وقتی رانندگی میکنید،
  • 3:29 - 3:32
    شما باید فقط احساس کنید
    که از یک مکان به مکان دیگری میروید.
  • 3:32 - 3:36
    احساس نمیکنید این یک کار بزرگ است
    که مجبورید با آن کنار بیایید و اجرا کنید
  • 3:36 - 3:37
    و از کنترلها استفاده کنید
  • 3:37 - 3:40
    چون زمان زیادی سپری کردیم
    تا رانندگی بیاموزیم
  • 3:40 - 3:42
    و آنها افزونههای خودمان شدهاند.
  • 3:42 - 3:45
    وقتی ماشین خود را
    در پارکینگ خیلی کوچک پارک میکنید،
  • 3:45 - 3:47
    میدانید گوشههای شما کجا هستند.
  • 3:47 - 3:50
    وقتی ماشین اجارهای را میرانید
    که ممکن است قبلا آن را نرانده باشید،
  • 3:50 - 3:53
    کمی زمان میبرد
    تا به بدن ربات جدید خود عادت کنید.
  • 3:53 - 3:57
    و این برای اجراکنندگان
    انواع دیگر رباتها هم درست است،
  • 3:57 - 4:00
    میخواهم چند داستان
    در این زمینه برای شما بگویم.
  • 4:00 - 4:03
    حل کردن مشکل همکاری از راه دور.
  • 4:03 - 4:05
    خب در «ویلو گِراج» من همکاری
    به نام «دالاس» داشتم،
  • 4:05 - 4:07
    و «دالاس» شبیه این بود.
  • 4:07 - 4:11
    او از خانهاش در ایندیانا
    در شرکت ما در کالیفرنیا کار میکرد.
  • 4:11 - 4:14
    او صدایی از یک جعبه روی میز
    در بیشتر جلسههای ما بود،
  • 4:14 - 4:16
    این تقریباً خوب بود جز این که، میدانید،
  • 4:16 - 4:19
    اگر ما یک بحث واقعاً داغ داشتیم
    و آنچه میگفت دوست نداشتیم،
  • 4:19 - 4:21
    ممکن بود تماس را قطع کنیم.
  • 4:21 - 4:22
    (خنده)
  • 4:22 - 4:24
    پس ما ممکن بود یک جلسه
    بعد از آن جلسه بگذاریم
  • 4:24 - 4:27
    و در راهرو تصمیمهایی بگیریم
  • 4:27 - 4:28
    زمانی که او دیگر آنجا نبود.
  • 4:28 - 4:30
    خب این برای او خیلی عالی نبود.
  • 4:30 - 4:32
    و چون «ویلو» یک شرکت رباتیک است
  • 4:32 - 4:34
    ما تعدادی اعضای بدن ربات اضافه
    اطرافمان داشتیم،
  • 4:34 - 4:37
    پس «دالاس» و دوست او «کورت»
    این را درست کردند،
  • 4:37 - 4:40
    آنچه شبیه نوعی «اسکایپ»
    روی دسته با چرخ بود،
  • 4:40 - 4:41
    شبیه اسباببازی فناورانه و خنگ بود،
  • 4:41 - 4:44
    اما در واقع احتمالا
    یکی از قدرتمندترین ابزارها بود
  • 4:44 - 4:47
    که تابهحال دیدهام
    برای دورکاری ساخته شده است.
  • 4:47 - 4:51
    خب حالا، اگر من جواب
    سوال ایمیلی «دالاس» را نمیدادم،
  • 4:51 - 4:53
    او میتوانست به دفتر من بیاید،
  • 4:53 - 4:55
    راه ورودم را ببندد
    و دوباره سوالش را بپرسد --
  • 4:56 - 4:57
    (خنده)
  • 4:57 - 4:58
    تا این که جوابش را بدهم.
  • 4:58 - 5:01
    و من نمیخواهم او را خاموش کنم، درسته؟
    نوعی بیادبی است.
  • 5:01 - 5:03
    این نه تنها برای ارتباطات
    میان فردی خوب است،
  • 5:04 - 5:06
    که برای نشان دادن مشارکت همه اعضا
    در جلسات شرکت هم خوب است.
  • 5:06 - 5:08
    این که روی صندلیتان لم بدهید
  • 5:08 - 5:11
    و به افراد نشان بدهید
    آنجا حاضرید و به پروژهتان متعهد هستید
  • 5:11 - 5:13
    خیلی مهم است
  • 5:13 - 5:15
    و میتواند به دورکاری کمک زیادی کند.
  • 5:15 - 5:18
    ما این را در بازههای زمانی
    چندماهه و بعد چندساله دیدیم،
  • 5:18 - 5:20
    نه تنها در شرکت ما
    که برای دیگران همینطور بود.
  • 5:21 - 5:23
    بهترین اتفاقی که میتواند
    با این سیستمها بیفتد
  • 5:23 - 5:25
    این بود که کم کم احساس میکنید
    شما هم آنجا هستید.
  • 5:25 - 5:27
    این شمایید، این بدن شماست،
  • 5:27 - 5:30
    پس افراد کم کم به اینها
    اجازه داشتن فضاهای شخصی دادند.
  • 5:30 - 5:32
    خب وقتی یک جلسه سرپایی دارید،
  • 5:32 - 5:34
    و افراد دور هم جمع میشوند
  • 5:34 - 5:36
    همانطوری که انجام میشود
    اگر شخصا آنجا باشید
  • 5:36 - 5:39
    این عالی بود تا وقتی
    شکستهایی به وجود آمد.
  • 5:39 - 5:41
    افراد، وقتی اولین بار رباتها را میدیدند،
  • 5:41 - 5:44
    میگفتند: «اوه، بقیه اجزا
    کجاست؟ باید یه دوربین این طرفها باشد،»
  • 5:44 - 5:46
    و به صورت شما ضربه میزدند.
  • 5:46 - 5:49
    «خیلی آرام حرف میزنی، میخواهم
    کمی صدایت را بلندتر کنم،»
  • 5:49 - 5:52
    مثل این که همکارتان بیاید
    جلوی شما بایستد و بگوید،
  • 5:52 - 5:54
    «خیلی آرام حرف میزنی، میخواهم
    صدایت را بالا ببرم.»
  • 5:55 - 5:56
    این ناراحتکننده است،
  • 5:56 - 5:58
    و ما تلاش کردیم تا هنجارهای
    اجتماعی جدیدی داشته باشیم
  • 5:58 - 6:01
    برای استفاده کردن از این سیستمها.
  • 6:01 - 6:04
    به همین ترتیب وقتی حس میکنید
    که این مثل بدن شماست،
  • 6:04 - 6:08
    شروع میکنید به نکاتی توجه میکنید
    مثل «اوه، ربات من کمی کوتاه قد است،»
  • 6:08 - 6:11
    دالاس به من اینها را میگفت --
    قد او ۱۸۶ سانتیمتر است --
  • 6:11 - 6:14
    و ما او را از طریق ربات به مهمانیهای رسمی
    و مشابه آن میبردیم،
  • 6:14 - 6:15
    درست مثل شما،
  • 6:15 - 6:19
    و قد ربات حدود ۱۵۲ سانتیمتر بود،
    نزدیک به قد من.
  • 6:19 - 6:20
    و او به من میگفت،
  • 6:20 - 6:22
    «میدونی افراد واقعا به من نگاه نمیکنند.
  • 6:22 - 6:25
    حس میکنم فقط به دریایی
    از شانهها نگاه میکنم،
  • 6:25 - 6:27
    و فقط -- ما به ربات
    قدبلندتری نیاز داریم.»
  • 6:27 - 6:28
    و من به او گفتم،
  • 6:28 - 6:30
    «هوم، نه.
  • 6:30 - 6:32
    تو مثل من امروز قدم زدی.
  • 6:32 - 6:35
    دیدی چه حسی داری
    اگر در بخش کوتاهتر طیف باشی.»
  • 6:35 - 6:39
    و او به میزان زیادی
    همذاتپنداری را تجربه کرد،
  • 6:39 - 6:40
    که خیلی عالی بود.
  • 6:40 - 6:42
    خب پس وقتی بهشخصه برای ملاقات آمد،
  • 6:42 - 6:44
    دیگر بالای سر من نمیایستاد
    وقتی با من حرف میزد،
  • 6:44 - 6:46
    او مینشست و با من چشم در چشم صحبت میکرد،
  • 6:46 - 6:48
    که به نوعی نکتهٔ زیبایی بود.
  • 6:48 - 6:51
    خب ما تصمیم گرفتیم تا این را
    در آزمایشگاه بررسی کنیم
  • 6:51 - 6:54
    و ببینیم چه تفاوتهای دیگری
    مثل قد ربات ممکن است باشد.
  • 6:54 - 6:57
    نیمی از افراد مورد مطالعه
    رباتهای قدکوتاهتری داشتند،
  • 6:57 - 7:00
    نیم دیگری از آنها
    رباتهای قدبلندتری استفاده کردند
  • 7:00 - 7:02
    و ما فهمیدیم همان شخصی
  • 7:02 - 7:05
    که دقیقاً همان بدن را دارد
    و دقیقاً همان حرفها را بیان میکند
  • 7:05 - 7:08
    قانعکنندهتر است و معتبرتر شناخته میشود
  • 7:08 - 7:10
    اگر به شکل ربات قدبلندتری باشند،
  • 7:10 - 7:11
    منطقی به نظر نمیرسد،
  • 7:11 - 7:13
    به همین دلیل روانشناسی خواندیم.
  • 7:13 - 7:16
    و در واقع راهی که «کلیف نس» تعیین کرد
  • 7:16 - 7:19
    این بود که ما مجبوریم
    با این تکنولوژیهای جدید مدارا کنیم
  • 7:19 - 7:22
    علیرغم این که ما
    مغزهایی بسیار قدیمی داریم.
  • 7:22 - 7:25
    روانشناسی بشر به همان
    سرعت تکنولوژی تغییر نمیکند
  • 7:25 - 7:27
    و ما همیشه سعی میکنیم عقب نمانیم،
  • 7:27 - 7:28
    تلاش میکنیم به این جهان معنا بدهیم
  • 7:28 - 7:31
    جایی که این اشیاء مستقل
    در اطراف ما فعالیت میکنند.
  • 7:31 - 7:33
    معمولا آنچه صحبت میکند انسانها هستند،
    نه ماشین، درسته؟
  • 7:33 - 7:38
    و ما معناهای زیادی برای اشیاء خلق میکنیم
    مثل ارتفاع یک ماشین،
  • 7:38 - 7:39
    نه یک انسان،
  • 7:39 - 7:42
    و به فرد مصرفکننده این سیستم
    تشخص میدهیم.
  • 7:43 - 7:45
    میدانید، فکر میکنم، این بسیار مهم است
  • 7:45 - 7:47
    وقتی دربارهٔ رباتیک فکر میکنید.
  • 7:47 - 7:49
    این دربارهٔ اختراع
    دوبارهٔ انسانها نیست،
  • 7:49 - 7:52
    بیشتر درک این است که چهطور
    از توانایی خود استفاده میکنیم، درسته؟
  • 7:52 - 7:55
    و ما طوری از این اشیاء استفاده میکنیم
    که تعجببرانگیز است.
  • 7:55 - 8:00
    خب این دوستان نمیتوانند بیلیارد بازی کنند
    چون رباتها بازو ندارند،
  • 8:00 - 8:02
    اما میتوانند شلوغ کنند
    وقتی دیگران بازی میکنند
  • 8:02 - 8:05
    و این میتواند برای همبستگی تیمی
    بسیار مهم باشد،
  • 8:05 - 8:07
    که به نوعی خوب است.
  • 8:07 - 8:09
    افرادی که خوب میتوانند
    این سیستمها را اجرا کنند
  • 8:09 - 8:11
    حتی ساختن بازیهای جدید را
    انجام خواهند داد،
  • 8:11 - 8:13
    مثل فوتبال رباتها در نیمه شب،
  • 8:13 - 8:15
    پرت کردن کنسرو خالی به اطراف.
  • 8:15 - 8:16
    اما همه خوب نیستند.
  • 8:16 - 8:19
    بسیاری از افراد در اجرای
    این سیستمها مشکل دارند.
  • 8:19 - 8:21
    این در واقع فردی است
    که به یک ربات وارد شده است
  • 8:21 - 8:24
    و چشم او ۹۰ درجه به چپ میچرخید.
  • 8:24 - 8:25
    او این را نمیدانست،
  • 8:25 - 8:27
    خب او فقط اطراف دفتر میچرخید،
  • 8:27 - 8:30
    به میز افراد نزدیک میشد
    و بسیار خجالتزده میشد
  • 8:30 - 8:32
    و میخندید -- صدای او بسیار بلند بود.
  • 8:32 - 8:34
    و این فرد اینجا در تصویر به من میگوید،
  • 8:34 - 8:36
    «ما به یک دکمهٔ ربات خاموشکن نیاز داریم.»
  • 8:36 - 8:40
    منظور او این بود
    که ما نمیخواهیم او خیلی مختلکننده باشد.
  • 8:40 - 8:41
    پس به عنوان یک شرکت رباتیک،
  • 8:42 - 8:44
    ما چند اجتناب از مانع
    به سیستم اضافه کردیم.
  • 8:44 - 8:47
    آن یک رهیاب لیزری کوچک گرفت
    که میتوانست موانع را ببیند،
  • 8:47 - 8:50
    و اگر من به عنوان عامل ربات
    بخواهم بگویم، برو به سمت صندلی،
  • 8:50 - 8:53
    آن به من اجازه نمیدهد،
    فقط برای مسیر برنامه میدهد،
  • 8:53 - 8:55
    که به نظر ایدهٔ خوبی میرسد.
  • 8:55 - 8:58
    افراد با استفاده از این دستگاه
    به موانع کمتری برخورد میکردند،
  • 8:58 - 9:00
    اما در واقع، برای بعضی از افراد،
  • 9:00 - 9:03
    زمان بیشتری لازم بود
    تا دورهٔ موانع ما را از سر بگذرانند،
  • 9:03 - 9:04
    و ما میخواستیم بدانیم چرا.
  • 9:05 - 9:08
    این اتفاق میافتد
    چون این بُعد انسانی مهم وجود دارد
  • 9:08 - 9:10
    یک بُعد شخصیتی
    که منبع کنترل نامیده میشود،
  • 9:10 - 9:14
    و افرادی که منبع کنترل داخلی قوی دارند،
  • 9:14 - 9:17
    نیاز دارند تا بر سرنوشت خود مسلط باشند --
  • 9:17 - 9:20
    و واقعاً دوست ندارند
    تا کنترل را به یک سیستم مستقل بدهند --
  • 9:20 - 9:22
    پس به احتمال زیاد
    با این رویه مبارزه میکنند
  • 9:22 - 9:25
    «اگر میخواهم به آن صندلی بزنم،
    واقعا میخواهم این کار را بکنم.»
  • 9:25 - 9:29
    و آنها واقعاً از داشتن
    این کمکهای خودکار رنج میبرند،
  • 9:29 - 9:31
    آنچه برای ما بسیار مهم است که بشناسیم
  • 9:31 - 9:35
    چون ما روزافزون سیستمهای خودکار
    مثل ماشین میسازیم، درسته؟
  • 9:35 - 9:38
    افراد به چه روشهای متفاوتی
    با این از دست دادن کنترل کنار میآیند؟
  • 9:39 - 9:42
    این میتواند وابسته
    به ابعاد انسانی متفاوت باشد.
  • 9:42 - 9:45
    نمیتوانیم با انسانها طوری رفتار کنیم
    انگار ما فقط یک شیء بیجان هستیم.
  • 9:45 - 9:48
    ما با شخصیت و فرهنگ از هم متمایز میشویم،
  • 9:48 - 9:50
    حتی وضعیت احساسی تفاوت ایجاد میکند
    لحظه به لحظه،
  • 9:50 - 9:52
    و ما را قادر به طراحی این سیستمها میکند،
  • 9:52 - 9:54
    این سیستمهای تعامل انسان-ربات،
  • 9:54 - 9:57
    ما نیاز داریم تا ابعاد انسانی را
    مد نظر قرار دهیم،
  • 9:57 - 9:59
    نه فقط ابعاد فنی و تکنولوژیکی را.
  • 10:00 - 10:04
    همراه با حس کنترل،
    حس مسئولیتپذیری هم میآید.
  • 10:04 - 10:07
    و اگر شما عامل رباتی باشید
    که از این سیستمها استفاده میکنید
  • 10:07 - 10:09
    واسطه کامپیوتری به این شبیه است
  • 10:09 - 10:11
    این تا حدی شبیه به یک بازی ویدیویی است،
  • 10:11 - 10:14
    آنچه میتواند خوب باشد
    چون برای افراد بسیار آشناست،
  • 10:14 - 10:15
    اما بد هم میتواند باشد
  • 10:15 - 10:18
    چون افراد احساس میکنند
    شبیه یک بازی ویدیویی است.
  • 10:18 - 10:20
    بچههای زیادی در استنفورد داشتیم
    تا با این سیستم بازی کنند
  • 10:20 - 10:23
    و رباتها را در دفتر ما
    در «منلو پارک» راه ببرند،
  • 10:23 - 10:25
    بچهها شروع کردند به گفتن این که،
  • 10:25 - 10:28
    «۱۰ امتیاز اگر به آن فرد ضربه بزنی،
    ۲۰ امتیاز برای آن یکی.»
  • 10:28 - 10:30
    و آنها را در راهرو دنبال میکردند.
  • 10:30 - 10:31
    (خنده)
  • 10:31 - 10:33
    به بچهها گفتم، «آنها افراد واقعی هستند،
  • 10:33 - 10:36
    ممکن است خونریزی کنند یا درد داشته باشند
    اگر به آنها ضربه بزنید.»
  • 10:36 - 10:38
    و واکنش این بود، «باشه، فهمیدم.»
  • 10:38 - 10:40
    اما پنج دقیقه بعد،
    رفتار آنها این طوری بود،
  • 10:40 - 10:44
    «۲۰ امتیاز برای آن فردی که آنجاست،
    چهرهاش میگوید میخواهد ضربه بخورد.»
  • 10:44 - 10:46
    این کمی شبیه فیلم «اِندرز گیم» است، درسته؟
  • 10:46 - 10:48
    دنیای واقعی در طرف دیگر وجود دارد
  • 10:48 - 10:51
    و فکر میکنم این مسئولیت ما است
    به عنوان طراحان این واسطههای کامپیوتری
  • 10:51 - 10:53
    تا به افراد یادآوری کنیم
  • 10:53 - 10:55
    نتایج واقعی برای اعمال آنها وجود دارد
  • 10:55 - 10:57
    تا حس مسئولیت داشته باشند
  • 10:57 - 11:01
    وقتی با این ابزارهای خودکار
    رو به فزونی کار میکنند.
  • 11:02 - 11:04
    اینها مثالهای مهمی هستند
  • 11:04 - 11:07
    از آزمایش یکی از آیندههای محتمل رباتیک،
  • 11:07 - 11:11
    فکر میکنم بسیار جالب است
    که میتوانیم خود را توانمندتر کنیم
  • 11:11 - 11:14
    و یاد بگیریم چه طور با این ماشینها
  • 11:14 - 11:15
    توانمند شویم
  • 11:15 - 11:18
    در حالی که همزمان قادر باشیم
    انسانیت خود را بیان کنیم
  • 11:18 - 11:19
    و شخصیت خود را.
  • 11:19 - 11:20
    همچنین میتوانیم دیگران را بفهمیم
  • 11:20 - 11:24
    برای کوتاهی، بلندی، سریعتر، کُندتر بودن،
  • 11:24 - 11:25
    و شاید حتی نداشتن دست،
  • 11:25 - 11:26
    که این همدلی خوب است.
  • 11:27 - 11:29
    ما همچنین با رباتها همذاتپنداری میکنیم
  • 11:29 - 11:31
    این یکی از رباتهای محبوب من است.
  • 11:31 - 11:32
    به آن «تویینبات» میگویند.
  • 11:32 - 11:34
    او یک پرچم کوچک دارد که میگوید،
  • 11:34 - 11:37
    «من تلاش میکنم تا به این تقاطع
    در منهتن برسم،»
  • 11:37 - 11:40
    این زیباست و به جلو حرکت میکند، همین.
  • 11:40 - 11:43
    نمیداند چه طور نقشه بکشد،
    نمیداند چهطور دنیا را ببیند،
  • 11:43 - 11:44
    فقط کمک میخواهد.
  • 11:44 - 11:46
    نکتهٔ خوب دربارهٔ مردم
  • 11:46 - 11:49
    این است که میتواند وابسته
    به مهربانی غریبهها باشد.
  • 11:49 - 11:53
    او از پارک به طرف دیگر منهتن عبور کرد --
  • 11:53 - 11:54
    که خیلی عالی است --
  • 11:54 - 11:58
    فقط به خاطر این که مردم آن را برمیدارند
    و در مسیر درست قرار میدهند.
  • 11:58 - 11:58
    (خنده)
  • 11:59 - 12:00
    عالی است، نه؟
  • 12:00 - 12:02
    ما تلاش میکنیم
    این دنیای ربات-انسانی را بسازیم
  • 12:03 - 12:06
    که در آن میتوانیم با هم زندگی
    و مشارکت کنیم،
  • 12:06 - 12:09
    ما نیاز نداریم کاملاً مستقل شویم
    و همه کارها را خود انجام دهیم.
  • 12:09 - 12:11
    همه چیز را با هم انجام میدهیم.
  • 12:11 - 12:12
    و برای به اجرا در آمدن آن،
  • 12:12 - 12:15
    به کمک افرادی مثل هنرمندان
    و طراحان نیاز داریم،
  • 12:15 - 12:17
    سیاستگذاران، اساتید حقوق،
  • 12:17 - 12:20
    روانشناسان، جامعهشناسان، مردمشناسان --
  • 12:20 - 12:21
    ما به دیدگاههای بیشتری نیاز داریم
  • 12:21 - 12:24
    اگر میخواهیم کاری کنیم
    که استو کارد میگوید باید انجام بدهیم،
  • 12:24 - 12:28
    اختراع آیندهای که در واقع
    میخواهیم در آن زندگی کنیم.
  • 12:28 - 12:31
    فکر میکنم میتوانیم
    به آزمایش کردن ادامه بدهیم
  • 12:31 - 12:33
    با این آیندههای رباتیک متفاوت با یکدیگر،
  • 12:33 - 12:38
    و در حین انجام آن، ما بسیار بیشتر
    دربارهٔ خود یاد میگیریم.
  • 12:39 - 12:40
    متشکرم.
  • 12:40 - 12:42
    (تشویق)
Title:
ربات بودن چه شکلی است؟
Speaker:
لیلا تاکایاما
Description:

ما هم‌اکنون میان ربات‌ها زندگی می‌کنیم: ابزارها و ماشینهایی مثل ماشین ظرفشویی و ترموستات آن قدر با زندگی‌های ما عجین شده‌اند که هرگز فکر نمی‌کنیم آن‌ها را ربات بنامیم. آینده با تعداد ربا‌ت‌های بیشتر چگونه خواهد بود؟ لیلا تاکایاما جامعه‌شناس بعضی از چالش‌های منحصربه فرد طراحی تعاملات انسان-ربات را به اشتراک می‌گذارد -- و این که چگونه آزمایش کردن با آینده‌های رباتیک در واقع ما را به بهتر فهمیدن خود سوق می‌دهد.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:55

Persian subtitles

Revisions