ربات بودن چه شکلی است؟
-
0:01 - 0:03شما فقط یک شانس دارید
تا اولین تاثیر را بگذارید، -
0:03 - 0:07چه ربات باشید چه انسان،
این جمله درست است. -
0:07 - 0:10اولین بار که من یکی از این رباتها را دیدم
-
0:10 - 0:13در موسسهٔ «ویلو گِراج» در سال ۲۰۰۸ بود.
-
0:13 - 0:16وقتی برای بازدید آنجا رفتم،
میزبانم با من به ساختمان آمد -
0:16 - 0:17و ما این کوچولو را ملاقات کردیم.
-
0:17 - 0:19او به سمت محل ورودی حرکت میکرد،
-
0:19 - 0:21به طرف من آمد، آنجا نشست،
-
0:21 - 0:23خیره و بدون هیچ علاقهای به من
از کنارم گذشت، -
0:23 - 0:25برای مدتی هیچ کاری انجام نداد،
-
0:25 - 0:27به سرعت سرش را ۱۸۰ درجه چرخاند
-
0:27 - 0:28و بعد فرار کرد.
-
0:28 - 0:30به عنوان اولین تأثیر، عالی نبود.
-
0:30 - 0:33آنچه من آن روز دربارهٔ رباتها آموختم
-
0:33 - 0:35این بود که به نوعی
کار خود را انجام میدهند، -
0:35 - 0:37و کاملاً از حضور ما آگاه نیستند.
-
0:37 - 0:40فکر میکنم وقتی آیندههای
رباتی ممکن را آزمایش میکنیم، -
0:40 - 0:43دربارهٔ خود بسیار یاد میگیریم
-
0:43 - 0:45بیشتر از آموختن دربارهٔ ماشینها.
-
0:45 - 0:46من آن روز آموختم
-
0:46 - 0:49که انتظارات من دربارهٔ این رفیق کوچک
فوقالعاده زیاد بود. -
0:49 - 0:53او نه تنها قرار بود که بتواند مسیر را
در جهان واقعی پیدا کند، -
0:53 - 0:55که همچنین باید مسیر را
در جهان اجتماعی بیابد -- -
0:55 - 0:57او در اتاق من است؛ این یک ربات شخصی است.
-
0:58 - 1:00چرا من را نمیفهمید؟
-
1:00 - 1:01میزبان برایم توضیح داد،
-
1:01 - 1:04« خب، ربات تلاش میکند
از نقطه «آ» به نقطه «ب» برود، -
1:04 - 1:06و شما یک مانع بر سر راهش بودید،
-
1:06 - 1:08او مجبور بود
دوباره برنامهریزی کند، -
1:08 - 1:09بفهمد کجا برود،
-
1:09 - 1:11و بعد مسیر دیگری را برود،»
-
1:11 - 1:13آنچه چندان روش مؤثری در عمل نبود.
-
1:13 - 1:17اگر آن ربات فهمیده بود که من
یک انسانم، نه یکی صندلی، -
1:17 - 1:19و میخواهم از سر راهش کنار بروم
-
1:19 - 1:20اگر تلاش میکرد تا جایی برود،
-
1:20 - 1:23در واقع بعد از آن میتوانست مؤثرتر باشد
-
1:23 - 1:24در انجام دادن کارهایش
-
1:24 - 1:26اگر اهمیت داده بود
که من یک انسان بودم -
1:26 - 1:30و این که من قابلیتهای متفاوتتری
نسبت به صندلیها و دیوارها دارم. -
1:30 - 1:33میدانید، ما تمایل داریم فکر کنیم
این رباتها موجوداتی فضایی هستند -
1:33 - 1:35از آینده و داستان علمی-تخیلی آمدهاند،
-
1:35 - 1:37اگرچه این میتوانست درست باشد
-
1:37 - 1:39میخواهم دلیل بیاورم
که رباتها امروز اینجا هستند، -
1:39 - 1:42و آنها امروز دقیقاً میان ما
زندگی و کار میکنند. -
1:42 - 1:45اینها دو رباتی هستند
که در خانهام زندگی میکنند. -
1:45 - 1:47آنها خانه را جارو و علفها را هرس میکنند
-
1:48 - 1:49هر روز،
-
1:49 - 1:52بیشتر از آنچه ممکن است انجام بدهم
اگر برای انجام این وظایف وقت داشتم، -
1:52 - 1:54آنها احتمالاً بهتر از من هم انجام میدهند.
-
1:55 - 1:57این یکی از بچه گربهٔ من مراقبت میکند.
-
1:57 - 2:00هر دفعه بعد از دستشویی گربه،
ربات آنجا را تمیز میکند، -
2:00 - 2:02آنچه من مشتاق انجام دادنش نیستم،
-
2:02 - 2:04در واقع او زندگی بچهگربه
و من را بهتر میکند. -
2:04 - 2:07در حالی که ما این رباتها را
محصولات مینامیم -- -
2:07 - 2:09این «یک ربات جارو کننده است،
این یک ربات علف هرسکُن است، -
2:09 - 2:11این ربات دستشویی گربه است.»
-
2:11 - 2:15فکر میکنم تعداد زیادی از رباتهای دیگر
هستند که ظاهرا قابل رویت نیستند -
2:15 - 2:17که خیلی مفید محسوب میشوند
-
2:17 - 2:18و خیلی معمولی
-
2:18 - 2:21که ما به آنها مثلا «ماشین ظرفشویی»
میگوییم، درسته؟ -
2:21 - 2:22آنها نام جدید میگیرند.
-
2:22 - 2:24به آنها دیگر ربات گفته نمیشود
-
2:24 - 2:26چون آنها در واقع یک هدف
در زندگی ما دارند. -
2:26 - 2:28مثل یک ترموستات، درسته؟
-
2:28 - 2:30میدانم دوستان رباتیک من خارج از اینجا
-
2:30 - 2:32احتمالاً جا میخورند
که به این ربات میگویم، -
2:32 - 2:33اما این یک هدف دارد.
-
2:33 - 2:36هدفش این است که دمای خانهٔ من
۱۹ درجه سانتیگراد باشد، -
2:36 - 2:37و این جهان را میفهمد.
-
2:38 - 2:39میداند کمی هوا سرد است،
-
2:39 - 2:42برنامه میریزد و بعد در دنیای واقعی
آن را اجرا میکند. -
2:42 - 2:43این رباتیک است.
-
2:43 - 2:46حتی اگر ممکن است ربات شبیه رُزی نباشد،
-
2:46 - 2:49کاری انجام میدهد
که برای زندگی من مفید است -
2:49 - 2:50پس مجبور نیستم مراقب باشم
-
2:50 - 2:53تا خودم درجه گرما را بالا و پایین ببرم.
-
2:53 - 2:56و من فکر میکنم حالا این سیستمها بین ما
زندگی و کار میکنند، -
2:56 - 2:59و نه تنها بین ما زندگی میکنند
-
2:59 - 3:01که احتمالاً شما هم یک عامل رباتی هستید.
-
3:01 - 3:03وقتی رانندگی میکنید،
-
3:03 - 3:05حس میکنید که ماشینوار
آن را اجرا میکنید. -
3:05 - 3:08شما هم از نقطه «آ»
به نقطه «ب» حرکت میکنید، -
3:08 - 3:10اما ماشین شما احتمالاً
فرمان هیدرولیک دارد، -
3:10 - 3:13احتمالاً سیستمهای پدالی خودکار دارد،
-
3:13 - 3:17ممکن است که فرستنده خودکار داشته باشد
یا شاید حتی کنترل کنندهٔ سرعت هوشمند. -
3:17 - 3:19و اگرچه یک ماشین کاملاً مستقل نیست،
-
3:20 - 3:21کمی استقلال هم دارد،
-
3:21 - 3:22و آنها بسیار مفید هستند
-
3:22 - 3:24و رانندگی ما را ایمنتر میکنند،
-
3:24 - 3:28ما به نوعی احساس میکنیم
که آنها نامرئی کار میکنند، درسته؟ -
3:28 - 3:29خب وقتی رانندگی میکنید،
-
3:29 - 3:32شما باید فقط احساس کنید
که از یک مکان به مکان دیگری میروید. -
3:32 - 3:36احساس نمیکنید این یک کار بزرگ است
که مجبورید با آن کنار بیایید و اجرا کنید -
3:36 - 3:37و از کنترلها استفاده کنید
-
3:37 - 3:40چون زمان زیادی سپری کردیم
تا رانندگی بیاموزیم -
3:40 - 3:42و آنها افزونههای خودمان شدهاند.
-
3:42 - 3:45وقتی ماشین خود را
در پارکینگ خیلی کوچک پارک میکنید، -
3:45 - 3:47میدانید گوشههای شما کجا هستند.
-
3:47 - 3:50وقتی ماشین اجارهای را میرانید
که ممکن است قبلا آن را نرانده باشید، -
3:50 - 3:53کمی زمان میبرد
تا به بدن ربات جدید خود عادت کنید. -
3:53 - 3:57و این برای اجراکنندگان
انواع دیگر رباتها هم درست است، -
3:57 - 4:00میخواهم چند داستان
در این زمینه برای شما بگویم. -
4:00 - 4:03حل کردن مشکل همکاری از راه دور.
-
4:03 - 4:05خب در «ویلو گِراج» من همکاری
به نام «دالاس» داشتم، -
4:05 - 4:07و «دالاس» شبیه این بود.
-
4:07 - 4:11او از خانهاش در ایندیانا
در شرکت ما در کالیفرنیا کار میکرد. -
4:11 - 4:14او صدایی از یک جعبه روی میز
در بیشتر جلسههای ما بود، -
4:14 - 4:16این تقریباً خوب بود جز این که، میدانید،
-
4:16 - 4:19اگر ما یک بحث واقعاً داغ داشتیم
و آنچه میگفت دوست نداشتیم، -
4:19 - 4:21ممکن بود تماس را قطع کنیم.
-
4:21 - 4:22(خنده)
-
4:22 - 4:24پس ما ممکن بود یک جلسه
بعد از آن جلسه بگذاریم -
4:24 - 4:27و در راهرو تصمیمهایی بگیریم
-
4:27 - 4:28زمانی که او دیگر آنجا نبود.
-
4:28 - 4:30خب این برای او خیلی عالی نبود.
-
4:30 - 4:32و چون «ویلو» یک شرکت رباتیک است
-
4:32 - 4:34ما تعدادی اعضای بدن ربات اضافه
اطرافمان داشتیم، -
4:34 - 4:37پس «دالاس» و دوست او «کورت»
این را درست کردند، -
4:37 - 4:40آنچه شبیه نوعی «اسکایپ»
روی دسته با چرخ بود، -
4:40 - 4:41شبیه اسباببازی فناورانه و خنگ بود،
-
4:41 - 4:44اما در واقع احتمالا
یکی از قدرتمندترین ابزارها بود -
4:44 - 4:47که تابهحال دیدهام
برای دورکاری ساخته شده است. -
4:47 - 4:51خب حالا، اگر من جواب
سوال ایمیلی «دالاس» را نمیدادم، -
4:51 - 4:53او میتوانست به دفتر من بیاید،
-
4:53 - 4:55راه ورودم را ببندد
و دوباره سوالش را بپرسد -- -
4:56 - 4:57(خنده)
-
4:57 - 4:58تا این که جوابش را بدهم.
-
4:58 - 5:01و من نمیخواهم او را خاموش کنم، درسته؟
نوعی بیادبی است. -
5:01 - 5:03این نه تنها برای ارتباطات
میان فردی خوب است، -
5:04 - 5:06که برای نشان دادن مشارکت همه اعضا
در جلسات شرکت هم خوب است. -
5:06 - 5:08این که روی صندلیتان لم بدهید
-
5:08 - 5:11و به افراد نشان بدهید
آنجا حاضرید و به پروژهتان متعهد هستید -
5:11 - 5:13خیلی مهم است
-
5:13 - 5:15و میتواند به دورکاری کمک زیادی کند.
-
5:15 - 5:18ما این را در بازههای زمانی
چندماهه و بعد چندساله دیدیم، -
5:18 - 5:20نه تنها در شرکت ما
که برای دیگران همینطور بود. -
5:21 - 5:23بهترین اتفاقی که میتواند
با این سیستمها بیفتد -
5:23 - 5:25این بود که کم کم احساس میکنید
شما هم آنجا هستید. -
5:25 - 5:27این شمایید، این بدن شماست،
-
5:27 - 5:30پس افراد کم کم به اینها
اجازه داشتن فضاهای شخصی دادند. -
5:30 - 5:32خب وقتی یک جلسه سرپایی دارید،
-
5:32 - 5:34و افراد دور هم جمع میشوند
-
5:34 - 5:36همانطوری که انجام میشود
اگر شخصا آنجا باشید -
5:36 - 5:39این عالی بود تا وقتی
شکستهایی به وجود آمد. -
5:39 - 5:41افراد، وقتی اولین بار رباتها را میدیدند،
-
5:41 - 5:44میگفتند: «اوه، بقیه اجزا
کجاست؟ باید یه دوربین این طرفها باشد،» -
5:44 - 5:46و به صورت شما ضربه میزدند.
-
5:46 - 5:49«خیلی آرام حرف میزنی، میخواهم
کمی صدایت را بلندتر کنم،» -
5:49 - 5:52مثل این که همکارتان بیاید
جلوی شما بایستد و بگوید، -
5:52 - 5:54«خیلی آرام حرف میزنی، میخواهم
صدایت را بالا ببرم.» -
5:55 - 5:56این ناراحتکننده است،
-
5:56 - 5:58و ما تلاش کردیم تا هنجارهای
اجتماعی جدیدی داشته باشیم -
5:58 - 6:01برای استفاده کردن از این سیستمها.
-
6:01 - 6:04به همین ترتیب وقتی حس میکنید
که این مثل بدن شماست، -
6:04 - 6:08شروع میکنید به نکاتی توجه میکنید
مثل «اوه، ربات من کمی کوتاه قد است،» -
6:08 - 6:11دالاس به من اینها را میگفت --
قد او ۱۸۶ سانتیمتر است -- -
6:11 - 6:14و ما او را از طریق ربات به مهمانیهای رسمی
و مشابه آن میبردیم، -
6:14 - 6:15درست مثل شما،
-
6:15 - 6:19و قد ربات حدود ۱۵۲ سانتیمتر بود،
نزدیک به قد من. -
6:19 - 6:20و او به من میگفت،
-
6:20 - 6:22«میدونی افراد واقعا به من نگاه نمیکنند.
-
6:22 - 6:25حس میکنم فقط به دریایی
از شانهها نگاه میکنم، -
6:25 - 6:27و فقط -- ما به ربات
قدبلندتری نیاز داریم.» -
6:27 - 6:28و من به او گفتم،
-
6:28 - 6:30«هوم، نه.
-
6:30 - 6:32تو مثل من امروز قدم زدی.
-
6:32 - 6:35دیدی چه حسی داری
اگر در بخش کوتاهتر طیف باشی.» -
6:35 - 6:39و او به میزان زیادی
همذاتپنداری را تجربه کرد، -
6:39 - 6:40که خیلی عالی بود.
-
6:40 - 6:42خب پس وقتی بهشخصه برای ملاقات آمد،
-
6:42 - 6:44دیگر بالای سر من نمیایستاد
وقتی با من حرف میزد، -
6:44 - 6:46او مینشست و با من چشم در چشم صحبت میکرد،
-
6:46 - 6:48که به نوعی نکتهٔ زیبایی بود.
-
6:48 - 6:51خب ما تصمیم گرفتیم تا این را
در آزمایشگاه بررسی کنیم -
6:51 - 6:54و ببینیم چه تفاوتهای دیگری
مثل قد ربات ممکن است باشد. -
6:54 - 6:57نیمی از افراد مورد مطالعه
رباتهای قدکوتاهتری داشتند، -
6:57 - 7:00نیم دیگری از آنها
رباتهای قدبلندتری استفاده کردند -
7:00 - 7:02و ما فهمیدیم همان شخصی
-
7:02 - 7:05که دقیقاً همان بدن را دارد
و دقیقاً همان حرفها را بیان میکند -
7:05 - 7:08قانعکنندهتر است و معتبرتر شناخته میشود
-
7:08 - 7:10اگر به شکل ربات قدبلندتری باشند،
-
7:10 - 7:11منطقی به نظر نمیرسد،
-
7:11 - 7:13به همین دلیل روانشناسی خواندیم.
-
7:13 - 7:16و در واقع راهی که «کلیف نس» تعیین کرد
-
7:16 - 7:19این بود که ما مجبوریم
با این تکنولوژیهای جدید مدارا کنیم -
7:19 - 7:22علیرغم این که ما
مغزهایی بسیار قدیمی داریم. -
7:22 - 7:25روانشناسی بشر به همان
سرعت تکنولوژی تغییر نمیکند -
7:25 - 7:27و ما همیشه سعی میکنیم عقب نمانیم،
-
7:27 - 7:28تلاش میکنیم به این جهان معنا بدهیم
-
7:28 - 7:31جایی که این اشیاء مستقل
در اطراف ما فعالیت میکنند. -
7:31 - 7:33معمولا آنچه صحبت میکند انسانها هستند،
نه ماشین، درسته؟ -
7:33 - 7:38و ما معناهای زیادی برای اشیاء خلق میکنیم
مثل ارتفاع یک ماشین، -
7:38 - 7:39نه یک انسان،
-
7:39 - 7:42و به فرد مصرفکننده این سیستم
تشخص میدهیم. -
7:43 - 7:45میدانید، فکر میکنم، این بسیار مهم است
-
7:45 - 7:47وقتی دربارهٔ رباتیک فکر میکنید.
-
7:47 - 7:49این دربارهٔ اختراع
دوبارهٔ انسانها نیست، -
7:49 - 7:52بیشتر درک این است که چهطور
از توانایی خود استفاده میکنیم، درسته؟ -
7:52 - 7:55و ما طوری از این اشیاء استفاده میکنیم
که تعجببرانگیز است. -
7:55 - 8:00خب این دوستان نمیتوانند بیلیارد بازی کنند
چون رباتها بازو ندارند، -
8:00 - 8:02اما میتوانند شلوغ کنند
وقتی دیگران بازی میکنند -
8:02 - 8:05و این میتواند برای همبستگی تیمی
بسیار مهم باشد، -
8:05 - 8:07که به نوعی خوب است.
-
8:07 - 8:09افرادی که خوب میتوانند
این سیستمها را اجرا کنند -
8:09 - 8:11حتی ساختن بازیهای جدید را
انجام خواهند داد، -
8:11 - 8:13مثل فوتبال رباتها در نیمه شب،
-
8:13 - 8:15پرت کردن کنسرو خالی به اطراف.
-
8:15 - 8:16اما همه خوب نیستند.
-
8:16 - 8:19بسیاری از افراد در اجرای
این سیستمها مشکل دارند. -
8:19 - 8:21این در واقع فردی است
که به یک ربات وارد شده است -
8:21 - 8:24و چشم او ۹۰ درجه به چپ میچرخید.
-
8:24 - 8:25او این را نمیدانست،
-
8:25 - 8:27خب او فقط اطراف دفتر میچرخید،
-
8:27 - 8:30به میز افراد نزدیک میشد
و بسیار خجالتزده میشد -
8:30 - 8:32و میخندید -- صدای او بسیار بلند بود.
-
8:32 - 8:34و این فرد اینجا در تصویر به من میگوید،
-
8:34 - 8:36«ما به یک دکمهٔ ربات خاموشکن نیاز داریم.»
-
8:36 - 8:40منظور او این بود
که ما نمیخواهیم او خیلی مختلکننده باشد. -
8:40 - 8:41پس به عنوان یک شرکت رباتیک،
-
8:42 - 8:44ما چند اجتناب از مانع
به سیستم اضافه کردیم. -
8:44 - 8:47آن یک رهیاب لیزری کوچک گرفت
که میتوانست موانع را ببیند، -
8:47 - 8:50و اگر من به عنوان عامل ربات
بخواهم بگویم، برو به سمت صندلی، -
8:50 - 8:53آن به من اجازه نمیدهد،
فقط برای مسیر برنامه میدهد، -
8:53 - 8:55که به نظر ایدهٔ خوبی میرسد.
-
8:55 - 8:58افراد با استفاده از این دستگاه
به موانع کمتری برخورد میکردند، -
8:58 - 9:00اما در واقع، برای بعضی از افراد،
-
9:00 - 9:03زمان بیشتری لازم بود
تا دورهٔ موانع ما را از سر بگذرانند، -
9:03 - 9:04و ما میخواستیم بدانیم چرا.
-
9:05 - 9:08این اتفاق میافتد
چون این بُعد انسانی مهم وجود دارد -
9:08 - 9:10یک بُعد شخصیتی
که منبع کنترل نامیده میشود، -
9:10 - 9:14و افرادی که منبع کنترل داخلی قوی دارند،
-
9:14 - 9:17نیاز دارند تا بر سرنوشت خود مسلط باشند --
-
9:17 - 9:20و واقعاً دوست ندارند
تا کنترل را به یک سیستم مستقل بدهند -- -
9:20 - 9:22پس به احتمال زیاد
با این رویه مبارزه میکنند -
9:22 - 9:25«اگر میخواهم به آن صندلی بزنم،
واقعا میخواهم این کار را بکنم.» -
9:25 - 9:29و آنها واقعاً از داشتن
این کمکهای خودکار رنج میبرند، -
9:29 - 9:31آنچه برای ما بسیار مهم است که بشناسیم
-
9:31 - 9:35چون ما روزافزون سیستمهای خودکار
مثل ماشین میسازیم، درسته؟ -
9:35 - 9:38افراد به چه روشهای متفاوتی
با این از دست دادن کنترل کنار میآیند؟ -
9:39 - 9:42این میتواند وابسته
به ابعاد انسانی متفاوت باشد. -
9:42 - 9:45نمیتوانیم با انسانها طوری رفتار کنیم
انگار ما فقط یک شیء بیجان هستیم. -
9:45 - 9:48ما با شخصیت و فرهنگ از هم متمایز میشویم،
-
9:48 - 9:50حتی وضعیت احساسی تفاوت ایجاد میکند
لحظه به لحظه، -
9:50 - 9:52و ما را قادر به طراحی این سیستمها میکند،
-
9:52 - 9:54این سیستمهای تعامل انسان-ربات،
-
9:54 - 9:57ما نیاز داریم تا ابعاد انسانی را
مد نظر قرار دهیم، -
9:57 - 9:59نه فقط ابعاد فنی و تکنولوژیکی را.
-
10:00 - 10:04همراه با حس کنترل،
حس مسئولیتپذیری هم میآید. -
10:04 - 10:07و اگر شما عامل رباتی باشید
که از این سیستمها استفاده میکنید -
10:07 - 10:09واسطه کامپیوتری به این شبیه است
-
10:09 - 10:11این تا حدی شبیه به یک بازی ویدیویی است،
-
10:11 - 10:14آنچه میتواند خوب باشد
چون برای افراد بسیار آشناست، -
10:14 - 10:15اما بد هم میتواند باشد
-
10:15 - 10:18چون افراد احساس میکنند
شبیه یک بازی ویدیویی است. -
10:18 - 10:20بچههای زیادی در استنفورد داشتیم
تا با این سیستم بازی کنند -
10:20 - 10:23و رباتها را در دفتر ما
در «منلو پارک» راه ببرند، -
10:23 - 10:25بچهها شروع کردند به گفتن این که،
-
10:25 - 10:28«۱۰ امتیاز اگر به آن فرد ضربه بزنی،
۲۰ امتیاز برای آن یکی.» -
10:28 - 10:30و آنها را در راهرو دنبال میکردند.
-
10:30 - 10:31(خنده)
-
10:31 - 10:33به بچهها گفتم، «آنها افراد واقعی هستند،
-
10:33 - 10:36ممکن است خونریزی کنند یا درد داشته باشند
اگر به آنها ضربه بزنید.» -
10:36 - 10:38و واکنش این بود، «باشه، فهمیدم.»
-
10:38 - 10:40اما پنج دقیقه بعد،
رفتار آنها این طوری بود، -
10:40 - 10:44«۲۰ امتیاز برای آن فردی که آنجاست،
چهرهاش میگوید میخواهد ضربه بخورد.» -
10:44 - 10:46این کمی شبیه فیلم «اِندرز گیم» است، درسته؟
-
10:46 - 10:48دنیای واقعی در طرف دیگر وجود دارد
-
10:48 - 10:51و فکر میکنم این مسئولیت ما است
به عنوان طراحان این واسطههای کامپیوتری -
10:51 - 10:53تا به افراد یادآوری کنیم
-
10:53 - 10:55نتایج واقعی برای اعمال آنها وجود دارد
-
10:55 - 10:57تا حس مسئولیت داشته باشند
-
10:57 - 11:01وقتی با این ابزارهای خودکار
رو به فزونی کار میکنند. -
11:02 - 11:04اینها مثالهای مهمی هستند
-
11:04 - 11:07از آزمایش یکی از آیندههای محتمل رباتیک،
-
11:07 - 11:11فکر میکنم بسیار جالب است
که میتوانیم خود را توانمندتر کنیم -
11:11 - 11:14و یاد بگیریم چه طور با این ماشینها
-
11:14 - 11:15توانمند شویم
-
11:15 - 11:18در حالی که همزمان قادر باشیم
انسانیت خود را بیان کنیم -
11:18 - 11:19و شخصیت خود را.
-
11:19 - 11:20همچنین میتوانیم دیگران را بفهمیم
-
11:20 - 11:24برای کوتاهی، بلندی، سریعتر، کُندتر بودن،
-
11:24 - 11:25و شاید حتی نداشتن دست،
-
11:25 - 11:26که این همدلی خوب است.
-
11:27 - 11:29ما همچنین با رباتها همذاتپنداری میکنیم
-
11:29 - 11:31این یکی از رباتهای محبوب من است.
-
11:31 - 11:32به آن «تویینبات» میگویند.
-
11:32 - 11:34او یک پرچم کوچک دارد که میگوید،
-
11:34 - 11:37«من تلاش میکنم تا به این تقاطع
در منهتن برسم،» -
11:37 - 11:40این زیباست و به جلو حرکت میکند، همین.
-
11:40 - 11:43نمیداند چه طور نقشه بکشد،
نمیداند چهطور دنیا را ببیند، -
11:43 - 11:44فقط کمک میخواهد.
-
11:44 - 11:46نکتهٔ خوب دربارهٔ مردم
-
11:46 - 11:49این است که میتواند وابسته
به مهربانی غریبهها باشد. -
11:49 - 11:53او از پارک به طرف دیگر منهتن عبور کرد --
-
11:53 - 11:54که خیلی عالی است --
-
11:54 - 11:58فقط به خاطر این که مردم آن را برمیدارند
و در مسیر درست قرار میدهند. -
11:58 - 11:58(خنده)
-
11:59 - 12:00عالی است، نه؟
-
12:00 - 12:02ما تلاش میکنیم
این دنیای ربات-انسانی را بسازیم -
12:03 - 12:06که در آن میتوانیم با هم زندگی
و مشارکت کنیم، -
12:06 - 12:09ما نیاز نداریم کاملاً مستقل شویم
و همه کارها را خود انجام دهیم. -
12:09 - 12:11همه چیز را با هم انجام میدهیم.
-
12:11 - 12:12و برای به اجرا در آمدن آن،
-
12:12 - 12:15به کمک افرادی مثل هنرمندان
و طراحان نیاز داریم، -
12:15 - 12:17سیاستگذاران، اساتید حقوق،
-
12:17 - 12:20روانشناسان، جامعهشناسان، مردمشناسان --
-
12:20 - 12:21ما به دیدگاههای بیشتری نیاز داریم
-
12:21 - 12:24اگر میخواهیم کاری کنیم
که استو کارد میگوید باید انجام بدهیم، -
12:24 - 12:28اختراع آیندهای که در واقع
میخواهیم در آن زندگی کنیم. -
12:28 - 12:31فکر میکنم میتوانیم
به آزمایش کردن ادامه بدهیم -
12:31 - 12:33با این آیندههای رباتیک متفاوت با یکدیگر،
-
12:33 - 12:38و در حین انجام آن، ما بسیار بیشتر
دربارهٔ خود یاد میگیریم. -
12:39 - 12:40متشکرم.
-
12:40 - 12:42(تشویق)
- Title:
- ربات بودن چه شکلی است؟
- Speaker:
- لیلا تاکایاما
- Description:
-
ما هماکنون میان رباتها زندگی میکنیم: ابزارها و ماشینهایی مثل ماشین ظرفشویی و ترموستات آن قدر با زندگیهای ما عجین شدهاند که هرگز فکر نمیکنیم آنها را ربات بنامیم. آینده با تعداد رباتهای بیشتر چگونه خواهد بود؟ لیلا تاکایاما جامعهشناس بعضی از چالشهای منحصربه فرد طراحی تعاملات انسان-ربات را به اشتراک میگذارد -- و این که چگونه آزمایش کردن با آیندههای رباتیک در واقع ما را به بهتر فهمیدن خود سوق میدهد.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 12:55
![]() |
sadegh zabihi approved Persian subtitles for What's it like to be a robot? | |
![]() |
sadegh zabihi edited Persian subtitles for What's it like to be a robot? | |
![]() |
sadegh zabihi accepted Persian subtitles for What's it like to be a robot? | |
![]() |
sadegh zabihi edited Persian subtitles for What's it like to be a robot? | |
![]() |
Nima Pourreza edited Persian subtitles for What's it like to be a robot? | |
![]() |
samira soltani edited Persian subtitles for What's it like to be a robot? | |
![]() |
samira soltani edited Persian subtitles for What's it like to be a robot? | |
![]() |
samira soltani edited Persian subtitles for What's it like to be a robot? |