از ابرهوش مصنوعی نترسید
-
0:01 - 0:05وقتی بچه بودم،
اصل درسخوان بودم. -
0:05 - 0:07فکر کنم بعضی از شما همینطوری بودید.
-
0:08 - 0:09(خنده)
-
0:09 - 0:12و شما آقا که از همه بلندتر خندیدی،
احتمالا هنوز هم هستی. -
0:12 - 0:14(خنده)
-
0:14 - 0:18در شهری کوچک در دشتهای غبارآلود
شما تگزاس بزرگ شدم، -
0:18 - 0:21پسر یک کلانتر که خودش
پسر یک کشیش بود. -
0:21 - 0:23پس جایی برای خرابکاری نمیماند.
-
0:24 - 0:27و من محض تفریح کتابهای حساب
میخواندم. -
0:27 - 0:29(خنده)
-
0:29 - 0:31شما هم اینطور بودید.
-
0:31 - 0:34که باعث شد یک لیزر و کامپیوتر
و مدل موشکی بسازم، -
0:34 - 0:37و این که باعث شد در اتاق خوابم
سوخت موشک بسازم. -
0:38 - 0:42الان در عبارات علمی
-
0:42 - 0:45این را یک ایده بد میخوانیم.
-
0:45 - 0:46(خنده)
-
0:46 - 0:48و هم زمان
-
0:48 - 0:52فیلم « ۲۰۰۱: یک ادیسه فضایی»
استنلی کوبریک به روی پرده آمد، -
0:52 - 0:54و زندگی من برای همیشه تغییر کرد.
-
0:54 - 0:56از همه چیز فیلم خوشم میامد
-
0:56 - 0:59بخصوص اچایال ۹۰۰۰.
-
0:59 - 1:01این اچایال یک کامپیوتر احساسی بود
-
1:01 - 1:03که جهت راهنمایی سفینه فضایی
دیسکاوری در رفتن از زمین -
1:03 - 1:06به مشتری طراحی شده بود.
-
1:06 - 1:08ایاچال همینطور یک شخصیت معیوب بود.
-
1:08 - 1:12چون در آخر ماموریت را بجای جان بشر
انتخاب کرد. -
1:13 - 1:15ایاچ ال یک شخصیت تخیلی بود
-
1:15 - 1:18اما با این وجود
درباره ترسهای ما حرف میزد، -
1:18 - 1:20ترسمان از مقهور شدن از سوی یک
-
1:20 - 1:23هوش مصنوعی بیاحساس
-
1:23 - 1:25که به بشریت بیاعتناست.
-
1:26 - 1:28به باور من این ترسها بیاساس است.
-
1:28 - 1:31ما در واقع در برهه قابل توجهی
از تاریخ بشر -
1:31 - 1:33بسر میبریم،
-
1:33 - 1:38جاییکه با نگیزش انکار در پذیرش
محدودیتهای ذهنی و جسمی خود -
1:38 - 1:39ماشینهایی را می سزیم
-
1:39 - 1:43که با پیچیدگی زیبا، منحصربفرد و
زیبندگی -
1:43 - 1:45تجربه بشری را تا ورای تصورات ما
-
1:45 - 1:47گسترش خواهند داد.
-
1:48 - 1:50بعد از مسیر حرفهای که من
را از آکادمی نیروی هوایی -
1:50 - 1:52به فرماندهی فضایی و الان
-
1:52 - 1:54به این مهندس سیستمی که شدم کشاند،
-
1:54 - 1:57و تازگی درگیر مشکل مهندسی شدهام
-
1:57 - 1:59که مرتبط با ماموریت ناسا به مریخ است.
-
1:59 - 2:02الان در سفرهای فضایی به ماه
-
2:02 - 2:05میتوانیم به کنترل ماموریت
در هوستون تکیه کنیم -
2:05 - 2:07تا کلیه جوانب یک پرواز را نظارت کند.
-
2:07 - 2:11هرچند، مریخ ۲۰۰ بار دورتر است،
-
2:11 - 2:14و در نتیجه بطور متوسط ۱۳ دقیقه
طول میکشد -
2:14 - 2:17تا یک سیگنال از زمین به ماه برسد.
-
2:17 - 2:20اگر مشکلی باشد
زمان کافی نداریم. -
2:21 - 2:23و برای یک راهحل مهندسی منطقی
-
2:23 - 2:26از ما این را طلب میکند
که کنترل گر ماموریت -
2:26 - 2:29داخل دیوارهای فضای پیمای اوریون باشد.
-
2:29 - 2:32یک ایده جذاب دیگر در روند ماموریت
-
2:32 - 2:35استفاده از روباتهای انسانی در سطح مریخ است
-
2:35 - 2:37پیش از رسیدن انسانه،
-
2:37 - 2:38اول این که امکاناتی را برپا کنند
-
2:38 - 2:42و بعد بعنوان اعضای همکار
تیم علمی خدمت کنند. -
2:43 - 2:46الان که از دید مهندسی به این نگاه میکنم
-
2:46 - 2:49برایم کاملا روش میشود
که آنچه بعنوان معمار لازم داشتم -
2:49 - 2:52یک هوش مصنوعی زیرک،
-
2:52 - 2:54همکاری کننده و دارای هوش اجتماعی بود.
-
2:54 - 2:58بعبارتی چیزی به اچایال بسازم
-
2:58 - 3:01اما بدون گرایشات انتحاری.
-
3:01 - 3:02(خنده)
-
3:03 - 3:05برای لحظهای بیایید مکث کنیم.
-
3:05 - 3:09آیا امکان سک هوش مصنوعی مثل آن وجود دارد؟
-
3:09 - 3:10راستش هست.
-
3:10 - 3:11از بسیاری جهات
-
3:11 - 3:13این یک مشکل سخت مهندسی با اجزای
-
3:13 - 3:15ماشین ابر هوشمند است،
-
3:15 - 3:20نه یک جور گوی مودار خیس از
یک مساله ابرهوشمند که نیاز به مهندسی دارد. -
3:20 - 3:22بگذارید از آلن تورینگ جور دیگر
نقل قول کنم، -
3:22 - 3:25من علاقهای به ساخت یک
ماشین احساسی ندارم. -
3:25 - 3:26من اچایال نمیسازم.
-
3:26 - 3:29تمام انچه دنبالشم یک مغز ساده است،
-
3:29 - 3:32چیزی که شبحی از هوش را ارائه کند.
-
3:33 - 3:36هنر و علم محاسبات کامپیوتری
از زمان ای اچال بر روی پرده -
3:36 - 3:38روزهای زیادی را پشت سر گذاشته
-
3:38 - 3:41ومن تصور می کنم اگر مخترع آن
دکتر چاندرا امروز اینجا بود، -
3:41 - 3:43کلی پرسش برای ما داشت.
-
3:43 - 3:45آیا واقعا برای ما امکان دارد
-
3:45 - 3:49یک سیستم چند میلیونی را بنابر
میلیونها دستگاه در اختیار بگیریم -
3:49 - 3:51تا جریان دادههای آنها را بخواند،
-
3:51 - 3:53تا ایراداتشان را پیشبینی کند
و پیشاپیش عمل کند. -
3:53 - 3:54بله.
-
3:54 - 3:58آیا میتوان سیستمهایی ساخت که
با انسانها به زبان عادی صحبت کنند؟ -
3:58 - 3:59بله.
-
3:59 - 4:02آیا میتوان سیستمهایی ساخت که
اشیا و احساست را بشناسند، -
4:02 - 4:05در احساسات خود اغراق کنند،
بازی کنند و حتی لب خوانی انجام دهند؟ -
4:05 - 4:06بله.
-
4:07 - 4:09آیا میتوان سیستمهای ساخت که هدف
تعیین کنند، -
4:09 - 4:12که طرحهایی را علیه آن اهداف انجام دهند
و در طول مسیر به یاد گرفتن بپردازند؟ -
4:12 - 4:14بله.
-
4:14 - 4:17آیا میتوان سیستمهای ساخت
که دارای نظریه ذهنی باشند؟ -
4:17 - 4:18کاری که الان داریم
میاموزیم. -
4:18 - 4:22آیا میتوان سیستمهای ساخت
که پایه اخلاقی و وجدانی دارند؟ -
4:22 - 4:25چیزی که باید انجامش را بیاموزیم.
-
4:25 - 4:27خب بگذارید برای
لحظهای بپذیریم -
4:27 - 4:30که امکان ساخت چنین هوش مصنوعی
-
4:30 - 4:32برای چنین ماموریتهایی وجود دارد.
-
4:32 - 4:34این سوال بعدی که باید از خودتان بپرسید،
-
4:34 - 4:36آیا باید از آن ترسید؟
-
4:36 - 4:38خب با آمدن هر فناوری جدیدی
-
4:38 - 4:41دلهره و واهمهای هم همراهش میاید.
-
4:41 - 4:42وقتی برای بار اول ماشینها را دیدیم،
-
4:43 - 4:47مردم تاسف میخورند که ما شاهد
از دست رفتن خانواده خواهیم بود. -
4:47 - 4:49وقتی برای اول تلفن آمد،
-
4:49 - 4:52مردم نگران بودند که نکند اثری از
مکالمه مدنی نماند. -
4:52 - 4:56در مرحلهای از زمان که ما شاهد بودیم
کلام نوشتاری فراگیر شد، -
4:56 - 4:59مردم فکر می کردند توانایی خود
برای بخاطر سپردن را از دست می دهیم. -
4:59 - 5:01این چیزها تا حدی درست هستند،
-
5:01 - 5:03اما همچنین این مورد هم هست
که این فناوریها -
5:03 - 5:07برای چیزهایی را آوردهاند که
که تجربیات بشری را عمیقا -
5:07 - 5:08گسترش داده است.
-
5:10 - 5:12پس بیاید کمی این را جلوتر ببریم.
-
5:13 - 5:18من از آفرینش یک ابرهوش مصنوعی
مثل این واهمه ندارم، -
5:18 - 5:22چون سرانجام برخی از
ارزشهای ما را دربر خواهد گرفت. -
5:22 - 5:25این را تصور کنید: ساخت یک سیستم ادراکی
که اساسا متفاوت است -
5:25 - 5:29از ساخت یک نظام فشرده- نرمافزاری
سنتی از گذشته. -
5:29 - 5:31آنها را برنامه ریزی نمیکنیم.
به آنه موزش می دهیم. -
5:31 - 5:34برای آموزش به یک سیستم
که چطور گلها را تشخیص دهد، -
5:34 - 5:37هزارن گل از انواعی که دوست دارم
را نشان می دهم. -
5:37 - 5:39برای این که سیستم نحوه
انجام بازیی را بیاموزد. -
5:39 - 5:41خب این را می کنم. شما هم همینطور.
-
5:43 - 5:45گلها را دوست دارم. یالا.
-
5:45 - 5:48برای آموزش به سیستمی که بتواند
بازی مثل Go را انجام دهد، -
5:48 - 5:50هزاران بار گذاشتم که
بازیهای Go را انجام دهد -
5:50 - 5:52اما در این روند
آن را آموزش هم میدهم. -
5:52 - 5:54چطور یک بازی خوب را از بد
تشخیص دهد. -
5:55 - 5:58اکر بخواهم یک دستیار حقوقی
باهوش مصنوعی خلق کنم، -
5:58 - 6:00کمی از مجموعه قانون را خواهم آموخت
-
6:00 - 6:03البته هم زمان با آن مفاهیم
-
6:03 - 6:06عدالت و بخشش را که بخشی از قانون
هستند را خواهم آموخت. -
6:07 - 6:10در عبارات علمی،
این را حقیقت مبنا مینامیم -
6:10 - 6:12و نکته مهم این است:
-
6:12 - 6:13در تولید چنین ماشینهایی
-
6:13 - 6:16درواقع به آنها مفهوم
ارزشهایمان را میاموزیم. -
6:17 - 6:20به همین ترتیب، به هوش مصنوعی
همان اندازهای باور دارم -
6:20 - 6:23که به یک انسانی که بخوبی
آموزش دیده. -
6:24 - 6:25اما ممکن است سوال کنید،
-
6:25 - 6:28ماموران زیرک چطور،
-
6:28 - 6:31یک سازمانه غیردولتی پولدار؟
-
6:31 - 6:35من ازاین که هوش مصنوعی در اختیار
یک گرگ تنها باشد نمیترسم. -
6:35 - 6:40معلوم است که ما نمیتوانیم از خودمان
در مقابل تمامی اعمال خشونتامیز تصادفی حمایت کنیم -
6:40 - 6:42اما حقیقت این است که چنین سیستمی
-
6:42 - 6:45نیازمند آموزش مفصل و موشکفانهای دارد
-
6:45 - 6:47که فرای منابع فردی است.
-
6:47 - 6:49و علاوه براین
-
6:49 - 6:52بسیار فراتر از ویروس اینترنتی
وارد کردن به جهان است -
6:52 - 6:55جاییکه با یک کلیک، به یکباره ویروس
در میلیونها جا پراکنده شده -
6:55 - 6:57و لپ تاپ ها در همه جا شروع
به ترکیدن می کنند. -
6:57 - 7:00خب مفاهیمی این چنینی بسیار بزرگترند
-
7:00 - 7:02و ما بی شک شاهد این اتفاقات
خواهیم بود. -
7:03 - 7:06آیا از یک چنین هوش مصنوعی میترسم
-
7:06 - 7:08که ممکن است تهدیدی برای بشریت باشد؟
-
7:08 - 7:13اگر به فیلمهایی مثل ماتریکس، متروپلیس،
ترمیناتور یا -
7:13 - 7:16سریالی مثل وست ورلد نگاه کنید،
-
7:16 - 7:18تمامی از از چنین ترسی حرف میزنند.
-
7:18 - 7:22درواقع، در کتاب «ابرهوش صنوعی»
نوشته نیکو بوستروم فیلسوف، -
7:22 - 7:24او با این موضوع پیش میرود
-
7:24 - 7:28و مشاهدهاش این است که یک ابرهوش مصنوعی
نه تنها شاید خطرناک بشد -
7:28 - 7:32بلکه نماینده تهدیدی نابودگر
برای کل بشریت باشد. -
7:32 - 7:34استدلال اولیه دکتر بوستروم
-
7:34 - 7:37این است که چنین سیستمهایی عاقبت
-
7:37 - 7:40چنان عطش سیریناپذیری
برای اطلاعات خواهند داشت -
7:40 - 7:43که شاید نحوه یادگرفتن را یاد بگشیرند
-
7:43 - 7:46و سرانجام کشف کنند که اهدافی دارند
-
7:46 - 7:48که مغایر با نیازهای بشر است.
-
7:48 - 7:50دکتر بوستروم کلی دنبال کننده دارد.
-
7:50 - 7:54او از سوی کسانی مثل الون موسک
و استفن هاوکینگ حمایت میشود. -
7:55 - 7:57با تمامی احترامی که برای این
-
7:58 - 8:00ذهنهای بینظیر قائل هستم،
-
8:00 - 8:02اعتقاد دارم که آنها
از پایه اشتباه می کنند. -
8:02 - 8:06اکنون قسمتهای زیادیاز استدلال دکتر بوستروم است
که باید از چمدان خارج شود -
8:06 - 8:08و من زمان کافی را برای همه آنها ندارم،
-
8:08 - 8:11فقط خلاصه این را بگویم:
-
8:11 - 8:14مدعی العلوم با همه کاره بودن
خیلی فرق دارد. -
8:14 - 8:16ایاچ ال تهدیدی برای خدمه دیسکاوری بود
-
8:16 - 8:21تنها جاییکه ایاچ ال همه جوانب
را در دیسکاوری فرماندهی میکرد. -
8:21 - 8:23بریا این کار باید ابرهوشمند بود.
-
8:23 - 8:26باید بر همه دنیای ما سلطه داشته باشد.
-
8:26 - 8:29اینها از ویژگیهای اسکاینت در فیلم
ترمیناتور(نابودگر) است -
8:29 - 8:30که درآن یک ابرهوش مصنوعی داشتیم
-
8:30 - 8:32که بر اراده بشر حک میراند،
-
8:32 - 8:36همه چیز و همه جا را در زمین هدایت میکرد.
-
8:36 - 8:37اما در عالم واقعیت
-
8:37 - 8:39این اتفاق نخواهد افتاد.
-
8:39 - 8:42ما ماشینهای ابرهوشمندی را نمیسازیم
که هوا را کنترل کنند، -
8:42 - 8:44که جزر و مد را جهت دهند،
-
8:44 - 8:47که به ما انسانهای دمدمیمزاج
و بینظم فرمان دهند. -
8:47 - 8:51و علاوه بر آن، اگر چنین هوش مصنوعی
وجود داشته باشد، -
8:51 - 8:54باید با اقتصادهای بشری رقابت کند،
-
8:54 - 8:57و به این وسیله برای منابع با ما رقابت کند.
-
8:57 - 8:58و در آخر--
-
8:58 - 9:00به «سیری» این را نگویید--
-
9:00 - 9:02همیشه می توانیم از
برق آنها را بکشیم. -
9:02 - 9:04(خنده)
-
9:05 - 9:08ما در یک سفر باورنکردنی از
-
9:08 - 9:10همفرگشتی با ماشینهای خود
بسر میبریم. -
9:10 - 9:13این آدمهایی که امروز هستیم
-
9:13 - 9:15آن آدمهایی که بعدا خواهیم شد نیستم.
-
9:15 - 9:19الان نگران بودن درباره خیزش یک ابرهوشمند
-
9:19 - 9:22از بسیاری جهات انحرافی خطرناک است
-
9:22 - 9:24چون خیزش محاسبات کامپیوتری خودش
-
9:24 - 9:27کلی مسائل اجتماعی و انسانی را برایمان
به ارمغان میاورد -
9:27 - 9:29که باید به آنها رسیدگی کنیم.
-
9:29 - 9:32چطور به بهترین نحو جامعهای
را برنامه ریزی کنم -
9:32 - 9:35وقتی نیاز به نیروی کار بشری نمیماند؟
-
9:35 - 9:38چطور میتوانم تفاهم و تعلیم
را به جهان بیاورم -
9:38 - 9:40و هنوز احترام به تفاوتها
هم باشد. -
9:40 - 9:44چطور
-
9:44 - 9:47چطور شاید از محاسبات کامپیوتری
در کمک به -
9:47 - 9:49رسیدن به
ستارهها استفاده کنم؟ -
9:50 - 9:52و همین هیجانانگیزه است.
-
9:52 - 9:55فرصتهایی برای استقاده از
محاسبات کامپیوتری -
9:55 - 9:56برای پیشرفت تجربه بشر
-
9:56 - 9:58اینجا و الان
-
9:58 - 10:00در دسترس ما است.
-
10:00 - 10:01و تازه اول راه هستیم.
-
10:02 - 10:03خیلی متشکرم.
-
10:04 - 10:08(تشویق)
- Title:
- از ابرهوش مصنوعی نترسید
- Speaker:
- گردی بوچ
- Description:
-
گردی بوچ، دانشمند و فیلسوف می گوید: فناوری جدید، اضطرابهای جدید بهمراه دارد، اما لازم نیست از ابرهوش مصنوعی بیاحساس و قدرتمند واهمه داشته باشیم. بوچ بدترین به نگرانیهای ما (از جمله موارد علمی تخیلی) درباره کامپیوترهای ابرهوشمند تسلی میدهد. با این توضیح که چطور با آموزش و نه برنامهریزی کردنشان، ارزشهای خود را با آنها برنامهریزی خواهیم کرد. بجای نگرانی درباره یک تهدید غیرمحتمل مخرب، وی تاکید دارد این را در نظر بگیریم که چطور هوش مصنوعی زندگی بشر را بهبود خواهد بخشید.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
soheila Jafari accepted Persian subtitles for Don't fear superintelligent AI | ||
soheila Jafari edited Persian subtitles for Don't fear superintelligent AI | ||
Leila Ataei edited Persian subtitles for Don't fear superintelligent AI | ||
Leila Ataei edited Persian subtitles for Don't fear superintelligent AI | ||
Leila Ataei edited Persian subtitles for Don't fear superintelligent AI | ||
Leila Ataei edited Persian subtitles for Don't fear superintelligent AI | ||
Leila Ataei edited Persian subtitles for Don't fear superintelligent AI | ||
Leila Ataei edited Persian subtitles for Don't fear superintelligent AI |