WEBVTT 00:00:00.760 --> 00:00:04.600 وقتی بچه بودم، اصل درسخوان بودم. 00:00:05.320 --> 00:00:07.496 فکر کنم بعضی از شما همینطوری بودید. NOTE Paragraph 00:00:07.520 --> 00:00:08.736 (خنده) NOTE Paragraph 00:00:08.760 --> 00:00:11.976 و شما آقا که از همه بلندتر خندیدی، احتمالا هنوز هم هستی. NOTE Paragraph 00:00:12.000 --> 00:00:14.256 (خنده) NOTE Paragraph 00:00:14.280 --> 00:00:17.776 در شهری کوچک در دشتهای غبارآلود شما تگزاس بزرگ شدم، 00:00:17.800 --> 00:00:21.136 پسر یک کلانتر که خودش پسر یک کشیش بود. 00:00:21.160 --> 00:00:23.080 پس جایی برای خرابکاری نمیماند. 00:00:24.040 --> 00:00:27.296 و من محض تفریح کتابهای حساب میخواندم. NOTE Paragraph 00:00:27.320 --> 00:00:28.856 (خنده) NOTE Paragraph 00:00:28.880 --> 00:00:30.576 شما هم اینطور بودید. 00:00:30.600 --> 00:00:34.336 که باعث شد یک لیزر و کامپیوتر و مدل موشکی بسازم، 00:00:34.360 --> 00:00:37.360 و این که باعث شد در اتاق خوابم سوخت موشک بسازم. 00:00:37.960 --> 00:00:41.616 الان در عبارات علمی 00:00:41.640 --> 00:00:44.896 این را یک ایده بد میخوانیم. NOTE Paragraph 00:00:44.920 --> 00:00:46.136 (خنده) NOTE Paragraph 00:00:46.160 --> 00:00:48.336 و هم زمان 00:00:48.360 --> 00:00:51.576 فیلم « ۲۰۰۱: یک ادیسه فضایی» استنلی کوبریک به روی پرده آمد، 00:00:51.600 --> 00:00:53.800 و زندگی من برای همیشه تغییر کرد. 00:00:54.280 --> 00:00:56.336 از همه چیز فیلم خوشم میامد 00:00:56.360 --> 00:00:58.896 بخصوص اچایال ۹۰۰۰. 00:00:58.920 --> 00:01:00.976 این اچایال یک کامپیوتر احساسی بود 00:01:01.000 --> 00:01:03.456 که جهت راهنمایی سفینه فضایی دیسکاوری در رفتن از زمین 00:01:03.480 --> 00:01:06.016 به مشتری طراحی شده بود. 00:01:06.040 --> 00:01:08.096 ایاچال همینطور یک شخصیت معیوب بود. 00:01:08.120 --> 00:01:12.400 چون در آخر ماموریت را بجای جان بشر انتخاب کرد. 00:01:12.840 --> 00:01:14.936 ایاچ ال یک شخصیت تخیلی بود 00:01:14.960 --> 00:01:17.616 اما با این وجود درباره ترسهای ما حرف میزد، 00:01:17.640 --> 00:01:19.736 ترسمان از مقهور شدن از سوی یک 00:01:19.760 --> 00:01:22.776 هوش مصنوعی بیاحساس 00:01:22.800 --> 00:01:24.760 که به بشریت بیاعتناست. NOTE Paragraph 00:01:25.880 --> 00:01:28.456 به باور من این ترسها بیاساس است. 00:01:28.480 --> 00:01:31.176 ما در واقع در برهه قابل توجهی از تاریخ بشر 00:01:31.200 --> 00:01:32.736 بسر میبریم، 00:01:32.760 --> 00:01:37.736 جاییکه با نگیزش انکار در پذیرش محدودیتهای ذهنی و جسمی خود 00:01:37.760 --> 00:01:39.456 ماشینهایی را می سزیم 00:01:39.480 --> 00:01:43.096 که با پیچیدگی زیبا، منحصربفرد و زیبندگی 00:01:43.120 --> 00:01:45.176 تجربه بشری را تا ورای تصورات ما 00:01:45.200 --> 00:01:46.880 گسترش خواهند داد. NOTE Paragraph 00:01:47.720 --> 00:01:50.296 بعد از مسیر حرفهای که من را از آکادمی نیروی هوایی 00:01:50.320 --> 00:01:52.256 به فرماندهی فضایی و الان 00:01:52.280 --> 00:01:53.976 به این مهندس سیستمی که شدم کشاند، 00:01:54.000 --> 00:01:56.736 و تازگی درگیر مشکل مهندسی شدهام 00:01:56.760 --> 00:01:59.336 که مرتبط با ماموریت ناسا به مریخ است. 00:01:59.360 --> 00:02:01.856 الان در سفرهای فضایی به ماه 00:02:01.880 --> 00:02:05.016 میتوانیم به کنترل ماموریت در هوستون تکیه کنیم 00:02:05.040 --> 00:02:07.016 تا کلیه جوانب یک پرواز را نظارت کند. 00:02:07.040 --> 00:02:10.576 هرچند، مریخ ۲۰۰ بار دورتر است، 00:02:10.600 --> 00:02:13.816 و در نتیجه بطور متوسط ۱۳ دقیقه طول میکشد 00:02:13.840 --> 00:02:16.976 تا یک سیگنال از زمین به ماه برسد. 00:02:17.000 --> 00:02:20.400 اگر مشکلی باشد زمان کافی نداریم. 00:02:20.840 --> 00:02:23.336 و برای یک راهحل مهندسی منطقی 00:02:23.360 --> 00:02:25.936 از ما این را طلب میکند که کنترل گر ماموریت 00:02:25.960 --> 00:02:28.976 داخل دیوارهای فضای پیمای اوریون باشد. 00:02:29.000 --> 00:02:31.896 یک ایده جذاب دیگر در روند ماموریت 00:02:31.920 --> 00:02:34.816 استفاده از روباتهای انسانی در سطح مریخ است 00:02:34.840 --> 00:02:36.696 پیش از رسیدن انسانه، 00:02:36.720 --> 00:02:38.376 اول این که امکاناتی را برپا کنند 00:02:38.400 --> 00:02:41.760 و بعد بعنوان اعضای همکار تیم علمی خدمت کنند. NOTE Paragraph 00:02:43.400 --> 00:02:46.136 الان که از دید مهندسی به این نگاه میکنم 00:02:46.160 --> 00:02:49.336 برایم کاملا روش میشود که آنچه بعنوان معمار لازم داشتم 00:02:49.360 --> 00:02:51.536 یک هوش مصنوعی زیرک، 00:02:51.560 --> 00:02:53.936 همکاری کننده و دارای هوش اجتماعی بود. 00:02:53.960 --> 00:02:58.256 بعبارتی چیزی به اچایال بسازم 00:02:58.280 --> 00:03:00.696 اما بدون گرایشات انتحاری. NOTE Paragraph 00:03:00.720 --> 00:03:02.080 (خنده) NOTE Paragraph 00:03:02.920 --> 00:03:04.736 برای لحظهای بیایید مکث کنیم. 00:03:04.760 --> 00:03:08.656 آیا امکان سک هوش مصنوعی مثل آن وجود دارد؟ 00:03:08.680 --> 00:03:10.136 راستش هست. 00:03:10.160 --> 00:03:11.416 از بسیاری جهات 00:03:11.440 --> 00:03:13.416 این یک مشکل سخت مهندسی با اجزای 00:03:13.440 --> 00:03:14.896 ماشین ابر هوشمند است، 00:03:14.920 --> 00:03:19.616 نه یک جور گوی مودار خیس از یک مساله ابرهوشمند که نیاز به مهندسی دارد. 00:03:19.640 --> 00:03:22.296 بگذارید از آلن تورینگ جور دیگر نقل قول کنم، 00:03:22.320 --> 00:03:24.696 من علاقهای به ساخت یک ماشین احساسی ندارم. 00:03:24.720 --> 00:03:26.296 من اچایال نمیسازم. 00:03:26.320 --> 00:03:28.736 تمام انچه دنبالشم یک مغز ساده است، 00:03:28.760 --> 00:03:31.880 چیزی که شبحی از هوش را ارائه کند. NOTE Paragraph 00:03:33.000 --> 00:03:36.136 هنر و علم محاسبات کامپیوتری از زمان ای اچال بر روی پرده 00:03:36.160 --> 00:03:37.656 روزهای زیادی را پشت سر گذاشته 00:03:37.680 --> 00:03:40.896 ومن تصور می کنم اگر مخترع آن دکتر چاندرا امروز اینجا بود، 00:03:40.920 --> 00:03:43.256 کلی پرسش برای ما داشت. 00:03:43.280 --> 00:03:45.376 آیا واقعا برای ما امکان دارد 00:03:45.400 --> 00:03:49.416 یک سیستم چند میلیونی را بنابر میلیونها دستگاه در اختیار بگیریم 00:03:49.440 --> 00:03:50.896 تا جریان دادههای آنها را بخواند، 00:03:50.920 --> 00:03:53.176 تا ایراداتشان را پیشبینی کند و پیشاپیش عمل کند. 00:03:53.200 --> 00:03:54.416 بله. 00:03:54.440 --> 00:03:57.616 آیا میتوان سیستمهایی ساخت که با انسانها به زبان عادی صحبت کنند؟ 00:03:57.640 --> 00:03:58.856 بله. 00:03:58.880 --> 00:04:01.856 آیا میتوان سیستمهایی ساخت که اشیا و احساست را بشناسند، 00:04:01.880 --> 00:04:05.256 در احساسات خود اغراق کنند، بازی کنند و حتی لب خوانی انجام دهند؟ 00:04:05.280 --> 00:04:06.496 بله. 00:04:06.520 --> 00:04:08.656 آیا میتوان سیستمهای ساخت که هدف تعیین کنند، 00:04:08.680 --> 00:04:12.296 که طرحهایی را علیه آن اهداف انجام دهند و در طول مسیر به یاد گرفتن بپردازند؟ 00:04:12.320 --> 00:04:13.536 بله. 00:04:13.560 --> 00:04:16.896 آیا میتوان سیستمهای ساخت که دارای نظریه ذهنی باشند؟ 00:04:16.920 --> 00:04:18.416 کاری که الان داریم میاموزیم. 00:04:18.440 --> 00:04:21.920 آیا میتوان سیستمهای ساخت که پایه اخلاقی و وجدانی دارند؟ 00:04:22.480 --> 00:04:24.520 چیزی که باید انجامش را بیاموزیم. 00:04:25.360 --> 00:04:26.736 خب بگذارید برای لحظهای بپذیریم 00:04:26.760 --> 00:04:29.656 که امکان ساخت چنین هوش مصنوعی 00:04:29.680 --> 00:04:31.816 برای چنین ماموریتهایی وجود دارد. NOTE Paragraph 00:04:31.840 --> 00:04:34.376 این سوال بعدی که باید از خودتان بپرسید، 00:04:34.400 --> 00:04:35.856 آیا باید از آن ترسید؟ 00:04:35.880 --> 00:04:37.856 خب با آمدن هر فناوری جدیدی 00:04:37.880 --> 00:04:40.776 دلهره و واهمهای هم همراهش میاید. 00:04:40.800 --> 00:04:42.496 وقتی برای بار اول ماشینها را دیدیم، 00:04:42.520 --> 00:04:46.536 مردم تاسف میخورند که ما شاهد از دست رفتن خانواده خواهیم بود. 00:04:46.560 --> 00:04:49.256 وقتی برای اول تلفن آمد، 00:04:49.280 --> 00:04:52.176 مردم نگران بودند که نکند اثری از مکالمه مدنی نماند. 00:04:52.200 --> 00:04:56.136 در مرحلهای از زمان که ما شاهد بودیم کلام نوشتاری فراگیر شد، 00:04:56.160 --> 00:04:58.656 مردم فکر می کردند توانایی خود برای بخاطر سپردن را از دست می دهیم. 00:04:58.680 --> 00:05:00.736 این چیزها تا حدی درست هستند، 00:05:00.760 --> 00:05:03.176 اما همچنین این مورد هم هست که این فناوریها 00:05:03.200 --> 00:05:06.576 برای چیزهایی را آوردهاند که که تجربیات بشری را عمیقا 00:05:06.600 --> 00:05:08.480 گسترش داده است. NOTE Paragraph 00:05:09.840 --> 00:05:12.120 پس بیاید کمی این را جلوتر ببریم. 00:05:13.120 --> 00:05:17.856 من از آفرینش یک ابرهوش مصنوعی مثل این واهمه ندارم، 00:05:17.880 --> 00:05:21.696 چون سرانجام برخی از ارزشهای ما را دربر خواهد گرفت. 00:05:21.720 --> 00:05:25.216 این را تصور کنید: ساخت یک سیستم ادراکی که اساسا متفاوت است 00:05:25.240 --> 00:05:28.536 از ساخت یک نظام فشرده- نرمافزاری سنتی از گذشته. 00:05:28.560 --> 00:05:31.016 آنها را برنامه ریزی نمیکنیم. به آنه موزش می دهیم. 00:05:31.040 --> 00:05:33.696 برای آموزش به یک سیستم که چطور گلها را تشخیص دهد، 00:05:33.720 --> 00:05:36.736 هزارن گل از انواعی که دوست دارم را نشان می دهم. 00:05:36.760 --> 00:05:39.016 برای این که سیستم نحوه انجام بازیی را بیاموزد. 00:05:39.040 --> 00:05:41.000 خب این را می کنم. شما هم همینطور. 00:05:42.600 --> 00:05:44.640 گلها را دوست دارم. یالا. 00:05:45.440 --> 00:05:48.296 برای آموزش به سیستمی که بتواند بازی مثل Go را انجام دهد، 00:05:48.320 --> 00:05:50.376 هزاران بار گذاشتم که بازیهای Go را انجام دهد 00:05:50.400 --> 00:05:52.056 اما در این روند آن را آموزش هم میدهم. 00:05:52.080 --> 00:05:54.496 چطور یک بازی خوب را از بد تشخیص دهد. 00:05:54.520 --> 00:05:58.216 اکر بخواهم یک دستیار حقوقی باهوش مصنوعی خلق کنم، 00:05:58.240 --> 00:06:00.016 کمی از مجموعه قانون را خواهم آموخت 00:06:00.040 --> 00:06:02.896 البته هم زمان با آن مفاهیم 00:06:02.920 --> 00:06:05.800 عدالت و بخشش را که بخشی از قانون هستند را خواهم آموخت. 00:06:06.560 --> 00:06:09.536 در عبارات علمی، این را حقیقت مبنا مینامیم 00:06:09.560 --> 00:06:11.576 و نکته مهم این است: 00:06:11.600 --> 00:06:13.056 در تولید چنین ماشینهایی 00:06:13.080 --> 00:06:16.496 درواقع به آنها مفهوم ارزشهایمان را میاموزیم. 00:06:16.520 --> 00:06:19.656 به همین ترتیب، به هوش مصنوعی همان اندازهای باور دارم 00:06:19.680 --> 00:06:23.320 که به یک انسانی که بخوبی آموزش دیده. NOTE Paragraph 00:06:24.080 --> 00:06:25.296 اما ممکن است سوال کنید، 00:06:25.320 --> 00:06:27.936 ماموران زیرک چطور، 00:06:27.960 --> 00:06:31.296 یک سازمانه غیردولتی پولدار؟ 00:06:31.320 --> 00:06:35.136 من ازاین که هوش مصنوعی در اختیار یک گرگ تنها باشد نمیترسم. 00:06:35.160 --> 00:06:39.696 معلوم است که ما نمیتوانیم از خودمان در مقابل تمامی اعمال خشونتامیز تصادفی حمایت کنیم 00:06:39.720 --> 00:06:41.856 اما حقیقت این است که چنین سیستمی 00:06:41.880 --> 00:06:44.976 نیازمند آموزش مفصل و موشکفانهای دارد 00:06:45.000 --> 00:06:47.296 که فرای منابع فردی است. 00:06:47.320 --> 00:06:48.536 و علاوه براین 00:06:48.560 --> 00:06:51.816 بسیار فراتر از ویروس اینترنتی وارد کردن به جهان است 00:06:51.840 --> 00:06:54.936 جاییکه با یک کلیک، به یکباره ویروس در میلیونها جا پراکنده شده 00:06:54.960 --> 00:06:57.416 و لپ تاپ ها در همه جا شروع به ترکیدن می کنند. 00:06:57.440 --> 00:07:00.256 خب مفاهیمی این چنینی بسیار بزرگترند 00:07:00.280 --> 00:07:01.995 و ما بی شک شاهد این اتفاقات خواهیم بود. NOTE Paragraph 00:07:02.520 --> 00:07:05.576 آیا از یک چنین هوش مصنوعی میترسم 00:07:05.600 --> 00:07:07.560 که ممکن است تهدیدی برای بشریت باشد؟ 00:07:08.280 --> 00:07:12.656 اگر به فیلمهایی مثل ماتریکس، متروپلیس، ترمیناتور یا 00:07:12.680 --> 00:07:15.856 سریالی مثل وست ورلد نگاه کنید، 00:07:15.880 --> 00:07:18.016 تمامی از از چنین ترسی حرف میزنند. 00:07:18.040 --> 00:07:22.336 درواقع، در کتاب «ابرهوش صنوعی» نوشته نیکو بوستروم فیلسوف، 00:07:22.360 --> 00:07:23.896 او با این موضوع پیش میرود 00:07:23.920 --> 00:07:27.936 و مشاهدهاش این است که یک ابرهوش مصنوعی نه تنها شاید خطرناک بشد 00:07:27.960 --> 00:07:31.816 بلکه نماینده تهدیدی نابودگر برای کل بشریت باشد. 00:07:31.840 --> 00:07:34.056 استدلال اولیه دکتر بوستروم 00:07:34.080 --> 00:07:36.816 این است که چنین سیستمهایی عاقبت 00:07:36.840 --> 00:07:40.096 چنان عطش سیریناپذیری برای اطلاعات خواهند داشت 00:07:40.120 --> 00:07:43.016 که شاید نحوه یادگرفتن را یاد بگشیرند 00:07:43.040 --> 00:07:45.656 و سرانجام کشف کنند که اهدافی دارند 00:07:45.680 --> 00:07:47.976 که مغایر با نیازهای بشر است. 00:07:48.000 --> 00:07:49.856 دکتر بوستروم کلی دنبال کننده دارد. 00:07:49.880 --> 00:07:54.200 او از سوی کسانی مثل الون موسک و استفن هاوکینگ حمایت میشود. 00:07:54.880 --> 00:07:57.280 با تمامی احترامی که برای این 00:07:58.160 --> 00:08:00.176 ذهنهای بینظیر قائل هستم، 00:08:00.200 --> 00:08:02.456 اعتقاد دارم که آنها از پایه اشتباه می کنند. 00:08:02.480 --> 00:08:05.656 اکنون قسمتهای زیادیاز استدلال دکتر بوستروم است که باید از چمدان خارج شود 00:08:05.680 --> 00:08:07.816 و من زمان کافی را برای همه آنها ندارم، 00:08:07.840 --> 00:08:10.536 فقط خلاصه این را بگویم: 00:08:10.560 --> 00:08:14.296 مدعی العلوم با همه کاره بودن خیلی فرق دارد. 00:08:14.320 --> 00:08:16.216 ایاچ ال تهدیدی برای خدمه دیسکاوری بود 00:08:16.240 --> 00:08:20.656 تنها جاییکه ایاچ ال همه جوانب را در دیسکاوری فرماندهی میکرد. 00:08:20.680 --> 00:08:23.176 بریا این کار باید ابرهوشمند بود. 00:08:23.200 --> 00:08:25.696 باید بر همه دنیای ما سلطه داشته باشد. 00:08:25.720 --> 00:08:28.536 اینها از ویژگیهای اسکاینت در فیلم ترمیناتور(نابودگر) است 00:08:28.560 --> 00:08:30.416 که درآن یک ابرهوش مصنوعی داشتیم 00:08:30.440 --> 00:08:31.816 که بر اراده بشر حک میراند، 00:08:31.840 --> 00:08:35.696 همه چیز و همه جا را در زمین هدایت میکرد. 00:08:35.720 --> 00:08:37.176 اما در عالم واقعیت 00:08:37.200 --> 00:08:39.296 این اتفاق نخواهد افتاد. 00:08:39.320 --> 00:08:42.376 ما ماشینهای ابرهوشمندی را نمیسازیم که هوا را کنترل کنند، 00:08:42.400 --> 00:08:43.736 که جزر و مد را جهت دهند، 00:08:43.760 --> 00:08:47.136 که به ما انسانهای دمدمیمزاج و بینظم فرمان دهند. 00:08:47.160 --> 00:08:51.056 و علاوه بر آن، اگر چنین هوش مصنوعی وجود داشته باشد، 00:08:51.080 --> 00:08:54.016 باید با اقتصادهای بشری رقابت کند، 00:08:54.040 --> 00:08:56.560 و به این وسیله برای منابع با ما رقابت کند. 00:08:57.200 --> 00:08:58.416 و در آخر-- 00:08:58.440 --> 00:08:59.680 به «سیری» این را نگویید-- 00:09:00.440 --> 00:09:01.816 همیشه می توانیم از برق آنها را بکشیم. NOTE Paragraph 00:09:01.840 --> 00:09:03.960 (خنده) NOTE Paragraph 00:09:05.360 --> 00:09:07.816 ما در یک سفر باورنکردنی از 00:09:07.840 --> 00:09:10.336 همفرگشتی با ماشینهای خود بسر میبریم. 00:09:10.360 --> 00:09:12.856 این آدمهایی که امروز هستیم 00:09:12.880 --> 00:09:15.416 آن آدمهایی که بعدا خواهیم شد نیستم. 00:09:15.440 --> 00:09:18.576 الان نگران بودن درباره خیزش یک ابرهوشمند 00:09:18.600 --> 00:09:21.656 از بسیاری جهات انحرافی خطرناک است 00:09:21.680 --> 00:09:24.016 چون خیزش محاسبات کامپیوتری خودش 00:09:24.040 --> 00:09:27.056 کلی مسائل اجتماعی و انسانی را برایمان به ارمغان میاورد 00:09:27.080 --> 00:09:28.720 که باید به آنها رسیدگی کنیم. 00:09:29.360 --> 00:09:32.176 چطور به بهترین نحو جامعهای را برنامه ریزی کنم 00:09:32.200 --> 00:09:34.536 وقتی نیاز به نیروی کار بشری نمیماند؟ 00:09:34.560 --> 00:09:38.376 چطور میتوانم تفاهم و تعلیم را به جهان بیاورم 00:09:38.400 --> 00:09:40.176 و هنوز احترام به تفاوتها هم باشد. 00:09:40.200 --> 00:09:44.456 چطور 00:09:44.480 --> 00:09:47.336 چطور شاید از محاسبات کامپیوتری در کمک به 00:09:47.360 --> 00:09:49.120 رسیدن به ستارهها استفاده کنم؟ NOTE Paragraph 00:09:49.760 --> 00:09:51.800 و همین هیجانانگیزه است. 00:09:52.400 --> 00:09:54.736 فرصتهایی برای استقاده از محاسبات کامپیوتری 00:09:54.760 --> 00:09:56.296 برای پیشرفت تجربه بشر 00:09:56.320 --> 00:09:57.736 اینجا و الان 00:09:57.760 --> 00:09:59.616 در دسترس ما است. 00:09:59.640 --> 00:10:01.320 و تازه اول راه هستیم. NOTE Paragraph 00:10:02.280 --> 00:10:03.496 خیلی متشکرم. NOTE Paragraph 00:10:03.520 --> 00:10:07.806 (تشویق)