0:00:00.760,0:00:04.600 وقتی بچه بودم،[br]اصل درسخوان بودم. 0:00:05.320,0:00:07.496 فکر کنم بعضی از شما همینطوری بودید. 0:00:07.520,0:00:08.736 (خنده) 0:00:08.760,0:00:11.976 و شما آقا که از همه بلندتر خندیدی، [br]احتمالا هنوز هم هستی. 0:00:12.000,0:00:14.256 (خنده) 0:00:14.280,0:00:17.776 در شهری کوچک در دشتهای غبارآلود[br]شما تگزاس بزرگ شدم، 0:00:17.800,0:00:21.136 پسر یک کلانتر که خودش [br]پسر یک کشیش بود. 0:00:21.160,0:00:23.080 پس جایی برای خرابکاری نمیماند. 0:00:24.040,0:00:27.296 و من محض تفریح کتابهای حساب[br]میخواندم. 0:00:27.320,0:00:28.856 (خنده) 0:00:28.880,0:00:30.576 شما هم اینطور بودید. 0:00:30.600,0:00:34.336 که باعث شد یک لیزر و کامپیوتر[br]و مدل موشکی بسازم، 0:00:34.360,0:00:37.360 و این که باعث شد در اتاق خوابم [br]سوخت موشک بسازم. 0:00:37.960,0:00:41.616 الان در عبارات علمی 0:00:41.640,0:00:44.896 این را یک ایده بد میخوانیم. 0:00:44.920,0:00:46.136 (خنده) 0:00:46.160,0:00:48.336 و هم زمان 0:00:48.360,0:00:51.576 فیلم « ۲۰۰۱: یک ادیسه فضایی»[br]استنلی کوبریک به روی پرده آمد، 0:00:51.600,0:00:53.800 و زندگی من برای همیشه تغییر کرد. 0:00:54.280,0:00:56.336 از همه چیز فیلم خوشم میامد 0:00:56.360,0:00:58.896 بخصوص اچایال ۹۰۰۰. 0:00:58.920,0:01:00.976 این اچایال یک کامپیوتر احساسی بود 0:01:01.000,0:01:03.456 که جهت راهنمایی سفینه فضایی[br]دیسکاوری در رفتن از زمین 0:01:03.480,0:01:06.016 به مشتری طراحی شده بود. 0:01:06.040,0:01:08.096 ایاچال همینطور یک شخصیت معیوب بود. 0:01:08.120,0:01:12.400 چون در آخر ماموریت را بجای جان بشر[br]انتخاب کرد. 0:01:12.840,0:01:14.936 ایاچ ال یک شخصیت تخیلی بود 0:01:14.960,0:01:17.616 اما با این وجود [br]درباره ترسهای ما حرف میزد، 0:01:17.640,0:01:19.736 ترسمان از مقهور شدن از سوی یک 0:01:19.760,0:01:22.776 هوش مصنوعی بیاحساس 0:01:22.800,0:01:24.760 که به بشریت بیاعتناست. 0:01:25.880,0:01:28.456 به باور من این ترسها بیاساس است. 0:01:28.480,0:01:31.176 ما در واقع در برهه قابل توجهی[br]از تاریخ بشر 0:01:31.200,0:01:32.736 بسر میبریم، 0:01:32.760,0:01:37.736 جاییکه با نگیزش انکار در پذیرش [br]محدودیتهای ذهنی و جسمی خود 0:01:37.760,0:01:39.456 ماشینهایی را می سزیم 0:01:39.480,0:01:43.096 که با پیچیدگی زیبا، منحصربفرد و [br]زیبندگی 0:01:43.120,0:01:45.176 تجربه بشری را تا ورای تصورات ما 0:01:45.200,0:01:46.880 گسترش خواهند داد. 0:01:47.720,0:01:50.296 بعد از مسیر حرفهای که من[br]را از آکادمی نیروی هوایی 0:01:50.320,0:01:52.256 به فرماندهی فضایی و الان 0:01:52.280,0:01:53.976 به این مهندس سیستمی که شدم کشاند، 0:01:54.000,0:01:56.736 و تازگی درگیر مشکل مهندسی شدهام 0:01:56.760,0:01:59.336 که مرتبط با ماموریت ناسا به مریخ است. 0:01:59.360,0:02:01.856 الان در سفرهای فضایی به ماه 0:02:01.880,0:02:05.016 میتوانیم به کنترل ماموریت[br]در هوستون تکیه کنیم 0:02:05.040,0:02:07.016 تا کلیه جوانب یک پرواز را نظارت کند. 0:02:07.040,0:02:10.576 هرچند، مریخ ۲۰۰ بار دورتر است، 0:02:10.600,0:02:13.816 و در نتیجه بطور متوسط ۱۳ دقیقه[br]طول میکشد 0:02:13.840,0:02:16.976 تا یک سیگنال از زمین به ماه برسد. 0:02:17.000,0:02:20.400 اگر مشکلی باشد[br]زمان کافی نداریم. 0:02:20.840,0:02:23.336 و برای یک راهحل مهندسی منطقی 0:02:23.360,0:02:25.936 از ما این را طلب میکند[br]که کنترل گر ماموریت 0:02:25.960,0:02:28.976 داخل دیوارهای فضای پیمای اوریون باشد. 0:02:29.000,0:02:31.896 یک ایده جذاب دیگر در روند ماموریت 0:02:31.920,0:02:34.816 استفاده از روباتهای انسانی در سطح مریخ است 0:02:34.840,0:02:36.696 پیش از رسیدن انسانه، 0:02:36.720,0:02:38.376 اول این که امکاناتی را برپا کنند 0:02:38.400,0:02:41.760 و بعد بعنوان اعضای همکار[br]تیم علمی خدمت کنند. 0:02:43.400,0:02:46.136 الان که از دید مهندسی به این نگاه میکنم 0:02:46.160,0:02:49.336 برایم کاملا روش میشود[br]که آنچه بعنوان معمار لازم داشتم 0:02:49.360,0:02:51.536 یک هوش مصنوعی زیرک، 0:02:51.560,0:02:53.936 همکاری کننده و دارای هوش اجتماعی بود. 0:02:53.960,0:02:58.256 بعبارتی چیزی به اچایال بسازم 0:02:58.280,0:03:00.696 اما بدون گرایشات انتحاری. 0:03:00.720,0:03:02.080 (خنده) 0:03:02.920,0:03:04.736 برای لحظهای بیایید مکث کنیم. 0:03:04.760,0:03:08.656 آیا امکان سک هوش مصنوعی مثل آن وجود دارد؟ 0:03:08.680,0:03:10.136 راستش هست. 0:03:10.160,0:03:11.416 از بسیاری جهات 0:03:11.440,0:03:13.416 این یک مشکل سخت مهندسی با اجزای 0:03:13.440,0:03:14.896 ماشین ابر هوشمند است، 0:03:14.920,0:03:19.616 نه یک جور گوی مودار خیس از[br]یک مساله ابرهوشمند که نیاز به مهندسی دارد. 0:03:19.640,0:03:22.296 بگذارید از آلن تورینگ جور دیگر [br]نقل قول کنم، 0:03:22.320,0:03:24.696 من علاقهای به ساخت یک[br]ماشین احساسی ندارم. 0:03:24.720,0:03:26.296 من اچایال نمیسازم. 0:03:26.320,0:03:28.736 تمام انچه دنبالشم یک مغز ساده است، 0:03:28.760,0:03:31.880 چیزی که شبحی از هوش را ارائه کند. 0:03:33.000,0:03:36.136 هنر و علم محاسبات کامپیوتری [br]از زمان ای اچال بر روی پرده 0:03:36.160,0:03:37.656 روزهای زیادی را پشت سر گذاشته 0:03:37.680,0:03:40.896 ومن تصور می کنم اگر مخترع آن[br]دکتر چاندرا امروز اینجا بود، 0:03:40.920,0:03:43.256 کلی پرسش برای ما داشت. 0:03:43.280,0:03:45.376 آیا واقعا برای ما امکان دارد 0:03:45.400,0:03:49.416 یک سیستم چند میلیونی را بنابر[br]میلیونها دستگاه در اختیار بگیریم 0:03:49.440,0:03:50.896 تا جریان دادههای آنها را بخواند، 0:03:50.920,0:03:53.176 تا ایراداتشان را پیشبینی کند [br]و پیشاپیش عمل کند. 0:03:53.200,0:03:54.416 بله. 0:03:54.440,0:03:57.616 آیا میتوان سیستمهایی ساخت که [br]با انسانها به زبان عادی صحبت کنند؟ 0:03:57.640,0:03:58.856 بله. 0:03:58.880,0:04:01.856 آیا میتوان سیستمهایی ساخت که[br]اشیا و احساست را بشناسند،[br] 0:04:01.880,0:04:05.256 در احساسات خود اغراق کنند،[br]بازی کنند و حتی لب خوانی انجام دهند؟ 0:04:05.280,0:04:06.496 بله. 0:04:06.520,0:04:08.656 آیا میتوان سیستمهای ساخت که هدف[br]تعیین کنند، 0:04:08.680,0:04:12.296 که طرحهایی را علیه آن اهداف انجام دهند[br]و در طول مسیر به یاد گرفتن بپردازند؟ 0:04:12.320,0:04:13.536 بله. 0:04:13.560,0:04:16.896 آیا میتوان سیستمهای ساخت[br]که دارای نظریه ذهنی باشند؟ 0:04:16.920,0:04:18.416 کاری که الان داریم[br]میاموزیم. 0:04:18.440,0:04:21.920 آیا میتوان سیستمهای ساخت[br]که پایه اخلاقی و وجدانی دارند؟ 0:04:22.480,0:04:24.520 چیزی که باید انجامش را بیاموزیم. 0:04:25.360,0:04:26.736 خب بگذارید برای[br]لحظهای بپذیریم 0:04:26.760,0:04:29.656 که امکان ساخت چنین هوش مصنوعی 0:04:29.680,0:04:31.816 برای چنین ماموریتهایی وجود دارد. 0:04:31.840,0:04:34.376 این سوال بعدی که باید از خودتان بپرسید، 0:04:34.400,0:04:35.856 آیا باید از آن ترسید؟ 0:04:35.880,0:04:37.856 خب با آمدن هر فناوری جدیدی 0:04:37.880,0:04:40.776 دلهره و واهمهای هم همراهش میاید. 0:04:40.800,0:04:42.496 وقتی برای بار اول ماشینها را دیدیم، 0:04:42.520,0:04:46.536 مردم تاسف میخورند که ما شاهد [br]از دست رفتن خانواده خواهیم بود. 0:04:46.560,0:04:49.256 وقتی برای اول تلفن آمد، 0:04:49.280,0:04:52.176 مردم نگران بودند که نکند اثری از [br]مکالمه مدنی نماند. 0:04:52.200,0:04:56.136 در مرحلهای از زمان که ما شاهد بودیم[br]کلام نوشتاری فراگیر شد، 0:04:56.160,0:04:58.656 مردم فکر می کردند توانایی خود[br]برای بخاطر سپردن را از دست می دهیم. 0:04:58.680,0:05:00.736 این چیزها تا حدی درست هستند، 0:05:00.760,0:05:03.176 اما همچنین این مورد هم هست[br]که این فناوریها 0:05:03.200,0:05:06.576 برای چیزهایی را آوردهاند که[br]که تجربیات بشری را عمیقا 0:05:06.600,0:05:08.480 گسترش داده است. 0:05:09.840,0:05:12.120 پس بیاید کمی این را جلوتر ببریم. 0:05:13.120,0:05:17.856 من از آفرینش یک ابرهوش مصنوعی [br]مثل این واهمه ندارم، 0:05:17.880,0:05:21.696 چون سرانجام برخی از [br]ارزشهای ما را دربر خواهد گرفت. 0:05:21.720,0:05:25.216 این را تصور کنید: ساخت یک سیستم ادراکی[br]که اساسا متفاوت است 0:05:25.240,0:05:28.536 از ساخت یک نظام فشرده- نرمافزاری[br]سنتی از گذشته. 0:05:28.560,0:05:31.016 آنها را برنامه ریزی نمیکنیم. [br]به آنه موزش می دهیم. 0:05:31.040,0:05:33.696 برای آموزش به یک سیستم[br]که چطور گلها را تشخیص دهد، 0:05:33.720,0:05:36.736 هزارن گل از انواعی که دوست دارم[br]را نشان می دهم. 0:05:36.760,0:05:39.016 برای این که سیستم نحوه [br]انجام بازیی را بیاموزد. 0:05:39.040,0:05:41.000 خب این را می کنم. شما هم همینطور. 0:05:42.600,0:05:44.640 گلها را دوست دارم. یالا. 0:05:45.440,0:05:48.296 برای آموزش به سیستمی که بتواند[br]بازی مثل Go را انجام دهد، 0:05:48.320,0:05:50.376 هزاران بار گذاشتم که [br]بازیهای Go را انجام دهد 0:05:50.400,0:05:52.056 اما در این روند [br]آن را آموزش هم میدهم. 0:05:52.080,0:05:54.496 چطور یک بازی خوب را از بد[br]تشخیص دهد. 0:05:54.520,0:05:58.216 اکر بخواهم یک دستیار حقوقی[br]باهوش مصنوعی خلق کنم، 0:05:58.240,0:06:00.016 کمی از مجموعه قانون را خواهم آموخت 0:06:00.040,0:06:02.896 البته هم زمان با آن مفاهیم 0:06:02.920,0:06:05.800 عدالت و بخشش را که بخشی از قانون [br]هستند را خواهم آموخت. 0:06:06.560,0:06:09.536 در عبارات علمی،[br]این را حقیقت مبنا مینامیم 0:06:09.560,0:06:11.576 و نکته مهم این است: 0:06:11.600,0:06:13.056 در تولید چنین ماشینهایی 0:06:13.080,0:06:16.496 درواقع به آنها مفهوم[br]ارزشهایمان را میاموزیم. 0:06:16.520,0:06:19.656 به همین ترتیب، به هوش مصنوعی[br]همان اندازهای باور دارم 0:06:19.680,0:06:23.320 که به یک انسانی که بخوبی[br]آموزش دیده. 0:06:24.080,0:06:25.296 اما ممکن است سوال کنید، 0:06:25.320,0:06:27.936 ماموران زیرک چطور، 0:06:27.960,0:06:31.296 یک سازمانه غیردولتی پولدار؟ 0:06:31.320,0:06:35.136 من ازاین که هوش مصنوعی در اختیار[br]یک گرگ تنها باشد نمیترسم.[br] 0:06:35.160,0:06:39.696 معلوم است که ما نمیتوانیم از خودمان[br]در مقابل تمامی اعمال خشونتامیز تصادفی حمایت کنیم 0:06:39.720,0:06:41.856 اما حقیقت این است که چنین سیستمی 0:06:41.880,0:06:44.976 نیازمند آموزش مفصل و موشکفانهای دارد 0:06:45.000,0:06:47.296 که فرای منابع فردی است. 0:06:47.320,0:06:48.536 و علاوه براین 0:06:48.560,0:06:51.816 بسیار فراتر از ویروس اینترنتی [br]وارد کردن به جهان است 0:06:51.840,0:06:54.936 جاییکه با یک کلیک، به یکباره ویروس[br]در میلیونها جا پراکنده شده 0:06:54.960,0:06:57.416 و لپ تاپ ها در همه جا شروع [br]به ترکیدن می کنند. 0:06:57.440,0:07:00.256 خب مفاهیمی این چنینی بسیار بزرگترند 0:07:00.280,0:07:01.995 و ما بی شک شاهد این اتفاقات[br]خواهیم بود. 0:07:02.520,0:07:05.576 آیا از یک چنین هوش مصنوعی میترسم 0:07:05.600,0:07:07.560 که ممکن است تهدیدی برای بشریت باشد؟ 0:07:08.280,0:07:12.656 اگر به فیلمهایی مثل ماتریکس، متروپلیس،[br]ترمیناتور یا 0:07:12.680,0:07:15.856 سریالی مثل وست ورلد نگاه کنید، 0:07:15.880,0:07:18.016 تمامی از از چنین ترسی حرف میزنند. 0:07:18.040,0:07:22.336 درواقع، در کتاب «ابرهوش صنوعی»[br]نوشته نیکو بوستروم فیلسوف، 0:07:22.360,0:07:23.896 او با این موضوع پیش میرود 0:07:23.920,0:07:27.936 و مشاهدهاش این است که یک ابرهوش مصنوعی [br]نه تنها شاید خطرناک بشد 0:07:27.960,0:07:31.816 بلکه نماینده تهدیدی نابودگر [br]برای کل بشریت باشد. 0:07:31.840,0:07:34.056 استدلال اولیه دکتر بوستروم 0:07:34.080,0:07:36.816 این است که چنین سیستمهایی عاقبت 0:07:36.840,0:07:40.096 چنان عطش سیریناپذیری [br]برای اطلاعات خواهند داشت 0:07:40.120,0:07:43.016 که شاید نحوه یادگرفتن را یاد بگشیرند 0:07:43.040,0:07:45.656 و سرانجام کشف کنند که اهدافی دارند 0:07:45.680,0:07:47.976 که مغایر با نیازهای بشر است. 0:07:48.000,0:07:49.856 دکتر بوستروم کلی دنبال کننده دارد. 0:07:49.880,0:07:54.200 او از سوی کسانی مثل الون موسک [br]و استفن هاوکینگ حمایت میشود. 0:07:54.880,0:07:57.280 با تمامی احترامی که برای این 0:07:58.160,0:08:00.176 ذهنهای بینظیر قائل هستم، 0:08:00.200,0:08:02.456 اعتقاد دارم که آنها [br]از پایه اشتباه می کنند. 0:08:02.480,0:08:05.656 اکنون قسمتهای زیادیاز استدلال دکتر بوستروم است[br]که باید از چمدان خارج شود 0:08:05.680,0:08:07.816 و من زمان کافی را برای همه آنها ندارم، 0:08:07.840,0:08:10.536 فقط خلاصه این را بگویم: 0:08:10.560,0:08:14.296 مدعی العلوم با همه کاره بودن[br]خیلی فرق دارد. 0:08:14.320,0:08:16.216 ایاچ ال تهدیدی برای خدمه دیسکاوری بود 0:08:16.240,0:08:20.656 تنها جاییکه ایاچ ال همه جوانب[br]را در دیسکاوری فرماندهی میکرد. 0:08:20.680,0:08:23.176 بریا این کار باید ابرهوشمند بود. 0:08:23.200,0:08:25.696 باید بر همه دنیای ما سلطه داشته باشد. 0:08:25.720,0:08:28.536 اینها از ویژگیهای اسکاینت در فیلم[br]ترمیناتور(نابودگر) است 0:08:28.560,0:08:30.416 که درآن یک ابرهوش مصنوعی داشتیم 0:08:30.440,0:08:31.816 که بر اراده بشر حک میراند، 0:08:31.840,0:08:35.696 همه چیز و همه جا را در زمین هدایت میکرد. 0:08:35.720,0:08:37.176 اما در عالم واقعیت 0:08:37.200,0:08:39.296 این اتفاق نخواهد افتاد. 0:08:39.320,0:08:42.376 ما ماشینهای ابرهوشمندی را نمیسازیم[br]که هوا را کنترل کنند، 0:08:42.400,0:08:43.736 که جزر و مد را جهت دهند، 0:08:43.760,0:08:47.136 که به ما انسانهای دمدمیمزاج [br]و بینظم فرمان دهند. 0:08:47.160,0:08:51.056 و علاوه بر آن، اگر چنین هوش مصنوعی [br]وجود داشته باشد، 0:08:51.080,0:08:54.016 باید با اقتصادهای بشری رقابت کند، 0:08:54.040,0:08:56.560 و به این وسیله برای منابع با ما رقابت کند. 0:08:57.200,0:08:58.416 و در آخر-- 0:08:58.440,0:08:59.680 به «سیری» این را نگویید-- 0:09:00.440,0:09:01.816 همیشه می توانیم از[br]برق آنها را بکشیم. 0:09:01.840,0:09:03.960 (خنده) 0:09:05.360,0:09:07.816 ما در یک سفر باورنکردنی از 0:09:07.840,0:09:10.336 همفرگشتی با ماشینهای خود [br]بسر میبریم. 0:09:10.360,0:09:12.856 این آدمهایی که امروز هستیم 0:09:12.880,0:09:15.416 آن آدمهایی که بعدا خواهیم شد نیستم. 0:09:15.440,0:09:18.576 الان نگران بودن درباره خیزش یک ابرهوشمند 0:09:18.600,0:09:21.656 از بسیاری جهات انحرافی خطرناک است 0:09:21.680,0:09:24.016 چون خیزش محاسبات کامپیوتری خودش 0:09:24.040,0:09:27.056 کلی مسائل اجتماعی و انسانی را برایمان[br]به ارمغان میاورد 0:09:27.080,0:09:28.720 که باید به آنها رسیدگی کنیم. 0:09:29.360,0:09:32.176 چطور به بهترین نحو جامعهای[br]را برنامه ریزی کنم 0:09:32.200,0:09:34.536 وقتی نیاز به نیروی کار بشری نمیماند؟ 0:09:34.560,0:09:38.376 چطور میتوانم تفاهم و تعلیم[br]را به جهان بیاورم 0:09:38.400,0:09:40.176 و هنوز احترام به تفاوتها[br]هم باشد. 0:09:40.200,0:09:44.456 چطور 0:09:44.480,0:09:47.336 چطور شاید از محاسبات کامپیوتری[br]در کمک به 0:09:47.360,0:09:49.120 رسیدن به [br]ستارهها استفاده کنم؟ 0:09:49.760,0:09:51.800 و همین هیجانانگیزه است. 0:09:52.400,0:09:54.736 فرصتهایی برای استقاده از[br]محاسبات کامپیوتری 0:09:54.760,0:09:56.296 برای پیشرفت تجربه بشر 0:09:56.320,0:09:57.736 اینجا و الان 0:09:57.760,0:09:59.616 در دسترس ما است. 0:09:59.640,0:10:01.320 و تازه اول راه هستیم. 0:10:02.280,0:10:03.496 خیلی متشکرم. 0:10:03.520,0:10:07.806 (تشویق)