1 00:00:00,760 --> 00:00:04,600 وقتی بچه بودم، اصل درسخوان بودم. 2 00:00:05,320 --> 00:00:07,496 فکر کنم بعضی از شما همینطوری بودید. 3 00:00:07,520 --> 00:00:08,736 (خنده) 4 00:00:08,760 --> 00:00:11,976 و شما آقا که از همه بلندتر خندیدی، احتمالا هنوز هم هستی. 5 00:00:12,000 --> 00:00:14,256 (خنده) 6 00:00:14,280 --> 00:00:17,776 در شهری کوچک در دشتهای غبارآلود شما تگزاس بزرگ شدم، 7 00:00:17,800 --> 00:00:21,136 پسر یک کلانتر که خودش پسر یک کشیش بود. 8 00:00:21,160 --> 00:00:23,080 پس جایی برای خرابکاری نمیماند. 9 00:00:24,040 --> 00:00:27,296 و من محض تفریح کتابهای حساب میخواندم. 10 00:00:27,320 --> 00:00:28,856 (خنده) 11 00:00:28,880 --> 00:00:30,576 شما هم اینطور بودید. 12 00:00:30,600 --> 00:00:34,336 که باعث شد یک لیزر و کامپیوتر و مدل موشکی بسازم، 13 00:00:34,360 --> 00:00:37,360 و این که باعث شد در اتاق خوابم سوخت موشک بسازم. 14 00:00:37,960 --> 00:00:41,616 الان در عبارات علمی 15 00:00:41,640 --> 00:00:44,896 این را یک ایده بد میخوانیم. 16 00:00:44,920 --> 00:00:46,136 (خنده) 17 00:00:46,160 --> 00:00:48,336 و هم زمان 18 00:00:48,360 --> 00:00:51,576 فیلم « ۲۰۰۱: یک ادیسه فضایی» استنلی کوبریک به روی پرده آمد، 19 00:00:51,600 --> 00:00:53,800 و زندگی من برای همیشه تغییر کرد. 20 00:00:54,280 --> 00:00:56,336 از همه چیز فیلم خوشم میامد 21 00:00:56,360 --> 00:00:58,896 بخصوص اچایال ۹۰۰۰. 22 00:00:58,920 --> 00:01:00,976 این اچایال یک کامپیوتر احساسی بود 23 00:01:01,000 --> 00:01:03,456 که جهت راهنمایی سفینه فضایی دیسکاوری در رفتن از زمین 24 00:01:03,480 --> 00:01:06,016 به مشتری طراحی شده بود. 25 00:01:06,040 --> 00:01:08,096 ایاچال همینطور یک شخصیت معیوب بود. 26 00:01:08,120 --> 00:01:12,400 چون در آخر ماموریت را بجای جان بشر انتخاب کرد. 27 00:01:12,840 --> 00:01:14,936 ایاچ ال یک شخصیت تخیلی بود 28 00:01:14,960 --> 00:01:17,616 اما با این وجود درباره ترسهای ما حرف میزد، 29 00:01:17,640 --> 00:01:19,736 ترسمان از مقهور شدن از سوی یک 30 00:01:19,760 --> 00:01:22,776 هوش مصنوعی بیاحساس 31 00:01:22,800 --> 00:01:24,760 که به بشریت بیاعتناست. 32 00:01:25,880 --> 00:01:28,456 به باور من این ترسها بیاساس است. 33 00:01:28,480 --> 00:01:31,176 ما در واقع در برهه قابل توجهی از تاریخ بشر 34 00:01:31,200 --> 00:01:32,736 بسر میبریم، 35 00:01:32,760 --> 00:01:37,736 جاییکه با نگیزش انکار در پذیرش محدودیتهای ذهنی و جسمی خود 36 00:01:37,760 --> 00:01:39,456 ماشینهایی را می سزیم 37 00:01:39,480 --> 00:01:43,096 که با پیچیدگی زیبا، منحصربفرد و زیبندگی 38 00:01:43,120 --> 00:01:45,176 تجربه بشری را تا ورای تصورات ما 39 00:01:45,200 --> 00:01:46,880 گسترش خواهند داد. 40 00:01:47,720 --> 00:01:50,296 بعد از مسیر حرفهای که من را از آکادمی نیروی هوایی 41 00:01:50,320 --> 00:01:52,256 به فرماندهی فضایی و الان 42 00:01:52,280 --> 00:01:53,976 به این مهندس سیستمی که شدم کشاند، 43 00:01:54,000 --> 00:01:56,736 و تازگی درگیر مشکل مهندسی شدهام 44 00:01:56,760 --> 00:01:59,336 که مرتبط با ماموریت ناسا به مریخ است. 45 00:01:59,360 --> 00:02:01,856 الان در سفرهای فضایی به ماه 46 00:02:01,880 --> 00:02:05,016 میتوانیم به کنترل ماموریت در هوستون تکیه کنیم 47 00:02:05,040 --> 00:02:07,016 تا کلیه جوانب یک پرواز را نظارت کند. 48 00:02:07,040 --> 00:02:10,576 هرچند، مریخ ۲۰۰ بار دورتر است، 49 00:02:10,600 --> 00:02:13,816 و در نتیجه بطور متوسط ۱۳ دقیقه طول میکشد 50 00:02:13,840 --> 00:02:16,976 تا یک سیگنال از زمین به ماه برسد. 51 00:02:17,000 --> 00:02:20,400 اگر مشکلی باشد زمان کافی نداریم. 52 00:02:20,840 --> 00:02:23,336 و برای یک راهحل مهندسی منطقی 53 00:02:23,360 --> 00:02:25,936 از ما این را طلب میکند که کنترل گر ماموریت 54 00:02:25,960 --> 00:02:28,976 داخل دیوارهای فضای پیمای اوریون باشد. 55 00:02:29,000 --> 00:02:31,896 یک ایده جذاب دیگر در روند ماموریت 56 00:02:31,920 --> 00:02:34,816 استفاده از روباتهای انسانی در سطح مریخ است 57 00:02:34,840 --> 00:02:36,696 پیش از رسیدن انسانه، 58 00:02:36,720 --> 00:02:38,376 اول این که امکاناتی را برپا کنند 59 00:02:38,400 --> 00:02:41,760 و بعد بعنوان اعضای همکار تیم علمی خدمت کنند. 60 00:02:43,400 --> 00:02:46,136 الان که از دید مهندسی به این نگاه میکنم 61 00:02:46,160 --> 00:02:49,336 برایم کاملا روش میشود که آنچه بعنوان معمار لازم داشتم 62 00:02:49,360 --> 00:02:51,536 یک هوش مصنوعی زیرک، 63 00:02:51,560 --> 00:02:53,936 همکاری کننده و دارای هوش اجتماعی بود. 64 00:02:53,960 --> 00:02:58,256 بعبارتی چیزی به اچایال بسازم 65 00:02:58,280 --> 00:03:00,696 اما بدون گرایشات انتحاری. 66 00:03:00,720 --> 00:03:02,080 (خنده) 67 00:03:02,920 --> 00:03:04,736 برای لحظهای بیایید مکث کنیم. 68 00:03:04,760 --> 00:03:08,656 آیا امکان سک هوش مصنوعی مثل آن وجود دارد؟ 69 00:03:08,680 --> 00:03:10,136 راستش هست. 70 00:03:10,160 --> 00:03:11,416 از بسیاری جهات 71 00:03:11,440 --> 00:03:13,416 این یک مشکل سخت مهندسی با اجزای 72 00:03:13,440 --> 00:03:14,896 ماشین ابر هوشمند است، 73 00:03:14,920 --> 00:03:19,616 نه یک جور گوی مودار خیس از یک مساله ابرهوشمند که نیاز به مهندسی دارد. 74 00:03:19,640 --> 00:03:22,296 بگذارید از آلن تورینگ جور دیگر نقل قول کنم، 75 00:03:22,320 --> 00:03:24,696 من علاقهای به ساخت یک ماشین احساسی ندارم. 76 00:03:24,720 --> 00:03:26,296 من اچایال نمیسازم. 77 00:03:26,320 --> 00:03:28,736 تمام انچه دنبالشم یک مغز ساده است، 78 00:03:28,760 --> 00:03:31,880 چیزی که شبحی از هوش را ارائه کند. 79 00:03:33,000 --> 00:03:36,136 هنر و علم محاسبات کامپیوتری از زمان ای اچال بر روی پرده 80 00:03:36,160 --> 00:03:37,656 روزهای زیادی را پشت سر گذاشته 81 00:03:37,680 --> 00:03:40,896 ومن تصور می کنم اگر مخترع آن دکتر چاندرا امروز اینجا بود، 82 00:03:40,920 --> 00:03:43,256 کلی پرسش برای ما داشت. 83 00:03:43,280 --> 00:03:45,376 آیا واقعا برای ما امکان دارد 84 00:03:45,400 --> 00:03:49,416 یک سیستم چند میلیونی را بنابر میلیونها دستگاه در اختیار بگیریم 85 00:03:49,440 --> 00:03:50,896 تا جریان دادههای آنها را بخواند، 86 00:03:50,920 --> 00:03:53,176 تا ایراداتشان را پیشبینی کند و پیشاپیش عمل کند. 87 00:03:53,200 --> 00:03:54,416 بله. 88 00:03:54,440 --> 00:03:57,616 آیا میتوان سیستمهایی ساخت که با انسانها به زبان عادی صحبت کنند؟ 89 00:03:57,640 --> 00:03:58,856 بله. 90 00:03:58,880 --> 00:04:01,856 آیا میتوان سیستمهایی ساخت که اشیا و احساست را بشناسند، 91 00:04:01,880 --> 00:04:05,256 در احساسات خود اغراق کنند، بازی کنند و حتی لب خوانی انجام دهند؟ 92 00:04:05,280 --> 00:04:06,496 بله. 93 00:04:06,520 --> 00:04:08,656 آیا میتوان سیستمهای ساخت که هدف تعیین کنند، 94 00:04:08,680 --> 00:04:12,296 که طرحهایی را علیه آن اهداف انجام دهند و در طول مسیر به یاد گرفتن بپردازند؟ 95 00:04:12,320 --> 00:04:13,536 بله. 96 00:04:13,560 --> 00:04:16,896 آیا میتوان سیستمهای ساخت که دارای نظریه ذهنی باشند؟ 97 00:04:16,920 --> 00:04:18,416 کاری که الان داریم میاموزیم. 98 00:04:18,440 --> 00:04:21,920 آیا میتوان سیستمهای ساخت که پایه اخلاقی و وجدانی دارند؟ 99 00:04:22,480 --> 00:04:24,520 چیزی که باید انجامش را بیاموزیم. 100 00:04:25,360 --> 00:04:26,736 خب بگذارید برای لحظهای بپذیریم 101 00:04:26,760 --> 00:04:29,656 که امکان ساخت چنین هوش مصنوعی 102 00:04:29,680 --> 00:04:31,816 برای چنین ماموریتهایی وجود دارد. 103 00:04:31,840 --> 00:04:34,376 این سوال بعدی که باید از خودتان بپرسید، 104 00:04:34,400 --> 00:04:35,856 آیا باید از آن ترسید؟ 105 00:04:35,880 --> 00:04:37,856 خب با آمدن هر فناوری جدیدی 106 00:04:37,880 --> 00:04:40,776 دلهره و واهمهای هم همراهش میاید. 107 00:04:40,800 --> 00:04:42,496 وقتی برای بار اول ماشینها را دیدیم، 108 00:04:42,520 --> 00:04:46,536 مردم تاسف میخورند که ما شاهد از دست رفتن خانواده خواهیم بود. 109 00:04:46,560 --> 00:04:49,256 وقتی برای اول تلفن آمد، 110 00:04:49,280 --> 00:04:52,176 مردم نگران بودند که نکند اثری از مکالمه مدنی نماند. 111 00:04:52,200 --> 00:04:56,136 در مرحلهای از زمان که ما شاهد بودیم کلام نوشتاری فراگیر شد، 112 00:04:56,160 --> 00:04:58,656 مردم فکر می کردند توانایی خود برای بخاطر سپردن را از دست می دهیم. 113 00:04:58,680 --> 00:05:00,736 این چیزها تا حدی درست هستند، 114 00:05:00,760 --> 00:05:03,176 اما همچنین این مورد هم هست که این فناوریها 115 00:05:03,200 --> 00:05:06,576 برای چیزهایی را آوردهاند که که تجربیات بشری را عمیقا 116 00:05:06,600 --> 00:05:08,480 گسترش داده است. 117 00:05:09,840 --> 00:05:12,120 پس بیاید کمی این را جلوتر ببریم. 118 00:05:13,120 --> 00:05:17,856 من از آفرینش یک ابرهوش مصنوعی مثل این واهمه ندارم، 119 00:05:17,880 --> 00:05:21,696 چون سرانجام برخی از ارزشهای ما را دربر خواهد گرفت. 120 00:05:21,720 --> 00:05:25,216 این را تصور کنید: ساخت یک سیستم ادراکی که اساسا متفاوت است 121 00:05:25,240 --> 00:05:28,536 از ساخت یک نظام فشرده- نرمافزاری سنتی از گذشته. 122 00:05:28,560 --> 00:05:31,016 آنها را برنامه ریزی نمیکنیم. به آنه موزش می دهیم. 123 00:05:31,040 --> 00:05:33,696 برای آموزش به یک سیستم که چطور گلها را تشخیص دهد، 124 00:05:33,720 --> 00:05:36,736 هزارن گل از انواعی که دوست دارم را نشان می دهم. 125 00:05:36,760 --> 00:05:39,016 برای این که سیستم نحوه انجام بازیی را بیاموزد. 126 00:05:39,040 --> 00:05:41,000 خب این را می کنم. شما هم همینطور. 127 00:05:42,600 --> 00:05:44,640 گلها را دوست دارم. یالا. 128 00:05:45,440 --> 00:05:48,296 برای آموزش به سیستمی که بتواند بازی مثل Go را انجام دهد، 129 00:05:48,320 --> 00:05:50,376 هزاران بار گذاشتم که بازیهای Go را انجام دهد 130 00:05:50,400 --> 00:05:52,056 اما در این روند آن را آموزش هم میدهم. 131 00:05:52,080 --> 00:05:54,496 چطور یک بازی خوب را از بد تشخیص دهد. 132 00:05:54,520 --> 00:05:58,216 اکر بخواهم یک دستیار حقوقی باهوش مصنوعی خلق کنم، 133 00:05:58,240 --> 00:06:00,016 کمی از مجموعه قانون را خواهم آموخت 134 00:06:00,040 --> 00:06:02,896 البته هم زمان با آن مفاهیم 135 00:06:02,920 --> 00:06:05,800 عدالت و بخشش را که بخشی از قانون هستند را خواهم آموخت. 136 00:06:06,560 --> 00:06:09,536 در عبارات علمی، این را حقیقت مبنا مینامیم 137 00:06:09,560 --> 00:06:11,576 و نکته مهم این است: 138 00:06:11,600 --> 00:06:13,056 در تولید چنین ماشینهایی 139 00:06:13,080 --> 00:06:16,496 درواقع به آنها مفهوم ارزشهایمان را میاموزیم. 140 00:06:16,520 --> 00:06:19,656 به همین ترتیب، به هوش مصنوعی همان اندازهای باور دارم 141 00:06:19,680 --> 00:06:23,320 که به یک انسانی که بخوبی آموزش دیده. 142 00:06:24,080 --> 00:06:25,296 اما ممکن است سوال کنید، 143 00:06:25,320 --> 00:06:27,936 ماموران زیرک چطور، 144 00:06:27,960 --> 00:06:31,296 یک سازمانه غیردولتی پولدار؟ 145 00:06:31,320 --> 00:06:35,136 من ازاین که هوش مصنوعی در اختیار یک گرگ تنها باشد نمیترسم. 146 00:06:35,160 --> 00:06:39,696 معلوم است که ما نمیتوانیم از خودمان در مقابل تمامی اعمال خشونتامیز تصادفی حمایت کنیم 147 00:06:39,720 --> 00:06:41,856 اما حقیقت این است که چنین سیستمی 148 00:06:41,880 --> 00:06:44,976 نیازمند آموزش مفصل و موشکفانهای دارد 149 00:06:45,000 --> 00:06:47,296 که فرای منابع فردی است. 150 00:06:47,320 --> 00:06:48,536 و علاوه براین 151 00:06:48,560 --> 00:06:51,816 بسیار فراتر از ویروس اینترنتی وارد کردن به جهان است 152 00:06:51,840 --> 00:06:54,936 جاییکه با یک کلیک، به یکباره ویروس در میلیونها جا پراکنده شده 153 00:06:54,960 --> 00:06:57,416 و لپ تاپ ها در همه جا شروع به ترکیدن می کنند. 154 00:06:57,440 --> 00:07:00,256 خب مفاهیمی این چنینی بسیار بزرگترند 155 00:07:00,280 --> 00:07:01,995 و ما بی شک شاهد این اتفاقات خواهیم بود. 156 00:07:02,520 --> 00:07:05,576 آیا از یک چنین هوش مصنوعی میترسم 157 00:07:05,600 --> 00:07:07,560 که ممکن است تهدیدی برای بشریت باشد؟ 158 00:07:08,280 --> 00:07:12,656 اگر به فیلمهایی مثل ماتریکس، متروپلیس، ترمیناتور یا 159 00:07:12,680 --> 00:07:15,856 سریالی مثل وست ورلد نگاه کنید، 160 00:07:15,880 --> 00:07:18,016 تمامی از از چنین ترسی حرف میزنند. 161 00:07:18,040 --> 00:07:22,336 درواقع، در کتاب «ابرهوش صنوعی» نوشته نیکو بوستروم فیلسوف، 162 00:07:22,360 --> 00:07:23,896 او با این موضوع پیش میرود 163 00:07:23,920 --> 00:07:27,936 و مشاهدهاش این است که یک ابرهوش مصنوعی نه تنها شاید خطرناک بشد 164 00:07:27,960 --> 00:07:31,816 بلکه نماینده تهدیدی نابودگر برای کل بشریت باشد. 165 00:07:31,840 --> 00:07:34,056 استدلال اولیه دکتر بوستروم 166 00:07:34,080 --> 00:07:36,816 این است که چنین سیستمهایی عاقبت 167 00:07:36,840 --> 00:07:40,096 چنان عطش سیریناپذیری برای اطلاعات خواهند داشت 168 00:07:40,120 --> 00:07:43,016 که شاید نحوه یادگرفتن را یاد بگشیرند 169 00:07:43,040 --> 00:07:45,656 و سرانجام کشف کنند که اهدافی دارند 170 00:07:45,680 --> 00:07:47,976 که مغایر با نیازهای بشر است. 171 00:07:48,000 --> 00:07:49,856 دکتر بوستروم کلی دنبال کننده دارد. 172 00:07:49,880 --> 00:07:54,200 او از سوی کسانی مثل الون موسک و استفن هاوکینگ حمایت میشود. 173 00:07:54,880 --> 00:07:57,280 با تمامی احترامی که برای این 174 00:07:58,160 --> 00:08:00,176 ذهنهای بینظیر قائل هستم، 175 00:08:00,200 --> 00:08:02,456 اعتقاد دارم که آنها از پایه اشتباه می کنند. 176 00:08:02,480 --> 00:08:05,656 اکنون قسمتهای زیادیاز استدلال دکتر بوستروم است که باید از چمدان خارج شود 177 00:08:05,680 --> 00:08:07,816 و من زمان کافی را برای همه آنها ندارم، 178 00:08:07,840 --> 00:08:10,536 فقط خلاصه این را بگویم: 179 00:08:10,560 --> 00:08:14,296 مدعی العلوم با همه کاره بودن خیلی فرق دارد. 180 00:08:14,320 --> 00:08:16,216 ایاچ ال تهدیدی برای خدمه دیسکاوری بود 181 00:08:16,240 --> 00:08:20,656 تنها جاییکه ایاچ ال همه جوانب را در دیسکاوری فرماندهی میکرد. 182 00:08:20,680 --> 00:08:23,176 بریا این کار باید ابرهوشمند بود. 183 00:08:23,200 --> 00:08:25,696 باید بر همه دنیای ما سلطه داشته باشد. 184 00:08:25,720 --> 00:08:28,536 اینها از ویژگیهای اسکاینت در فیلم ترمیناتور(نابودگر) است 185 00:08:28,560 --> 00:08:30,416 که درآن یک ابرهوش مصنوعی داشتیم 186 00:08:30,440 --> 00:08:31,816 که بر اراده بشر حک میراند، 187 00:08:31,840 --> 00:08:35,696 همه چیز و همه جا را در زمین هدایت میکرد. 188 00:08:35,720 --> 00:08:37,176 اما در عالم واقعیت 189 00:08:37,200 --> 00:08:39,296 این اتفاق نخواهد افتاد. 190 00:08:39,320 --> 00:08:42,376 ما ماشینهای ابرهوشمندی را نمیسازیم که هوا را کنترل کنند، 191 00:08:42,400 --> 00:08:43,736 که جزر و مد را جهت دهند، 192 00:08:43,760 --> 00:08:47,136 که به ما انسانهای دمدمیمزاج و بینظم فرمان دهند. 193 00:08:47,160 --> 00:08:51,056 و علاوه بر آن، اگر چنین هوش مصنوعی وجود داشته باشد، 194 00:08:51,080 --> 00:08:54,016 باید با اقتصادهای بشری رقابت کند، 195 00:08:54,040 --> 00:08:56,560 و به این وسیله برای منابع با ما رقابت کند. 196 00:08:57,200 --> 00:08:58,416 و در آخر-- 197 00:08:58,440 --> 00:08:59,680 به «سیری» این را نگویید-- 198 00:09:00,440 --> 00:09:01,816 همیشه می توانیم از برق آنها را بکشیم. 199 00:09:01,840 --> 00:09:03,960 (خنده) 200 00:09:05,360 --> 00:09:07,816 ما در یک سفر باورنکردنی از 201 00:09:07,840 --> 00:09:10,336 همفرگشتی با ماشینهای خود بسر میبریم. 202 00:09:10,360 --> 00:09:12,856 این آدمهایی که امروز هستیم 203 00:09:12,880 --> 00:09:15,416 آن آدمهایی که بعدا خواهیم شد نیستم. 204 00:09:15,440 --> 00:09:18,576 الان نگران بودن درباره خیزش یک ابرهوشمند 205 00:09:18,600 --> 00:09:21,656 از بسیاری جهات انحرافی خطرناک است 206 00:09:21,680 --> 00:09:24,016 چون خیزش محاسبات کامپیوتری خودش 207 00:09:24,040 --> 00:09:27,056 کلی مسائل اجتماعی و انسانی را برایمان به ارمغان میاورد 208 00:09:27,080 --> 00:09:28,720 که باید به آنها رسیدگی کنیم. 209 00:09:29,360 --> 00:09:32,176 چطور به بهترین نحو جامعهای را برنامه ریزی کنم 210 00:09:32,200 --> 00:09:34,536 وقتی نیاز به نیروی کار بشری نمیماند؟ 211 00:09:34,560 --> 00:09:38,376 چطور میتوانم تفاهم و تعلیم را به جهان بیاورم 212 00:09:38,400 --> 00:09:40,176 و هنوز احترام به تفاوتها هم باشد. 213 00:09:40,200 --> 00:09:44,456 چطور 214 00:09:44,480 --> 00:09:47,336 چطور شاید از محاسبات کامپیوتری در کمک به 215 00:09:47,360 --> 00:09:49,120 رسیدن به ستارهها استفاده کنم؟ 216 00:09:49,760 --> 00:09:51,800 و همین هیجانانگیزه است. 217 00:09:52,400 --> 00:09:54,736 فرصتهایی برای استقاده از محاسبات کامپیوتری 218 00:09:54,760 --> 00:09:56,296 برای پیشرفت تجربه بشر 219 00:09:56,320 --> 00:09:57,736 اینجا و الان 220 00:09:57,760 --> 00:09:59,616 در دسترس ما است. 221 00:09:59,640 --> 00:10:01,320 و تازه اول راه هستیم. 222 00:10:02,280 --> 00:10:03,496 خیلی متشکرم. 223 00:10:03,520 --> 00:10:07,806 (تشویق)