1 00:00:01,000 --> 00:00:02,809 کریس اندرسن: نیک بوستروم. 2 00:00:02,833 --> 00:00:06,809 خوب، تو تا الان نظرات عجیب و غریب زیادی داشته ای. 3 00:00:06,833 --> 00:00:08,559 فکر کنم چند دهه قبل است، 4 00:00:08,583 --> 00:00:11,518 پیشنهاد دادی که ممکن است همه ما در یک شبیه سازی زندگی کنیم، 5 00:00:11,542 --> 00:00:13,351 یا شاید می کردیم. 6 00:00:13,375 --> 00:00:14,726 این اواخر، 7 00:00:14,750 --> 00:00:19,351 مثال های کاملا زنده ای ترسیم کردی از اینکه چطور هوش مصنوعی عمومی 8 00:00:19,375 --> 00:00:21,208 می تواند به شکل وحشتناکی اشتباه باشد. 9 00:00:21,750 --> 00:00:23,143 و حالا امسال، 10 00:00:23,167 --> 00:00:25,393 در حال نشرِ 11 00:00:25,417 --> 00:00:29,351 مقاله ای هستی که فرضیات دنیایِ آسیب پذیر نام دارد. 12 00:00:29,375 --> 00:00:33,958 و کار امروز عصر ما تهیه یک بروشور راهنما برای آن است. 13 00:00:34,417 --> 00:00:36,250 پس بیا تا انجامش دهیم. 14 00:00:36,833 --> 00:00:38,625 این فرضیات چه هستند؟ 15 00:00:40,000 --> 00:00:42,434 نیک بوستروم: سعی می کند تا درباره 16 00:00:42,458 --> 00:00:45,542 نوعی از ویژگی های ساختاری وضعیت موجود انسان بیاندیشد. 17 00:00:47,125 --> 00:00:49,476 تو از استعاره گلدان خوشت می آید، 18 00:00:49,500 --> 00:00:51,393 پس از آن برای مثال استفاده می کنم. 19 00:00:51,417 --> 00:00:55,768 یک گلدان بزرگ پر از توپ را تصور کن 20 00:00:55,792 --> 00:00:59,750 که نمایشگر نظرات، راهکارها و فناوری های ممکن است. 21 00:01:00,833 --> 00:01:04,559 می توانی تاریخ خلاقیت انسان را 22 00:01:04,583 --> 00:01:08,393 به شکل بردن دست در گلدان و بیرون آوردن توپ یکی پس از دیگری تصور کنی، 23 00:01:08,417 --> 00:01:11,643 و تاثیر کلی آن تا حالا بسیار مفید بوده، درست؟ 24 00:01:11,667 --> 00:01:14,393 تا حالا توپ های سفید خیلی خوبی را درآورده ایم، 25 00:01:14,417 --> 00:01:17,292 انواع توپ های خاکستری، که چیزهای درهم خوب و بدی هستند. 26 00:01:18,042 --> 00:01:21,000 و تا حالا هیچ توپ سیاهی بیرون نیامده -- 27 00:01:22,292 --> 00:01:27,768 فناوری که به شکل دائمی، تمدنی که پیدایش کند را نابود می کند. 28 00:01:27,792 --> 00:01:31,193 این مقاله سعی دارد تا بررسی کند که چه چیزی ممکن است یک توپ سیاه باشد. 29 00:01:31,193 --> 00:01:32,893 ک.ا: پس تعریف شما از این توپ 30 00:01:32,917 --> 00:01:36,601 چیزی است که همراهش نابودی حتمی تمدن است. 31 00:01:36,625 --> 00:01:41,934 ن.ب.: مگر آنکه از شرایطی که من اسمش را نیمه-آشفته گذاشته ام خارج شویم. 32 00:01:41,958 --> 00:01:43,458 اما به شکلی، حتمی است. 33 00:01:44,333 --> 00:01:47,851 ک.ا.: پس شما برای این که این نظریه قابل را قبول کنید 34 00:01:47,875 --> 00:01:49,893 انواع مثال های مخالف را می آورید 35 00:01:49,917 --> 00:01:52,851 تا نشان دهید تا حالا شانس آورده ایم، 36 00:01:52,875 --> 00:01:55,726 و ممکن بود که توپ مرگ را بیرون می کشیدیم 37 00:01:55,750 --> 00:01:57,309 بدون آنکه خودمان حتی بفهمیم. 38 00:01:57,333 --> 00:01:59,625 گفته ای نقل شده، چه چیزی گفته شده؟ 39 00:02:00,625 --> 00:02:03,309 ن.ب.: خوب، معنی اش نشان دادن 40 00:02:03,333 --> 00:02:05,434 سختی پیش بینی 41 00:02:05,458 --> 00:02:08,143 این است که اکتشافات بنیادی ما را به کجا خواهند برد. 42 00:02:08,167 --> 00:02:11,226 ما هنوز این توانایی را نداریم. 43 00:02:11,250 --> 00:02:14,601 چون در توپ بیرون آوردن ماهر شده ایم، 44 00:02:14,625 --> 00:02:18,351 اما واقعا توانایی برگرداندن توپ به گلدان را نداریم، غیر از این است؟ 45 00:02:18,375 --> 00:02:20,902 می توانیم اختراع کنیم، اما نمی توانیم حذف-اختراع کنیم. 46 00:02:21,583 --> 00:02:24,351 پس راهبرد ما، هم این که داریم، 47 00:02:24,375 --> 00:02:26,809 امیدواری به این است که توپ سیاهی در گلدان نباشد. 48 00:02:26,833 --> 00:02:30,893 ک.ا.: پس وقتی بیرون آمد، بیرون آمده، و نمی شود برش گرداند، 49 00:02:30,893 --> 00:02:32,528 و فکر می کنی که ما شانس آورده ایم. 50 00:02:32,528 --> 00:02:34,684 برایمان از اینها چند مثال بیاور. 51 00:02:34,708 --> 00:02:37,809 از انواع مختلف آسیب پذیری صحبت کرده ای. 52 00:02:37,833 --> 00:02:40,268 ن.ب : ساده ترین نوع آن برای فهمیدن 53 00:02:40,292 --> 00:02:43,434 فناوری است که به سادگی امکان می دهد 54 00:02:43,458 --> 00:02:45,583 تا مقادیر عظیمی از تخریب ایجاد شود. 55 00:02:47,375 --> 00:02:50,893 زیست شناسی مصنوعی ممکن است نمونه ای حاصلخیز از این توپ سیاه باشد، 56 00:02:50,917 --> 00:02:53,601 اما خیلی چیزهای ممکن دیگر هم می توانیم انجام دهیم -- 57 00:02:53,625 --> 00:02:56,143 به مهندسی زمین شناسی توجه کنید که بسیار عالی است، نه؟ 58 00:02:56,167 --> 00:02:58,393 می توانیم با گرمایش جهانی مبارزه کنیم، 59 00:02:58,417 --> 00:03:00,559 اما نمی خواهی که خیلی هم ساده باشد، 60 00:03:00,583 --> 00:03:03,059 نباید که هر آدمی و مامان بزرگش مثلا 61 00:03:03,083 --> 00:03:06,143 این قدرت را داشته باشند که آب و هوای زمین را به شدت تغییر دهند. 62 00:03:06,167 --> 00:03:09,726 یا شاید هم پهپادهای خودکار مرگبار، 63 00:03:09,750 --> 00:03:13,083 تولید انبوه شوند، ربات هایی به اندازه پشه هجوم ربات های کشنده. 64 00:03:14,500 --> 00:03:17,226 فناوری نانو، هوش مصنوعی عمومی. 65 00:03:17,250 --> 00:03:18,793 ک.ا : در این مقاله عنوان کرده ای 66 00:03:18,793 --> 00:03:21,476 که این تنها از روی شانس است که وقتی ما کشف کردیم 67 00:03:21,500 --> 00:03:24,934 که فناوری هسته ای می تواند بمب تولید کند، 68 00:03:24,958 --> 00:03:26,351 می توانست اینطور باشد 69 00:03:26,375 --> 00:03:28,226 که بمبی اختراع شود 70 00:03:28,250 --> 00:03:31,809 که منابع آن خیلی ساده تر باشد، در دسترس همه. 71 00:03:31,833 --> 00:03:35,393 ن.ب: درسته، فکر کنید به سال های ۱۹۳۰ برگردیم 72 00:03:35,417 --> 00:03:40,018 موقعی که توانستیم برای اولین بار در فیزیک هسته ای پیشرفت هایی حاصل کنیم، 73 00:03:40,042 --> 00:03:43,726 عده ای از نوابغ فهمیدند که می شود یک واکنش زنجیره ای هسته ای هم ایجاد کرد 74 00:03:43,750 --> 00:03:46,934 و بعد متوجه شدند که این می تواند تبدیل به بمب شود. 75 00:03:46,958 --> 00:03:48,851 و بعد ما کمی کار بیشتر کردیم، 76 00:03:48,875 --> 00:03:51,601 و مشخص شد که چیزی که برای ساختن بمب نیاز داری 77 00:03:51,625 --> 00:03:54,018 اورانیوم بسیار غنی شده یا پلوتونیم است، 78 00:03:54,042 --> 00:03:56,059 که تهیه این مواد بسیار سخت و مشکل است. 79 00:03:56,083 --> 00:03:58,351 به سانتریفیوژ های با سرعت خیلی بالا نیاز داری، 80 00:03:58,375 --> 00:04:02,143 نیاز به راکتور دارید، مقادیر عظیم انرژی. 81 00:04:02,167 --> 00:04:03,976 اما حالا فرض کنید به جایش 82 00:04:04,000 --> 00:04:07,976 راه ساده ای وجود داشت تا انرژی اتم را آزاد کنی. 83 00:04:08,000 --> 00:04:10,768 مثا اگر با پختن شن توی دستگاه مایکروویو 84 00:04:10,792 --> 00:04:12,059 یا چیزی شبیه به آن 85 00:04:12,083 --> 00:04:14,184 می توانستی انفجار هسته ای ایجاد کنی. 86 00:04:14,208 --> 00:04:16,351 این را می دانیم که از لحاظ فیزیکی ممکن نیست. 87 00:04:16,375 --> 00:04:18,292 اما قبل از انجام محاسبات فیزیکی لازم 88 00:04:18,292 --> 00:04:20,483 از کجا می دانستی که نتیجه اش چه می شود؟ 89 00:04:20,507 --> 00:04:22,083 ک.ا: اگرچه، نمی شود بحث کرد 90 00:04:22,083 --> 00:04:24,018 که تکامل حیات روی زمین 91 00:04:24,042 --> 00:04:27,309 به طور ضمنی به معنی محیطی ثابت است، 92 00:04:27,333 --> 00:04:31,518 و اگر ایجاد واکنش های بزرگ هسته ای نسبتا ساده بود، 93 00:04:31,542 --> 00:04:33,400 زمین هیچ وقت ثابت نمی بود، 94 00:04:33,424 --> 00:04:34,976 و ما اصلا اینجا نبودیم. 95 00:04:35,000 --> 00:04:38,393 ن.ب: درسته، مگر آنکه چیزی باشد که انجام عمدی اش ساده باشد 96 00:04:38,417 --> 00:04:41,268 اما به شکل اتفاقی انجام نشده باشد. 97 00:04:41,292 --> 00:04:43,126 مثل کارهایی که به سادگی انجام می دهیم، 98 00:04:43,126 --> 00:04:45,201 ما می توانیم ده قطعه چیزی را روی هم بگذاریم، 99 00:04:45,201 --> 00:04:48,228 اما در طبیعت نمی توانی دسته ای از ۱۰ قطعه روی هم پیدا کنی. 100 00:04:48,253 --> 00:04:50,230 ک.ا: بسیار خوب، پس این احتمالا همانی است 101 00:04:50,230 --> 00:04:51,893 که خیلی از ما بیشتر نگرانش هستیم، 102 00:04:51,917 --> 00:04:55,434 و بله، زیست شناسی مصنوعی احتمالا سریعترین مسیری است 103 00:04:55,458 --> 00:04:58,476 که پیش بینی می کنیم که در آینده نزدیک ما را به اینجا بیاورد. 104 00:04:58,500 --> 00:05:01,434 ن.ب: درسته، و توجه کن معنی اش چه بود 105 00:05:01,458 --> 00:05:05,101 اگر، مثلا، هر کسی در آشپزخانه اش بعد از ظهر کاری می کرد که 106 00:05:05,125 --> 00:05:06,518 می توانست شهری را نابود کند. 107 00:05:06,542 --> 00:05:10,101 قابل تصور نیست که چطور تمدن های امروزی که ما می شناسیم 108 00:05:10,125 --> 00:05:11,559 می توانستند باقی بمانند. 109 00:05:11,583 --> 00:05:14,101 چون در هر جمعیتی از یک میلیون نفر، 110 00:05:14,125 --> 00:05:16,809 همیشه کسی وجود دارد، که به هر دلیلی، 111 00:05:16,833 --> 00:05:18,917 بخواهد که از نیروی تخریب استفاده کند. 112 00:05:19,750 --> 00:05:22,893 پس اگر آن بازمانده از آخر دنیا 113 00:05:22,917 --> 00:05:24,987 بخواهد که شهری را نابود کند، یا بدتر از آن، 114 00:05:24,987 --> 00:05:26,476 پس آن شهرها نابود می شوند. 115 00:05:26,500 --> 00:05:28,851 ک.ا: پس این نوع دیگری از آسیب پذیری است. 116 00:05:28,875 --> 00:05:30,518 برایمان توضیح بده. 117 00:05:30,542 --> 00:05:34,518 ن.ب: بله، علاوه بر این نمونه های کاملا واضح از توپ های سیاه 118 00:05:34,542 --> 00:05:37,352 که می توانند چیزهای زیادی را منفجر کنند، 119 00:05:37,376 --> 00:05:41,809 انواع دیگر از راه ایجاد مشوق های بد عمل می کنند 120 00:05:41,833 --> 00:05:44,059 تا انسانها کارهای مضری انجام دهند. 121 00:05:44,083 --> 00:05:48,184 اگر اسمش را نوع ۲-الف بگذاریم، 122 00:05:48,208 --> 00:05:52,726 درباره فناوری است که مشوق هایی برای قدرت های بزرگ ایجاد می کند 123 00:05:52,750 --> 00:05:57,226 که از نیروی عظیم شان برای تخریب استفاده کنند. 124 00:05:57,250 --> 00:06:00,083 سلاح های هسته ای خیلی به این نزدیک هستند، نه؟ 125 00:06:02,083 --> 00:06:05,143 کاری که ما کردیم، کمی بیش از ۱۰ تریلیون دلار هزینه کردیم 126 00:06:05,167 --> 00:06:07,684 تا حدود ۷۰،۰۰۰ کلاهک هسته ای بسازیم 127 00:06:07,708 --> 00:06:10,143 و آنها را آماده شلیک قرار دهیم. 128 00:06:10,167 --> 00:06:12,434 و چند باری هم در طول جنگ سرد 129 00:06:12,458 --> 00:06:13,893 تقریبا همدیگر را از بین بردیم. 130 00:06:13,917 --> 00:06:17,222 دلیلش این نبود که خیلی از افراد فکر می کردند که این کار خیلی خوبی است، 131 00:06:17,222 --> 00:06:19,870 بیایید ۱۰ تریلیون دلار خرج کنیم تا خودمان را منفجر کنیم، 132 00:06:19,870 --> 00:06:22,684 اما مشوق ها به گونه ای بود که خودمان را -- 133 00:06:22,708 --> 00:06:24,018 می توانست خیلی بدتر باشد. 134 00:06:24,042 --> 00:06:26,476 فرض کنید که یک تهاجم اولیه بدون مشکل انجام می شد. 135 00:06:26,500 --> 00:06:28,809 بعد ممکن بود وضعیت خیلی پیچیده ای پیش بیاید، 136 00:06:28,833 --> 00:06:30,101 در شرایط بحران، 137 00:06:30,125 --> 00:06:32,602 تا مانع از پرتاب تمام موشک های هسته ای بشویم. 138 00:06:32,626 --> 00:06:36,018 اگر مانعی نباشد، چون می ترسی که طرف دیگر این کار را انجام دهد. 139 00:06:36,042 --> 00:06:37,851 ک.ا: درست، تضمین تخریب متقابل 140 00:06:37,875 --> 00:06:40,601 باعث شد تا دوران جنگ سرد نسبتا ثابت باشد، 141 00:06:40,625 --> 00:06:42,559 بدون آن، شاید حالا الان اینجا نبودیم. 142 00:06:42,583 --> 00:06:44,917 ن.ب: می توانست خیلی نامتعادل تر از آنچه بود باشد. 143 00:06:44,917 --> 00:06:47,268 و می توانست مشخصات دیگر فناوری هم باشد. 144 00:06:47,292 --> 00:06:49,601 بستن پیمان های تسلیحاتی می توانست سخت تر باشد، 145 00:06:49,625 --> 00:06:51,226 اگر بجای تسلیحات اتمی 146 00:06:51,250 --> 00:06:54,268 چیزهایی کوچکتر یا نامشخص تر بود. 147 00:06:54,292 --> 00:06:56,851 ک.ا: و مانند مشوق های بد برای بازیگران قدرت، 148 00:06:56,875 --> 00:07:00,393 می توانی نگران مشوق های بد برای همه ما باشی، اینجا در نوع ۲-ب. 149 00:07:00,417 --> 00:07:04,667 ن.ب.: درسته، اینجا می شود مسئله گرمایش جهانی را در نظر گرفت. 150 00:07:06,958 --> 00:07:08,851 راحت طلبی های کوچک زیادی هستند 151 00:07:08,875 --> 00:07:11,159 که باعث می شوند ما کارهایی انجام دهیم 152 00:07:11,159 --> 00:07:13,934 که جداگانه هر کدام اثر خیلی زیادی ندارند، درست؟ 153 00:07:13,958 --> 00:07:15,934 اما اگر میلیاردها نفر انجامش دهند، 154 00:07:15,958 --> 00:07:18,018 اثر تجمیعی آن، مخرب است. 155 00:07:18,042 --> 00:07:20,851 امروزه، گرمایش جهانی می توانست خیلی از این بدتر باشد. 156 00:07:20,875 --> 00:07:23,851 ما مولفه حساسیت آب و هوا را داریم. 157 00:07:23,875 --> 00:07:27,518 این مولفه ای است که می گوید چقدر گرمتر می شود 158 00:07:27,542 --> 00:07:30,226 اگر مقدار معینی گاز گلخانه ای منتشر کنی. 159 00:07:30,250 --> 00:07:32,643 اما، فرض کن به شکل دیگری بود 160 00:07:32,667 --> 00:07:35,184 اگر با همان میزان گاز گلخانه ای که منتشر می کردیم، 161 00:07:35,208 --> 00:07:37,268 بجای افزایش دمای، مثلا، 162 00:07:37,292 --> 00:07:41,018 بین ۳ تا ۴/۵ درجه تا سال ۲۱۰۰، 163 00:07:41,042 --> 00:07:43,542 فرض کنید بین ۱۵ تا ۲۰ درجه می شد. 164 00:07:44,375 --> 00:07:46,934 اینطور، ممکن بود وضعیت خیلی بدی داشته باشیم. 165 00:07:46,958 --> 00:07:50,101 یا فرض کنید که استفاده از انرژی های تجدید پذیر خیلی مشکل تر بود. 166 00:07:50,125 --> 00:07:52,768 یا اینکه سوخت های فسیلی بیشتری در زمین بود. 167 00:07:52,792 --> 00:07:55,434 ک.ا: آیا می شد دلیل آورد که در آن حالت -- 168 00:07:55,458 --> 00:07:57,184 اگر کاری که امروز می کنیم 169 00:07:57,208 --> 00:08:01,768 موجب ۱۰ درجه تفاوت در مدت زمانی که می توانستیم ببینیم می شد، 170 00:08:01,792 --> 00:08:05,476 واقعا بشریت تکانی به خودش می داد و کاری می کرد. 171 00:08:05,500 --> 00:08:08,309 احمق هستیم. اما شاید نه آنقدر احمق. 172 00:08:08,333 --> 00:08:09,601 شاید هم هستیم. 173 00:08:09,625 --> 00:08:11,017 ن.ب: من اطمینان نمی کردم. 174 00:08:11,017 --> 00:08:13,101 (خنده حضار) 175 00:08:13,125 --> 00:08:14,983 می توانی ویژگی های دیگر را هم تصور کنی. 176 00:08:14,983 --> 00:08:20,351 همین حالا، تغییر به انرژی های تجدید پذیر کمی مشکل است، درست، 177 00:08:20,375 --> 00:08:21,643 اما شدنی است. 178 00:08:21,667 --> 00:08:24,643 اما اگر خواص فیزیکی کمی متفاوت بود، 179 00:08:24,667 --> 00:08:27,458 ممکن بود این کارها خیلی پر هزینه تر باشند. 180 00:08:28,375 --> 00:08:29,893 ک.ا: و تو چه نظری داری، نیک؟ 181 00:08:29,917 --> 00:08:32,351 فکر می کنی با روی هم گذاشتن این احتمالات، 182 00:08:32,375 --> 00:08:36,643 که با این زمین، بشریتی که ما هستیم 183 00:08:36,667 --> 00:08:38,380 ما دنیایی آسیب پذیر هستیم؟ 184 00:08:38,380 --> 00:08:40,667 که یک توپ مرگ در آینده ما وجود دارد؟ 185 00:08:43,958 --> 00:08:45,226 ن.ب: پاسخ به آن سخت است. 186 00:08:45,250 --> 00:08:50,309 منظورم اینکه فکر می کنم احتمال زیادی دارد که توپ های سیاه مختلفی در گلدان باشند، 187 00:08:50,333 --> 00:08:51,643 اینطور به نظر می رسد. 188 00:08:51,667 --> 00:08:54,059 اما ممکن است توپ های طلایی هم باشند 189 00:08:54,083 --> 00:08:57,559 که به ما در برابر توپ های سیاه کمک کنند. 190 00:08:57,583 --> 00:09:00,559 و نمی دانم که ترتیب بیرون آمدنشان به چه صورت است. 191 00:09:00,583 --> 00:09:04,434 ک.ا: منظورم، یک انتقاد محتمل فلسفی به این تفکر 192 00:09:04,458 --> 00:09:10,101 این است که به طور ضمنی این دید را دارد که آینده اساسا تثبیت شده است. 193 00:09:10,125 --> 00:09:12,601 که یا این توپ آنجاست یا نیست. 194 00:09:12,625 --> 00:09:15,643 و به شکلی، 195 00:09:15,667 --> 00:09:18,268 این نگاهی به آینده نیست که بخواهم باور کنم. 196 00:09:18,292 --> 00:09:20,643 می خواهم باور کنم که آینده قطعی نیست، 197 00:09:20,667 --> 00:09:22,601 که تصمیمات امروز ما معین می کنند 198 00:09:22,625 --> 00:09:24,833 که چه توپی را از گلدان بیرون می آوریم. 199 00:09:25,917 --> 00:09:29,684 ن.ب: منظورم این است، که اگر همینطور نوآوری را ادامه دهیم، 200 00:09:29,708 --> 00:09:32,042 نهایتا همه توپ ها را بیرون خواهیم آورد. 201 00:09:32,875 --> 00:09:36,268 یعنی، فکر می کنم وجود مقدار کمی جبرگرایی فناوری 202 00:09:36,292 --> 00:09:37,559 کاملا ممکن است. 203 00:09:37,583 --> 00:09:40,226 شبیه به اینکه، احتمال کمی دارد که جامعه ای پیدا کنی 204 00:09:40,250 --> 00:09:43,083 که از سنگ چخماق و هواپیمای جت با هم استفاده کند. 205 00:09:44,208 --> 00:09:48,268 اما اغلب می شود یک فناوری را به عنوان مجموعه ای از ویژگی ها در نظر گرفت 206 00:09:48,292 --> 00:09:51,309 پس فناوری چیزی است که به ما امکان انجام کارهای مختلف 207 00:09:51,333 --> 00:09:53,309 و دسترسی به نتایج گوناگون را می دهد. 208 00:09:53,333 --> 00:09:56,337 اینکه چطور از آن استفاده کنیم، مسلما به انتخاب انسان بستگی دارد. 209 00:09:56,337 --> 00:09:58,851 اما اگر به این سه نوع آسیب پذیری فکر کنیم، 210 00:09:58,875 --> 00:10:02,268 آنها فرضیات کاملا ضعیفی از انتخاب ما در چگونه استفاده کردنشان اند. 211 00:10:02,292 --> 00:10:05,684 پس یک آسیب پذیری نوع ۱، مجددا، این نیروی عظیم مخرب، 212 00:10:05,708 --> 00:10:07,143 این فرض ضعیفی است 213 00:10:07,167 --> 00:10:09,559 که در میان میلیون ها انسان 214 00:10:09,583 --> 00:10:12,518 بعضی ها هستند که بخواهند از آن برای تخریب استفاده کنند. 215 00:10:12,542 --> 00:10:14,976 ک.ا: برای من، تنها موضوع ناراحت کننده 216 00:10:15,000 --> 00:10:19,559 این است که واقعا ممکن است ما نگاهی به داخل گلدان بیاندازیم 217 00:10:19,583 --> 00:10:23,101 که موجب شود واقعا محکوم به بدبختی شویم. 218 00:10:23,125 --> 00:10:27,768 مثلا، اگر به قدرت مضاعف اعتقاد داشته باشی، 219 00:10:27,792 --> 00:10:30,059 که شتاب فناوری ذاتی است، 220 00:10:30,083 --> 00:10:32,518 که ما ابزارهایی می سازیم که ما را قوی تر می کنند، 221 00:10:32,542 --> 00:10:35,184 پس زمانی به صحنه می آیی 222 00:10:35,208 --> 00:10:38,268 که یک نفر به تنهایی می تواند حریف همه ما شود، 223 00:10:38,292 --> 00:10:41,143 و بعد انگار که ما شکست خورده ایم. 224 00:10:41,167 --> 00:10:44,101 این موضوعی خیلی نگران کننده نیست؟ 225 00:10:44,125 --> 00:10:45,875 ن.ب: آه، بله. 226 00:10:46,708 --> 00:10:47,976 (خنده حضار) 227 00:10:48,000 --> 00:10:49,333 به نظرم -- 228 00:10:50,875 --> 00:10:52,800 بله، ما بیشتر و بیشتر قدرت پیدا می کنیم، 229 00:10:52,800 --> 00:10:56,434 و استفاده از آن ساده و ساده تر می شود، 230 00:10:56,458 --> 00:11:00,018 ولی ما می توانیم فناوری هایی هم بسازیم که به ما در کنترل آن 231 00:11:00,042 --> 00:11:02,353 که چطور مردم از این قدرت ها استفاده کنند کمک کند. 232 00:11:02,353 --> 00:11:05,218 ک.ا: بگذار در موردش صحبت کنیم، در مورد پاسخ به آن صحبت کنیم. 233 00:11:05,218 --> 00:11:07,268 فرض کن در نظر گرفتن همه حالت های ممکن 234 00:11:07,292 --> 00:11:09,393 که حالا آنجا است -- 235 00:11:09,417 --> 00:11:13,143 تنها زیست شناسی مصنوعی نیست، چیزهایی مثل نبرد سایبری، 236 00:11:13,167 --> 00:11:16,518 هوش مصنوعی، غیره و غیره. -- 237 00:11:16,542 --> 00:11:21,059 آن چیزها احتمالا آینده ما را محکوم می کنند. 238 00:11:21,083 --> 00:11:22,684 پاسخ های ممکن چه هستند؟ 239 00:11:22,708 --> 00:11:27,601 تو درباره چهار پاسخ ممکن صحبت کرده ای. 240 00:11:27,625 --> 00:11:31,268 ن.ب: محدود کردن توسعه فناوری به نظر امیدوار کننده نمی رسد، 241 00:11:31,292 --> 00:11:34,518 اگر منظورمان یک توقف عمومی در پیشرفت فناوری است. 242 00:11:34,542 --> 00:11:36,093 فکر نمی کنم هیچ کدام شدنی باشند، 243 00:11:36,093 --> 00:11:38,727 هیچ کدام خواسته ما نیستند حتی اگر بتوانیم انجامشان دهیم. 244 00:11:38,727 --> 00:11:41,184 به نظرم ممکن است در موضوعات محدودی 245 00:11:41,208 --> 00:11:43,934 بخواهی که توسعه فناوری کندتر باشد. 246 00:11:43,958 --> 00:11:47,351 فکر نکنم، توسعه سریعتر تسلیحات زیستی را بخواهی، 247 00:11:47,375 --> 00:11:49,434 یا فرضا، جداسازی ایزوتوپ ها، 248 00:11:49,458 --> 00:11:51,708 که تولید تسلیحات هسته ای را ساده تر می کند. 249 00:11:52,583 --> 00:11:55,893 ک.ا: به نظرم، معمولا کاملا با آن همراه بودم. 250 00:11:55,917 --> 00:11:59,184 اما حالا واقعا می خواهم دقیقه ای آن را کنار بگذارم. 251 00:11:59,208 --> 00:12:00,518 تنها به دلیل، اول از همه، 252 00:12:00,542 --> 00:12:03,226 اگر به تاریخ چند دهه اخیر نگاه کنی، 253 00:12:03,250 --> 00:12:06,809 می بینی، که همیشه تخت گاز فشار به جلو با حداکثر سرعت بوده، 254 00:12:06,833 --> 00:12:08,684 اشکالی ندارد، این تنها انتخاب ماست. 255 00:12:08,708 --> 00:12:12,976 اما اگر به جهانی شدن و شتاب سریع آن فکر کنی، 256 00:12:13,000 --> 00:12:16,434 اگر به راهبرد «تجربه مادر علم است» توجه کنی 257 00:12:16,458 --> 00:12:18,518 و نتایجش را بررسی کنی، 258 00:12:18,542 --> 00:12:21,309 و بعد به توانایی ذاتی زیست شناسی مصنوعی توجه کنی، 259 00:12:21,333 --> 00:12:25,768 مطمئن نیستم که باید سریع حرکت کنیم 260 00:12:25,792 --> 00:12:27,434 یا بدون هر گونه محدودیت 261 00:12:27,458 --> 00:12:30,768 به سمت جهانی که می توانی یک چاپگر دی ان ای در هر خانه 262 00:12:30,792 --> 00:12:32,405 یا آزمایشگاه دبیرستان داشته باشی. 263 00:12:33,167 --> 00:12:34,851 محدودیت هایی وجود دارند، بله؟ 264 00:12:34,875 --> 00:12:37,588 ن.ب: احتمالا وجود دارند، در بخش اول، در امکان پذیر نبودن. 265 00:12:37,602 --> 00:12:39,726 اگر توقف اش را بخواهی، 266 00:12:39,750 --> 00:12:41,476 مشکل انجام شدنی بودن آن است. 267 00:12:41,500 --> 00:12:44,309 پس واقعا فایده ای ندارد اگر نوعی از یک کشور -- 268 00:12:44,333 --> 00:12:46,395 ک.ا: فایده ای ندارد اگر یک کشور انجامش دهد، 269 00:12:46,395 --> 00:12:49,309 ولی ما قبلا معاهده هایی داشته ایم. 270 00:12:49,333 --> 00:12:52,684 روشی که واقعا از خطر هسته ای عبور کرده ایم، 271 00:12:52,708 --> 00:12:53,976 با حرکت به سمتش بوده 272 00:12:54,000 --> 00:12:56,518 و عبور از مسیر دردناک مذاکرات. 273 00:12:56,542 --> 00:13:01,976 تعجب می کنم که آیا منطقی نیست اگر به عنوان اولویتی جهانی، 274 00:13:02,000 --> 00:13:03,684 بخواهیم تلاش کنیم، 275 00:13:03,708 --> 00:13:06,417 مثلا، همین حالا مذاکره برای قوانینی خیلی محکم را شروع کنیم 276 00:13:06,417 --> 00:13:09,101 که تحقیقات زیست شناسی مصنوعی تا کجا ادامه یابد، 277 00:13:09,125 --> 00:13:11,976 که این چیزی نیست که بخواهید به دست همه بدهید، نه؟ 278 00:13:12,000 --> 00:13:13,809 ن.ب: من کاملا موافقم که -- 279 00:13:13,833 --> 00:13:18,059 که این را می خواهیم، برای مثال، 280 00:13:18,083 --> 00:13:21,684 شاید داشتن دستگاه های ترکیب دی ان ای، 281 00:13:21,708 --> 00:13:25,268 وسیله ای نباشد که هر آزمایشگاه دستگاهش را داشته باشد، 282 00:13:25,292 --> 00:13:26,768 شاید خدمات آن داشته باشد. 283 00:13:26,792 --> 00:13:29,309 شاید مثلا چهار یا پنج محل در جهان باشند 284 00:13:29,333 --> 00:13:32,851 که شما الگوی دیجیتال خود را می فرستید و دی ان ای برایتان بر می گردد، درست؟ 285 00:13:32,875 --> 00:13:34,643 و حالا این توانایی را دارید، 286 00:13:34,667 --> 00:13:37,059 که اگر روزی واقعا به نظر لازم رسید، 287 00:13:37,083 --> 00:13:39,434 محل های مشخصی برای خفه کردن داریم. 288 00:13:39,458 --> 00:13:42,976 پس به نظرم به دنبال نوعی موقعیت خاص هستی، 289 00:13:43,000 --> 00:13:45,059 که بتوانی کنترلی محکمتر داشته باشی. 290 00:13:45,083 --> 00:13:46,726 ک.ا: به باور شما، اساسا، 291 00:13:46,750 --> 00:13:49,643 ما با عقب نگاه داشتن موفقیتی بدست نمی آوریم. 292 00:13:49,667 --> 00:13:52,393 کسی، جایی -- کره شمالی، می دانی -- 293 00:13:52,417 --> 00:13:55,934 کسی به آنجا می رسد و دانش را بدست می آورد، 294 00:13:55,958 --> 00:13:57,226 اگر آنجا باشد. 295 00:13:57,250 --> 00:13:59,601 ن.ب: در شرایط موجود قابل قبول است. 296 00:13:59,625 --> 00:14:01,559 تنها زیست شناسی مصنوعی هم نیست. 297 00:14:01,583 --> 00:14:04,101 به نظرم هر نوعی از تغییرات جدید و عمیق در جهان 298 00:14:04,101 --> 00:14:05,727 می تواند تبدیل به یک توپ سیاه شود. 299 00:14:05,727 --> 00:14:07,823 ک.ا: بیا تا به شکل دیگری از پاسخ نگاه کنیم. 300 00:14:07,823 --> 00:14:10,226 ن.ب: این هم، به نظرم، تنها توانایی محدودی دارد. 301 00:14:10,250 --> 00:14:13,809 برای آسیب پذیری نوع ۱، 302 00:14:13,833 --> 00:14:18,184 منظورم اینکه اگر بتوانی تعداد کسانی را کاهش دهی که انگیزه 303 00:14:18,208 --> 00:14:19,476 نابودی جهان را دارند، 304 00:14:19,500 --> 00:14:22,033 اگر تنها آنها به امکانات و روش ها دسترسی داشته باشند ، 305 00:14:22,033 --> 00:14:22,996 چیز خوبی است. 306 00:14:22,996 --> 00:14:25,245 ک.ا: در این تصویری که از ما می خواهی انجام دهیم 307 00:14:25,245 --> 00:14:27,498 به نظرت این پهپاد هایی که دور دنیا پرواز می کنند 308 00:14:27,498 --> 00:14:28,726 با توانایی تشخیص چهره. 309 00:14:28,750 --> 00:14:31,643 اگر کسی را پیدا کردند که رفتارهای جامعه ستیزانه دارد، 310 00:14:31,667 --> 00:14:33,851 باید با عشق نثارشان کرد، درمانشان کرد. 311 00:14:33,875 --> 00:14:35,892 ن.ب: فکر می کنم این مثل تصویری ترکیبی است. 312 00:14:35,892 --> 00:14:39,809 حذف یا معنی، حبس و کشتن می دهد، 313 00:14:39,833 --> 00:14:42,851 یا می تواند تشویق کردن به نگاه بهتری از جهان باشد. 314 00:14:42,875 --> 00:14:44,601 اما نکته اینجاست، 315 00:14:44,625 --> 00:14:46,768 فرض کنید که بی نهایت در این موفق باشید، 316 00:14:46,792 --> 00:14:50,101 و تعداد چنین افرادی را نصف کنید. 317 00:14:50,125 --> 00:14:52,232 و اگر بخواهید با تشویق این کار را انجام دهید، 318 00:14:52,232 --> 00:14:54,848 مجبور به رقابت با همه انواع نیروهای قدرتمند دیگر می شوید 319 00:14:54,848 --> 00:14:56,143 که مردم را تشویق، 320 00:14:56,167 --> 00:14:58,248 به صف بندی، دین، سیستم های آموزشی می کنند. 321 00:14:58,248 --> 00:14:59,863 اما فرض کنید بتوانید نصفش کنید، 322 00:14:59,887 --> 00:15:02,143 فکر نمی کنم که خطر آن به نصف کاهش یابد. 323 00:15:02,167 --> 00:15:03,726 شاید پنج یا ۱۰ درصد. 324 00:15:03,750 --> 00:15:08,101 ک.ا: توصیه نمی کنی که ما آینده بشریت را روی پاسخ دوم شرط بندی کنیم. 325 00:15:08,125 --> 00:15:11,417 ن.ب: به نظرم این کار خوبی است که برای تشویق و تغییر افراد تلاش کنیم، 326 00:15:11,417 --> 00:15:14,143 اما نباید آن را به عنوان تنها راه حفاظت بدانیم. 327 00:15:14,167 --> 00:15:15,434 ک.ا: سومی چطور؟ 328 00:15:15,458 --> 00:15:18,351 ن.ب: به نظر من دو روش عمومی وجود دارد 329 00:15:18,375 --> 00:15:22,351 که برای رسیدن به توانایی تثبیت جهان 330 00:15:22,375 --> 00:15:25,351 در برابر طیف کاملی از نقاط ضعف احتمالی قابل استفاده هستند. 331 00:15:25,375 --> 00:15:26,934 که احتمالا به هر دو نیازمندیم. 332 00:15:26,958 --> 00:15:31,476 یکی، توانایی است بی نهایت موثر 333 00:15:31,500 --> 00:15:33,268 در ایجاد نظم پیشگیرانه. 334 00:15:33,292 --> 00:15:34,816 به گونه ای که بتوانی رهگیری کنی. 335 00:15:34,840 --> 00:15:37,601 هرکسی را که خواست از این کارهای خطرناک انجام دهد، 336 00:15:37,625 --> 00:15:40,309 بتوانی در لحظه پیدایشان کنی، و جلویشان را بگیری. 337 00:15:40,333 --> 00:15:42,809 و این نیازمند نظارت فراگیر در همه جاست، 338 00:15:42,833 --> 00:15:45,208 همه باید همیشه تحت نظر باشند. 339 00:15:46,333 --> 00:15:48,893 ک.ا: این مثل فیلم «گزارش اقلیت» است، اساسا، به شکلی. 340 00:15:48,917 --> 00:15:51,105 ن.ب: شاید الگوریتم های هوش مصنوعی داشته باشی، 341 00:15:51,105 --> 00:15:55,292 مراکز بزرگ آزادی خواهی که این را بررسی می کنند، غیره و غیره. 342 00:15:56,583 --> 00:16:00,976 ک.ا: می دانی که نظارت انبوه عمومی این روزها موضوع خیلی محبوبی نیست؟ 343 00:16:01,000 --> 00:16:02,250 (خنده حضار) 344 00:16:03,458 --> 00:16:05,268 ن.ب: بله، این وسیله کوچک اینجا، 345 00:16:05,292 --> 00:16:08,893 فرض کن این نوع از گردنبند که باید همیشه ببندی 346 00:16:08,917 --> 00:16:10,917 با دوربین های تمام جهت. 347 00:16:11,792 --> 00:16:13,601 اما، برای اینکه بهتر جا بیفتد، 348 00:16:13,625 --> 00:16:16,149 اسمش را بگذار «پلاک آزادی» یا چیزی مشابه آن. 349 00:16:16,173 --> 00:16:18,184 (خنده حضار) 350 00:16:18,208 --> 00:16:19,476 ک.ا: قبول. 351 00:16:19,500 --> 00:16:21,601 دوستان، این همان صحبتی است که باید باشد، 352 00:16:21,625 --> 00:16:25,184 به این دلیل است که چرا این صحبت دیوانه کننده است. 353 00:16:25,208 --> 00:16:27,809 ن.ب: واقعا، بحث های زیادی است 354 00:16:27,833 --> 00:16:29,143 تنها در این مورد، مشخص است. 355 00:16:29,167 --> 00:16:31,643 مشکلات و مخاطراتی عظیم همراهش است، درسته؟ 356 00:16:31,667 --> 00:16:32,934 شاید به آن برگردیم. 357 00:16:32,958 --> 00:16:34,226 آن بعدی، آخری، 358 00:16:34,250 --> 00:16:36,809 توانایی ایجاد ثبات عمومی 359 00:16:36,833 --> 00:16:38,893 به نوعی اتصال یک شکاف مدیریتی دیگر است. 360 00:16:38,917 --> 00:16:43,101 پس این نظارت نوعی از مدیریت شکاف مدیریتی در سطح-خرد است. 361 00:16:43,125 --> 00:16:46,226 مثل، جلوگیری از از اینکه کسی هیچوقت خطای خیلی بزرگی نکند. 362 00:16:46,250 --> 00:16:48,559 سپس، یک شکاف مدیریتی مشابه هم هست 363 00:16:48,583 --> 00:16:50,518 در سطح-کلان، سطحی جهانی. 364 00:16:50,542 --> 00:16:54,476 تو به توانایی و مطمئن بودن نیاز داری، 365 00:16:54,500 --> 00:16:57,309 تا مانع از بدترین نوع عدم هماهنگی جهانی شوی، 366 00:16:57,333 --> 00:17:01,101 مانع از جنگ میان قدرت های بزرگ، 367 00:17:01,125 --> 00:17:02,458 مسابقات تسلیحاتی، 368 00:17:03,500 --> 00:17:05,708 مشکلات فاجعه آمیز مشترک، 369 00:17:07,667 --> 00:17:11,851 تا بتوانی با آسیب پذیری های نوع ۲-الف مواجه شوی. 370 00:17:11,875 --> 00:17:13,809 ک.ا: مدیریت جهان عبارتی است 371 00:17:13,833 --> 00:17:16,059 که امروزه خیلی از مد افتاده، 372 00:17:16,083 --> 00:17:18,601 اما آیا می توانی اینطور نتیجه بگیری که در طول تاریخ، 373 00:17:18,625 --> 00:17:19,893 تارخ بشریت، 374 00:17:19,917 --> 00:17:25,351 در هر مرحله از افزایش قدرت فناوری، 375 00:17:25,375 --> 00:17:28,601 انسان با سازماندهی دوباره، قدرت را مرکزی کرده. 376 00:17:28,625 --> 00:17:32,059 برای مثال، وقتی که یک گروه جانی 377 00:17:32,083 --> 00:17:33,942 می توانند جامعه ای را در اختیار بگیرند، 378 00:17:33,942 --> 00:17:36,031 پاسخ این بود که شما یک کشور-ملت هستید 379 00:17:36,055 --> 00:17:38,489 و تو نیرو را مرکزی مردی، مثل نیروی پلیس یا ارتش، 380 00:17:38,513 --> 00:17:40,143 پس، «نه نمی شود این کار را کرد.» 381 00:17:40,167 --> 00:17:44,726 شاید، منطقِ داشتن یک شخص یا گروه 382 00:17:44,750 --> 00:17:46,393 که بتواند بشریت را رها کند 383 00:17:46,417 --> 00:17:49,143 به معنی این است که زمانی باید وارد این مسیر شویم، 384 00:17:49,167 --> 00:17:50,601 حداقل به شکلی، نه؟ 385 00:17:50,625 --> 00:17:54,309 ن.ب: مسلما درست است که اندازه سازمان های سیاسی افزایش یافته 386 00:17:54,333 --> 00:17:56,476 که در طول تاریخ بشر. 387 00:17:56,500 --> 00:17:58,518 معمولا شکارچی-گردآور بوده است، درست، 388 00:17:58,542 --> 00:18:01,476 و بعد رئیس قبیله، دولت-شهر، ملت، 389 00:18:01,500 --> 00:18:05,476 و حالا سازمان های بین المللی و به همین شکل و صورت. 390 00:18:05,500 --> 00:18:07,018 حالا، می خواستم تا مطمئن شوم 391 00:18:07,042 --> 00:18:08,918 که این موقعیت را داشته ام که تاکید کنم 392 00:18:08,918 --> 00:18:10,684 مشخصا ضررهایی عظیم 393 00:18:10,708 --> 00:18:12,380 و حقیقتا، خطراتی سنگین وجود دارند، 394 00:18:12,380 --> 00:18:15,601 هم در نظارت سنگین عمومی و هم در مدیریت جهانی. 395 00:18:15,625 --> 00:18:18,184 اشاره من تنها این است که ما خوش شانسیم، 396 00:18:18,208 --> 00:18:20,893 جهان می توانست چنان باشد که اینها تنها راه های 397 00:18:20,917 --> 00:18:22,434 بقا بعد از یک توپ سیاه باشند. 398 00:18:22,458 --> 00:18:24,976 ک.ا: منطق این نظریه، 399 00:18:25,000 --> 00:18:26,268 به نظر من، 400 00:18:26,292 --> 00:18:29,893 این است که باید تشخیص دهیم که نمی شود همه چیز را با هم داشت. 401 00:18:29,917 --> 00:18:31,750 که نوعی از، 402 00:18:33,500 --> 00:18:36,476 رویای ساده لوحانه که خیلی از ما داشته ایم 403 00:18:36,500 --> 00:18:39,851 که فناوری همیشه یک نیروی خوبی خواهد بود، 404 00:18:39,875 --> 00:18:42,851 ادامه بده، توقف نکن، تا می توانی تند برو 405 00:18:42,875 --> 00:18:45,226 و به بعضی از نتایج توجه نکن، 406 00:18:45,250 --> 00:18:46,934 واقعا دیگر امکان پذیر نیست. 407 00:18:46,958 --> 00:18:48,893 می توانیم آن را داشته باشیم. 408 00:18:48,917 --> 00:18:50,184 و اگر داشته باشیم، 409 00:18:50,208 --> 00:18:51,643 باید قبول کنیم 410 00:18:51,667 --> 00:18:54,226 بعضی از چیزهای ناراحت کننده ای را که همراه آن است، 411 00:18:54,250 --> 00:18:56,630 که نوعی از بودن در آن مسابقه تسلیحاتی با خودت است 412 00:18:56,630 --> 00:18:58,768 که اگر قدرت می خواهی، بهتر است محدودش کنی، 413 00:18:58,792 --> 00:19:00,934 بهتر است بفهمی چطور محدودش کنی. 414 00:19:00,958 --> 00:19:04,434 ن.ب: به نظرم این یک انتخاب است، 415 00:19:04,458 --> 00:19:07,390 یک انتخاب خیلی وسوسه کننده، از این نظر که انتخابی ساده تر است 416 00:19:07,390 --> 00:19:08,622 که ممکن است جواب هم بدهد، 417 00:19:08,622 --> 00:19:13,351 اما معنی اش این است که ما ذاتا در بیرون آوردن توپ سیاه آسیب پذیریم. 418 00:19:13,375 --> 00:19:15,518 حالا، فکر کنم با کمی هماهنگی، 419 00:19:15,542 --> 00:19:18,268 مثلا، اگر بتوانی مشکل این مدیریت کلان را حل کنی، 420 00:19:18,292 --> 00:19:19,893 و مدیریت خرد را حل کنی، 421 00:19:19,917 --> 00:19:22,226 می توانی توپ را از گلدان بیرون آوری 422 00:19:22,250 --> 00:19:24,518 و کلی مزیت بدست آورده ایم. 423 00:19:24,542 --> 00:19:27,976 ک.ا: اگر ما در یک شبیه سازی زندگی می کنیم، این اهمیتی دارد؟ 424 00:19:28,000 --> 00:19:29,473 برنامه را دوباره اجرا می کنیم. 425 00:19:29,473 --> 00:19:30,601 ( خنده حضار) 426 00:19:30,625 --> 00:19:32,268 ن.ب.: پس ... من ... 427 00:19:32,292 --> 00:19:34,768 (خنده حضار) 428 00:19:34,792 --> 00:19:36,208 حواسم به این یکی نبود. 429 00:19:38,125 --> 00:19:39,393 ک.ا: شما چه نگاهی دارید؟ 430 00:19:39,417 --> 00:19:44,226 با کنار هم گذاشتن همه این اجزاء، احتمال محکوم به شکست بودنمان چقدر است؟ 431 00:19:44,250 --> 00:19:46,208 (خنده حضار) 432 00:19:47,042 --> 00:19:49,434 عاشق خنده مردم هستم وقتی این سوال را می پرسی. 433 00:19:49,458 --> 00:19:50,809 ن.ب: در سطح فردی، 434 00:19:50,833 --> 00:19:54,684 به نظر می رسد که به هر شکل محکوم هستیم، تنها از دید زمانی، 435 00:19:54,708 --> 00:19:57,309 ما می پوسیم و پیر می شویم و هه این چیزها، درست؟ 436 00:19:57,333 --> 00:19:58,934 (خنده حضار) 437 00:19:58,958 --> 00:20:00,473 واقعا کمی پیچیده است. 438 00:20:00,473 --> 00:20:03,434 اگر بخواهی به شکلی تنظیمش کنی که، بتوانی احتمالی هم به آن بدهی، 439 00:20:03,458 --> 00:20:04,726 اول، ما که هستیم؟ 440 00:20:04,750 --> 00:20:07,476 اگر خیلی پیر هستید، احتمالا به دلایل طبیعی خواهید مرد، 441 00:20:07,500 --> 00:20:09,851 اگر جوان هستید، احتمالا به ۱۰۰ سالگی برسید -- 442 00:20:09,875 --> 00:20:12,018 احتمال آن بستگی دارد از که بپرسید. 443 00:20:12,042 --> 00:20:16,268 بعد آن آستانه، یعنی، چه چیزی را نابودی تمدن می دانیم؟ 444 00:20:16,292 --> 00:20:21,934 در این مقاله، من نیازی به یک فاجعه نابود کننده هستی 445 00:20:21,958 --> 00:20:23,393 برای به حساب آوردن نداشته ام. 446 00:20:23,417 --> 00:20:25,101 این تنها یک تعریف است. 447 00:20:25,125 --> 00:20:26,434 فرض کنید یک میلیارد کشته، 448 00:20:26,458 --> 00:20:28,518 یا کاهش ۵۰ درصدی تولید ناخالص ملی جهان، 449 00:20:28,542 --> 00:20:30,768 اما با توجه به آستانه ای که شما تعریف می کنید، 450 00:20:30,792 --> 00:20:32,768 تخمین متفاوتی از احتمال بدست می آورید. 451 00:20:32,792 --> 00:20:37,309 اما فکر کنم شما بهتر است من را به عنوان یک خوشبین ترسو کنار بگذارید. 452 00:20:37,333 --> 00:20:38,434 (خنده حضار) 453 00:20:38,458 --> 00:20:40,101 ک.ا: تو یک خوشبین ترسو هستی، 454 00:20:40,125 --> 00:20:44,393 که فکر کنم همین حالا کلی ترسوی دیگر بوجود آوردی .... 455 00:20:44,417 --> 00:20:45,684 آدمهای. 456 00:20:45,708 --> 00:20:46,768 (خنده حضار) 457 00:20:46,792 --> 00:20:48,059 ن.ب.: در شبیه سازی. 458 00:20:48,083 --> 00:20:49,351 ک.ا: در شبیه سازی. 459 00:20:49,375 --> 00:20:51,313 نیک بوستروم، ذهن تو مرا شگفت زده می کند، 460 00:20:51,313 --> 00:20:54,090 خیلی متشکرم از اینکه حالا ما را از روز روشن هم ترسانده ای. 461 00:20:54,090 --> 00:20:56,375 (تشویق حضار)