Return to Video

چگونه یک تمدن می تواند خود را نابود کند -- و چهار راه برای جلوگیری از آن

  • 0:01 - 0:03
    کریس اندرسن: نیک بوستروم.
  • 0:03 - 0:07
    خوب، تو تا الان نظرات عجیب
    و غریب زیادی داشته ای.
  • 0:07 - 0:09
    فکر کنم چند دهه قبل است،
  • 0:09 - 0:12
    پیشنهاد دادی که ممکن است همه ما
    در یک شبیه سازی زندگی کنیم،
  • 0:12 - 0:13
    یا شاید می کردیم.
  • 0:13 - 0:15
    این اواخر،
  • 0:15 - 0:19
    مثال های کاملا زنده ای ترسیم کردی
    از اینکه چطور هوش مصنوعی عمومی
  • 0:19 - 0:21
    می تواند به شکل وحشتناکی اشتباه باشد.
  • 0:22 - 0:23
    و حالا امسال،
  • 0:23 - 0:25
    در حال نشرِ
  • 0:25 - 0:29
    مقاله ای هستی که
    فرضیات دنیایِ آسیب پذیر نام دارد.
  • 0:29 - 0:34
    و کار امروز عصر ما تهیه
    یک بروشور راهنما برای آن است.
  • 0:34 - 0:36
    پس بیا تا انجامش دهیم.
  • 0:37 - 0:39
    این فرضیات چه هستند؟
  • 0:40 - 0:42
    نیک بوستروم: سعی می کند تا درباره
  • 0:42 - 0:46
    نوعی از ویژگی های ساختاری
    وضعیت موجود انسان بیاندیشد.
  • 0:47 - 0:49
    تو از استعاره گلدان خوشت می آید،
  • 0:50 - 0:51
    پس از آن برای مثال استفاده می کنم.
  • 0:51 - 0:56
    یک گلدان بزرگ پر از توپ را تصور کن
  • 0:56 - 1:00
    که نمایشگر نظرات، راهکارها
    و فناوری های ممکن است.
  • 1:01 - 1:05
    می توانی تاریخ خلاقیت انسان را
  • 1:05 - 1:08
    به شکل بردن دست در گلدان و بیرون
    آوردن توپ یکی پس از دیگری تصور کنی،
  • 1:08 - 1:12
    و تاثیر کلی آن تا حالا
    بسیار مفید بوده، درست؟
  • 1:12 - 1:14
    تا حالا توپ های
    سفید خیلی خوبی را درآورده ایم،
  • 1:14 - 1:17
    انواع توپ های خاکستری،
    که چیزهای درهم خوب و بدی هستند.
  • 1:18 - 1:21
    و تا حالا هیچ توپ سیاهی بیرون نیامده --
  • 1:22 - 1:28
    فناوری که به شکل دائمی، تمدنی
    که پیدایش کند را نابود می کند.
  • 1:28 - 1:31
    این مقاله سعی دارد تا بررسی کند
    که چه چیزی ممکن است یک توپ سیاه باشد.
  • 1:31 - 1:33
    ک.ا: پس تعریف شما از این توپ
  • 1:33 - 1:37
    چیزی است که همراهش نابودی حتمی تمدن است.
  • 1:37 - 1:42
    ن.ب.: مگر آنکه از شرایطی که من اسمش
    را نیمه-آشفته گذاشته ام خارج شویم.
  • 1:42 - 1:43
    اما به شکلی، حتمی است.
  • 1:44 - 1:48
    ک.ا.: پس شما برای این که
    این نظریه قابل را قبول کنید
  • 1:48 - 1:50
    انواع مثال های مخالف را می آورید
  • 1:50 - 1:53
    تا نشان دهید تا حالا شانس آورده ایم،
  • 1:53 - 1:56
    و ممکن بود که توپ مرگ
    را بیرون می کشیدیم
  • 1:56 - 1:57
    بدون آنکه خودمان حتی بفهمیم.
  • 1:57 - 2:00
    گفته ای نقل شده، چه چیزی گفته شده؟
  • 2:01 - 2:03
    ن.ب.: خوب، معنی اش نشان دادن
  • 2:03 - 2:05
    سختی پیش بینی
  • 2:05 - 2:08
    این است که اکتشافات بنیادی
    ما را به کجا خواهند برد.
  • 2:08 - 2:11
    ما هنوز این توانایی را نداریم.
  • 2:11 - 2:15
    چون در توپ بیرون آوردن ماهر شده ایم،
  • 2:15 - 2:18
    اما واقعا توانایی برگرداندن توپ
    به گلدان را نداریم، غیر از این است؟
  • 2:18 - 2:21
    می توانیم اختراع کنیم،
    اما نمی توانیم حذف-اختراع کنیم.
  • 2:22 - 2:24
    پس راهبرد ما، هم این که داریم،
  • 2:24 - 2:27
    امیدواری به این است
    که توپ سیاهی در گلدان نباشد.
  • 2:27 - 2:31
    ک.ا.: پس وقتی بیرون آمد، بیرون آمده،
    و نمی شود برش گرداند،
  • 2:31 - 2:33
    و فکر می کنی که ما شانس آورده ایم.
  • 2:33 - 2:35
    برایمان از اینها چند مثال بیاور.
  • 2:35 - 2:38
    از انواع مختلف آسیب پذیری صحبت کرده ای.
  • 2:38 - 2:40
    ن.ب : ساده ترین نوع آن برای فهمیدن
  • 2:40 - 2:43
    فناوری است که به سادگی امکان می دهد
  • 2:43 - 2:46
    تا مقادیر عظیمی از تخریب ایجاد شود.
  • 2:47 - 2:51
    زیست شناسی مصنوعی ممکن است
    نمونه ای حاصلخیز از این توپ سیاه باشد،
  • 2:51 - 2:54
    اما خیلی چیزهای ممکن دیگر
    هم می توانیم انجام دهیم --
  • 2:54 - 2:56
    به مهندسی زمین شناسی
    توجه کنید که بسیار عالی است، نه؟
  • 2:56 - 2:58
    می توانیم با گرمایش جهانی مبارزه کنیم،
  • 2:58 - 3:01
    اما نمی خواهی که خیلی هم ساده باشد،
  • 3:01 - 3:03
    نباید که هر آدمی و مامان بزرگش مثلا
  • 3:03 - 3:06
    این قدرت را داشته باشند که آب و هوای زمین
    را به شدت تغییر دهند.
  • 3:06 - 3:10
    یا شاید هم پهپادهای خودکار مرگبار،
  • 3:10 - 3:13
    تولید انبوه شوند، ربات هایی به اندازه پشه
    هجوم ربات های کشنده.
  • 3:14 - 3:17
    فناوری نانو، هوش مصنوعی عمومی.
  • 3:17 - 3:19
    ک.ا : در این مقاله عنوان کرده ای
  • 3:19 - 3:21
    که این تنها از روی شانس است
    که وقتی ما کشف کردیم
  • 3:22 - 3:25
    که فناوری هسته ای می تواند بمب تولید کند،
  • 3:25 - 3:26
    می توانست اینطور باشد
  • 3:26 - 3:28
    که بمبی اختراع شود
  • 3:28 - 3:32
    که منابع آن خیلی ساده تر باشد،
    در دسترس همه.
  • 3:32 - 3:35
    ن.ب: درسته، فکر کنید
    به سال های ۱۹۳۰ برگردیم
  • 3:35 - 3:40
    موقعی که توانستیم برای اولین بار
    در فیزیک هسته ای پیشرفت هایی حاصل کنیم،
  • 3:40 - 3:44
    عده ای از نوابغ فهمیدند که می شود یک
    واکنش زنجیره ای هسته ای هم ایجاد کرد
  • 3:44 - 3:47
    و بعد متوجه شدند
    که این می تواند تبدیل به بمب شود.
  • 3:47 - 3:49
    و بعد ما کمی کار بیشتر کردیم،
  • 3:49 - 3:52
    و مشخص شد که چیزی
    که برای ساختن بمب نیاز داری
  • 3:52 - 3:54
    اورانیوم بسیار غنی شده یا پلوتونیم است،
  • 3:54 - 3:56
    که تهیه این مواد بسیار سخت و مشکل است.
  • 3:56 - 3:58
    به سانتریفیوژ های با سرعت
    خیلی بالا نیاز داری،
  • 3:58 - 4:02
    نیاز به راکتور دارید، مقادیر عظیم انرژی.
  • 4:02 - 4:04
    اما حالا فرض کنید به جایش
  • 4:04 - 4:08
    راه ساده ای وجود داشت
    تا انرژی اتم را آزاد کنی.
  • 4:08 - 4:11
    مثا اگر با پختن شن توی دستگاه مایکروویو
  • 4:11 - 4:12
    یا چیزی شبیه به آن
  • 4:12 - 4:14
    می توانستی انفجار هسته ای ایجاد کنی.
  • 4:14 - 4:16
    این را می دانیم که
    از لحاظ فیزیکی ممکن نیست.
  • 4:16 - 4:18
    اما قبل از انجام محاسبات فیزیکی لازم
  • 4:18 - 4:20
    از کجا می دانستی که نتیجه اش چه می شود؟
  • 4:21 - 4:22
    ک.ا: اگرچه، نمی شود بحث کرد
  • 4:22 - 4:24
    که تکامل حیات روی زمین
  • 4:24 - 4:27
    به طور ضمنی به معنی محیطی ثابت است،
  • 4:27 - 4:32
    و اگر ایجاد واکنش های
    بزرگ هسته ای نسبتا ساده بود،
  • 4:32 - 4:33
    زمین هیچ وقت ثابت نمی بود،
  • 4:33 - 4:35
    و ما اصلا اینجا نبودیم.
  • 4:35 - 4:38
    ن.ب: درسته، مگر آنکه چیزی باشد
    که انجام عمدی اش ساده باشد
  • 4:38 - 4:41
    اما به شکل اتفاقی انجام نشده باشد.
  • 4:41 - 4:43
    مثل کارهایی که به سادگی انجام می دهیم،
  • 4:43 - 4:45
    ما می توانیم ده قطعه چیزی
    را روی هم بگذاریم،
  • 4:45 - 4:48
    اما در طبیعت نمی توانی
    دسته ای از ۱۰ قطعه روی هم پیدا کنی.
  • 4:48 - 4:50
    ک.ا: بسیار خوب، پس این احتمالا همانی است
  • 4:50 - 4:52
    که خیلی از ما بیشتر نگرانش هستیم،
  • 4:52 - 4:55
    و بله، زیست شناسی مصنوعی
    احتمالا سریعترین مسیری است
  • 4:55 - 4:58
    که پیش بینی می کنیم
    که در آینده نزدیک ما را به اینجا بیاورد.
  • 4:58 - 5:01
    ن.ب: درسته، و توجه کن معنی اش چه بود
  • 5:01 - 5:05
    اگر، مثلا، هر کسی در آشپزخانه اش
    بعد از ظهر کاری می کرد که
  • 5:05 - 5:07
    می توانست شهری را نابود کند.
  • 5:07 - 5:10
    قابل تصور نیست که چطور تمدن های
    امروزی که ما می شناسیم
  • 5:10 - 5:12
    می توانستند باقی بمانند.
  • 5:12 - 5:14
    چون در هر جمعیتی از یک میلیون نفر،
  • 5:14 - 5:17
    همیشه کسی وجود دارد، که به هر دلیلی،
  • 5:17 - 5:19
    بخواهد که از نیروی تخریب استفاده کند.
  • 5:20 - 5:23
    پس اگر آن بازمانده از آخر دنیا
  • 5:23 - 5:25
    بخواهد که شهری
    را نابود کند، یا بدتر از آن،
  • 5:25 - 5:26
    پس آن شهرها نابود می شوند.
  • 5:26 - 5:29
    ک.ا: پس این نوع دیگری از آسیب پذیری است.
  • 5:29 - 5:31
    برایمان توضیح بده.
  • 5:31 - 5:35
    ن.ب: بله، علاوه بر این نمونه های
    کاملا واضح از توپ های سیاه
  • 5:35 - 5:37
    که می توانند چیزهای زیادی را منفجر کنند،
  • 5:37 - 5:42
    انواع دیگر از راه ایجاد
    مشوق های بد عمل می کنند
  • 5:42 - 5:44
    تا انسانها کارهای مضری انجام دهند.
  • 5:44 - 5:48
    اگر اسمش را نوع ۲-الف بگذاریم،
  • 5:48 - 5:53
    درباره فناوری است که مشوق هایی
    برای قدرت های بزرگ ایجاد می کند
  • 5:53 - 5:57
    که از نیروی عظیم شان
    برای تخریب استفاده کنند.
  • 5:57 - 6:00
    سلاح های هسته ای
    خیلی به این نزدیک هستند، نه؟
  • 6:02 - 6:05
    کاری که ما کردیم، کمی
    بیش از ۱۰ تریلیون دلار هزینه کردیم
  • 6:05 - 6:08
    تا حدود ۷۰،۰۰۰ کلاهک هسته ای بسازیم
  • 6:08 - 6:10
    و آنها را آماده شلیک قرار دهیم.
  • 6:10 - 6:12
    و چند باری هم در طول جنگ سرد
  • 6:12 - 6:14
    تقریبا همدیگر را از بین بردیم.
  • 6:14 - 6:17
    دلیلش این نبود که خیلی از افراد
    فکر می کردند که این کار خیلی خوبی است،
  • 6:17 - 6:20
    بیایید ۱۰ تریلیون دلار خرج کنیم
    تا خودمان را منفجر کنیم،
  • 6:20 - 6:23
    اما مشوق ها به گونه ای بود
    که خودمان را --
  • 6:23 - 6:24
    می توانست خیلی بدتر باشد.
  • 6:24 - 6:26
    فرض کنید که یک تهاجم
    اولیه بدون مشکل انجام می شد.
  • 6:26 - 6:29
    بعد ممکن بود وضعیت
    خیلی پیچیده ای پیش بیاید،
  • 6:29 - 6:30
    در شرایط بحران،
  • 6:30 - 6:33
    تا مانع از پرتاب تمام
    موشک های هسته ای بشویم.
  • 6:33 - 6:36
    اگر مانعی نباشد، چون می ترسی
    که طرف دیگر این کار را انجام دهد.
  • 6:36 - 6:38
    ک.ا: درست، تضمین تخریب متقابل
  • 6:38 - 6:41
    باعث شد تا دوران جنگ سرد نسبتا ثابت باشد،
  • 6:41 - 6:43
    بدون آن، شاید حالا الان اینجا نبودیم.
  • 6:43 - 6:45
    ن.ب: می توانست خیلی نامتعادل تر
    از آنچه بود باشد.
  • 6:45 - 6:47
    و می توانست مشخصات دیگر فناوری هم باشد.
  • 6:47 - 6:50
    بستن پیمان های تسلیحاتی
    می توانست سخت تر باشد،
  • 6:50 - 6:51
    اگر بجای تسلیحات اتمی
  • 6:51 - 6:54
    چیزهایی کوچکتر یا نامشخص تر بود.
  • 6:54 - 6:57
    ک.ا: و مانند مشوق های بد
    برای بازیگران قدرت،
  • 6:57 - 7:00
    می توانی نگران مشوق های بد
    برای همه ما باشی، اینجا در نوع ۲-ب.
  • 7:00 - 7:05
    ن.ب.: درسته، اینجا می شود
    مسئله گرمایش جهانی را در نظر گرفت.
  • 7:07 - 7:09
    راحت طلبی های کوچک زیادی هستند
  • 7:09 - 7:11
    که باعث می شوند ما کارهایی انجام دهیم
  • 7:11 - 7:14
    که جداگانه هر کدام
    اثر خیلی زیادی ندارند، درست؟
  • 7:14 - 7:16
    اما اگر میلیاردها نفر انجامش دهند،
  • 7:16 - 7:18
    اثر تجمیعی آن، مخرب است.
  • 7:18 - 7:21
    امروزه، گرمایش جهانی می توانست
    خیلی از این بدتر باشد.
  • 7:21 - 7:24
    ما مولفه حساسیت آب و هوا را داریم.
  • 7:24 - 7:28
    این مولفه ای است که می گوید
    چقدر گرمتر می شود
  • 7:28 - 7:30
    اگر مقدار معینی گاز گلخانه ای منتشر کنی.
  • 7:30 - 7:33
    اما، فرض کن به شکل دیگری بود
  • 7:33 - 7:35
    اگر با همان میزان گاز گلخانه ای
    که منتشر می کردیم،
  • 7:35 - 7:37
    بجای افزایش دمای، مثلا،
  • 7:37 - 7:41
    بین ۳ تا ۴/۵ درجه تا سال ۲۱۰۰،
  • 7:41 - 7:44
    فرض کنید بین ۱۵ تا ۲۰ درجه می شد.
  • 7:44 - 7:47
    اینطور، ممکن بود وضعیت
    خیلی بدی داشته باشیم.
  • 7:47 - 7:50
    یا فرض کنید که استفاده از انرژی های
    تجدید پذیر خیلی مشکل تر بود.
  • 7:50 - 7:53
    یا اینکه سوخت های
    فسیلی بیشتری در زمین بود.
  • 7:53 - 7:55
    ک.ا: آیا می شد دلیل آورد که در آن حالت --
  • 7:55 - 7:57
    اگر کاری که امروز می کنیم
  • 7:57 - 8:02
    موجب ۱۰ درجه تفاوت در مدت زمانی
    که می توانستیم ببینیم می شد،
  • 8:02 - 8:05
    واقعا بشریت تکانی به خودش
    می داد و کاری می کرد.
  • 8:06 - 8:08
    احمق هستیم. اما شاید نه آنقدر احمق.
  • 8:08 - 8:10
    شاید هم هستیم.
  • 8:10 - 8:11
    ن.ب: من اطمینان نمی کردم.
  • 8:11 - 8:13
    (خنده حضار)
  • 8:13 - 8:15
    می توانی ویژگی های دیگر را هم تصور کنی.
  • 8:15 - 8:20
    همین حالا، تغییر به انرژی های
    تجدید پذیر کمی مشکل است، درست،
  • 8:20 - 8:22
    اما شدنی است.
  • 8:22 - 8:25
    اما اگر خواص فیزیکی کمی متفاوت بود،
  • 8:25 - 8:27
    ممکن بود این کارها
    خیلی پر هزینه تر باشند.
  • 8:28 - 8:30
    ک.ا: و تو چه نظری داری، نیک؟
  • 8:30 - 8:32
    فکر می کنی با روی هم گذاشتن این احتمالات،
  • 8:32 - 8:37
    که با این زمین، بشریتی که ما هستیم
  • 8:37 - 8:38
    ما دنیایی آسیب پذیر هستیم؟
  • 8:38 - 8:41
    که یک توپ مرگ در آینده ما وجود دارد؟
  • 8:44 - 8:45
    ن.ب: پاسخ به آن سخت است.
  • 8:45 - 8:50
    منظورم اینکه فکر می کنم احتمال زیادی دارد
    که توپ های سیاه مختلفی در گلدان باشند،
  • 8:50 - 8:52
    اینطور به نظر می رسد.
  • 8:52 - 8:54
    اما ممکن است توپ های طلایی هم باشند
  • 8:54 - 8:58
    که به ما در برابر توپ های سیاه کمک کنند.
  • 8:58 - 9:01
    و نمی دانم که ترتیب
    بیرون آمدنشان به چه صورت است.
  • 9:01 - 9:04
    ک.ا: منظورم، یک انتقاد
    محتمل فلسفی به این تفکر
  • 9:04 - 9:10
    این است که به طور ضمنی این دید را
    دارد که آینده اساسا تثبیت شده است.
  • 9:10 - 9:13
    که یا این توپ آنجاست یا نیست.
  • 9:13 - 9:16
    و به شکلی،
  • 9:16 - 9:18
    این نگاهی به آینده نیست
    که بخواهم باور کنم.
  • 9:18 - 9:21
    می خواهم باور کنم که آینده قطعی نیست،
  • 9:21 - 9:23
    که تصمیمات امروز ما معین می کنند
  • 9:23 - 9:25
    که چه توپی را از گلدان بیرون می آوریم.
  • 9:26 - 9:30
    ن.ب: منظورم این است،
    که اگر همینطور نوآوری را ادامه دهیم،
  • 9:30 - 9:32
    نهایتا همه توپ ها را بیرون خواهیم آورد.
  • 9:33 - 9:36
    یعنی، فکر می کنم وجود مقدار کمی
    جبرگرایی فناوری
  • 9:36 - 9:38
    کاملا ممکن است.
  • 9:38 - 9:40
    شبیه به اینکه، احتمال
    کمی دارد که جامعه ای پیدا کنی
  • 9:40 - 9:43
    که از سنگ چخماق
    و هواپیمای جت با هم استفاده کند.
  • 9:44 - 9:48
    اما اغلب می شود یک فناوری را به عنوان
    مجموعه ای از ویژگی ها در نظر گرفت
  • 9:48 - 9:51
    پس فناوری چیزی است که به ما
    امکان انجام کارهای مختلف
  • 9:51 - 9:53
    و دسترسی به نتایج گوناگون را می دهد.
  • 9:53 - 9:56
    اینکه چطور از آن استفاده کنیم،
    مسلما به انتخاب انسان بستگی دارد.
  • 9:56 - 9:59
    اما اگر به این سه نوع
    آسیب پذیری فکر کنیم،
  • 9:59 - 10:02
    آنها فرضیات کاملا ضعیفی از انتخاب ما
    در چگونه استفاده کردنشان اند.
  • 10:02 - 10:06
    پس یک آسیب پذیری نوع ۱، مجددا،
    این نیروی عظیم مخرب،
  • 10:06 - 10:07
    این فرض ضعیفی است
  • 10:07 - 10:10
    که در میان میلیون ها انسان
  • 10:10 - 10:13
    بعضی ها هستند که بخواهند
    از آن برای تخریب استفاده کنند.
  • 10:13 - 10:15
    ک.ا: برای من، تنها موضوع ناراحت کننده
  • 10:15 - 10:20
    این است که واقعا ممکن است
    ما نگاهی به داخل گلدان بیاندازیم
  • 10:20 - 10:23
    که موجب شود واقعا
    محکوم به بدبختی شویم.
  • 10:23 - 10:28
    مثلا، اگر به قدرت مضاعف اعتقاد داشته باشی،
  • 10:28 - 10:30
    که شتاب فناوری ذاتی است،
  • 10:30 - 10:33
    که ما ابزارهایی می سازیم
    که ما را قوی تر می کنند،
  • 10:33 - 10:35
    پس زمانی به صحنه می آیی
  • 10:35 - 10:38
    که یک نفر به تنهایی
    می تواند حریف همه ما شود،
  • 10:38 - 10:41
    و بعد انگار که ما شکست خورده ایم.
  • 10:41 - 10:44
    این موضوعی خیلی نگران کننده نیست؟
  • 10:44 - 10:46
    ن.ب: آه، بله.
  • 10:47 - 10:48
    (خنده حضار)
  • 10:48 - 10:49
    به نظرم --
  • 10:51 - 10:53
    بله، ما بیشتر و بیشتر قدرت پیدا می کنیم،
  • 10:53 - 10:56
    و استفاده از آن ساده و ساده تر می شود،
  • 10:56 - 11:00
    ولی ما می توانیم فناوری هایی
    هم بسازیم که به ما در کنترل آن
  • 11:00 - 11:02
    که چطور مردم از این قدرت ها
    استفاده کنند کمک کند.
  • 11:02 - 11:05
    ک.ا: بگذار در موردش صحبت کنیم،
    در مورد پاسخ به آن صحبت کنیم.
  • 11:05 - 11:07
    فرض کن در نظر گرفتن همه حالت های ممکن
  • 11:07 - 11:09
    که حالا آنجا است --
  • 11:09 - 11:13
    تنها زیست شناسی مصنوعی نیست،
    چیزهایی مثل نبرد سایبری،
  • 11:13 - 11:17
    هوش مصنوعی، غیره و غیره. --
  • 11:17 - 11:21
    آن چیزها احتمالا
    آینده ما را محکوم می کنند.
  • 11:21 - 11:23
    پاسخ های ممکن چه هستند؟
  • 11:23 - 11:28
    تو درباره چهار پاسخ ممکن صحبت کرده ای.
  • 11:28 - 11:31
    ن.ب: محدود کردن توسعه فناوری
    به نظر امیدوار کننده نمی رسد،
  • 11:31 - 11:35
    اگر منظورمان یک توقف عمومی
    در پیشرفت فناوری است.
  • 11:35 - 11:36
    فکر نمی کنم هیچ کدام شدنی باشند،
  • 11:36 - 11:39
    هیچ کدام خواسته ما نیستند
    حتی اگر بتوانیم انجامشان دهیم.
  • 11:39 - 11:41
    به نظرم ممکن است در موضوعات محدودی
  • 11:41 - 11:44
    بخواهی که توسعه فناوری کندتر باشد.
  • 11:44 - 11:47
    فکر نکنم، توسعه سریعتر
    تسلیحات زیستی را بخواهی،
  • 11:47 - 11:49
    یا فرضا، جداسازی ایزوتوپ ها،
  • 11:49 - 11:52
    که تولید تسلیحات هسته ای
    را ساده تر می کند.
  • 11:53 - 11:56
    ک.ا: به نظرم، معمولا
    کاملا با آن همراه بودم.
  • 11:56 - 11:59
    اما حالا واقعا می خواهم
    دقیقه ای آن را کنار بگذارم.
  • 11:59 - 12:01
    تنها به دلیل، اول از همه،
  • 12:01 - 12:03
    اگر به تاریخ چند دهه اخیر نگاه کنی،
  • 12:03 - 12:07
    می بینی، که همیشه تخت گاز
    فشار به جلو با حداکثر سرعت بوده،
  • 12:07 - 12:09
    اشکالی ندارد، این تنها انتخاب ماست.
  • 12:09 - 12:13
    اما اگر به جهانی شدن
    و شتاب سریع آن فکر کنی،
  • 12:13 - 12:16
    اگر به راهبرد «تجربه
    مادر علم است» توجه کنی
  • 12:16 - 12:19
    و نتایجش را بررسی کنی،
  • 12:19 - 12:21
    و بعد به توانایی ذاتی
    زیست شناسی مصنوعی توجه کنی،
  • 12:21 - 12:26
    مطمئن نیستم که باید سریع حرکت کنیم
  • 12:26 - 12:27
    یا بدون هر گونه محدودیت
  • 12:27 - 12:31
    به سمت جهانی که می توانی یک
    چاپگر دی ان ای در هر خانه
  • 12:31 - 12:32
    یا آزمایشگاه دبیرستان داشته باشی.
  • 12:33 - 12:35
    محدودیت هایی وجود دارند، بله؟
  • 12:35 - 12:38
    ن.ب: احتمالا وجود دارند، در بخش اول،
    در امکان پذیر نبودن.
  • 12:38 - 12:40
    اگر توقف اش را بخواهی،
  • 12:40 - 12:41
    مشکل انجام شدنی بودن آن است.
  • 12:42 - 12:44
    پس واقعا فایده ای ندارد
    اگر نوعی از یک کشور --
  • 12:44 - 12:46
    ک.ا: فایده ای ندارد
    اگر یک کشور انجامش دهد،
  • 12:46 - 12:49
    ولی ما قبلا معاهده هایی داشته ایم.
  • 12:49 - 12:53
    روشی که واقعا
    از خطر هسته ای عبور کرده ایم،
  • 12:53 - 12:54
    با حرکت به سمتش بوده
  • 12:54 - 12:57
    و عبور از مسیر دردناک مذاکرات.
  • 12:57 - 13:02
    تعجب می کنم که آیا منطقی نیست
    اگر به عنوان اولویتی جهانی،
  • 13:02 - 13:04
    بخواهیم تلاش کنیم،
  • 13:04 - 13:06
    مثلا، همین حالا مذاکره
    برای قوانینی خیلی محکم را شروع کنیم
  • 13:06 - 13:09
    که تحقیقات زیست شناسی
    مصنوعی تا کجا ادامه یابد،
  • 13:09 - 13:12
    که این چیزی نیست که بخواهید
    به دست همه بدهید، نه؟
  • 13:12 - 13:14
    ن.ب: من کاملا موافقم که --
  • 13:14 - 13:18
    که این را می خواهیم، برای مثال،
  • 13:18 - 13:22
    شاید داشتن دستگاه های ترکیب دی ان ای،
  • 13:22 - 13:25
    وسیله ای نباشد که هر آزمایشگاه
    دستگاهش را داشته باشد،
  • 13:25 - 13:27
    شاید خدمات آن داشته باشد.
  • 13:27 - 13:29
    شاید مثلا چهار یا پنج محل در جهان باشند
  • 13:29 - 13:33
    که شما الگوی دیجیتال خود را می فرستید
    و دی ان ای برایتان بر می گردد، درست؟
  • 13:33 - 13:35
    و حالا این توانایی را دارید،
  • 13:35 - 13:37
    که اگر روزی واقعا به نظر لازم رسید،
  • 13:37 - 13:39
    محل های مشخصی برای خفه کردن داریم.
  • 13:39 - 13:43
    پس به نظرم به دنبال
    نوعی موقعیت خاص هستی،
  • 13:43 - 13:45
    که بتوانی کنترلی محکمتر داشته باشی.
  • 13:45 - 13:47
    ک.ا: به باور شما، اساسا،
  • 13:47 - 13:50
    ما با عقب نگاه داشتن
    موفقیتی بدست نمی آوریم.
  • 13:50 - 13:52
    کسی، جایی --
    کره شمالی، می دانی --
  • 13:52 - 13:56
    کسی به آنجا می رسد و دانش را بدست می آورد،
  • 13:56 - 13:57
    اگر آنجا باشد.
  • 13:57 - 14:00
    ن.ب: در شرایط موجود قابل قبول است.
  • 14:00 - 14:02
    تنها زیست شناسی مصنوعی هم نیست.
  • 14:02 - 14:04
    به نظرم هر نوعی از تغییرات
    جدید و عمیق در جهان
  • 14:04 - 14:06
    می تواند تبدیل به یک توپ سیاه شود.
  • 14:06 - 14:08
    ک.ا: بیا تا به شکل دیگری
    از پاسخ نگاه کنیم.
  • 14:08 - 14:10
    ن.ب: این هم، به نظرم،
    تنها توانایی محدودی دارد.
  • 14:10 - 14:14
    برای آسیب پذیری نوع ۱،
  • 14:14 - 14:18
    منظورم اینکه اگر بتوانی
    تعداد کسانی را کاهش دهی که انگیزه
  • 14:18 - 14:19
    نابودی جهان را دارند،
  • 14:20 - 14:22
    اگر تنها آنها به امکانات
    و روش ها دسترسی داشته باشند ،
  • 14:22 - 14:23
    چیز خوبی است.
  • 14:23 - 14:25
    ک.ا: در این تصویری
    که از ما می خواهی انجام دهیم
  • 14:25 - 14:27
    به نظرت این پهپاد هایی
    که دور دنیا پرواز می کنند
  • 14:27 - 14:29
    با توانایی تشخیص چهره.
  • 14:29 - 14:32
    اگر کسی را پیدا کردند
    که رفتارهای جامعه ستیزانه دارد،
  • 14:32 - 14:34
    باید با عشق نثارشان کرد، درمانشان کرد.
  • 14:34 - 14:36
    ن.ب: فکر می کنم این مثل
    تصویری ترکیبی است.
  • 14:36 - 14:40
    حذف یا معنی، حبس و کشتن می دهد،
  • 14:40 - 14:43
    یا می تواند تشویق کردن
    به نگاه بهتری از جهان باشد.
  • 14:43 - 14:45
    اما نکته اینجاست،
  • 14:45 - 14:47
    فرض کنید که بی نهایت در این موفق باشید،
  • 14:47 - 14:50
    و تعداد چنین افرادی را نصف کنید.
  • 14:50 - 14:52
    و اگر بخواهید با تشویق
    این کار را انجام دهید،
  • 14:52 - 14:55
    مجبور به رقابت با همه انواع
    نیروهای قدرتمند دیگر می شوید
  • 14:55 - 14:56
    که مردم را تشویق،
  • 14:56 - 14:58
    به صف بندی، دین،
    سیستم های آموزشی می کنند.
  • 14:58 - 15:00
    اما فرض کنید بتوانید نصفش کنید،
  • 15:00 - 15:02
    فکر نمی کنم که خطر آن به نصف کاهش یابد.
  • 15:02 - 15:04
    شاید پنج یا ۱۰ درصد.
  • 15:04 - 15:08
    ک.ا: توصیه نمی کنی که ما آینده بشریت
    را روی پاسخ دوم شرط بندی کنیم.
  • 15:08 - 15:11
    ن.ب: به نظرم این کار خوبی است
    که برای تشویق و تغییر افراد تلاش کنیم،
  • 15:11 - 15:14
    اما نباید آن را به عنوان
    تنها راه حفاظت بدانیم.
  • 15:14 - 15:15
    ک.ا: سومی چطور؟
  • 15:15 - 15:18
    ن.ب: به نظر من دو روش عمومی وجود دارد
  • 15:18 - 15:22
    که برای رسیدن به توانایی تثبیت جهان
  • 15:22 - 15:25
    در برابر طیف کاملی از نقاط ضعف
    احتمالی قابل استفاده هستند.
  • 15:25 - 15:27
    که احتمالا به هر دو نیازمندیم.
  • 15:27 - 15:31
    یکی، توانایی است بی نهایت موثر
  • 15:32 - 15:33
    در ایجاد نظم پیشگیرانه.
  • 15:33 - 15:35
    به گونه ای که بتوانی رهگیری کنی.
  • 15:35 - 15:38
    هرکسی را که خواست از این کارهای
    خطرناک انجام دهد،
  • 15:38 - 15:40
    بتوانی در لحظه پیدایشان کنی،
    و جلویشان را بگیری.
  • 15:40 - 15:43
    و این نیازمند نظارت فراگیر در همه جاست،
  • 15:43 - 15:45
    همه باید همیشه تحت نظر باشند.
  • 15:46 - 15:49
    ک.ا: این مثل فیلم «گزارش اقلیت» است،
    اساسا، به شکلی.
  • 15:49 - 15:51
    ن.ب: شاید الگوریتم های
    هوش مصنوعی داشته باشی،
  • 15:51 - 15:55
    مراکز بزرگ آزادی خواهی
    که این را بررسی می کنند، غیره و غیره.
  • 15:57 - 16:01
    ک.ا: می دانی که نظارت انبوه عمومی
    این روزها موضوع خیلی محبوبی نیست؟
  • 16:01 - 16:02
    (خنده حضار)
  • 16:03 - 16:05
    ن.ب: بله، این وسیله کوچک اینجا،
  • 16:05 - 16:09
    فرض کن این نوع از گردنبند
    که باید همیشه ببندی
  • 16:09 - 16:11
    با دوربین های تمام جهت.
  • 16:12 - 16:14
    اما، برای اینکه بهتر جا بیفتد،
  • 16:14 - 16:16
    اسمش را بگذار «پلاک آزادی»
    یا چیزی مشابه آن.
  • 16:16 - 16:18
    (خنده حضار)
  • 16:18 - 16:19
    ک.ا: قبول.
  • 16:20 - 16:22
    دوستان، این همان صحبتی است که باید باشد،
  • 16:22 - 16:25
    به این دلیل است که چرا این صحبت
    دیوانه کننده است.
  • 16:25 - 16:28
    ن.ب: واقعا، بحث های زیادی است
  • 16:28 - 16:29
    تنها در این مورد، مشخص است.
  • 16:29 - 16:32
    مشکلات و مخاطراتی عظیم
    همراهش است، درسته؟
  • 16:32 - 16:33
    شاید به آن برگردیم.
  • 16:33 - 16:34
    آن بعدی، آخری،
  • 16:34 - 16:37
    توانایی ایجاد ثبات عمومی
  • 16:37 - 16:39
    به نوعی اتصال یک شکاف
    مدیریتی دیگر است.
  • 16:39 - 16:43
    پس این نظارت نوعی
    از مدیریت شکاف مدیریتی در سطح-خرد است.
  • 16:43 - 16:46
    مثل، جلوگیری از از اینکه کسی
    هیچوقت خطای خیلی بزرگی نکند.
  • 16:46 - 16:49
    سپس، یک شکاف مدیریتی مشابه هم هست
  • 16:49 - 16:51
    در سطح-کلان، سطحی جهانی.
  • 16:51 - 16:54
    تو به توانایی و مطمئن بودن نیاز داری،
  • 16:54 - 16:57
    تا مانع از بدترین نوع
    عدم هماهنگی جهانی شوی،
  • 16:57 - 17:01
    مانع از جنگ میان قدرت های بزرگ،
  • 17:01 - 17:02
    مسابقات تسلیحاتی،
  • 17:04 - 17:06
    مشکلات فاجعه آمیز مشترک،
  • 17:08 - 17:12
    تا بتوانی با آسیب پذیری های
    نوع ۲-الف مواجه شوی.
  • 17:12 - 17:14
    ک.ا: مدیریت جهان عبارتی است
  • 17:14 - 17:16
    که امروزه خیلی از مد افتاده،
  • 17:16 - 17:19
    اما آیا می توانی اینطور
    نتیجه بگیری که در طول تاریخ،
  • 17:19 - 17:20
    تارخ بشریت،
  • 17:20 - 17:25
    در هر مرحله از افزایش قدرت فناوری،
  • 17:25 - 17:29
    انسان با سازماندهی دوباره،
    قدرت را مرکزی کرده.
  • 17:29 - 17:32
    برای مثال، وقتی که یک گروه جانی
  • 17:32 - 17:34
    می توانند جامعه ای را در اختیار بگیرند،
  • 17:34 - 17:36
    پاسخ این بود که شما یک کشور-ملت هستید
  • 17:36 - 17:38
    و تو نیرو را مرکزی مردی،
    مثل نیروی پلیس یا ارتش،
  • 17:39 - 17:40
    پس، «نه نمی شود این کار را کرد.»
  • 17:40 - 17:45
    شاید، منطقِ داشتن یک شخص یا گروه
  • 17:45 - 17:46
    که بتواند بشریت را رها کند
  • 17:46 - 17:49
    به معنی این است که زمانی
    باید وارد این مسیر شویم،
  • 17:49 - 17:51
    حداقل به شکلی، نه؟
  • 17:51 - 17:54
    ن.ب: مسلما درست است
    که اندازه سازمان های سیاسی افزایش یافته
  • 17:54 - 17:56
    که در طول تاریخ بشر.
  • 17:56 - 17:59
    معمولا شکارچی-گردآور بوده است، درست،
  • 17:59 - 18:01
    و بعد رئیس قبیله، دولت-شهر، ملت،
  • 18:02 - 18:05
    و حالا سازمان های بین المللی
    و به همین شکل و صورت.
  • 18:06 - 18:07
    حالا، می خواستم تا مطمئن شوم
  • 18:07 - 18:09
    که این موقعیت را داشته ام که تاکید کنم
  • 18:09 - 18:11
    مشخصا ضررهایی عظیم
  • 18:11 - 18:12
    و حقیقتا، خطراتی سنگین وجود دارند،
  • 18:12 - 18:16
    هم در نظارت سنگین عمومی
    و هم در مدیریت جهانی.
  • 18:16 - 18:18
    اشاره من تنها این است
    که ما خوش شانسیم،
  • 18:18 - 18:21
    جهان می توانست چنان باشد
    که اینها تنها راه های
  • 18:21 - 18:22
    بقا بعد از یک توپ سیاه باشند.
  • 18:22 - 18:25
    ک.ا: منطق این نظریه،
  • 18:25 - 18:26
    به نظر من،
  • 18:26 - 18:30
    این است که باید تشخیص دهیم
    که نمی شود همه چیز را با هم داشت.
  • 18:30 - 18:32
    که نوعی از،
  • 18:34 - 18:36
    رویای ساده لوحانه که خیلی از ما داشته ایم
  • 18:36 - 18:40
    که فناوری همیشه یک نیروی خوبی خواهد بود،
  • 18:40 - 18:43
    ادامه بده، توقف نکن،
    تا می توانی تند برو
  • 18:43 - 18:45
    و به بعضی از نتایج توجه نکن،
  • 18:45 - 18:47
    واقعا دیگر امکان پذیر نیست.
  • 18:47 - 18:49
    می توانیم آن را داشته باشیم.
  • 18:49 - 18:50
    و اگر داشته باشیم،
  • 18:50 - 18:52
    باید قبول کنیم
  • 18:52 - 18:54
    بعضی از چیزهای ناراحت کننده ای
    را که همراه آن است،
  • 18:54 - 18:57
    که نوعی از بودن در آن
    مسابقه تسلیحاتی با خودت است
  • 18:57 - 18:59
    که اگر قدرت می خواهی،
    بهتر است محدودش کنی،
  • 18:59 - 19:01
    بهتر است بفهمی چطور محدودش کنی.
  • 19:01 - 19:04
    ن.ب: به نظرم این یک انتخاب است،
  • 19:04 - 19:07
    یک انتخاب خیلی وسوسه کننده،
    از این نظر که انتخابی ساده تر است
  • 19:07 - 19:09
    که ممکن است جواب هم بدهد،
  • 19:09 - 19:13
    اما معنی اش این است که ما ذاتا
    در بیرون آوردن توپ سیاه آسیب پذیریم.
  • 19:13 - 19:16
    حالا، فکر کنم با کمی هماهنگی،
  • 19:16 - 19:18
    مثلا، اگر بتوانی مشکل
    این مدیریت کلان را حل کنی،
  • 19:18 - 19:20
    و مدیریت خرد را حل کنی،
  • 19:20 - 19:22
    می توانی توپ را از گلدان بیرون آوری
  • 19:22 - 19:25
    و کلی مزیت بدست آورده ایم.
  • 19:25 - 19:28
    ک.ا: اگر ما در یک شبیه سازی
    زندگی می کنیم، این اهمیتی دارد؟
  • 19:28 - 19:29
    برنامه را دوباره اجرا می کنیم.
  • 19:29 - 19:31
    ( خنده حضار)
  • 19:31 - 19:32
    ن.ب.: پس ... من ...
  • 19:32 - 19:35
    (خنده حضار)
  • 19:35 - 19:36
    حواسم به این یکی نبود.
  • 19:38 - 19:39
    ک.ا: شما چه نگاهی دارید؟
  • 19:39 - 19:44
    با کنار هم گذاشتن همه این اجزاء،
    احتمال محکوم به شکست بودنمان چقدر است؟
  • 19:44 - 19:46
    (خنده حضار)
  • 19:47 - 19:49
    عاشق خنده مردم هستم
    وقتی این سوال را می پرسی.
  • 19:49 - 19:51
    ن.ب: در سطح فردی،
  • 19:51 - 19:55
    به نظر می رسد که به هر شکل محکوم هستیم،
    تنها از دید زمانی،
  • 19:55 - 19:57
    ما می پوسیم و پیر می شویم
    و هه این چیزها، درست؟
  • 19:57 - 19:59
    (خنده حضار)
  • 19:59 - 20:00
    واقعا کمی پیچیده است.
  • 20:00 - 20:03
    اگر بخواهی به شکلی تنظیمش کنی که،
    بتوانی احتمالی هم به آن بدهی،
  • 20:03 - 20:05
    اول، ما که هستیم؟
  • 20:05 - 20:07
    اگر خیلی پیر هستید،
    احتمالا به دلایل طبیعی خواهید مرد،
  • 20:08 - 20:10
    اگر جوان هستید،
    احتمالا به ۱۰۰ سالگی برسید --
  • 20:10 - 20:12
    احتمال آن بستگی دارد از که بپرسید.
  • 20:12 - 20:16
    بعد آن آستانه، یعنی، چه چیزی
    را نابودی تمدن می دانیم؟
  • 20:16 - 20:22
    در این مقاله، من نیازی
    به یک فاجعه نابود کننده هستی
  • 20:22 - 20:23
    برای به حساب آوردن نداشته ام.
  • 20:23 - 20:25
    این تنها یک تعریف است.
  • 20:25 - 20:26
    فرض کنید یک میلیارد کشته،
  • 20:26 - 20:29
    یا کاهش ۵۰ درصدی تولید ناخالص ملی جهان،
  • 20:29 - 20:31
    اما با توجه به آستانه ای
    که شما تعریف می کنید،
  • 20:31 - 20:33
    تخمین متفاوتی از احتمال بدست می آورید.
  • 20:33 - 20:37
    اما فکر کنم شما بهتر است من را
    به عنوان یک خوشبین ترسو کنار بگذارید.
  • 20:37 - 20:38
    (خنده حضار)
  • 20:38 - 20:40
    ک.ا: تو یک خوشبین ترسو هستی،
  • 20:40 - 20:44
    که فکر کنم همین حالا کلی
    ترسوی دیگر بوجود آوردی ....
  • 20:44 - 20:46
    آدمهای.
  • 20:46 - 20:47
    (خنده حضار)
  • 20:47 - 20:48
    ن.ب.: در شبیه سازی.
  • 20:48 - 20:49
    ک.ا: در شبیه سازی.
  • 20:49 - 20:51
    نیک بوستروم، ذهن تو مرا شگفت زده می کند،
  • 20:51 - 20:54
    خیلی متشکرم از اینکه
    حالا ما را از روز روشن هم ترسانده ای.
  • 20:54 - 20:56
    (تشویق حضار)
Title:
چگونه یک تمدن می تواند خود را نابود کند -- و چهار راه برای جلوگیری از آن
Speaker:
نیک بوستروم
Description:

بشریت در مسیر خود برای خلق یک «توپ سیاه» است: پیشرفتی در فناوری که می تواند همه ما را نابود کند، این گفته دانشمند و فیلسوف نیک بوستروم است. در این مکالمه صریح و بی تعارف با سرپرست تد کریس اندرسن، بوستروم به نقاط ضعفی اشاره می کند که می توانیم با آن مواجه شویم اگر ( و چه وقتی؟) کنترل نوآوری ها از دستمان در برود و بررسی می کند که چطور می توانیم از نابودی آتی خود جلوگیری کنیم.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09

Persian subtitles

Revisions