چگونه یک تمدن می تواند خود را نابود کند -- و چهار راه برای جلوگیری از آن
-
0:01 - 0:03کریس اندرسن: نیک بوستروم.
-
0:03 - 0:07خوب، تو تا الان نظرات عجیب
و غریب زیادی داشته ای. -
0:07 - 0:09فکر کنم چند دهه قبل است،
-
0:09 - 0:12پیشنهاد دادی که ممکن است همه ما
در یک شبیه سازی زندگی کنیم، -
0:12 - 0:13یا شاید می کردیم.
-
0:13 - 0:15این اواخر،
-
0:15 - 0:19مثال های کاملا زنده ای ترسیم کردی
از اینکه چطور هوش مصنوعی عمومی -
0:19 - 0:21می تواند به شکل وحشتناکی اشتباه باشد.
-
0:22 - 0:23و حالا امسال،
-
0:23 - 0:25در حال نشرِ
-
0:25 - 0:29مقاله ای هستی که
فرضیات دنیایِ آسیب پذیر نام دارد. -
0:29 - 0:34و کار امروز عصر ما تهیه
یک بروشور راهنما برای آن است. -
0:34 - 0:36پس بیا تا انجامش دهیم.
-
0:37 - 0:39این فرضیات چه هستند؟
-
0:40 - 0:42نیک بوستروم: سعی می کند تا درباره
-
0:42 - 0:46نوعی از ویژگی های ساختاری
وضعیت موجود انسان بیاندیشد. -
0:47 - 0:49تو از استعاره گلدان خوشت می آید،
-
0:50 - 0:51پس از آن برای مثال استفاده می کنم.
-
0:51 - 0:56یک گلدان بزرگ پر از توپ را تصور کن
-
0:56 - 1:00که نمایشگر نظرات، راهکارها
و فناوری های ممکن است. -
1:01 - 1:05می توانی تاریخ خلاقیت انسان را
-
1:05 - 1:08به شکل بردن دست در گلدان و بیرون
آوردن توپ یکی پس از دیگری تصور کنی، -
1:08 - 1:12و تاثیر کلی آن تا حالا
بسیار مفید بوده، درست؟ -
1:12 - 1:14تا حالا توپ های
سفید خیلی خوبی را درآورده ایم، -
1:14 - 1:17انواع توپ های خاکستری،
که چیزهای درهم خوب و بدی هستند. -
1:18 - 1:21و تا حالا هیچ توپ سیاهی بیرون نیامده --
-
1:22 - 1:28فناوری که به شکل دائمی، تمدنی
که پیدایش کند را نابود می کند. -
1:28 - 1:31این مقاله سعی دارد تا بررسی کند
که چه چیزی ممکن است یک توپ سیاه باشد. -
1:31 - 1:33ک.ا: پس تعریف شما از این توپ
-
1:33 - 1:37چیزی است که همراهش نابودی حتمی تمدن است.
-
1:37 - 1:42ن.ب.: مگر آنکه از شرایطی که من اسمش
را نیمه-آشفته گذاشته ام خارج شویم. -
1:42 - 1:43اما به شکلی، حتمی است.
-
1:44 - 1:48ک.ا.: پس شما برای این که
این نظریه قابل را قبول کنید -
1:48 - 1:50انواع مثال های مخالف را می آورید
-
1:50 - 1:53تا نشان دهید تا حالا شانس آورده ایم،
-
1:53 - 1:56و ممکن بود که توپ مرگ
را بیرون می کشیدیم -
1:56 - 1:57بدون آنکه خودمان حتی بفهمیم.
-
1:57 - 2:00گفته ای نقل شده، چه چیزی گفته شده؟
-
2:01 - 2:03ن.ب.: خوب، معنی اش نشان دادن
-
2:03 - 2:05سختی پیش بینی
-
2:05 - 2:08این است که اکتشافات بنیادی
ما را به کجا خواهند برد. -
2:08 - 2:11ما هنوز این توانایی را نداریم.
-
2:11 - 2:15چون در توپ بیرون آوردن ماهر شده ایم،
-
2:15 - 2:18اما واقعا توانایی برگرداندن توپ
به گلدان را نداریم، غیر از این است؟ -
2:18 - 2:21می توانیم اختراع کنیم،
اما نمی توانیم حذف-اختراع کنیم. -
2:22 - 2:24پس راهبرد ما، هم این که داریم،
-
2:24 - 2:27امیدواری به این است
که توپ سیاهی در گلدان نباشد. -
2:27 - 2:31ک.ا.: پس وقتی بیرون آمد، بیرون آمده،
و نمی شود برش گرداند، -
2:31 - 2:33و فکر می کنی که ما شانس آورده ایم.
-
2:33 - 2:35برایمان از اینها چند مثال بیاور.
-
2:35 - 2:38از انواع مختلف آسیب پذیری صحبت کرده ای.
-
2:38 - 2:40ن.ب : ساده ترین نوع آن برای فهمیدن
-
2:40 - 2:43فناوری است که به سادگی امکان می دهد
-
2:43 - 2:46تا مقادیر عظیمی از تخریب ایجاد شود.
-
2:47 - 2:51زیست شناسی مصنوعی ممکن است
نمونه ای حاصلخیز از این توپ سیاه باشد، -
2:51 - 2:54اما خیلی چیزهای ممکن دیگر
هم می توانیم انجام دهیم -- -
2:54 - 2:56به مهندسی زمین شناسی
توجه کنید که بسیار عالی است، نه؟ -
2:56 - 2:58می توانیم با گرمایش جهانی مبارزه کنیم،
-
2:58 - 3:01اما نمی خواهی که خیلی هم ساده باشد،
-
3:01 - 3:03نباید که هر آدمی و مامان بزرگش مثلا
-
3:03 - 3:06این قدرت را داشته باشند که آب و هوای زمین
را به شدت تغییر دهند. -
3:06 - 3:10یا شاید هم پهپادهای خودکار مرگبار،
-
3:10 - 3:13تولید انبوه شوند، ربات هایی به اندازه پشه
هجوم ربات های کشنده. -
3:14 - 3:17فناوری نانو، هوش مصنوعی عمومی.
-
3:17 - 3:19ک.ا : در این مقاله عنوان کرده ای
-
3:19 - 3:21که این تنها از روی شانس است
که وقتی ما کشف کردیم -
3:22 - 3:25که فناوری هسته ای می تواند بمب تولید کند،
-
3:25 - 3:26می توانست اینطور باشد
-
3:26 - 3:28که بمبی اختراع شود
-
3:28 - 3:32که منابع آن خیلی ساده تر باشد،
در دسترس همه. -
3:32 - 3:35ن.ب: درسته، فکر کنید
به سال های ۱۹۳۰ برگردیم -
3:35 - 3:40موقعی که توانستیم برای اولین بار
در فیزیک هسته ای پیشرفت هایی حاصل کنیم، -
3:40 - 3:44عده ای از نوابغ فهمیدند که می شود یک
واکنش زنجیره ای هسته ای هم ایجاد کرد -
3:44 - 3:47و بعد متوجه شدند
که این می تواند تبدیل به بمب شود. -
3:47 - 3:49و بعد ما کمی کار بیشتر کردیم،
-
3:49 - 3:52و مشخص شد که چیزی
که برای ساختن بمب نیاز داری -
3:52 - 3:54اورانیوم بسیار غنی شده یا پلوتونیم است،
-
3:54 - 3:56که تهیه این مواد بسیار سخت و مشکل است.
-
3:56 - 3:58به سانتریفیوژ های با سرعت
خیلی بالا نیاز داری، -
3:58 - 4:02نیاز به راکتور دارید، مقادیر عظیم انرژی.
-
4:02 - 4:04اما حالا فرض کنید به جایش
-
4:04 - 4:08راه ساده ای وجود داشت
تا انرژی اتم را آزاد کنی. -
4:08 - 4:11مثا اگر با پختن شن توی دستگاه مایکروویو
-
4:11 - 4:12یا چیزی شبیه به آن
-
4:12 - 4:14می توانستی انفجار هسته ای ایجاد کنی.
-
4:14 - 4:16این را می دانیم که
از لحاظ فیزیکی ممکن نیست. -
4:16 - 4:18اما قبل از انجام محاسبات فیزیکی لازم
-
4:18 - 4:20از کجا می دانستی که نتیجه اش چه می شود؟
-
4:21 - 4:22ک.ا: اگرچه، نمی شود بحث کرد
-
4:22 - 4:24که تکامل حیات روی زمین
-
4:24 - 4:27به طور ضمنی به معنی محیطی ثابت است،
-
4:27 - 4:32و اگر ایجاد واکنش های
بزرگ هسته ای نسبتا ساده بود، -
4:32 - 4:33زمین هیچ وقت ثابت نمی بود،
-
4:33 - 4:35و ما اصلا اینجا نبودیم.
-
4:35 - 4:38ن.ب: درسته، مگر آنکه چیزی باشد
که انجام عمدی اش ساده باشد -
4:38 - 4:41اما به شکل اتفاقی انجام نشده باشد.
-
4:41 - 4:43مثل کارهایی که به سادگی انجام می دهیم،
-
4:43 - 4:45ما می توانیم ده قطعه چیزی
را روی هم بگذاریم، -
4:45 - 4:48اما در طبیعت نمی توانی
دسته ای از ۱۰ قطعه روی هم پیدا کنی. -
4:48 - 4:50ک.ا: بسیار خوب، پس این احتمالا همانی است
-
4:50 - 4:52که خیلی از ما بیشتر نگرانش هستیم،
-
4:52 - 4:55و بله، زیست شناسی مصنوعی
احتمالا سریعترین مسیری است -
4:55 - 4:58که پیش بینی می کنیم
که در آینده نزدیک ما را به اینجا بیاورد. -
4:58 - 5:01ن.ب: درسته، و توجه کن معنی اش چه بود
-
5:01 - 5:05اگر، مثلا، هر کسی در آشپزخانه اش
بعد از ظهر کاری می کرد که -
5:05 - 5:07می توانست شهری را نابود کند.
-
5:07 - 5:10قابل تصور نیست که چطور تمدن های
امروزی که ما می شناسیم -
5:10 - 5:12می توانستند باقی بمانند.
-
5:12 - 5:14چون در هر جمعیتی از یک میلیون نفر،
-
5:14 - 5:17همیشه کسی وجود دارد، که به هر دلیلی،
-
5:17 - 5:19بخواهد که از نیروی تخریب استفاده کند.
-
5:20 - 5:23پس اگر آن بازمانده از آخر دنیا
-
5:23 - 5:25بخواهد که شهری
را نابود کند، یا بدتر از آن، -
5:25 - 5:26پس آن شهرها نابود می شوند.
-
5:26 - 5:29ک.ا: پس این نوع دیگری از آسیب پذیری است.
-
5:29 - 5:31برایمان توضیح بده.
-
5:31 - 5:35ن.ب: بله، علاوه بر این نمونه های
کاملا واضح از توپ های سیاه -
5:35 - 5:37که می توانند چیزهای زیادی را منفجر کنند،
-
5:37 - 5:42انواع دیگر از راه ایجاد
مشوق های بد عمل می کنند -
5:42 - 5:44تا انسانها کارهای مضری انجام دهند.
-
5:44 - 5:48اگر اسمش را نوع ۲-الف بگذاریم،
-
5:48 - 5:53درباره فناوری است که مشوق هایی
برای قدرت های بزرگ ایجاد می کند -
5:53 - 5:57که از نیروی عظیم شان
برای تخریب استفاده کنند. -
5:57 - 6:00سلاح های هسته ای
خیلی به این نزدیک هستند، نه؟ -
6:02 - 6:05کاری که ما کردیم، کمی
بیش از ۱۰ تریلیون دلار هزینه کردیم -
6:05 - 6:08تا حدود ۷۰،۰۰۰ کلاهک هسته ای بسازیم
-
6:08 - 6:10و آنها را آماده شلیک قرار دهیم.
-
6:10 - 6:12و چند باری هم در طول جنگ سرد
-
6:12 - 6:14تقریبا همدیگر را از بین بردیم.
-
6:14 - 6:17دلیلش این نبود که خیلی از افراد
فکر می کردند که این کار خیلی خوبی است، -
6:17 - 6:20بیایید ۱۰ تریلیون دلار خرج کنیم
تا خودمان را منفجر کنیم، -
6:20 - 6:23اما مشوق ها به گونه ای بود
که خودمان را -- -
6:23 - 6:24می توانست خیلی بدتر باشد.
-
6:24 - 6:26فرض کنید که یک تهاجم
اولیه بدون مشکل انجام می شد. -
6:26 - 6:29بعد ممکن بود وضعیت
خیلی پیچیده ای پیش بیاید، -
6:29 - 6:30در شرایط بحران،
-
6:30 - 6:33تا مانع از پرتاب تمام
موشک های هسته ای بشویم. -
6:33 - 6:36اگر مانعی نباشد، چون می ترسی
که طرف دیگر این کار را انجام دهد. -
6:36 - 6:38ک.ا: درست، تضمین تخریب متقابل
-
6:38 - 6:41باعث شد تا دوران جنگ سرد نسبتا ثابت باشد،
-
6:41 - 6:43بدون آن، شاید حالا الان اینجا نبودیم.
-
6:43 - 6:45ن.ب: می توانست خیلی نامتعادل تر
از آنچه بود باشد. -
6:45 - 6:47و می توانست مشخصات دیگر فناوری هم باشد.
-
6:47 - 6:50بستن پیمان های تسلیحاتی
می توانست سخت تر باشد، -
6:50 - 6:51اگر بجای تسلیحات اتمی
-
6:51 - 6:54چیزهایی کوچکتر یا نامشخص تر بود.
-
6:54 - 6:57ک.ا: و مانند مشوق های بد
برای بازیگران قدرت، -
6:57 - 7:00می توانی نگران مشوق های بد
برای همه ما باشی، اینجا در نوع ۲-ب. -
7:00 - 7:05ن.ب.: درسته، اینجا می شود
مسئله گرمایش جهانی را در نظر گرفت. -
7:07 - 7:09راحت طلبی های کوچک زیادی هستند
-
7:09 - 7:11که باعث می شوند ما کارهایی انجام دهیم
-
7:11 - 7:14که جداگانه هر کدام
اثر خیلی زیادی ندارند، درست؟ -
7:14 - 7:16اما اگر میلیاردها نفر انجامش دهند،
-
7:16 - 7:18اثر تجمیعی آن، مخرب است.
-
7:18 - 7:21امروزه، گرمایش جهانی می توانست
خیلی از این بدتر باشد. -
7:21 - 7:24ما مولفه حساسیت آب و هوا را داریم.
-
7:24 - 7:28این مولفه ای است که می گوید
چقدر گرمتر می شود -
7:28 - 7:30اگر مقدار معینی گاز گلخانه ای منتشر کنی.
-
7:30 - 7:33اما، فرض کن به شکل دیگری بود
-
7:33 - 7:35اگر با همان میزان گاز گلخانه ای
که منتشر می کردیم، -
7:35 - 7:37بجای افزایش دمای، مثلا،
-
7:37 - 7:41بین ۳ تا ۴/۵ درجه تا سال ۲۱۰۰،
-
7:41 - 7:44فرض کنید بین ۱۵ تا ۲۰ درجه می شد.
-
7:44 - 7:47اینطور، ممکن بود وضعیت
خیلی بدی داشته باشیم. -
7:47 - 7:50یا فرض کنید که استفاده از انرژی های
تجدید پذیر خیلی مشکل تر بود. -
7:50 - 7:53یا اینکه سوخت های
فسیلی بیشتری در زمین بود. -
7:53 - 7:55ک.ا: آیا می شد دلیل آورد که در آن حالت --
-
7:55 - 7:57اگر کاری که امروز می کنیم
-
7:57 - 8:02موجب ۱۰ درجه تفاوت در مدت زمانی
که می توانستیم ببینیم می شد، -
8:02 - 8:05واقعا بشریت تکانی به خودش
می داد و کاری می کرد. -
8:06 - 8:08احمق هستیم. اما شاید نه آنقدر احمق.
-
8:08 - 8:10شاید هم هستیم.
-
8:10 - 8:11ن.ب: من اطمینان نمی کردم.
-
8:11 - 8:13(خنده حضار)
-
8:13 - 8:15می توانی ویژگی های دیگر را هم تصور کنی.
-
8:15 - 8:20همین حالا، تغییر به انرژی های
تجدید پذیر کمی مشکل است، درست، -
8:20 - 8:22اما شدنی است.
-
8:22 - 8:25اما اگر خواص فیزیکی کمی متفاوت بود،
-
8:25 - 8:27ممکن بود این کارها
خیلی پر هزینه تر باشند. -
8:28 - 8:30ک.ا: و تو چه نظری داری، نیک؟
-
8:30 - 8:32فکر می کنی با روی هم گذاشتن این احتمالات،
-
8:32 - 8:37که با این زمین، بشریتی که ما هستیم
-
8:37 - 8:38ما دنیایی آسیب پذیر هستیم؟
-
8:38 - 8:41که یک توپ مرگ در آینده ما وجود دارد؟
-
8:44 - 8:45ن.ب: پاسخ به آن سخت است.
-
8:45 - 8:50منظورم اینکه فکر می کنم احتمال زیادی دارد
که توپ های سیاه مختلفی در گلدان باشند، -
8:50 - 8:52اینطور به نظر می رسد.
-
8:52 - 8:54اما ممکن است توپ های طلایی هم باشند
-
8:54 - 8:58که به ما در برابر توپ های سیاه کمک کنند.
-
8:58 - 9:01و نمی دانم که ترتیب
بیرون آمدنشان به چه صورت است. -
9:01 - 9:04ک.ا: منظورم، یک انتقاد
محتمل فلسفی به این تفکر -
9:04 - 9:10این است که به طور ضمنی این دید را
دارد که آینده اساسا تثبیت شده است. -
9:10 - 9:13که یا این توپ آنجاست یا نیست.
-
9:13 - 9:16و به شکلی،
-
9:16 - 9:18این نگاهی به آینده نیست
که بخواهم باور کنم. -
9:18 - 9:21می خواهم باور کنم که آینده قطعی نیست،
-
9:21 - 9:23که تصمیمات امروز ما معین می کنند
-
9:23 - 9:25که چه توپی را از گلدان بیرون می آوریم.
-
9:26 - 9:30ن.ب: منظورم این است،
که اگر همینطور نوآوری را ادامه دهیم، -
9:30 - 9:32نهایتا همه توپ ها را بیرون خواهیم آورد.
-
9:33 - 9:36یعنی، فکر می کنم وجود مقدار کمی
جبرگرایی فناوری -
9:36 - 9:38کاملا ممکن است.
-
9:38 - 9:40شبیه به اینکه، احتمال
کمی دارد که جامعه ای پیدا کنی -
9:40 - 9:43که از سنگ چخماق
و هواپیمای جت با هم استفاده کند. -
9:44 - 9:48اما اغلب می شود یک فناوری را به عنوان
مجموعه ای از ویژگی ها در نظر گرفت -
9:48 - 9:51پس فناوری چیزی است که به ما
امکان انجام کارهای مختلف -
9:51 - 9:53و دسترسی به نتایج گوناگون را می دهد.
-
9:53 - 9:56اینکه چطور از آن استفاده کنیم،
مسلما به انتخاب انسان بستگی دارد. -
9:56 - 9:59اما اگر به این سه نوع
آسیب پذیری فکر کنیم، -
9:59 - 10:02آنها فرضیات کاملا ضعیفی از انتخاب ما
در چگونه استفاده کردنشان اند. -
10:02 - 10:06پس یک آسیب پذیری نوع ۱، مجددا،
این نیروی عظیم مخرب، -
10:06 - 10:07این فرض ضعیفی است
-
10:07 - 10:10که در میان میلیون ها انسان
-
10:10 - 10:13بعضی ها هستند که بخواهند
از آن برای تخریب استفاده کنند. -
10:13 - 10:15ک.ا: برای من، تنها موضوع ناراحت کننده
-
10:15 - 10:20این است که واقعا ممکن است
ما نگاهی به داخل گلدان بیاندازیم -
10:20 - 10:23که موجب شود واقعا
محکوم به بدبختی شویم. -
10:23 - 10:28مثلا، اگر به قدرت مضاعف اعتقاد داشته باشی،
-
10:28 - 10:30که شتاب فناوری ذاتی است،
-
10:30 - 10:33که ما ابزارهایی می سازیم
که ما را قوی تر می کنند، -
10:33 - 10:35پس زمانی به صحنه می آیی
-
10:35 - 10:38که یک نفر به تنهایی
می تواند حریف همه ما شود، -
10:38 - 10:41و بعد انگار که ما شکست خورده ایم.
-
10:41 - 10:44این موضوعی خیلی نگران کننده نیست؟
-
10:44 - 10:46ن.ب: آه، بله.
-
10:47 - 10:48(خنده حضار)
-
10:48 - 10:49به نظرم --
-
10:51 - 10:53بله، ما بیشتر و بیشتر قدرت پیدا می کنیم،
-
10:53 - 10:56و استفاده از آن ساده و ساده تر می شود،
-
10:56 - 11:00ولی ما می توانیم فناوری هایی
هم بسازیم که به ما در کنترل آن -
11:00 - 11:02که چطور مردم از این قدرت ها
استفاده کنند کمک کند. -
11:02 - 11:05ک.ا: بگذار در موردش صحبت کنیم،
در مورد پاسخ به آن صحبت کنیم. -
11:05 - 11:07فرض کن در نظر گرفتن همه حالت های ممکن
-
11:07 - 11:09که حالا آنجا است --
-
11:09 - 11:13تنها زیست شناسی مصنوعی نیست،
چیزهایی مثل نبرد سایبری، -
11:13 - 11:17هوش مصنوعی، غیره و غیره. --
-
11:17 - 11:21آن چیزها احتمالا
آینده ما را محکوم می کنند. -
11:21 - 11:23پاسخ های ممکن چه هستند؟
-
11:23 - 11:28تو درباره چهار پاسخ ممکن صحبت کرده ای.
-
11:28 - 11:31ن.ب: محدود کردن توسعه فناوری
به نظر امیدوار کننده نمی رسد، -
11:31 - 11:35اگر منظورمان یک توقف عمومی
در پیشرفت فناوری است. -
11:35 - 11:36فکر نمی کنم هیچ کدام شدنی باشند،
-
11:36 - 11:39هیچ کدام خواسته ما نیستند
حتی اگر بتوانیم انجامشان دهیم. -
11:39 - 11:41به نظرم ممکن است در موضوعات محدودی
-
11:41 - 11:44بخواهی که توسعه فناوری کندتر باشد.
-
11:44 - 11:47فکر نکنم، توسعه سریعتر
تسلیحات زیستی را بخواهی، -
11:47 - 11:49یا فرضا، جداسازی ایزوتوپ ها،
-
11:49 - 11:52که تولید تسلیحات هسته ای
را ساده تر می کند. -
11:53 - 11:56ک.ا: به نظرم، معمولا
کاملا با آن همراه بودم. -
11:56 - 11:59اما حالا واقعا می خواهم
دقیقه ای آن را کنار بگذارم. -
11:59 - 12:01تنها به دلیل، اول از همه،
-
12:01 - 12:03اگر به تاریخ چند دهه اخیر نگاه کنی،
-
12:03 - 12:07می بینی، که همیشه تخت گاز
فشار به جلو با حداکثر سرعت بوده، -
12:07 - 12:09اشکالی ندارد، این تنها انتخاب ماست.
-
12:09 - 12:13اما اگر به جهانی شدن
و شتاب سریع آن فکر کنی، -
12:13 - 12:16اگر به راهبرد «تجربه
مادر علم است» توجه کنی -
12:16 - 12:19و نتایجش را بررسی کنی،
-
12:19 - 12:21و بعد به توانایی ذاتی
زیست شناسی مصنوعی توجه کنی، -
12:21 - 12:26مطمئن نیستم که باید سریع حرکت کنیم
-
12:26 - 12:27یا بدون هر گونه محدودیت
-
12:27 - 12:31به سمت جهانی که می توانی یک
چاپگر دی ان ای در هر خانه -
12:31 - 12:32یا آزمایشگاه دبیرستان داشته باشی.
-
12:33 - 12:35محدودیت هایی وجود دارند، بله؟
-
12:35 - 12:38ن.ب: احتمالا وجود دارند، در بخش اول،
در امکان پذیر نبودن. -
12:38 - 12:40اگر توقف اش را بخواهی،
-
12:40 - 12:41مشکل انجام شدنی بودن آن است.
-
12:42 - 12:44پس واقعا فایده ای ندارد
اگر نوعی از یک کشور -- -
12:44 - 12:46ک.ا: فایده ای ندارد
اگر یک کشور انجامش دهد، -
12:46 - 12:49ولی ما قبلا معاهده هایی داشته ایم.
-
12:49 - 12:53روشی که واقعا
از خطر هسته ای عبور کرده ایم، -
12:53 - 12:54با حرکت به سمتش بوده
-
12:54 - 12:57و عبور از مسیر دردناک مذاکرات.
-
12:57 - 13:02تعجب می کنم که آیا منطقی نیست
اگر به عنوان اولویتی جهانی، -
13:02 - 13:04بخواهیم تلاش کنیم،
-
13:04 - 13:06مثلا، همین حالا مذاکره
برای قوانینی خیلی محکم را شروع کنیم -
13:06 - 13:09که تحقیقات زیست شناسی
مصنوعی تا کجا ادامه یابد، -
13:09 - 13:12که این چیزی نیست که بخواهید
به دست همه بدهید، نه؟ -
13:12 - 13:14ن.ب: من کاملا موافقم که --
-
13:14 - 13:18که این را می خواهیم، برای مثال،
-
13:18 - 13:22شاید داشتن دستگاه های ترکیب دی ان ای،
-
13:22 - 13:25وسیله ای نباشد که هر آزمایشگاه
دستگاهش را داشته باشد، -
13:25 - 13:27شاید خدمات آن داشته باشد.
-
13:27 - 13:29شاید مثلا چهار یا پنج محل در جهان باشند
-
13:29 - 13:33که شما الگوی دیجیتال خود را می فرستید
و دی ان ای برایتان بر می گردد، درست؟ -
13:33 - 13:35و حالا این توانایی را دارید،
-
13:35 - 13:37که اگر روزی واقعا به نظر لازم رسید،
-
13:37 - 13:39محل های مشخصی برای خفه کردن داریم.
-
13:39 - 13:43پس به نظرم به دنبال
نوعی موقعیت خاص هستی، -
13:43 - 13:45که بتوانی کنترلی محکمتر داشته باشی.
-
13:45 - 13:47ک.ا: به باور شما، اساسا،
-
13:47 - 13:50ما با عقب نگاه داشتن
موفقیتی بدست نمی آوریم. -
13:50 - 13:52کسی، جایی --
کره شمالی، می دانی -- -
13:52 - 13:56کسی به آنجا می رسد و دانش را بدست می آورد،
-
13:56 - 13:57اگر آنجا باشد.
-
13:57 - 14:00ن.ب: در شرایط موجود قابل قبول است.
-
14:00 - 14:02تنها زیست شناسی مصنوعی هم نیست.
-
14:02 - 14:04به نظرم هر نوعی از تغییرات
جدید و عمیق در جهان -
14:04 - 14:06می تواند تبدیل به یک توپ سیاه شود.
-
14:06 - 14:08ک.ا: بیا تا به شکل دیگری
از پاسخ نگاه کنیم. -
14:08 - 14:10ن.ب: این هم، به نظرم،
تنها توانایی محدودی دارد. -
14:10 - 14:14برای آسیب پذیری نوع ۱،
-
14:14 - 14:18منظورم اینکه اگر بتوانی
تعداد کسانی را کاهش دهی که انگیزه -
14:18 - 14:19نابودی جهان را دارند،
-
14:20 - 14:22اگر تنها آنها به امکانات
و روش ها دسترسی داشته باشند ، -
14:22 - 14:23چیز خوبی است.
-
14:23 - 14:25ک.ا: در این تصویری
که از ما می خواهی انجام دهیم -
14:25 - 14:27به نظرت این پهپاد هایی
که دور دنیا پرواز می کنند -
14:27 - 14:29با توانایی تشخیص چهره.
-
14:29 - 14:32اگر کسی را پیدا کردند
که رفتارهای جامعه ستیزانه دارد، -
14:32 - 14:34باید با عشق نثارشان کرد، درمانشان کرد.
-
14:34 - 14:36ن.ب: فکر می کنم این مثل
تصویری ترکیبی است. -
14:36 - 14:40حذف یا معنی، حبس و کشتن می دهد،
-
14:40 - 14:43یا می تواند تشویق کردن
به نگاه بهتری از جهان باشد. -
14:43 - 14:45اما نکته اینجاست،
-
14:45 - 14:47فرض کنید که بی نهایت در این موفق باشید،
-
14:47 - 14:50و تعداد چنین افرادی را نصف کنید.
-
14:50 - 14:52و اگر بخواهید با تشویق
این کار را انجام دهید، -
14:52 - 14:55مجبور به رقابت با همه انواع
نیروهای قدرتمند دیگر می شوید -
14:55 - 14:56که مردم را تشویق،
-
14:56 - 14:58به صف بندی، دین،
سیستم های آموزشی می کنند. -
14:58 - 15:00اما فرض کنید بتوانید نصفش کنید،
-
15:00 - 15:02فکر نمی کنم که خطر آن به نصف کاهش یابد.
-
15:02 - 15:04شاید پنج یا ۱۰ درصد.
-
15:04 - 15:08ک.ا: توصیه نمی کنی که ما آینده بشریت
را روی پاسخ دوم شرط بندی کنیم. -
15:08 - 15:11ن.ب: به نظرم این کار خوبی است
که برای تشویق و تغییر افراد تلاش کنیم، -
15:11 - 15:14اما نباید آن را به عنوان
تنها راه حفاظت بدانیم. -
15:14 - 15:15ک.ا: سومی چطور؟
-
15:15 - 15:18ن.ب: به نظر من دو روش عمومی وجود دارد
-
15:18 - 15:22که برای رسیدن به توانایی تثبیت جهان
-
15:22 - 15:25در برابر طیف کاملی از نقاط ضعف
احتمالی قابل استفاده هستند. -
15:25 - 15:27که احتمالا به هر دو نیازمندیم.
-
15:27 - 15:31یکی، توانایی است بی نهایت موثر
-
15:32 - 15:33در ایجاد نظم پیشگیرانه.
-
15:33 - 15:35به گونه ای که بتوانی رهگیری کنی.
-
15:35 - 15:38هرکسی را که خواست از این کارهای
خطرناک انجام دهد، -
15:38 - 15:40بتوانی در لحظه پیدایشان کنی،
و جلویشان را بگیری. -
15:40 - 15:43و این نیازمند نظارت فراگیر در همه جاست،
-
15:43 - 15:45همه باید همیشه تحت نظر باشند.
-
15:46 - 15:49ک.ا: این مثل فیلم «گزارش اقلیت» است،
اساسا، به شکلی. -
15:49 - 15:51ن.ب: شاید الگوریتم های
هوش مصنوعی داشته باشی، -
15:51 - 15:55مراکز بزرگ آزادی خواهی
که این را بررسی می کنند، غیره و غیره. -
15:57 - 16:01ک.ا: می دانی که نظارت انبوه عمومی
این روزها موضوع خیلی محبوبی نیست؟ -
16:01 - 16:02(خنده حضار)
-
16:03 - 16:05ن.ب: بله، این وسیله کوچک اینجا،
-
16:05 - 16:09فرض کن این نوع از گردنبند
که باید همیشه ببندی -
16:09 - 16:11با دوربین های تمام جهت.
-
16:12 - 16:14اما، برای اینکه بهتر جا بیفتد،
-
16:14 - 16:16اسمش را بگذار «پلاک آزادی»
یا چیزی مشابه آن. -
16:16 - 16:18(خنده حضار)
-
16:18 - 16:19ک.ا: قبول.
-
16:20 - 16:22دوستان، این همان صحبتی است که باید باشد،
-
16:22 - 16:25به این دلیل است که چرا این صحبت
دیوانه کننده است. -
16:25 - 16:28ن.ب: واقعا، بحث های زیادی است
-
16:28 - 16:29تنها در این مورد، مشخص است.
-
16:29 - 16:32مشکلات و مخاطراتی عظیم
همراهش است، درسته؟ -
16:32 - 16:33شاید به آن برگردیم.
-
16:33 - 16:34آن بعدی، آخری،
-
16:34 - 16:37توانایی ایجاد ثبات عمومی
-
16:37 - 16:39به نوعی اتصال یک شکاف
مدیریتی دیگر است. -
16:39 - 16:43پس این نظارت نوعی
از مدیریت شکاف مدیریتی در سطح-خرد است. -
16:43 - 16:46مثل، جلوگیری از از اینکه کسی
هیچوقت خطای خیلی بزرگی نکند. -
16:46 - 16:49سپس، یک شکاف مدیریتی مشابه هم هست
-
16:49 - 16:51در سطح-کلان، سطحی جهانی.
-
16:51 - 16:54تو به توانایی و مطمئن بودن نیاز داری،
-
16:54 - 16:57تا مانع از بدترین نوع
عدم هماهنگی جهانی شوی، -
16:57 - 17:01مانع از جنگ میان قدرت های بزرگ،
-
17:01 - 17:02مسابقات تسلیحاتی،
-
17:04 - 17:06مشکلات فاجعه آمیز مشترک،
-
17:08 - 17:12تا بتوانی با آسیب پذیری های
نوع ۲-الف مواجه شوی. -
17:12 - 17:14ک.ا: مدیریت جهان عبارتی است
-
17:14 - 17:16که امروزه خیلی از مد افتاده،
-
17:16 - 17:19اما آیا می توانی اینطور
نتیجه بگیری که در طول تاریخ، -
17:19 - 17:20تارخ بشریت،
-
17:20 - 17:25در هر مرحله از افزایش قدرت فناوری،
-
17:25 - 17:29انسان با سازماندهی دوباره،
قدرت را مرکزی کرده. -
17:29 - 17:32برای مثال، وقتی که یک گروه جانی
-
17:32 - 17:34می توانند جامعه ای را در اختیار بگیرند،
-
17:34 - 17:36پاسخ این بود که شما یک کشور-ملت هستید
-
17:36 - 17:38و تو نیرو را مرکزی مردی،
مثل نیروی پلیس یا ارتش، -
17:39 - 17:40پس، «نه نمی شود این کار را کرد.»
-
17:40 - 17:45شاید، منطقِ داشتن یک شخص یا گروه
-
17:45 - 17:46که بتواند بشریت را رها کند
-
17:46 - 17:49به معنی این است که زمانی
باید وارد این مسیر شویم، -
17:49 - 17:51حداقل به شکلی، نه؟
-
17:51 - 17:54ن.ب: مسلما درست است
که اندازه سازمان های سیاسی افزایش یافته -
17:54 - 17:56که در طول تاریخ بشر.
-
17:56 - 17:59معمولا شکارچی-گردآور بوده است، درست،
-
17:59 - 18:01و بعد رئیس قبیله، دولت-شهر، ملت،
-
18:02 - 18:05و حالا سازمان های بین المللی
و به همین شکل و صورت. -
18:06 - 18:07حالا، می خواستم تا مطمئن شوم
-
18:07 - 18:09که این موقعیت را داشته ام که تاکید کنم
-
18:09 - 18:11مشخصا ضررهایی عظیم
-
18:11 - 18:12و حقیقتا، خطراتی سنگین وجود دارند،
-
18:12 - 18:16هم در نظارت سنگین عمومی
و هم در مدیریت جهانی. -
18:16 - 18:18اشاره من تنها این است
که ما خوش شانسیم، -
18:18 - 18:21جهان می توانست چنان باشد
که اینها تنها راه های -
18:21 - 18:22بقا بعد از یک توپ سیاه باشند.
-
18:22 - 18:25ک.ا: منطق این نظریه،
-
18:25 - 18:26به نظر من،
-
18:26 - 18:30این است که باید تشخیص دهیم
که نمی شود همه چیز را با هم داشت. -
18:30 - 18:32که نوعی از،
-
18:34 - 18:36رویای ساده لوحانه که خیلی از ما داشته ایم
-
18:36 - 18:40که فناوری همیشه یک نیروی خوبی خواهد بود،
-
18:40 - 18:43ادامه بده، توقف نکن،
تا می توانی تند برو -
18:43 - 18:45و به بعضی از نتایج توجه نکن،
-
18:45 - 18:47واقعا دیگر امکان پذیر نیست.
-
18:47 - 18:49می توانیم آن را داشته باشیم.
-
18:49 - 18:50و اگر داشته باشیم،
-
18:50 - 18:52باید قبول کنیم
-
18:52 - 18:54بعضی از چیزهای ناراحت کننده ای
را که همراه آن است، -
18:54 - 18:57که نوعی از بودن در آن
مسابقه تسلیحاتی با خودت است -
18:57 - 18:59که اگر قدرت می خواهی،
بهتر است محدودش کنی، -
18:59 - 19:01بهتر است بفهمی چطور محدودش کنی.
-
19:01 - 19:04ن.ب: به نظرم این یک انتخاب است،
-
19:04 - 19:07یک انتخاب خیلی وسوسه کننده،
از این نظر که انتخابی ساده تر است -
19:07 - 19:09که ممکن است جواب هم بدهد،
-
19:09 - 19:13اما معنی اش این است که ما ذاتا
در بیرون آوردن توپ سیاه آسیب پذیریم. -
19:13 - 19:16حالا، فکر کنم با کمی هماهنگی،
-
19:16 - 19:18مثلا، اگر بتوانی مشکل
این مدیریت کلان را حل کنی، -
19:18 - 19:20و مدیریت خرد را حل کنی،
-
19:20 - 19:22می توانی توپ را از گلدان بیرون آوری
-
19:22 - 19:25و کلی مزیت بدست آورده ایم.
-
19:25 - 19:28ک.ا: اگر ما در یک شبیه سازی
زندگی می کنیم، این اهمیتی دارد؟ -
19:28 - 19:29برنامه را دوباره اجرا می کنیم.
-
19:29 - 19:31( خنده حضار)
-
19:31 - 19:32ن.ب.: پس ... من ...
-
19:32 - 19:35(خنده حضار)
-
19:35 - 19:36حواسم به این یکی نبود.
-
19:38 - 19:39ک.ا: شما چه نگاهی دارید؟
-
19:39 - 19:44با کنار هم گذاشتن همه این اجزاء،
احتمال محکوم به شکست بودنمان چقدر است؟ -
19:44 - 19:46(خنده حضار)
-
19:47 - 19:49عاشق خنده مردم هستم
وقتی این سوال را می پرسی. -
19:49 - 19:51ن.ب: در سطح فردی،
-
19:51 - 19:55به نظر می رسد که به هر شکل محکوم هستیم،
تنها از دید زمانی، -
19:55 - 19:57ما می پوسیم و پیر می شویم
و هه این چیزها، درست؟ -
19:57 - 19:59(خنده حضار)
-
19:59 - 20:00واقعا کمی پیچیده است.
-
20:00 - 20:03اگر بخواهی به شکلی تنظیمش کنی که،
بتوانی احتمالی هم به آن بدهی، -
20:03 - 20:05اول، ما که هستیم؟
-
20:05 - 20:07اگر خیلی پیر هستید،
احتمالا به دلایل طبیعی خواهید مرد، -
20:08 - 20:10اگر جوان هستید،
احتمالا به ۱۰۰ سالگی برسید -- -
20:10 - 20:12احتمال آن بستگی دارد از که بپرسید.
-
20:12 - 20:16بعد آن آستانه، یعنی، چه چیزی
را نابودی تمدن می دانیم؟ -
20:16 - 20:22در این مقاله، من نیازی
به یک فاجعه نابود کننده هستی -
20:22 - 20:23برای به حساب آوردن نداشته ام.
-
20:23 - 20:25این تنها یک تعریف است.
-
20:25 - 20:26فرض کنید یک میلیارد کشته،
-
20:26 - 20:29یا کاهش ۵۰ درصدی تولید ناخالص ملی جهان،
-
20:29 - 20:31اما با توجه به آستانه ای
که شما تعریف می کنید، -
20:31 - 20:33تخمین متفاوتی از احتمال بدست می آورید.
-
20:33 - 20:37اما فکر کنم شما بهتر است من را
به عنوان یک خوشبین ترسو کنار بگذارید. -
20:37 - 20:38(خنده حضار)
-
20:38 - 20:40ک.ا: تو یک خوشبین ترسو هستی،
-
20:40 - 20:44که فکر کنم همین حالا کلی
ترسوی دیگر بوجود آوردی .... -
20:44 - 20:46آدمهای.
-
20:46 - 20:47(خنده حضار)
-
20:47 - 20:48ن.ب.: در شبیه سازی.
-
20:48 - 20:49ک.ا: در شبیه سازی.
-
20:49 - 20:51نیک بوستروم، ذهن تو مرا شگفت زده می کند،
-
20:51 - 20:54خیلی متشکرم از اینکه
حالا ما را از روز روشن هم ترسانده ای. -
20:54 - 20:56(تشویق حضار)
- Title:
- چگونه یک تمدن می تواند خود را نابود کند -- و چهار راه برای جلوگیری از آن
- Speaker:
- نیک بوستروم
- Description:
-
بشریت در مسیر خود برای خلق یک «توپ سیاه» است: پیشرفتی در فناوری که می تواند همه ما را نابود کند، این گفته دانشمند و فیلسوف نیک بوستروم است. در این مکالمه صریح و بی تعارف با سرپرست تد کریس اندرسن، بوستروم به نقاط ضعفی اشاره می کند که می توانیم با آن مواجه شویم اگر ( و چه وقتی؟) کنترل نوآوری ها از دستمان در برود و بررسی می کند که چطور می توانیم از نابودی آتی خود جلوگیری کنیم.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 21:09
Leila Ataei approved Persian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Masoud Motamedifar accepted Persian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Masoud Motamedifar edited Persian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Masoud Motamedifar edited Persian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Masoud Motamedifar edited Persian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Masoud Motamedifar edited Persian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Masoud Motamedifar edited Persian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Masoud Motamedifar edited Persian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it |