چگونه «زیستشناسیِ مصنوعی» می تواند بشریت را نابود کند - و چگونه می توانیم آن را متوقف کنیم
-
0:01 - 0:03جمعیت ما حدود هفتونیم میلیارد نفر است.
-
0:05 - 0:08سازمان بهداشت جهانی میگوید
۳۰۰ میلیون نفر از ما افسردهاند، -
0:09 - 0:12و سالانه حدود ۸۰۰،۰۰۰ نفر
با خودکش میمیرند. -
0:13 - 0:16زیرمجموعه کوچکی از آنها
مسیری کاملا پوچگرایانه انتخاب میکنند، -
0:17 - 0:21که مردن در قالب امکان عمل کشتن تعداد زیادی
از افراد است. -
0:21 - 0:23اینها چندین نمونهٔ مشهور اخیر هستند.
-
0:24 - 0:26و این هم نمونه کمشهرتتری
که نُه هفته پیش رخ داد. -
0:26 - 0:28اگر آن را به خاطر نمیآورید،
-
0:28 - 0:31به این دلیل که نمونههای بسیاری
از این دست در جریان است. -
0:31 - 0:35ویکیپدیا فقط در سال گذشته
۳۲۳ تیراندازی دستهجمعی -
0:35 - 0:37در کشور موطن من، ایالات متحده برشمرده است.
-
0:38 - 0:40همه آن تیراندازها انتحاری نبودند،
-
0:40 - 0:43همه آنها آمار تلفاتشان آنقدر وخیم نبود،
-
0:43 - 0:44اما تعدادشان بسیار بسیار زیاد بود.
-
0:45 - 0:48سوالی اینجا مهم میشود که:
چه محدودیتهایی برای این افراد وجود دارد؟ -
0:48 - 0:50مثلا تیراندازِ وگاس
را در نظر بگیرید. -
0:50 - 0:53او ۵۸ نفر را کشت.
-
0:53 - 0:56آیا به اینخاطر که بهقدرِ
کافی کشته بود متوقف شد؟ -
0:56 - 1:01نه، این را میدانیم چون او شلیک کرد
و ۴۲۲ نفر دیگر را زخمی کرد. -
1:01 - 1:04کسانی که به یقین ترجیح میداد بکشد.
-
1:04 - 1:07دلیلی نداریم که فکر کنیم روی
۴,۲۰۰ اُمین نفر متوقف میشد. -
1:07 - 1:11درواقع، با چنین افراد پوچگرایی،
شاید او از کشتن همه ما خشنود میشد. -
1:11 - 1:12ما نمیدانیم!
-
1:13 - 1:15چیزی که میدانیم این است که:
-
1:15 - 1:18هنگامی که قاتلان انتحاری واقعا همه زندگی
خود را صرف این آرمان میکنند، -
1:18 - 1:21فناوری، نیروی فزایندهای است.
-
1:22 - 1:23این هم نمونهای دیگر.
-
1:23 - 1:28چندین سال پیش، موجی با بیش از
۱۰ حمله به مدرسه در چین رخ داد -
1:28 - 1:32که با چیزهایی مانند چاقو و چکش
و پتک انجام شدهاند، -
1:32 - 1:34چون رساندن سلاح به
چنین جاهایی سخت است. -
1:34 - 1:37همزمان با این ماجرا ، این حمله آخر
-
1:38 - 1:42فقط چند ساعت قبل از کشتار در
نیوتاون، کنِتیکت به وقوع پیوست. -
1:42 - 1:46اما آن حمله در آمریکا
تقریبا همان تعداد قربانی را داشت -
1:46 - 1:49که مجموع ۱۰ حمله در چین داشت.
-
1:49 - 1:55پس منصفانه میتوانیم بگوییم،
چاقو: وحشتناک است؛ تفنگ: از این هم بدتر. -
1:55 - 1:58و هواپیما: بسیار بدتر از آن،
-
1:58 - 2:02مثل خلبان آندریاس لوبیتز،
زمانی که ۱۴۹ نفر را -
2:02 - 2:04وادار به پیوستن به او در انتحارش با کوبیدن
-
2:04 - 2:07هواپیما به کوههای آلپ فرانسه کرد.
-
2:07 - 2:09و مثالهای دیگری از این دست هست.
-
2:10 - 2:15و متاسفانه سلاحهای کشنده خیلی بیشتری در
آینده نزدیک ، نسبت به هواپیماها وجود دارد -
2:15 - 2:17که از فلز ساخته نشدهاند.
-
2:17 - 2:22پس اجازه دهید پویاییهای آخرالزمانی را
در نظر بگیریم که درپی خواهند بود -
2:22 - 2:27اگر وسایل کشتار جمعی انتحاری
از پیشرفت سریع زمینههایی استفاده کنند -
2:27 - 2:31که بیشتر اوقات به علت وعدههای بیپایانی
که برای جامعه داشته است، رخ میدهد. -
2:32 - 2:34جایی در این دنیا،
گروه کوچکی از افرادی هستند -
2:34 - 2:37که تلاش میکنند، هرچند بیهیچ مناسبتی،
-
2:37 - 2:40ما را بکشند، فقط اگر
بتوانند دریابند چه طوری. -
2:41 - 2:43شاید تیرانداز وگاس یکی از آنها باشد،
شاید هم نه، -
2:43 - 2:45اما با هفتونیم میلیارد نفر از ما،
-
2:45 - 2:47تعداد این قبیل افراد مسلما صفر نیست.
-
2:47 - 2:50افراد پوچگرایِ متمایل به خودکشی
بسیار زیادی وجود دارند. -
2:50 - 2:51پیشتر آنها را دیدهایم.
-
2:51 - 2:55افرادی هستند که اختلالات خُلقی شدیدی دارند
که حتی نمیتوانند آن را کنترل کنند. -
2:55 - 3:00افرادی هستند که فقط متحمل صدمات روحی
و غیره و غیره شدهاند. -
3:01 - 3:03به عنوان جمعبندی،
-
3:03 - 3:07اندازه آن همواره تا زمان جنگ سرد، هیچ بود،
-
3:07 - 3:10تا زمانی که ناگهان، رهبران دو اتحاد جهانی
-
3:10 - 3:13به توانایی منفجر کردن دنیا دست یافتند.
-
3:14 - 3:17از آن به بعد شمارِ افرادی که بتوانند
کار دنیا و کره زمین را تمام کنند -
3:17 - 3:20تا حد زیادی پایدار مانده است.
-
3:20 - 3:22اما نگرانی من از
زیاد شدن این تعداد است، -
3:22 - 3:23و نه فقط تا سه تا.
-
3:23 - 3:26قراراست از نمودار بیرون بزند.
-
3:26 - 3:28یعنی قرار است یک
برنامه کسبوکارفناوری بشود. -
3:28 - 3:30(خنده حاضرین)
-
3:32 - 3:34و علتش هم این است که،
-
3:34 - 3:36ما در عصر رشدِ سریع فناوریهایی هستیم،
-
3:36 - 3:41که به طور معمول
غیرممکنهای بیپایانی را -
3:41 - 3:47به قدرتهای فرابشری واقعی
برای یک یا دو نابغه زنده، بدل میکند -
3:47 - 3:49و-- این بخش مهمی است --
-
3:49 - 3:51سپس این قدرت را
تا حد امکان به همه تسری میدهد. -
3:52 - 3:54حال، این یک مثال خوب است.
-
3:54 - 3:58اگر مثلا میخواستید با یک رایانه در سال
۱۹۵۲چکرز(نوعی بازی تختهای) بازی کنید، -
3:58 - 4:02واقعا باید این آقا میبودید،
(آرتور ساموئل از پیشگامان هوش مصنوعی) -
4:02 - 4:07بعد یکی از ۱۹ نسخه رایانه موجود دنیا
را در اختیار میگرفتید، -
4:07 - 4:10و بعد از مغز فوق برترتان برای
آموزش چِکِرز به رایانه استفاده میکردید. -
4:10 - 4:12معضلی بود!
-
4:13 - 4:17امروزه، شما فقط باید کسی را بشناسید که
کسی را میشناسد که فقط یک تلفن داشته باشد، -
4:18 - 4:21چون فناوری محاسبات بسیارپرسرعت است.
-
4:21 - 4:23پس «زیستشناسی مصنوعی»
-
4:23 - 4:26که حالا از مخفف آن «سینبایو»
استفاده میکنم. -
4:26 - 4:29در سال ۲۰۱۱، تعدادی پژوهشگر
کاری را انجام دادند، -
4:29 - 4:34به همان اندازه هوشمندانه
و غیرممکن مثل حقه چکرز، -
4:35 - 4:37با آنفلوآنزای H5N1.
-
4:37 - 4:42این گونهای (بیماری) است که تا
۶۰ درصد افراد مبتلا را میکشد، -
4:42 - 4:44بیش از ابولا.
-
4:44 - 4:47اما به قدری غیر مسرى است
-
4:47 - 4:51که از سال ۲۰۱۵
کمتر از ۵۰ نفر کشته است. -
4:51 - 4:55پس این پژوهشگران ژنوم H۵N۱ را اصلاح کردند
-
4:55 - 4:59و آن را به شکلی مرگبار،
اما به شدت مسری، ساختند. -
4:59 - 5:03بخش اخبار یکی از دو نشریه علمی برتر جهان
-
5:03 - 5:06گفت که اگر این موضوع رخ دهد
احتمالا موجب یک بیماری همهگیر -
5:06 - 5:09با احتمال مرگومیر میلیونها نفرخواهد شد.
-
5:09 - 5:11و دکتر پاول کایم گفت:
-
5:11 - 5:15او نمیتوانست به ارگانیسم زندهای
به این ترسناکی فکر کند، -
5:15 - 5:18که آخرین چیزی است که شخصا میخواهم
-
5:18 - 5:22از رئیس هیئت مشاوره علمی ملی
در مورد امنیت بیولوژیک بشنوم. -
5:23 - 5:26و همچنین دکتر کایم این را هم گفت --
-
5:26 - 5:28[ من فکر نمیکنم که
سیاهزخم اصلا ترسناک باشد.] -
5:28 - 5:30او هم یکی از این افراد است.
-
5:30 - 5:31[ متخصص سیاهزخم ] (خنده)
-
5:31 - 5:35اکنون، خبر خوب در مورد
هک زیستی ۲۰۱۱ -
5:35 - 5:38این است که افرادی که این کار را کردند
به ما هیچ آسیبی نمیزنند. -
5:38 - 5:39آنها ویروسشناس هستند.
-
5:39 - 5:41آنها بر این باور بودند که
در حال توسعه علم هستند. -
5:41 - 5:45خبر بد این است که فناوری
یکجا متوقف نمی شود، -
5:45 - 5:47و در چند دهه آینده،
-
5:47 - 5:50شاهکار آنها به طور جزیی
بسیار آسان خواهد شد. -
5:51 - 5:54درواقع، همین الان هم آسانتر است،
چون همانطور که دیروز صبح آموختیم، -
5:54 - 5:56تنها دو سال پس از کار آنها،
-
5:56 - 6:00سیستم «کریسپِر» برای اصلاح ژنوم تهیه شد.
-
6:00 - 6:02پیشرفت اساسی بود
-
6:02 - 6:05که اصلاح ژن را
به طور چشمگیری آسانتر کرد -- -
6:05 - 6:08به قدری آسان است که هماکنون
کریسپِر دردبیرستانها تدریس میشود. -
6:09 - 6:12و این چیزها سریعتر
از محاسبات آغاز به عمل میکنند. -
6:12 - 6:15آن خط سفید کُند،
با شیب کم آن بالا را میبینید؟ -
6:15 - 6:18آن قانون مور است.
-
6:18 - 6:21آن به ما نشان میدهد که هرچقدر محاسبات
سریعتر باشند، ارزانتر هم میشوند. -
6:21 - 6:24آن خط کج و کوله- مضحک سبز،
-
6:24 - 6:28که به ما نشان میدهد که چطور
تعیین توالی ژنتیکی، سریع ارزانتر میشود. -
6:29 - 6:32اکنون اصلاح ژن و سنتز و تعیین توالی آنها،
-
6:32 - 6:35آنها رشتههای متفاوتی هستند،
اما به شدت به هم مرتبط هستند. -
6:35 - 6:37و همه آنها با همین
سرعت شتابان حرکت میکنند. -
6:37 - 6:41و کلیدهای این قلمرو پادشاهی
همین فایل دادههای بسیار کوچک هستند. -
6:41 - 6:45این گلچینی از ژنوم H۵N۱ است.
-
6:45 - 6:47همه آن میتواند روی چند صفحه جا شود.
-
6:47 - 6:50و بله، نگران نباشید، شما میتوانید این را
به محض رسیدن به خانه جستجو کنید. -
6:50 - 6:52همهچیز در اینترنت هست، درسته؟
-
6:52 - 6:54و قسمتی که آن را مسری ساخته
-
6:55 - 6:57میتوانست به راحتی
روی یادداشت یک پست باشد. -
6:57 - 7:01و هنگامی که نابغهای
یک فایل داده ایجاد میکند، -
7:01 - 7:04هر احمقی میتواند آن را کپی کند،
-
7:04 - 7:06آنرا در سراسر جهان پخش کند
-
7:06 - 7:07یا آن را چاپ کند.
-
7:07 - 7:10و فقط منظورم این نیست که
روی این (کاغذ) چاپ کرده باشد، -
7:10 - 7:13اما به زودی، کپی روی این (DNA)
را هم خواهیم داشت. -
7:13 - 7:15خب حالا بیایید سناریویی را تصور کنیم.
-
7:15 - 7:19بیایید بگوییم در ۲۰۶۰،
همینطوری یک سال اتفاقی انتخاب کنیم، -
7:19 - 7:22یک ویروسشناس برجسجه که امیدوار است
به پیشرفت علم -
7:22 - 7:24و درک بهتر از بیماریهای فراگیرکمک کند،
-
7:24 - 7:25ویروس جدیدی طراحی کند.
-
7:26 - 7:28مثل آبله مرغان مسری باشد،
-
7:28 - 7:30مثل ابولا کشنده باشد،
-
7:30 - 7:34و ماهها و ماهها طول بکشد
تا بیماری بروز کند، -
7:34 - 7:38بنابراین تمام دنیا میتوانند
پیش از اولین نشانه دردسر آلوده شوند. -
7:39 - 7:41سپس دانشگاهاش هک شود.
-
7:41 - 7:43و البته،
این داستان علمیتخیلی نیست. -
7:43 - 7:46درواقع، یکی از کیفرخواستهای
اخیر در ایالاتمتحده، -
7:46 - 7:49هک کردن بیش از ۳۰۰
دانشگاه به اثبات رسانده است. -
7:50 - 7:56پس این فایل با ویروس ژنوم روی آن
در گوشههای تاریک اینترنت پخش میشود. -
7:56 - 7:59و هنگامی که فایلی در آنجا باشد،
هرگز بر نمیگردد -- -
7:59 - 8:03فقط ازکسی که یک استودیوی فیلم یا
ضبط موسیقی را اداره میکند بپرسید. -
8:04 - 8:07پس شاید در سال ۲۰۲۶،
-
8:07 - 8:09این کارِ یک نابغه واقعی مثل ویروسشناس ما
-
8:09 - 8:11برای ساختن موجود زنده واقعی باشد،
-
8:12 - 8:14اما ۱۵ سال بعد،
-
8:14 - 8:17ممکن است تنها یک چاپگر DNA باشد
که بتوانید در هر دبیرستان پیدا کنید. -
8:18 - 8:19و اگرهم نه؟
-
8:20 - 8:21دو دهه وقت بدهید.
-
8:22 - 8:24خُب، یک حاشیه سریع:
-
8:24 - 8:26اینجا این اسلاید را به خاطر دارید؟
-
8:26 - 8:28به این دو کلمه توجه کنید.
-
8:29 - 8:35اگر فقط کسی آن را امتحان کند
و فقط ۰.۱ درصد موثر باشد، -
8:35 - 8:37۸ میلیون نفر میمیرند.
-
8:37 - 8:41همان داستان ۲,۵۰۰ نفر تلفات ۱۱ سپتامبر.
-
8:41 - 8:43تمدن جان سالم به در خواهد برد،
-
8:43 - 8:46اما برای همیشه از ریخت میافتد.
-
8:47 - 8:50پس این بدان معنی است
که ما باید نگران همگان باشیم -
8:50 - 8:52حتی ضعیفترینها،
-
8:52 - 8:53و نه فقط نوابغ.
-
8:55 - 8:59خب، امروزه تعداد کمی از نوابغ هستند
-
8:59 - 9:02که احتمالا بتوانند یک ویروسِ
نابودکننده آخرالزمانی بسازند -
9:02 - 9:05که ۰.۱ درصد و شاید حتی کمی بیشتر
موثر باشد. -
9:05 - 9:10آنها تمایل دارند پایدار و موفق
باشند تا بخشی از این گروه نباشند. -
9:10 - 9:13پس فکر کنم به نوعی
تقریبا با این قضیه مشکل دارم. -
9:14 - 9:17اما پس از این که فناوری بهتر شود
-
9:17 - 9:19و گسترده شود
-
9:19 - 9:22و هزاران دانشجوی فارغالتحصیلِ
دانش زیستی به آن دست پیدا کنند چه؟ -
9:22 - 9:25آیا تکتک آنها کاملا
از نظر روانی پایدار هستند؟ -
9:26 - 9:28چند سال پس از آن چطور،
-
9:28 - 9:31وقتی که همه دانشجویان پزشکی دچار استرس
کاملا آماده به کار شود؟ -
9:31 - 9:33در برخی نقاطِ این چارچوب زمانی،
-
9:33 - 9:36این دایرها باهم برخورد میکنند،
-
9:36 - 9:39چون ما اکنون شروع به صحبت
در مورد صدها هزار نفر -
9:39 - 9:40از مردم سرتاسر دنیا کردهایم.
-
9:40 - 9:44که شامل فردی که اخیرا
مثل جوکر لباس بر تن کرده -
9:44 - 9:47و ۱۲ نفر را در نمایش «بتمن»
به قتل رسانده نیز میشود. -
9:48 - 9:50او یک دانشجوی دکترای عصبشناسی
-
9:50 - 9:52با بورسیه موسسه ملی بهداشت بود.
-
9:53 - 9:55خب، موضوع پیچیده شد:
-
9:55 - 10:00فکرکنم واقعا بتوانیم از این یکی جان سالم
به دربریم، اگر از حالا روی آن تمرکز کنیم. -
10:00 - 10:03و این را با صرف ساعات بیشمار
-
10:03 - 10:06با مصاحبه کردن با رهبران جهانی در سینبایو
-
10:06 - 10:10و همچنین پژوهش درباره کارهای علمی آنها
برای پادکست های علمی که میسازم، میگویم. -
10:10 - 10:15از ترس کار آنها اینجا آمدهام،
در صورتی که هنوز به جایی هم نرسیدهاند -- -
10:15 - 10:17(خنده حضار)
-
10:17 - 10:20اما بیش از آن،
به پتانسیل آن احترام میگذارم. -
10:20 - 10:24این چیزها سرطان را درمان میکنند،
محیط ما را التیام میبخشد -
10:24 - 10:27و رفتار بیرحمانه ما
با موجودات دیگر را متوقف میکند. -
10:28 - 10:32پس چطورهمه اینها را بدون اینکه خودمان
را نابود کنیم، بهدست آوریم؟ -
10:32 - 10:36اول اینکه، چه باب میلتان باشد یا خیر،
سینبایو(زیستشناسی مصنوعی) اینجاست، -
10:36 - 10:38پس بیایید فناوری را بپذیریم.
-
10:38 - 10:40اگرما فناوری را قدغن کنیم،
-
10:40 - 10:43فقط این چرخه را
به دست بازیگران بد میاندازد. -
10:43 - 10:45برخلاف برنامههای هستهای،
-
10:45 - 10:48زیستشناسی را میتوان
به طور نامرئی اقدام و تمرین کرد. -
10:48 - 10:51تقلب گسترده شوروی در
معاهدات سلاحهای زیستی -
10:51 - 10:55آن را آشکار کرد، همانطور که آزمایشگاههای
غیرقانونی مواد مخدر در جهان عمل میکنند. -
10:55 - 10:57دوم اینکه، از متخصصان کمک بخواهیم.
-
10:57 - 11:01آنها را وارد قضیه کنیم و تعدادِ
بیشتری از آنها داشته باشیم. -
11:01 - 11:03برای هر یک میلیون نفر
یک مهندس زیستی داریم، -
11:03 - 11:06حداقل یک میلیون از آنها
طرفِ ما خواهند بود. -
11:07 - 11:09منظورم این است که با همین یک نفر
ال کاپون، طرفِ ماست. -
11:10 - 11:13فقط درصد وجود یک آدم مناسب
قدری کم است. -
11:13 - 11:17و مزایای کلانِ شمارشی
اهمیت دارد وموثراست، -
11:17 - 11:19حتی زمانی که تنها یک فرد بد
بتواند آسیبهای جدی وارد کند، -
11:19 - 11:21چون در میان چیزهای دیگر،
-
11:21 - 11:24آنها اجازه میدهند که ما از این جهنمی
که هست بهره بریم و از این وضع خارج شویم: -
11:24 - 11:29ما سالها و خوشبختانه دههها وقت
برای آماده کردن خود و جلوگیری از آن داریم. -
11:30 - 11:33اولین کسی که چیز وحشتناکی را امتحان کند --
و کسی بالاخره یکنفر خواهد بود -- -
11:33 - 11:35ممکن است حتی هنوز متولد نشده باشد.
-
11:35 - 11:39سپس، این باید تلاشی باشد
که جامعه را گسترش میدهد، -
11:39 - 11:41و همه شما باید بخشی از آن باشید،
-
11:41 - 11:46چرا که ما نمیتوانیم
از یک گروه کوچک از متخصصان -
11:46 - 11:51بخواهیم که مسئول هر دو سوی دستاندرکار
و بهرهبردار زیستشناسی مصنوعی باشند. -
11:51 - 11:54به این دلیل که ما قبلا این کار را
با سیستم مالی انجام دادیم، -
11:54 - 11:57و کارگزاران ما به شدت فاسد شدند
-
11:57 - 12:00و آنها دریافتند که چطور
میتوانند از گوشههای آن بزنند، -
12:00 - 12:03خطرات بزرگ و عظیمی
را به بقیه ما تحمیل کنند، -
12:03 - 12:05و سود را خصوصی کنند،
-
12:05 - 12:07آنها ثروتمند شدند
-
12:07 - 12:10در حالی که ما را با صورتحساب
۲۲ تریلیون دلاری درگیر کردند. -
12:11 - 12:12و اخیرا هم بیشتر --
-
12:12 - 12:14(تشویق)
-
12:14 - 12:17آیا همانهایی هستید که
تقدیرنامهها را گرفتهاید؟ -
12:17 - 12:18من که هنوز منتظرِ مال خودم هستم.
-
12:19 - 12:21فقط فکر کردم شاید برای سپاسگزاری
خیلی سرشان شلوغ بوده است. -
12:21 - 12:23و اخیرا هم بسیار بیشتر
-
12:24 - 12:28مساله حریم خصوصی آنلاین
به عنوان موضوع برجستهء عظیمی شروع شد، -
12:28 - 12:29و ما کلا آن را برونسپاری کردیم.
-
12:29 - 12:31و یک بار دیگر:
-
12:31 - 12:33دستاوردهای خصوصی، زیانهای اجتماعی.
-
12:33 - 12:36آیا فرد دیگری هم از این الگوی تکراری
به ستوه آمده؟ (یا فقط من هستم؟) -
12:36 - 12:40(تشویق)
-
12:40 - 12:46بنابراین ما به روش جامعتری
برای حفاظت از کامیابی، -
12:46 - 12:47حریم خصوصی
-
12:47 - 12:49و زندگیمان نیاز داریم.
-
12:49 - 12:52خب چطور همه این کارها را بکنیم؟
-
12:52 - 12:54خُب، وقتی که بدن
در حال مبارزه با پاتوژنها است، -
12:54 - 12:57آنها از سیستمهای ایمنیِ
هوشمندانهای استفاده میکنند، -
12:57 - 12:59که بسیار پیچیده و چند لایه هستند.
-
12:59 - 13:02چرا یکی از اینها را برای
همه زیستبوم لعنتی درست نکنیم؟ -
13:02 - 13:06یک سال از گفتگوهای TED را میتوان
به این اولین لایه بحرانی اختصاص داد. -
13:06 - 13:09پس اینها فقط چند ایده از آن همه
ایده بزرگ در این زمینه است. -
13:09 - 13:11برخی از نیروهای تحقیق و توسعه
-
13:11 - 13:16میتوانند عوامل پاتوژن های اولیه را
که اکنون داریم را گرفته -
13:16 - 13:19و بر روی شیب تند نمودار
نرخ عملکرد قرار دهند -
13:19 - 13:21تا به سرعت، هوشمند
-
13:21 - 13:22و شبکهای شده
-
13:22 - 13:27و به تدریج همچون شناساگرهای دود
و حتی گوشیهای هوشمند گسترش پیدا کنند. -
13:27 - 13:29یک نکته بسیار مرتبط:
-
13:29 - 13:31واکسنها، انواع مشکلات را دارند
-
13:31 - 13:35وقتی نوبت به تولید و توزیع میرسد،
-
13:35 - 13:39و زمانی که ساخته میشوند، نمیتوانند
با تهدیدات یا تحولات جدید سازگار شوند. -
13:39 - 13:42ما به یک بسترِ عملآوری زیستیِ
فرز و چابک نیازمندیم -
13:42 - 13:46که به تکتک داروخانهها و
حتی خانههای ما گسترش یابد. -
13:46 - 13:50فناوری چاپگر برای
واکسنها و داروها در دسترس است -
13:50 - 13:52اگر آن را اولویتبندی کنیم.
-
13:52 - 13:54سپس سلامت روانی.
-
13:54 - 13:57بسیاری از افرادی که مرتکبِ
کشتار جمعی انتحاری میشوند، -
13:57 - 14:01از فلجشدگی و استرس مقابل درمان و یا
از اختلال استرس پس از سانحه رنج میبرند. -
14:01 - 14:05ما به پژوهشگران شریفی مانند ریک دابلین
نیاز داریم، که روی این موضوع کار کند، -
14:05 - 14:09اما همچنان به آشغالهای خودخواه هم
نیازمندیم که شمارِ بیشتری از افراد هستند -
14:09 - 14:15برای درک این واقعیت که بلای بدی
به زودی دامن همه ما را خواهد گرفت، -
14:15 - 14:17نه فقط به آنهایی که
گرفتار شدهاند. -
14:17 - 14:20سپس آن آشغالها به ما و آل کاپون
-
14:21 - 14:23در مبارزه علیه این وضعیت
به ما ملحق میشوند. -
14:23 - 14:29سوم این که، هرکدام از ما
میتواند و باید یک گلبول سفید -
14:29 - 14:31در این سیستم ایمنی باشد.
-
14:31 - 14:35قاتلان انتحاری ممکن است منفور باشند، بله،
-
14:35 - 14:38اما آنها هم آدمهای بسیار
دلشکسته و غمگینی هستند، -
14:38 - 14:41و کسانی از ما که اینطور نیستند
لازم است حداکثر تلاش خود را بکنند -
14:41 - 14:44که مطمئن شوند کسی حس
غیردوستداشتنی بودن نکند. -
14:45 - 14:49(تشویق)
-
14:50 - 14:52سپس، ما باید مبارزه با این خطرات را به
-
14:52 - 14:55به هسته و بطن اصول زیستشناسیِ
مصنوعی (بایوسین) تبدیل کنیم. -
14:55 - 14:57شرکتهایی وجود دارند
که حداقل ادعا میکنند که -
14:57 - 15:00به مهندسان خود اجازه میدهند ۲۰
درصد زمان خود را -
15:00 - 15:02صرف انجام هر کاری که
میخواهند انجام دهند. -
15:02 - 15:04چه میشود اگر کسانی که
مهندسین زیستی را استخدام میکنند -
15:04 - 15:06به آنها اجازه دهند
-
15:06 - 15:10۲۰ درصد از وقتشان را
صرف دفاع از منافع مشترک کنند؟ -
15:11 - 15:12فکر بدی نیست، مگرنه؟
-
15:12 - 15:14( تشویق)
-
15:14 - 15:17و سرانجام: این قضیه اصلا جالب نخواهد بود.
-
15:17 - 15:21اما باید بگذاریم ذهن ما
به جاهای خیلی خیلی تاریک برود، -
15:21 - 15:24و متشکرم که اجازه دادید
امشب شما را به آنجا ببرم. -
15:24 - 15:26ما از جنگ سرد جان سالم به در بردیم،
-
15:26 - 15:31زیرا هر یک از ما خطر را
درک کرده و به آن احترام گذاشتیم، -
15:31 - 15:33به این دلیل که ما دهها سال
-
15:33 - 15:36صرف گفتن داستانهای ترسناک اشباح
-
15:36 - 15:38مانند «دکتر استرنجلاو»
-
15:38 - 15:39و «بازیهای جنگی»، کرده بودیم.
-
15:39 - 15:42دیگر فرصتی برای آرام ماندن نیست.
-
15:42 - 15:45این یکی از معدود زمانهایی بوده که
به طور باورنکردنی -
15:45 - 15:47برای ترساندن و ایجاد وحشت
کارساز بوده است -- -
15:48 - 15:50(خنده حاضرین)
-
15:50 - 15:52که با چند داستان اشباح بیایند
-
15:52 - 15:57و از ترسِ ما به عنوان سوخت
برای مقابله با این خطر استفاده کنند. -
15:58 - 16:02چون، تمام این سناریوهای وحشتناک
که تصویر کردهام -- -
16:02 - 16:04فرجامِ کار نیستند.
-
16:04 - 16:06آنها اختیاری هستند.
-
16:06 - 16:10خطر هنوز به نحوی از ما فاصله دارد.
-
16:10 - 16:13و این یعنی که
-
16:13 - 16:15اگر فقط اجازه دهیم
برای ما هم اتفاق میافتد. -
16:16 - 16:17بیایید اجازه ندهیم!
-
16:17 - 16:19بسیار متشکرم که گوش فرادادید.
-
16:19 - 16:23(تشویق)
- Title:
- چگونه «زیستشناسیِ مصنوعی» می تواند بشریت را نابود کند - و چگونه می توانیم آن را متوقف کنیم
- Speaker:
- راب رِید
- Description:
-
وعده تغییر جهان با «زیستشناسیِ مصنوعی» و «اصلاح ژن»، هنوز هم جنبهای منفی دارد. در این سخنرانی دوراندیشانه، نویسنده و کارآفرین «راب رِید» خطرات جهانی را مورد بررسی قرار میدهد که در آن افراد بیشتر و بیشتری به ابزارها و فناوری مورد نیاز برای ایجاد یک ویروس دیگر که ممکن است بشریت را از بین ببرد، دسترسی دارند - و پیشنهاد میکند که زمان آن رسیدهاست که این خطر را جدی بگیریم.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:36
Leila Ataei approved Persian subtitles for How synthetic biology could wipe out humanity -- and how we can stop it | ||
Leila Ataei accepted Persian subtitles for How synthetic biology could wipe out humanity -- and how we can stop it | ||
Leila Ataei edited Persian subtitles for How synthetic biology could wipe out humanity -- and how we can stop it | ||
Leila Ataei edited Persian subtitles for How synthetic biology could wipe out humanity -- and how we can stop it | ||
Leila Ataei edited Persian subtitles for How synthetic biology could wipe out humanity -- and how we can stop it | ||
Leila Ataei edited Persian subtitles for How synthetic biology could wipe out humanity -- and how we can stop it | ||
Leila Ataei edited Persian subtitles for How synthetic biology could wipe out humanity -- and how we can stop it | ||
Leila Ataei edited Persian subtitles for How synthetic biology could wipe out humanity -- and how we can stop it |