Return to Video

چگونه «زیست‌شناسیِ مصنوعی» می تواند بشریت را نابود کند - و چگونه می توانیم آن را متوقف کنیم

  • 0:01 - 0:03
    جمعیت ما حدود هفتونیم میلیارد نفر است.
  • 0:05 - 0:08
    سازمان بهداشت جهانی میگوید
    ۳۰۰ میلیون نفر از ما افسردهاند،
  • 0:09 - 0:12
    و سالانه حدود ۸۰۰،۰۰۰ نفر
    با خودکش میمیرند.
  • 0:13 - 0:16
    زیرمجموعه کوچکی از آنها
    مسیری کاملا پوچگرایانه انتخاب میکنند،
  • 0:17 - 0:21
    که مردن در قالب امکان عمل کشتن تعداد زیادی
    از افراد است.
  • 0:21 - 0:23
    اینها چندین نمونهٔ مشهور اخیر هستند.
  • 0:24 - 0:26
    و این هم نمونه کمشهرتتری
    که نُه هفته پیش رخ داد.
  • 0:26 - 0:28
    اگر آن را به خاطر نمیآورید،
  • 0:28 - 0:31
    به این دلیل که نمونههای بسیاری
    از این دست در جریان است.
  • 0:31 - 0:35
    ویکیپدیا فقط در سال گذشته
    ۳۲۳ تیراندازی دستهجمعی
  • 0:35 - 0:37
    در کشور موطن من، ایالات متحده برشمرده است.
  • 0:38 - 0:40
    همه آن تیراندازها انتحاری نبودند،
  • 0:40 - 0:43
    همه آنها آمار تلفاتشان آنقدر وخیم نبود،
  • 0:43 - 0:44
    اما تعدادشان بسیار بسیار زیاد بود.
  • 0:45 - 0:48
    سوالی اینجا مهم میشود که:
    چه محدودیتهایی برای این افراد وجود دارد؟
  • 0:48 - 0:50
    مثلا تیراندازِ وگاس
    را در نظر بگیرید.
  • 0:50 - 0:53
    او ۵۸ نفر را کشت.
  • 0:53 - 0:56
    آیا به اینخاطر که بهقدرِ
    کافی کشته بود متوقف شد؟
  • 0:56 - 1:01
    نه، این را میدانیم چون او شلیک کرد
    و ۴۲۲ نفر دیگر را زخمی کرد.
  • 1:01 - 1:04
    کسانی که به یقین ترجیح میداد بکشد.
  • 1:04 - 1:07
    دلیلی نداریم که فکر کنیم روی
    ۴,۲۰۰ اُمین نفر متوقف میشد.
  • 1:07 - 1:11
    درواقع، با چنین افراد پوچگرایی،
    شاید او از کشتن همه ما خشنود میشد.
  • 1:11 - 1:12
    ما نمیدانیم!
  • 1:13 - 1:15
    چیزی که میدانیم این است که:
  • 1:15 - 1:18
    هنگامی که قاتلان انتحاری واقعا همه زندگی
    خود را صرف این آرمان میکنند،
  • 1:18 - 1:21
    فناوری، نیروی فزایندهای است.
  • 1:22 - 1:23
    این هم نمونهای دیگر.
  • 1:23 - 1:28
    چندین سال پیش، موجی با بیش از
    ۱۰ حمله به مدرسه در چین رخ داد
  • 1:28 - 1:32
    که با چیزهایی مانند چاقو و چکش
    و پتک انجام شدهاند،
  • 1:32 - 1:34
    چون رساندن سلاح به
    چنین جاهایی سخت است.
  • 1:34 - 1:37
    همزمان با این ماجرا ، این حمله آخر
  • 1:38 - 1:42
    فقط چند ساعت قبل از کشتار در
    نیوتاون، کنِتیکت به وقوع پیوست.
  • 1:42 - 1:46
    اما آن حمله در آمریکا
    تقریبا همان تعداد قربانی را داشت
  • 1:46 - 1:49
    که مجموع ۱۰ حمله در چین داشت.
  • 1:49 - 1:55
    پس منصفانه میتوانیم بگوییم،
    چاقو: وحشتناک است؛ تفنگ: از این هم بدتر.
  • 1:55 - 1:58
    و هواپیما: بسیار بدتر از آن،
  • 1:58 - 2:02
    مثل خلبان آندریاس لوبیتز،
    زمانی که ۱۴۹ نفر را
  • 2:02 - 2:04
    وادار به پیوستن به او در انتحارش با کوبیدن
  • 2:04 - 2:07
    هواپیما به کوههای آلپ فرانسه کرد.
  • 2:07 - 2:09
    و مثالهای دیگری از این دست هست.
  • 2:10 - 2:15
    و متاسفانه سلاحهای کشنده خیلی بیشتری در
    آینده نزدیک ، نسبت به هواپیماها وجود دارد
  • 2:15 - 2:17
    که از فلز ساخته نشدهاند.
  • 2:17 - 2:22
    پس اجازه دهید پویاییهای آخرالزمانی را
    در نظر بگیریم که درپی خواهند بود
  • 2:22 - 2:27
    اگر وسایل کشتار جمعی انتحاری
    از پیشرفت سریع زمینههایی استفاده کنند
  • 2:27 - 2:31
    که بیشتر اوقات به علت وعدههای بیپایانی
    که برای جامعه داشته است، رخ میدهد.
  • 2:32 - 2:34
    جایی در این دنیا،
    گروه کوچکی از افرادی هستند
  • 2:34 - 2:37
    که تلاش میکنند، هرچند بیهیچ مناسبتی،
  • 2:37 - 2:40
    ما را بکشند، فقط اگر
    بتوانند دریابند چه طوری.
  • 2:41 - 2:43
    شاید تیرانداز وگاس یکی از آنها باشد،
    شاید هم نه،
  • 2:43 - 2:45
    اما با هفتونیم میلیارد نفر از ما،
  • 2:45 - 2:47
    تعداد این قبیل افراد مسلما صفر نیست.
  • 2:47 - 2:50
    افراد پوچگرایِ متمایل به خودکشی
    بسیار زیادی وجود دارند.
  • 2:50 - 2:51
    پیشتر آنها را دیدهایم.
  • 2:51 - 2:55
    افرادی هستند که اختلالات خُلقی شدیدی دارند
    که حتی نمیتوانند آن را کنترل کنند.
  • 2:55 - 3:00
    افرادی هستند که فقط متحمل صدمات روحی
    و غیره و غیره شدهاند.
  • 3:01 - 3:03
    به عنوان جمعبندی،
  • 3:03 - 3:07
    اندازه آن همواره تا زمان جنگ سرد، هیچ بود،
  • 3:07 - 3:10
    تا زمانی که ناگهان، رهبران دو اتحاد جهانی
  • 3:10 - 3:13
    به توانایی منفجر کردن دنیا دست یافتند.
  • 3:14 - 3:17
    از آن به بعد شمارِ افرادی که بتوانند
    کار دنیا و کره زمین را تمام کنند
  • 3:17 - 3:20
    تا حد زیادی پایدار مانده است.
  • 3:20 - 3:22
    اما نگرانی من از
    زیاد شدن این تعداد است،
  • 3:22 - 3:23
    و نه فقط تا سه تا.
  • 3:23 - 3:26
    قراراست از نمودار بیرون بزند.
  • 3:26 - 3:28
    یعنی قرار است یک
    برنامه کسبوکارفناوری بشود.
  • 3:28 - 3:30
    (خنده حاضرین)
  • 3:32 - 3:34
    و علتش هم این است که،
  • 3:34 - 3:36
    ما در عصر رشدِ سریع فناوریهایی هستیم،
  • 3:36 - 3:41
    که به طور معمول
    غیرممکنهای بیپایانی را
  • 3:41 - 3:47
    به قدرتهای فرابشری واقعی
    برای یک یا دو نابغه زنده، بدل میکند
  • 3:47 - 3:49
    و-- این بخش مهمی است --
  • 3:49 - 3:51
    سپس این قدرت را
    تا حد امکان به همه تسری میدهد.
  • 3:52 - 3:54
    حال، این یک مثال خوب است.
  • 3:54 - 3:58
    اگر مثلا میخواستید با یک رایانه در سال
    ۱۹۵۲چکرز(نوعی بازی تختهای) بازی کنید،
  • 3:58 - 4:02
    واقعا باید این آقا میبودید،
    (آرتور ساموئل از پیشگامان هوش مصنوعی)
  • 4:02 - 4:07
    بعد یکی از ۱۹ نسخه رایانه موجود دنیا
    را در اختیار میگرفتید،
  • 4:07 - 4:10
    و بعد از مغز فوق برترتان برای
    آموزش چِکِرز به رایانه استفاده میکردید.
  • 4:10 - 4:12
    معضلی بود!
  • 4:13 - 4:17
    امروزه، شما فقط باید کسی را بشناسید که
    کسی را میشناسد که فقط یک تلفن داشته باشد،
  • 4:18 - 4:21
    چون فناوری محاسبات بسیارپرسرعت است.
  • 4:21 - 4:23
    پس «زیستشناسی مصنوعی»
  • 4:23 - 4:26
    که حالا از مخفف آن «سینبایو»
    استفاده میکنم.
  • 4:26 - 4:29
    در سال ۲۰۱۱، تعدادی پژوهشگر
    کاری را انجام دادند،
  • 4:29 - 4:34
    به همان اندازه هوشمندانه
    و غیرممکن مثل حقه چکرز،
  • 4:35 - 4:37
    با آنفلوآنزای H5N1.
  • 4:37 - 4:42
    این گونهای (بیماری) است که تا
    ۶۰ درصد افراد مبتلا را میکشد،
  • 4:42 - 4:44
    بیش از ابولا.
  • 4:44 - 4:47
    اما به قدری غیر مسرى است
  • 4:47 - 4:51
    که از سال ۲۰۱۵
    کمتر از ۵۰ نفر کشته است.
  • 4:51 - 4:55
    پس این پژوهشگران ژنوم H۵N۱ را اصلاح کردند
  • 4:55 - 4:59
    و آن را به شکلی مرگبار،
    اما به شدت مسری، ساختند.
  • 4:59 - 5:03
    بخش اخبار یکی از دو نشریه علمی برتر جهان
  • 5:03 - 5:06
    گفت که اگر این موضوع رخ دهد
    احتمالا موجب یک بیماری همهگیر
  • 5:06 - 5:09
    با احتمال مرگومیر میلیونها نفرخواهد شد.
  • 5:09 - 5:11
    و دکتر پاول کایم گفت:
  • 5:11 - 5:15
    او نمیتوانست به ارگانیسم زندهای
    به این ترسناکی فکر کند،
  • 5:15 - 5:18
    که آخرین چیزی است که شخصا میخواهم
  • 5:18 - 5:22
    از رئیس هیئت مشاوره علمی ملی
    در مورد امنیت بیولوژیک بشنوم.
  • 5:23 - 5:26
    و همچنین دکتر کایم این را هم گفت --
  • 5:26 - 5:28
    [ من فکر نمیکنم که
    سیاهزخم اصلا ترسناک باشد.]
  • 5:28 - 5:30
    او هم یکی از این افراد است.
  • 5:30 - 5:31
    [ متخصص سیاهزخم ] (خنده)
  • 5:31 - 5:35
    اکنون، خبر خوب در مورد
    هک زیستی ۲۰۱۱
  • 5:35 - 5:38
    این است که افرادی که این کار را کردند
    به ما هیچ آسیبی نمیزنند.
  • 5:38 - 5:39
    آنها ویروسشناس هستند.
  • 5:39 - 5:41
    آنها بر این باور بودند که
    در حال توسعه علم هستند.
  • 5:41 - 5:45
    خبر بد این است که فناوری
    یکجا متوقف نمی شود،
  • 5:45 - 5:47
    و در چند دهه آینده،
  • 5:47 - 5:50
    شاهکار آنها به طور جزیی
    بسیار آسان خواهد شد.
  • 5:51 - 5:54
    درواقع، همین الان هم آسانتر است،
    چون همانطور که دیروز صبح آموختیم،
  • 5:54 - 5:56
    تنها دو سال پس از کار آنها،
  • 5:56 - 6:00
    سیستم «کریسپِر» برای اصلاح ژنوم تهیه شد.
  • 6:00 - 6:02
    پیشرفت اساسی بود
  • 6:02 - 6:05
    که اصلاح ژن را
    به طور چشمگیری آسانتر کرد --
  • 6:05 - 6:08
    به قدری آسان است که هماکنون
    کریسپِر دردبیرستانها تدریس میشود.
  • 6:09 - 6:12
    و این چیزها سریعتر
    از محاسبات آغاز به عمل میکنند.
  • 6:12 - 6:15
    آن خط سفید کُند،
    با شیب کم آن بالا را میبینید؟
  • 6:15 - 6:18
    آن قانون مور است.
  • 6:18 - 6:21
    آن به ما نشان میدهد که هرچقدر محاسبات
    سریعتر باشند، ارزانتر هم میشوند.
  • 6:21 - 6:24
    آن خط کج و کوله- مضحک سبز،
  • 6:24 - 6:28
    که به ما نشان میدهد که چطور
    تعیین توالی ژنتیکی، سریع ارزانتر میشود.
  • 6:29 - 6:32
    اکنون اصلاح ژن و سنتز و تعیین توالی آنها،
  • 6:32 - 6:35
    آنها رشتههای متفاوتی هستند،
    اما به شدت به هم مرتبط هستند.
  • 6:35 - 6:37
    و همه آنها با همین
    سرعت شتابان حرکت میکنند.
  • 6:37 - 6:41
    و کلیدهای این قلمرو پادشاهی
    همین فایل دادههای بسیار کوچک هستند.
  • 6:41 - 6:45
    این گلچینی از ژنوم H۵N۱ است.
  • 6:45 - 6:47
    همه آن میتواند روی چند صفحه جا شود.
  • 6:47 - 6:50
    و بله، نگران نباشید، شما میتوانید این را
    به محض رسیدن به خانه جستجو کنید.
  • 6:50 - 6:52
    همهچیز در اینترنت هست، درسته؟
  • 6:52 - 6:54
    و قسمتی که آن را مسری ساخته
  • 6:55 - 6:57
    میتوانست به راحتی
    روی یادداشت یک پست باشد.
  • 6:57 - 7:01
    و هنگامی که نابغهای
    یک فایل داده ایجاد میکند،
  • 7:01 - 7:04
    هر احمقی میتواند آن را کپی کند،
  • 7:04 - 7:06
    آنرا در سراسر جهان پخش کند
  • 7:06 - 7:07
    یا آن را چاپ کند.
  • 7:07 - 7:10
    و فقط منظورم این نیست که
    روی این (کاغذ) چاپ کرده باشد،
  • 7:10 - 7:13
    اما به زودی، کپی روی این (DNA)
    را هم خواهیم داشت.
  • 7:13 - 7:15
    خب حالا بیایید سناریویی را تصور کنیم.
  • 7:15 - 7:19
    بیایید بگوییم در ۲۰۶۰،
    همینطوری یک سال اتفاقی انتخاب کنیم،
  • 7:19 - 7:22
    یک ویروسشناس برجسجه که امیدوار است
    به پیشرفت علم
  • 7:22 - 7:24
    و درک بهتر از بیماریهای فراگیرکمک کند،
  • 7:24 - 7:25
    ویروس جدیدی طراحی کند.
  • 7:26 - 7:28
    مثل آبله مرغان مسری باشد،
  • 7:28 - 7:30
    مثل ابولا کشنده باشد،
  • 7:30 - 7:34
    و ماهها و ماهها طول بکشد
    تا بیماری بروز کند،
  • 7:34 - 7:38
    بنابراین تمام دنیا میتوانند
    پیش از اولین نشانه دردسر آلوده شوند.
  • 7:39 - 7:41
    سپس دانشگاهاش هک شود.
  • 7:41 - 7:43
    و البته،
    این داستان علمیتخیلی نیست.
  • 7:43 - 7:46
    درواقع، یکی از کیفرخواستهای
    اخیر در ایالاتمتحده،
  • 7:46 - 7:49
    هک کردن بیش از ۳۰۰
    دانشگاه به اثبات رسانده است.
  • 7:50 - 7:56
    پس این فایل با ویروس ژنوم روی آن
    در گوشههای تاریک اینترنت پخش میشود.
  • 7:56 - 7:59
    و هنگامی که فایلی در آنجا باشد،
    هرگز بر نمیگردد --
  • 7:59 - 8:03
    فقط ازکسی که یک استودیوی فیلم یا
    ضبط موسیقی را اداره میکند بپرسید.
  • 8:04 - 8:07
    پس شاید در سال ۲۰۲۶،
  • 8:07 - 8:09
    این کارِ یک نابغه واقعی مثل ویروسشناس ما
  • 8:09 - 8:11
    برای ساختن موجود زنده واقعی باشد،
  • 8:12 - 8:14
    اما ۱۵ سال بعد،
  • 8:14 - 8:17
    ممکن است تنها یک چاپگر DNA باشد
    که بتوانید در هر دبیرستان پیدا کنید.
  • 8:18 - 8:19
    و اگرهم نه؟
  • 8:20 - 8:21
    دو دهه وقت بدهید.
  • 8:22 - 8:24
    خُب، یک حاشیه سریع:
  • 8:24 - 8:26
    اینجا این اسلاید را به خاطر دارید؟
  • 8:26 - 8:28
    به این دو کلمه توجه کنید.
  • 8:29 - 8:35
    اگر فقط کسی آن را امتحان کند
    و فقط ۰.۱ درصد موثر باشد،
  • 8:35 - 8:37
    ۸ میلیون نفر میمیرند.
  • 8:37 - 8:41
    همان داستان ۲,۵۰۰ نفر تلفات ۱۱ سپتامبر.
  • 8:41 - 8:43
    تمدن جان سالم به در خواهد برد،
  • 8:43 - 8:46
    اما برای همیشه از ریخت میافتد.
  • 8:47 - 8:50
    پس این بدان معنی است
    که ما باید نگران همگان باشیم
  • 8:50 - 8:52
    حتی ضعیفترینها،
  • 8:52 - 8:53
    و نه فقط نوابغ.
  • 8:55 - 8:59
    خب، امروزه تعداد کمی از نوابغ هستند
  • 8:59 - 9:02
    که احتمالا بتوانند یک ویروسِ
    نابودکننده آخرالزمانی بسازند
  • 9:02 - 9:05
    که ۰.۱ درصد و شاید حتی کمی بیشتر
    موثر باشد.
  • 9:05 - 9:10
    آنها تمایل دارند پایدار و موفق
    باشند تا بخشی از این گروه نباشند.
  • 9:10 - 9:13
    پس فکر کنم به نوعی
    تقریبا با این قضیه مشکل دارم.
  • 9:14 - 9:17
    اما پس از این که فناوری بهتر شود
  • 9:17 - 9:19
    و گسترده شود
  • 9:19 - 9:22
    و هزاران دانشجوی فارغالتحصیلِ
    دانش زیستی به آن دست پیدا کنند چه؟
  • 9:22 - 9:25
    آیا تکتک آنها کاملا
    از نظر روانی پایدار هستند؟
  • 9:26 - 9:28
    چند سال پس از آن چطور،
  • 9:28 - 9:31
    وقتی که همه دانشجویان پزشکی دچار استرس
    کاملا آماده به کار شود؟
  • 9:31 - 9:33
    در برخی نقاطِ این چارچوب زمانی،
  • 9:33 - 9:36
    این دایرها باهم برخورد میکنند،
  • 9:36 - 9:39
    چون ما اکنون شروع به صحبت
    در مورد صدها هزار نفر
  • 9:39 - 9:40
    از مردم سرتاسر دنیا کردهایم.
  • 9:40 - 9:44
    که شامل فردی که اخیرا
    مثل جوکر لباس بر تن کرده
  • 9:44 - 9:47
    و ۱۲ نفر را در نمایش «بتمن»
    به قتل رسانده نیز میشود.
  • 9:48 - 9:50
    او یک دانشجوی دکترای عصبشناسی
  • 9:50 - 9:52
    با بورسیه موسسه ملی بهداشت بود.
  • 9:53 - 9:55
    خب، موضوع پیچیده شد:
  • 9:55 - 10:00
    فکرکنم واقعا بتوانیم از این یکی جان سالم
    به دربریم، اگر از حالا روی آن تمرکز کنیم.
  • 10:00 - 10:03
    و این را با صرف ساعات بیشمار
  • 10:03 - 10:06
    با مصاحبه کردن با رهبران جهانی در سینبایو
  • 10:06 - 10:10
    و همچنین پژوهش درباره کارهای علمی آنها
    برای پادکست های علمی که میسازم، میگویم.
  • 10:10 - 10:15
    از ترس کار آنها اینجا آمدهام،
    در صورتی که هنوز به جایی هم نرسیدهاند --
  • 10:15 - 10:17
    (خنده حضار)
  • 10:17 - 10:20
    اما بیش از آن،
    به پتانسیل آن احترام میگذارم.
  • 10:20 - 10:24
    این چیزها سرطان را درمان میکنند،
    محیط ما را التیام میبخشد
  • 10:24 - 10:27
    و رفتار بیرحمانه ما
    با موجودات دیگر را متوقف میکند.
  • 10:28 - 10:32
    پس چطورهمه اینها را بدون اینکه خودمان
    را نابود کنیم، بهدست آوریم؟
  • 10:32 - 10:36
    اول اینکه، چه باب میلتان باشد یا خیر،
    سینبایو(زیستشناسی مصنوعی) اینجاست،
  • 10:36 - 10:38
    پس بیایید فناوری را بپذیریم.
  • 10:38 - 10:40
    اگرما فناوری را قدغن کنیم،
  • 10:40 - 10:43
    فقط این چرخه را
    به دست بازیگران بد میاندازد.
  • 10:43 - 10:45
    برخلاف برنامههای هستهای،
  • 10:45 - 10:48
    زیستشناسی را میتوان
    به طور نامرئی اقدام و تمرین کرد.
  • 10:48 - 10:51
    تقلب گسترده شوروی در
    معاهدات سلاحهای زیستی
  • 10:51 - 10:55
    آن را آشکار کرد، همانطور که آزمایشگاههای
    غیرقانونی مواد مخدر در جهان عمل میکنند.
  • 10:55 - 10:57
    دوم اینکه، از متخصصان کمک بخواهیم.
  • 10:57 - 11:01
    آنها را وارد قضیه کنیم و تعدادِ
    بیشتری از آنها داشته باشیم.
  • 11:01 - 11:03
    برای هر یک میلیون نفر
    یک مهندس زیستی داریم،
  • 11:03 - 11:06
    حداقل یک میلیون از آنها
    طرفِ ما خواهند بود.
  • 11:07 - 11:09
    منظورم این است که با همین یک نفر
    ال کاپون، طرفِ ماست.
  • 11:10 - 11:13
    فقط درصد وجود یک آدم مناسب
    قدری کم است.
  • 11:13 - 11:17
    و مزایای کلانِ شمارشی
    اهمیت دارد وموثراست،
  • 11:17 - 11:19
    حتی زمانی که تنها یک فرد بد
    بتواند آسیبهای جدی وارد کند،
  • 11:19 - 11:21
    چون در میان چیزهای دیگر،
  • 11:21 - 11:24
    آنها اجازه میدهند که ما از این جهنمی
    که هست بهره بریم و از این وضع خارج شویم:
  • 11:24 - 11:29
    ما سالها و خوشبختانه دههها وقت
    برای آماده کردن خود و جلوگیری از آن داریم.
  • 11:30 - 11:33
    اولین کسی که چیز وحشتناکی را امتحان کند --
    و کسی بالاخره یکنفر خواهد بود --
  • 11:33 - 11:35
    ممکن است حتی هنوز متولد نشده باشد.
  • 11:35 - 11:39
    سپس، این باید تلاشی باشد
    که جامعه را گسترش میدهد،
  • 11:39 - 11:41
    و همه شما باید بخشی از آن باشید،
  • 11:41 - 11:46
    چرا که ما نمیتوانیم
    از یک گروه کوچک از متخصصان
  • 11:46 - 11:51
    بخواهیم که مسئول هر دو سوی دستاندرکار
    و بهرهبردار زیستشناسی مصنوعی باشند.
  • 11:51 - 11:54
    به این دلیل که ما قبلا این کار را
    با سیستم مالی انجام دادیم،
  • 11:54 - 11:57
    و کارگزاران ما به شدت فاسد شدند
  • 11:57 - 12:00
    و آنها دریافتند که چطور
    میتوانند از گوشههای آن بزنند،
  • 12:00 - 12:03
    خطرات بزرگ و عظیمی
    را به بقیه ما تحمیل کنند،
  • 12:03 - 12:05
    و سود را خصوصی کنند،
  • 12:05 - 12:07
    آنها ثروتمند شدند
  • 12:07 - 12:10
    در حالی که ما را با صورتحساب
    ۲۲ تریلیون دلاری درگیر کردند.
  • 12:11 - 12:12
    و اخیرا هم بیشتر --
  • 12:12 - 12:14
    (تشویق)
  • 12:14 - 12:17
    آیا همانهایی هستید که
    تقدیرنامهها را گرفتهاید؟
  • 12:17 - 12:18
    من که هنوز منتظرِ مال خودم هستم.
  • 12:19 - 12:21
    فقط فکر کردم شاید برای سپاسگزاری
    خیلی سرشان شلوغ بوده است.
  • 12:21 - 12:23
    و اخیرا هم بسیار بیشتر
  • 12:24 - 12:28
    مساله حریم خصوصی آنلاین
    به عنوان موضوع برجستهء عظیمی شروع شد،
  • 12:28 - 12:29
    و ما کلا آن را برونسپاری کردیم.
  • 12:29 - 12:31
    و یک بار دیگر:
  • 12:31 - 12:33
    دستاوردهای خصوصی، زیانهای اجتماعی.
  • 12:33 - 12:36
    آیا فرد دیگری هم از این الگوی تکراری
    به ستوه آمده؟ (یا فقط من هستم؟)
  • 12:36 - 12:40
    (تشویق)
  • 12:40 - 12:46
    بنابراین ما به روش جامعتری
    برای حفاظت از کامیابی،
  • 12:46 - 12:47
    حریم خصوصی
  • 12:47 - 12:49
    و زندگیمان نیاز داریم.
  • 12:49 - 12:52
    خب چطور همه این کارها را بکنیم؟
  • 12:52 - 12:54
    خُب، وقتی که بدن
    در حال مبارزه با پاتوژنها است،
  • 12:54 - 12:57
    آنها از سیستمهای ایمنیِ
    هوشمندانهای استفاده میکنند،
  • 12:57 - 12:59
    که بسیار پیچیده و چند لایه هستند.
  • 12:59 - 13:02
    چرا یکی از اینها را برای
    همه زیستبوم لعنتی درست نکنیم؟
  • 13:02 - 13:06
    یک سال از گفتگوهای TED را میتوان
    به این اولین لایه بحرانی اختصاص داد.
  • 13:06 - 13:09
    پس اینها فقط چند ایده از آن همه
    ایده بزرگ در این زمینه است.
  • 13:09 - 13:11
    برخی از نیروهای تحقیق و توسعه
  • 13:11 - 13:16
    میتوانند عوامل پاتوژن های اولیه را
    که اکنون داریم را گرفته
  • 13:16 - 13:19
    و بر روی شیب تند نمودار
    نرخ عملکرد قرار دهند
  • 13:19 - 13:21
    تا به سرعت، هوشمند
  • 13:21 - 13:22
    و شبکهای شده
  • 13:22 - 13:27
    و به تدریج همچون شناساگرهای دود
    و حتی گوشیهای هوشمند گسترش پیدا کنند.
  • 13:27 - 13:29
    یک نکته بسیار مرتبط:
  • 13:29 - 13:31
    واکسنها، انواع مشکلات را دارند
  • 13:31 - 13:35
    وقتی نوبت به تولید و توزیع میرسد،
  • 13:35 - 13:39
    و زمانی که ساخته میشوند، نمیتوانند
    با تهدیدات یا تحولات جدید سازگار شوند.
  • 13:39 - 13:42
    ما به یک بسترِ عملآوری زیستیِ
    فرز و چابک نیازمندیم
  • 13:42 - 13:46
    که به تکتک داروخانهها و
    حتی خانههای ما گسترش یابد.
  • 13:46 - 13:50
    فناوری چاپگر برای
    واکسنها و داروها در دسترس است
  • 13:50 - 13:52
    اگر آن را اولویتبندی کنیم.
  • 13:52 - 13:54
    سپس سلامت روانی.
  • 13:54 - 13:57
    بسیاری از افرادی که مرتکبِ
    کشتار جمعی انتحاری میشوند،
  • 13:57 - 14:01
    از فلجشدگی و استرس مقابل درمان و یا
    از اختلال استرس پس از سانحه رنج میبرند.
  • 14:01 - 14:05
    ما به پژوهشگران شریفی مانند ریک دابلین
    نیاز داریم، که روی این موضوع کار کند،
  • 14:05 - 14:09
    اما همچنان به آشغالهای خودخواه هم
    نیازمندیم که شمارِ بیشتری از افراد هستند
  • 14:09 - 14:15
    برای درک این واقعیت که بلای بدی
    به زودی دامن همه ما را خواهد گرفت،
  • 14:15 - 14:17
    نه فقط به آنهایی که
    گرفتار شدهاند.
  • 14:17 - 14:20
    سپس آن آشغالها به ما و آل کاپون
  • 14:21 - 14:23
    در مبارزه علیه این وضعیت
    به ما ملحق میشوند.
  • 14:23 - 14:29
    سوم این که، هرکدام از ما
    میتواند و باید یک گلبول سفید
  • 14:29 - 14:31
    در این سیستم ایمنی باشد.
  • 14:31 - 14:35
    قاتلان انتحاری ممکن است منفور باشند، بله،
  • 14:35 - 14:38
    اما آنها هم آدمهای بسیار
    دلشکسته و غمگینی هستند،
  • 14:38 - 14:41
    و کسانی از ما که اینطور نیستند
    لازم است حداکثر تلاش خود را بکنند
  • 14:41 - 14:44
    که مطمئن شوند کسی حس
    غیردوستداشتنی بودن نکند.
  • 14:45 - 14:49
    (تشویق)
  • 14:50 - 14:52
    سپس، ما باید مبارزه با این خطرات را به
  • 14:52 - 14:55
    به هسته و بطن اصول زیستشناسیِ
    مصنوعی (بایوسین) تبدیل کنیم.
  • 14:55 - 14:57
    شرکتهایی وجود دارند
    که حداقل ادعا میکنند که
  • 14:57 - 15:00
    به مهندسان خود اجازه میدهند ۲۰
    درصد زمان خود را
  • 15:00 - 15:02
    صرف انجام هر کاری که
    میخواهند انجام دهند.
  • 15:02 - 15:04
    چه میشود اگر کسانی که
    مهندسین زیستی را استخدام میکنند
  • 15:04 - 15:06
    به آنها اجازه دهند
  • 15:06 - 15:10
    ۲۰ درصد از وقتشان را
    صرف دفاع از منافع مشترک کنند؟
  • 15:11 - 15:12
    فکر بدی نیست، مگرنه؟
  • 15:12 - 15:14
    ( تشویق)
  • 15:14 - 15:17
    و سرانجام: این قضیه اصلا جالب نخواهد بود.
  • 15:17 - 15:21
    اما باید بگذاریم ذهن ما
    به جاهای خیلی خیلی تاریک برود،
  • 15:21 - 15:24
    و متشکرم که اجازه دادید
    امشب شما را به آنجا ببرم.
  • 15:24 - 15:26
    ما از جنگ سرد جان سالم به در بردیم،
  • 15:26 - 15:31
    زیرا هر یک از ما خطر را
    درک کرده و به آن احترام گذاشتیم،
  • 15:31 - 15:33
    به این دلیل که ما دهها سال
  • 15:33 - 15:36
    صرف گفتن داستانهای ترسناک اشباح
  • 15:36 - 15:38
    مانند «دکتر استرنجلاو»
  • 15:38 - 15:39
    و «بازیهای جنگی»، کرده بودیم.
  • 15:39 - 15:42
    دیگر فرصتی برای آرام ماندن نیست.
  • 15:42 - 15:45
    این یکی از معدود زمانهایی بوده که
    به طور باورنکردنی
  • 15:45 - 15:47
    برای ترساندن و ایجاد وحشت
    کارساز بوده است --
  • 15:48 - 15:50
    (خنده حاضرین)
  • 15:50 - 15:52
    که با چند داستان اشباح بیایند
  • 15:52 - 15:57
    و از ترسِ ما به عنوان سوخت
    برای مقابله با این خطر استفاده کنند.
  • 15:58 - 16:02
    چون، تمام این سناریوهای وحشتناک
    که تصویر کردهام --
  • 16:02 - 16:04
    فرجامِ کار نیستند.
  • 16:04 - 16:06
    آنها اختیاری هستند.
  • 16:06 - 16:10
    خطر هنوز به نحوی از ما فاصله دارد.
  • 16:10 - 16:13
    و این یعنی که
  • 16:13 - 16:15
    اگر فقط اجازه دهیم
    برای ما هم اتفاق میافتد.
  • 16:16 - 16:17
    بیایید اجازه ندهیم!
  • 16:17 - 16:19
    بسیار متشکرم که گوش فرادادید.
  • 16:19 - 16:23
    (تشویق)
Title:
چگونه «زیست‌شناسیِ مصنوعی» می تواند بشریت را نابود کند - و چگونه می توانیم آن را متوقف کنیم
Speaker:
راب رِید
Description:

وعده تغییر جهان با «زیست‌شناسیِ مصنوعی» و «اصلاح ژن»، هنوز هم جنبه‌ای منفی دارد. در این سخنرانی دوراندیشانه، نویسنده و کارآفرین «راب رِید» خطرات جهانی را مورد بررسی قرار می‌دهد که در آن افراد بیشتر و بیشتری به ابزارها و فناوری مورد نیاز برای ایجاد یک ویروس دیگر که ممکن است بشریت را از بین ببرد، دسترسی دارند - و پیشنهاد می‌کند که زمان آن رسیده‌است که این خطر را جدی بگیریم.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:36

Persian subtitles

Revisions