YouTube

Got a YouTube account?

New: enable viewer-created translations and captions on your YouTube channel!

Persian subtitles

چگونه «زیست‌شناسیِ مصنوعی» می تواند بشریت را نابود کند - و چگونه می توانیم آن را متوقف کنیم

Get Embed Code
25 Languages

Showing Revision 49 created 10/01/2019 by Leila Ataei.

  1. جمعیت ما حدود هفتونیم میلیارد نفر است.
  2. سازمان بهداشت جهانی میگوید
    ۳۰۰ میلیون نفر از ما افسردهاند،
  3. و سالانه حدود ۸۰۰،۰۰۰ نفر
    با خودکش میمیرند.
  4. زیرمجموعه کوچکی از آنها
    مسیری کاملا پوچگرایانه انتخاب میکنند،
  5. که مردن در قالب امکان عمل کشتن تعداد زیادی
    از افراد است.
  6. اینها چندین نمونهٔ مشهور اخیر هستند.
  7. و این هم نمونه کمشهرتتری
    که نُه هفته پیش رخ داد.
  8. اگر آن را به خاطر نمیآورید،
  9. به این دلیل که نمونههای بسیاری
    از این دست در جریان است.
  10. ویکیپدیا فقط در سال گذشته
    ۳۲۳ تیراندازی دستهجمعی
  11. در کشور موطن من، ایالات متحده برشمرده است.
  12. همه آن تیراندازها انتحاری نبودند،
  13. همه آنها آمار تلفاتشان آنقدر وخیم نبود،
  14. اما تعدادشان بسیار بسیار زیاد بود.
  15. سوالی اینجا مهم میشود که:
    چه محدودیتهایی برای این افراد وجود دارد؟

  16. مثلا تیراندازِ وگاس
    را در نظر بگیرید.
  17. او ۵۸ نفر را کشت.
  18. آیا به اینخاطر که بهقدرِ
    کافی کشته بود متوقف شد؟
  19. نه، این را میدانیم چون او شلیک کرد
    و ۴۲۲ نفر دیگر را زخمی کرد.
  20. کسانی که به یقین ترجیح میداد بکشد.
  21. دلیلی نداریم که فکر کنیم روی
    ۴,۲۰۰ اُمین نفر متوقف میشد.
  22. درواقع، با چنین افراد پوچگرایی،
    شاید او از کشتن همه ما خشنود میشد.
  23. ما نمیدانیم!
  24. چیزی که میدانیم این است که:
  25. هنگامی که قاتلان انتحاری واقعا همه زندگی
    خود را صرف این آرمان میکنند،
  26. فناوری، نیروی فزایندهای است.
  27. این هم نمونهای دیگر.

  28. چندین سال پیش، موجی با بیش از
    ۱۰ حمله به مدرسه در چین رخ داد
  29. که با چیزهایی مانند چاقو و چکش
    و پتک انجام شدهاند،
  30. چون رساندن سلاح به
    چنین جاهایی سخت است.
  31. همزمان با این ماجرا ، این حمله آخر
  32. فقط چند ساعت قبل از کشتار در
    نیوتاون، کنِتیکت به وقوع پیوست.
  33. اما آن حمله در آمریکا
    تقریبا همان تعداد قربانی را داشت
  34. که مجموع ۱۰ حمله در چین داشت.
  35. پس منصفانه میتوانیم بگوییم،
    چاقو: وحشتناک است؛ تفنگ: از این هم بدتر.
  36. و هواپیما: بسیار بدتر از آن،
  37. مثل خلبان آندریاس لوبیتز،
    زمانی که ۱۴۹ نفر را
  38. وادار به پیوستن به او در انتحارش با کوبیدن
  39. هواپیما به کوههای آلپ فرانسه کرد.
  40. و مثالهای دیگری از این دست هست.

  41. و متاسفانه سلاحهای کشنده خیلی بیشتری در
    آینده نزدیک ، نسبت به هواپیماها وجود دارد
  42. که از فلز ساخته نشدهاند.
  43. پس اجازه دهید پویاییهای آخرالزمانی را
    در نظر بگیریم که درپی خواهند بود
  44. اگر وسایل کشتار جمعی انتحاری
    از پیشرفت سریع زمینههایی استفاده کنند
  45. که بیشتر اوقات به علت وعدههای بیپایانی
    که برای جامعه داشته است، رخ میدهد.
  46. جایی در این دنیا،
    گروه کوچکی از افرادی هستند
  47. که تلاش میکنند، هرچند بیهیچ مناسبتی،
  48. ما را بکشند، فقط اگر
    بتوانند دریابند چه طوری.
  49. شاید تیرانداز وگاس یکی از آنها باشد،
    شاید هم نه،
  50. اما با هفتونیم میلیارد نفر از ما،
  51. تعداد این قبیل افراد مسلما صفر نیست.
  52. افراد پوچگرایِ متمایل به خودکشی
    بسیار زیادی وجود دارند.
  53. پیشتر آنها را دیدهایم.
  54. افرادی هستند که اختلالات خُلقی شدیدی دارند
    که حتی نمیتوانند آن را کنترل کنند.
  55. افرادی هستند که فقط متحمل صدمات روحی
    و غیره و غیره شدهاند.
  56. به عنوان جمعبندی،
  57. اندازه آن همواره تا زمان جنگ سرد، هیچ بود،
  58. تا زمانی که ناگهان، رهبران دو اتحاد جهانی
  59. به توانایی منفجر کردن دنیا دست یافتند.
  60. از آن به بعد شمارِ افرادی که بتوانند
    کار دنیا و کره زمین را تمام کنند

  61. تا حد زیادی پایدار مانده است.
  62. اما نگرانی من از
    زیاد شدن این تعداد است،
  63. و نه فقط تا سه تا.
  64. قراراست از نمودار بیرون بزند.
  65. یعنی قرار است یک
    برنامه کسبوکارفناوری بشود.
  66. (خنده حاضرین)

  67. و علتش هم این است که،

  68. ما در عصر رشدِ سریع فناوریهایی هستیم،
  69. که به طور معمول
    غیرممکنهای بیپایانی را
  70. به قدرتهای فرابشری واقعی
    برای یک یا دو نابغه زنده، بدل میکند
  71. و-- این بخش مهمی است --
  72. سپس این قدرت را
    تا حد امکان به همه تسری میدهد.
  73. حال، این یک مثال خوب است.

  74. اگر مثلا میخواستید با یک رایانه در سال
    ۱۹۵۲چکرز(نوعی بازی تختهای) بازی کنید،
  75. واقعا باید این آقا میبودید،
    (آرتور ساموئل از پیشگامان هوش مصنوعی)
  76. بعد یکی از ۱۹ نسخه رایانه موجود دنیا
    را در اختیار میگرفتید،
  77. و بعد از مغز فوق برترتان برای
    آموزش چِکِرز به رایانه استفاده میکردید.
  78. معضلی بود!
  79. امروزه، شما فقط باید کسی را بشناسید که
    کسی را میشناسد که فقط یک تلفن داشته باشد،
  80. چون فناوری محاسبات بسیارپرسرعت است.
  81. پس «زیستشناسی مصنوعی»

  82. که حالا از مخفف آن «سینبایو»
    استفاده میکنم.
  83. در سال ۲۰۱۱، تعدادی پژوهشگر
    کاری را انجام دادند،
  84. به همان اندازه هوشمندانه
    و غیرممکن مثل حقه چکرز،
  85. با آنفلوآنزای H5N1.
  86. این گونهای (بیماری) است که تا
    ۶۰ درصد افراد مبتلا را میکشد،
  87. بیش از ابولا.
  88. اما به قدری غیر مسرى است
  89. که از سال ۲۰۱۵
    کمتر از ۵۰ نفر کشته است.
  90. پس این پژوهشگران ژنوم H۵N۱ را اصلاح کردند
  91. و آن را به شکلی مرگبار،
    اما به شدت مسری، ساختند.
  92. بخش اخبار یکی از دو نشریه علمی برتر جهان
  93. گفت که اگر این موضوع رخ دهد
    احتمالا موجب یک بیماری همهگیر
  94. با احتمال مرگومیر میلیونها نفرخواهد شد.
  95. و دکتر پاول کایم گفت:
  96. او نمیتوانست به ارگانیسم زندهای
    به این ترسناکی فکر کند،
  97. که آخرین چیزی است که شخصا میخواهم
  98. از رئیس هیئت مشاوره علمی ملی
    در مورد امنیت بیولوژیک بشنوم.
  99. و همچنین دکتر کایم این را هم گفت --
  100. [ من فکر نمیکنم که
    سیاهزخم اصلا ترسناک باشد.]

  101. او هم یکی از این افراد است.

  102. [ متخصص سیاهزخم ] (خنده)

  103. اکنون، خبر خوب در مورد
    هک زیستی ۲۰۱۱

  104. این است که افرادی که این کار را کردند
    به ما هیچ آسیبی نمیزنند.
  105. آنها ویروسشناس هستند.
  106. آنها بر این باور بودند که
    در حال توسعه علم هستند.
  107. خبر بد این است که فناوری
    یکجا متوقف نمی شود،
  108. و در چند دهه آینده،
  109. شاهکار آنها به طور جزیی
    بسیار آسان خواهد شد.
  110. درواقع، همین الان هم آسانتر است،
    چون همانطور که دیروز صبح آموختیم،
  111. تنها دو سال پس از کار آنها،
  112. سیستم «کریسپِر» برای اصلاح ژنوم تهیه شد.
  113. پیشرفت اساسی بود
  114. که اصلاح ژن را
    به طور چشمگیری آسانتر کرد --
  115. به قدری آسان است که هماکنون
    کریسپِر دردبیرستانها تدریس میشود.
  116. و این چیزها سریعتر
    از محاسبات آغاز به عمل میکنند.
  117. آن خط سفید کُند،
    با شیب کم آن بالا را میبینید؟
  118. آن قانون مور است.
  119. آن به ما نشان میدهد که هرچقدر محاسبات
    سریعتر باشند، ارزانتر هم میشوند.
  120. آن خط کج و کوله- مضحک سبز،
  121. که به ما نشان میدهد که چطور
    تعیین توالی ژنتیکی، سریع ارزانتر میشود.
  122. اکنون اصلاح ژن و سنتز و تعیین توالی آنها،
  123. آنها رشتههای متفاوتی هستند،
    اما به شدت به هم مرتبط هستند.
  124. و همه آنها با همین
    سرعت شتابان حرکت میکنند.
  125. و کلیدهای این قلمرو پادشاهی
    همین فایل دادههای بسیار کوچک هستند.
  126. این گلچینی از ژنوم H۵N۱ است.
  127. همه آن میتواند روی چند صفحه جا شود.
  128. و بله، نگران نباشید، شما میتوانید این را
    به محض رسیدن به خانه جستجو کنید.
  129. همهچیز در اینترنت هست، درسته؟
  130. و قسمتی که آن را مسری ساخته
  131. میتوانست به راحتی
    روی یادداشت یک پست باشد.
  132. و هنگامی که نابغهای
    یک فایل داده ایجاد میکند،
  133. هر احمقی میتواند آن را کپی کند،
  134. آنرا در سراسر جهان پخش کند
  135. یا آن را چاپ کند.
  136. و فقط منظورم این نیست که
    روی این (کاغذ) چاپ کرده باشد،
  137. اما به زودی، کپی روی این (DNA)
    را هم خواهیم داشت.
  138. خب حالا بیایید سناریویی را تصور کنیم.

  139. بیایید بگوییم در ۲۰۶۰،
    همینطوری یک سال اتفاقی انتخاب کنیم،
  140. یک ویروسشناس برجسجه که امیدوار است
    به پیشرفت علم
  141. و درک بهتر از بیماریهای فراگیرکمک کند،
  142. ویروس جدیدی طراحی کند.
  143. مثل آبله مرغان مسری باشد،
  144. مثل ابولا کشنده باشد،
  145. و ماهها و ماهها طول بکشد
    تا بیماری بروز کند،
  146. بنابراین تمام دنیا میتوانند
    پیش از اولین نشانه دردسر آلوده شوند.
  147. سپس دانشگاهاش هک شود.
  148. و البته،
    این داستان علمیتخیلی نیست.
  149. درواقع، یکی از کیفرخواستهای
    اخیر در ایالاتمتحده،
  150. هک کردن بیش از ۳۰۰
    دانشگاه به اثبات رسانده است.
  151. پس این فایل با ویروس ژنوم روی آن
    در گوشههای تاریک اینترنت پخش میشود.
  152. و هنگامی که فایلی در آنجا باشد،
    هرگز بر نمیگردد --
  153. فقط ازکسی که یک استودیوی فیلم یا
    ضبط موسیقی را اداره میکند بپرسید.
  154. پس شاید در سال ۲۰۲۶،
  155. این کارِ یک نابغه واقعی مثل ویروسشناس ما
  156. برای ساختن موجود زنده واقعی باشد،
  157. اما ۱۵ سال بعد،
  158. ممکن است تنها یک چاپگر DNA باشد
    که بتوانید در هر دبیرستان پیدا کنید.
  159. و اگرهم نه؟
  160. دو دهه وقت بدهید.
  161. خُب، یک حاشیه سریع:

  162. اینجا این اسلاید را به خاطر دارید؟
  163. به این دو کلمه توجه کنید.
  164. اگر فقط کسی آن را امتحان کند
    و فقط ۰.۱ درصد موثر باشد،
  165. ۸ میلیون نفر میمیرند.
  166. همان داستان ۲,۵۰۰ نفر تلفات ۱۱ سپتامبر.
  167. تمدن جان سالم به در خواهد برد،
  168. اما برای همیشه از ریخت میافتد.
  169. پس این بدان معنی است
    که ما باید نگران همگان باشیم
  170. حتی ضعیفترینها،
  171. و نه فقط نوابغ.
  172. خب، امروزه تعداد کمی از نوابغ هستند
  173. که احتمالا بتوانند یک ویروسِ
    نابودکننده آخرالزمانی بسازند
  174. که ۰.۱ درصد و شاید حتی کمی بیشتر
    موثر باشد.
  175. آنها تمایل دارند پایدار و موفق
    باشند تا بخشی از این گروه نباشند.
  176. پس فکر کنم به نوعی
    تقریبا با این قضیه مشکل دارم.
  177. اما پس از این که فناوری بهتر شود
  178. و گسترده شود
  179. و هزاران دانشجوی فارغالتحصیلِ
    دانش زیستی به آن دست پیدا کنند چه؟
  180. آیا تکتک آنها کاملا
    از نظر روانی پایدار هستند؟
  181. چند سال پس از آن چطور،
  182. وقتی که همه دانشجویان پزشکی دچار استرس
    کاملا آماده به کار شود؟
  183. در برخی نقاطِ این چارچوب زمانی،
  184. این دایرها باهم برخورد میکنند،
  185. چون ما اکنون شروع به صحبت
    در مورد صدها هزار نفر
  186. از مردم سرتاسر دنیا کردهایم.
  187. که شامل فردی که اخیرا
    مثل جوکر لباس بر تن کرده
  188. و ۱۲ نفر را در نمایش «بتمن»
    به قتل رسانده نیز میشود.
  189. او یک دانشجوی دکترای عصبشناسی
  190. با بورسیه موسسه ملی بهداشت بود.
  191. خب، موضوع پیچیده شد:

  192. فکرکنم واقعا بتوانیم از این یکی جان سالم
    به دربریم، اگر از حالا روی آن تمرکز کنیم.
  193. و این را با صرف ساعات بیشمار
  194. با مصاحبه کردن با رهبران جهانی در سینبایو
  195. و همچنین پژوهش درباره کارهای علمی آنها
    برای پادکست های علمی که میسازم، میگویم.
  196. از ترس کار آنها اینجا آمدهام،
    در صورتی که هنوز به جایی هم نرسیدهاند --
  197. (خنده حضار)

  198. اما بیش از آن،
    به پتانسیل آن احترام میگذارم.

  199. این چیزها سرطان را درمان میکنند،
    محیط ما را التیام میبخشد
  200. و رفتار بیرحمانه ما
    با موجودات دیگر را متوقف میکند.
  201. پس چطورهمه اینها را بدون اینکه خودمان
    را نابود کنیم، بهدست آوریم؟
  202. اول اینکه، چه باب میلتان باشد یا خیر،
    سینبایو(زیستشناسی مصنوعی) اینجاست،

  203. پس بیایید فناوری را بپذیریم.
  204. اگرما فناوری را قدغن کنیم،
  205. فقط این چرخه را
    به دست بازیگران بد میاندازد.
  206. برخلاف برنامههای هستهای،
  207. زیستشناسی را میتوان
    به طور نامرئی اقدام و تمرین کرد.
  208. تقلب گسترده شوروی در
    معاهدات سلاحهای زیستی
  209. آن را آشکار کرد، همانطور که آزمایشگاههای
    غیرقانونی مواد مخدر در جهان عمل میکنند.
  210. دوم اینکه، از متخصصان کمک بخواهیم.

  211. آنها را وارد قضیه کنیم و تعدادِ
    بیشتری از آنها داشته باشیم.
  212. برای هر یک میلیون نفر
    یک مهندس زیستی داریم،
  213. حداقل یک میلیون از آنها
    طرفِ ما خواهند بود.
  214. منظورم این است که با همین یک نفر
    ال کاپون، طرفِ ماست.
  215. فقط درصد وجود یک آدم مناسب
    قدری کم است.
  216. و مزایای کلانِ شمارشی
    اهمیت دارد وموثراست،
  217. حتی زمانی که تنها یک فرد بد
    بتواند آسیبهای جدی وارد کند،
  218. چون در میان چیزهای دیگر،
  219. آنها اجازه میدهند که ما از این جهنمی
    که هست بهره بریم و از این وضع خارج شویم:
  220. ما سالها و خوشبختانه دههها وقت
    برای آماده کردن خود و جلوگیری از آن داریم.
  221. اولین کسی که چیز وحشتناکی را امتحان کند --
    و کسی بالاخره یکنفر خواهد بود --
  222. ممکن است حتی هنوز متولد نشده باشد.
  223. سپس، این باید تلاشی باشد
    که جامعه را گسترش میدهد،

  224. و همه شما باید بخشی از آن باشید،
  225. چرا که ما نمیتوانیم
    از یک گروه کوچک از متخصصان
  226. بخواهیم که مسئول هر دو سوی دستاندرکار
    و بهرهبردار زیستشناسی مصنوعی باشند.
  227. به این دلیل که ما قبلا این کار را
    با سیستم مالی انجام دادیم،
  228. و کارگزاران ما به شدت فاسد شدند
  229. و آنها دریافتند که چطور
    میتوانند از گوشههای آن بزنند،
  230. خطرات بزرگ و عظیمی
    را به بقیه ما تحمیل کنند،
  231. و سود را خصوصی کنند،
  232. آنها ثروتمند شدند
  233. در حالی که ما را با صورتحساب
    ۲۲ تریلیون دلاری درگیر کردند.
  234. و اخیرا هم بیشتر --

  235. (تشویق)

  236. آیا همانهایی هستید که
    تقدیرنامهها را گرفتهاید؟

  237. من که هنوز منتظرِ مال خودم هستم.
  238. فقط فکر کردم شاید برای سپاسگزاری
    خیلی سرشان شلوغ بوده است.
  239. و اخیرا هم بسیار بیشتر

  240. مساله حریم خصوصی آنلاین
    به عنوان موضوع برجستهء عظیمی شروع شد،
  241. و ما کلا آن را برونسپاری کردیم.
  242. و یک بار دیگر:
  243. دستاوردهای خصوصی، زیانهای اجتماعی.
  244. آیا فرد دیگری هم از این الگوی تکراری
    به ستوه آمده؟ (یا فقط من هستم؟)
  245. (تشویق)

  246. بنابراین ما به روش جامعتری
    برای حفاظت از کامیابی،

  247. حریم خصوصی
  248. و زندگیمان نیاز داریم.
  249. خب چطور همه این کارها را بکنیم؟
  250. خُب، وقتی که بدن
    در حال مبارزه با پاتوژنها است،

  251. آنها از سیستمهای ایمنیِ
    هوشمندانهای استفاده میکنند،
  252. که بسیار پیچیده و چند لایه هستند.
  253. چرا یکی از اینها را برای
    همه زیستبوم لعنتی درست نکنیم؟
  254. یک سال از گفتگوهای TED را میتوان
    به این اولین لایه بحرانی اختصاص داد.
  255. پس اینها فقط چند ایده از آن همه
    ایده بزرگ در این زمینه است.
  256. برخی از نیروهای تحقیق و توسعه

  257. میتوانند عوامل پاتوژن های اولیه را
    که اکنون داریم را گرفته
  258. و بر روی شیب تند نمودار
    نرخ عملکرد قرار دهند
  259. تا به سرعت، هوشمند
  260. و شبکهای شده
  261. و به تدریج همچون شناساگرهای دود
    و حتی گوشیهای هوشمند گسترش پیدا کنند.
  262. یک نکته بسیار مرتبط:
  263. واکسنها، انواع مشکلات را دارند
  264. وقتی نوبت به تولید و توزیع میرسد،
  265. و زمانی که ساخته میشوند، نمیتوانند
    با تهدیدات یا تحولات جدید سازگار شوند.
  266. ما به یک بسترِ عملآوری زیستیِ
    فرز و چابک نیازمندیم
  267. که به تکتک داروخانهها و
    حتی خانههای ما گسترش یابد.
  268. فناوری چاپگر برای
    واکسنها و داروها در دسترس است
  269. اگر آن را اولویتبندی کنیم.
  270. سپس سلامت روانی.

  271. بسیاری از افرادی که مرتکبِ
    کشتار جمعی انتحاری میشوند،
  272. از فلجشدگی و استرس مقابل درمان و یا
    از اختلال استرس پس از سانحه رنج میبرند.
  273. ما به پژوهشگران شریفی مانند ریک دابلین
    نیاز داریم، که روی این موضوع کار کند،
  274. اما همچنان به آشغالهای خودخواه هم
    نیازمندیم که شمارِ بیشتری از افراد هستند
  275. برای درک این واقعیت که بلای بدی
    به زودی دامن همه ما را خواهد گرفت،
  276. نه فقط به آنهایی که
    گرفتار شدهاند.
  277. سپس آن آشغالها به ما و آل کاپون
  278. در مبارزه علیه این وضعیت
    به ما ملحق میشوند.
  279. سوم این که، هرکدام از ما
    میتواند و باید یک گلبول سفید
  280. در این سیستم ایمنی باشد.
  281. قاتلان انتحاری ممکن است منفور باشند، بله،
  282. اما آنها هم آدمهای بسیار
    دلشکسته و غمگینی هستند،
  283. و کسانی از ما که اینطور نیستند
    لازم است حداکثر تلاش خود را بکنند
  284. که مطمئن شوند کسی حس
    غیردوستداشتنی بودن نکند.
  285. (تشویق)

  286. سپس، ما باید مبارزه با این خطرات را به

  287. به هسته و بطن اصول زیستشناسیِ
    مصنوعی (بایوسین) تبدیل کنیم.
  288. شرکتهایی وجود دارند
    که حداقل ادعا میکنند که
  289. به مهندسان خود اجازه میدهند ۲۰
    درصد زمان خود را
  290. صرف انجام هر کاری که
    میخواهند انجام دهند.
  291. چه میشود اگر کسانی که
    مهندسین زیستی را استخدام میکنند
  292. به آنها اجازه دهند
  293. ۲۰ درصد از وقتشان را
    صرف دفاع از منافع مشترک کنند؟
  294. فکر بدی نیست، مگرنه؟
  295. ( تشویق)

  296. و سرانجام: این قضیه اصلا جالب نخواهد بود.

  297. اما باید بگذاریم ذهن ما
    به جاهای خیلی خیلی تاریک برود،
  298. و متشکرم که اجازه دادید
    امشب شما را به آنجا ببرم.
  299. ما از جنگ سرد جان سالم به در بردیم،
  300. زیرا هر یک از ما خطر را
    درک کرده و به آن احترام گذاشتیم،
  301. به این دلیل که ما دهها سال
  302. صرف گفتن داستانهای ترسناک اشباح
  303. مانند «دکتر استرنجلاو»
  304. و «بازیهای جنگی»، کرده بودیم.
  305. دیگر فرصتی برای آرام ماندن نیست.
  306. این یکی از معدود زمانهایی بوده که
    به طور باورنکردنی
  307. برای ترساندن و ایجاد وحشت
    کارساز بوده است --
  308. (خنده حاضرین)

  309. که با چند داستان اشباح بیایند

  310. و از ترسِ ما به عنوان سوخت
    برای مقابله با این خطر استفاده کنند.
  311. چون، تمام این سناریوهای وحشتناک
    که تصویر کردهام --

  312. فرجامِ کار نیستند.
  313. آنها اختیاری هستند.
  314. خطر هنوز به نحوی از ما فاصله دارد.
  315. و این یعنی که
  316. اگر فقط اجازه دهیم
    برای ما هم اتفاق میافتد.
  317. بیایید اجازه ندهیم!

  318. بسیار متشکرم که گوش فرادادید.

  319. (تشویق)