1 00:00:00,960 --> 00:00:03,936 این داستان در سال ۱۹۸۵ آغاز می شود، 2 00:00:03,960 --> 00:00:05,936 وقتی که در ۲۲ سالگی، 3 00:00:05,960 --> 00:00:08,336 قهرمان شطرنج جهان شدم، 4 00:00:08,360 --> 00:00:11,560 بعد از این که آناتولی کارپوو را شکست دادم. 5 00:00:12,480 --> 00:00:13,736 پیشتر در همان سال، 6 00:00:13,760 --> 00:00:17,376 یک تنه در مسابقه دسته جمعی همزمان 7 00:00:17,400 --> 00:00:21,696 در مقابل ۳۲ تا از پیچیده ترین کامپیوترهای شطرنج باز جهان بازی کردم 8 00:00:21,720 --> 00:00:23,080 در هامبورگ، آلمان، 9 00:00:24,160 --> 00:00:25,360 و همه آنها را بردم، 10 00:00:26,560 --> 00:00:29,736 ولی آن زمان کسی تعجب نکرد از این که 11 00:00:29,760 --> 00:00:33,800 من توانستم همزمان ۳۲ کامپیوتر را ببرم. 12 00:00:34,480 --> 00:00:37,056 برای من، آن زمان عصر عطلایی بود. 13 00:00:37,080 --> 00:00:39,176 (خنده حاضران) 14 00:00:39,200 --> 00:00:40,720 کامیپوترها ضعیف بودند، 15 00:00:41,680 --> 00:00:43,016 و موهای من پرپشت بود. 16 00:00:43,040 --> 00:00:45,240 (خنده حاضران) 17 00:00:46,720 --> 00:00:48,776 فقط ۱۲ سال بعد، 18 00:00:48,800 --> 00:00:53,416 در مقابل تنها یک کامپیوتر برای زندگی ام مبارزه می کردم 19 00:00:53,440 --> 00:00:54,640 در یک مسابقه 20 00:00:55,360 --> 00:00:57,416 که مجله نیوزویک اسمش را گذاشت 21 00:00:57,440 --> 00:00:59,216 «آخرین مقاومت مغز.» 22 00:00:59,240 --> 00:01:00,456 بدون هیچ فشاری. 23 00:01:00,480 --> 00:01:02,000 (خنده حاضران) 24 00:01:03,040 --> 00:01:05,616 از اسطوره شناسی تا داستان های علمی تخیلی، 25 00:01:05,640 --> 00:01:08,376 انسان در مقابل ماشین 26 00:01:08,400 --> 00:01:11,160 اغلب به عنوان مسئله مرگ و زندگی تصویر شده است. 27 00:01:11,960 --> 00:01:13,536 جان هنری، 28 00:01:13,560 --> 00:01:15,256 موسوم به مرد کوه کن 29 00:01:15,280 --> 00:01:19,056 در افسانه فولک آفریقایی-آمریکایی قرن ۱۹ 30 00:01:19,080 --> 00:01:20,456 در یک مسابقه شرکت داده شد 31 00:01:20,480 --> 00:01:23,216 در مقابل یک چکش که با نیروی بخار کار می کرد 32 00:01:23,240 --> 00:01:25,600 تا تونلی در یک کوه صخره ای بکنند. 33 00:01:26,800 --> 00:01:31,000 افسانه جان هنری بخشی از یک روایت تاریخی طولانی است 34 00:01:31,680 --> 00:01:34,760 که بشریت و تکنولوژی را به مصاف می کشد. 35 00:01:36,200 --> 00:01:39,080 و این اندیشه حریف طلب اکنون استاندارد است. 36 00:01:39,560 --> 00:01:41,520 ما در مسابقه در مقابل ماشین آلات به سر می بریم. 37 00:01:42,360 --> 00:01:44,440 در نبرد یا حتی در جنگ. 38 00:01:45,880 --> 00:01:47,496 مشاغل را از بین می برند. 39 00:01:47,520 --> 00:01:51,080 افراد با ماشین جایگزین می شوند گویی که از روی کره زمین غیب شده اند. 40 00:01:52,240 --> 00:01:55,736 کافی است که فکر کنیم فیلم هایی چون «ترمیناتور» یا «متریکس» 41 00:01:55,760 --> 00:01:56,960 تخیلی نیستند. 42 00:01:59,640 --> 00:02:03,960 در چندین مورد انگشت شمار 43 00:02:05,360 --> 00:02:09,616 بدن انسان و مغز در موقعیتی برابر می تواند رقابت کند 44 00:02:09,639 --> 00:02:11,480 با یک کامپیوتر یا ربات. 45 00:02:12,280 --> 00:02:14,138 در واقع، ای کاش موارد بیشتری از این دست وجود داشت. 46 00:02:15,760 --> 00:02:16,960 در عوض، 47 00:02:17,840 --> 00:02:22,496 این از خوشبختی و یا بدشانسی من است 48 00:02:22,520 --> 00:02:25,216 که به معنای واقعی به ضرب المثلی تبدیل شوم 49 00:02:25,240 --> 00:02:28,336 که مصداق رقابت انسان و ماشین است 50 00:02:28,360 --> 00:02:30,240 که هنوز که هنوز است همه درباره اش حرف می زنند. 51 00:02:33,120 --> 00:02:38,136 در مشهورترین هماورد انسان-ماشین از زمان جان هنری به بعد، 52 00:02:38,160 --> 00:02:40,736 من در دو مسابقه شرکت کردم 53 00:02:40,760 --> 00:02:44,200 در مقابل ابرکامپیوتر آی.بی.ام ، به نام دیپ بلو. 54 00:02:47,040 --> 00:02:49,216 کسی یادش نیست که مسابقه اول را من بردم -- 55 00:02:49,240 --> 00:02:51,576 (خنده حاضران) 56 00:02:51,600 --> 00:02:55,000 (تشویق حاضران) 57 00:02:55,920 --> 00:03:00,896 در فیلادلفیا، قبل از آن که سال بعد در بازی برگشت در نیویورک به کامپیوتر ببازم. 58 00:03:00,920 --> 00:03:02,680 اما گمان می کنم منصفانه باشد. 59 00:03:04,320 --> 00:03:09,416 در تاریخ هیچ روزی در تقویم به نام کسانی نشده که 60 00:03:09,440 --> 00:03:12,936 تلاش کردند اورست را فتح کنند و نتوانستند 61 00:03:12,960 --> 00:03:15,696 تا این که سر ادموند هیلاری و تنزینگ نورگای 62 00:03:15,720 --> 00:03:16,920 فتحش کردند. 63 00:03:17,960 --> 00:03:21,720 و در ۱۹۹۷، من همچنان قهرمان بودم 64 00:03:24,520 --> 00:03:28,720 تا وقتی که کامپیوترهای شطرنج بالاخره پیشرفته شدند. 65 00:03:29,520 --> 00:03:31,496 من کوه اورست بودم. 66 00:03:31,520 --> 00:03:33,120 و دیپ بلو به آن قله رسید. 67 00:03:34,600 --> 00:03:38,656 البته باید بگویم که این کار دیپ بلو نبود، 68 00:03:38,680 --> 00:03:40,816 بلکه کار خالقان آن بود -- 69 00:03:40,840 --> 00:03:44,176 آنانتارامان، کمپبل، هوآن، سو. 70 00:03:44,200 --> 00:03:45,400 به احترامشان کلاه از سر برمیدارم. 71 00:03:46,840 --> 00:03:51,256 مانند همیشه، پیروزی ماشین پیروزی انسان بود، 72 00:03:51,280 --> 00:03:56,040 همان چیزی که وقتی انسان توسط مخلوقات خودش مغلوب می شوداغلب یادمان می رود. 73 00:03:58,360 --> 00:03:59,800 دیپ بلو فاتح بود، 74 00:04:01,400 --> 00:04:02,600 اما آیا هوشمند هم بود؟ 75 00:04:03,360 --> 00:04:05,120 نه، نبود. 76 00:04:06,200 --> 00:04:11,256 دستکم نه به آن اندازه که الن تورینگ و دیگر خالقان علوم کامپیوتر 77 00:04:11,280 --> 00:04:12,480 امیدش را داشتند. 78 00:04:13,240 --> 00:04:18,016 معلوم شد که شطرنج می تواند توسط یک نیروی فاقد شعور درهم شکسته شود، 79 00:04:18,040 --> 00:04:22,296 وقتی که سخت افزار به اندازه کافی سریع 80 00:04:22,320 --> 00:04:25,280 و الگوریتم ها هوشمند شدند. 81 00:04:26,760 --> 00:04:30,456 هرچند از نظر تعریف محصول، 82 00:04:30,480 --> 00:04:33,696 شطرنج در سطح قهرمانی، 83 00:04:33,720 --> 00:04:35,000 دیپ بلو هوشمند بود. 84 00:04:37,320 --> 00:04:39,720 اما در آن سرعت مافوق تصور، 85 00:04:40,560 --> 00:04:43,760 ۲۰۰ میلیون پوزیشن در ثانیه، 86 00:04:45,360 --> 00:04:46,560 روش دیپ بلو 87 00:04:47,360 --> 00:04:53,960 نقش اندکی در روشنگری مطلوب از اسرار هوش انسان ارائه داد. 88 00:04:56,960 --> 00:04:58,776 به زودی، 89 00:04:58,800 --> 00:05:01,376 ماشین ها تاکسی می رانند 90 00:05:01,400 --> 00:05:03,816 و دکتر و پرفسور خواهند شد، 91 00:05:03,840 --> 00:05:06,440 اما آیا «هوشمند» هم خواهند بود؟ 92 00:05:07,840 --> 00:05:10,336 ترجیح می دهم این تعاریف را واگذار کنم 93 00:05:10,360 --> 00:05:13,920 برعهده فیلسوف ها و فرهنگ لغات. 94 00:05:15,440 --> 00:05:19,320 آنچه مهم است این است که ما انسان ها 95 00:05:20,320 --> 00:05:23,920 چه احساسی داریم درباره زندگی و کار با این کامپیوترها. 96 00:05:26,160 --> 00:05:31,416 اولین بار که در سال ۱۹۹۶ دیپ بلو را دیدم ، 97 00:05:31,440 --> 00:05:34,040 برای ده سال بود که قهرمان جهان بودم، 98 00:05:36,080 --> 00:05:40,096 و در ۱۸۲ مسابقه قهرمانی جهان بازی کرده بودم 99 00:05:40,120 --> 00:05:45,216 و در صدها مسابقه در مقابل دیگر شطرنج بازان در رقابت های دیگر داشتم. 100 00:05:45,240 --> 00:05:50,296 می دانستم که از حریفانم چه انتظاری باید داشته باشم 101 00:05:50,320 --> 00:05:52,000 و از خودم چه انتظاری داشته باشم. 102 00:05:52,680 --> 00:05:57,856 حرکات آنان را می سنجیدم 103 00:05:57,880 --> 00:06:01,496 و وضع روحی شان را محک می زدم 104 00:06:01,520 --> 00:06:05,360 ااز طریق نگاه کردن به زبان بدن و زل زدن به چشمانشان. 105 00:06:05,880 --> 00:06:09,880 بعد در مقابل صفحه شطرنج دیپ بلو نشستم. 106 00:06:12,960 --> 00:06:15,816 فورا چیزی جدید را حس کردم، 107 00:06:15,840 --> 00:06:17,160 چیزی که در جای خودش نبود. 108 00:06:19,440 --> 00:06:22,240 ممکن است همین حس به سراغتان بیاید 109 00:06:23,320 --> 00:06:25,856 در اولین باری که در یک اتومبیل بدون راننده هستید 110 00:06:25,880 --> 00:06:30,720 یا اولین باری که مدیر کامپیوتری شما در سر کار به شما دستور می دهد. 111 00:06:33,800 --> 00:06:36,920 ولی وقتی که سر اولین مسابقه نشستم، 112 00:06:38,080 --> 00:06:40,216 نمی دانستم 113 00:06:40,240 --> 00:06:43,920 که این ماشین چه قابلیتی دارد. 114 00:06:44,920 --> 00:06:48,080 تکنولوژی می تواند به سرعت پیشرفت کند، و آی.بی.ام در این راه سرمایه گذاری هنگفتی کرده بود. 115 00:06:48,680 --> 00:06:49,880 مسابقه را باختم. 116 00:06:52,320 --> 00:06:54,096 و از این فکر در نمی آمدم که 117 00:06:54,120 --> 00:06:55,680 که آیا این ماشین شکست ناپذیر است؟ 118 00:06:56,600 --> 00:06:58,960 آیا بازی محبوب من شطرنج، به پایان رسیده است؟ 119 00:07:00,800 --> 00:07:04,936 اینها همه شک های انسانی و ترس های انسانی بود، 120 00:07:04,960 --> 00:07:06,640 و تنها چیزی که درباره اش اطمینان داشتم 121 00:07:07,400 --> 00:07:10,296 این بود که حریفم دیپ بلو اصلا و ابدا چنین نگرانی هایی نداشت. 122 00:07:10,320 --> 00:07:12,080 (خنده حاضران) 123 00:07:13,920 --> 00:07:15,320 به مبارزه ادامه دادم 124 00:07:16,400 --> 00:07:18,080 بعد از این شکست ویران کننده 125 00:07:19,000 --> 00:07:20,200 و اولین دور مسابقه را ببرم، 126 00:07:20,960 --> 00:07:22,600 اما تقدیر از قبل تعیین شده بود. 127 00:07:24,400 --> 00:07:26,536 نهایتا مسابقه را به کامپیوتر باختم 128 00:07:26,560 --> 00:07:29,616 اما از سرنوشتی مشابه آنچه که برای جان هنری رخ داد رنج نکشیدم 129 00:07:29,640 --> 00:07:32,680 که برد اما با چکشش در دست جان باخت. 130 00:07:37,720 --> 00:07:40,256 اینطور از آب در آمد که جهان شطرنج 131 00:07:40,280 --> 00:07:43,520 هنوز می خواست قهرمان انسانی داشته باشد. 132 00:07:44,920 --> 00:07:46,600 و حتی امروز، 133 00:07:48,080 --> 00:07:51,536 که اپ مجانی شطرنج روی موبایل های مدل جدید 134 00:07:51,560 --> 00:07:53,576 از دیپ بلو قوی تر است، 135 00:07:53,600 --> 00:07:55,080 مردم کماکان شطرنج بازی می کنند، 136 00:07:56,680 --> 00:07:58,920 حتی بیشتر از قبل. 137 00:07:59,800 --> 00:08:03,016 بدبین ها پیش بینی کرده بودند که دیگر هیچکس دست به شطرنج نخواهد زد 138 00:08:03,040 --> 00:08:05,296 و این که کامپیوتر شطرنج را فتح خواهد کرد، 139 00:08:05,320 --> 00:08:07,536 اشتباه می کردند، ثابت شد که اشتبا می کردند، 140 00:08:07,560 --> 00:08:11,016 اما بدبینی همواره سرگرمی محبوبی بوده 141 00:08:11,040 --> 00:08:12,400 وقتی که پای تکنولوژی در میان است. 142 00:08:14,360 --> 00:08:17,096 آنچه که از تجربه ام آموختم 143 00:08:17,120 --> 00:08:21,776 این است که باید با ترس هایمان مواجه شویم 144 00:08:21,800 --> 00:08:25,520 اگر که می خواهیم بیشترین استفاده را از تکنولوژی ببریم، 145 00:08:26,360 --> 00:08:28,736 و باید بر آن ترس ها غلبه کنیم 146 00:08:28,760 --> 00:08:34,000 اگر که می خواهیم از انسان بودنمان بیشترین استفاده را بکنیم. 147 00:08:36,120 --> 00:08:37,895 همانطور که زخم هایم را التیام می دادم، 148 00:08:37,919 --> 00:08:39,880 الهام های فراوانی به ذهنم خطور کرد 149 00:08:41,080 --> 00:08:43,775 از مبارزه هایم در مقابل دیپ بلو. 150 00:08:43,799 --> 00:08:46,920 یک ضرب المثل قدیمی روسی می گوید، اگر نمی توانی شکستشان دهی، به آنها بپیوند. 151 00:08:48,880 --> 00:08:50,256 بعد فکر کردم، 152 00:08:50,280 --> 00:08:52,616 چطور می شود که با یک کامپیوتر بازی کنم -- 153 00:08:52,640 --> 00:08:55,800 و یک کامپیوتر هم بغل دست خودم باشد، تا زورمان را روی هم بگذاریم، 154 00:08:57,160 --> 00:09:00,936 دریافت انسانی، به علاوه قدرت محاسبه کامپوتر، 155 00:09:00,960 --> 00:09:03,656 استراتژی انسانی، تاکتیک کامپوتری، 156 00:09:03,680 --> 00:09:06,096 تجربه انسانی، حافظه کامپیوتری. 157 00:09:06,120 --> 00:09:08,320 آیا این می تواند بهترین مسابقه ای باشد که تابه حال انجام شده؟ 158 00:09:10,000 --> 00:09:11,680 ایده من محقق شد 159 00:09:12,920 --> 00:09:16,296 در ۱۹۹۸ تحت عنوان «شطرنج پیشرفته» 160 00:09:16,320 --> 00:09:22,000 وقتی که در یک مسابقه انسان به علاوه کامپیوتر در مقابل یک شطرنج باز قهار بازی کردم. 161 00:09:23,280 --> 00:09:25,176 اما در این اولین تجربه، 162 00:09:25,200 --> 00:09:31,560 هر دوی ما از مخلوط کردن موثر مهارت های انسانی و کامپیوتری درماندیم. 163 00:09:34,920 --> 00:09:37,160 شطرنج پیشرفته جای خودش را روی اینترنت پیدا کرد، 164 00:09:38,160 --> 00:09:43,016 و در ۲۰۰۵ یک تورنمنت شطرنج آزاد 165 00:09:43,040 --> 00:09:44,400 پرده برداری کرد. 166 00:09:47,240 --> 00:09:50,776 تیمی متشکل از قهرمان های شطرنج و کامپیوترهای پیشرفته در مسابقه شرکت کردند، 167 00:09:50,800 --> 00:09:53,536 اما برنده نه استادان شطرنج بودند، 168 00:09:53,560 --> 00:09:54,920 و نه ابرکامپیوترها. 169 00:09:55,680 --> 00:10:00,016 برندگان یک جفت شطرنج باز آماتور آمریکایی بودند 170 00:10:00,040 --> 00:10:03,200 که سه کامپیوتر عادی را توأمان اداره می کردند. 171 00:10:05,560 --> 00:10:08,576 مهارت آنها در کار با ماشین ها 172 00:10:08,600 --> 00:10:14,376 به شکل موثری در تضاد با دانش برتر شطرنج 173 00:10:14,400 --> 00:10:15,976 در قهرمانان حریفشان بود 174 00:10:16,000 --> 00:10:20,160 و بسیار بزرگتر بود از توان محاسبه دیگران. 175 00:10:21,600 --> 00:10:23,560 و به این فرمول رسیدم. 176 00:10:24,560 --> 00:10:27,936 یک شطرنج باز ضعیف به علاوه کامپیوتر 177 00:10:27,960 --> 00:10:31,216 به علاوه یک فرایند بهتر برتری دارد 178 00:10:31,240 --> 00:10:33,656 به یک ماشین بسیار قوی به تنهایی، 179 00:10:33,680 --> 00:10:37,576 اما مهمتر این است که برتری دارد به یک شطرنج باز قوی 180 00:10:37,600 --> 00:10:39,560 به علاوه کامپیوتر 181 00:10:41,120 --> 00:10:43,520 و فرایند ضعیف. 182 00:10:46,360 --> 00:10:48,480 این من را متقاعد کرد که ما نیاز داریم 183 00:10:50,000 --> 00:10:53,680 به حدفاصلی که به ما کمک کند کامپیوترهایمان را هدایت کنیم 184 00:10:54,520 --> 00:10:56,240 به سوی هوشمندی مفیدتر. 185 00:10:58,320 --> 00:11:01,616 انسان به علاوه کامپیوتر آینده نیست، 186 00:11:01,640 --> 00:11:02,856 حال حاضر است. 187 00:11:02,880 --> 00:11:07,016 همه می دانند که با ترجمه آنلاین 188 00:11:07,040 --> 00:11:11,336 می توانند لب کلام را از یک روزنامه خارجی دریابند، 189 00:11:11,360 --> 00:11:13,000 که زبانش را خوب بلد نیستند. 190 00:11:13,680 --> 00:11:15,776 بعد ما از تجربه انسانی خود بهره می بریم 191 00:11:15,800 --> 00:11:17,896 تا به ترجمه کامپیوتری منطق ببخشیم، 192 00:11:17,920 --> 00:11:20,696 و بعد ماشین از اصلاحات ما یاد می گیرد. 193 00:11:20,720 --> 00:11:25,680 این مدل در حال گسترش و سرمایه گذاری در بخش تشخیص پزشکی و همچنین تحلیل های امنیتی است. 194 00:11:26,440 --> 00:11:28,560 کامپیوتر داده های اطلاعاتی را بررسی میکند، 195 00:11:29,320 --> 00:11:31,056 احتمالات را محاسبه می کند، 196 00:11:31,080 --> 00:11:34,736 ۸۰ تا ۹۰ درصد راه را می رود، 197 00:11:34,760 --> 00:11:39,136 کار را برای تحلیلگران 198 00:11:39,160 --> 00:11:41,760 و برای بخش تصمیم گیرنده انسانی، راحت تر می کند. 199 00:11:42,280 --> 00:11:47,120 اما هیچکس بچه هایش را 200 00:11:48,000 --> 00:11:51,560 با ماشین های خودرانی که ۹۰ درصد دقیق هستند، به مدرسه نمی فرستد. 201 00:11:52,600 --> 00:11:54,200 حتی با دقت ۹۹ درصد. 202 00:11:55,560 --> 00:11:58,416 بنابراین ما به جهشی رو به جلو نیاز داریم 203 00:11:58,440 --> 00:12:04,600 تا این چند درصد باقیمانده در دقت را نیز اضافه کنیم. 204 00:12:07,160 --> 00:12:11,200 بیست سال بعد از مسابقه من با دیپ بلو، 205 00:12:12,200 --> 00:12:13,816 مسابقه دوم، 206 00:12:13,840 --> 00:12:20,136 این تیتر شورانگیز «آخرین سنگر مغز» 207 00:12:20,160 --> 00:12:21,736 مبتذل و تکراری شده 208 00:12:21,760 --> 00:12:24,296 چرا که کامپیوترهای هوشمند 209 00:12:24,320 --> 00:12:25,520 حرکت می کنند 210 00:12:26,560 --> 00:12:28,760 در هر ثانیه و هر روزه. 211 00:12:30,160 --> 00:12:33,256 اما برخلاف گذشته، 212 00:12:33,280 --> 00:12:34,920 حالا که ماشین آلات 213 00:12:36,480 --> 00:12:38,856 جای حیوانات مزرعه و نیروی کار را گرفته اند، 214 00:12:38,880 --> 00:12:41,376 حالا دنبال افراد دارای مدرک دانشگاهی 215 00:12:41,400 --> 00:12:42,680 و دارای نفوذ سیاسی راه افتاده اند. 216 00:12:44,120 --> 00:12:46,216 و به عنوان کسی که با کامپیوتر مبارزه کرد و باخت، 217 00:12:46,240 --> 00:12:48,880 اینجا هستم تا به شما بگویم این یک خبر فوق العاده عالی است. 218 00:12:51,000 --> 00:12:53,216 در نهایت، هر حرفه ای 219 00:12:53,240 --> 00:12:55,336 این فشارها را حس خواهد کرد 220 00:12:55,360 --> 00:13:00,960 و در غیر این صورت به این معنی است که بشریت از پیشرفت بازماند. 221 00:13:02,760 --> 00:13:03,960 با ما نیست 222 00:13:05,440 --> 00:13:07,160 تا انتخاب کنیم 223 00:13:08,480 --> 00:13:11,200 کی و کجا پیشرفت تکنولوژیک متوقف می شود. 224 00:13:13,160 --> 00:13:14,520 نمی توانیم 225 00:13:15,960 --> 00:13:17,456 سرعت را آهسته کنیم. 226 00:13:17,480 --> 00:13:19,296 در واقع ، 227 00:13:19,320 --> 00:13:21,240 باید سرعت را بالا ببریم. 228 00:13:24,600 --> 00:13:27,240 تکنولوژی ما عالی عمل می کند در از بین بردن 229 00:13:29,200 --> 00:13:32,560 مشکلات و تردیدها از زندگی مان، 230 00:13:35,000 --> 00:13:37,816 بنابراین باید 231 00:13:37,840 --> 00:13:39,696 دنبال گرفتاری های بیشتر بگردیم، 232 00:13:39,720 --> 00:13:43,800 و دنبال چالش های دشوارتر بگردیم. 233 00:13:48,200 --> 00:13:49,400 کامپیوتر 234 00:13:51,880 --> 00:13:53,696 قدرت محاسبه دارد. 235 00:13:53,720 --> 00:13:55,296 ما شعور داریم. 236 00:13:55,320 --> 00:13:57,360 کاپیوتر برنامه ریزی می شود. 237 00:13:58,840 --> 00:14:00,696 ما هدف داریم. 238 00:14:00,720 --> 00:14:03,000 کامپیوتر 239 00:14:05,080 --> 00:14:06,296 بی طرف است. 240 00:14:06,320 --> 00:14:07,520 ما شور و شوق داریم. 241 00:14:08,600 --> 00:14:14,576 نباید نگران توانایی های امروز کامپیوترها باشیم. 242 00:14:14,600 --> 00:14:19,176 در عوض، باید نگران این باشیم که هنوز از عهده چه کارهایی برنمی آیند، 243 00:14:19,200 --> 00:14:24,696 چرا که به کمک کامپیوترهای جدید و هوشمند نیاز خواهیم داشت 244 00:14:24,720 --> 00:14:28,800 تا بزرگترین آرزوهایمان را به واقعیت بدل کنیم. 245 00:14:30,000 --> 00:14:31,320 و اگر شکست بخوریم، 246 00:14:32,240 --> 00:14:36,896 اگر شکست بخوریم، دلیلش این نیست که کامپیوترهایمان زیادی هوشمندند، 247 00:14:36,920 --> 00:14:38,320 یا به اندازه کافی هوشمند نیستند. 248 00:14:39,200 --> 00:14:42,280 اگر شکست بخوریم، از این روست که به خودمان غره شده ایم 249 00:14:43,680 --> 00:14:45,240 و جاه طلبی مان را محدود کرده ایم. 250 00:14:46,520 --> 00:14:49,560 انسانیت ما با هیچ مهارتی توضیح داده نمی شود، 251 00:14:51,280 --> 00:14:53,960 مهارتی مثل پرتاب چکش یا حتی شطرنج بازی. 252 00:14:54,560 --> 00:14:57,576 تنها یک چیز وجود دارد که بشر قادر به انجامش است. 253 00:14:57,600 --> 00:14:58,800 و آن رویا و خیال است. 254 00:15:00,120 --> 00:15:02,656 پس بیایید رویاهای بزرگ ببینیم. 255 00:15:02,680 --> 00:15:03,896 تشکر می کنم. 256 00:15:03,920 --> 00:15:07,807 (تشویق حاضران)