0:00:00.960,0:00:03.936 این داستان در سال ۱۹۸۵ آغاز می شود، 0:00:03.960,0:00:05.936 وقتی که در ۲۲ سالگی، 0:00:05.960,0:00:08.336 قهرمان شطرنج جهان شدم، 0:00:08.360,0:00:11.560 بعد از این که آناتولی کارپوو را شکست دادم. 0:00:12.480,0:00:13.736 پیشتر در همان سال، 0:00:13.760,0:00:17.376 یک تنه در مسابقه دسته جمعی همزمان [br] 0:00:17.400,0:00:21.696 در مقابل ۳۲ تا از پیچیده ترین کامپیوترهای[br]شطرنج باز جهان بازی کردم 0:00:21.720,0:00:23.080 در هامبورگ، آلمان، 0:00:24.160,0:00:25.360 و همه آنها را بردم،[br] 0:00:26.560,0:00:29.736 ولی آن زمان کسی تعجب نکرد از این که 0:00:29.760,0:00:33.800 من توانستم همزمان ۳۲ کامپیوتر را ببرم. 0:00:34.480,0:00:37.056 برای من، آن زمان عصر عطلایی بود. 0:00:37.080,0:00:39.176 (خنده حاضران) 0:00:39.200,0:00:40.720 کامیپوترها ضعیف بودند، 0:00:41.680,0:00:43.016 و موهای من پرپشت بود. 0:00:43.040,0:00:45.240 (خنده حاضران) 0:00:46.720,0:00:48.776 فقط ۱۲ سال بعد، 0:00:48.800,0:00:53.416 در مقابل تنها یک کامپیوتر[br]برای زندگی ام مبارزه می کردم 0:00:53.440,0:00:54.640 در یک مسابقه 0:00:55.360,0:00:57.416 که مجله نیوزویک اسمش را گذاشت 0:00:57.440,0:00:59.216 «آخرین مقاومت مغز.» 0:00:59.240,0:01:00.456 بدون هیچ فشاری. 0:01:00.480,0:01:02.000 (خنده حاضران) 0:01:03.040,0:01:05.616 از اسطوره شناسی تا داستان های علمی تخیلی، 0:01:05.640,0:01:08.376 انسان در مقابل ماشین 0:01:08.400,0:01:11.160 اغلب به عنوان مسئله مرگ و زندگی [br]تصویر شده است. 0:01:11.960,0:01:13.536 جان هنری، 0:01:13.560,0:01:15.256 موسوم به مرد کوه کن 0:01:15.280,0:01:19.056 در افسانه فولک آفریقایی-آمریکایی قرن ۱۹ 0:01:19.080,0:01:20.456 در یک مسابقه شرکت داده شد 0:01:20.480,0:01:23.216 در مقابل یک چکش که[br]با نیروی بخار کار می کرد 0:01:23.240,0:01:25.600 تا تونلی در یک کوه صخره ای بکنند. 0:01:26.800,0:01:31.000 افسانه جان هنری [br]بخشی از یک روایت تاریخی طولانی است[br] 0:01:31.680,0:01:34.760 که بشریت و تکنولوژی را به مصاف می کشد. 0:01:36.200,0:01:39.080 و این اندیشه حریف طلب اکنون استاندارد است. 0:01:39.560,0:01:41.520 ما در مسابقه در مقابل[br]ماشین آلات به سر می بریم. 0:01:42.360,0:01:44.440 در نبرد یا حتی در جنگ. 0:01:45.880,0:01:47.496 مشاغل را از بین می برند. 0:01:47.520,0:01:51.080 افراد با ماشین جایگزین می شوند[br]گویی که از روی کره زمین غیب شده اند. 0:01:52.240,0:01:55.736 کافی است که فکر کنیم فیلم هایی چون [br]«ترمیناتور» یا «متریکس» 0:01:55.760,0:01:56.960 تخیلی نیستند. 0:01:59.640,0:02:03.960 در چندین مورد انگشت شمار 0:02:05.360,0:02:09.616 بدن انسان و مغز در موقعیتی برابر [br]می تواند رقابت کند [br] 0:02:09.639,0:02:11.480 با یک کامپیوتر یا ربات. 0:02:12.280,0:02:14.138 در واقع، ای کاش موارد[br]بیشتری از این دست وجود داشت. 0:02:15.760,0:02:16.960 در عوض، 0:02:17.840,0:02:22.496 این از خوشبختی و یا بدشانسی من است 0:02:22.520,0:02:25.216 که به معنای واقعی به ضرب المثلی تبدیل شوم 0:02:25.240,0:02:28.336 که مصداق رقابت انسان و ماشین است 0:02:28.360,0:02:30.240 که هنوز که هنوز است [br]همه درباره اش حرف می زنند. 0:02:33.120,0:02:38.136 در مشهورترین هماورد انسان-ماشین[br]از زمان جان هنری به بعد، 0:02:38.160,0:02:40.736 من در دو مسابقه شرکت کردم 0:02:40.760,0:02:44.200 در مقابل ابرکامپیوتر آی.بی.ام ،[br]به نام دیپ بلو. 0:02:47.040,0:02:49.216 کسی یادش نیست که مسابقه اول را من بردم -- 0:02:49.240,0:02:51.576 (خنده حاضران) 0:02:51.600,0:02:55.000 (تشویق حاضران) 0:02:55.920,0:03:00.896 در فیلادلفیا، قبل از آن که سال بعد [br]در بازی برگشت در نیویورک به کامپیوتر ببازم. 0:03:00.920,0:03:02.680 اما گمان می کنم منصفانه باشد. 0:03:04.320,0:03:09.416 در تاریخ هیچ روزی در تقویم[br]به نام کسانی نشده که 0:03:09.440,0:03:12.936 تلاش کردند اورست را فتح کنند و نتوانستند 0:03:12.960,0:03:15.696 تا این که سر ادموند هیلاری و تنزینگ نورگای 0:03:15.720,0:03:16.920 فتحش کردند. 0:03:17.960,0:03:21.720 و در ۱۹۹۷، من همچنان قهرمان بودم 0:03:24.520,0:03:28.720 تا وقتی که کامپیوترهای[br]شطرنج بالاخره پیشرفته شدند. 0:03:29.520,0:03:31.496 من کوه اورست بودم. 0:03:31.520,0:03:33.120 و دیپ بلو به آن قله رسید. 0:03:34.600,0:03:38.656 البته باید بگویم که این کار دیپ بلو نبود، 0:03:38.680,0:03:40.816 بلکه کار خالقان آن بود -- 0:03:40.840,0:03:44.176 آنانتارامان، کمپبل، هوآن، سو. 0:03:44.200,0:03:45.400 به احترامشان کلاه از سر برمیدارم. 0:03:46.840,0:03:51.256 مانند همیشه، پیروزی ماشین[br]پیروزی انسان بود، 0:03:51.280,0:03:56.040 همان چیزی که وقتی انسان توسط مخلوقات[br]خودش مغلوب می شوداغلب یادمان می رود. 0:03:58.360,0:03:59.800 دیپ بلو فاتح بود، 0:04:01.400,0:04:02.600 اما آیا هوشمند هم بود؟ 0:04:03.360,0:04:05.120 نه، نبود. 0:04:06.200,0:04:11.256 دستکم نه به آن اندازه که الن تورینگ [br]و دیگر خالقان علوم کامپیوتر [br] 0:04:11.280,0:04:12.480 امیدش را داشتند. 0:04:13.240,0:04:18.016 معلوم شد که شطرنج می تواند توسط [br]یک نیروی فاقد شعور درهم شکسته شود، 0:04:18.040,0:04:22.296 وقتی که سخت افزار به اندازه کافی سریع 0:04:22.320,0:04:25.280 و الگوریتم ها هوشمند شدند. 0:04:26.760,0:04:30.456 هرچند از نظر تعریف محصول، 0:04:30.480,0:04:33.696 شطرنج در سطح قهرمانی، 0:04:33.720,0:04:35.000 دیپ بلو هوشمند بود. 0:04:37.320,0:04:39.720 اما در آن سرعت مافوق تصور، 0:04:40.560,0:04:43.760 ۲۰۰ میلیون پوزیشن در ثانیه، 0:04:45.360,0:04:46.560 روش دیپ بلو 0:04:47.360,0:04:53.960 نقش اندکی در روشنگری مطلوب [br]از اسرار هوش انسان ارائه داد. 0:04:56.960,0:04:58.776 به زودی، 0:04:58.800,0:05:01.376 ماشین ها تاکسی می رانند 0:05:01.400,0:05:03.816 و دکتر و پرفسور خواهند شد، 0:05:03.840,0:05:06.440 اما آیا «هوشمند» هم خواهند بود؟ 0:05:07.840,0:05:10.336 ترجیح می دهم این تعاریف را واگذار کنم 0:05:10.360,0:05:13.920 برعهده فیلسوف ها و فرهنگ لغات. 0:05:15.440,0:05:19.320 آنچه مهم است این است که ما انسان ها 0:05:20.320,0:05:23.920 چه احساسی داریم درباره[br]زندگی و کار با این کامپیوترها. 0:05:26.160,0:05:31.416 اولین بار که در سال ۱۹۹۶ دیپ بلو را دیدم ، 0:05:31.440,0:05:34.040 برای ده سال بود که قهرمان جهان بودم، 0:05:36.080,0:05:40.096 و در ۱۸۲ مسابقه قهرمانی جهان [br]بازی کرده بودم 0:05:40.120,0:05:45.216 و در صدها مسابقه در مقابل دیگر شطرنج بازان [br]در رقابت های دیگر داشتم. 0:05:45.240,0:05:50.296 می دانستم که از حریفانم[br]چه انتظاری باید داشته باشم 0:05:50.320,0:05:52.000 و از خودم چه انتظاری داشته باشم. 0:05:52.680,0:05:57.856 حرکات آنان را می سنجیدم 0:05:57.880,0:06:01.496 و وضع روحی شان را محک می زدم 0:06:01.520,0:06:05.360 ااز طریق نگاه کردن به [br]زبان بدن و زل زدن به چشمانشان. 0:06:05.880,0:06:09.880 بعد در مقابل صفحه شطرنج دیپ بلو نشستم. 0:06:12.960,0:06:15.816 فورا چیزی جدید را حس کردم، 0:06:15.840,0:06:17.160 چیزی که در جای خودش نبود. 0:06:19.440,0:06:22.240 ممکن است همین حس به سراغتان بیاید 0:06:23.320,0:06:25.856 در اولین باری که در[br]یک اتومبیل بدون راننده هستید 0:06:25.880,0:06:30.720 یا اولین باری که مدیر کامپیوتری شما[br]در سر کار به شما دستور می دهد. 0:06:33.800,0:06:36.920 ولی وقتی که سر اولین مسابقه نشستم، 0:06:38.080,0:06:40.216 نمی دانستم 0:06:40.240,0:06:43.920 که این ماشین چه قابلیتی دارد. 0:06:44.920,0:06:48.080 تکنولوژی می تواند به سرعت پیشرفت کند، [br]و آی.بی.ام در این راه سرمایه گذاری هنگفتی کرده بود. 0:06:48.680,0:06:49.880 مسابقه را باختم. 0:06:52.320,0:06:54.096 و از این فکر در نمی آمدم که [br] 0:06:54.120,0:06:55.680 که آیا این ماشین شکست ناپذیر است؟ 0:06:56.600,0:06:58.960 آیا بازی محبوب من شطرنج،[br]به پایان رسیده است؟ 0:07:00.800,0:07:04.936 اینها همه شک های انسانی[br]و ترس های انسانی بود، 0:07:04.960,0:07:06.640 و تنها چیزی که درباره اش اطمینان داشتم 0:07:07.400,0:07:10.296 این بود که حریفم دیپ بلو اصلا و ابدا[br]چنین نگرانی هایی نداشت. 0:07:10.320,0:07:12.080 (خنده حاضران) 0:07:13.920,0:07:15.320 به مبارزه ادامه دادم 0:07:16.400,0:07:18.080 بعد از این شکست ویران کننده 0:07:19.000,0:07:20.200 و اولین دور مسابقه را ببرم، 0:07:20.960,0:07:22.600 اما تقدیر از قبل تعیین شده بود. 0:07:24.400,0:07:26.536 نهایتا مسابقه را به کامپیوتر باختم 0:07:26.560,0:07:29.616 اما از سرنوشتی مشابه آنچه که برای[br]جان هنری رخ داد رنج نکشیدم 0:07:29.640,0:07:32.680 که برد اما با چکشش در دست[br]جان باخت. 0:07:37.720,0:07:40.256 اینطور از آب در آمد که [br]جهان شطرنج 0:07:40.280,0:07:43.520 هنوز می خواست قهرمان انسانی داشته باشد. 0:07:44.920,0:07:46.600 و حتی امروز، 0:07:48.080,0:07:51.536 که اپ مجانی شطرنج روی موبایل های مدل جدید 0:07:51.560,0:07:53.576 از دیپ بلو قوی تر است، 0:07:53.600,0:07:55.080 مردم کماکان شطرنج بازی می کنند، 0:07:56.680,0:07:58.920 حتی بیشتر از قبل. 0:07:59.800,0:08:03.016 بدبین ها پیش بینی کرده بودند که [br]دیگر هیچکس دست به شطرنج نخواهد زد 0:08:03.040,0:08:05.296 و این که کامپیوتر شطرنج را فتح خواهد کرد، 0:08:05.320,0:08:07.536 اشتباه می کردند، ثابت شد[br]که اشتبا می کردند، 0:08:07.560,0:08:11.016 اما بدبینی همواره سرگرمی محبوبی بوده 0:08:11.040,0:08:12.400 وقتی که پای تکنولوژی در میان است. 0:08:14.360,0:08:17.096 آنچه که از تجربه ام آموختم [br] 0:08:17.120,0:08:21.776 این است که باید با ترس هایمان مواجه شویم 0:08:21.800,0:08:25.520 اگر که می خواهیم بیشترین استفاده را [br]از تکنولوژی ببریم، 0:08:26.360,0:08:28.736 و باید بر آن ترس ها غلبه کنیم 0:08:28.760,0:08:34.000 اگر که می خواهیم از انسان بودنمان [br]بیشترین استفاده را بکنیم. 0:08:36.120,0:08:37.895 همانطور که زخم هایم را التیام می دادم، 0:08:37.919,0:08:39.880 الهام های فراوانی به ذهنم خطور کرد 0:08:41.080,0:08:43.775 از مبارزه هایم در مقابل دیپ بلو. 0:08:43.799,0:08:46.920 یک ضرب المثل قدیمی روسی می گوید، [br]اگر نمی توانی شکستشان دهی، به آنها بپیوند. 0:08:48.880,0:08:50.256 بعد فکر کردم، 0:08:50.280,0:08:52.616 چطور می شود که با یک کامپیوتر بازی کنم -- 0:08:52.640,0:08:55.800 و یک کامپیوتر هم بغل دست خودم باشد، [br]تا زورمان را روی هم بگذاریم، 0:08:57.160,0:09:00.936 دریافت انسانی، به علاوه قدرت محاسبه کامپوتر، 0:09:00.960,0:09:03.656 استراتژی انسانی، تاکتیک کامپوتری، 0:09:03.680,0:09:06.096 تجربه انسانی، حافظه کامپیوتری. 0:09:06.120,0:09:08.320 آیا این می تواند بهترین مسابقه ای باشد[br]که تابه حال انجام شده؟ 0:09:10.000,0:09:11.680 ایده من محقق شد 0:09:12.920,0:09:16.296 در ۱۹۹۸ تحت عنوان «شطرنج پیشرفته» 0:09:16.320,0:09:22.000 وقتی که در یک مسابقه انسان به علاوه کامپیوتر[br]در مقابل یک شطرنج باز قهار بازی کردم. 0:09:23.280,0:09:25.176 اما در این اولین تجربه، 0:09:25.200,0:09:31.560 هر دوی ما از مخلوط کردن موثر [br]مهارت های انسانی و کامپیوتری درماندیم. 0:09:34.920,0:09:37.160 شطرنج پیشرفته جای خودش را [br]روی اینترنت پیدا کرد، 0:09:38.160,0:09:43.016 و در ۲۰۰۵ یک تورنمنت شطرنج آزاد[br][br] 0:09:43.040,0:09:44.400 پرده برداری کرد. 0:09:47.240,0:09:50.776 تیمی متشکل از قهرمان های شطرنج [br]و کامپیوترهای پیشرفته در مسابقه شرکت کردند، 0:09:50.800,0:09:53.536 اما برنده نه استادان شطرنج بودند، 0:09:53.560,0:09:54.920 و نه ابرکامپیوترها. 0:09:55.680,0:10:00.016 برندگان یک جفت شطرنج باز[br]آماتور آمریکایی بودند 0:10:00.040,0:10:03.200 که سه کامپیوتر عادی [br]را توأمان اداره می کردند. 0:10:05.560,0:10:08.576 مهارت آنها در کار با ماشین ها 0:10:08.600,0:10:14.376 به شکل موثری در تضاد با دانش برتر شطرنج 0:10:14.400,0:10:15.976 در قهرمانان حریفشان بود 0:10:16.000,0:10:20.160 و بسیار بزرگتر بود از [br]توان محاسبه دیگران. 0:10:21.600,0:10:23.560 و به این فرمول رسیدم. 0:10:24.560,0:10:27.936 یک شطرنج باز ضعیف به علاوه کامپیوتر 0:10:27.960,0:10:31.216 به علاوه یک فرایند بهتر برتری دارد 0:10:31.240,0:10:33.656 به یک ماشین بسیار قوی به تنهایی، 0:10:33.680,0:10:37.576 اما مهمتر این است که [br]برتری دارد به یک شطرنج باز قوی 0:10:37.600,0:10:39.560 به علاوه کامپیوتر 0:10:41.120,0:10:43.520 و فرایند ضعیف. 0:10:46.360,0:10:48.480 این من را متقاعد کرد که ما نیاز داریم 0:10:50.000,0:10:53.680 به حدفاصلی که به ما کمک کند [br]کامپیوترهایمان را هدایت کنیم [br] 0:10:54.520,0:10:56.240 به سوی هوشمندی مفیدتر. 0:10:58.320,0:11:01.616 انسان به علاوه کامپیوتر آینده نیست، 0:11:01.640,0:11:02.856 حال حاضر است. 0:11:02.880,0:11:07.016 همه می دانند که با ترجمه آنلاین 0:11:07.040,0:11:11.336 می توانند لب کلام را از[br]یک روزنامه خارجی دریابند، 0:11:11.360,0:11:13.000 که زبانش را خوب بلد نیستند. 0:11:13.680,0:11:15.776 بعد ما از تجربه انسانی خود بهره می بریم 0:11:15.800,0:11:17.896 تا به ترجمه کامپیوتری منطق ببخشیم، 0:11:17.920,0:11:20.696 و بعد ماشین از اصلاحات ما یاد می گیرد. 0:11:20.720,0:11:25.680 این مدل در حال گسترش و سرمایه گذاری در بخش [br]تشخیص پزشکی و همچنین تحلیل های امنیتی است. 0:11:26.440,0:11:28.560 کامپیوتر داده های اطلاعاتی را بررسی میکند، 0:11:29.320,0:11:31.056 احتمالات را محاسبه می کند، 0:11:31.080,0:11:34.736 ۸۰ تا ۹۰ درصد راه را می رود، 0:11:34.760,0:11:39.136 کار را برای تحلیلگران 0:11:39.160,0:11:41.760 و برای بخش تصمیم گیرنده انسانی،[br]راحت تر می کند. 0:11:42.280,0:11:47.120 اما هیچکس بچه هایش را 0:11:48.000,0:11:51.560 با ماشین های خودرانی که ۹۰ درصد دقیق هستند، [br]به مدرسه نمی فرستد. 0:11:52.600,0:11:54.200 حتی با دقت ۹۹ درصد. 0:11:55.560,0:11:58.416 بنابراین ما به جهشی رو به جلو نیاز داریم 0:11:58.440,0:12:04.600 تا این چند درصد باقیمانده [br]در دقت را نیز اضافه کنیم. 0:12:07.160,0:12:11.200 بیست سال بعد از [br]مسابقه من با دیپ بلو، 0:12:12.200,0:12:13.816 مسابقه دوم، 0:12:13.840,0:12:20.136 این تیتر شورانگیز [br]«آخرین سنگر مغز» 0:12:20.160,0:12:21.736 مبتذل و تکراری شده 0:12:21.760,0:12:24.296 چرا که کامپیوترهای هوشمند 0:12:24.320,0:12:25.520 حرکت می کنند 0:12:26.560,0:12:28.760 در هر ثانیه و هر روزه. 0:12:30.160,0:12:33.256 اما برخلاف گذشته، 0:12:33.280,0:12:34.920 حالا که ماشین آلات 0:12:36.480,0:12:38.856 جای حیوانات مزرعه[br]و نیروی کار را گرفته اند، 0:12:38.880,0:12:41.376 حالا دنبال افراد دارای مدرک دانشگاهی 0:12:41.400,0:12:42.680 و دارای نفوذ سیاسی راه افتاده اند. 0:12:44.120,0:12:46.216 و به عنوان کسی که با[br]کامپیوتر مبارزه کرد و باخت، 0:12:46.240,0:12:48.880 اینجا هستم تا به شما بگویم [br]این یک خبر فوق العاده عالی است. 0:12:51.000,0:12:53.216 در نهایت، هر حرفه ای 0:12:53.240,0:12:55.336 این فشارها را حس خواهد کرد 0:12:55.360,0:13:00.960 و در غیر این صورت به این معنی است که[br]بشریت از پیشرفت بازماند. 0:13:02.760,0:13:03.960 با ما نیست 0:13:05.440,0:13:07.160 تا انتخاب کنیم 0:13:08.480,0:13:11.200 کی و کجا پیشرفت تکنولوژیک متوقف می شود. 0:13:13.160,0:13:14.520 نمی توانیم 0:13:15.960,0:13:17.456 سرعت را آهسته کنیم. 0:13:17.480,0:13:19.296 در واقع ، 0:13:19.320,0:13:21.240 باید سرعت را بالا ببریم. 0:13:24.600,0:13:27.240 تکنولوژی ما عالی عمل می کند در از بین بردن 0:13:29.200,0:13:32.560 مشکلات و تردیدها از زندگی مان، 0:13:35.000,0:13:37.816 بنابراین باید 0:13:37.840,0:13:39.696 دنبال گرفتاری های بیشتر بگردیم، 0:13:39.720,0:13:43.800 و دنبال چالش های دشوارتر بگردیم. 0:13:48.200,0:13:49.400 کامپیوتر 0:13:51.880,0:13:53.696 قدرت محاسبه دارد. 0:13:53.720,0:13:55.296 ما شعور داریم. 0:13:55.320,0:13:57.360 کاپیوتر برنامه ریزی می شود. 0:13:58.840,0:14:00.696 ما هدف داریم. 0:14:00.720,0:14:03.000 کامپیوتر 0:14:05.080,0:14:06.296 بی طرف است. 0:14:06.320,0:14:07.520 ما شور و شوق داریم. 0:14:08.600,0:14:14.576 نباید نگران توانایی های امروز کامپیوترها باشیم. 0:14:14.600,0:14:19.176 در عوض، باید نگران این باشیم که [br]هنوز از عهده چه کارهایی برنمی آیند، 0:14:19.200,0:14:24.696 چرا که به کمک کامپیوترهای جدید و هوشمند [br]نیاز خواهیم داشت 0:14:24.720,0:14:28.800 تا بزرگترین آرزوهایمان[br]را به واقعیت بدل کنیم. 0:14:30.000,0:14:31.320 و اگر شکست بخوریم، 0:14:32.240,0:14:36.896 اگر شکست بخوریم، دلیلش این نیست که [br]کامپیوترهایمان زیادی هوشمندند، 0:14:36.920,0:14:38.320 یا به اندازه کافی هوشمند نیستند. 0:14:39.200,0:14:42.280 اگر شکست بخوریم، از این روست که[br]به خودمان غره شده ایم[br] 0:14:43.680,0:14:45.240 و جاه طلبی مان را محدود کرده ایم. 0:14:46.520,0:14:49.560 انسانیت ما با هیچ مهارتی[br]توضیح داده نمی شود، 0:14:51.280,0:14:53.960 مهارتی مثل پرتاب چکش یا حتی شطرنج بازی. 0:14:54.560,0:14:57.576 تنها یک چیز وجود دارد [br]که بشر قادر به انجامش است. 0:14:57.600,0:14:58.800 و آن رویا و خیال است. 0:15:00.120,0:15:02.656 پس بیایید رویاهای بزرگ ببینیم. 0:15:02.680,0:15:03.896 تشکر می کنم. 0:15:03.920,0:15:07.807 (تشویق حاضران)