0:00:00.735,0:00:03.024 چند نفر از شما آدم خلاق، 0:00:03.048,0:00:06.672 طراح، مهندس، کارآفرین، هنرمند 0:00:06.696,0:00:09.353 و یا شاید حتی یک خیال پردازی[br]واقعا بزرگی رو داشته باشه؟ 0:00:09.353,0:00:10.955 با دستاتون نشون بدید؟ (صدای حضار) 0:00:10.979,0:00:12.160 بله ،اکثر شماها. 0:00:13.174,0:00:16.038 من خبرهایی برای آدمهای خلاقی [br]مثل خودمون دارم. 0:00:16.714,0:00:19.287 در طول دوره ۲۰ سال آینده، 0:00:21.011,0:00:24.444 تغییراتی زیادی را در زمینه کاریمان[br]خواهیم داشت 0:00:24.882,0:00:27.539 نسبت به آنچه که در ۲۰۰۰ سال اخیر[br]اتفاق افتاده است. 0:00:28.371,0:00:33.549 در حقیقت، به تصور من، ما در سپیده دم یک [br]دوره جدید در تاریخ بشری بسر می بریم. 0:00:33.645,0:00:38.946 حالا، چهار عصرتاریخی اصلی[br]تعریف شده در مسیر کاری ما وجود داره. 0:00:39.404,0:00:42.679 عصر شکار که میلیون ها سال به طول انجامید. 0:00:43.113,0:00:46.739 بعد از اون عصر کشاورزی که چندین هزار سال[br]طول کشید. 0:00:47.195,0:00:50.685 عصر صنعتی چند قرن به درازا کشید. 0:00:50.709,0:00:54.996 و اکنون عصر اطلاعات فقط[br]چند دهه ادامه پیدا کرده. 0:00:55.020,0:01:01.140 و اکنون در امروز، ما به عنوان یک گونه،[br]در نقطه شروع عصر بزرگ بعدی قرار داریم. 0:01:01.356,0:01:03.996 به عصر تکمیل شده خوش آمدید. 0:01:04.000,0:01:07.487 در این عصر جدید،[br]قابلیت های طبیعی انسانی شما 0:01:07.487,0:01:10.705 با سیستم های محاسباتی که در[br]فکر کردن شما کمک میکنند، تقویت می شوند، 0:01:10.705,0:01:13.215 سیستم های رباتیک که به شما [br]در ساختن کمک می کنند، 0:01:13.215,0:01:14.667 و یک سیستم عصبی دیجیتال 0:01:14.691,0:01:18.511 که شما را با دنیایی فراتر از [br]حواس طبیعی تون متصل می کنه. 0:01:18.917,0:01:21.243 اجاره بدید با تکامل هوشیار شروع کنیم. 0:01:21.243,0:01:24.143 چند نفر از شما سایبورگ تکامل یافته هستید؟[br](انسان هایی با اعضای اضافه شده بیومکانیکی) 0:01:24.143,0:01:26.783 (خنده حضار) 0:01:26.807,0:01:29.838 در واقع می خوام توضیح بدم که [br]ما همین حالا هم تکامل یافته هستیم. 0:01:30.288,0:01:31.792 تصور کنید که در یک مهمانی ، 0:01:31.816,0:01:35.336 فردی از شما سوالی می پرسد[br]که شما جوابش رو نمی دانید. 0:01:35.360,0:01:39.670 اگه شما یکی از این ها رو داشته باشید،[br]در چند ثانیه، می تونید جواب رو بدونید. 0:01:39.869,0:01:42.288 اما این فقط شروع اولیه هست. 0:01:42.863,0:01:46.614 حتی "Siri" فقط یک ابزار منفعل (بی حس) هست. 0:01:46.660,0:01:50.041 در حقیقت، برای سه و نیم میلیون سال گذشته، 0:01:50.065,0:01:53.174 ابزارهایی که ما دراختیار داشتیم[br]کاملا بی حسی بوده اند. 0:01:54.203,0:01:57.858 اونها دقیقا کارهایی که ما ازشون می خواستیم[br]رو انجام می دادند، نه بیشتر. 0:01:57.882,0:02:01.303 ابتدایی ترین ابزارمان، فقط زمانی که ما بهش[br]ضربه می زدیم برش می داد. 0:02:01.452,0:02:05.272 قلم درز فقط مکانی که هرمند هدف دارد را[br]حکاکی میکند. 0:02:05.343,0:02:10.944 و حتی اکثر ابزارهای پیشرفته،[br]بدون هدایت صریح ما کاری انجام نمی دهند. 0:02:11.008,0:02:14.189 در حقیقت، این چیزی است[br]که من رو ناامید می کنه، 0:02:14.213,0:02:15.661 ما همیشه به این نیاز محدود شده ایم که 0:02:15.685,0:02:19.186 به طور دستی خواسته هامون[br]رو به ابزارها اعمال کنیم-- 0:02:19.210,0:02:21.787 مثل، کارهای دستی،[br]دقیقا از دستهامون استفاده می کنیم، 0:02:21.787,0:02:23.839 حتی زمانی که با کامپیوتر کار می کنیم. 0:02:24.072,0:02:26.745 اما من بیشتر شبیه اسکاتی در[br]"پیشتازان فضا" هستم. 0:02:26.749,0:02:28.329 (خنده حضار) 0:02:28.403,0:02:30.579 می خوام با یک کامپیوتر مکالمه داشته باشم. 0:02:30.603,0:02:33.573 می خوام بگم که،[br]" کامپیوتر، بیا ماشین بسازیم،" 0:02:33.597,0:02:35.136 و اون یک ماشین نشونم بده. 0:02:35.160,0:02:37.768 من می گم،[br]" نه، ظاهرش سریعتر و کمتر (شبیه)آلمانی باشه،" 0:02:37.792,0:02:39.955 و یهو، کامپیوتر یه نمونه [br]رو به من نشون میده. 0:02:39.979,0:02:41.844 (خنده حضار) 0:02:42.208,0:02:44.774 همچین مکالمه ای (با کامپیوتر) [br]شاید به این زودی ها نباشه، 0:02:44.778,0:02:47.603 شاید کمتر از آنچه که خیلی [br]از ما فکرش رو کنیم، 0:02:47.647,0:02:48.914 اما همین الان، 0:02:48.914,0:02:50.165 ما داریم روش کار می کنیم. 0:02:50.189,0:02:54.222 ابزارهایی که از منفعل بودن[br]به تولید کننده بودن، جهش می کنند. 0:02:54.831,0:02:58.139 ابزارهای طراحی مولد[br]از یک کامپیوتر و الگوریتم هایی 0:02:58.163,0:03:00.771 برای ترکیب هندسی استفاده می کنند، 0:03:00.795,0:03:03.549 تا با طراحی های جدیدی که[br]همگی کار خودشون بوده، ظهور کنند. 0:03:03.996,0:03:06.744 تمام چیزی که نیاز داره،[br]هدف ها و چهارچوب های شماست. 0:03:06.768,0:03:08.326 براتون یک مثال میزنم. 0:03:08.326,0:03:10.708 در مورد این شاسی هواپیمای بدون سرنشین، 0:03:10.708,0:03:13.778 تمام کاری که لازم خواهید داشت اینه[br]که بهش چیزی شبیه این بگید که، 0:03:13.778,0:03:15.135 چهارتا پروانه داشته باشه ، 0:03:15.135,0:03:17.090 ازش می خواهید تا جای امکان سبک باشه، 0:03:17.114,0:03:19.384 و نیاز دارید تا به[br]طور آیرودینامیکی کارامد باشه. 0:03:19.408,0:03:24.322 و چیزی که کامپیوتر انجام میده اینه[br]که کل راه حل های ممکن رو بررسی می کنه 0:03:24.346,0:03:28.273 هر مورد ممکنی رو که معیار شما[br]رو پوشش بده و به نتیجه برسونه 0:03:28.297,0:03:29.739 میلیون ها از اونها رو. 0:03:29.763,0:03:31.898 برای این کار به کامپیوترهای بزرگ نیاز هست. 0:03:31.898,0:03:33.717 اما اون با این ایده به سراغمون اومد که 0:03:33.741,0:03:36.884 ما، خودمون هم، هرگز تصورش رو نکرده بودیم. 0:03:37.326,0:03:40.202 و کامپیوتری با این توانایی در خودش،[br]در حال ظهور هست 0:03:40.202,0:03:42.360 که هیچ کس تا حالا چیزی مثل[br]اون رو طراحی نکرده، 0:03:42.360,0:03:44.210 و این(کامپیوتر) طراحی رو کاملا از[br]صفر شروع کرد. 0:03:45.038,0:03:47.425 از طرف دیگر، این تصادفی نیست که 0:03:47.449,0:03:50.930 که بدنه هواپیمای بدون سرنشین کاملا [br]به لگن یک سنجاب پرنده شباهت داره. 0:03:51.287,0:03:53.294 (خنده حضار) 0:03:54.040,0:03:56.342 بخاطر اینکه الگوریتم هایی طراحی شده 0:03:56.366,0:03:58.703 تا مشابه راهی که سیر تکاملی انجام میده،[br]عمل کنند. 0:03:58.715,0:04:01.199 چیزی که ما رو به هیجان میاره[br]اینه که ما شروع کردیم تا 0:04:01.199,0:04:02.838 این تکنولوژی رو در دنیای واقعی ببینیم. 0:04:02.838,0:04:05.034 ما برای دو سالی روی هواپیمای ایرباس 0:04:05.058,0:04:07.077 با این مفهوم هواپیمایی برای آینده کار کرده ایم. 0:04:07.077,0:04:09.061 هنوز روش داره کار میشه. 0:04:09.085,0:04:12.865 اما اخیرا از یک هوش مصنوعی[br]مولد طراحی استفاده کردیم 0:04:12.889,0:04:14.696 که ازش این نمونه دراومده. 0:04:15.609,0:04:20.762 این یک چاپ سه بعدی پارتیشن کابین هست[br]که بوسیله یک کامپیوتر طراحی شده. 0:04:20.786,0:04:23.610 محکم تر از مدل اصلی،[br]با وزن نصف تا به الان، 0:04:23.634,0:04:26.780 و اواخر امسال در ایرباس [br]A320 به پرواز درمیاد. 0:04:27.405,0:04:29.564 خلاصه که اکنون کامپیوترها قادر[br]به تولید هستند; 0:04:29.713,0:04:33.973 اونها برای مشکلات به خوبی تعریف شده ما،[br]راه حل های خودشون رو ارائه می دهند. 0:04:34.677,0:04:35.987 اما اونها حسی نیستند. 0:04:36.011,0:04:39.097 هنوز، برای هر (طراحی) مجبورند [br]از ابتدا شروع کنند، 0:04:39.121,0:04:41.686 به این خاطر که اونها هرگز آموزش نمی بینند. 0:04:42.368,0:04:44.134 غیر از "مگی" 0:04:44.158,0:04:45.739 (خنده حضار) 0:04:45.763,0:04:49.060 در واقع مگی از اکثر ابزارهای[br]پیشرفته ما باهوش تر است. 0:04:49.467,0:04:50.907 منظورم از این مورد چیه؟ 0:04:50.931,0:04:52.521 اگه صاحب مگی قلاده اش رو برداره، 0:04:52.545,0:04:54.613 اون با درجه منطقی ای از اطمینان می دونه که 0:04:54.637,0:04:56.041 زمان بیرون رفتن برای پیاده روی رسیده. 0:04:56.065,0:04:57.250 و چطور یادگرفته؟ 0:04:57.274,0:05:00.598 خوب، هر زمان که صاحب اش قلاده رو برمی داره،[br]اونها برای پیاده روی بیرون رفتن. 0:05:00.622,0:05:02.500 و مگی سه کار رو انجام داده: 0:05:02.524,0:05:04.393 او کاملا حواس اش رو جمع کرده، 0:05:04.417,0:05:06.499 باید به خاطر بسپارد که چه اتفاقی اتفاده 0:05:06.523,0:05:10.540 و مجبور شده تا یک الگو رو[br]در ذهنش ایجاد و نگهداری کنه. 0:05:11.429,0:05:13.524 جالبه، این دقیقا همونی هست که 0:05:13.548,0:05:16.431 دانشمندان کامپیوتر در طول 60 [br]سال گذشته در تلاش برای رساندن 0:05:16.431,0:05:18.534 هوش مصنوعی به این مرحله هستند. 0:05:18.683,0:05:20.032 برگردیم به سال ۱۹۵۲، 0:05:20.056,0:05:23.857 اونها این کامپیوتر را برای بازی دوز (تیک-تاک-تو) ساختند. 0:05:25.081,0:05:26.241 معامله بزرگی بود! 0:05:27.029,0:05:30.029 ۴۵ سال بعد از اون، در۱۹۹۷، 0:05:30.053,0:05:33.055 دیپ بلو (کامپیوتر شطرنج)[br]کاسپارو را در بازی شطرنج شکست داد. 0:05:34.046,0:05:39.014 ۲۰۱۱، واتسون در مسابقه تلویزیونی جپردی[br]این دو شرکت کننده انسان رو شکست داد، 0:05:39.038,0:05:41.966 که اینکار برای یک کامپیوتر[br]سخت تر از بازی شطرنج هست. 0:05:41.990,0:05:45.802 در حقیقت، بجای کار روی[br]دستورعمل های از قبل طرح شده، 0:05:45.826,0:05:49.929 واتسون مجبور به استفاده از استدلال [br]جهت مقابله با رقیب های انسانی اش بود. 0:05:50.393,0:05:52.832 و دو هفته پیش، 0:05:52.856,0:05:57.118 (نرم افزار طراحی شده شرکت) ذهن-عمیق-گوگل،[br]آلفاگو، قویترین انسان در (بازی) گو رو شکست داد، 0:05:57.142,0:05:59.354 که دشوارترین بازی شناخته شده است. 0:05:59.378,0:06:02.274 در واقع، در بازی گو،[br]حرکتهای ممکن برای این بازی بیشتر از 0:06:02.298,0:06:04.322 اتم های موجود در جهان هست. 0:06:06.210,0:06:08.036 پس در راستای برنده شدن، 0:06:08.060,0:06:11.348 کاری که آلفاگو مجبور به انجام اش بود[br]توسعه (الگوریتمی) دارای بینش بود. 0:06:11.348,0:06:15.208 و در حقیقت،[br]در برخی موارد، برنامه نویسان آلفاگو 0:06:15.232,0:06:18.048 علت کارهایی که آلفاگو انجام داده بود[br]رو متوجه نمی شدند. 0:06:19.241,0:06:21.111 پیشرفتها خیلی سریع اتفاق می افتند. 0:06:21.135,0:06:24.432 منظورم اینه که، در نظر بگیرید.[br]در محدوده ی طول عمر یک انسان، 0:06:24.432,0:06:26.819 کامپیوترها از سمت بازی های کودکان 0:06:27.920,0:06:30.968 به سمت چیزی که بهش[br]اوج تفکر استراتژیک می گیم، رفته اند. 0:06:31.999,0:06:34.416 چیزی که اصولا داره اتفاق میوفته 0:06:34.440,0:06:37.750 اینه که کامپیوترها از چیزی شبیه آقای اسپاک 0:06:37.774,0:06:39.723 به چیزی بیشتر شبیه آقای کرک،[br]در حال پیشرفت هستند. 0:06:39.747,0:06:43.365 (خنده حضار) 0:06:43.389,0:06:46.813 درسته؟ از منطق خالص به بینش پیدا کردن. 0:06:48.184,0:06:49.927 آیا از این پل رد می شید؟ 0:06:50.609,0:06:52.932 بیشتر شما می گید، "اوه، غلط بکنم!" 0:06:52.956,0:06:54.264 (خنده حضار) 0:06:54.288,0:06:56.945 و شما در بخشی از ثانیه[br]این تصمیم رو می گیرید. 0:06:56.969,0:06:59.397 یه جورایی می دونستید که این پل امن نیست. 0:06:59.421,0:07:01.410 و این دقیقا همون بینشی هست 0:07:01.434,0:07:05.002 که هم اکنون، سیستم های عمیق یادگیر ما،[br]در حال شروع به ارتقا(به آن) هستند. 0:07:05.722,0:07:07.383 بزودی، شما دقیقا قادر خواهید بود 0:07:07.383,0:07:08.733 تا چیزهایی که ساخته و طراحی کرده اید 0:07:08.733,0:07:10.860 رو به یک کامپیوتر نشون بدید، 0:07:10.860,0:07:12.389 و کامپیوتر بهش نگاه کنه و بگه، 0:07:12.389,0:07:15.446 "متاسفم رفیق، این هرگز کار نخواهد کرد. [br]باید دوباره تلاش کنی." 0:07:15.854,0:07:19.334 یا اینکه ازش بپرسید که[br]آیا مردم آهنگ بعدی شما رو دوست خواهند داشت، 0:07:19.773,0:07:21.836 یا طعم جدیدی از بستنی. 0:07:23.549,0:07:26.128 یا، خیلی مهم تر از این، 0:07:26.152,0:07:28.616 می تونستید با کامپیوتری کار کنید[br]که مشکلی رو حل کنه 0:07:28.616,0:07:30.307 که هرگز قبلا باهش روبرو نشده بودیم. 0:07:30.307,0:07:31.712 برای مثال، تغییرات آب وهوایی. 0:07:31.712,0:07:33.646 که خودمون از پس اش برنیومدیم، 0:07:33.670,0:07:36.005 مطمئنا می تونستیم تمام کمک های[br]ممکن رو استفاده کنیم. 0:07:36.005,0:07:37.397 چیزی که در موردش صحبت می کنم، 0:07:37.421,0:07:39.976 تکنولوژی، توانایی های درکی ما[br]رو تقویت می کنه 0:07:40.000,0:07:43.552 که به عنوان انسان های تکمیل نشده قدیمی[br]می تونیم چیزهایی رو تصور و طراحی کنیم که 0:07:43.576,0:07:46.135 به سادگی خارج از دسترس ما بوده. 0:07:47.984,0:07:50.925 حالا در مورد ساخت تمامی [br]این چیزهای جدید احمقانه ای که 0:07:50.949,0:07:53.390 ما قراره اختراع و طراحی کنیم ،چطور؟ 0:07:53.952,0:07:58.045 به نظر من عصر انسان تکامل یافته به همان[br]اندازه که درمورد دنیای فیزیکیه 0:07:58.069,0:08:01.134 در مورد حوزه مجازی و فکری هم هست. 0:08:01.833,0:08:03.754 پس چطور تکنولوژی ما رو کامل می کنه؟ 0:08:04.261,0:08:06.734 در دنیای فیزیکی، سیستم های رباتیک. 0:08:07.620,0:08:09.356 باشه، مطمئنا این ترس وجود داره که 0:08:09.380,0:08:11.868 رباتها دارن کار رو از انسان ها می گیرند، 0:08:11.892,0:08:13.722 در بخش های خاصی این واقعیت وجود داره. 0:08:14.174,0:08:17.052 اما من بیشتر،[br]به این ایده علاقه مند هستم که 0:08:17.076,0:08:22.086 همکاری انسان و رباتها،[br]آنها رو به سمت تکامل همدیگر، 0:08:22.110,0:08:24.142 و آغاز سکونت در فضای جدیدی، پیش میبره. 0:08:24.142,0:08:26.694 این آزمایشگاه تحقیقات کاربردی[br]ما در سانفرانسیسکو هست، 0:08:26.694,0:08:29.720 یکی از حوزه های تمرکز [br]ما برروی رباتهای پیشرفته هست، 0:08:29.744,0:08:32.255 مخصوصا، حوزه همکاری انسان و ربات. 0:08:33.034,0:08:35.793 و این بیشاپ یکی از ربات های ما هست. 0:08:35.817,0:08:37.686 برای آزمایش، اون رو برای کمک به فردی 0:08:37.686,0:08:41.090 که روی ساخت و سازی[br]با اعمال تکراری کار می کنه، تنظیم کردیم-- 0:08:41.984,0:08:46.178 کارهای شبیه برش دیوار تیغه ای[br]برای پریز برق یا کلید لامپ. 0:08:46.202,0:08:48.668 (خنده حضار) 0:08:49.637,0:08:53.002 پس، همکار انسانی ربات بیشاپ می تونه [br]به زبان انگلیسی ساده و حرکات اولیه 0:08:53.002,0:08:54.527 به ربات بگه که چه کاری انجام بده، 0:08:54.527,0:08:55.788 چیزی شبیه صحبت با یک سگ، 0:08:55.812,0:08:57.955 و سپس بیشاپ اون دستورعمل ها رو 0:08:57.979,0:08:59.871 با دقت کاملی اجرا می کنه. 0:08:59.895,0:09:03.354 ما از انسان در مواردی که[br]در اونها توانایی داره استفاده میکنیم مثل: 0:09:03.354,0:09:05.241 آگاهی، ادراک و تصمیم گیری. 0:09:05.265,0:09:07.785 و از ربات در مواردی که در[br]اونها خوب عمل می کنه مثل: 0:09:07.785,0:09:09.277 دقت عمل و تکرار. 0:09:10.092,0:09:12.649 این یک پروژه باحال دیگه ای هست[br]که بیشاپ روش کارکرده. 0:09:12.649,0:09:15.718 هدف این پروژه که HIVE نام گذاری شده،[br]این بود که 0:09:15.742,0:09:19.593 نمونه اولیه ای از تجربه همکاری[br]مشترک انسان ها، کامپیوترها و ربات ها 0:09:19.617,0:09:22.837 برای حل مشکلات طراحی پیچیده، ساخته بشه. 0:09:23.793,0:09:25.244 انسان به عنوان کارگر عمل کرد. 0:09:25.268,0:09:28.791 اونها دور سایت ساخت و ساز میچرخند،[br]بامبو رو با دست حالت می دادند -- 0:09:28.791,0:09:31.671 خوب، از این لحاظ که بامبو ماده ای[br]متفاوت با دیگر مواد هست، 0:09:31.671,0:09:33.529 برای رباتها کار فوق العاده مشکلی هست. 0:09:33.529,0:09:35.755 اما بعد از اون رباتها[br](الیاف های) فیبری را پیچاندند. 0:09:35.755,0:09:37.940 که انجام دادنش تقریبا برای انسانها [br]غیرممکن بود. 0:09:37.964,0:09:41.585 و بعد از اون ما یک هوش مصنوعی داشتیم[br]که همه چیز رو کنترل می کرد. 0:09:41.609,0:09:44.899 به انسان ها می گفت چه کاری رو انجام بدن[br]و اینکه رباتها چه کارهایی رو انجام بدن 0:09:44.923,0:09:47.838 و هزاران اجزای مجزا از هم رو،[br]رو در نظر داشت. 0:09:47.862,0:09:49.042 چیزی که جالبه اینه که 0:09:49.066,0:09:52.207 بدون اینکه انسان، ربات و هوش مصنوعی [br]همدیگر رو کامل کنند، 0:09:52.231,0:09:56.755 ساخت این ساختار به سادگی غیرممکن بود. 0:09:57.890,0:10:01.210 خوب، پروژه دیگه ای رو باهاتون به اشتراک می ذارم که[br]این یکی یکم احمقانه است. 0:10:01.234,0:10:05.702 ما با هنرمند مستقر در آمستردام "جوریس لارمن"[br]و تیم اش در MX3D کار میکردیم 0:10:05.726,0:10:08.604 تا با الهام از طبیعت اطرافش طراحی [br]و به طور چاپ رباتیکی، 0:10:08.618,0:10:12.063 اولین پل ساخته شده خودگردان جهان[br]رو بسازه. 0:10:12.315,0:10:15.644 خوب،هم اکنون جوریس و یک هوش مصنوعی[br]در آمستردام، که بهش اشاره کردم، 0:10:15.644,0:10:16.966 در حال طراحی این پل هستند. 0:10:16.966,0:10:19.831 و وقتی این کار به اتمام رسید،[br]ما قراره که Go رو شکست بدیم، 0:10:19.831,0:10:22.876 و ربات ها پرینت 3D [br]با استیل ضد زنگ رو شروع خواهند کرد، 0:10:22.900,0:10:26.183 بعد، اونها به ادامه پرینت[br]تا اتمام پایان کار پل 0:10:26.207,0:10:27.765 بدون دخالت انسان ادامه می دهند. 0:10:29.099,0:10:32.027 پس، از اونجایی که کامپیوترها [br]به سمت تکمیل توانایی ما 0:10:32.051,0:10:34.201 برای تصور و طراحی چیزهای جدید می روند، 0:10:34.225,0:10:37.120 سیستم های رباتیک در ساخت چیزهایی 0:10:37.144,0:10:39.748 که قبل از اون هرگز قادر به انجام اش[br]نبودیم به کمک ما میان. 0:10:40.347,0:10:44.507 و اما توانایی ما در احساس و[br]کنترل این کارها چی میشه؟ 0:10:44.531,0:10:48.562 در مورد یک سیستم عصبی[br]برای چیزهایی که ما میسازیم، چطور؟ 0:10:48.586,0:10:51.098 سیستم عصبی ما، سیستم عصبی انسان، 0:10:51.122,0:10:53.923 در مورد هر چیزی که در اطراف ما[br]میگذره بهمون اطلاعات میده. 0:10:54.186,0:10:57.870 اما سیستم عصبی چیزهایی که می سازیم[br]بصورت ابتدایی هست. 0:10:57.894,0:11:01.457 برای مثال، یک ماشین به بخش خدمات شهری،[br]هشدار اینکه 0:11:01.481,0:11:04.611 همون لحظه به یک گودال در نبش خیابان برادوی و موریسون[br]برخورد کرده رو ارسال نمی کنه. 0:11:04.635,0:11:06.667 و ساختمانی، در مورد اینکه آیا مردمی[br]که داخل اون هستند، تمایل به بودن در 0:11:06.691,0:11:09.375 اونجا رو دارند یا نه، اطلاعاتی نمی ده، 0:11:09.399,0:11:12.409 و سازنده اسباب بازی اطلاعی نداره[br]از اینکه آیا واقعا 0:11:12.433,0:11:14.440 با یک اسباب بازی، بازی می شه -- 0:11:14.464,0:11:17.003 چطور و کجا یا اینکه اصلا سرگرم کننده بوده یا نه. 0:11:17.620,0:11:21.434 ببینید، من مطمئن هستم که طراح ها[br]برای عروسک باربی همچین مدلی رو 0:11:21.458,0:11:22.682 در زمان طراحی اش تصور کرده اند. 0:11:22.706,0:11:24.153 (خنده حضار) 0:11:24.177,0:11:27.083 اما چطور میشه اگر مشخص بشه[br]که باربی در واقع تنها مونده؟ 0:11:27.107,0:11:30.254 (خنده حضار) 0:11:31.266,0:11:32.554 اگر طراحان از حقیقتی که در در[br]دنیای واقعی در مورد طرحاشون 0:11:32.578,0:11:34.685 - جاده ها، ساختمان و عروسک باربی -- 0:11:34.709,0:11:37.292 اطلاع پیدا کرده بودند 0:11:37.316,0:11:40.010 قادر به استفاده از این دانش برای ایجاد تجربه ای که 0:11:40.034,0:11:41.434 برای کاربران بهتر بود می کردند. 0:11:41.458,0:11:43.569 چیزی که اینجا وجود نداره[br]یک سیستم عصبی هست که 0:11:43.569,0:11:47.762 ما رو به تمامی چیزهایی که طراحی، ساخته [br]و استفاده می کنیم متصل کنه. 0:11:48.265,0:11:52.510 چی میشد اگه برای همگی شما،[br]به اطلاعات چیزهایی که شما 0:11:52.530,0:11:54.837 در دنیای واقعی ساخته اید، دسترسی داشتید؟ 0:11:55.432,0:11:56.883 با هر کالایی که می سازیم، 0:11:56.907,0:11:59.342 ما مقدار زیادی پول و انرژی 0:11:59.366,0:12:01.742 در حقیقت، سال گذشته[br]حدود دو تریلیون دلار 0:12:01.766,0:12:04.620 برای اینکه مردم رو به خرید چیزهایی که ساخته ایم[br]راضی کنیم، خرج کردیم. 0:12:04.644,0:12:08.032 اما اگه شما این ارتباط رو با کالاهایی که توسط شما[br]طراحی و ساخته میشه داشتید 0:12:08.056,0:12:09.783 بعد از اینکه اونها به دنیای واقعی وارد می شدند،[br]یا هرچیز دیقه ایی، 0:12:09.807,0:12:13.421 بعد از اینکه اونها حتی فروخته یا عرضه می شدند، 0:12:13.445,0:12:15.065 در واقع می تونستیم این رو تغییر بدیم، 0:12:15.089,0:12:18.136 و بجای اینکه مردم رو به داشتن کالاهامون وادار کنیم، 0:12:18.160,0:12:21.594 وسایلی رو بسازیم که مردم در همون دیدار اول[br]خواستار اون ها هستند. 0:12:21.618,0:12:24.405 خبر خوب اینه که ما روی سیستم های عصبی دیجیتال 0:12:24.429,0:12:27.230 که ما رو به چیزهایی که طراحی کرده ایم متصل میکنه،[br]درحال کار هستیم. 0:12:28.365,0:12:30.382 ما روی یک پروژه ای 0:12:30.382,0:12:33.728 با دو برادر در لس آنجلس [br]بنام برادران بندیگو 0:12:33.752,0:12:35.429 و تیم آنها در حال کار هستیم. 0:12:35.429,0:12:38.616 یکی از کارهایی که این بچه ها انجام میدن [br]ساخت اتومبیل های دیوانه هست 0:12:38.640,0:12:41.513 برای کارهای واقعا دیوانه وار. 0:12:42.905,0:12:44.355 این بچه ها دیونه اند -- 0:12:44.379,0:12:45.415 (خنده حضار) 0:12:45.439,0:12:46.842 در بهترین شکل. 0:12:48.993,0:12:50.756 و کاری که با اونها انجام می دیم اینه که 0:12:50.780,0:12:53.220 به شاسی ماشین مسابقه قدیمی 0:12:53.244,0:12:54.829 یک سیستم عصبی متصل کنیم. 0:12:54.853,0:12:57.911 خوب، اون رو با دوجین از سنسورها مجهز کردیم، 0:12:57.935,0:13:00.570 یک راننده در سطح جهانی[br]رو پشت این ماشین نشوندیم، 0:13:00.594,0:13:03.951 و برای رانندگی به مدت[br]یک هفته به صحرا بردیم. 0:13:03.975,0:13:06.466 و سیستم عصبی ماشین تمام اتفاقاتی[br]که برای ماشین افتاده بود 0:13:06.490,0:13:07.972 رو ضبط و ذخیره کرد. 0:13:07.996,0:13:10.617 چهار بیلیون نقاط داده را ذخیره کردیم; 0:13:10.641,0:13:12.951 تمام نیروهایی اعمالی رو. 0:13:12.975,0:13:15.094 و بعد از اون ما کار احمقانه ای کردیم. 0:13:15.268,0:13:16.768 تمامی این داده ها رو جمع کرده، 0:13:16.792,0:13:20.528 و وارد یک طراح مولد هوش مصنوعی[br]با نام "دریم کچر" کردیم. 0:13:21.270,0:13:25.234 خوب زمانی که شما یک ابزار طراحی یک سیستم عصبی بدید[br](به هوش مصنوعی مولد) 0:13:25.258,0:13:28.140 و ازش می خواید تا براتون شاسی نهایی[br]ماشین رو بسازه، چه می گیرید؟ 0:13:28.723,0:13:30.696 این رو بدست می آورید. 0:13:32.293,0:13:36.006 این چیزی هست که انسان[br]هرگز نتونسته طراحی کنه. 0:13:36.707,0:13:38.595 به غیراز انسانی که این رو طراحی کرد، 0:13:38.619,0:13:42.928 اما اون انسانی بود تکامل یافته [br]از یک طراح مولد هوش مصنوعی، 0:13:42.952,0:13:44.183 یک سیستم عصبی دیجیتال 0:13:44.207,0:13:47.212 و رباتهایی که در واقع قادر[br]به ساخت چیزی شبیه به این هستند. 0:13:47.680,0:13:51.275 پس اگر این آینده عصر تکامل هست، 0:13:51.299,0:13:55.560 و ما در حال تکامل[br]شناختی، فیزیکی و ادراکی هستیم، 0:13:55.584,0:13:56.992 اون چه شکلی خواهد بود؟ 0:13:57.576,0:14:00.897 این سرزمین عجایب قراره چه شکلی باشه؟ 0:14:00.921,0:14:02.930 فکر می کنم که ما داریم دنیایی رو میبینیم که 0:14:02.930,0:14:05.722 جایی که ما از چیزهایی که ساخته میشن 0:14:05.746,0:14:07.191 به چیزهایی که کشت می شن، منتقل می شویم. 0:14:08.159,0:14:11.612 جایی که ما از چیزهایی که ساخته می شن 0:14:11.636,0:14:13.340 به اونهایی که رشد می کنند منتقل می شویم. 0:14:14.134,0:14:16.322 ما از سمت منزوی بودن 0:14:16.346,0:14:17.956 به سمت متصل شدن در حال انتقال هستیم. 0:14:18.634,0:14:21.045 و ما از استخراج کردن 0:14:21.069,0:14:22.942 به سمت پذیرفتن تجمع خواهیم رفت. 0:14:23.967,0:14:27.734 من همچنین فکر می کنم که ما ازاشتیاق اطاعت وسایلمون (از ما) 0:14:27.758,0:14:29.399 به ارزش گذاری خودمختار،[br]انتقال پیدا خواهیم کرد. 0:14:30.510,0:14:32.415 به لطف توانایی های تکاملی مان، 0:14:32.439,0:14:34.816 دنیای ما در حال تغییرات چشمگیری هست. 0:14:35.576,0:14:38.822 دنیایی خواهیم داشت با تنوع بیشتر،[br]اتصال بیشتر، 0:14:38.846,0:14:41.133 پویایی بیشتر، پیچیده گی بیشتر، 0:14:41.157,0:14:43.475 سازگاری بیشتر و، البته، 0:14:43.499,0:14:44.716 زیبایی بیشتر. 0:14:45.231,0:14:46.795 شکل چیزهایی که در راه هستند 0:14:46.819,0:14:49.429 کاملا متفاوت از چیزهایی هستند[br]که تا حالا دیده ایم. 0:14:49.429,0:14:50.256 چرا؟ 0:14:50.256,0:14:54.071 چون چیزی که اونها رو شکل خواهند داد،[br]این همکاری جدید 0:14:54.095,0:14:57.765 بین تکنولوژی، طبیعت و انسانیت هستند. 0:14:59.279,0:15:03.067 که ، برای من، [br]این آینده ارزشمندی هست که منتظرش هستم. 0:15:03.067,0:15:04.468 از همگی شما متشکرم. 0:15:04.468,0:15:10.521 (تشویق حضار)