1 00:00:00,519 --> 00:00:03,271 وقتی دهها میلیون نفر بیکارند یا کمکارند، 2 00:00:03,271 --> 00:00:05,599 وقتی دهها میلیون نفر بیکارند یا کمکارند، 3 00:00:05,599 --> 00:00:09,726 اینکه تکنولوژی ممکنه چه تأثیری بر نیروی کار داشته باشه، توجه زیادی جلب میکنه. 4 00:00:09,726 --> 00:00:12,445 و وقتی من به این گفتمان نگاه میکنم، 5 00:00:12,445 --> 00:00:15,397 تعجب میکنم که میبینم دقیقاً بر روی موضوع درست تمرکز کرده، 6 00:00:15,397 --> 00:00:18,375 و در عین حال، کاملاً از نکتهی اصلی دور افتاده. 7 00:00:18,375 --> 00:00:21,383 موضوعی که روی آن تمرکز کرده، پرسش اینه که آیا همهی این فنآوریها 8 00:00:21,383 --> 00:00:25,038 بر توانایی مردم برای کسب درآمد زندگی تأثیر داشته، یا به شکل متفاوتتری بگم، 9 00:00:25,038 --> 00:00:28,058 بر توانایی مردم برای کسب درآمد زندگی تأثیر داشته، یا به شکل متفاوتتری بگم، 10 00:00:28,058 --> 00:00:30,336 آیا رباتها دارند شغلهای ما را میگیرند؟ 11 00:00:30,336 --> 00:00:32,304 و مدارکی هست که نشون میده که اینطوره. 12 00:00:32,304 --> 00:00:36,657 رکود اقتصادی بزرگ وقتی تمام شد که تولید ناخالص داخلی آمریکا شروع به رشد آهسته و پایدار رو به بالا کرد 13 00:00:36,657 --> 00:00:40,086 رکود اقتصادی بزرگ وقتی تمام شد که تولید ناخالص داخلی آمریکا شروع به رشد آهسته و پایدار رو به بالا کرد 14 00:00:40,101 --> 00:00:43,035 برخی شاخصهای اقتصادی دیگه هم شروع به جهش کردند و 15 00:00:43,035 --> 00:00:45,897 تقریباً سریع به جورایی سالم شدند. 16 00:00:45,897 --> 00:00:49,173 سود شرکتها بالاست. در واقع، اگر سودهای بانکی را در نظر بگیرید، 17 00:00:49,173 --> 00:00:51,285 از همیشه بالاترند. 18 00:00:51,285 --> 00:00:54,557 و سرمایهگذاری تجاری در ابزار، در تجهیزات و سخت افزار و نرمافزار از همیشه بالاتره. 19 00:00:54,557 --> 00:00:57,664 و سرمایهگذاری تجاری در ابزار، در تجهیزات و سخت افزار و نرمافزار از همیشه بالاتره. 20 00:00:57,664 --> 00:01:01,045 پس تجارتخانهها دسته چکهاشون را درآوردهاند. 21 00:01:01,045 --> 00:01:03,306 کاری که واقعاً نمیکنند استخدام کردنه. 22 00:01:03,306 --> 00:01:07,007 خوب این خط قرمز نسبت اشتغال به جمعیت است، 23 00:01:07,007 --> 00:01:10,388 به عبارت دیگه، درصد افراد در سن کار در آمریکا که شغل دارند. 24 00:01:10,388 --> 00:01:12,279 به عبارت دیگه، درصد افراد در سن کار در آمریکا که شغل دارند. 25 00:01:12,279 --> 00:01:15,979 و ما میبینیم که در دوران رکود بزرگ فرو رفته، 26 00:01:15,979 --> 00:01:18,843 و حتی هنوز هم اصلاً شروع به برگشت نکرده. 27 00:01:18,843 --> 00:01:21,350 اما این داستان فقط داستان یک رکود اقتصادی نیست. 28 00:01:21,350 --> 00:01:24,347 دههای که ما تازه طی کردیم رشد اشتغالزایی نسبتاً ضعیفی در تمام دورانش داشت، 29 00:01:24,347 --> 00:01:27,740 دههای که ما تازه طی کردیم رشد اشتغالزایی نسبتاً ضعیفی در تمام دورانش داشت، 30 00:01:27,740 --> 00:01:30,675 مخصوصاً وقتی با دهههای دیگه مقایسه می:کنیم، 31 00:01:30,675 --> 00:01:32,965 و در دههی ۲۰۰۰ تنها دوران ثبت شده است که در آخر آن افراد کمتری شغل داشتند تا اول آن. 32 00:01:32,965 --> 00:01:36,168 و در دههی ۲۰۰۰ تنها دوران ثبت شده است که در آخر آن افراد کمتری شغل داشتند تا اول آن. 33 00:01:36,168 --> 00:01:39,228 این چیزی نیست که شما میخواهید ببینید. 34 00:01:39,228 --> 00:01:42,867 وقتی نمودار کارمندهای بالقوه را در برابر تعداد شغل در کشور میکشید 35 00:01:42,867 --> 00:01:46,471 وقتی نمودار کارمندهای بالقوه را در برابر تعداد شغل در کشور میکشید 36 00:01:46,471 --> 00:01:50,049 میبینید که فاصله در طول زمان بزرگتر و بزرگتر میشه، 37 00:01:50,049 --> 00:01:52,449 و بعد در طول رکود بزرگ، این فاصله به شدت زیاد شد. 38 00:01:52,449 --> 00:01:56,859 من یک سری محاسبهی سریع کردم. من رشد تولید ناخالص داخلی بیست سال گذشته 39 00:01:56,859 --> 00:02:00,155 و رشد اشتغالزایی بیست سال گذشته را به طرزی سرراست به کار بردم 40 00:02:00,155 --> 00:02:02,897 و رشد اشتغالزایی بیست سال گذشته را به طرزی سرراست به کار بردم 41 00:02:02,897 --> 00:02:05,523 و سعی کردم نشون بدم برای اینکه اقصاد رشدش را ادامه بده چند شغل نیاز است و این خطی است که به آن رسیدم. 42 00:02:05,523 --> 00:02:09,182 و سعی کردم نشون بدم برای اینکه اقصاد رشدش را ادامه بده چند شغل نیاز است و این خطی است که به آن رسیدم. 43 00:02:09,182 --> 00:02:12,628 این خوبه یا بد؟ این خط دولت برای جمعیت در سن کار است که جلو میره. 44 00:02:12,628 --> 00:02:16,481 این خوبه یا بد؟ این خط دولت برای جمعیت در سن کار است که جلو میره. 45 00:02:16,481 --> 00:02:21,252 پس اگر این خطها دقیق باشند، این فاصله بسته نخواهد شد. 46 00:02:21,252 --> 00:02:24,653 مشکل اینه که، من فکر میکنم این خطها دقیق نیستند. 47 00:02:24,653 --> 00:02:28,009 به خصوص، من فکر میکنم خط من بیش از حد خوشبینانهست، 48 00:02:28,009 --> 00:02:31,365 چون وقتی من این کار را انجام دادم، فرض کردم که رشد اشتغالزایی در آینده هم یه جورایی شبیه به گذشته خواهد بود، و در واقع این باور من نیست، 49 00:02:31,365 --> 00:02:33,813 چون وقتی من این کار را انجام دادم، فرض کردم که رشد اشتغالزایی در آینده هم یه جورایی شبیه به گذشته خواهد بود، و در واقع این باور من نیست، 50 00:02:33,813 --> 00:02:37,252 چون وقتی من این کار را انجام دادم، فرض کردم که رشد اشتغالزایی در آینده هم یه جورایی شبیه به گذشته خواهد بود، و در واقع این باور من نیست، 51 00:02:37,252 --> 00:02:41,011 چون وقتی به اطرافم نگاه میکنم، فکر میکنم وقتی صحبت از تأثیر فنآوری روی نیروی کار میشه، ما هنوز هیچچیز ندیدهایم. 52 00:02:41,011 --> 00:02:44,296 چون وقتی به اطرافم نگاه میکنم، فکر میکنم وقتی صحبت از تأثیر فنآوری روی نیروی کار میشه، ما هنوز هیچچیز ندیدهایم. 53 00:02:44,296 --> 00:02:48,294 فقط در چند سال گذشته، ما دیدهایم که ابزارهای دیجیتالی مهارتها و تواناییهایی نشون میدن که قبلاً هرگز نداشتند، 54 00:02:48,294 --> 00:02:52,700 فقط در چند سال گذشته، ما دیدهایم که ابزارهای دیجیتالی مهارتها و تواناییهایی نشون میدن که قبلاً هرگز نداشتند، 55 00:02:52,700 --> 00:02:56,488 و این یه جورایی آنچه که ما آدمها میتونیم به عنوان شغل انجام بدیم کم میکند. 56 00:02:56,488 --> 00:02:59,744 بگذارید چند مثال براتون بزنم. 57 00:02:59,744 --> 00:03:01,755 در طول تاریخ، اگر میخواستید چیزی از یک زبان به زبان دیگه ترجمه بشه، 58 00:03:01,755 --> 00:03:04,679 در طول تاریخ، اگر میخواستید چیزی از یک زبان به زبان دیگه ترجمه بشه، 59 00:03:04,679 --> 00:03:06,343 باید یک انسان را درگیر میکردید. 60 00:03:06,343 --> 00:03:09,759 حالا ما خدمات ترجمهی خودکار، فوری و چند زبانه داریم که مجانی در اختیار ما هستند 61 00:03:09,759 --> 00:03:13,977 حالا ما خدمات ترجمهی خودکار، فوری و چند زبانه داریم که مجانی در اختیار ما هستند 62 00:03:13,977 --> 00:03:17,366 از طریق خیلی از دستگاههامون تا تلفنهای همراه هوشمندمون. 63 00:03:17,366 --> 00:03:19,750 و اگر هر کدام از ما از اینها استفاده کرده باشیم، میدونیم که بی عیب نیستند، اما خوبند. 64 00:03:19,750 --> 00:03:23,071 و اگر هر کدام از ما از اینها استفاده کرده باشیم، میدونیم که بی عیب نیستند، اما خوبند. 65 00:03:23,071 --> 00:03:26,222 در تمام طول تاریخ، اگر میخواستید چیزی نوشته بشه، 66 00:03:26,222 --> 00:03:29,637 یک گزارش یا یک مقاله، باید یک نفر را درگیر میکردید. 67 00:03:29,637 --> 00:03:31,889 نه از این به بعد. این مقاله چند وقت پیش در فوربز آنلاین در مورد درآمدهای اَپِل ظاهر شد. 68 00:03:31,889 --> 00:03:35,119 نه از این به بعد. این مقاله چند وقت پیش در فوربز آنلاین در مورد درآمدهای اَپِل ظاهر شد. 69 00:03:35,119 --> 00:03:37,646 با یک الگوریتم نوشته شده. 70 00:03:37,646 --> 00:03:40,901 و خوب نیست، بی نقصه. 71 00:03:40,901 --> 00:03:43,863 خیلی از مردم به این نگاه میکنند و میگن، "خوب، اینا کارهای خیلی مشخص و باریکیاند، 72 00:03:43,863 --> 00:03:46,212 خیلی از مردم به این نگاه میکنند و میگن، "خوب، اینا کارهای خیلی مشخص و باریکیاند، 73 00:03:46,212 --> 00:03:48,845 و بیشتر افرادی که کار فکری میکنند در واقعی کلینگر هستند، 74 00:03:48,845 --> 00:03:51,374 و اونا بر اساس بدنهی عظیمی از تخصص و دانش کار میکنند 75 00:03:51,374 --> 00:03:54,030 و اونا بر اساس بدنهی عظیمی از تخصص و دانش کار میکنند 76 00:03:54,030 --> 00:03:57,103 و از آن استفاده میکنند تا به حرکت غیر قابل پیشبینی تقاضا واکنش نشون بدند، 77 00:03:57,103 --> 00:03:59,591 و خیلی خیلی سخت میشه این را خودکار کرد." 78 00:03:59,591 --> 00:04:01,568 یکی از تأثیرگذارترین افرادی که کار فکری میکنند 79 00:04:01,568 --> 00:04:03,977 در حافظهی اخیر، مردی به اسم کن جنینگز است. 80 00:04:03,977 --> 00:04:09,035 او در مسابقهی تلویزیونی "جپردی" ۷۴ بار پشت سر هم برنده شده، 81 00:04:09,035 --> 00:04:11,663 سه میلیون دلار به خانه برده. 82 00:04:11,663 --> 00:04:15,513 این کن است در سمت راست که سه به یک به واتسون -سوپر کامپیوتری از آیبیام که جپردی بازی میکنه میبازه. 83 00:04:15,513 --> 00:04:20,317 این کن است در سمت راست که سه به یک به واتسون -سوپر کامپیوتری از آیبیام که جپردی بازی میکنه میبازه. 84 00:04:20,317 --> 00:04:22,181 پس وقتی ما به کاری که فنآوری میتونه با به طور کلی افرادی که کار فکری انجام میدن نگاه میکنیم 85 00:04:22,181 --> 00:04:25,054 پس وقتی ما به کاری که فنآوری میتونه با به طور کلی افرادی که کار فکری انجام میدن نگاه میکنیم 86 00:04:25,054 --> 00:04:27,653 من به این فکر میافتم که شاید این ایدهی کلینگر چیز خاصی نباشه 87 00:04:27,653 --> 00:04:30,541 به خصوص وقتی ما کارهایی انجام میدیم 88 00:04:30,541 --> 00:04:34,529 مثل وصل کردن سیری به واتسون و داشتن تکنولوژیهایی که میفهمند ما چی میگیم 89 00:04:34,529 --> 00:04:36,425 مثل وصل کردن سیری به واتسون و داشتن تکنولوژیهایی که میفهمند ما چی میگیم 90 00:04:36,425 --> 00:04:38,506 و حرفها را برای ما تکرار میکنند. 91 00:04:38,506 --> 00:04:41,344 حالا سیری با بینقصی فاصلهی زیادی داره، و ما اشتباههاش را مسخره میکنیم، 92 00:04:41,344 --> 00:04:44,363 اما این را هم باید در نظر داشته باشیم که 93 00:04:44,363 --> 00:04:47,039 اگر فنآوریهایی مثل سیری و واتسون بر اساس قانون مور پیشرفت کنند، که میکنند، 94 00:04:47,039 --> 00:04:50,820 اگر فنآوریهایی مثل سیری و واتسون بر اساس قانون مور پیشرفت کنند، که میکنند، 95 00:04:50,820 --> 00:04:53,404 در عرض ۶ سال، آنها دو بار بهتر نخواهند بود، یا چهار بار بهتر، 96 00:04:53,404 --> 00:04:58,222 آنها ۱۶ بار بهتر از حالا خواهند بود. 97 00:04:58,222 --> 00:05:01,905 پس من فکر میکنم که خیلی از کارهای فکری از این مسئله تأثیر میگیرند. 98 00:05:01,905 --> 00:05:05,459 و فنآوریهای دیجیتال فقط روی کارهای فکری تأثیر ندارند. 99 00:05:05,459 --> 00:05:09,451 آنها دارند ماهیچههاشون را در دنیای فیزیکی هم به کار میبرند. 100 00:05:09,451 --> 00:05:11,900 من شانس این را داشتم که چند وقت پیش در خودروی خودکار گوگل شواری کنم 101 00:05:11,900 --> 00:05:17,426 که به همون با حالیه که به نظر میاد. (خندهی تماشاگران) 102 00:05:17,426 --> 00:05:20,453 و من ضمانت میدم که از پس ترافیک در یو اس ۱۰۱ خیلی به نرمی برآمد . 103 00:05:20,453 --> 00:05:23,358 و من ضمانت میدم که از پس ترافیک در یو اس ۱۰۱ خیلی به نرمی برآمد . 104 00:05:23,358 --> 00:05:25,323 حدود سه و نیم میلیون نفر در ایالات متحده هستند که برای درآمد کامیون میرانند. 105 00:05:25,323 --> 00:05:27,532 حدود سه و نیم میلیون نفر در ایالات متحده هستند که برای درآمد کامیون میرانند. 106 00:05:27,532 --> 00:05:29,961 فکر کنم این فنآوری روی بعضی از آنها تأثیر داره. 107 00:05:29,961 --> 00:05:33,213 و همین الان، رباتهای انساننما هنوز به طرزی باورنکردنی ابتداییاند. کار زیادی نمیتونند انجام بدند. 108 00:05:33,213 --> 00:05:36,471 و همین الان، رباتهای انساننما هنوز به طرزی باورنکردنی ابتداییاند. کار زیادی نمیتونند انجام بدند. 109 00:05:36,471 --> 00:05:39,052 اما خیلی سریع دارند بهتر میشن و دارپا 110 00:05:39,052 --> 00:05:42,203 که بازوی سرمایهگذاری وزارت دفاع است، 111 00:05:42,203 --> 00:05:43,868 داره سعی میکنه که خط سِیر آنها را تسریع کنه. 112 00:05:43,868 --> 00:05:48,551 پس، به طور خلاصه، آره، رباتها دارند میان دنبال شغلهای ما. 113 00:05:48,551 --> 00:05:52,431 در کوتاه مدت، ما میتونیم رشد اشتغال را با تشویق کارآفرینی و با سرمایهگذاری 114 00:05:52,431 --> 00:05:55,375 در کوتاه مدت، ما میتونیم رشد اشتغال را با تشویق کارآفرینی و با سرمایهگذاری 115 00:05:55,375 --> 00:05:58,423 روی زیرساختها تهییج کنیم، چون رباتهای امروز هنوز زیاد در تعمیر پلها خوب نیستند. 116 00:05:58,423 --> 00:06:00,163 روی زیرساختها تهییج کنیم، چون رباتهای امروز هنوز زیاد در تعمیر پلها خوب نیستند. 117 00:06:00,163 --> 00:06:03,528 اما در نه چندان دراز مدت، فکر کنم در دوران زندگی بیشتر افراد توی این اتاق، ما به 118 00:06:03,528 --> 00:06:07,097 اما در نه چندان دراز مدت، فکر کنم در دوران زندگی بیشتر افراد توی این اتاق، ما به 119 00:06:07,097 --> 00:06:10,033 اقصادی که بسیار پربازده خواهد بود اما نیروی کار انسانی زیادی نیاز نداره، گذر کنیم. 120 00:06:10,033 --> 00:06:12,837 اقصادی که بسیار پربازده خواهد بود اما نیروی کار انسانی زیادی نیاز نداره، گذر کنیم. 121 00:06:12,837 --> 00:06:14,392 و از پس این گذار برآمدن بزرگترین چالشی خواهد بود که جامعهی ما با آن روبروست. 122 00:06:14,392 --> 00:06:17,131 و از پس این گذار برآمدن بزرگترین چالشی خواهد بود که جامعهی ما با آن روبروست. 123 00:06:17,131 --> 00:06:19,893 ولتر دلیلش را خلاصه کرد. او گفت "کار ما را از سه شیطان بزرگ حفظ میکند: 124 00:06:19,893 --> 00:06:25,170 ملال، فساد و نیاز." 125 00:06:25,170 --> 00:06:27,741 اما با وجود این چالش، من شخصاً، 126 00:06:27,741 --> 00:06:30,790 من هنوز یک خوشبین دیجیتالی بزرگم، 127 00:06:30,790 --> 00:06:33,977 و خیلی مطمئنم که فنآوریهای دیجیتالی که ما الان داریم درست میکنیم 128 00:06:33,977 --> 00:06:37,533 ما را به آیندهای آرمانی میبرند، نه یک آیندهی پادآرمانی. و برای اینکه توضیح بدم چرا، 129 00:06:37,533 --> 00:06:40,566 ما را به آیندهای آرمانی میبرند، نه یک آیندهی پادآرمانی. و برای اینکه توضیح بدم چرا، 130 00:06:40,566 --> 00:06:43,088 میخوام پرسشی مطرح کنم که به طرز احمقانهای کُلی ست. 131 00:06:43,088 --> 00:06:45,438 میخوام بپرسم مهمترین پیشرفتها در جامعهی انسانی چیست؟ 132 00:06:45,438 --> 00:06:47,761 میخوام بپرسم مهمترین پیشرفتها در جامعهی انسانی چیست؟ 133 00:06:47,761 --> 00:06:50,494 حالا، میخوام برخی از پاسخهایی که در جواب این سئوال گرفتم را با شما مطرح کنم. 134 00:06:50,494 --> 00:06:52,671 حالا، میخوام برخی از پاسخهایی که در جواب این سئوال گرفتم را با شما مطرح کنم. 135 00:06:52,671 --> 00:06:54,838 سئوال شگفتانگیزی برای پرسیدن و بحث تمامنشدنیای را شروع کردنه، 136 00:06:54,838 --> 00:06:57,159 چون بعضی از آدمها نظامهای فلسفی را در شرق و غرب مطرح میکنند 137 00:06:57,159 --> 00:07:00,619 چون بعضی از آدمها نظامهای فلسفی را در شرق و غرب مطرح میکنند 138 00:07:00,619 --> 00:07:03,752 که طرز فکر بسیاری از مردم راجع به جهان را تغییر دادهاند. 139 00:07:03,752 --> 00:07:06,588 و بعد افراد دیگهای میگن، "نه، در واقع، داستانهای بزرگ، 140 00:07:06,588 --> 00:07:09,011 پیشرفتهای بزرگ پیدا کردن ادیان اصلی جهانه که تمدنها را تغییر دادند 141 00:07:09,011 --> 00:07:12,293 پیشرفتهای بزرگ پیدا کردن ادیان اصلی جهانه که تمدنها را تغییر دادند 142 00:07:12,293 --> 00:07:14,932 و روی طرز زندگی تعداد بیشماری از آدمها تأثیر داشتند و تغییرشان دادند." 143 00:07:14,932 --> 00:07:17,936 و بعد یک سری دیگه از آدمها میگن، 144 00:07:17,936 --> 00:07:21,463 "در واقع، آنچه تمدنها را تغییر میده، آنچه اصلاحشان میکنه 145 00:07:21,463 --> 00:07:23,626 و آنچه زندگی مردم را عوض میکنه امپراطوریها هستند، 146 00:07:23,626 --> 00:07:27,538 پس پیشرفتهای بزرگ در تاریخ انسان داستانهای پیروزی و جنگ هستند." 147 00:07:27,538 --> 00:07:30,373 پس پیشرفتهای بزرگ در تاریخ انسان داستانهای پیروزی و جنگ هستند." 148 00:07:30,373 --> 00:07:32,963 و بعد همیشه یه آدم خوشحال پیدا میشه 149 00:07:32,963 --> 00:07:38,651 و میگه، "هی، طاعون را یادت نره." (خندهی تماشاگران) 150 00:07:38,651 --> 00:07:41,554 پاسخهای خوشبینانهای برای این پرسش هست، 151 00:07:41,554 --> 00:07:43,451 پس برخی افراد عصر کاوش را پیش میارند و باز شدن دنیا را. 152 00:07:43,451 --> 00:07:45,399 پس برخی افراد عصر کاوش را پیش میارند و باز شدن دنیا را. 153 00:07:45,399 --> 00:07:47,501 دیگران در مورد دستاوردهای اندیشمندانه در رشتههایی مثل ریاضی صحبت میکنند که به ما کمک کردند 154 00:07:47,501 --> 00:07:49,776 دیگران در مورد دستاوردهای اندیشمندانه در رشتههایی مثل ریاضی صحبت میکنند که به ما کمک کردند 155 00:07:49,776 --> 00:07:53,086 کنترل بهتری بر دنیا داشته باشیم، و افراد دیگه در مورد دورههایی که 156 00:07:53,086 --> 00:07:54,783 شکوفایی عمیقی در هنر و علم بود صحبت میکنند. و این بحث همچنان ادامه داره. 157 00:07:54,783 --> 00:07:58,585 شکوفایی عمیقی در هنر و علم بود صحبت میکنند. و این بحث همچنان ادامه داره. 158 00:07:58,585 --> 00:08:01,424 این بحث تمام نشدنیه، و یک جواب کامل براش وجود نداره. اما اگر شما هم مثل من خورهی علم باشید، 159 00:08:01,424 --> 00:08:04,676 این بحث تمام نشدنیه، و یک جواب کامل براش وجود نداره. اما اگر شما هم مثل من خورهی علم باشید، 160 00:08:04,676 --> 00:08:07,574 میگید، "خوب، دادهها چی میگن؟" 161 00:08:07,574 --> 00:08:10,385 و شروع به کارهایی میکنید مثل کشیدن گراف چیزهایی که ممکنه برامون جالب باشه، مثل جمعیت کل دنیا، 162 00:08:10,385 --> 00:08:14,488 و شروع به کارهایی میکنید مثل کشیدن گراف چیزهایی که ممکنه برامون جالب باشه، مثل جمعیت کل دنیا، 163 00:08:14,488 --> 00:08:17,129 یا یکی از معیارهای پیشرفت اجتماعی، 164 00:08:17,129 --> 00:08:19,640 یا پیشرفت ملی یک جامعه، 165 00:08:19,640 --> 00:08:23,473 و شروع به رسم کردن دادههاتون میکنید، چون با این رویکرد 166 00:08:23,473 --> 00:08:26,090 داستانهای بزرگ، پیشرفتهای بزرگ در تاریخ انسان آنهایی هستند که باعث شدند این منحنیها خیلی خم بشن. 167 00:08:26,090 --> 00:08:28,951 داستانهای بزرگ، پیشرفتهای بزرگ در تاریخ انسان آنهایی هستند که باعث شدند این منحنیها خیلی خم بشن. 168 00:08:28,951 --> 00:08:30,863 پس وقتی این کار را انجام میدید، و وقتی دادهها را رسم میکنید، 169 00:08:30,863 --> 00:08:33,661 خیلی سریع به نتایج عجیبی میرسید. 170 00:08:33,661 --> 00:08:36,584 نتیجه میگیرید، در واقع که هیچ کدام از این چیزها اهمیت چندانی نداشته. (خندهی تماشاگران) 171 00:08:36,584 --> 00:08:41,536 نتیجه میگیرید، در واقع که هیچ کدام از این چیزها اهمیت چندانی نداشته. (خندهی تماشاگران) 172 00:08:41,536 --> 00:08:45,562 هیچ تأثیری روی منحنیها نداشتند. (خنده ی تماشاگران) 173 00:08:45,562 --> 00:08:49,146 یک داستان، یک پیشرفت بوده در تاریخ انسان که منحنی را خم کرده 174 00:08:49,146 --> 00:08:51,752 یک داستان، یک پیشرفت بوده در تاریخ انسان که منحنی را خم کرده 175 00:08:51,752 --> 00:08:55,798 حدود ۹۰ درجه خمش کرده و آن داستان فنآوری است. 176 00:08:55,798 --> 00:08:58,757 ماشین بخار، و فنآوریهای دیگر مربوط به انقلاب صنعتی دنیا را عوض کرد 177 00:08:58,757 --> 00:09:01,688 ماشین بخار، و فنآوریهای دیگر مربوط به انقلاب صنعتی دنیا را عوض کرد 178 00:09:01,688 --> 00:09:04,112 و آنقدر روی تاریخ انسان تأثیر داشت، 179 00:09:04,112 --> 00:09:06,195 که از زبان تاریخ شناس یان موریس، 180 00:09:06,195 --> 00:09:10,272 هر چیزی که قبل از آن آمده بود مسخره مینمود. 181 00:09:10,272 --> 00:09:13,185 و این کار را با بینهایت برابر کردن نیروی ماهیچههای ما انجام دادند 182 00:09:13,185 --> 00:09:16,322 با غلبه کردن بر محدودیت ماهیچههایمان. 183 00:09:16,322 --> 00:09:18,844 حالا، آنچه ما الان در میانش هستیم اینه که بر محدودیت مغزهای فردیمان غلبه کنیم 184 00:09:18,844 --> 00:09:21,763 حالا، آنچه ما الان در میانش هستیم اینه که بر محدودیت مغزهای فردیمان غلبه کنیم 185 00:09:21,763 --> 00:09:24,836 و نیروی ذهنیمان را بینهایت برابر کنیم. 186 00:09:24,836 --> 00:09:28,536 چطور ممکنه این به مهمی غلبه کردن بر محدودیت نیروی ماهیچههامان نباشه؟ 187 00:09:28,536 --> 00:09:31,064 چطور ممکنه این به مهمی غلبه کردن بر محدودیت نیروی ماهیچههامان نباشه؟ 188 00:09:31,064 --> 00:09:34,442 پس با خطر به اینکه حرفهام یکم تکراری بشه، 189 00:09:34,442 --> 00:09:37,271 وقتی نگاه میکنم که با فناوری دیجیتال این روزها چه اتفاقی داره میافته، 190 00:09:37,271 --> 00:09:40,097 ما اصلاً به پایان این سفر نزدیک نیستیم، 191 00:09:40,097 --> 00:09:42,771 و وقتی میبینم چه اتفاقی داره برای اقتصادمان و جوامعمان میافته، 192 00:09:42,771 --> 00:09:45,424 تنها نتیجهگیری من اینه که 193 00:09:45,424 --> 00:09:48,952 ما هنوز هیچچیز ندیدهایم. بهترین روزها خیلی جلوترند. 194 00:09:48,952 --> 00:09:50,708 بگذارید براتون چند مثال بزنم. 195 00:09:50,708 --> 00:09:54,936 اقتصادها بر اساس انرژی حرکت نمیکنند. بر اساس سرمایه هم حرکت نمیکنند، 196 00:09:54,936 --> 00:09:58,716 بر اساس کار هم حرکت نمیکنند. اقتصادها بر اساس ایدهها حرکت میکنند. 197 00:09:58,716 --> 00:10:01,236 پس کار نوآوری، کار ایجاد ایدههای نو، 198 00:10:01,236 --> 00:10:03,662 از پرقدرتترین و پایهایترین کارهایی است که میتونیم در یک اقتصاد انجام بدیم. 199 00:10:03,662 --> 00:10:05,477 از پرقدرتترین و پایهایترین کارهایی است که میتونیم در یک اقتصاد انجام بدیم. 200 00:10:05,477 --> 00:10:09,493 و این یه جورایی همان طوریه که ما نوآوری میکردیم. 201 00:10:09,493 --> 00:10:13,271 ما یک مشت آدمهایی که تقریباً شبیه هماند پیدا میکردیم 202 00:10:13,271 --> 00:10:16,682 (خنده ی تماشاگران) 203 00:10:16,682 --> 00:10:19,211 از مؤسسات ممتاز بیرونشان میآوردیم 204 00:10:19,211 --> 00:10:22,157 آنها را در مؤسسات ممتاز دیگهای قرار میدادیم و صبر میکردیم تا نوآوری اتفاق بیافته. 205 00:10:22,157 --> 00:10:26,167 حالا - (خندهی تماشاگران) 206 00:10:26,167 --> 00:10:28,748 به عنوان یک مرد سفید پوست که تمام دوران کاریاش را در امآیتی و هاروارد گذرانده، 207 00:10:28,748 --> 00:10:35,114 من مشکلی با این ندارم. (خندهی تماشاگران) 208 00:10:35,114 --> 00:10:37,730 اما افراد دیگهای مشکل دارند و آنها یه جورایی سرزده به مهمونی آمدند 209 00:10:37,730 --> 00:10:40,266 و طرز لباس پوشیدن نوآوران را غیررسمیتر کردند. 210 00:10:40,266 --> 00:10:41,190 (خندهی تماشاگران) 211 00:10:41,190 --> 00:10:44,834 پس اینها برندههای مسابقهی برنامهنویسی تاپ کودر هستند 212 00:10:44,834 --> 00:10:47,736 و من به شما اطمینان میدم هیچکس اهمیت نمیده 213 00:10:47,736 --> 00:10:51,330 که این بچهها کجا بزرگ شدند، کجا مدرسه رفتند، 214 00:10:51,330 --> 00:10:53,818 یا چه شکلیاند. برای همه فقط کیفیت کار و کیفیت ایدهها مهمه. 215 00:10:53,818 --> 00:10:56,639 یا چه شکلیاند. برای همه فقط کیفیت کار و کیفیت ایدهها مهمه. 216 00:10:56,639 --> 00:10:58,805 و دوباره و دوباره و ما میبینیم که این اتفاق در دنیای آسان شده با فنآوری میافته. 217 00:10:58,805 --> 00:11:01,151 و دوباره و دوباره و ما میبینیم که این اتفاق در دنیای آسان شده با فنآوری میافته. 218 00:11:01,151 --> 00:11:03,607 کار نوآوری داره بازتر میشه، 219 00:11:03,607 --> 00:11:07,385 چیزهای بیشتری را دربرمیگیره، شفافتره و لیاقتمدارانهتره. 220 00:11:07,385 --> 00:11:10,354 و این روند ادامه پیدا میکنه، مهم نیست امآیتی و هاروارد در موردش چی فکر میکنند 221 00:11:10,354 --> 00:11:14,034 و من نمیتونستم برای این پیشرفت خوشحالتر از این باشم. 222 00:11:14,034 --> 00:11:16,484 هر چند وقت یکبار من میشنوم، "خوب، در این مورد بهِت حق میدم، 223 00:11:16,484 --> 00:11:19,871 اما فنآوری هنوز ابزاری برای دنیای ثروتمنده، 224 00:11:19,871 --> 00:11:22,585 و اتفاقی که نمیافته اینه که این ابزارهای دیجیتالی 225 00:11:22,585 --> 00:11:25,940 زندگی مردمی که در پایین هرم زندگی میکنند را بهتر نمیکنند." 226 00:11:25,940 --> 00:11:28,604 و من میخوام این را خیلی صریح بگم: چرت و پرت. 227 00:11:28,604 --> 00:11:32,042 پایین هرم خیلی از فنآوری نفع میبرند. 228 00:11:32,042 --> 00:11:34,682 اقتصاددان روبرت یانسن این مطالعهی شگفتانگیز را چند وقت پیش انجام داد که در آن با جزئیات 229 00:11:34,682 --> 00:11:37,850 اقتصاددان روبرت یانسن این مطالعهی شگفتانگیز را چند وقت پیش انجام داد که در آن با جزئیات 230 00:11:37,850 --> 00:11:41,231 آنچه را در دهکدههای ماهیگیری کرالا در هند اتفاق افتاد وقتی برای اولین بار آنها تلفن همراه گرفتند را بررسی کرد. 231 00:11:41,231 --> 00:11:44,244 آنچه را در دهکدههای ماهیگیری کرالا در هند اتفاق افتاد وقتی برای اولین بار آنها تلفن همراه گرفتند را بررسی کرد. 232 00:11:44,244 --> 00:11:46,975 وقتی شما برای مجلهی اقتصادی کوارترلی مینویسید، 233 00:11:46,975 --> 00:11:49,872 باید زبان خیلی خشک و محتاطانهای به کار ببرید، 234 00:11:49,872 --> 00:11:52,344 اما وقتی من این مقاله را خواندم، یه جورایی حس میکنم یانسن داره سعی میکنه سر ما جیغ بزنه و بگه، ببین، این خیلی مهم بوده. 235 00:11:52,344 --> 00:11:55,365 اما وقتی من این مقاله را خواندم، یه جورایی حس میکنم یانسن داره سعی میکنه سر ما جیغ بزنه و بگه، ببین، این خیلی مهم بوده. 236 00:11:55,365 --> 00:11:59,418 قیمتها تثبیت شد، پس مردم تونستند برای زندگی اقتصادیشان برنامهریزی کنند. 237 00:11:59,418 --> 00:12:03,541 پسماند کم نشد؛ از بین رفت. 238 00:12:03,541 --> 00:12:06,012 و زندگی خریداران و فروشندهها در این دهکدهها به تخمین بهتر شد. 239 00:12:06,012 --> 00:12:08,510 و زندگی خریداران و فروشندهها در این دهکدهها به تخمین بهتر شد. 240 00:12:08,510 --> 00:12:12,226 حالا، من فکر نمیکنم که یانسن خیلی شانس آورده و اتفاقی در یکی از مجموعه دهکدههایی رفته 241 00:12:12,226 --> 00:12:14,580 حالا، من فکر نمیکنم که یانسن خیلی شانس آورده و اتفاقی در یکی از مجموعه دهکدههایی رفته 242 00:12:14,580 --> 00:12:17,092 که فنآوری باعث بهتر شدن چیزها شده. 243 00:12:17,092 --> 00:12:19,695 در عوض اتفاقی که افتاد این بود که او آنچه را دوباره و دوباره اتفاق میافتد وقتی فنآوری 244 00:12:19,695 --> 00:12:22,387 در عوض اتفاقی که افتاد این بود که او آنچه را دوباره و دوباره اتفاق میافتد وقتی فنآوری 245 00:12:22,387 --> 00:12:25,651 برای اولین بار به یک محیط و به یک جامعه وارد میشه به دقت ثبت کرد. 246 00:12:25,651 --> 00:12:29,615 زندگی مردم، رفاه مردم، پیشرفت دراماتیکی داره. 247 00:12:29,615 --> 00:12:31,971 پس وقتی من به تمام مدارک نگاه میکنم 248 00:12:31,971 --> 00:12:34,447 و به اتاقی فکر میکنم که جلوی روی ماست 249 00:12:34,447 --> 00:12:37,271 تبدیل به یک خوشبین دیجیتالی عظیم میشم، و فکر میکنم 250 00:12:37,271 --> 00:12:40,326 این گفتهی شگفتانگیر از فیزیکدان فریمن دایسن مبالغه نیست. 251 00:12:40,326 --> 00:12:44,904 ارزیابی دقیقی است از آنچه در حال وقوع است. 252 00:12:44,904 --> 00:12:47,350 دیجیتال ما -- فنآوریهای ما هدیههای بزرگی هستند 253 00:12:47,350 --> 00:12:50,511 و ما الان این شانس بزرگ را داریم 254 00:12:50,511 --> 00:12:54,036 که در دورانی زندگی کنیم که فنآوری دیجیتال در حال شکوفایی است، 255 00:12:54,036 --> 00:12:55,694 در زمانی که در حال وسیع شدن و عمیق شدن است و 256 00:12:55,694 --> 00:12:59,035 در سراسر دنیا اساسیتر میشود. 257 00:12:59,035 --> 00:13:02,253 پس، آره، رباتها دارند شغلهای ما را میگیرند، 258 00:13:02,253 --> 00:13:06,066 اما با تمرکز کردن روی این حقیقت نکتهی اصلی را به کلی از دست میدید. 259 00:13:06,066 --> 00:13:09,319 نکته اینه که در این حالت ما آزاد هستیم تا کارهای دیگری انجام بدیم، 260 00:13:09,319 --> 00:13:11,977 و کاری که انجام خواهیم داد، من خیلی اطمینان دارم، 261 00:13:11,977 --> 00:13:15,040 کاری که خواهیم کرد کاهش فقر و کارهای پرزحمت و بدبختی در اطراف دنیاست. 262 00:13:15,040 --> 00:13:17,704 کاری که خواهیم کرد کاهش فقر و کارهای پرزحمت و بدبختی در اطراف دنیاست. 263 00:13:17,704 --> 00:13:20,736 من اطمینان دارم ما یاد خواهیم گرفت چطور سبُکتر روی این سیاره زندگی کنیم، 264 00:13:20,736 --> 00:13:24,217 و بسیار اطمینان دارم که آنچه ما با ابزارهای دیجیتالی جدیدمان انجام خواهیم داد آنقدر اساسی و مفید خواهد بود 265 00:13:24,217 --> 00:13:27,138 و بسیار اطمینان دارم که آنچه ما با ابزارهای دیجیتالی جدیدمان انجام خواهیم داد آنقدر اساسی و مفید خواهد بود 266 00:13:27,138 --> 00:13:30,029 که تمام چیزهایی که قبل از آن آمده را به تمسخر میگیره. 267 00:13:30,029 --> 00:13:31,762 که تمام چیزهایی که قبل از آن آمده را به تمسخر میگیره. 268 00:13:31,762 --> 00:13:34,500 من آخرین حرفم را برای مردی میگذارم که پیشرفت دیجیتال را از نزدیک تماشا کرد 269 00:13:34,500 --> 00:13:36,278 من آخرین حرفم را برای مردی میگذارم که پیشرفت دیجیتال را از نزدیک تماشا کرد 270 00:13:36,278 --> 00:13:38,843 دوست قدیمی ما کن جنینگز. من با او هستم. 271 00:13:38,843 --> 00:13:40,204 کلمات او را تکرار میکنم: 272 00:13:40,204 --> 00:13:44,175 "من شخصاً به اربابهای کامپیوتری جدیدمان خوشامد میگویم." (خندهی تماشاگران) 273 00:13:44,175 --> 00:13:47,104 خیلی ممنونم. (تشویق تماشاگران)