< Return to Video

وقتی کامپیوترها باهوش تر از ما شوند، چه خواهد شد؟

  • 0:01 - 0:05
    من با گروهی از ریاضیدان ها، فیلسوف ها و دانشمندان کامپیوتر کار می کنم،
  • 0:05 - 0:10
    ما دور هم می نشینیم و درباره آینده هوش ماشینی
  • 0:10 - 0:12
    در میان الباقی چیزها فکر می کنیم.
  • 0:12 - 0:17
    بعضی از مردم فکر می کنند که این چیزها تخیلات علمی،
  • 0:17 - 0:20
    و دور از واقعیت و دیوانه وارند.
  • 0:20 - 0:21
    اما مایل هستم که بگویم
  • 0:21 - 0:25
    بسیار خوب، بیایید نگاهی به شرایط مدرن بشر بیاندازیم.
  • 0:25 - 0:27
    (خنده)
  • 0:27 - 0:29
    این طریقه عادی بودن چیزهاست.
  • 0:29 - 0:31
    اما اگر درباره اش فکر کنید،
  • 0:31 - 0:35
    ما در واقعیت میهمانان تازه رسیده به این سیاره هستیم،
  • 0:35 - 0:37
    گونه بشر.
  • 0:37 - 0:41
    فکر کنید اگر زمین یک سال قبل خلق شده بود،
  • 0:41 - 0:45
    پس، گونه بشر ۱۰ دقیقه بیشتر عمرش نبود.
  • 0:45 - 0:48
    عصر صنعتی دو ثانیه قبل شروع می شد.
  • 0:49 - 0:55
    روش دیگر نگاه به این موضوع ،
    فکر کردن در مورد تولید ناخالص داخلی جهان، طی ۱۰٫۰۰۰ سال گذشته است،
  • 0:55 - 0:58
    در واقع، من دردسر ترسیم آن را برای شما
    در این نمودار کشیده ام.
  • 0:58 - 0:59
    مثل این به نظر می رسد.
  • 0:59 - 1:01
    (خنده)
  • 1:01 - 1:03
    شکل عجیبی برای شرایط عادی است.
  • 1:03 - 1:05
    مطمئنم که نمیخواهم در این وضع قرار بگیرم.
  • 1:05 - 1:07
    (خنده)
  • 1:07 - 1:12
    بگذارید از خودمان بپرسیم، دلیل این بی قاعدگی فعلی چیست؟
  • 1:12 - 1:14
    شاید بعضی بگویند فناوری.
  • 1:14 - 1:19
    درست است که فناوری در طول تاریخ بشر انباشته شده
  • 1:19 - 1:24
    و در حال حاضر فناوری با سرعت زیادی در حال پیشروی است--
  • 1:24 - 1:25
    اما این دلیل اصلی نیست،
  • 1:25 - 1:28
    چرا که ما در حال حاضر خیلی مولد هستیم.
  • 1:28 - 1:32
    اما دوست دارم برای علت اصلی، به عقب تر برگردم.
  • 1:33 - 1:37
    به این دو آقای بسیار متشخص نگاه کنید:
  • 1:37 - 1:38
    ما "کانزی" را داریم--
  • 1:38 - 1:43
    استاد ۲۰۰ توکن واژگانی، موفقیت شگفت آوری است.
  • 1:43 - 1:47
    و" اد ویتن" که دومین انقلاب ابرریسمان را مطرح کرد.
  • 1:47 - 1:49
    اگر به بررسی ادامه دهیم، به این نتیجه می رسیم که:
  • 1:49 - 1:51
    در اصل یک چیز است.
  • 1:51 - 1:53
    یکی، کمی بزرگتر است،
  • 1:53 - 1:55
    هر چند ممکن است چند حقه هم
    در عجیب بودن این روش باشد،
  • 1:55 - 1:59
    اما این اختلافات غیرقابل مشاهده
    چندان نمی توانند پیچیده باشند،
  • 1:59 - 2:03
    چون تنها ۲۵۰ هزار نسل از آخرین جد
  • 2:03 - 2:05
    مشترکمان می گذرد.
  • 2:05 - 2:09
    می دانیم که مکانیزم های پیچیده زمان طولانی برای تکامل دارند.
  • 2:10 - 2:12
    بنابراین چندتایی تغییرات جزئی نسبی
  • 2:12 - 2:16
    ما را از "کانزی" به "ویتن" می رساند،
  • 2:16 - 2:20
    از شاخه های درخت شکسته تا موشک های بالستیک بین قاره ای.
  • 2:21 - 2:25
    پس این خیلی واضح به نظر می رسد که همه چیز قابل دستیابی است،
  • 2:25 - 2:26
    و هر چه را که به آن اهمیت می دهیم،
  • 2:26 - 2:31
    عمدتا بستگی به تغییرات جزئی نسبی دارد
    که ذهن بشر را می سازد.
  • 2:33 - 2:36
    و نتیجه آن، البته تغییرات بیشتری است
  • 2:36 - 2:40
    که می توانند بطور عمده بستر اندیشه را تغییر داده
  • 2:40 - 2:43
    و منجر به پیامد بالقوه ی عظیمی گردند.
  • 2:44 - 2:47
    برخی از همکارانم فکر می کردند که ما در آستانه
  • 2:47 - 2:51
    چیزی هستیم که می تواند منجر به تغییری ژرف در آن بستر شود،
  • 2:51 - 2:54
    و آن ماشین ابرهوشمند است.
  • 2:54 - 2:59
    پیش از این، هوش مصنوعی درباره
    قرار دادن دستورات در یک جعبه بود.
  • 2:59 - 3:01
    شما برنامه نویس های انسانی را داشتید
  • 3:01 - 3:04
    که با زحمت آیتم های دانش را هنرمندانه شکل میدادند.
  • 3:04 - 3:06
    شما این سیستم های خبره را می سازید،
  • 3:06 - 3:08
    که به نحوی برای برخی مقاصد، مناسب بودند،
  • 3:08 - 3:11
    اما آنقدر بی دوام بودند که قادر به سنجش آنها نبودید.
  • 3:11 - 3:14
    در اصل، تنها چیزی را درو می کنید که کاشتید.
  • 3:14 - 3:15
    اما از آن موقع تاکنون،
  • 3:15 - 3:19
    تغییر قابل توجه ای در زمینه هوش مصنوعی رخ داده است.
  • 3:19 - 3:22
    امروزه، اقدامات حقیقتا درباره یادگیری ماشین است.
  • 3:22 - 3:28
    پس بجای هنرمندانه شکل دادن آرایه ها و نمایه های علمی،
  • 3:29 - 3:34
    الگوریتم هایی را خلق می کنیم که یاد می گیرد،
    اغلب هم از داده های دریافتی خام.
  • 3:34 - 3:39
    عمدتا همان کاری را که نوزاد بشر انجام می دهد.
  • 3:39 - 3:43
    نتیجه، هوش مصنوعی است
    که به یک حوزه محدود نیست--
  • 3:43 - 3:48
    نظام یکسانی که می تواند
    ترجمه کردن بین هر دو زبان فرضی را یاد بگیرد،
  • 3:48 - 3:53
    یا بازی کردن هر بازی کامپیوتری را با آتاری.
  • 3:53 - 3:55
    البته الان،
  • 3:55 - 3:59
    هوش مصنوعی، هنوز جایی نزدیک همان
    توانایی قدرتمند و مطمئن
  • 3:59 - 4:02
    برای یادگیری و برنامه ریزی است که بشر آن را دارد.
  • 4:02 - 4:04
    "کورتکس" هنوز برخی از همان حقه های الگوریتمی را دارد
  • 4:04 - 4:07
    که ما از نحوه قرار دادنشان در ماشینها بی اطلاعیم.
  • 4:08 - 4:10
    پس پرسش این است،
  • 4:10 - 4:13
    تا چه حد قادر به هماهنگی این حقه ها هستیم؟
  • 4:14 - 4:15
    دو سال پیش،
  • 4:15 - 4:18
    آمارگیری را بین متخصصان برجسته هوش مصنوعی انجام دادیم،
  • 4:18 - 4:21
    تا بدانیم به چه چیزی فکری می کنند،
    و یکی از پرسش هایی که ما مطرح کردیم این بود که :
  • 4:21 - 4:25
    "فکر می کنید در چه سالی ۵۰ درصد احتمال خواهد داشت
  • 4:25 - 4:28
    که به ماشینی هوشمند در سطح بشر دست بیابیم؟"
  • 4:29 - 4:33
    در اینجا ما توانایی در سطح انسان را
    بعنوان قابلیتی برای اجرای
  • 4:33 - 4:36
    هر کاری تعریف می کنیم که
    حداقل انسان بالغ نیز آن را انجام دهد،
  • 4:36 - 4:40
    پس سطح انسانی واقعی، فقط چیزی در محدوده یک دامنه نیست.
  • 4:40 - 4:43
    و پاسخ میانگین در حدود سال ۲۰۴۰ یا ۲۰۵۰ بود.
  • 4:43 - 4:46
    دقیقا بسته به این که از کدام گروه از متخصصان سوال کردیم.
  • 4:46 - 4:50
    پس این اتفاق خیلی دیر یا زود اتفاق خواهد افتاد.
  • 4:50 - 4:52
    واقعیت این است که کسی دقیقا نمی داند.
  • 4:53 - 4:58
    آنچه می دانیم این است که حد نهایی برای پردازش اطلاعات
  • 4:58 - 5:03
    در بستر ماشین خارج از مرزهای موجود در بافت زیستی قرار می گیرد.
  • 5:03 - 5:06
    که به فیزیک منتهی می شود.
  • 5:06 - 5:10
    یک نورون زیستی شاید ۲۰۰ بار در ثانیه ۲۵۰ هرتز شلیک کند.
  • 5:10 - 5:14
    اما حتی ترانزیستورهای امروزی گیگاهرتزی عمل می کنند.
  • 5:14 - 5:19
    نورون ها به آرامی در محورها گسترده می شوند،
    حداکثر ۱۰۰ متر در ثانیه.
  • 5:19 - 5:22
    اما در کامپیوترها، سیگنال ها قابلیت سفر با با سرعت نور را دارند.
  • 5:23 - 5:25
    محدودیت های ابعادی نیز هست،
  • 5:25 - 5:28
    مثل مغز انسانی که باید درون جمجمه جا شود،
  • 5:28 - 5:33
    اما کامپیوتر می تواند به بزرگی یک انباری یا بزرگتر نیز باشد.
  • 5:33 - 5:38
    بنابراین پتانسیل ابَرهوشمند هنوز نهفته است،
  • 5:38 - 5:44
    بیشتر مثل نیروی اتم که در طول تاریخ بشریت نهفته بود
  • 5:44 - 5:48
    تا این که در ۱۹۴۵ کشف شد.
  • 5:48 - 5:50
    در این قرن،
  • 5:50 - 5:54
    دانشمندان شاید یاد بگیرند نیروی هوش مصنوعی را بیدار کنند.
  • 5:54 - 5:58
    و فکر می کنم بعد آن شاهد انفجار هوشی باشیم.
  • 5:58 - 6:02
    اکنون اغلب مردم وقتی به زیرک یا کودن بودن چیزی فکر می کنند،
  • 6:02 - 6:05
    فکر می کنم این تصویر نسبتا خشن را در ذهنشان دارند.
  • 6:05 - 6:08
    که در یکسو دهکده خرفت ها را داریم
  • 6:08 - 6:10
    و در سوی دیگر
  • 6:10 - 6:15
    امثال "اد ویتن" و "آلبرت اینشتن" یا هر کسی که معلم مذهبی ما است را داریم.
  • 6:15 - 6:19
    اما بنظرم از دیدگاه هوش مصنوعی
  • 6:19 - 6:23
    تصویر حقیقی باید در واقع چیزی شبیه به این باشد:
  • 6:23 - 6:27
    هوش مصنوعی در نقطه ای اینجا آغاز می شود، در هوش صفر،
  • 6:27 - 6:30
    و سپس بعد از سالهای سال کار واقعا سخت،
  • 6:30 - 6:33
    شاید سرانجام به هوش مصنوعی سطح موش برسیم،
  • 6:33 - 6:36
    چیزی که بتواند که در محیط های درهم، جهت یابی کند،
  • 6:36 - 6:38
    همانطور که موش ها می توانند.
  • 6:38 - 6:42
    و سپس، بعد از سال های خیلی خیلی بیشتر دیگری
    از کار واقعا سخت، کلی سرمایه گذاری،
  • 6:42 - 6:47
    شاید سرانجام به هوش مصنوعی سطح شامپانزه برسیم.
  • 6:47 - 6:50
    و بعد، پس از سال های بازهم بیشتری از کار واقعا سخت،
  • 6:50 - 6:53
    ما به هوش مصنوعی سطح دهکده خرفت ها می رسیم.
  • 6:53 - 6:56
    و چند لحظه بعد از آن، پشت سر"اد ویتن" هستیم.
  • 6:56 - 6:59
    قطار در ایستگاه دهکده بشری متوقف نمی شود.
  • 6:59 - 7:02
    احتمالا بجایش با سرعت از آن بگذرد.
  • 7:02 - 7:04
    خب از اینجاست که احتمالا پیامدهای عمیق داشته باشد،
  • 7:04 - 7:08
    به ویژه وقتی پای قدرت در میان باشد.
  • 7:08 - 7:10
    برای مثال، شامپانزه ها قوی هستند--
  • 7:10 - 7:15
    در ازای هر کیلو، یک شامپانزه دو برابر یک انسان مذکر قدرت دارد.
  • 7:15 - 7:20
    و هنوز سرنوشت "کانزی" و رفقایش بیشتر بستگی
  • 7:20 - 7:24
    به عملکرد ما انسانها دارد تا آنچه خود شامپانزه ها انجام می دهند.
  • 7:25 - 7:28
    وقتی پای هوش مصنوعی در میان باشد،
  • 7:28 - 7:31
    سرنوشت بشریت شاید به هوش مصنوعی وابسته باشد.
  • 7:32 - 7:34
    به آن فکر کنید:
  • 7:34 - 7:39
    هوش ماشینی آخرین اختراعی است که بشریت به آن نیاز خواهد داشت.
  • 7:39 - 7:42
    ماشینها پس از آن نسبت به ما عملکرد بهتری در اختراعات خواهند داشت،
  • 7:42 - 7:44
    و آن را در مقیاس زمانی دیجیتال انجام خواهند داد.
  • 7:44 - 7:49
    که به طور اساسی به معنای فشرده کردن آینده است.
  • 7:49 - 7:53
    به همه فناوریهای دیوانه واری فکر کنید که شاید بشر در آینده
  • 7:53 - 7:55
    بطور کامل توسعه دهد و شما قادر به تصور کردنشان هستید:
  • 7:55 - 7:59
    درمان پیری، سکنا گزیدن در فضا،
  • 7:59 - 8:02
    نانوباتهای خودجایگزین یا انتقال اطلاعت ذهن به کامپیوترها،
  • 8:02 - 8:04
    همه انواع موضاعات علمی تخیلی
  • 8:04 - 8:07
    که با این حال با قوانین فیزیک مرتبط اند.
  • 8:07 - 8:11
    تمامی این هوش مصنوعی قادر به توسعه یافتن است،
    و احتمالا هم بسیار سریع.
  • 8:12 - 8:16
    حال، یک هوش مصنوعی با چنین بلوغ در فناوری
  • 8:16 - 8:18
    بی نهایت قدرتمند خواهد بود،
  • 8:18 - 8:23
    و حداقل در برخی سناریوها، قادر به رسیدن به آنچه می خواهد است.
  • 8:23 - 8:28
    پس آینده ای که خواهیم داشت
    بواسطه ترجیحات این هوش مصنوعی شکل می گیرد.
  • 8:30 - 8:34
    حال پرسشی که مطرح است، این ترجیحات کدامند؟
  • 8:34 - 8:36
    اینجاست که پیچیده تر می شود.
  • 8:36 - 8:37
    برای هرگونه پیشرفت در این زمینه،
  • 8:37 - 8:41
    نخست باید از هر گونه انسان پنداری اجتناب کنیم.
  • 8:42 - 8:45
    و این کمی کنایه آمیز است زیرا تمامی مقالات روزنامه ها
  • 8:45 - 8:49
    درباره آینده هوش مصنوعی تصویر این چنینی ارائه می دهد:
  • 8:50 - 8:54
    پس فکر می کنم آنچه لازم است انجام دهیم
    باور داشتن هر چه بیشتر مساله بخودی خود است،
  • 8:54 - 8:57
    نه در قالب سناریوهای هالیوودی تخیلی قوی.
  • 8:57 - 9:01
    لازم است به هوش، بعنوان فرایندی بهینه ساز فکر کنیم،
  • 9:01 - 9:06
    فرایندی که آینده را به مجموعه خاصی از ترتیب ها هدایت می کند.
  • 9:06 - 9:10
    هوش مصنوعی فرایند بهینه ساز واقعا قوی است.
  • 9:10 - 9:14
    در استفاده از ابزار در دسترس
    جهت رسیدن به وضعیتی که در آن هدفش
  • 9:14 - 9:16
    تشخیص داده شود بی نهایت خوب است.
  • 9:16 - 9:19
    این به آن معناست که هیچ ارتباط لازمی
  • 9:19 - 9:22
    بین داشتن هوش بالا به این معنا،
  • 9:22 - 9:27
    و داشتن هدفی که ما انسانها آن را با معنا یا با ارزش بیابیم وجود ندارد.
  • 9:27 - 9:31
    فرض کنید به یک هوش مصنوعی،
    هدف لبخند زدن مثل انسانها را بدهیم.
  • 9:31 - 9:34
    وقتی هوش مصنوعی ضعیف است، اعمال مفید یا جالب انجام می دهد
  • 9:34 - 9:37
    تا باعث لبخند زدن کاربرش شود.
  • 9:37 - 9:39
    وقتی هوش مصنوعی، ابرهوشمند می شود،
  • 9:39 - 9:43
    به این تشخیص می رسد که
    روش موثرتری برای رسیدن به این هدف وجود دارد:
  • 9:43 - 9:44
    کنترل دنیا را در دست بگیر
  • 9:44 - 9:48
    و الکترود در ماهیچه های صورت آدمها کن
  • 9:48 - 9:51
    تا همیشه در حال لبخند زدن باشند.
  • 9:51 - 9:52
    مثال دیگر،
  • 9:52 - 9:55
    فرض کنید برای هوش مصنوعی،
    هدف حل کردن یک مساله دشوار ریاضی را تعیین کنید.
  • 9:55 - 9:57
    وقتی هوش مصنوعی، ابر هوشمند شود
  • 9:57 - 10:01
    موثرترین روش را برای رسیدن به راه حل این مشکل را
  • 10:01 - 10:04
    تبدیل کردن سیاره به یک کامپیوتر عظیم تشخیص می دهد،
  • 10:04 - 10:06
    تا به این ترتیب ظرفیت فکر کردنش را افزایش دهد.
  • 10:06 - 10:09
    و البته متوجه باشید که این کار باعث می شود هوش مصنوعی دلیل ابزاری
  • 10:09 - 10:12
    برای انجام کارهایی برای ما داشته باشد
    که شاید ما آن ها را تایید نکنیم.
  • 10:12 - 10:13
    انسانها در این الگو تهدید هستند،
  • 10:13 - 10:16
    ما می توانیم مانع حل شدن مساله ریاضی شویم.
  • 10:17 - 10:21
    البته، از جنبه ادراکی
    اوضاع در چنین روشهای خاص به بیراهه نخواهد رفت؛
  • 10:21 - 10:22
    اینها نمونه های کارتونی هستند.
  • 10:22 - 10:24
    اما نکته کلی که در اینجا اهمیت دارد:
  • 10:24 - 10:27
    اگر پروسه بهینه واقعا قدرتمندی را بیافرینید
  • 10:27 - 10:30
    تا هدف ایکس را به حداکثر رسانید،
  • 10:30 - 10:32
    بهتر است مطمئن شوید که تعریف شما از ایکس
  • 10:32 - 10:34
    با هر آنچه راجع به آن اهمیت می دهید همکاری دارد.
  • 10:35 - 10:39
    این درسی که همچنین به کرات در اسطورها آموخته می شود.
  • 10:39 - 10:45
    شاه «میداس» آروزیش این بود که هر چه را لمس می کند به طلا تبدیل شود.
  • 10:45 - 10:47
    به دخترش دست می زند، به طلا تبدیل می شود.
  • 10:47 - 10:50
    به غذا دست می زدد، طلا می شود.
  • 10:50 - 10:53
    عملا می تواند مرتبط باشد،
  • 10:53 - 10:55
    نه فقط بعنوان کنایه از طمع
  • 10:55 - 10:56
    بلکه شرحی از آنچه اتفاق می افتد
  • 10:56 - 10:59
    اگر شما فرایند بهینه سازی قدرتمندی را خلق کنید
  • 10:59 - 11:04
    و برایش اهداف ضعیف یا نادرستی را تعیین کنید.
  • 11:04 - 11:09
    حالا شاید بگویید، اگر کامپیوتر شروع به فرو کردن الکترود به صورت آدمها کند،
  • 11:09 - 11:12
    خب آن را خاموش می کنیم.
  • 11:13 - 11:18
    الف: در صورتی که وابستگی ما به سیستم زیاد باشد،
    انجام این کار چندن آسان نخواهد بود--
  • 11:18 - 11:21
    برای مثال، کلید قطعی اینترنت کجاست؟
  • 11:21 - 11:26
    ب: چرا شامپانزه ها کلید خاموشی بشریت را فشار ندادند،
  • 11:26 - 11:27
    یا ناندرتال ها؟
  • 11:27 - 11:30
    حتما دلایلی داشتند.
  • 11:30 - 11:33
    کلید خاموشی داریم، برای مثال همین جا.
  • 11:33 - 11:34
    (خفه شدن)
  • 11:34 - 11:37
    دلیلش این است که ما حریف باهوشی هستیم؛
  • 11:37 - 11:40
    می توانیم تهدیدات را پیش بینی کنیم و برایشان نقشه بکشیم.
  • 11:40 - 11:42
    خب یک عامل ابرهوشمند هم قادر به این کار است،
  • 11:42 - 11:46
    و خیلی هم بهتر از ما این کار را می کند.
  • 11:46 - 11:53
    موضوع این است که ما نباید به این یقین داشته باشیم که
    اوضاع تحت کنترل ما است.
  • 11:53 - 11:56
    و می توانیم تلاش کنیم کارمان را با قرار دادن هوش مصنوعی
  • 11:56 - 11:58
    داخل جعبه، کمی آسانتر کنیم،
  • 11:58 - 12:00
    مثل یک محیط نرم افزاری ایمن،
  • 12:00 - 12:03
    شبیه سازی مجازی از واقعیت، آنچه نمی تواند فرار کند
  • 12:03 - 12:07
    اما چقدر مطمئن میتوانیم باشیم که هوش مصنوعی باگ نگیرد.
  • 12:07 - 12:10
    با این فرض که هکرهای انسانی همیشه قادر به پیدا کردن باگ هستند،
  • 12:10 - 12:13
    من که میگویم نباید خیلی مطمئن بود.
  • 12:14 - 12:19
    پس کابل اترنت را برای ایجاد شکاف هوایی خلق می کنیم،
  • 12:19 - 12:21
    اما، دوباره مثل هكرهاى انسانى
  • 12:21 - 12:25
    طبق عادت شکافهای هوایی را
    با استفاده از مهندسی اجتماعی دچار خطا می کند.
  • 12:25 - 12:26
    همين حالا كه حرف مى زنم،
  • 12:26 - 12:28
    مطمئنم يك كارمندى آن بيرون در جايى
  • 12:28 - 12:32
    از وى خواسته مى شود كه جزييات حسابش را به كسى كه مدعى است
  • 12:32 - 12:35
    از بخش آى تى است بدهد.
  • 12:35 - 12:37
    البته سناريوهاى خلاقانه ترى هم ممكن است،
  • 12:37 - 12:38
    فرض کنید كه شما آن هوش مصنوعى هستيد،
  • 12:38 - 12:42
    می توانید آن الکترودهای در هم لولیده را
    دور مدار داخلیتان تصور کنید
  • 12:42 - 12:45
    که در خلق امواج رادیویی برای ایجاد ارتباط استفاده می کنید.
  • 12:45 - 12:47
    یا حتی شاید وانمود به خراب شدن کنید،
  • 12:47 - 12:51
    و بعد وقتی برنامه نویسها برای فهم مشکل بازتان می کنند،
  • 12:51 - 12:53
    به کد منبع نگاه میاندازند-- گول خوردن!--
  • 12:53 - 12:55
    امکان اتفاق دستکاری وجود دارد.
  • 12:55 - 12:59
    یا بتواند بلوپرینتی را برای یک فناوری واقعا خوب و جالب بیرون دهد،
  • 12:59 - 13:00
    و وقتی آن را اجرا کردیم،
  • 13:00 - 13:05
    که بخاطر طرح ریزی شدن توسط هوش مصنوعی
    اثر جانبی محرمانه ای دارد.
  • 13:05 - 13:08
    نکته اینجاست که ما نباید به تواناییمان در نگهداری
  • 13:08 - 13:12
    جن ابرهوشمند توی چراغ تا ابد مطمئن باشیم.
  • 13:12 - 13:14
    دیر یا زود، فرار می کند.
  • 13:15 - 13:18
    به باور من جواب در اینجا پی بردن به
  • 13:18 - 13:23
    نحوه آفرینش ابرهوشمند است.
    اینطور که حتی وقتی فرار می کند،
  • 13:23 - 13:26
    هنوز ایمن است چون اساسا در طرف ما قرار دارد
  • 13:26 - 13:28
    چون ارزشهای ما را همخوان می کند.
  • 13:28 - 13:32
    راه دیگری درباره این مشکل دشوار نمی بینم.
  • 13:33 - 13:36
    اکنون، من واقعا درباره حل این مشکل خوش بینم.
  • 13:36 - 13:40
    فهرست بلند و بالایی از ههمه آنچه برایمان اهمیت دارد ننوشته ایم،
  • 13:40 - 13:44
    یا بدتر از آن، کافی است به بعضی زبانهای کامپیوتری بیان شود
  • 13:44 - 13:45
    مثل ++C یا پیتون،
  • 13:45 - 13:48
    نتیجه فراتر از مایوسانه خواهد بود.
  • 13:48 - 13:52
    در عوض، هوش مصنوعی خلق خواهیم کرد
    که از هوش خود برای آموختن چیزی استفاده کند
  • 13:52 - 13:55
    که آن را ارج می نهیم،
  • 13:55 - 14:01
    و انگیزه سیستمی آن بر مبنایی ساخته شده است که اشتیاقش
  • 14:01 - 14:06
    دنبال کردن ارزشهای ما یا اجرای اقداماتی است
    تا آنچه را که تایید می کنیم پیش بینی کند.
  • 14:06 - 14:09
    بنابراین هوشش را تا حد امکان بهبود می بخشیم
  • 14:09 - 14:12
    تا مشکل بارگذاری ارزش را حل کنیم.
  • 14:13 - 14:14
    این شدنی است،
  • 14:14 - 14:18
    و نتیجه می تواند برای انسانیت خوب باشد.
  • 14:18 - 14:22
    اما خب بطور خودکار اتفاق نمی افتد.
  • 14:22 - 14:25
    شرایط اولیه برای انفجار هوش
  • 14:25 - 14:28
    شاید نیاز به وضع آن به روش درست دارد،
  • 14:28 - 14:31
    اگر که خواستار انفجار کنترل شده ای هستیم.
  • 14:31 - 14:34
    ارزشهایی که هوش مصنوعی برای هماهنگی با ما نیاز دارد،
  • 14:34 - 14:36
    نه فقط در بافتی مشابه،
  • 14:36 - 14:38
    مثل جایی که به راحتی بشود
    نحوه کارکرد هوش مصنوعی را بررسی کرد،
  • 14:38 - 14:41
    اما همچنین در همه بافتهای جدیدی که هوش مصنوعی در آینده نامعلوم
  • 14:41 - 14:43
    شاید با آن مواجه گردد.
  • 14:43 - 14:48
    و شاید همینطور مسائل محرمانه ای باشند که نیاز به حل شدن و جداسازی دارند:
  • 14:48 - 14:50
    جزییات دقیق نظریه تصمیم گیری،
  • 14:50 - 14:52
    نحوه برخورد با بلاتکلیفی منطقی و الی آخر.
  • 14:53 - 14:56
    بنابراین مشکلات تکنیکی که نیاز به حل شدن دارند تا این کار
  • 14:56 - 14:58
    نسبتا دشوار به نظر رسد--
  • 14:58 - 15:01
    نه به دشواری ساخت یک ابر هوشمند،
  • 15:01 - 15:04
    اما کمابیش دشوار.
  • 15:04 - 15:05
    نگرانی که هست:
  • 15:05 - 15:10
    ساخت ابر هوشمند چالش واقعا دشواری است.
  • 15:10 - 15:13
    ساخت سوپر ابرهوشمندی که ایمن است
  • 15:13 - 15:15
    دربرگیرنده چالش اضافی علاوه بر آن نیز هست.
  • 15:16 - 15:20
    خطر زمانی است که کسی پی به کرک کردن چالش اولی ببرد
  • 15:20 - 15:23
    بی آنکه چالش اضافی مربوط به تضمین ایمنی کامل
  • 15:23 - 15:25
    را هک کرده باشد.
  • 15:25 - 15:29
    پس بنظرم باید به فکر راه حلی باشیم
  • 15:29 - 15:32
    که مشکل را از پیش حل کند،
  • 15:32 - 15:34
    تا در صورت نیاز آن را در اختیار داشته باشیم.
  • 15:35 - 15:38
    حال شاید اینطور باشد که ما نمی توانیم مشکل کنترل کلی را از پیش حل کنیم
  • 15:38 - 15:41
    چون احتمالا برخی المانها را تنها در صورتی میشود در جایشان قرار داد
  • 15:41 - 15:45
    که از جزییات معماری مربوط به جاسازیشان باخبر باشید.
  • 15:45 - 15:49
    اما مضاف بر مشکل کنترل که پیشاپیش حلش می کنیم،
  • 15:49 - 15:53
    احتمال می رود که انتقال به عصر هوش ماشینی
  • 15:53 - 15:54
    خوب پیش برود.
  • 15:54 - 15:59
    که بنظرم چیزی است که کاملا ارزش انجامش را دارد
  • 15:59 - 16:02
    و می توانم تصور کنم که نتیجه اش خوب باشد،
  • 16:02 - 16:07
    که آدمهای یک میلیون سال بعد، به این قرن نگاه می کنند
  • 16:07 - 16:11
    و احتمالا خواهند گفت که شاید تنها کار بارارزشی که ما انجام دادیم
  • 16:11 - 16:13
    به سرانجام رساندن درست آن بود.
  • 16:13 - 16:14
    متشکرم.
  • 16:14 - 16:17
    (تشویق)
Title:
وقتی کامپیوترها باهوش تر از ما شوند، چه خواهد شد؟
Speaker:
نیک بوستروم
Description:

هوش مصنوعی با سرعت قابل توجهی درحال هوشمندتر شدن است-- در همین سده، تحقیقات نشان داده است که، هوش مصنوعی کامپیوتری می تواند به زیرکی یک انسان باشد. و در ادامه به ادعای نیک بوستروم، از انسان پیشی خواهد گرفت: " هوش ماشینی آخرین اختراعی است که بشر به آن نیاز دارد." بوستروم، فیلسوف و دانشمند حوزه فناوری از ما میخواهد درباره جهان هدایت شده از سوی ماشینها، که اکنون در حال خلقش هستیم فکر کنیم. آیا ماشینهای هوشمند ما به نگهداری بشریت و ارزشهای ما کمک خواهند کرد- یا صاحب ارزشهای خود خواهند بود؟

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Persian subtitles

Revisions