آیا امکان ساخت نظارت شده ماشینهای ابرهوشمند را داریم؟
-
0:01 - 0:03میخواهم درباره فقدانِ بصیرتی صحبت کنم
-
0:03 - 0:05که بسیاری از ما از آن زیان میبینیم.
-
0:05 - 0:09این، در واقع ناکامی در
پیدا کردنِ نوع خاصی ازخطر است. -
0:09 - 0:11میخواهم سناریویی را شرح دهم
-
0:11 - 0:14که فکر میکنم هم ترسناک است
-
0:14 - 0:16و هم وقوع آن محتمل،
-
0:17 - 0:18و آنطوری که معلوم میشود ترکیب
-
0:19 - 0:20خوبی نیست.
-
0:20 - 0:23و بجای این که وحشت کنید،
اغلب شما احساس خواهید کرد -
0:23 - 0:25که موضوع مورد صحبت
یکجورهایی باحال است. -
0:25 - 0:28میخواهم شرح دهم که چطور یافتههای ما
-
0:28 - 0:30در هوش مصنوعی میتواند
-
0:30 - 0:32درنهایت به نابودی ما بیانجامد.
-
0:32 - 0:35و در واقع، فکر میکنم خیلی سخت است
که ببینیم چطور نابودمان نخواهند کرد -
0:35 - 0:37یا ما را به نابود کردن خودمان سوق ندهند.
-
0:37 - 0:39و در عین حال اگر مثل من باشید
-
0:39 - 0:42خواهید دید فکر کردن
به این چیزها جالب است. -
0:42 - 0:45و آن واکنش بخشی از مشکل است.
-
0:45 - 0:47درسته؟ آن واکنش باید نگرانتان کند.
-
0:48 - 0:51و اگر قرار بود در این سخنرانی متقاعدتان کنم
-
0:51 - 0:54که احتمالا از یک قحطی جهانی بخاطر
-
0:54 - 0:57تغییرات جوی یا هر فاجعه دیگری رنج ببریم
-
0:57 - 1:01و این که نوههای ما یا نوههای آنها
-
1:01 - 1:02هم احتمال زندگی این
شکلی را دشته باشند، -
1:03 - 1:04با خودتان فکر نمیکردید،
-
1:05 - 1:07«جالبه.
-
1:07 - 1:08از این سخنرانی TED
خوشم میآید.» -
1:09 - 1:11قحطی جالب نیست.
-
1:12 - 1:15از سوی دیگر مرگ ناشی از
ژانر علمی تخیلی جالب است، -
1:15 - 1:19و یکی از چیزهایی که بیش از همه نسبت به
توسعه هوش صنوعی در این مرحله نگرانم میکند -
1:19 - 1:23این است که به نظر میرسد ما قادر به ایجاد
واکنش عاطفی مناسبی -
1:23 - 1:25به خطرات در پیشِ روی خود نبودهایم.
-
1:25 - 1:28حتی من که این سخنرانی را انجام میدهم،
قادر نیستم این واکنش را ایجاد کنم. -
1:30 - 1:33مثل ایستادن در برابر دو در میماند.
-
1:33 - 1:34پشت درب شماره یک
-
1:34 - 1:37ما دست از پیشرفت در ساخت
ماشینهای هوشمند میکشیم. -
1:37 - 1:41سخت افزار و نرم افزار کامپیوترمان
به دلیلی دست از بهتر شدن بر میدارد. -
1:41 - 1:44چند لحظه در مورد چرایی این اتفاق تامل کنید.
-
1:45 - 1:49منظورم این است که با فرض به دانستن این که
هوش و ماشینی شدن چقدر با ارزشند، -
1:49 - 1:52ما به بهبود فناوری خود ادمه خواهیم داد اگر
امکانش باشد. -
1:53 - 1:55چه چیزی قادر است سد راهمان شود؟
-
1:56 - 1:58یک جنگ هستهای تمام عیار؟
-
1:59 - 2:01یک بیماری فراگیر جهانی؟
-
2:02 - 2:04اصابت یک اخترواره؟
-
2:06 - 2:08جاستین بیبر رییس جمهور آمریکا شود؟
-
2:08 - 2:11(خنده)
-
2:13 - 2:17نکته این است که باید چیزی باشد که
تمدن را نابود کند. -
2:17 - 2:22باید تصور کنید چقدر بد باید باشد
-
2:22 - 2:25تا برای همیشه مانع ما در انجام اصلاحات
در این فناوری -
2:25 - 2:26گردد،
-
2:26 - 2:28در همه نسلها.
-
2:28 - 2:30تقریبا طبق تعریف
این بدترین چیزی است -
2:30 - 2:32که تابحال در تاریخ بشر اتفاق افتاده.
-
2:33 - 2:34بنابراین تنها جایگزین
-
2:34 - 2:36که خب پشت درب شماره دو خوابیده
-
2:36 - 2:39این است که به بهسازی ماشینهای
هوشمند هر سالی که بگذرد -
2:39 - 2:41ادامه دهیم.
-
2:42 - 2:45در یک نقطه خاص، ماشینهایی را خواهیم است
که از ما باهوشتر هستند، -
2:46 - 2:49و وقتی ماشینهایی بسازیم
که از ما باهوشتر باشند، -
2:49 - 2:51آنها شروع به اصلاح خود می کنند.
-
2:51 - 2:53و بعد خطر چیزی را خواهیم داشت
که ای جی گود ریاضیدان -
2:53 - 2:55«انفجار هوش» نامید،
-
2:55 - 2:57این که این پروسه از کنترل ما خارج شود.
-
2:58 - 3:01این مساله بیشتر به شکلی که
من اینجا نشان میدهم -
3:01 - 3:04مثل ترس از این که ارتشهایی
از رباتهای بدطینت -
3:04 - 3:05به ما حمله کنند، ترسیم شده.
-
3:05 - 3:08اما این، سناریوی چندان محتملی نیست.
-
3:08 - 3:13اینطور نیست که ماشینهای ساخت دست ما به یکباره هیولا شوند.
-
3:13 - 3:16نگرانی اینجاست که ماشینهایی خواهیم ساخت
-
3:16 - 3:18که بسیار توانمندتر از ما هستند
-
3:18 - 3:22جوریکه کمترین انحراف در بین
اهداف ما و آنها -
3:22 - 3:23می تواند ما را نابود کند.
-
3:24 - 3:26فقط به نحوه ارتباط ما با مورچه فکر کنید.
-
3:27 - 3:28از آنها متنفر نیستیم.
-
3:28 - 3:30راه مان را برای کشتنشان کج نمیکنیم.
-
3:30 - 3:33در واقع، گاهی برای آسیب نرساندن
به آنها خود را به زحمت میاندازیم. -
3:33 - 3:35در پیاده رو از رویشان میپریم.
-
3:35 - 3:37اما هر وقت در جایی حضورشان
-
3:37 - 3:39بطور جدی با یکی از اهداف
ما منافعات داشته باشد، -
3:39 - 3:42برای مثال وقتی ساختمانی مثل این را بسازیم،
-
3:42 - 3:44آنها را بیدرنگ قلع و قمع میکنیم.
-
3:44 - 3:47نگرانی این است که یک روز
ماشینهایی را خواهیم ساخت -
3:47 - 3:50که چه آگاه باشند یا نباشند
-
3:50 - 3:52میتوانند این چنین بیملاحظه
با ما رفتار کنند. -
3:54 - 3:57البته خیلی از شما آن را خطری
در دراز مدت میببینید. -
3:57 - 4:04شرط میبندم کسانی در بین شما هستند
که به احتمال این ماشین ابرهوشمند شک داشته -
4:04 - 4:05و آن را کمابیش بعید میدانند.
-
4:05 - 4:09اما بعد باید به غلط بودن
یکی از فرضیههای زیر برسید. -
4:09 - 4:11و آنها سه تا بیشتر نیستند.
-
4:12 - 4:17هوشمندی موضوع پردازش اطلاعات
در سیستمهای فیزیکی است. -
4:17 - 4:20راستش کمی بیشتر از یک فرض است.
-
4:20 - 4:23درحال حاضر میزان اندکی از هوشمندی
را در داخل ماشینهایمان بکار بردیم، -
4:23 - 4:25و خیلی از این ماشینها همین الان نیز
-
4:25 - 4:28عملکردی در سطح هوش
یک انسان فوق العاده باهوش دارند. -
4:29 - 4:31و میدانیم که خود این مسله صرفا میتواند
-
4:31 - 4:34منجر به پیداش به اصطلاح
« هوشمندی عمومی» شود، -
4:34 - 4:38توانایی اندیشیدنِ منعطف
در سرتاسر حوزههای مختلف، -
4:38 - 4:41چون که مغزهایمان در انجامش موفق بودند،
اینطور نیست؟ -
4:41 - 4:45منظورم این است که در اینجا فقط اتم است،
-
4:45 - 4:49و تا مادامی که سیستمی اتمی را میسازیم
-
4:49 - 4:52که رفتار هوشمندانه بیشتر و بیشتری نشان میدهند،
-
4:52 - 4:55مگر این که دچار وقفه شویم، وگرنه
-
4:55 - 4:58ما نهایتا هومندیش عمومی را در ماشینهایمان
-
4:58 - 4:59بکار خواهیم برد.
-
4:59 - 5:03مهم است که تشخیص دهیم میزان
پیشرفت اهمیت ندارد، -
5:03 - 5:06زیرا هر پیشرفتی برای رساندن ما به
منطقه نهایی کافی است. -
5:06 - 5:10برای ادامه نیاز به قانون مورفی نداریم.
نیاز به پیشرفت تصاعدی نداریم. -
5:10 - 5:12فقط باید ادامه دهیم.
-
5:13 - 5:16فرض دوم این است که
ادامه خواهیم داد. -
5:17 - 5:20به بهسازی ماشینهای هوشمند
خود ادامه میدهیم. -
5:21 - 5:25و با فرض ارزش هوشمندی--
-
5:25 - 5:29منظورم این است که خواه هوشمندی منبع
همه چیزهایی است که برایمان ارزش دارد -
5:29 - 5:32یا که برای محافظت از چیزهای باارزشمان
به آن نیاز داریم. -
5:32 - 5:34مهمترین منبع باارزش ما است.
-
5:34 - 5:36بنابراین میخواهیم
این را انجام دهیم. -
5:36 - 5:39مشکلاتی که مایوسانه نیاز به حل شان داریم.
-
5:39 - 5:42میخواهیم امراضی چون آلزایمر
و سرطان را درمان کنیم. -
5:43 - 5:47میخواهیم سیستمهای اقتصادی را بفهمیم.
میخواهیم دانش اقلیمی خویش را بهبود ببخشیم. -
5:47 - 5:49پس اگر بتوانیم این کار را میکنیم.
-
5:49 - 5:52قطار دیگر از ایستگاه خارج شده،
و ترمزی برای کشیدن نیست. -
5:54 - 5:59سرآخر این که احتمالا ما در راس هوش
یا جایی نزدیک آن -
5:59 - 6:01نخواهیم ایستاد.
-
6:02 - 6:04و این یک بینش واقعا ضروری است.
-
6:04 - 6:06این چیزی است که شرایط
ما را پرمخاطره میکند، -
6:06 - 6:10و این چیزی است که درک ما از
ریسک را شدیدا غیرقابل اتکا میکند. -
6:11 - 6:14الان باهوشترین فردی که تا به امروز زیسته
را در نظر بگیرید. -
6:15 - 6:18اینجا تقریبا در فهرست کوتاه همه
جان فان نیومن وجود دارد. -
6:18 - 6:21منظورم تاثیری است
که فان نیومن بر اطرافیانش داشته -
6:21 - 6:25و این دربرگیرنده بزرگترین ریاضیدانها
و فیزیکدانهای هم دورهاش میشود، -
6:26 - 6:27که نسبتا بخوبی ثبت شده است.
-
6:27 - 6:31اگر فقط بخشی از نیمی از داستانهای
درباره او درست باشد -
6:31 - 6:32شکی نیست
-
6:33 - 6:35که او از باهوشترین آدمهایی است
که تابحال زیسته. -
6:35 - 6:38بنابراین گستره هوش را در نظر بگیرید.
-
6:38 - 6:40در اینجا جان فان نیومن را داریم.
-
6:42 - 6:43و بعد نیز امثال من و شما.
-
6:44 - 6:45و البته مرغ را هم داریم.
-
6:45 - 6:47(خنده)
-
6:47 - 6:49متاسفم، یک مرغ.
-
6:49 - 6:50(خنده)
-
6:50 - 6:54دلیلی ندارم که این سخنرانی
را نامیدکنندهتر از حد نیاز کنم. -
6:54 - 6:55(خنده)
-
6:56 - 7:00بحد قابل توجهی همینطور است،هر چند
گستره هوش -
7:00 - 7:03خیلی وسیعتر از برداشت کنونی ما است،
-
7:04 - 7:07و اگر ماشینهایی را بسازیم
که از ما هوشمندترند، -
7:07 - 7:09آنها احتمالا این گستره را بررسی
خواهند کرد -
7:09 - 7:11به ترتیبی که ما قادر به تصورش نیستیم،
-
7:11 - 7:14و طوری از ما پیشی خواهند گرفت
که تصورش را هم نمیکنیم. -
7:15 - 7:19و تشخیص این نکته مهم است که این مساله
بواسطه خصیصه سرعت معتبر است. -
7:19 - 7:24درسته؟ پس ساخت یک هوش مصنوعی
ابرهوشمندی را تصور کنید -
7:24 - 7:28که باهوشتر از یک
تیم معمولی تحقیقاتی شما -
7:28 - 7:30در استانفورد یا MIT نباشد.
-
7:30 - 7:33خب، مدارهای الکترونیکی کارکردی
حدود یک میلیون بار سریعتر -
7:33 - 7:34از انواع زیست شیمی دارند
-
7:35 - 7:38بنابراین این ماشین شاید یک میلیون بار
سریعتر از ذهنهایی -
7:38 - 7:39که آن را ساختند فکر کند.
-
7:40 - 7:41پس یک هفتهای که از
راهاندازیش بگذرد، -
7:41 - 7:46هر هفتهای که سپری بگذرد
عملکردی برابر ۲۰٫۰۰۰ سال -
7:46 - 7:48کار اندیشمدانه در سطح بشر خواهد داشت.
-
7:50 - 7:53ما چطور قادر به درک ذهنی باشیم که چنین
نوعی از پیشرفت را ایجاد میکند -
7:53 - 7:55چه برسد به محدود کردن آن؟
-
7:57 - 7:59صادقانه بگویم، یک از چیزهای دیگری
که نگران کننده است، -
7:59 - 8:04این است که -
بهترین سناریوی ممکن را تصور کنید. -
8:04 - 8:08تصور کنید به طراحی از یک هوش مصنوعی
ابرهوشمند رسیدهایم -
8:08 - 8:10که هیچ مشکل امنیتی ندارد.
-
8:10 - 8:13برای اولین بار بهترین طراحی را داریم.
-
8:13 - 8:15مثل این میماند که ما به دانشمندی
دست پیدا کردهایم -
8:15 - 8:17که عینا طبق خواسته رفتار میکند.
-
8:17 - 8:21خب این ماشین میتواند بهترین
وسیله در صرفهجویی نیروی کار باشد. -
8:22 - 8:24میتواند ماشینی را طراحی کند
که خود ماشینی را بسازد -
8:24 - 8:26که توان انجام هر کار فیزیکی را دارد،
-
8:26 - 8:27با استفاده از نور خورشید،
-
8:27 - 8:30کمابیش بخاطر هزینه مصالح خام.
-
8:30 - 8:33پس درباره به پایان رسیدن
جان کندن بشر صحبت میکنیم. -
8:33 - 8:36و همچنین به پایان رسیدن اغلب کارهایی
که با عقل و خِرَد سروکار دارند. -
8:37 - 8:40پس در شرایط این چنینی چه
بر سر میمونهایی مثل ما میآید؟ -
8:40 - 8:44خب، ما در فریزبی بازی کردن
و ماساژ دادن یکدیگر آزاد خواهیم بود. -
8:46 - 8:49و همینطور یکسری داروهای روانگردان و
انتخابهای سوالبرانگیز توی کمد لباس، -
8:49 - 8:51و کل دنیا چیزی شبیه به جشنواره
مرد سوزان میشود. -
8:51 - 8:53(خنده)
-
8:54 - 8:56الان شاید خوشایند به گوش برسد
-
8:57 - 9:00اما از خود سوال کنید چه اتفاقی برای
-
9:00 - 9:02نظام سیاسی و اقتصادی کنونی ما خواهد افتاد؟
-
9:02 - 9:05محتمل است که ما شاهد سطحی از نابرابری
-
9:05 - 9:09ثروت و بیکاری باشیم
-
9:09 - 9:11که بیسابقه است.
-
9:11 - 9:13فقدان اراده در بکارگیری فوری این ثروت تازه
-
9:13 - 9:15در خدمت کل بشریت.
-
9:16 - 9:19اندک تریلیونرها قادر به عرض اندام
در روی جلد مجلات تجاری هستند -
9:19 - 9:22در حالیکه بقیه دنیا
از گرسنگی رنج خواهد بردد. -
9:22 - 9:25روسها یا چینیها
چه کار میکنند -
9:25 - 9:27اگر بشنوند که یک کمپانی
در سیلیکون ولی -
9:27 - 9:30در آستانه بکارگیری هوش مصنوعی
اَبَرهوشمند است؟ -
9:30 - 9:33ماشینی که قادر به ادامه جنگ است،
-
9:33 - 9:35خواه زمینی یا سایبری،
-
9:35 - 9:37با قدرتی بیسابقه.
-
9:38 - 9:40این یک سناریوییست که در آن
برنده همه چیز را بدست میآورد. -
9:40 - 9:43در این رقابت شش ماه پیش بودن
-
9:43 - 9:46یعنی حداقل ۵۰۰٫۰۰۰ سال
-
9:46 - 9:47جلوتر بودن.
-
9:47 - 9:52پس به نظر میرسد که حتی شایعات بیشتر از
این پیشرفتها -
9:52 - 9:55میتواند منجر به از خود بیخود شدن
نوع بشر شود. -
9:55 - 9:58الان یکی از وحشتناکترین چیزها از دیدگاه من
-
9:58 - 10:00در این لحظه همه آن چیزهایی هست
-
10:00 - 10:05که محققان هوش مصنوعی
-
10:05 - 10:06به ما میگویند، وقتی که
میخواهند اطمینان بخش باشند. -
10:07 - 10:10و شایعترین دلیلی که برای
نگران نبودن به ما میگویند زمان است. -
10:10 - 10:13کلی زمانبر است، مگر خبر ندارید.
-
10:13 - 10:15شاید ۵۰ یا ۱۰۰ سال بعد.
-
10:16 - 10:17یک محققی میگفت،
-
10:17 - 10:19«نگران بودن درباره امنیت هوش مصنوعی
-
10:19 - 10:21مثل نگران بودن درباره
رشد بیحد جمعیت در مریخ است.» -
10:22 - 10:24در واقع آنها میگویند:
-
10:24 - 10:26« فکرهای کوچک تان را در این مورد نگران نکنید.»
-
10:26 - 10:27(خنده)
-
10:28 - 10:29به نظر نمیاید کسی متوجه باشد
-
10:29 - 10:32که ارجاع دادن به افق زمانی
-
10:32 - 10:35کلا نامربوط است.
-
10:35 - 10:38اگر هوش صرفا مساله پردازش اطلاعات باشد
-
10:38 - 10:41و ما به اصلاح ماشینهای خود ادامه دهیم،
-
10:41 - 10:44شکلی از هوش ماورایی را تولید خواهیم کرد.
-
10:44 - 10:48و ایدهای نداریم که چقدر زمان میبرد
-
10:48 - 10:50تا شرایط انجام این کار
را به شکل ایمن فراهم کنیم. -
10:52 - 10:53بگذارید باز هم بگویم.
-
10:54 - 10:57ایدهای نداریم که چقدر زمان میبرد
-
10:57 - 11:00تا شرایط انجام این کار
را به شکل ایمن فراهم کنیم. -
11:01 - 11:04و اگر متوجه نشده باشید
۵۰ سال، دیگر مثل سابق نیست. -
11:04 - 11:07این، ماههای تشکیل دهندهی ۵۰ سال است.
-
11:07 - 11:09این، مدتیست که ما
صاحب آیفون هستیم. -
11:09 - 11:12در این مدت سریال
خانواده سیمپسون پخش شده. -
11:13 - 11:15پنجاه سال زمان چندان زیادی
-
11:15 - 11:18برای روبرو شدن با یکی از بزرگترین
چالشهایی که نوع بشر با آن روبروست، نیست. -
11:20 - 11:24یکبار دیگر به نظر میاید که ما در
داشتن جواب عاطفی مناسب نسبت به آنچه -
11:24 - 11:26که دلایل کافی برای ظهورش را داریم
ناموفق عمل کردهایم. -
11:26 - 11:30دانشمند علوم رایانه استورات راسل
قیاس جالبی دارد. -
11:30 - 11:35او گفت، تصور کنید
پیغامی را از یک تمدن فضایی دریافت کنیم -
11:35 - 11:37که میگوید،
-
11:37 - 11:39«مردم زمین،
-
11:39 - 11:41ما ۵۰ سال دیگر به سیاره شما میرسیم.
-
11:42 - 11:43آماده باشید.»
-
11:43 - 11:48و اکنون ما فقط به شمارش معکوس
ماهها مشغولیم تا ناوِ فضایی فرود بیاید؟ -
11:48 - 11:51لازم است که کمی بیشتر در این باره
احساس ضرورت کنیم. -
11:53 - 11:55دلیل دیگری که به ما میگویند نگران نباشید
-
11:55 - 11:58این است که این ماشینها راهی جز
سهیم شدن در ارزشهای ما ندارند -
11:58 - 12:00چون که آنها به معنای واقعی کلمه،
ما را بسط میدهند. -
12:00 - 12:02آنها به مغزهای ما پیوند زده میشوند
-
12:02 - 12:04و ما در اصل دستگاههای کنارهای
(Limbic system) آنها خواهیم شد. -
12:05 - 12:07الان لحظهای به این فکر کنید
-
12:07 - 12:10که ایمنترین و تنها مسیر محتاط رو به جلوی
-
12:10 - 12:11توصیه شده
-
12:11 - 12:14تعبیه مستقیم این فناوری در مغزهای ما باشد.
-
12:15 - 12:18اکنون، شاید این ایمنترین و
تنها مسیر محتاط رو به جلوست، -
12:18 - 12:21اما معمولا دغدغههای ایمنی
یک نفر درباره فناوری -
12:21 - 12:25باید حسابی مورد بررسی قرار گرفته باشد
پیش از این بخواهید که آن را تو کله خود فرو کنید. -
12:25 - 12:27(خنده)
-
12:27 - 12:32مشکل عمیقتر این است
که ساختن هوش مصنوعی ابرهوشمند مستقل -
12:32 - 12:34به نظر آسانتر از ساختن
-
12:34 - 12:36هوش مصنوعی ابرهوشمند
-
12:36 - 12:38و داشتن علم عصب شناسی کاملی میاید
-
12:38 - 12:40که به ما اجازه یکپارچه کردن بیدرز
ذهنهای خویش با آن را میدهد. -
12:41 - 12:44و با فرض این که کمپانیها
و دولتهایی این کار را میکنند -
12:44 - 12:48محتمل به پی بردن به موجودیت خود
در این مسابقه علیه دیگران هستند، -
12:48 - 12:51با این فرض که بردن این مسابقه
به معنی بردن جهان است، -
12:51 - 12:53به شرطی که در لحظه بعدی آن را نابود نکنید،
-
12:53 - 12:56که احتمال وقوع هر چیزی که آسانتر باشد
-
12:56 - 12:57اول از همه میرود.
-
12:59 - 13:01شوربختانه الان راهحلی
برای این مشکل ندارم -
13:01 - 13:04بجز توصیهام برای بیشتر فکردن کردن
درباره آن. -
13:04 - 13:06فکر میکنم بیشتر به چیزی مثل
پروژه منهتن در موضوع -
13:06 - 13:08هوش مصنوعی نیاز داریم.
-
13:09 - 13:11نه درباره ساختن آن، چون به نظرم
بالاخره این کار را خواهیم کرد، -
13:11 - 13:15بلکه درک نحوه اجتناب
از یک مسابقه تسلیحاتی -
13:15 - 13:18و ساخت آن به نحوی که
هم راستا با منافع ما باشد. -
13:18 - 13:20زمانی که راجع به هوش مصنوعی
ابرهوشمند صحبت میکنید -
13:20 - 13:23که قادر به انجام تغییرات در خویش است،
-
13:23 - 13:27به نظر میاید که ما تنها از یک شانس برای
رسیدن به شرایط آغازین صحیح برخورداریم -
13:27 - 13:29و حتی بعد لازم است به جذب
-
13:29 - 13:32پیامدهای سیاسی و اقتصادی
درست بودن آنها بپردازیم. -
13:34 - 13:36اما لحظهای که میپذیریم
-
13:36 - 13:40پردازش اطلاعات منبع هوشمندی است،
-
13:41 - 13:46که یک نظام محاسباتی مناسب
مبنای هوشمندی است، -
13:46 - 13:50و بپذیریم که این نظامها
را در ادامه اصلاح خواهیم کرد، -
13:51 - 13:56و بپذیریم که افق فرایند یادگیری و شناخت
به احتمال زیاد فراتر -
13:56 - 13:57از دانش فعلی ما میرود
-
13:58 - 13:59در ادامه باید بپذیریم
-
13:59 - 14:02که ما در فرایند ساخت نوعی از خدا هستیم.
-
14:03 - 14:05الان زمان خوبی است
-
14:05 - 14:07مطمئن شویم خدایی است
که میتوان با آن زندگی کرد. -
14:08 - 14:10از شما خیلی ممنونم.
-
14:10 - 14:15(تشویق)
- Title:
- آیا امکان ساخت نظارت شده ماشینهای ابرهوشمند را داریم؟
- Speaker:
- سام هریس
- Description:
-
از ماشینهای ابر هوشمند میترسید؟ باید بترسید،این را سام هریس فیلسوف و عصب شناس میگوید-- و آنهم نه به طریق نظریهای. هریس میگوید، ما قرار است ماشینهای فوق بشری بسازیم، در حالیکه هنوز درک بجایی از مشکلاتی نداریم که با خلق این چیز به بار خواهد آمد و احتمالا به همان شکلی که ما مورچهها را تهدید میکنیم ، ما را تهدید خواهد کرد.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
b a approved Persian subtitles for Can we build AI without losing control over it? | |
![]() |
b a accepted Persian subtitles for Can we build AI without losing control over it? | |
![]() |
b a edited Persian subtitles for Can we build AI without losing control over it? | |
![]() |
b a edited Persian subtitles for Can we build AI without losing control over it? | |
![]() |
b a edited Persian subtitles for Can we build AI without losing control over it? | |
![]() |
b a edited Persian subtitles for Can we build AI without losing control over it? | |
![]() |
b a edited Persian subtitles for Can we build AI without losing control over it? | |
![]() |
b a edited Persian subtitles for Can we build AI without losing control over it? |