هل بإمكاننا بناء ذكاءٍ اصطناعي دون فقدان التحكم به ؟
-
0:01 - 0:03سأقوم بالتحدث عن فشل الحدس
-
0:03 - 0:05الذي يعاني معظمنا منه.
-
0:05 - 0:09هو في الواقع الفشل في تحرِّي نوع محدد
من الخطر. -
0:09 - 0:11سوف أقوم بوصف سيناريو
-
0:11 - 0:14أظنه مخيفاً
-
0:14 - 0:16ومن المرجح أن يحدث،
-
0:17 - 0:18وهذا ليس مزيجاً جيداً،
-
0:19 - 0:20كما سيبدو.
-
0:20 - 0:23ومع ذلك، بدلاً من الخوف، سيشعر معظمكم
-
0:23 - 0:25بأن ما أتحدُّث عنه مثير نوعاً ما.
-
0:25 - 0:28سأقوم بوصف كيف أن المكاسب التي نحصل عليها
-
0:28 - 0:30من الذكاء الاصطناعي
-
0:30 - 0:32يمكن في النهاية أن تدمرنا.
-
0:32 - 0:35وفي الواقع، أظنه من الصعب جداً أن نرى
كيف أنها لن تدمرنا -
0:35 - 0:37أو تلهمنا أن ندمر أنفسنا.
-
0:37 - 0:39ومع ذلك إذا كنتم تشبهونني في شيء
-
0:39 - 0:42فستجدون أنه من الممتع التفكير
بهذه الأشياء. -
0:42 - 0:45وتلك الإجابة هي جزء من المشكلة.
-
0:45 - 0:47حسناً؟ تلك الإجابة يجب أن تُقلقكم.
-
0:48 - 0:51وإذا كان عليَّ أن أقنعكم في هذه المحادثة
-
0:51 - 0:54أنه من المرجح أننا سوف نعاني من
مجاعة عالمية -
0:54 - 0:57إما بسبب تغيُّر المناخ، أو بسبب
كارثة أخرى، -
0:57 - 1:01وأن أحفادكم، أو أحفادهم،
-
1:01 - 1:02من المرجح جداً أن يعيشوا، هكذا
-
1:03 - 1:04فلن يخطر ببالكم.
-
1:05 - 1:07"مثير للاهتمام".
-
1:07 - 1:08تعجبني محادثة TED هذه.
-
1:09 - 1:11المجاعة ليست مسلية.
-
1:12 - 1:15الموت عن طريق الخيال العلمي، من ناحية
أخرى، مسلٍّ، -
1:15 - 1:19وأحد الأشياء التي تقلقني للغاية بسبب تطور
الذكاء الاصطناعي عند هذه النقطة -
1:19 - 1:23هي أننا نبدو وكأننا غير قادرين على إبداء
استجابة عاطفية ملائمة -
1:23 - 1:25للأخطار التي تنتظرنا.
-
1:25 - 1:28أنا غير قادر على إبداء هذه الاستجابة،
وأنا أقوم بهذه المحادثة. -
1:30 - 1:33يبدو الأمر وكأننا نقف أمام بابين.
-
1:33 - 1:34خلف الباب رقم واحد،
-
1:34 - 1:37نتوقف عن تحقيق التقدُّم في بناء الآليات
الذكية. -
1:37 - 1:41معدات حاسوبنا وبرمجياته تتوقف عن التحسن
لسببٍ ما وحسب. -
1:41 - 1:44خذوا الآن لحظة للتفكير لماذا قد يحدث ذلك.
-
1:45 - 1:49أعني، بافتراض مدى نفع الذكاء والأتمتة،
-
1:49 - 1:52فإننا سنستمر بتحسين التكنولوجيا الخاصة بنا
إذا كان بإمكاننا أصلاً. -
1:53 - 1:55ما الذي قد يمنعنا من فعل هذا؟
-
1:56 - 1:58حربٌ نووية على جميع المقاييس؟
-
1:59 - 2:01وباء عالمي؟
-
2:02 - 2:04اصطدام كويكب؟
-
2:06 - 2:08أن يصبح جاستن بيبر رئيساً
للولايات المتحدة؟ -
2:08 - 2:11(ضحك)
-
2:13 - 2:17الخلاصة هي، شيءٌ ما عليه تدمير
الحضارة كما نعرفها. -
2:17 - 2:22عليكم تخيُّل كم عليه أن يكون سيئاً
-
2:22 - 2:25لكي يمنعنا من تحقيق تحسينات في
التكنولوجيا الخاصة بنا -
2:25 - 2:26بشكل دائم،
-
2:26 - 2:28جيلاً بعد جيل.
-
2:28 - 2:30تقريباً بالتعريف، هذا أسوأ شيء
-
2:30 - 2:32يمكن أن يحصل في تاريخ البشرية.
-
2:33 - 2:34لذا البديل الوحيد،
-
2:34 - 2:36وهو الذي يوجد خلف الباب رقم اثنين،
-
2:36 - 2:39هو أن نستمر بتحسين آلاتنا الذكية
-
2:39 - 2:41سنة بعد سنة بعد سنة.
-
2:42 - 2:45وعند نقطة معينة، سنبني آلياتٍ أذكى
مما نحن عليه، -
2:46 - 2:49وحالما يصبح لدينا آليات أذكى مننا،
-
2:49 - 2:51سوف تبدأ بتحسين نفسها.
-
2:51 - 2:53وعندها سنواجه ما دعاه عالم
الرياضيات IJ Good -
2:53 - 2:55"انفجاراً ذكائياً"
-
2:55 - 2:57وأن العملية يمكن أن تفلت من بين أيدينا.
-
2:58 - 3:01الآن، هذا يتم عمله كرسم كاريكاتيري،
كما أفعل هنا -
3:01 - 3:04كخوفٍ من جيوش ميليشيا من الرجال الآليين
-
3:04 - 3:05التي ستهاجمنا.
-
3:05 - 3:08ولكن هذا ليس السيناريو الأكثر احتمالاً.
-
3:08 - 3:13الأمر ليس أن آلياتنا ستصبح حاقدة بشكل عفوي
-
3:13 - 3:16المقلق حقاً هو أننا نبني آليات
-
3:16 - 3:18أكثر كفاءة مما نحن عليه
-
3:18 - 3:22وأن أقل اختلاف بين أهدافها وأهدافنا
-
3:22 - 3:23يمكن أن يدمرنا.
-
3:24 - 3:26فقط فكروا بكيفية علاقتنا بالنمل
-
3:27 - 3:28نحن لا نكرههم.
-
3:28 - 3:30ولا نخرج عن طريقنا لنؤذيهم.
-
3:30 - 3:33في الواقع، أحياناً نتحمل آلاماً لكي
لا نؤذيهم. -
3:33 - 3:35نحن نمشي من فوقهم على الرصيف.
-
3:35 - 3:37ولكن عندما يكون لوجودهم
-
3:37 - 3:39تعارض جدِّي مع أحد أهدافنا،
-
3:39 - 3:42لنقل مثلاً عند إنشاء بناء كهذا،
-
3:42 - 3:44نقوم بإبادتهم بدون أي تأنيب ضمير.
-
3:44 - 3:47والقلق من أننا يوماً ما سوف نبني آليات
-
3:47 - 3:50والتي، سواءٌ كانت مدركة أم لا،
-
3:50 - 3:52قد تعاملنا بمثل هذا الاستخفاف.
-
3:54 - 3:57والآن، أنا أشك أن هذا أبعد ما يكون
عن العديد منكم. -
3:57 - 4:04وأراهن على أن هنالك منكم من يشك أن الذكاء
الاصطناعي الخارق الذكاء ممكن، -
4:04 - 4:05أو حتى محتوم.
-
4:05 - 4:09ولكن مع ذلك يجب عليكم أن تجدوا شيئاً ما
خاطئاً في أحد الافتراضات التالية. -
4:09 - 4:11وهنالك ثلاثة منهم.
-
4:12 - 4:17الذكاء هو مسألة معالجة للمعلومات في
الأنظمة الفيزيائية. -
4:17 - 4:20في الواقع، هذا أكثر بقليل من مجرد افتراض.
-
4:20 - 4:23نحن قمنا مسبقاً ببناء ذكاء محدود
في آلياتنا، -
4:23 - 4:25والعديد من هذه الآليات تقوم بالأداء
-
4:25 - 4:28في مستوى الذكاء البشري الخارق أصلاً.
-
4:29 - 4:31ونعلم أن المادة المجردة
-
4:31 - 4:34بإمكانها أن تعطي زيادة لما يدعى
"بالذكاء العام"، -
4:34 - 4:38القدرة على التفكير بمرونة في عدة مجالات،
-
4:38 - 4:41لأن دماغنا قام بتدبر الأمر. صحيح؟
-
4:41 - 4:45أنا أعني، هناك ذرات فقط هنا،
-
4:45 - 4:49وطالما نستمر ببناء أنظمة من الذرات
-
4:49 - 4:52والتي تُبدي سلوكاً متزايداً أكثر
وأكثر من الذكاء -
4:52 - 4:55فإننا في النهاية، إلا إذا تمَّت مقاطعتنا،
-
4:55 - 4:58في النهاية سوف نبني ذكاءً عاماً
-
4:58 - 4:59في آلياتنا.
-
4:59 - 5:03من المصيري أن ندرك أن معدل التطور لا يهم،
-
5:03 - 5:06لأن أي تطور هو كافٍ لإيصالنا إلى
منطقة النهاية. -
5:06 - 5:10لا نحتاج قانون Moore للاستمرار.
لا نحتاج التطور الأسي. -
5:10 - 5:12نحتاج فقط لأن نستمر بالمضي قدماً
-
5:13 - 5:16الافتراض الثاني هو أننا سنستمر
بالمضي قدماً. -
5:17 - 5:20سنستمر بتحسين آلياتنا الذكية.
-
5:21 - 5:25وبافتراض أهمية الذكاء --
-
5:25 - 5:29أنا أعني، أن الذكاء هو إما مصدر
لكل شيءٍ نقدِّره -
5:29 - 5:32أو أننا نحتاجه لحماية كل شيءٍ نقدُّره.
-
5:32 - 5:34إنه المنبع الأكثر أهمية لدينا.
-
5:34 - 5:36لذلك نحتاج لفعل التالي.
-
5:36 - 5:39لدينا مشاكل نحن بحاجة ماسِّة لحلها.
-
5:39 - 5:42نريد شفاء الأمراض كالزهايمر والسرطان.
-
5:43 - 5:47نريد أن نفهم الأنظمة الاقتصادية.
نريد تحسين علم المناخ الخاص بنا. -
5:47 - 5:49لذلك سنفعل ذلك، إذا استطعنا.
-
5:49 - 5:52القطار غادر المحطة بالفعل، ولا
يوجد مكابح لشدها. -
5:54 - 5:59وأخيراً، نحن لا نقف عند قمة الذكاء،
-
5:59 - 6:01أو في أي مكان قريب منها، على ما يبدو،
-
6:02 - 6:04وهذا حقاً هو البصيرة المصيرية.
-
6:04 - 6:06هذا ما يجعل موقفنا متزعزعاً للغاية،
-
6:06 - 6:10وهذا ما يجعل حدسنا بما يخص
الخطورة لا يُعتمد عليه أبداً. -
6:11 - 6:14والآن، فكروا فقط بأذكى شخص
عاش في أي وقتٍ مضى. -
6:15 - 6:18تقريباً على قائمة الجميع القصيرة
يوجد John von Neumann. -
6:18 - 6:21أعني، الانطباع الذي تركه von Neumann
على الناس المحيطين به، -
6:21 - 6:25وهذا يشمل أعظم علماء الرياضيات
والفيزياء في عصره، -
6:26 - 6:27بالكاد تم توثيقه بشكل جيد.
-
6:27 - 6:31إذا كانت نصف القصص فقط عنه نصف صحيحة،
-
6:31 - 6:32فلا يوجد شك
-
6:33 - 6:35أنه أحد أذكى الأشخاص الذين عاشوا
في أي وقتٍ مضى. -
6:35 - 6:38لذلك باعتبار طيف الذكاء.
-
6:38 - 6:40هنا لدينا John von Neumann.
-
6:42 - 6:43وهنا لدينا أنتم وأنا.
-
6:44 - 6:45وثم هنا لدينا دجاجة.
-
6:45 - 6:47(ضحك)
-
6:47 - 6:49آسف، دجاجة.
-
6:49 - 6:50(ضحك)
-
6:50 - 6:54لا يوجد سبب يجعلني أجعل هذه المحادثة أكثر
إحباطاً مما يحتاجه الأمر. -
6:54 - 6:55(ضحك)
-
6:56 - 7:00يبدو أنه ساحق على الأرجح، ومع ذلك، يمتد
طيف الذكاء -
7:00 - 7:03أبعد بكثير مما نتصور حالياً،
-
7:04 - 7:07وإذا قمنا ببناء آلات أذكى مما نحن عليه،
-
7:07 - 7:09فهي على الأرجح ستستكشف الطيف
-
7:09 - 7:11بطرقٍ لا نستطيع تخيلها،
-
7:11 - 7:14وسف تتعدانا بطرقٍ لا يمكننا تخيلها.
-
7:15 - 7:19ومن المهم أن ندرك أن هذا صحيح بخصوص
تأثير السرعة وحدها. -
7:19 - 7:24صحيح؟ إذاً تخيلوا إذا بنينا ذكاءً صنعياً
خارق الذكاء -
7:24 - 7:28ولم يكن أذكى من فريق الباحثين العادي
الخاص بكم -
7:28 - 7:30في ستانفورد أو معهد ماساتشوستس
للتكنولوجيا. -
7:30 - 7:33حسناً، الدارات الالكترونية تعمل بشكل أسرع
بحوالي ملايين المرات -
7:33 - 7:34من تلك الكيميائية الحيوية،
-
7:35 - 7:38لذا هذه الآلة يجب أن تفكر أسرع بملايين
المرات -
7:38 - 7:39من العقول التي قامت ببنائها.
-
7:40 - 7:41لذا إذا تركتها تعمل لمدة أسبوع،
-
7:41 - 7:46فسوف تؤدي ما يعادل 20,000 سنة من
العمل بمستوى الذكاء البشري، -
7:46 - 7:48أسبوع بعد أسبوع بعد أسبوع.
-
7:50 - 7:53كيف بإمكاننا حتى أن نفهم،
أو حتى أن نُقيّد، -
7:53 - 7:55عقلاً يصنع هذا النوع من التطور؟
-
7:57 - 7:59والأمر الآخر المقلق، بصراحة،
-
7:59 - 8:04هو أن، تخيل أفضل سيناريو.
-
8:04 - 8:08إذاً تخيلوا أننا اكتشفنا تصميماً للذكاء
الصنعي فائق الذكاء -
8:08 - 8:10وليس لديه مخاوف سلامة.
-
8:10 - 8:13لدينا التصميم المثالي للمرة الأولى.
-
8:13 - 8:15وكأنه تم تسليمنا نبوءة
-
8:15 - 8:17تتصرَّف تماماً كما ينبغي عليها.
-
8:17 - 8:21هذه الآلة ستكون المثلى لتوفير العمالة.
-
8:22 - 8:24بإمكانها تصميم آلية ستقوم ببناء الآلة
-
8:24 - 8:26التي بإمكانها القيام بأي عمل فيزيائي،
-
8:26 - 8:27تعمل بضوء الشمس،
-
8:27 - 8:30ومهما يكن من أجل كلفة المواد الخام.
-
8:30 - 8:33إذاً نحن نتكلم عن نهاية الكدح البشري.
-
8:33 - 8:36نحن أيضا نتكلم عن نهاية العمل الذكائي.
-
8:37 - 8:40فماذا قد تفعل القرود أمثالنا في هذا الظرف؟
-
8:40 - 8:44حسناً، سنكون متفرغين للعب بالصحن الطائر
وتبادل الرسائل مع بعضنا. -
8:46 - 8:49أضف بعض الـLSD
مع اختيارات اللباس المشكوك بأمرها، -
8:49 - 8:51وبإمكان العالم كله أن يصبح
كفيلم Burning Man. -
8:51 - 8:53(ضحك)
-
8:54 - 8:56حسناً، هذا قد يبدو جيداً جداً،
-
8:57 - 9:00ولكن اسألوا أنفسكم ماذا قد يسبب هذا
-
9:00 - 9:02لاقتصادنا الحالي ووضعنا السياسي؟
-
9:02 - 9:05يبدو أننا سنشهد على الأرجح
-
9:05 - 9:09مستوى من تفاوت الثروات والبطالة
-
9:09 - 9:11الذي لم نشهده أبداً من قبل
-
9:11 - 9:13غياب الرغبة لوضع هذه الثروة الجديدة فوراً
-
9:13 - 9:15في خدمة جميع البشرية،
-
9:16 - 9:19بعض أصحاب التريليونات سوف يُشرِّفون
أغلفة مجلات أعمالنا -
9:19 - 9:22بينما يكون باقي العالم متفرغاً لكي
يتضور جوعاً. -
9:22 - 9:25وماذا سيفعل الروس أو الصينيون
-
9:25 - 9:27إذا سمعوا أن شركةً ما في Silicon Valley
-
9:27 - 9:30كانت على وشك نشر الذكاء الا
فائق الذكاء؟ -
9:30 - 9:33هذه الآلة ستكون قادرة على شن حرب،
-
9:33 - 9:35سواء كانت على الأرض أو على الإنترنت،
-
9:35 - 9:37بقوة غير مسبوقة.
-
9:38 - 9:40هذا السيناريو هو الذي يربح كل شيء
-
9:40 - 9:43أن تكون متقدماً بستة أشهر على
المنافسة في هذه الحالة -
9:43 - 9:46تعني أن تكون متقدماً بـ500,000 سنة،
-
9:46 - 9:47بأقل حد.
-
9:47 - 9:52وبالتالي يبدو أنه حتى الإشاعات المحضة
بما يخص النوع من الاكتشافات -
9:52 - 9:55يمكن أن تجعل فصائلنا تهتاج.
-
9:55 - 9:58والآن، أكثر الأشياء إخافة،
-
9:58 - 10:00من وجهة نظري، في هذه اللحظة،
-
10:00 - 10:05هي النوع من الأشياء التي يقولها باحثو
الذكاء الاصطناعي عندما -
10:05 - 10:06يريدون أن يكونوا مُطمئِنين.
-
10:07 - 10:10والسبب الأكثر شيوعاً الذي يُقال لنا
ألا نقلق بسببه هو الوقت -
10:10 - 10:13هذا كله سيمر، ألا تعلم.
-
10:13 - 10:15هذا من المحتمل بعد 50 أو 100 سنة.
-
10:16 - 10:17قال أحد الباحثين،
-
10:17 - 10:19"القلق بشأن سلامة
الذكاء الاصطناعي -
10:19 - 10:21هو كالقلق بشأن زيادة
التعداد السكاني على المريخ" -
10:22 - 10:24هذه نسخة Silicon Valley
-
10:24 - 10:26من "لا تُقلق رأسك الجميل الصغير بهذا".
-
10:26 - 10:27(ضحك)
-
10:28 - 10:29لا يبدو أن أحداً يلاحظ
-
10:29 - 10:32أن الإشارة للحد الزمني
-
10:32 - 10:35ليس له عواقب بتاتاً.
-
10:35 - 10:38إذا كان الذكاء هو مجرد مسألة معالجة
معلومات، -
10:38 - 10:41ونحن نستمر بتحسين آلياتنا،
-
10:41 - 10:44فسنقوم بإنتاج شكلٍ ما من الذكاء الفائق.
-
10:44 - 10:48وليس لدينا فكرة كم سيستغرق هذا مننا
-
10:48 - 10:50لخلق الشروط للقيام بذلك بأمان.
-
10:52 - 10:53دعوني أقل ذلك مرة أخرى.
-
10:54 - 10:57ليس لدينا فكرة كم سيستغرق الأمر مننا
-
10:57 - 11:00لخلق الشروط للقيام بذلك بأمان.
-
11:01 - 11:04وإذا لم تلاحظوا،
لم تعد الخمسون سنة كما كانت عليه. -
11:04 - 11:07هذه 50 سنة في أشهر.
-
11:07 - 11:09هذه المدة التي امتلكنا فيها الـiPhone
-
11:09 - 11:12هذه المدة التي انعرض فيها
The Simpsons على التلفاز -
11:13 - 11:15خمسون سنة هي ليست بالوقت الكثير
-
11:15 - 11:18لمواجهة أحد أكبر التحديات الذي سيواجه
لفصيلتنا. -
11:20 - 11:24مرة أخرى، يبدو أننا نفشل في امتلاك
الاستجابة العاطفية الملائمة -
11:24 - 11:26لما يوجد لدينا أكثر من سبب للإيمكان
بأنه قادم -
11:26 - 11:30عالم الحاسوب Stuart Russell
لديه تحليل لطيف هنا. -
11:30 - 11:35هو يقول، تخيلوا أننا استلمنا رسالة من
حضارة الفضائيين، -
11:35 - 11:37والتي كانت:
-
11:37 - 11:39"سكان الأرض،
-
11:39 - 11:41سوف نصل إلى كوكبكم خلال 50 سنة.
-
11:42 - 11:43استعدوا."
-
11:43 - 11:48والآن نقوم بالعد التنازلي للأشهر حتى تهبط
السفينة الأم؟ -
11:48 - 11:51سنشعر بالعجلة أكثر مما نفعل الآن بقليل.
-
11:53 - 11:55يُقال لنا ألا نقلق لسببٍ آخر
-
11:55 - 11:58هو أن هذه الآليات ليس بوسعها
إلا مشاركتنا منافعها -
11:58 - 12:00لأنها ستكون حرفياً امتداداً لأنفسنا.
-
12:00 - 12:02ستكون مُطعَّمة مع أدمغتنا،
-
12:02 - 12:04ونحن سنصبح جوهرياً أنظمتها الحوفية.
-
12:05 - 12:07الآن خذوا لحظة للتفكير
-
12:07 - 12:10أن الطريق الوحيد الآمن والحكيم للأمام،
-
12:10 - 12:11الذي يُنصح به،
-
12:11 - 12:14هو زرع هذه التكنولوجيا مباشرةً في أدمغتنا.
-
12:15 - 12:18قد يكون الطريق الوحيد
الآمن والحكيم للأمام، -
12:18 - 12:21ولكن عادةً يكون للمرء مخاوف
عن كون التكنولوجيا -
12:21 - 12:25مفهومة لحدٍّ ما قبل أن تدخلها داخل رأسك.
-
12:25 - 12:27(ضحك)
-
12:27 - 12:32المشكلة الأعمق أن بناء ذكاء اصطناعي فائق
الذكاء بمفرده -
12:32 - 12:34يبدو على الأرجح أنه أسهل
-
12:34 - 12:36من بناء ذكاء اصطناعي فائق
الذكاء -
12:36 - 12:38وامتلاك علم الأعصاب الكامل
-
12:38 - 12:40الذي يسمح لنا بمكاملة عقولنا معه بسلاسة.
-
12:41 - 12:44وبافتراض أن الشركات والحكومات
التي تقوم بهذا العمل -
12:44 - 12:48على الأرجح ستعي كونها في سباق ضد
الآخرين جميعاً، -
12:48 - 12:51وبافتراض أن الفوز في هذا السباق
هو الفوز بالعالم، -
12:51 - 12:53بفرض أنك لن تدمره في الشهر التالي،
-
12:53 - 12:56فبالتالي يبدو على الأرجح أنه مهما يكن
الأسهل فعله -
12:56 - 12:57سيتم الانتهاء منه أولاً.
-
12:59 - 13:01الآن، لسوء الحظ، لا أمتلك حلاً لهذه
المشكلة، -
13:01 - 13:04بمعزل عن توصية أن يفكِّر المزيد مننا به.
-
13:04 - 13:06أظن أننا بحاجة شيء ما مثل "مشروع مانهاتن"
-
13:06 - 13:08لموضوع الذكاء الاصطناعي.
-
13:09 - 13:11ليس لبنائه، لأنني أظننا سنفعل ذلك حتماً،
-
13:11 - 13:15ولكن لفهم كيفية تجنب سباق الأذرع
-
13:15 - 13:18ولبنائه بطريقة منحازة مع اهتماماتنا.
-
13:18 - 13:20عندما تتحدث عن ذكاء اصطناعي فائق
الذكاء -
13:20 - 13:23يمكنه إحداث تغيير لنفسه،
-
13:23 - 13:27يبدو أن لدينا فرصة واحدة للقيام بالشروط
الابتدائية بشكل صحيح، -
13:27 - 13:29وحتى حينها سنكون بحاجة امتصاص
-
13:29 - 13:32العواقب الاقتصادية والسياسية من القيام
بها بشكل صحيح. -
13:34 - 13:36ولكن في اللحظة التي نعترف فيها
-
13:36 - 13:40أن معالجة المعلومات هي مصدر الذكاء،
-
13:41 - 13:46وأن بعض أنظمة الحاسوب الملائمة
تُعبِّر عن أساس الذكاء، -
13:46 - 13:50ونعترف أننا سوف نحسِّن هذه الأنظمة
باستمرار، -
13:51 - 13:56ونعترف أن أفق الإدراك على الأرجح يتجاوز
-
13:56 - 13:57الذي نعرفه حالياً بكثير،
-
13:58 - 13:59وبالتالي علينا الاعتراف
-
13:59 - 14:02أننا في مرحلة بناء نوع ما من الآلهة.
-
14:03 - 14:05الآن سيكون وقتاً جيداً
-
14:05 - 14:07للتأكد من أنه إله نستطيع العيش معه.
-
14:08 - 14:10شكراً جزيلاً لكم.
-
14:10 - 14:15(تصفيق)
- Title:
- هل بإمكاننا بناء ذكاءٍ اصطناعي دون فقدان التحكم به ؟
- Speaker:
- Sam Harris
- Description:
-
خائف من الذكاء الاصطناعي فائق الذكاء؟ يجب عليك ذلك، هكذا يقول عالم الأعصاب والفيلسوف سام هاريس -- وليس بطريقة نظرية وحسب. سنقوم ببناء آليات بشرية خارقة، يقول هاريس، ولكننا لم نتصارع بعد مع المشاكل المرتبطة مع خلق شيءٍ ربما يعاملنا بالطريقة التي نعامل بها النمل.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Mahmoud Aghiorly approved Arabic subtitles for Can we build AI without losing control over it? | |
![]() |
Hussain Laghabi accepted Arabic subtitles for Can we build AI without losing control over it? | |
![]() |
Hussain Laghabi edited Arabic subtitles for Can we build AI without losing control over it? | |
![]() |
Hani Eldalees edited Arabic subtitles for Can we build AI without losing control over it? | |
![]() |
Belal Hamad edited Arabic subtitles for Can we build AI without losing control over it? | |
![]() |
Waleed Mukhtar edited Arabic subtitles for Can we build AI without losing control over it? | |
![]() |
Waleed Mukhtar edited Arabic subtitles for Can we build AI without losing control over it? | |
![]() |
Hussain Laghabi declined Arabic subtitles for Can we build AI without losing control over it? |