0:00:01.000,0:00:03.216 Tôi chuẩn bị nói về[br]sự thất bại của trực giác 0:00:03.240,0:00:05.460 mà nhiều người trong chúng ta[br]thường gặp phải. 0:00:05.480,0:00:09.360 Nó thật ra là sự thất bại trong việc[br]phát hiện một mối nguy hiểm nhất định. 0:00:09.360,0:00:11.096 Tôi sẽ mô tả một viễn cảnh 0:00:11.120,0:00:14.376 mà tôi nghĩ vừa kinh khủng 0:00:14.400,0:00:16.800 vừa có thể sẽ xảy ra, 0:00:16.840,0:00:18.496 và đây không phải sự kết hợp tốt 0:00:18.520,0:00:20.056 khi nó xảy ra. 0:00:20.080,0:00:22.536 Thế nhưng thay vì sợ,[br]hầu hết các bạn sẽ cảm thấy 0:00:22.560,0:00:25.150 rằng điều tôi đang nói thật ra rất tuyệt 0:00:25.200,0:00:28.176 Tôi sẽ mô tả cách mà[br]những thứ ta gặt hái được 0:00:28.200,0:00:29.976 từ trí thông minh nhân tạo (AI) 0:00:30.000,0:00:31.760 có thể hủy diệt chúng ta. 0:00:31.760,0:00:35.426 Thực ra, tôi nghĩ rất khó để xem làm sao[br]chúng có thể không tiêu diệt chúng ta 0:00:35.426,0:00:37.420 hoặc làm cho chúng ta tự hủy diệt mình. 0:00:37.420,0:00:39.256 Nhưng nếu các bạn giống tôi, 0:00:39.280,0:00:41.936 bạn sẽ thấy rằng nó rất vui[br]khi nghĩ về những điều này. 0:00:41.960,0:00:45.336 Và phản ứng đó là một phần của vấn đề. 0:00:45.360,0:00:47.720 OK? Phản ứng đó sẽ làm bạn lo lắng. 0:00:47.720,0:00:50.576 Và nếu tôi thuyết phục được các bạn[br]trong buổi nói chuyện này 0:00:50.600,0:00:54.016 rằng chúng ta có thể sẽ phải[br]hứng chịu một nạn đói toàn cầu, 0:00:54.040,0:00:57.096 hoặc do biến đổi khí hậu hoặc[br]do một số thiên tai khác, 0:00:57.120,0:01:00.536 và rằng cháu chắt của các bạn hay của họ, 0:01:00.560,0:01:03.100 rất có thể sẽ phải sống như thế này, 0:01:03.200,0:01:05.150 thì bạn sẽ không nghĩ, 0:01:05.440,0:01:06.776 "Tuyệt vời. 0:01:06.800,0:01:09.130 Tôi thích buổi nói chuyện này." 0:01:09.200,0:01:11.530 Nạn đói không vui vẻ gì đâu. 0:01:11.800,0:01:15.176 Tuy nhiên cái chết do khoa học[br]viễn tưởng lại rất hài hước. 0:01:15.200,0:01:19.176 mà một trong số những thứ làm tôi[br]lo lắng nhất về việc phát triển AI 0:01:19.200,0:01:23.296 là chúng ta dường như không thể sắp xếp[br]một phản ứng cảm xúc thích hợp nào 0:01:23.320,0:01:25.136 cho những mối nguy hiểm trước mắt. 0:01:25.160,0:01:30.110 Tôi không thể sắp xếp thứ phản ứng này,[br]nên tôi mới đưa ra buổi nói chuyện này. 0:01:30.120,0:01:32.816 Nó như thể chúng ta[br]đứng trước hai cánh cửa. 0:01:32.840,0:01:34.096 Sau cánh cửa thứ nhất, 0:01:34.120,0:01:37.416 chúng ta ngưng quá trình xây dựng[br]các loại máy móc thông minh. 0:01:37.440,0:01:41.456 Phần cứng và phần mềm máy tính[br]không cải tiến tốt hơn nữa vì vài lí do. 0:01:41.480,0:01:44.950 Giờ hãy dành thời gian suy nghĩ[br]tại sao điều này có thể xảy ra. 0:01:45.080,0:01:48.736 Ý tôi là, dựa vào giá trị của[br]trí thông minh và sự tự động hóa, 0:01:48.760,0:01:52.280 chúng ta vẫn sẽ tiếp tục cải tiến[br]công nghệ nếu ta hoàn toàn có thể. 0:01:52.520,0:01:55.797 Điều gì có thể khiến chúng ta[br]dừng làm việc này? 0:01:55.800,0:01:58.800 Một cuộc chiến hạt nhân quy mô lớn? 0:01:59.000,0:02:02.140 Một đại dịch toàn cầu? 0:02:02.320,0:02:05.520 Va chạm thiên thạch? 0:02:05.640,0:02:08.216 Hay Justin Bieber trở thành tổng thống Mỹ? 0:02:08.240,0:02:10.520 (Cười) 0:02:12.760,0:02:16.960 Vấn đề là, thứ gì đó sẽ phải hủy diệt[br]nền văn minh như chúng ta đã biết. 0:02:17.350,0:02:21.656 Bạn phải tưởng tượng nó[br]sẽ phải tồi tệ như thế nào 0:02:21.680,0:02:25.016 để ngăn chúng ta tiếp tục[br]cải tiến công nghệ 0:02:25.040,0:02:26.256 vĩnh viễn, 0:02:26.280,0:02:28.290 thế hệ này qua thế hệ khác. 0:02:28.300,0:02:30.486 Gần như theo định nghĩa,[br]đây là thứ tồi tệ nhất 0:02:30.486,0:02:32.496 xảy ra trong lịch sử nhân loại. 0:02:32.520,0:02:33.816 Vậy nên lựa chọn duy nhất, 0:02:33.840,0:02:36.176 và nó nằm sau cánh cửa số hai, 0:02:36.200,0:02:39.336 đó là chúng ta tiếp tục cải tiến[br]các máy móc thông minh 0:02:39.360,0:02:41.140 năm này qua năm khác. 0:02:41.310,0:02:45.910 Tới một thời điểm nhất định, chúng ta sẽ[br]tạo ra những cỗ máy thông minh hơn mình, 0:02:45.910,0:02:48.696 và một khi chúng ta sở hữu[br]các cỗ máy thông minh hơn mình, 0:02:48.720,0:02:50.680 chúng sẽ bắt đầu tự cải tiến. 0:02:50.680,0:02:53.676 Sau đó, chúng ta mạo hiểm với thứ[br]mà nhà toán học Ij Good gọi là 0:02:53.676,0:02:55.256 sự "bùng nổ trí tuệ" 0:02:55.280,0:02:58.110 và quá trình đó có thể sẽ[br]tiến xa ra khỏi chúng ta. 0:02:58.120,0:03:00.936 Và giờ, điều này thường hay bị biếm họa,[br]như tôi có ở đây, 0:03:00.960,0:03:04.176 nỗi sợ trước một đội quân robot độc ác 0:03:04.200,0:03:05.456 sẽ tấn công chúng ta. 0:03:05.480,0:03:08.176 Nhưng đó chưa phải là viễn cảnh[br]dễ xảy ra nhất. 0:03:08.200,0:03:13.056 Không phải những cỗ máy của chúng ta [br]tự nhiên trở nên ác độc 0:03:13.080,0:03:15.696 Mối lo thật sự là khi [br]chúng ta tạo ra những cỗ máy 0:03:15.720,0:03:17.776 tài giỏi hơn chúng ta quá nhiều 0:03:17.800,0:03:21.576 để rồi, dù chỉ một khác biệt nhỏ nhất[br]giữa mục tiêu của chúng và ta thôi 0:03:21.600,0:03:23.950 cũng có thể hủy diệt chúng ta. 0:03:23.960,0:03:26.580 Hãy nghĩ đến mối quan hệ[br]giữa chúng ta loài kiến. 0:03:26.600,0:03:28.256 Chúng ta không ghét chúng. 0:03:28.280,0:03:30.320 Chúng ta không cố tình làm hại chúng. 0:03:30.320,0:03:32.796 Thực tế đôi khi chúng ta cố gắng[br]không làm hại chúng. 0:03:32.796,0:03:34.776 Chúng ta bước qua chúng trên vỉa hè. 0:03:34.800,0:03:36.930 Nhưng mỗi khi sự xuất hiện của chúng 0:03:36.930,0:03:39.546 xung đột cực kì với một[br]trong các mục đích của chúng ta, 0:03:39.546,0:03:42.027 Ví dụ như khi xây dựng[br]một tòa nhà như thế này, 0:03:42.027,0:03:44.481 chúng ta tiêu diệt chúng không lo lắng. 0:03:44.481,0:03:47.416 Có nghĩa là một ngày nào đó[br]khi chúng ta tạo ra các cỗ máy 0:03:47.440,0:03:50.176 cho dù chúng có ý thức hay không, 0:03:50.200,0:03:53.720 cũng sẽ đối xử với chúng ta [br]theo sự bất chấp tương tự như thế. 0:03:53.760,0:03:57.350 Bây giờ, tôi nghi ngờ rằng điều này có vẻ[br]quá xa với nhiều người 0:03:57.360,0:04:03.696 Tôi cá là có một số người đang nghi ngờ[br]rằng AI siêu thông minh có thể xảy ra, 0:04:03.720,0:04:05.376 ít nhiều không thể tránh khỏi. 0:04:05.400,0:04:09.020 Nhưng sau đó bạn phải tìm ra điều sai[br]với một trong các giả định sau. 0:04:09.044,0:04:11.566 Và chỉ có 3 giả định. 0:04:11.800,0:04:17.150 Trí thông minh là một vấn đề của quá trình[br]xử lí thông tin trong các hệ thống vật lí. 0:04:17.160,0:04:19.955 Thực ra, điều này hơn một chút[br]so với giả định. 0:04:19.959,0:04:23.416 Chúng ta đã tạo ra trí thông minh hạn hẹp[br]trong các cỗ máy của mình rồi, 0:04:23.440,0:04:25.456 Và rất nhiều máy móc cũng đã hoạt động 0:04:25.480,0:04:28.820 ở mức độ của trí thông minh siêu việt rồi. 0:04:28.840,0:04:31.380 Và chúng ta biết rằng chỉ có vật chất 0:04:31.380,0:04:34.146 mới có thể tạo cơ hội cho[br]"trí thông minh không giới hạn," 0:04:34.146,0:04:37.736 một khả năng suy nghĩ linh hoạt[br]trên nhiều lĩnh vực, 0:04:37.760,0:04:40.896 bởi vì bộ não chúng ta quản lí nó.[br]Đúng chứ? 0:04:40.920,0:04:44.856 Ý tôi là, chỉ có các hạt nhân trong đây, 0:04:44.880,0:04:49.376 và miễn là chúng ta tiếp tục xây dựng[br]hệ thống các nguyên tử 0:04:49.400,0:04:52.096 để biểu lộ những hành động[br]thông minh nhiều hơn nữa, 0:04:52.120,0:04:54.656 cuối cùng chúng ta sẽ,[br]trừ khi chúng ta bị gián đoạn, 0:04:54.680,0:04:58.056 cuối cùng chúng ta sẽ xây dựng được[br]trí tuệ không giới hạn 0:04:58.080,0:04:59.376 cho máy móc của mình. 0:04:59.400,0:05:02.850 Cần phải nhận ra rằng[br]tiến độ không quan trọng. 0:05:02.850,0:05:06.276 bởi vì bất kì quá trình nào cũng đủ[br]để đưa chúng ta vào khu vực kết thúc. 0:05:06.276,0:05:10.176 Ta không cần định luật Moore để tiếp tục.[br]Ta không cần phát triển theo cấp số nhân. 0:05:10.176,0:05:13.460 Chúng ta chỉ cần tiếp tục bước đi. 0:05:13.480,0:05:16.960 Giả định thứ hai là[br]chúng ta sẽ tiếp tục đi. 0:05:17.000,0:05:20.940 Chúng ta tiếp tục cải tiến[br]những cỗ máy thông minh của mình. 0:05:21.000,0:05:25.090 Và dựa vào giá trị của trí thông minh -- 0:05:25.090,0:05:28.846 Ý tôi là, trí thông minh hoặc là nguồn gốc[br]của tất cả mọi thứ chúng ta đánh giá 0:05:28.846,0:05:31.896 hoặc chúng ta cần nó để bảo vệ[br]tất cả mọi thứ chúng ta coi trọng. 0:05:31.896,0:05:33.990 Nó là tài nguyên quý giá nhất[br]của chúng ta. 0:05:33.990,0:05:35.606 Vì thế chúng ta muốn làm điều này. 0:05:35.606,0:05:38.936 Chúng ta có những vần đề nhất định[br]phải liều mạng giải quyết. 0:05:38.960,0:05:42.920 Chúng ta muốn chữa khỏi các căn bệnh[br]như Alzheimer hay ung thư. 0:05:42.960,0:05:46.896 Chúng ta muốn nắm vững hệ thống kinh tế.[br]Chúng ta muốn cải thiện khoa học khí hậu. 0:05:46.920,0:05:49.176 Cho nên chúng ta sẽ làm nó nếu có thể. 0:05:49.200,0:05:53.536 Tàu đã rời khỏi trạm,[br]và không thể kéo phanh nữa. 0:05:53.880,0:05:59.336 Và điều cuối: chúng ta không đứng trên[br]đỉnh cao của trí thông minh, 0:05:59.360,0:06:01.250 hay có thể là chỗ nào đó gần nó. 0:06:01.250,0:06:03.626 Và điều này thực sự là[br]cái nhìn sâu sắc quan trọng. 0:06:03.626,0:06:05.976 Đây là thứ làm tình trạng của[br]chúng ta bất ổn, 0:06:06.000,0:06:10.040 và nó cũng làm trực giác của chúng ta[br]về rủi ro trở nên không đáng tin. 0:06:11.120,0:06:14.630 Bây giờ hãy xem xét một người[br]thông minh nhất trên đời. 0:06:14.640,0:06:18.056 Hầu như trong danh sách của các bạn[br]đều sẽ có tên John von Neumann. 0:06:18.080,0:06:21.416 Ý tôi là, ấn tượng mà von Neumann tạo ra[br]đối với mọi người xung quanh, 0:06:21.440,0:06:25.496 và nó cũng bao gồm những nhà toán học[br]và vật lí vĩ đại ở thời của ông ta, 0:06:25.520,0:06:27.456 được lưu truyền khá tốt. 0:06:27.480,0:06:31.256 Nếu một nửa câu chuyện về ông[br]chỉ đúng 50%, 0:06:31.280,0:06:32.496 không cần bàn cãi 0:06:32.520,0:06:34.976 ông là người thông minh nhất[br]từng sống trên đời. 0:06:35.000,0:06:38.270 Vậy hãy xét về chuỗi phân bố[br]của trí thông minh. 0:06:38.320,0:06:39.749 Ở đây là John von Neumann. 0:06:41.560,0:06:42.894 Tiếp theo là các bạn và tôi. 0:06:44.120,0:06:45.416 Và tiếp là con gà. 0:06:45.440,0:06:47.376 (Cười) 0:06:47.400,0:06:48.616 Xin lỗi, một con gà. 0:06:48.640,0:06:49.896 (Cười) 0:06:49.920,0:06:53.656 Không lí do gì tôi phải làm buổi[br]nói chuyện này tệ hại hơn cần thiết. 0:06:53.680,0:06:55.280 (Cười) 0:06:56.339,0:06:59.816 Tuy nhiên, có vẻ có khả năng rất lớn là[br]chuỗi phân bố trí thông minh 0:06:59.840,0:07:03.790 mở rộng ra xa hơn nhiều so với[br]những gì chúng ta tưởng tượng, 0:07:03.830,0:07:07.096 và nếu chúng ta tạo ra[br]những cỗ máy thông minh hơn mình, 0:07:07.120,0:07:09.416 chúng có thể sẽ khai phá dải phân bố này 0:07:09.440,0:07:11.296 theo cách ta không thể tưởng tượng, 0:07:11.320,0:07:14.990 và vượt xa chúng ta theo cách[br]ta không thể tưởng tượng. 0:07:15.000,0:07:19.336 Và quan trọng là nhận ra rằng điều này[br]đúng với tính hấp dẫn của sự mau lẹ. 0:07:19.360,0:07:24.416 Đúng chứ? Hãy cứ tưởng tượng nếu ta[br]tạo ra một AI siêu thông minh 0:07:24.440,0:07:27.896 mà không tài giỏi hơn[br]nhóm các nhà nghiên cứu trung bình 0:07:27.920,0:07:30.216 ở Stanford hay MIT. 0:07:30.240,0:07:33.216 Vâng, các mạch điện tử hoạt động[br]nhanh hơn khoảng một triệu lần 0:07:33.240,0:07:34.496 so với các mạch sinh hóa, 0:07:34.520,0:07:37.656 nên cỗ máy này có thể suy nghĩ[br]nhanh hơn khoảng một triệu lần 0:07:37.680,0:07:39.496 so với trí não đã tạo ra nó. 0:07:39.520,0:07:41.176 Rồi bạn cài đặt nó chạy một tuần, 0:07:41.200,0:07:46.380 và nó sẽ thực hiện 20.000 năm làm việc[br]ở trình độ trí tuệ của con người, 0:07:46.400,0:07:49.640 tuần này qua tuần khác. 0:07:49.640,0:07:52.736 Thậm chí làm sao ta hiểu được,[br]dù ít nhiều hạn chế, 0:07:52.760,0:07:56.820 một bộ óc thực hiện[br]kiểu quá trình như vậy? 0:07:56.840,0:07:58.976 Một điều khác thật sự đáng lo lắng, 0:07:59.000,0:08:03.976 đó là, tưởng tượng ra[br]một viễn cảnh tốt nhất. 0:08:04.000,0:08:08.130 Nào hãy tưởng tượng chúng ta tìm ra[br]một thiết kế cho AI siêu thông minh 0:08:08.130,0:08:09.606 mà không có các vấn đề an toàn. 0:08:09.606,0:08:12.856 Lần đầu tiên chúng ta có được[br]một bản thiết kế hoàn hảo. 0:08:12.880,0:08:15.096 Nó như thể chúng ta nhận được[br]một lời tiên tri 0:08:15.120,0:08:17.136 xảy ra chính xác như trong dự định. 0:08:17.160,0:08:20.880 Vâng, cỗ máy này sẽ là một thiết bị[br]tuyệt vời giúp tiết kiệm nhân lực. 0:08:20.910,0:08:24.109 Nó có thể thiết kế một cỗ máy[br]có khả năng tạo ra cỗ máy khác 0:08:24.133,0:08:25.896 thực hiện các công việc thể chất, 0:08:25.920,0:08:27.376 chạy bằng ánh sáng mặt trời, 0:08:27.400,0:08:30.096 nhiều hơn hoặc ít hơn cho[br]các chi phí nguyên liệu. 0:08:30.120,0:08:33.376 Vậy chúng ta đang nói tới sự kết thúc[br]cho nỗi cực nhọc của con người. 0:08:33.400,0:08:36.350 Chúng ta cũng nói về sự chấm dứt[br]cho các công việc trí óc. 0:08:36.350,0:08:40.256 Vậy loài khỉ giống chúng ta sẽ làm gì[br]trong tình huống này? 0:08:40.280,0:08:45.680 Vâng, chúng ta được tự do chơi Frisbee[br]và nhắn tin với từng người. 0:08:45.840,0:08:48.696 Thêm vài LSD và vài lựa chọn cho[br]bộ quần áo đáng ngờ, 0:08:48.720,0:08:50.896 và cả thế giới sẽ như ở Burning Man. 0:08:50.920,0:08:52.560 (Cười) 0:08:54.320,0:08:57.210 Bây giờ, điều đó có lẽ nghe rất tốt, 0:08:57.280,0:08:59.656 nhưng thử hỏi bản thân xem[br]điều gì sẽ xảy ra 0:08:59.680,0:09:02.416 dưới trật tự kinh tế và chính trị[br]của chúng ta bây giờ? 0:09:02.440,0:09:04.856 Có vẻ là chúng ta sẽ chứng kiến 0:09:04.880,0:09:08.910 một mức độ phân biệt giàu nghèo[br]và nạn thất nghiệp 0:09:08.910,0:09:10.536 chưa từng thấy trước đây. 0:09:10.560,0:09:13.506 Sự thiếu tự nguyện trong việc lập tức[br]đưa sự giàu có mới này 0:09:13.506,0:09:15.640 vào phục vụ cho toàn nhân loại, 0:09:15.640,0:09:19.256 một vài "tỷ tỷ phú" đươc vinh danh [br]trên trang bìa của các tờ tạp chí kinh tế 0:09:19.280,0:09:22.110 trong khi phần còn lại của thế giới[br]thì chịu cảnh chết đói 0:09:22.110,0:09:24.470 Người Nga và Trung Quốc sẽ làm gì 0:09:24.470,0:09:27.276 khi họ nghe được tin một số công ty[br]trong Thung lũng Silicon 0:09:27.286,0:09:30.016 chuẩn bị triển khai[br]một AI siêu thông minh? 0:09:30.040,0:09:32.896 Cỗ máy này có khả năng sẽ[br]tiến hành chiến tranh 0:09:32.920,0:09:35.136 dù cho trên mặt đất hay trên mạng, 0:09:35.160,0:09:37.720 với sức mạnh chưa từng có. 0:09:38.120,0:09:39.976 Đây là viễn cảnh "thắng làm vua". 0:09:40.000,0:09:43.136 Dẫn trước sáu tháng trong cuộc đua này 0:09:43.160,0:09:45.936 tương đương với[br]bị dẫn trước 500.000 năm, 0:09:45.960,0:09:47.456 ít nhất là vậy. 0:09:47.480,0:09:52.216 Vì vậy, thậm chí nó có vẻ chỉ là[br]những tin đồn cho kiểu đột phá như thế 0:09:52.240,0:09:54.616 nhưng cũng đủ khiến loài người cáu tiết. 0:09:54.640,0:09:57.536 Và giờ, một trong những điều đáng sợ nhất, 0:09:57.560,0:10:00.336 theo tôi nghĩ ngay tại thời điểm này, 0:10:00.360,0:10:04.656 chính là những thứ mà[br]các nhà nghiên cứu về AI nói 0:10:04.680,0:10:06.870 khi họ muốn được yên tâm. 0:10:06.870,0:10:10.420 Và thời gian là lí do thường nhất cho việc[br]chúng ta không cần phải lo lắng. 0:10:10.420,0:10:12.576 Các bạn biết không,[br]đây là một con đường dài. 0:10:12.576,0:10:15.680 Có thể là 50 hay 100 năm nữa. 0:10:15.720,0:10:16.976 Một nhà nghiên cứu đã nói, 0:10:17.000,0:10:18.576 "lo lắng về độ an toàn của AI 0:10:18.600,0:10:21.606 cũng như lo lắng về[br]bùng nổ dân số trên sao Hỏa." 0:10:21.606,0:10:23.730 Đây là phiên bản của Thung lũng Silicon 0:10:23.730,0:10:26.216 về việc "đừng làm cái đầu nhỏ[br]của bạn lo lắng về nó." 0:10:26.216,0:10:27.496 (Cười) 0:10:27.520,0:10:29.416 Có vẻ chả ai chú ý 0:10:29.440,0:10:32.056 rằng xem xét trên phạm vi thời gian 0:10:32.080,0:10:34.656 là hoàn toàn vô căn cứ. 0:10:34.680,0:10:37.936 Nếu trí thông minh chỉ là một vấn đề[br]về xử lí thông tin, 0:10:37.960,0:10:40.616 và chúng ta tiếp tục cải tiến các cỗ máy, 0:10:40.640,0:10:43.520 chúng ta sẽ tạo ra được[br]vài dạng của siêu trí tuệ. 0:10:44.320,0:10:47.976 Và chúng ta không biết[br]sẽ tốn bao nhiêu thời gian 0:10:48.000,0:10:52.010 để tạo ra những điều kiện[br]thực hiện việc này một cách an toàn. 0:10:52.200,0:10:53.496 Tôi xin nhắc lại. 0:10:53.520,0:10:57.336 Chúng ta không biết[br]sẽ tốn bao nhiêu thời gian 0:10:57.360,0:11:00.910 để tạo ra những điều kiện[br]thực hiện việc này một cách an toàn. 0:11:00.920,0:11:04.376 Và nếu bạn chưa nhận ra,[br]50 năm không còn như xưa 0:11:04.400,0:11:06.856 Đây là 50 năm tính theo nhiều tháng. 0:11:06.880,0:11:09.340 Đây là thời gian chúng ta tạo ra iPhone. 0:11:09.440,0:11:12.040 Đây là thời gian "Gia đình Simpson"[br]được chiếu trên TV. 0:11:12.680,0:11:15.056 50 năm không quá nhiều 0:11:15.080,0:11:19.570 để thực hiện một trong số những thử thách[br]lớn nhất mà loài người từng đối mặt. 0:11:19.640,0:11:23.656 Một lần nữa, chúng ta có vẻ không thế[br]đưa ra một phản ứng cảm xúc phù hợp 0:11:23.680,0:11:26.376 cho thứ mà chúng ta có đủ lí do[br]để tin rằng nó sẽ xảy ra. 0:11:26.400,0:11:30.376 Nhà khoa học máy tính Stuart Russell[br]có một phép loại suy rất hay ở đây. 0:11:30.400,0:11:35.296 Ông nói, tưởng tượng chúng ta nhận được[br]tin nhắn từ nền văn minh ngoài hành tinh, 0:11:35.320,0:11:37.016 ghi rằng: 0:11:37.040,0:11:38.576 "Loài người trên Trái Đất, 0:11:38.600,0:11:41.790 Chúng ta sẽ đáp xuống[br]hành tinh các người trong 50 năm nữa. 0:11:41.800,0:11:43.376 Chuẩn bị đi." 0:11:43.400,0:11:47.656 Và giờ chúng ta chỉ đếm ngược từng tháng[br]đến khi phi thuyền mẹ đáp xuống? 0:11:47.680,0:11:51.850 Chúng ta sẽ cảm thấy nhiều cấp bách hơn. 0:11:51.960,0:11:54.190 Một lí do khác bảo[br]chúng ta không nên lo lắng 0:11:54.200,0:11:57.526 là các cỗ máy này không làm gì khác[br]ngoài chia sẻ giá trị với chúng ta 0:11:57.526,0:12:00.286 bởi vì chúng thật sự sẽ là[br]những phần mở rộng của chúng ta. 0:12:00.286,0:12:02.056 Chúng sẽ được cấy vào não chúng ta, 0:12:02.080,0:12:05.090 và chúng ta về cơ bản trở thành[br]hệ thống cảm xúc của chúng. 0:12:05.120,0:12:06.536 Giờ hãy xem xét 0:12:06.560,0:12:09.736 rằng con đường an toàn và[br]đầy thận trọng duy nhất phía trước, 0:12:09.760,0:12:11.096 được đề xuất, 0:12:11.120,0:12:13.920 chính là cấy trực tiếp công nghệ này[br]vào não chúng ta. 0:12:14.600,0:12:17.976 Hiện giờ nó có lẽ thật sự là con đường[br]an toàn, thận trọng duy nhất, 0:12:18.000,0:12:21.056 nhưng thường thì mối lo lắng an toàn[br]của một người về công nghệ 0:12:21.080,0:12:24.736 phải được tính toán khá kĩ càng[br]trước khi bạn đính nó vào đầu mình. 0:12:24.760,0:12:26.776 (Cười) 0:12:26.800,0:12:32.136 Vấn đề sâu hơn là xây dựng[br]một AI siêu thông minh riêng lẻ 0:12:32.160,0:12:33.896 có vẻ dễ dàng hơn 0:12:33.920,0:12:35.760 là tạo ra một AI siêu thông minh 0:12:35.760,0:12:37.906 và có được ngành[br]khoa học thần kinh hoàn chỉnh 0:12:37.906,0:12:40.780 mà cho phép chúng ta chúng ta[br]tích hợp trí óc của mình và nó. 0:12:40.810,0:12:43.976 Và giả sử các công ty và[br]các chính phủ làm việc này 0:12:44.000,0:12:47.656 có thể sẽ nhận ra bản thân đang trong[br]cuộc đua chống lại loài người, 0:12:47.680,0:12:50.936 giả sử rằng thắng cuộc đua này[br]là có cả thế giới, 0:12:50.960,0:12:53.416 miễn là bạn không hủy diệt nó[br]vào thời điểm kế tiếp, 0:12:53.440,0:12:56.056 thì nó có vẻ như là bất kể cái gì dễ hơn 0:12:56.080,0:12:58.480 sẽ được hoàn thành trước. 0:12:58.560,0:13:01.416 Bây giờ, đáng tiếc là tôi không có[br]giải pháp cho vấn đề này, 0:13:01.440,0:13:03.980 ngoại trừ đề nghị chúng ta[br]cần nghĩ về nó nhiều hơn. 0:13:03.980,0:13:06.486 Tôi nghĩ chúng ta cần thứ gì đó[br]như Manhattan Project 0:13:06.486,0:13:08.430 trong chủ đề về trí thông minh nhân tạo. 0:13:08.430,0:13:11.566 Không vì để tạo ra nó, bởi tôi nghĩ[br]chúng ta chắc chắn sẽ làm được, 0:13:11.566,0:13:14.616 mà để hiểu cách ngăn ngừa[br]cuộc chạy đua vũ trang 0:13:14.640,0:13:18.136 và xây dựng nó theo cách phù hợp[br]với lợi ích của chúng ta. 0:13:18.160,0:13:20.296 Khi chúng ta nói về AI siêu thông minh 0:13:20.320,0:13:22.576 có thể tự thay đổi, 0:13:22.600,0:13:27.140 có vẻ như chúng ta chỉ có một cơ hội[br]để làm những điều kiện ban đầu đúng đắn, 0:13:27.140,0:13:29.576 và thậm chí sau đó chúng ta[br]sẽ cần phải ta hứng chịu 0:13:29.576,0:13:33.550 những hậu quả kinh tế chính trị[br]khi làm nó đúng đắn. 0:13:33.760,0:13:35.816 Nhưng khoảnh khác ta thừa nhận 0:13:35.840,0:13:40.660 rằng xử lí thông tin là[br]nguồn gốc của trí thông minh, 0:13:40.720,0:13:46.170 rằng một số hệ thống tính toán phù hợp[br]là nền tảng cho trí thông minh 0:13:46.360,0:13:51.220 và chúng ta thừa nhận rằng chúng ta[br]tiếp tục cải tiến những hệ thống này, 0:13:51.280,0:13:55.736 và chúng ta thừa nhận rằng[br]chân trời của nhận thức có thể rất xa 0:13:55.760,0:13:57.920 so với những gì chúng ta đang biết, 0:13:57.920,0:13:59.336 thì chúng ta phải công nhận 0:13:59.360,0:14:03.240 rằng chúng ta đang trong quá trình[br]tạo ra một loại thánh thần. 0:14:03.400,0:14:04.976 Bây giờ sẽ là thời điểm tốt 0:14:05.000,0:14:08.103 để chắc chắn rằng nó là thánh thần[br]mà chúng ta có thể sống chung 0:14:08.120,0:14:09.656 Cảm ơn các bạn rất nhiều. 0:14:09.680,0:14:14.773 (Vỗ tay)