WEBVTT 00:00:00.760 --> 00:00:04.600 Khi còn là đứa trẻ, tôi là con mọt sách chính hiệu. 00:00:05.320 --> 00:00:07.496 Tôi nghĩ ở đây cũng có các bạn như vậy. NOTE Paragraph 00:00:07.520 --> 00:00:08.736 (Cười) NOTE Paragraph 00:00:08.760 --> 00:00:11.976 Và bạn, bạn cười to nhất đó, chắc đúng bạn rồi. NOTE Paragraph 00:00:12.000 --> 00:00:14.256 (Cười) NOTE Paragraph 00:00:14.280 --> 00:00:17.776 Tôi lớn lên ở một thị trấn nhỏ trong vùng đồng bằng bụi bặm bắc Texas, 00:00:17.800 --> 00:00:21.136 ba tôi là cảnh sát trưởng và ông nội tôi là một mục sư. 00:00:21.160 --> 00:00:23.220 Gây ra rắc rối là không được phép. 00:00:24.040 --> 00:00:27.296 Và tôi bắt đầu đọc các sách số học để cho vui. NOTE Paragraph 00:00:27.320 --> 00:00:28.856 (Cười) NOTE Paragraph 00:00:28.880 --> 00:00:30.576 Bạn cũng vậy chứ. 00:00:30.600 --> 00:00:34.336 Nó đã đưa tôi đến việc tạo ra thiết bị laser, máy tính và các tên lửa mô hình, 00:00:34.360 --> 00:00:37.360 và đã dẫn dắt tôi tạo ra nhiên liệu tên lửa trong phòng ngủ. 00:00:37.960 --> 00:00:41.616 Theo thuật ngữ khoa học mà nói, 00:00:41.640 --> 00:00:44.896 chúng ta gọi nó là một ý tưởng sai lầm. NOTE Paragraph 00:00:44.920 --> 00:00:46.136 (Cười) NOTE Paragraph 00:00:46.160 --> 00:00:48.336 Vào cùng khoảng thời gian đó, 00:00:48.360 --> 00:00:51.576 Ra mắt bộ phim của Stanley Kubrick "2001: A Space Odyssey", 00:00:51.600 --> 00:00:53.800 và cuộc đời tôi đã thay đổi từ đó. 00:00:54.280 --> 00:00:56.336 Tôi yêu mọi thứ của bộ phim đó, 00:00:56.360 --> 00:00:58.816 đặc biệt là nhân vật HAL 9000. 00:00:58.920 --> 00:01:00.976 HAL là một máy tính có tri giác 00:01:01.000 --> 00:01:03.456 được thiết kế để hướng dẫn phi thuyền Discovery 00:01:03.480 --> 00:01:06.010 từ Trái Đất tới sao Mộc. 00:01:06.010 --> 00:01:08.116 HAL cũng là một nhân vật có khiếm khuyết, 00:01:08.120 --> 00:01:12.400 vì cuối cùng anh ấy đã lựa chọn đề cao nhiệm vụ hơn sự sống con người. 00:01:12.840 --> 00:01:14.936 HAL là một nhân vật viễn tưởng 00:01:14.960 --> 00:01:17.580 nhưng anh ta vẫn nói lên nỗi sợ hãi của chúng ta 00:01:17.580 --> 00:01:19.736 nỗi sợ hãi của việc bị thống trị 00:01:19.760 --> 00:01:22.750 bởi trí tuệ nhân tạo vô cảm 00:01:22.750 --> 00:01:24.760 không quan tâm đến loài người chúng ta. NOTE Paragraph 00:01:25.880 --> 00:01:28.456 Tôi tin rằng những nỗi sợ hãi như vậy là vô căn cứ. 00:01:28.480 --> 00:01:31.176 Thật vậy, chúng ta đang ở một thời điểm đáng chú ý 00:01:31.200 --> 00:01:32.736 trong lịch sử loài người, 00:01:32.760 --> 00:01:37.736 nó được thúc đẩy nhờ sự bất mãn với các giới hạn của cơ thể và trí tuệ chúng ta, 00:01:37.760 --> 00:01:39.456 chúng ta đang tạo ra các cỗ máy 00:01:39.480 --> 00:01:43.096 tinh vi, phức tạp, xinh đẹp và duyên dáng 00:01:43.120 --> 00:01:45.160 thứ sẽ mở rộng trải nghiệm của con người 00:01:45.160 --> 00:01:46.880 theo những cách vượt xa tưởng tượng. NOTE Paragraph 00:01:47.720 --> 00:01:50.296 Sau quá trinh công tác từ Học viện không quân 00:01:50.320 --> 00:01:52.256 đến công tác tại Không quân đến nay, 00:01:52.280 --> 00:01:53.976 tôi đã trở thành một kỹ sư hệ thống 00:01:54.000 --> 00:01:56.736 và gần đây tôi được tham gia vào một vấn đề kỹ thuật 00:01:56.760 --> 00:01:59.336 hỗ trợ cho nhiệm vụ đến sao Hỏa của NASA. 00:01:59.360 --> 00:02:01.840 Trong các chuyến bay đến Mặt trăng, 00:02:01.840 --> 00:02:04.990 chúng ta có thể dựa trên hệ thống điều khiển nhiệm vụ ở Houston 00:02:04.990 --> 00:02:07.016 để quan sát mọi khía cạnh của chuyến bay. 00:02:07.040 --> 00:02:10.576 Tuy nhiên, sao Hỏa thì xa hơn đến 200 lần 00:02:10.580 --> 00:02:13.816 và như vậy trung bình phải cần 13 phút 00:02:13.840 --> 00:02:16.976 để một tín hiệu đi từ Trái đất đến sao Hỏa. 00:02:17.000 --> 00:02:20.400 Nếu có trục trặc, sẽ không đủ thời gian. 00:02:20.840 --> 00:02:23.336 Và do vậy một giải pháp kỹ thuật hợp lý 00:02:23.360 --> 00:02:25.936 đặt ra là cần phải đặt thiết bị điều khiển nhiệm vụ 00:02:25.960 --> 00:02:28.950 ngay bên trong phi thuyền Orion 00:02:28.950 --> 00:02:31.896 Một ý tưởng hấp dẫn khác trong hồ sơ nhiệm vụ 00:02:31.900 --> 00:02:34.816 là đưa các robot giống người lên bề mặt sao Hỏa 00:02:34.840 --> 00:02:36.696 trước khi con người đặt chân đến, 00:02:36.720 --> 00:02:38.376 đầu tiên để xây dựng cơ sở hạ tầng 00:02:38.400 --> 00:02:41.760 và sau đó để phục vụ các thành viên cộng tác của đội ngũ khoa học. NOTE Paragraph 00:02:43.400 --> 00:02:46.130 Khi tôi xem xét nó dưới góc độ kỹ thuật, 00:02:46.130 --> 00:02:49.336 thì thấy rõ ràng cái mà chúng ta cần tạo ra 00:02:49.360 --> 00:02:51.536 là một trí tuệ nhân tạo hiểu biết xã hội 00:02:51.560 --> 00:02:53.936 thông minh, dễ cộng tác. 00:02:53.960 --> 00:02:58.250 Nói cách khác, tôi cần tạo ra một thứ rất giống với một HAL 00:02:58.250 --> 00:03:00.726 nhưng không có khuynh hướng giết người. NOTE Paragraph 00:03:00.726 --> 00:03:02.080 (Cười) NOTE Paragraph 00:03:02.920 --> 00:03:04.736 Chúng ta hãy dừng lại trong giây lát. 00:03:04.760 --> 00:03:08.656 Thực sự chúng ta có thể tạo ra một trí tuệ nhân tạo như vậy không? 00:03:08.680 --> 00:03:10.136 Thực ra là có thể. 00:03:10.160 --> 00:03:11.416 Theo nhiều cách, 00:03:11.440 --> 00:03:13.370 đây là một vấn đề khó khăn về kỹ thuật 00:03:13.370 --> 00:03:14.916 có liên quan đến AI, 00:03:14.916 --> 00:03:19.480 chứ không phải một vấn đề lộn xộn về AI cần được giải quyết. 00:03:19.480 --> 00:03:22.140 Để diễn đạt lại theo ý của Alan Turing, 00:03:22.140 --> 00:03:24.640 tôi không hứng thú tạo ra một cỗ máy có tri giác. 00:03:24.640 --> 00:03:26.296 Tôi không tạo ra một HAL. 00:03:26.320 --> 00:03:28.736 Cái tôi làm là tạo ra một bộ não đơn giản 00:03:28.740 --> 00:03:31.880 mà có thể đem đến ảo giác của trí tuệ. NOTE Paragraph 00:03:33.000 --> 00:03:36.110 Nghệ thuật và khoa học điện toán đã đi được một đoạn đường dài 00:03:36.110 --> 00:03:37.656 kể từ khi HAL trên sóng, 00:03:37.660 --> 00:03:40.896 và tôi tưởng tượng nếu cha đẻ của anh ta, Dr. Chandra, ở đây hôm nay, 00:03:40.920 --> 00:03:43.256 ông ấy sẽ có một loạt câu hỏi cho chúng ta. 00:03:43.280 --> 00:03:45.376 Chúng ta có thể 00:03:45.400 --> 00:03:49.416 sử dụng một hệ thống gồm hàng triệu triệu thiết bị, 00:03:49.440 --> 00:03:50.770 để nhập các luồng dữ liệu, 00:03:50.770 --> 00:03:53.216 để dự đoán các thất bại và có hành động trước không? 00:03:53.216 --> 00:03:54.390 Vâng, có thể. 00:03:54.390 --> 00:03:57.640 Ta tạo ra được các hệ thống giao tiếp bằng ngôn ngữ tự nhiên không? 00:03:57.640 --> 00:03:58.410 Được. 00:03:58.410 --> 00:04:01.850 Ta tạo ra được các hệ thống nhận diện vật thể, xác định cảm xúc, 00:04:01.850 --> 00:04:05.180 tự biểu hiện cảm xúc, chơi trò chơi và thậm chí đọc khẩu hình không? 00:04:05.180 --> 00:04:06.290 Được. 00:04:06.290 --> 00:04:08.630 Ta tạo ra được hệ thống tự lập mục tiêu, 00:04:08.630 --> 00:04:12.296 xây dựng kế hoạch lệch với mục tiêu đó và học hỏi từ quá trình trên không? 00:04:12.320 --> 00:04:13.236 Được 00:04:13.430 --> 00:04:16.766 Chúng ta có thể tạo ra các hệ thống có khả năng nhận thức tư duy không? 00:04:16.830 --> 00:04:18.416 Cái này chúng ta đang học. 00:04:18.440 --> 00:04:21.920 Chúng ta có thể tạo ra các hệ thống có nền tảng đạo đức và luân lý không? 00:04:22.480 --> 00:04:24.520 Cái này chúng ta phải học cách làm. 00:04:25.300 --> 00:04:26.726 Vậy chúng ta hãy tạm chấp nhận 00:04:26.736 --> 00:04:29.656 rằng có thể tạo ra một hệ thống trí tuệ nhân tạo như vậy 00:04:29.680 --> 00:04:31.766 cho kiểu nhiệm vụ này và cả các loại khác. NOTE Paragraph 00:04:31.790 --> 00:04:34.376 Câu hỏi tiếp theo mà bạn phải tự hỏi là, 00:04:34.400 --> 00:04:35.856 chúng ta có nên sợ nó? 00:04:35.860 --> 00:04:37.850 Thực chất, mọi công nghệ mới 00:04:37.850 --> 00:04:40.720 đều đem đến sự lo lắng ở mức độ nào đó. 00:04:40.720 --> 00:04:42.490 Khi chúng ta thấy xe hơi lần đầu, 00:04:42.490 --> 00:04:46.536 người ta đã than phiền rằng nó sẽ hủy hoại gia đình. 00:04:46.560 --> 00:04:49.256 Khi điện thoại lần đầu xuất hiện, 00:04:49.280 --> 00:04:52.170 người ta đã lo lắng nó sẽ hủy hoại việc giao lưu trò chuyện. 00:04:52.170 --> 00:04:56.136 Đã có lúc khi chữ viết trở nên phổ biến, 00:04:56.160 --> 00:04:58.656 người ta đã nghĩ chúng ta sẽ mất khả năng ghi nhớ. 00:04:58.680 --> 00:05:00.736 Tất cả lo sợ đó đều đúng ở mức độ nào đó, 00:05:00.740 --> 00:05:03.176 nhưng những công nghệ này cũng 00:05:03.200 --> 00:05:06.576 mang đến chúng ta những thứ đã mở rộng trải nghiệm của con người 00:05:06.600 --> 00:05:08.480 một cách sâu sắc. NOTE Paragraph 00:05:09.840 --> 00:05:12.120 Chúng ta hãy nói thêm về nó một chút. 00:05:13.080 --> 00:05:17.550 Tôi không sợ việc một AI như vậy được tạo ra, 00:05:17.550 --> 00:05:21.586 bởi vì cuối cùng nó vẫn sẽ là hiện thân một số giá trị của chúng ta. 00:05:21.590 --> 00:05:25.216 Hãy nghĩ thế này: xây dựng một hệ thống có nhận thức về cơ bản là khác với 00:05:25.240 --> 00:05:28.536 xây dựng một hệ thống phần mềm chuyên sâu truyền thống như trước đây. 00:05:28.560 --> 00:05:30.840 Ta không lập trình nó. Ta dạy nó. 00:05:30.860 --> 00:05:33.660 Để dạy một hệ thống nhận biết các bông hoa, 00:05:33.660 --> 00:05:36.720 Tôi cho nó xem hàng nghìn bông hoa thuộc những loại tôi thích. 00:05:36.720 --> 00:05:39.016 Để dạy một hệ thống cách chơi trò chơi-- 00:05:39.040 --> 00:05:41.000 Vâng, tôi sẽ làm thế. Bạn cũng sẽ thôi. 00:05:42.600 --> 00:05:44.640 Tôi thích hoa mà. Nào mọi người. 00:05:45.440 --> 00:05:48.210 Để dạy một hệ thống chơi game như Go chẳng hạn, 00:05:48.210 --> 00:05:50.376 Tôi sẽ cho nó chơi hàng nghìn ván Go, 00:05:50.400 --> 00:05:52.056 trong quá trình đó tôi cũng dạy nó 00:05:52.080 --> 00:05:54.496 cách phân biệt ván chơi hay và ván chơi dở. 00:05:54.520 --> 00:05:58.216 Nếu tôi muốn tạo ra một trợ lý pháp lý thông minh nhân tạo, 00:05:58.240 --> 00:06:00.000 Tôi sẽ dạy nó một số tập sách luật 00:06:00.000 --> 00:06:02.896 nhưng đồng thời tôi sẽ lồng ghép vào đó 00:06:02.920 --> 00:06:05.800 ý thức về lòng thương người và công lý là một phần của luật. 00:06:06.560 --> 00:06:09.490 Theo thuật ngữ khoa học, ta gọi nó là sự thật nền móng, 00:06:09.490 --> 00:06:11.576 và đây là điểm quan trọng: 00:06:11.600 --> 00:06:13.056 khi sản xuất các cỗ máy này, 00:06:13.080 --> 00:06:16.496 chúng ta đang dạy chúng ý thức về các giá trị của chúng ta. 00:06:16.520 --> 00:06:19.656 Do vậy, tôi tin tưởng vào một trí tuệ nhân tạo 00:06:19.680 --> 00:06:23.320 bằng với, nếu không muốn nói hơn cả, một con người được giáo dục tốt. NOTE Paragraph 00:06:24.080 --> 00:06:25.296 Nhưng bạn có thể sẽ hỏi, 00:06:25.320 --> 00:06:27.936 thế còn các tổ chức biến tướng thì sao, 00:06:27.960 --> 00:06:31.290 một tổ chức phi chính phủ lắm tiền nào đấy chẳng hạn? 00:06:31.290 --> 00:06:35.136 Tôi không sợ một trí tuệ nhân tạo trong tay một kẻ đơn độc. 00:06:35.160 --> 00:06:39.696 Rõ ràng, chúng ta không thể bảo vệ mình trước những hành động bạo lực bất ngờ, 00:06:39.720 --> 00:06:41.856 nhưng trong thực tế một hệ thống như vậy 00:06:41.880 --> 00:06:44.976 yêu cầu sự đào tạo cơ bản và đào tạo tinh vi 00:06:45.000 --> 00:06:47.296 vượt xa các nguồn lực của một cá nhân. 00:06:47.320 --> 00:06:48.536 Và hơn nữa, 00:06:48.560 --> 00:06:51.816 nó không giống như việc phát tán virus qua mạng ra khắp thế giới, 00:06:51.840 --> 00:06:54.780 kiểu bạn chỉ ấn một phím, nó đã lan ra một triệu vị trí 00:06:54.780 --> 00:06:57.360 và laptop bắt đầu nổ tanh bành khắp mọi nơi. 00:06:57.360 --> 00:07:00.220 Những chuyện thế này lớn hơn rất nhiều, 00:07:00.220 --> 00:07:02.065 và chắc chắn ta sẽ dự đoán trước được. NOTE Paragraph 00:07:02.520 --> 00:07:05.576 Tôi có sợ rằng một trí tuệ nhân tạo như vậy 00:07:05.600 --> 00:07:07.560 có thể đe dọa toàn nhân loại hay không? 00:07:08.280 --> 00:07:12.656 Nếu bạn nhìn vào các bộ phim như "The Matrix," "Metropolis," 00:07:12.680 --> 00:07:15.856 "The Terminator," các chương trình như "Westworld," 00:07:15.880 --> 00:07:18.016 chúng đều nói về nỗi sợ hãi này. 00:07:18.040 --> 00:07:22.280 Thực vậy, trong cuốn "Siêu trí tuệ" của triết gia Nick Bostrom, 00:07:22.280 --> 00:07:23.956 ông đề cập đến chủ đề này 00:07:23.956 --> 00:07:27.920 và nhận ra rằng một siêu trí tuệ có thể không chỉ nguy hiểm, 00:07:27.920 --> 00:07:31.760 mà còn có thể đại diện cho một mối đe dọa sống còn với toàn nhân loại. 00:07:31.760 --> 00:07:34.436 Lý lẽ chủ yếu của Dr. Bostrom 00:07:34.436 --> 00:07:36.816 là các hệ thống như vậy cuối cùng sẽ 00:07:36.840 --> 00:07:39.990 có một cơn khát thông tin vô độ; 00:07:39.990 --> 00:07:43.016 là chúng có lẽ sẽ học cách để học 00:07:43.040 --> 00:07:45.656 và cuối cùng khám phá ra rằng chúng có các mục tiêu 00:07:45.680 --> 00:07:47.976 trái ngược với nhu cầu con người. 00:07:48.000 --> 00:07:49.856 Có một số người ủng hộ Dr. Bostrom. 00:07:49.880 --> 00:07:54.200 Ông ấy được ủng hộ bởi những người như Elon Musk và Stephen Hawking. 00:07:54.880 --> 00:07:57.280 Dù rất kính trọng 00:07:58.160 --> 00:08:00.176 những bộ óc lỗi lạc này, 00:08:00.200 --> 00:08:02.456 tôi tin rằng họ về căn bản đều sai. 00:08:02.480 --> 00:08:05.656 Có rất nhiều lý lẽ của Dr. Bostrom cần được mổ xẻ 00:08:05.680 --> 00:08:07.816 và tôi không có thời gian để mổ xẻ tất cả, 00:08:07.840 --> 00:08:10.536 nhưng rất ngắn gọn, hãy nghĩ thế này: 00:08:10.560 --> 00:08:14.296 biết nhiều khác với làm nhiều. 00:08:14.320 --> 00:08:16.216 HAL là một mối đe dọa với tàu Discovery 00:08:16.240 --> 00:08:20.656 chỉ trong điều kiện HAL được chỉ huy toàn bộ tàu Discovery. 00:08:20.680 --> 00:08:23.176 Nghĩa là chúng ta xét về một siêu trí tuệ. 00:08:23.200 --> 00:08:25.696 Nó sẽ phải có quyền chi phối toàn thế giới chúng ta. 00:08:25.720 --> 00:08:28.536 Đây là trường hợp của Skynet trong phim "The Terminator" 00:08:28.560 --> 00:08:30.360 trong đó chúng ta có một siêu trí tuệ 00:08:30.360 --> 00:08:31.846 có thể chỉ huy ý chí con người, 00:08:31.846 --> 00:08:35.696 điều khiển mọi thiết bị ở mọi ngõ ngách của thể giới. 00:08:35.720 --> 00:08:37.176 Thực tế mà nói, 00:08:37.200 --> 00:08:39.296 điều đó sẽ không xảy ra. 00:08:39.320 --> 00:08:42.340 Chúng ta sẽ không tạo ra các AI kiểm soát được thời tiết, 00:08:42.340 --> 00:08:43.786 điều khiển được thủy triều, 00:08:43.786 --> 00:08:47.136 hay chỉ huy được loài người lộn xộn thất thường chúng ta. 00:08:47.160 --> 00:08:51.056 Và hơn nữa, nếu một trí tuệ nhân tạo như vậy tồn tại, 00:08:51.080 --> 00:08:54.016 nó sẽ phải cạnh tranh với nền kinh tế nhân loại, 00:08:54.040 --> 00:08:56.560 và từ đó cạnh tranh với chúng ta giành các nguồn lực. 00:08:57.200 --> 00:08:58.416 Và cuối cùng thì -- 00:08:58.440 --> 00:08:59.680 đừng nói với Siri nhé -- 00:09:00.440 --> 00:09:01.816 ta luôn có thể rút dây điện. NOTE Paragraph 00:09:01.840 --> 00:09:03.960 (Cười) NOTE Paragraph 00:09:05.360 --> 00:09:07.816 Chúng ta đang ở trên một hành trình khó tin 00:09:07.840 --> 00:09:10.336 cùng tiến hóa với các cỗ máy của mình. 00:09:10.360 --> 00:09:12.856 Loài người chúng ta hôm nay 00:09:12.880 --> 00:09:15.416 sẽ không phải là loài người chúng ta sau này. 00:09:15.440 --> 00:09:18.576 Lo lắng lúc này về sự phát triển của một siêu trí tuệ 00:09:18.600 --> 00:09:21.656 theo nhiều cách là một sự phân tâm nguy hiểm 00:09:21.680 --> 00:09:24.016 bởi vì sự phát triển của điện toán tự nó 00:09:24.040 --> 00:09:27.056 cũng đã đem đến nhiều vấn đề về con người và xã hội 00:09:27.060 --> 00:09:28.740 mà chúng ta giờ đây phải chú ý tới. 00:09:29.360 --> 00:09:32.176 Chúng ta sẽ tổ chức xã hội một cách tốt nhất như thế nào 00:09:32.200 --> 00:09:34.536 khi nhu cầu về sức lao động con người giảm đi? 00:09:34.560 --> 00:09:38.376 Làm thế nào tôi có thể đem sự hiểu biết và giáo dục đi khắp thế giới 00:09:38.400 --> 00:09:40.176 và vẫn tôn trọng sự khác biệt? 00:09:40.200 --> 00:09:44.456 Làm sao tôi có thể mở rộng và nâng cao đời sống qua chăm sóc sức khỏe có nhận thức? 00:09:44.480 --> 00:09:47.336 Tôi có thể sử dụng điện toán như thế nào 00:09:47.360 --> 00:09:49.120 để giúp đưa người lên các vì sao? NOTE Paragraph 00:09:49.760 --> 00:09:51.800 Và đó là điều thú vị. 00:09:52.400 --> 00:09:54.736 Các cơ hội sử dụng điện toán 00:09:54.760 --> 00:09:56.296 để nâng cao trải nghiệm 00:09:56.320 --> 00:09:57.736 đang trong tầm tay chúng ta, 00:09:57.760 --> 00:09:59.616 ở đây và bây giờ, 00:09:59.640 --> 00:10:01.320 và chúng ta chỉ vừa bắt đầu. NOTE Paragraph 00:10:02.280 --> 00:10:03.496 Xin cám ơn rất nhiều. NOTE Paragraph 00:10:03.520 --> 00:10:07.806 (Vỗ tay)