0:00:00.760,0:00:04.600 Khi còn là đứa trẻ,[br]tôi là con mọt sách chính hiệu. 0:00:05.320,0:00:07.496 Tôi nghĩ ở đây cũng có các bạn như vậy. 0:00:07.520,0:00:08.736 (Cười) 0:00:08.760,0:00:11.976 Và bạn, bạn cười to nhất đó,[br]chắc đúng bạn rồi. 0:00:12.000,0:00:14.256 (Cười) 0:00:14.280,0:00:17.776 Tôi lớn lên ở một thị trấn nhỏ[br]trong vùng đồng bằng bụi bặm bắc Texas, 0:00:17.800,0:00:21.136 ba tôi là cảnh sát trưởng[br]và ông nội tôi là một mục sư. 0:00:21.160,0:00:23.220 Gây ra rắc rối là không được phép. 0:00:24.040,0:00:27.296 Và tôi bắt đầu đọc các sách số học[br]để cho vui. 0:00:27.320,0:00:28.856 (Cười) 0:00:28.880,0:00:30.576 Bạn cũng vậy chứ. 0:00:30.600,0:00:34.336 Nó đã đưa tôi đến việc tạo ra thiết bị[br]laser, máy tính và các tên lửa mô hình, 0:00:34.360,0:00:37.360 và đã dẫn dắt tôi tạo ra [br]nhiên liệu tên lửa trong phòng ngủ. 0:00:37.960,0:00:41.616 Theo thuật ngữ khoa học mà nói, 0:00:41.640,0:00:44.896 chúng ta gọi nó là một ý tưởng sai lầm. 0:00:44.920,0:00:46.136 (Cười) 0:00:46.160,0:00:48.336 Vào cùng khoảng thời gian đó, 0:00:48.360,0:00:51.576 Ra mắt bộ phim của Stanley Kubrick [br]"2001: A Space Odyssey", 0:00:51.600,0:00:53.800 và cuộc đời tôi đã thay đổi từ đó. 0:00:54.280,0:00:56.336 Tôi yêu mọi thứ của bộ phim đó, 0:00:56.360,0:00:58.816 đặc biệt là nhân vật HAL 9000. 0:00:58.920,0:01:00.976 HAL là một máy tính có tri giác 0:01:01.000,0:01:03.456 được thiết kế để hướng dẫn [br]phi thuyền Discovery 0:01:03.480,0:01:06.010 từ Trái Đất tới sao Mộc. 0:01:06.010,0:01:08.116 HAL cũng là một nhân vật có khiếm khuyết, 0:01:08.120,0:01:12.400 vì cuối cùng anh ấy đã lựa chọn đề cao[br]nhiệm vụ hơn sự sống con người. 0:01:12.840,0:01:14.936 HAL là một nhân vật viễn tưởng 0:01:14.960,0:01:17.580 nhưng anh ta vẫn nói lên[br]nỗi sợ hãi của chúng ta 0:01:17.580,0:01:19.736 nỗi sợ hãi của việc bị thống trị 0:01:19.760,0:01:22.750 bởi trí tuệ nhân tạo vô cảm 0:01:22.750,0:01:24.760 không quan tâm đến loài người chúng ta. 0:01:25.880,0:01:28.456 Tôi tin rằng những nỗi sợ hãi như vậy[br]là vô căn cứ. 0:01:28.480,0:01:31.176 Thật vậy, chúng ta đang ở [br]một thời điểm đáng chú ý 0:01:31.200,0:01:32.736 trong lịch sử loài người, 0:01:32.760,0:01:37.736 nó được thúc đẩy nhờ sự bất mãn với các[br]giới hạn của cơ thể và trí tuệ chúng ta, 0:01:37.760,0:01:39.456 chúng ta đang tạo ra các cỗ máy 0:01:39.480,0:01:43.096 tinh vi, phức tạp, xinh đẹp và duyên dáng 0:01:43.120,0:01:45.160 thứ sẽ mở rộng trải nghiệm [br]của con người 0:01:45.160,0:01:46.880 theo những cách vượt xa tưởng tượng. 0:01:47.720,0:01:50.296 Sau quá trinh công tác từ [br]Học viện không quân 0:01:50.320,0:01:52.256 đến công tác tại Không quân đến nay, 0:01:52.280,0:01:53.976 tôi đã trở thành một kỹ sư hệ thống 0:01:54.000,0:01:56.736 và gần đây tôi được tham gia vào[br]một vấn đề kỹ thuật 0:01:56.760,0:01:59.336 hỗ trợ cho nhiệm vụ đến sao Hỏa của NASA. 0:01:59.360,0:02:01.840 Trong các chuyến bay[br]đến Mặt trăng, 0:02:01.840,0:02:04.990 chúng ta có thể dựa trên hệ thống[br]điều khiển nhiệm vụ ở Houston 0:02:04.990,0:02:07.016 để quan sát mọi khía cạnh của chuyến bay. 0:02:07.040,0:02:10.576 Tuy nhiên, sao Hỏa thì xa hơn đến 200 lần 0:02:10.580,0:02:13.816 và như vậy trung bình phải cần 13 phút 0:02:13.840,0:02:16.976 để một tín hiệu đi [br]từ Trái đất đến sao Hỏa. 0:02:17.000,0:02:20.400 Nếu có trục trặc, sẽ không đủ thời gian. 0:02:20.840,0:02:23.336 Và do vậy một giải pháp kỹ thuật hợp lý 0:02:23.360,0:02:25.936 đặt ra là cần phải đặt[br]thiết bị điều khiển nhiệm vụ 0:02:25.960,0:02:28.950 ngay bên trong phi thuyền Orion 0:02:28.950,0:02:31.896 Một ý tưởng hấp dẫn khác [br]trong hồ sơ nhiệm vụ 0:02:31.900,0:02:34.816 là đưa các robot giống người[br]lên bề mặt sao Hỏa 0:02:34.840,0:02:36.696 trước khi con người đặt chân đến, 0:02:36.720,0:02:38.376 đầu tiên để xây dựng cơ sở hạ tầng 0:02:38.400,0:02:41.760 và sau đó để phục vụ các thành viên [br]cộng tác của đội ngũ khoa học. 0:02:43.400,0:02:46.130 Khi tôi xem xét nó dưới góc độ kỹ thuật, 0:02:46.130,0:02:49.336 thì thấy rõ ràng cái mà chúng ta cần[br]tạo ra 0:02:49.360,0:02:51.536 là một trí tuệ nhân tạo hiểu biết xã hội 0:02:51.560,0:02:53.936 thông minh, dễ cộng tác. 0:02:53.960,0:02:58.250 Nói cách khác, tôi cần tạo ra một thứ[br]rất giống với một HAL 0:02:58.250,0:03:00.726 nhưng không có khuynh hướng giết người. 0:03:00.726,0:03:02.080 (Cười) 0:03:02.920,0:03:04.736 Chúng ta hãy dừng lại trong giây lát. 0:03:04.760,0:03:08.656 Thực sự chúng ta có thể tạo ra [br]một trí tuệ nhân tạo như vậy không? 0:03:08.680,0:03:10.136 Thực ra là có thể. 0:03:10.160,0:03:11.416 Theo nhiều cách, 0:03:11.440,0:03:13.370 đây là một vấn đề khó khăn về kỹ thuật 0:03:13.370,0:03:14.916 có liên quan đến AI, 0:03:14.916,0:03:19.480 chứ không phải một vấn đề lộn xộn về AI[br]cần được giải quyết. 0:03:19.480,0:03:22.140 Để diễn đạt lại theo ý của Alan Turing, 0:03:22.140,0:03:24.640 tôi không hứng thú tạo ra[br]một cỗ máy có tri giác. 0:03:24.640,0:03:26.296 Tôi không tạo ra một HAL. 0:03:26.320,0:03:28.736 Cái tôi làm là tạo ra một bộ não đơn giản 0:03:28.740,0:03:31.880 mà có thể đem đến ảo giác của trí tuệ. 0:03:33.000,0:03:36.110 Nghệ thuật và khoa học điện toán đã[br]đi được một đoạn đường dài 0:03:36.110,0:03:37.656 kể từ khi HAL trên sóng, 0:03:37.660,0:03:40.896 và tôi tưởng tượng nếu cha đẻ của[br]anh ta, Dr. Chandra, ở đây hôm nay, 0:03:40.920,0:03:43.256 ông ấy sẽ có một loạt câu hỏi [br]cho chúng ta. 0:03:43.280,0:03:45.376 Chúng ta có thể 0:03:45.400,0:03:49.416 sử dụng một hệ thống gồm hàng triệu[br]triệu thiết bị, 0:03:49.440,0:03:50.770 để nhập các luồng dữ liệu, 0:03:50.770,0:03:53.216 để dự đoán các thất bại và[br]có hành động trước không? 0:03:53.216,0:03:54.390 Vâng, có thể. 0:03:54.390,0:03:57.640 Ta tạo ra được các hệ thống[br]giao tiếp bằng ngôn ngữ tự nhiên không? 0:03:57.640,0:03:58.410 Được. 0:03:58.410,0:04:01.850 Ta tạo ra được các hệ thống[br]nhận diện vật thể, xác định cảm xúc, 0:04:01.850,0:04:05.180 tự biểu hiện cảm xúc, chơi trò chơi[br]và thậm chí đọc khẩu hình không? 0:04:05.180,0:04:06.290 Được. 0:04:06.290,0:04:08.630 Ta tạo ra được hệ thống[br]tự lập mục tiêu, 0:04:08.630,0:04:12.296 xây dựng kế hoạch lệch với mục tiêu đó[br]và học hỏi từ quá trình trên không? 0:04:12.320,0:04:13.236 Được 0:04:13.430,0:04:16.766 Chúng ta có thể tạo ra các hệ thống[br]có khả năng nhận thức tư duy không? 0:04:16.830,0:04:18.416 Cái này chúng ta đang học. 0:04:18.440,0:04:21.920 Chúng ta có thể tạo ra các hệ thống[br]có nền tảng đạo đức và luân lý không? 0:04:22.480,0:04:24.520 Cái này chúng ta phải học cách làm. 0:04:25.300,0:04:26.726 Vậy chúng ta hãy tạm chấp nhận 0:04:26.736,0:04:29.656 rằng có thể tạo ra một hệ thống[br]trí tuệ nhân tạo như vậy 0:04:29.680,0:04:31.766 cho kiểu nhiệm vụ này và cả các loại khác. 0:04:31.790,0:04:34.376 Câu hỏi tiếp theo mà bạn phải tự hỏi là, 0:04:34.400,0:04:35.856 chúng ta có nên sợ nó? 0:04:35.860,0:04:37.850 Thực chất, mọi công nghệ mới 0:04:37.850,0:04:40.720 đều đem đến sự lo lắng ở mức độ nào đó. 0:04:40.720,0:04:42.490 Khi chúng ta thấy xe hơi lần đầu, 0:04:42.490,0:04:46.536 người ta đã than phiền rằng nó sẽ [br]hủy hoại gia đình. 0:04:46.560,0:04:49.256 Khi điện thoại lần đầu xuất hiện, 0:04:49.280,0:04:52.170 người ta đã lo lắng nó sẽ hủy hoại[br]việc giao lưu trò chuyện. 0:04:52.170,0:04:56.136 Đã có lúc khi chữ viết trở nên phổ biến, 0:04:56.160,0:04:58.656 người ta đã nghĩ[br]chúng ta sẽ mất khả năng ghi nhớ. 0:04:58.680,0:05:00.736 Tất cả lo sợ đó đều đúng ở mức độ nào đó, 0:05:00.740,0:05:03.176 nhưng những công nghệ này cũng 0:05:03.200,0:05:06.576 mang đến chúng ta những thứ[br]đã mở rộng trải nghiệm của con người 0:05:06.600,0:05:08.480 một cách sâu sắc. 0:05:09.840,0:05:12.120 Chúng ta hãy nói thêm về nó một chút. 0:05:13.080,0:05:17.550 Tôi không sợ việc một AI như vậy[br]được tạo ra, 0:05:17.550,0:05:21.586 bởi vì cuối cùng nó vẫn sẽ là hiện thân[br]một số giá trị của chúng ta. 0:05:21.590,0:05:25.216 Hãy nghĩ thế này: xây dựng một hệ thống[br]có nhận thức về cơ bản là khác với 0:05:25.240,0:05:28.536 xây dựng một hệ thống phần mềm chuyên sâu[br]truyền thống như trước đây. 0:05:28.560,0:05:30.840 Ta không lập trình nó. Ta dạy nó. 0:05:30.860,0:05:33.660 Để dạy một hệ thống nhận biết[br]các bông hoa, 0:05:33.660,0:05:36.720 Tôi cho nó xem hàng nghìn bông hoa[br]thuộc những loại tôi thích. 0:05:36.720,0:05:39.016 Để dạy một hệ thống cách chơi trò chơi-- 0:05:39.040,0:05:41.000 Vâng, tôi sẽ làm thế. Bạn cũng sẽ thôi. 0:05:42.600,0:05:44.640 Tôi thích hoa mà. Nào mọi người. 0:05:45.440,0:05:48.210 Để dạy một hệ thống chơi game[br]như Go chẳng hạn, 0:05:48.210,0:05:50.376 Tôi sẽ cho nó chơi hàng nghìn ván Go, 0:05:50.400,0:05:52.056 trong quá trình đó tôi cũng dạy nó 0:05:52.080,0:05:54.496 cách phân biệt[br]ván chơi hay và ván chơi dở. 0:05:54.520,0:05:58.216 Nếu tôi muốn tạo ra một trợ lý pháp lý[br]thông minh nhân tạo, 0:05:58.240,0:06:00.000 Tôi sẽ dạy nó một số tập sách luật 0:06:00.000,0:06:02.896 nhưng đồng thời tôi sẽ lồng ghép vào đó 0:06:02.920,0:06:05.800 ý thức về lòng thương người và công lý[br]là một phần của luật. 0:06:06.560,0:06:09.490 Theo thuật ngữ khoa học,[br]ta gọi nó là sự thật nền móng, 0:06:09.490,0:06:11.576 và đây là điểm quan trọng: 0:06:11.600,0:06:13.056 khi sản xuất các cỗ máy này, 0:06:13.080,0:06:16.496 chúng ta đang dạy chúng ý thức[br]về các giá trị của chúng ta. 0:06:16.520,0:06:19.656 Do vậy, tôi tin tưởng vào[br]một trí tuệ nhân tạo 0:06:19.680,0:06:23.320 bằng với, nếu không muốn nói hơn cả,[br]một con người được giáo dục tốt. 0:06:24.080,0:06:25.296 Nhưng bạn có thể sẽ hỏi, 0:06:25.320,0:06:27.936 thế còn các tổ chức biến tướng thì sao, 0:06:27.960,0:06:31.290 một tổ chức phi chính phủ[br]lắm tiền nào đấy chẳng hạn? 0:06:31.290,0:06:35.136 Tôi không sợ một trí tuệ nhân tạo[br]trong tay một kẻ đơn độc. 0:06:35.160,0:06:39.696 Rõ ràng, chúng ta không thể bảo vệ mình[br]trước những hành động bạo lực bất ngờ, 0:06:39.720,0:06:41.856 nhưng trong thực tế một hệ thống như vậy 0:06:41.880,0:06:44.976 yêu cầu sự đào tạo cơ bản[br]và đào tạo tinh vi 0:06:45.000,0:06:47.296 vượt xa các nguồn lực của một cá nhân. 0:06:47.320,0:06:48.536 Và hơn nữa, 0:06:48.560,0:06:51.816 nó không giống như việc phát tán[br]virus qua mạng ra khắp thế giới, 0:06:51.840,0:06:54.780 kiểu bạn chỉ ấn một phím,[br]nó đã lan ra một triệu vị trí 0:06:54.780,0:06:57.360 và laptop bắt đầu nổ tanh bành[br]khắp mọi nơi. 0:06:57.360,0:07:00.220 Những chuyện thế này lớn hơn rất nhiều, 0:07:00.220,0:07:02.065 và chắc chắn ta[br]sẽ dự đoán trước được. 0:07:02.520,0:07:05.576 Tôi có sợ rằng[br]một trí tuệ nhân tạo như vậy 0:07:05.600,0:07:07.560 có thể đe dọa toàn nhân loại hay không? 0:07:08.280,0:07:12.656 Nếu bạn nhìn vào các bộ phim[br]như "The Matrix," "Metropolis," 0:07:12.680,0:07:15.856 "The Terminator,"[br]các chương trình như "Westworld," 0:07:15.880,0:07:18.016 chúng đều nói về nỗi sợ hãi này. 0:07:18.040,0:07:22.280 Thực vậy, trong cuốn "Siêu trí tuệ"[br]của triết gia Nick Bostrom, 0:07:22.280,0:07:23.956 ông đề cập đến chủ đề này 0:07:23.956,0:07:27.920 và nhận ra rằng một siêu trí tuệ[br]có thể không chỉ nguy hiểm, 0:07:27.920,0:07:31.760 mà còn có thể đại diện cho một[br]mối đe dọa sống còn với toàn nhân loại. 0:07:31.760,0:07:34.436 Lý lẽ chủ yếu của Dr. Bostrom 0:07:34.436,0:07:36.816 là các hệ thống như vậy cuối cùng sẽ 0:07:36.840,0:07:39.990 có một cơn khát thông tin vô độ; 0:07:39.990,0:07:43.016 là chúng có lẽ sẽ học cách để học 0:07:43.040,0:07:45.656 và cuối cùng khám phá ra rằng[br]chúng có các mục tiêu 0:07:45.680,0:07:47.976 trái ngược với nhu cầu con người. 0:07:48.000,0:07:49.856 Có một số người ủng hộ Dr. Bostrom. 0:07:49.880,0:07:54.200 Ông ấy được ủng hộ bởi những người như[br]Elon Musk và Stephen Hawking. 0:07:54.880,0:07:57.280 Dù rất kính trọng 0:07:58.160,0:08:00.176 những bộ óc lỗi lạc này, 0:08:00.200,0:08:02.456 tôi tin rằng họ về căn bản đều sai. 0:08:02.480,0:08:05.656 Có rất nhiều lý lẽ của[br]Dr. Bostrom cần được mổ xẻ 0:08:05.680,0:08:07.816 và tôi không có thời gian để mổ xẻ tất cả, 0:08:07.840,0:08:10.536 nhưng rất ngắn gọn, hãy nghĩ thế này: 0:08:10.560,0:08:14.296 biết nhiều khác với làm nhiều. 0:08:14.320,0:08:16.216 HAL là một mối đe dọa với tàu Discovery 0:08:16.240,0:08:20.656 chỉ trong điều kiện HAL được chỉ huy[br]toàn bộ tàu Discovery. 0:08:20.680,0:08:23.176 Nghĩa là chúng ta xét về một siêu trí tuệ. 0:08:23.200,0:08:25.696 Nó sẽ phải có quyền chi phối[br]toàn thế giới chúng ta. 0:08:25.720,0:08:28.536 Đây là trường hợp của Skynet[br]trong phim "The Terminator" 0:08:28.560,0:08:30.360 trong đó chúng ta có một siêu trí tuệ 0:08:30.360,0:08:31.846 có thể chỉ huy ý chí con người, 0:08:31.846,0:08:35.696 điều khiển mọi thiết bị[br]ở mọi ngõ ngách của thể giới. 0:08:35.720,0:08:37.176 Thực tế mà nói, 0:08:37.200,0:08:39.296 điều đó sẽ không xảy ra. 0:08:39.320,0:08:42.340 Chúng ta sẽ không tạo ra các AI[br]kiểm soát được thời tiết, 0:08:42.340,0:08:43.786 điều khiển được thủy triều, 0:08:43.786,0:08:47.136 hay chỉ huy được loài người[br]lộn xộn thất thường chúng ta. 0:08:47.160,0:08:51.056 Và hơn nữa,[br]nếu một trí tuệ nhân tạo như vậy tồn tại, 0:08:51.080,0:08:54.016 nó sẽ phải cạnh tranh[br]với nền kinh tế nhân loại, 0:08:54.040,0:08:56.560 và từ đó cạnh tranh với chúng ta[br]giành các nguồn lực. 0:08:57.200,0:08:58.416 Và cuối cùng thì -- 0:08:58.440,0:08:59.680 đừng nói với Siri nhé -- 0:09:00.440,0:09:01.816 ta luôn có thể rút dây điện. 0:09:01.840,0:09:03.960 (Cười) 0:09:05.360,0:09:07.816 Chúng ta đang ở trên[br]một hành trình khó tin 0:09:07.840,0:09:10.336 cùng tiến hóa với các cỗ máy của mình. 0:09:10.360,0:09:12.856 Loài người chúng ta hôm nay 0:09:12.880,0:09:15.416 sẽ không phải là[br]loài người chúng ta sau này. 0:09:15.440,0:09:18.576 Lo lắng lúc này về sự phát triển[br]của một siêu trí tuệ 0:09:18.600,0:09:21.656 theo nhiều cách[br]là một sự phân tâm nguy hiểm 0:09:21.680,0:09:24.016 bởi vì sự phát triển của điện toán tự nó 0:09:24.040,0:09:27.056 cũng đã đem đến nhiều vấn đề[br]về con người và xã hội 0:09:27.060,0:09:28.740 mà chúng ta giờ đây phải chú ý tới. 0:09:29.360,0:09:32.176 Chúng ta sẽ tổ chức xã hội[br]một cách tốt nhất như thế nào 0:09:32.200,0:09:34.536 khi nhu cầu về [br]sức lao động con người giảm đi? 0:09:34.560,0:09:38.376 Làm thế nào tôi có thể đem sự hiểu biết[br]và giáo dục đi khắp thế giới 0:09:38.400,0:09:40.176 và vẫn tôn trọng sự khác biệt? 0:09:40.200,0:09:44.456 Làm sao tôi có thể mở rộng và nâng cao đời[br]sống qua chăm sóc sức khỏe có nhận thức? 0:09:44.480,0:09:47.336 Tôi có thể sử dụng điện toán như thế nào 0:09:47.360,0:09:49.120 để giúp đưa người lên các vì sao? 0:09:49.760,0:09:51.800 Và đó là điều thú vị. 0:09:52.400,0:09:54.736 Các cơ hội sử dụng điện toán 0:09:54.760,0:09:56.296 để nâng cao trải nghiệm 0:09:56.320,0:09:57.736 đang trong tầm tay chúng ta, 0:09:57.760,0:09:59.616 ở đây và bây giờ, 0:09:59.640,0:10:01.320 và chúng ta chỉ vừa bắt đầu. 0:10:02.280,0:10:03.496 Xin cám ơn rất nhiều. 0:10:03.520,0:10:07.806 (Vỗ tay)