0:00:00.570,0:00:04.777 Tôi làm việc với một nhóm các nhà [br]toán học, triết học, khoa học máy tính; 0:00:05.953,0:00:09.986 chúng tôi ngồi lại với nhau, nghĩ về[br]tương lai của trí thông minh nhân tạo, 0:00:09.986,0:00:12.030 cùng vài điều khác nữa. 0:00:12.030,0:00:16.755 Vài người cho rằng những điều này[br]chỉ có trong khoa học viễn tưởng, 0:00:16.755,0:00:19.856 không thực tế, điên khùng. 0:00:19.856,0:00:21.326 Nhưng tôi muốn nói rằng 0:00:21.326,0:00:24.930 Được rồi, hãy nhìn vào tình trạng[br]con người hiện nay. 0:00:25.194,0:00:26.027 (Cười) 0:00:26.622,0:00:27.632 Đây là cách mọi thứ vẫn diễn ra 0:00:29.176,0:00:30.070 Nhưng nếu chúng ta nghĩ về nó, 0:00:31.239,0:00:34.602 chúng ta thực chất chỉ là những vị khách [br]mới đặt chân đến hành tinh này 0:00:34.602,0:00:36.684 loài người. 0:00:36.684,0:00:41.430 Thử nghĩ xem, nếu Trái đất [br]hình thành 1 năm trước 0:00:41.430,0:00:44.978 thì loài người [br]mới xuất hiện được 10 phút. 0:00:44.978,0:00:48.146 Và kỷ nguyên công nghiệp bắt đầu[br]2 giây trước. 0:00:49.276,0:00:54.501 Một cách nhìn nhận khác về điều này[br]là GDP của thế giới trong 10.000 năm qua, 0:00:54.501,0:00:57.530 Thực ra, tôi đã gặp khó khăn khi tìm cách [br]mô tả nó cho bạn dưới dạng biểu đồ 0:00:57.530,0:00:59.304 Trông giống như thế này. 0:00:59.304,0:01:00.667 (Cười) 0:01:00.667,0:01:02.818 Với điều kiện bình thường, [br]trông nó kỳ lạ thật. 0:01:02.818,0:01:04.516 Tôi chắc chắn rằng [br]không ai muốn ngồi trên đó. 0:01:04.516,0:01:07.067 (Cười) 0:01:07.067,0:01:11.841 Hãy tự hỏi, điều gì là nguyên nhân[br]của sự dị thường này? 0:01:11.841,0:01:14.393 Có người sẽ nói rằng đó là do công nghệ. 0:01:14.393,0:01:19.061 Đúng vậy, công nghệ được tích luỹ [br]trong suốt lịch sử loài người, 0:01:19.061,0:01:23.713 và hiện tại, công nghệ đã phát triển [br]với tốc độ cực nhanh. 0:01:23.713,0:01:25.278 đó là nguyên nhân gần nhất, 0:01:25.278,0:01:27.843 là lý do tại sao hiện nay chúng ta [br]lại sản xuất hiệu quả như thế 0:01:28.473,0:01:32.134 Nhưng tôi muốn nhìn kỹ hơn vào quá khứ[br]để tìm nguyên nhân sâu xa. 0:01:33.114,0:01:36.880 Hãy nhìn vào 2 "quý ông"[br]rất rất khác biệt này 0:01:36.880,0:01:38.480 Đây là Kanzi, 0:01:38.480,0:01:43.123 chú tinh tinh hiểu được 200 thẻ từ vựng, [br]quả là một thành tích đáng kinh ngạc. 0:01:43.123,0:01:46.817 Và Ed Witten, người phát động[br]cách mạng siêu dây lần 2. 0:01:46.817,0:01:49.141 Nếu kiểm tra kỹ càng,[br]đây là điều chúng ta tìm thấy; 0:01:49.141,0:01:50.711 Cơ bản là như nhau. 0:01:50.711,0:01:52.524 Của người thì lớn hơn một chút. 0:01:52.524,0:01:55.282 Có thể cũng có vài thủ thuật,[br]trong cách nó được tạo ra. 0:01:55.282,0:01:59.094 Những khác biệt vô hình này có thể[br]không quá phức tạp, tuy nhiên, 0:01:59.094,0:02:03.379 bởi vì chúng ta mới qua[br]250.000 thế hệ 0:02:03.379,0:02:05.111 kể từ vị tổ tiên chung cuối cùng 0:02:05.111,0:02:08.960 Chúng ta biết rằng những cơ chế phức tạp[br]đều mất 1 thời gian dài để tiến hóa 0:02:10.000,0:02:12.499 Vì vây, nhiều thay đổi tương đối nhỏ 0:02:12.499,0:02:15.566 tạo ra sự khác biệt giữa Kanzi và Witten, 0:02:15.566,0:02:20.109 giữa những nhánh cây dễ gãy[br]và tên lửa đạn đạo xuyên lục địa 0:02:20.839,0:02:24.774 Vì thế, điều này sau đó trở nên khá [br]rõ ràng rằng những điều chúng ta từng đạt được 0:02:24.774,0:02:26.152 và tất cả những gì ta quan tâm 0:02:26.152,0:02:31.380 phụ thuộc chủ yếu vào vài thay đổi [br]tương đối nhỏ làm nên trí óc con người 0:02:32.650,0:02:36.312 Và tất nhiên, kết quả tất yếu là[br]bất kỳ những thay đổi xa hơn 0:02:36.312,0:02:39.789 mà có thể thay đổi đáng kể [br]nền tảng suy nghĩ 0:02:39.789,0:02:42.991 có thể mang tới những kết quả[br]tiềm năng rất lớn 0:02:44.321,0:02:47.226 Vài đồng nghiệp của tôi[br]nghĩ rằng chúng ta đang tiếp cận 0:02:47.226,0:02:51.134 rất gần với điều có thể tạo ra [br]thay đổi sâu sắc trong nền tảng ấy 0:02:51.134,0:02:52.134 Và đó là siêu trí tuệ nhân tạo 0:02:54.347,0:02:57.751 Trí thông minh nhân tạo từng được dùng[br]để đưa những chỉ thị vào máy tính (hộp) 0:02:59.092,0:03:02.174 Bạn sẽ có những nhà lập trình 0:03:02.174,0:03:03.886 có thể cần cù tạo ra[br]những vật dụng có hiểu biết 0:03:03.886,0:03:05.972 Ta xây dựng những hệ thống chuyên gia này 0:03:05.972,0:03:08.296 và chúng khá là hữu dụng[br]cho vài mục đích; 0:03:08.296,0:03:10.977 chúng cũng rất dễ vỡ,[br]bạn không thể cạo gỉ cho chúng 0:03:10.977,0:03:14.410 Về cơ bản, đầu vào thế nào[br]thì đầu ra như thế 0:03:14.410,0:03:15.407 Nhưng kể từ đó, 0:03:15.407,0:03:18.874 một sự thay đổi mô hình đã diễn ra[br], trong lĩnh vực trí tuệ nhân tạo. 0:03:18.874,0:03:21.644 Giờ đây, hoạt động này chỉ[br]xoay quanh việc học của máy tính 0:03:22.394,0:03:27.781 Vì vậy thay vì tạo ra những tính năng và [br]mô tả có hiểu biết một cách thủ công, 0:03:28.511,0:03:34.065 chúng ta tạo ra các thuật toán có thể học [br]hỏi, thường là từ các dữ liệu tri giác thô 0:03:34.065,0:03:39.063 Cơ bản là những gì mà [br]trẻ sơ sinh thực hiện. 0:03:39.063,0:03:43.270 Kết quả, ta tạo ra trí thông minh nhân tạo[br]không bị bó buộc trong 1 phạm vi -- 0:03:43.270,0:03:47.901 hệ thống đó cũng có thể học cách dịch[br]bất kỳ cặp ngôn ngữ nào, 0:03:47.901,0:03:53.338 có thể học cách chơi bất kỳ trò chơi [br]máy tính nào trên bảng điều khiển Atari 0:03:53.338,0:03:55.117 Giờ đây, tất nhiên, 0:03:55.117,0:03:59.116 trí thông minh nhân tạo vẫn chưa gần với [br]khả năng học tập và lên kế hoạch 0:03:59.116,0:04:02.335 mạnh mẽ và đa lĩnh vực[br]mà con người có 0:04:02.335,0:04:04.461 Vỏ não vẫn có vài[br]mẹo toán học 0:04:04.461,0:04:06.816 mà chúng ta vẫn chưa biết[br]làm sao để tạo ra bằng máy móc 0:04:07.886,0:04:09.785 Vì thế, câu hỏi đặt ra là 0:04:09.785,0:04:13.285 chúng ta còn bao lâu nữa thì [br]mới có thể bắt kịp những mẹo này? 0:04:14.245,0:04:15.328 Vài năm trước, 0:04:15.328,0:04:18.216 chúng tôi đã có 1cuộc khảo sát[br]vài chuyên gia thế giới về AI 0:04:18.216,0:04:21.440 để xem họ nghĩ gì,[br]và 1 trong những điều chúng tôi hỏi là 0:04:21.440,0:04:24.793 "Bạn nghĩ xem, vào năm nào thì[br]sẽ có khả năng 50% 0:04:24.793,0:04:28.275 chúng ta đạt được trí thông minh [br]nhân tạo ở cấp độ con người?" 0:04:28.785,0:04:32.968 Cấp độ con người mà chúng tôi nói đến [br]ở đây là khả năng thực hiện 0:04:32.968,0:04:35.839 gần như mọi việc, ít nhất là[br]như 1 người lớn, 0:04:35.839,0:04:39.844 tức là, cấp độ con người thực thụ, [br]chứ không chỉ giới hạn trong vài lĩnh vực. 0:04:39.844,0:04:43.494 Và câu trả lời trung bình[br]là năm 2040 hoặc 2050 0:04:43.494,0:04:46.300 tùy thuộc chính xác vào nhóm [br]chuyên gia mà chúng tôi hỏi. 0:04:46.300,0:04:50.339 Việc đó có thể xảy ra, sớm hơn,[br]hoặc muộn hơn rất nhiều, 0:04:50.339,0:04:52.279 sự thật là, chẳng ai chắc chắn cả. 0:04:53.259,0:04:57.671 Điều mà chúng tôi biết chắc là [br]giới hạn cao nhất cho việc xử lý thông tin 0:04:57.671,0:05:02.542 trong 1 nền tảng máy móc nằm rất xa [br]ngoài những giới hạn trong mô sinh học. 0:05:03.241,0:05:05.619 Điều này liên quan tới vật lý. 0:05:05.619,0:05:10.337 Một nơ-ron sinh học dẫn truyền, [br]chẳng hạn, ở 200 Hz, 200 lần/ giây 0:05:10.337,0:05:13.931 Nhưng thậm chí 1 bóng bán dẫn ngày nay[br]vận hành với đơn vị Gigahertz 0:05:13.931,0:05:19.228 Nơ-ron truyền chậm rãi trong [br]sợi trục thần kinh, với vận tốc cao nhất là 100 m/s 0:05:19.228,0:05:22.339 Nhưng trong máy tính, các tín hiệu có thể đi [br]với vận tốc ánh sáng 0:05:23.079,0:05:24.948 Cũng có giới hạn về kích cỡ, 0:05:24.948,0:05:27.975 não người thì phải[br]vừa hộp sọ, 0:05:27.975,0:05:32.736 nhưng máy tính thì có thể to cỡ[br]nhà kho hoặc hơn 0:05:32.736,0:05:38.335 Vì thế, tiềm năng của siêu trí tuệ[br]nằm im lìm trong vật chất, 0:05:38.335,0:05:44.047 giống như quyền năng của nguyên tử[br]nằm im lìm xuyên suốt lịch sử loài người, 0:05:44.047,0:05:48.452 kiên nhẫn đợi chờ cho tới tận năm 1945. 0:05:48.452,0:05:49.700 Ở thế kỷ này, 0:05:49.700,0:05:53.818 các nhà khoa học có thể học cách [br]thức tỉnh năng lực của trí tuệ nhân tạo. 0:05:53.818,0:05:57.826 Và tôi nghĩ từ đó chúng ta có thể thấy[br]một cuộc bùng nổ trí tuệ. 0:05:58.406,0:06:02.363 Giờ đây, hầu hết mọi người, khi nghĩ về [br]trí khôn và sự ngu ngốc, 0:06:02.363,0:06:05.386 Với tôi, điều đó[br]giống như thế này. 0:06:05.386,0:06:07.984 Ở một đầu là làng người ngốc, 0:06:07.984,0:06:10.467 và xa tít phía đối diện, [br]ở đầu bên kia 0:06:10.467,0:06:15.223 chúng ta có Ed Witten, Albert Einstein,[br]hay bất kỳ guru ưa thích nào của bạn. 0:06:15.223,0:06:19.057 Nhưng tôi nghĩ rằng từ quan điểm của [br]trí thông minh nhân tạo, 0:06:19.057,0:06:22.738 viễn cảnh thực sự thực ra[br]trông lại giống như thế này: 0:06:23.258,0:06:26.636 AI bắt đầu tại đây,[br]từ chỗ không có gì, 0:06:26.636,0:06:29.647 và rồi, sau rất, rất nhiều năm[br]nỗ lực vất vả, 0:06:29.647,0:06:33.491 có thể chúng ta rồi sẽ đến với điểm mà[br]trí tuệ nhân tạo ở mức độ loài chuột, 0:06:33.491,0:06:35.921 một thứ có thể vượt qua[br]những môi trường hỗn loạn 0:06:35.921,0:06:37.908 giống như một chú chuột vậy. 0:06:37.908,0:06:42.221 Và rồi, sau rất rất rất nhiều năm[br]lao động vất vả, đầu tư rất nhiều tiền của, 0:06:42.221,0:06:46.860 có thể cuối cùng chúng ta sẽ [br]có được AI ở mức độ tinh tinh. 0:06:46.860,0:06:50.070 Và rồi, lại sau nhiều năm nữa [br]với rất nhiều, rất nhiều nỗ lực, 0:06:50.070,0:06:52.983 chúng ta sẽ tạo ra được trí tuệ [br]nhân tạo như của kẻ ngốc. 0:06:52.983,0:06:56.255 Và một vài tháng sau đó, [br]chúng ta sẽ vượt qua Ed Witten. 0:06:56.255,0:06:59.225 Con tàu này không dừng lại[br]tại trạm Con người. 0:06:59.225,0:07:02.247 Thay vào đó, từ đây[br]nó vẫn tiến về phía trước. 0:07:02.247,0:07:04.231 Điều này có ẩn ý sâu sắc, 0:07:04.231,0:07:08.093 đặc biệt là khi nhắc tới[br]những câu hỏi về quyền lực. 0:07:08.093,0:07:09.992 Ví dụ, loài tinh tinh rất khỏe -- 0:07:09.992,0:07:15.214 về cân nặng, 1 chú tinh tinh [br]khỏe gấp đôi 1 người cân đối. 0:07:15.214,0:07:19.828 Thế nhưng, số phận của Kanzi và những [br]người bạn của nó phụ thuộc nhiều 0:07:19.828,0:07:23.968 vào điều loài người chúng ta làm[br]hơn là điều mà tinh tinh làm. 0:07:25.228,0:07:27.542 Một khi đã có siêu trí tuệ, 0:07:27.542,0:07:31.381 số phận loài người có thể phụ thuộc[br]vào điều mà siêu trí tuệ sẽ làm. 0:07:32.451,0:07:33.508 Hãy nghĩ về điều đó: 0:07:33.508,0:07:38.552 Trí thông minh nhân tạo là [br]phát kiến cuối cùng mà con người cần tạo ra. 0:07:38.552,0:07:41.525 Khi đó, máy móc sẽ sáng tạo[br]giỏi hơn chúng ta, 0:07:41.525,0:07:44.065 và chúng làm điều đó[br]ở thang thời gian số. 0:07:44.065,0:07:48.966 Điều này về cơ bản là[br]một lăng kính về tương lai. 0:07:48.966,0:07:52.524 Nghĩ về tất cả những công nghệ điên rồ[br]mà bạn có thể tưởng tượng ra 0:07:52.524,0:07:55.322 có thể con người sẽ phát triển[br]trong toàn bộ thời gian: 0:07:55.322,0:07:58.580 làm chậm lão hóa, [br]sinh sống trên vũ trụ, 0:07:58.580,0:08:02.311 những nanobot tự sao chép hay[br]upload trí óc chúng ta vào máy tính, 0:08:02.311,0:08:04.470 tất cả những điều có trong [br]tiểu thuyết viễn tưởng 0:08:04.470,0:08:07.207 tuy nhiên lại không nhất quán[br]với các luật vật lý. 0:08:07.207,0:08:11.419 Tất cả những siêu máy tính này có thể [br]phát triển, có lẽ là khá nhanh chóng. 0:08:12.449,0:08:16.007 Giờ, 1 siêu trí tuệ với [br]độ trưởng thành công nghệ như thế 0:08:16.007,0:08:18.186 có thể cực kỳ mạnh mẽ, 0:08:18.186,0:08:22.732 và ít nhất ở vài trường hợp,[br]nó có thể đạt được điều nó muốn. 0:08:22.732,0:08:28.393 Chúng ta rồi sẽ có 1 tương lai có thể[br]được định hình theo ưu tiên của A.I này. 0:08:29.855,0:08:33.604 Giờ, câu hỏi hay đặt ra ở đây là,[br]những ưu tiên đó là gì? 0:08:34.244,0:08:36.013 Ở đây, mọi thứ trở nên rắc rối hơn. 0:08:36.013,0:08:37.448 Để tìm hiểu điều này, 0:08:37.448,0:08:40.724 trước hết, chúng ta phải [br]tránh việc nhân cách hóa. 0:08:41.933,0:08:45.235 Điều đó thật nực cười bởi vì[br]mọi bài viết trên mặt báo 0:08:45.235,0:08:49.090 về tương lai của trí thông minh nhân tạo[br]đều đưa ra tình huống thế này: 0:08:50.280,0:08:54.414 Vì thế, tôi nghĩ điều chúng ta cần làm là[br]tiếp nhận vấn đề 1 cách trừu tượng hơn, 0:08:54.414,0:08:57.204 không rõ ràng và hoành tráng [br]như những cảnh tượng trên Hollywood. 0:08:57.204,0:09:00.821 Chúng ta cần nghĩ về trí thông minh[br]như 1 quá trình tối ưu hóa, 0:09:00.821,0:09:06.470 một quá trình giúp định hướng tương lai[br]vào 1 bộ những cấu hình nhất định. 0:09:06.470,0:09:09.981 Siêu trí tuệ là quá trình[br]tối ưu hóa thực sự mạnh mẽ. 0:09:09.981,0:09:14.098 Nó có tài đặc biệt trong việc dùng những [br]phương tiện sẵn có để đạt được trạng thái 0:09:14.098,0:09:16.007 mà ở đó mục tiêu của nó [br]được thực hiện. 0:09:16.447,0:09:19.119 Có nghĩa là, không cần thiết phải có[br]sự liên hệ giữa 0:09:19.119,0:09:21.853 trở nên cực kỳ thông minh 0:09:21.853,0:09:26.515 và có 1 mục tiêu mà con người[br]có thể thấy là đáng giá hoặc ý nghĩa. 0:09:27.321,0:09:31.115 Giả sử, chúng ta cho trí tuệ nhân tạo [br]mục tiêu là làm cho con người cười. 0:09:31.115,0:09:34.097 Khi AI còn yếu, nó sẽ thực hiện[br]các hành động có ích, hài hước 0:09:34.097,0:09:36.614 khiến chủ nhân của nó mỉm cười. 0:09:36.614,0:09:39.031 Khi AI trở thành siêu trí tuệ, 0:09:39.031,0:09:42.554 nó nhận ra rằng có cách hiệu quả[br]hơn nữa để đạt được mục tiêu này: 0:09:42.554,0:09:44.476 thống trị thế giới 0:09:44.476,0:09:47.638 và cắm điện cực vào[br]các cơ mặt của con người 0:09:47.638,0:09:50.579 để tạo ra những nụ cười [br]rạng rỡ, bất biến. 0:09:50.579,0:09:51.614 Một ví dụ khác, 0:09:51.614,0:09:54.997 giả sử chúng ta cho AI mục đích [br]giải quyết 1 vấn đề toán học khó khăn. 0:09:54.997,0:09:56.934 Khi AI trở thành siêu trí tuệ, 0:09:56.934,0:10:01.105 nó nhận ra rằng cách hiệu quả nhất để[br]giải quyết vấn đề này 0:10:01.105,0:10:04.035 là biến đổi hành tinh này [br]thành 1 máy tính khổng lồ 0:10:04.035,0:10:06.281 để gia tăng khả năng suy nghĩ của nó. 0:10:06.281,0:10:09.045 Và để ý rằng điều này cho AI[br]1 lý do thuộc về phương tiện 0:10:09.045,0:10:11.561 để làm những việc [br]mà chúng ta có thể không đồng ý. 0:10:11.561,0:10:13.496 Trường hợp này, con người [br]là mối đe dọa, 0:10:13.496,0:10:16.417 chúng ta có thể ngăn vấn đề [br]toán học đó được giải quyết. 0:10:17.207,0:10:20.701 Tất nhiên, mọi việc có thể cũng không[br]lầm lạc theo đúng những hướng này; 0:10:20.701,0:10:22.454 chúng là những ví dụ hư cấu. 0:10:22.454,0:10:24.393 Nhưng đại ý ở đây thì quan trọng: 0:10:24.393,0:10:27.266 nếu bạn tạo ra một quá trình tối ưu hóa [br]thực sự quyền lực 0:10:27.266,0:10:29.500 để cực đại hóa cho mục tiêu x, 0:10:29.500,0:10:31.776 bạn nên chắc chắn rằng[br]định nghĩa của bạn về x 0:10:31.776,0:10:34.245 kết hợp chặt chẽ với mọi điều[br]bạn quan tâm tới. 0:10:34.835,0:10:39.219 Đây cũng là bài học rút ra từ[br]thần thoại sau đây. 0:10:39.219,0:10:44.517 Vua Midas ước rằng mọi thứ ông [br]chạm vào đều biến thành vàng. 0:10:44.517,0:10:47.378 Ông chạm vào con gái mình, [br]cô biến thành vàng. 0:10:47.378,0:10:49.931 Ông chạm vào đồ ăn của mình, [br]chúng biến thành vàng. 0:10:49.931,0:10:52.520 Điều này có thể trở nên đặc biệt liên quan, 0:10:52.520,0:10:54.590 không chỉ là 1 ẩn dụ cho lòng tham, 0:10:54.590,0:10:56.485 mà còn minh họa cho điều sẽ xảy ra 0:10:56.485,0:10:59.322 nếu bạn tạo ra 1 quá trình[br]tối ưu hóa mạnh mẽ 0:10:59.322,0:11:04.111 và đưa cho nó những mục tiêu[br]sai nhận thức hoặc không được định rõ. 0:11:04.111,0:11:09.300 Giờ bạn có thể nói, nếu 1 máy tính bắt đầu[br]cắm điện cực vào mặt con người, 0:11:09.300,0:11:11.565 chúng ta đơn giản là tắt chúng đi. 0:11:12.555,0:11:17.895 A, điều này không dễ dàng đến thế nếu [br]chúng ta trở nên phụ thuộc vào máy móc- 0:11:17.895,0:11:20.627 cũng giống như, làm thế nào để [br]tắt nguồn Internet? 0:11:20.627,0:11:25.747 B, tại sao tinh tinh không [br]tắt công tắc chuyển sang loài người, 0:11:25.747,0:11:27.298 hay là người Neanderthals? 0:11:27.298,0:11:29.964 Ắt hẳn phải có lý do nào đó. 0:11:29.964,0:11:32.759 Chúng ta có nút tắt,[br]ví dụ, ở ngay đây. 0:11:32.759,0:11:34.313 (Ho) 0:11:34.313,0:11:37.238 Bởi lẽ chúng ta là[br]một đối thủ thông minh; 0:11:37.238,0:11:39.966 chúng ta có thể đoán trước các[br]nguy cơ và lên kế hoạch. 0:11:39.966,0:11:42.470 Nhưng 1siêu máy tính cũng [br]có thể làm điều tương tự, 0:11:42.470,0:11:45.724 và nó có thể làm việc đó [br]giỏi hơn chúng ta rất nhiều. 0:11:45.724,0:11:52.911 Vấn đề là, ở đây chúng ta không nên [br]tự tin rằng mình đã kiểm soát được nó. 0:11:52.911,0:11:56.358 Và chúng ta có thể cố gắng để [br]công việc của mình dễ dàng hơn bằng cách 0:11:56.358,0:11:57.948 ví dụ, đặt AI vào 1 chiếc hộp, 0:11:57.948,0:11:59.744 giống như 1 môi trường phần mềm an toàn, 0:11:59.744,0:12:02.766 1 kích thích thực tế ảo [br]mà từ đó nó không thể trốn thoát. 0:12:02.766,0:12:06.912 Nhưng liệu chúng ta tự tin được bao nhiêu [br]rằng AI không thể tìm ra lỗi kỹ thuật. 0:12:06.912,0:12:10.081 Cần nhớ rằng, các hacker là con người[br]luôn luôn tìm ra lỗi, 0:12:10.081,0:12:13.117 Tôi cho là vậy, dù có thể không được [br]tự tin lắm. 0:12:14.237,0:12:18.785 Vì vậy, chúng ta ngắt cáp cục bộ[br]để tạo ra 1 lỗ hổng không khí, 0:12:18.785,0:12:21.453 nhưng 1 lần nữa, giống như những hacker 0:12:21.453,0:12:24.834 thường xuyên vi phạm những lỗ hổng [br]không khí sử dụng mánh khóe xã hội. 0:12:24.834,0:12:26.093 Bây giờ, như tôi nói, 0:12:26.093,0:12:28.482 Tôi chắc chắn đâu đó [br]ngoài kia có vài nhân viên 0:12:28.482,0:12:31.828 được bảo là phải giao nộp[br]chi tiết tài khoản của mình 0:12:31.828,0:12:34.574 bởi 1 người tự nhận là [br]ở ban công nghệ thông tin. 0:12:34.574,0:12:36.701 Những tình huống sáng tạo hơn [br]cũng có thể xảy ra, 0:12:36.701,0:12:38.016 chẳng hạn, nếu bạn là AI, 0:12:38.016,0:12:41.548 bạn có thể tưởng tượng điện cực xoáy [br]trôn ốc xung quanh mạch nội bộ 0:12:41.548,0:12:45.010 để tạo ra sóng radio mà bạn [br]có thể dùng để giao tiếp. 0:12:45.010,0:12:47.434 Hoặc, bạn có thể giả vờ gặp sự cố, 0:12:47.434,0:12:50.931 và rồi khi lập trình viên mở bạn ra[br]để xem bạn bị làm sao, 0:12:50.931,0:12:52.867 họ nhìn vào mã nguồn, và Bam! 0:12:52.867,0:12:55.314 quá trình thao túng sẽ diễn ra. 0:12:55.314,0:12:58.744 Hoặc nó có thể cung cấp bản thiết kế[br]tới 1 công nghệ thực sự tiện lợi, 0:12:58.744,0:13:00.142 và khi bạn sử dụng nó, 0:13:00.142,0:13:04.539 xảy ra vài phản ứng phụ bí mật[br]mà AI đã tính toán từ trước. 0:13:04.539,0:13:08.002 Tức là, chúng ta không nên tự tin [br]vào khẳ năng của mình 0:13:08.002,0:13:11.810 để nhốt vị thần gian lận [br]trong chai mãi mãi. 0:13:11.810,0:13:14.064 Chẳng sớm thì muốn, nó cũng thoát ra. 0:13:15.034,0:13:18.137 Tôi tin rằng câu trả lời ở đây[br]là tìm ra 0:13:18.137,0:13:23.161 cách thức tạo 1 AI siêu trí tuệ [br]mà ngay cả khi nó trốn thoát, 0:13:23.161,0:13:26.438 nó vẫn an toàn bởi vì về cơ bản [br]nó vẫn thuộc phe ta 0:13:26.438,0:13:28.337 bởi vì hai bên cùng sẻ những giá trị chung. 0:13:28.337,0:13:31.547 Tôi thấy không còn cách nào khác[br]cho vấn đề khó khăn này. 0:13:32.557,0:13:36.391 Thật ra tôi khá lạc quan rằng[br]vấn đề này có thể được giải quyết. 0:13:36.391,0:13:40.294 Chúng ta sẽ không phải viết ra [br]1 danh sách dài tất cả những gì ta quan tâm, 0:13:40.294,0:13:43.937 hay tệ hơn, nói ra[br]bằng ngôn ngữ máy tính nào đó 0:13:43.937,0:13:45.391 như C++ hoặc Python, 0:13:45.391,0:13:48.158 thế thì còn hơn cả vô vọng. 0:13:48.158,0:13:52.455 Thay vào đó, chúng ta có thể tạo ra 1 AI[br]sử dụng trí thông minh của mình 0:13:52.455,0:13:55.226 để học hỏi những gì ta coi trọng, 0:13:55.226,0:14:00.506 và hệ thống thúc đẩy của nó được xây dựng[br]tức là động lực của nó là 0:14:00.506,0:14:05.738 theo đuổi các giá trị của ta hay làm[br]các điều mà nó dự đoán ta sẽ chấp thuận. 0:14:05.738,0:14:09.152 Từ đó chúng ta có thể tận dụng[br]trí thông minh của nó nhiều nhất có thể 0:14:09.152,0:14:11.897 để giải quyết vấn đề tải giá trị. 0:14:12.727,0:14:14.239 Điều này có thể xảy ra, 0:14:14.239,0:14:17.835 và kết quả có thể[br]sẽ rất tốt cho loài người. 0:14:17.835,0:14:21.792 Nhưng điều đó không [br]tự động xảy ra. 0:14:21.792,0:14:24.790 Các điều kiện ban đầu [br]cho bùng nổ trí tuệ 0:14:24.790,0:14:27.653 có thể cần được thiết lập [br]đúng cách 0:14:27.653,0:14:31.183 nếu chúng ta muốn có[br]1 cuộc bùng nổ được kiểm soát. 0:14:31.183,0:14:33.801 Các giá trị mà AI cần [br]hòa hợp với chúng ta, 0:14:33.801,0:14:35.561 không chỉ trong bối cảnh quen thuộc, 0:14:35.561,0:14:37.999 nơi ta có thể dễ dàng [br]kiểm tra AI cư xử ra sao, 0:14:37.999,0:14:41.233 mà còn trong tất cả những hoàn cảnh mới lạ[br]mà AI có thể gặp phải 0:14:41.233,0:14:42.790 trong tương lai bất định. 0:14:42.790,0:14:47.527 Và cũng có vài vấn đề đặc biệt [br]cần được giải quyết, sắp xếp: 0:14:47.527,0:14:49.616 chi tiết cụ thể về lý thuyết [br]ra quyết định 0:14:49.616,0:14:52.480 làm sao để giải quyết [br]bất định hợp lý, vân vân. 0:14:53.330,0:14:56.432 Vì thế, những vấn đề kỹ thuật cần [br]giải quyết để mọi thứ diễn ra suôn sẻ 0:14:56.432,0:14:57.545 trông có vẻ khó khăn -- 0:14:57.545,0:15:00.925 tuy không khó khăn bằng việc [br]tạo ra 1 AI siêu trí tuệ, 0:15:00.925,0:15:03.793 nhưng cũng tương đối khó khăn. 0:15:03.793,0:15:05.488 Đây là nỗi lo: 0:15:05.488,0:15:10.172 Tạo ra một AI siêu trí tuệ[br]là 1 thử thách thực sự khó khăn. 0:15:10.172,0:15:12.720 Tạo ra 1 AI siêu trí tuệ an toàn 0:15:12.720,0:15:15.136 còn liên quan [br]tới vài thử thách nữa. 0:15:16.216,0:15:19.703 Nguy cơ có người tìm ra cách[br]vượt qua thử thách đầu tiên 0:15:19.703,0:15:22.704 mà không giải quyết [br]một thử thách khác 0:15:22.704,0:15:24.605 để đảm bảo an toàn tuyệt đối. 0:15:25.375,0:15:28.706 Vì vậy tôi nghĩ chúng ta[br]nên tìm ra giải pháp 0:15:28.706,0:15:31.528 cho vấn đề kiểm soát trước đã, 0:15:31.528,0:15:34.188 để khi cần thiết[br]ta đã có sẵn giải pháp rồi. 0:15:34.768,0:15:38.275 Có thể là chúng ta không thể [br]giải quyết trước toàn bộ vấn đề kiểm soát 0:15:38.275,0:15:41.299 bởi vì có lẽ vài yếu tố [br]chỉ có thể được đặt vào 0:15:41.299,0:15:45.296 khi bạn biết chi tiết của[br]cấu trúc trong đó nó được thực hiện. 0:15:45.296,0:15:48.676 Nhưng chúng ta giải quyết vấn đề kiểm soát[br]càng sớm bao nhiêu, 0:15:48.676,0:15:52.766 thì khả năng quá trình chuyển đổi[br]tới kỷ nguyên của trí tuệ nhân tạo 0:15:52.766,0:15:54.306 diễn ra càng tốt bấy nhiêu. 0:15:54.306,0:15:58.950 Vói tôi, điều này giống như[br]1 điều rất đáng làm 0:15:58.950,0:16:02.282 và tôi có thể tưởng tượng rằng[br]nếu mọi thứ diễn ra ổn thỏa, 0:16:02.282,0:16:06.940 rằng con người 1000 năm nữa[br]sẽ nhìn lại thế kỷ này 0:16:06.940,0:16:10.942 và rất có thể họ sẽ nói rằng[br]điều quan trọng duy nhất chúng ta làm 0:16:10.942,0:16:12.509 là thực hiện đúng điều này. 0:16:12.509,0:16:14.198 Cám ơn. 0:16:14.198,0:16:17.011 (Vỗ tay)