1 00:00:00,570 --> 00:00:04,777 Tôi làm việc với một nhóm các nhà toán học, triết học, khoa học máy tính; 2 00:00:05,953 --> 00:00:09,986 chúng tôi ngồi lại với nhau, nghĩ về tương lai của trí thông minh nhân tạo, 3 00:00:09,986 --> 00:00:12,030 cùng vài điều khác nữa. 4 00:00:12,030 --> 00:00:16,755 Vài người cho rằng những điều này chỉ có trong khoa học viễn tưởng, 5 00:00:16,755 --> 00:00:19,856 không thực tế, điên khùng. 6 00:00:19,856 --> 00:00:21,326 Nhưng tôi muốn nói rằng 7 00:00:21,326 --> 00:00:24,930 Được rồi, hãy nhìn vào tình trạng con người hiện nay. 8 00:00:25,194 --> 00:00:26,027 (Cười) 9 00:00:26,622 --> 00:00:27,632 Đây là cách mọi thứ vẫn diễn ra 10 00:00:29,176 --> 00:00:30,070 Nhưng nếu chúng ta nghĩ về nó, 11 00:00:31,239 --> 00:00:34,602 chúng ta thực chất chỉ là những vị khách mới đặt chân đến hành tinh này 12 00:00:34,602 --> 00:00:36,684 loài người. 13 00:00:36,684 --> 00:00:41,430 Thử nghĩ xem, nếu Trái đất hình thành 1 năm trước 14 00:00:41,430 --> 00:00:44,978 thì loài người mới xuất hiện được 10 phút. 15 00:00:44,978 --> 00:00:48,146 Và kỷ nguyên công nghiệp bắt đầu 2 giây trước. 16 00:00:49,276 --> 00:00:54,501 Một cách nhìn nhận khác về điều này là GDP của thế giới trong 10.000 năm qua, 17 00:00:54,501 --> 00:00:57,530 Thực ra, tôi đã gặp khó khăn khi tìm cách mô tả nó cho bạn dưới dạng biểu đồ 18 00:00:57,530 --> 00:00:59,304 Trông giống như thế này. 19 00:00:59,304 --> 00:01:00,667 (Cười) 20 00:01:00,667 --> 00:01:02,818 Với điều kiện bình thường, trông nó kỳ lạ thật. 21 00:01:02,818 --> 00:01:04,516 Tôi chắc chắn rằng không ai muốn ngồi trên đó. 22 00:01:04,516 --> 00:01:07,067 (Cười) 23 00:01:07,067 --> 00:01:11,841 Hãy tự hỏi, điều gì là nguyên nhân của sự dị thường này? 24 00:01:11,841 --> 00:01:14,393 Có người sẽ nói rằng đó là do công nghệ. 25 00:01:14,393 --> 00:01:19,061 Đúng vậy, công nghệ được tích luỹ trong suốt lịch sử loài người, 26 00:01:19,061 --> 00:01:23,713 và hiện tại, công nghệ đã phát triển với tốc độ cực nhanh. 27 00:01:23,713 --> 00:01:25,278 đó là nguyên nhân gần nhất, 28 00:01:25,278 --> 00:01:27,843 là lý do tại sao hiện nay chúng ta lại sản xuất hiệu quả như thế 29 00:01:28,473 --> 00:01:32,134 Nhưng tôi muốn nhìn kỹ hơn vào quá khứ để tìm nguyên nhân sâu xa. 30 00:01:33,114 --> 00:01:36,880 Hãy nhìn vào 2 "quý ông" rất rất khác biệt này 31 00:01:36,880 --> 00:01:38,480 Đây là Kanzi, 32 00:01:38,480 --> 00:01:43,123 chú tinh tinh hiểu được 200 thẻ từ vựng, quả là một thành tích đáng kinh ngạc. 33 00:01:43,123 --> 00:01:46,817 Và Ed Witten, người phát động cách mạng siêu dây lần 2. 34 00:01:46,817 --> 00:01:49,141 Nếu kiểm tra kỹ càng, đây là điều chúng ta tìm thấy; 35 00:01:49,141 --> 00:01:50,711 Cơ bản là như nhau. 36 00:01:50,711 --> 00:01:52,524 Của người thì lớn hơn một chút. 37 00:01:52,524 --> 00:01:55,282 Có thể cũng có vài thủ thuật, trong cách nó được tạo ra. 38 00:01:55,282 --> 00:01:59,094 Những khác biệt vô hình này có thể không quá phức tạp, tuy nhiên, 39 00:01:59,094 --> 00:02:03,379 bởi vì chúng ta mới qua 250.000 thế hệ 40 00:02:03,379 --> 00:02:05,111 kể từ vị tổ tiên chung cuối cùng 41 00:02:05,111 --> 00:02:08,960 Chúng ta biết rằng những cơ chế phức tạp đều mất 1 thời gian dài để tiến hóa 42 00:02:10,000 --> 00:02:12,499 Vì vây, nhiều thay đổi tương đối nhỏ 43 00:02:12,499 --> 00:02:15,566 tạo ra sự khác biệt giữa Kanzi và Witten, 44 00:02:15,566 --> 00:02:20,109 giữa những nhánh cây dễ gãy và tên lửa đạn đạo xuyên lục địa 45 00:02:20,839 --> 00:02:24,774 Vì thế, điều này sau đó trở nên khá rõ ràng rằng những điều chúng ta từng đạt được 46 00:02:24,774 --> 00:02:26,152 và tất cả những gì ta quan tâm 47 00:02:26,152 --> 00:02:31,380 phụ thuộc chủ yếu vào vài thay đổi tương đối nhỏ làm nên trí óc con người 48 00:02:32,650 --> 00:02:36,312 Và tất nhiên, kết quả tất yếu là bất kỳ những thay đổi xa hơn 49 00:02:36,312 --> 00:02:39,789 mà có thể thay đổi đáng kể nền tảng suy nghĩ 50 00:02:39,789 --> 00:02:42,991 có thể mang tới những kết quả tiềm năng rất lớn 51 00:02:44,321 --> 00:02:47,226 Vài đồng nghiệp của tôi nghĩ rằng chúng ta đang tiếp cận 52 00:02:47,226 --> 00:02:51,134 rất gần với điều có thể tạo ra thay đổi sâu sắc trong nền tảng ấy 53 00:02:51,134 --> 00:02:52,134 Và đó là siêu trí tuệ nhân tạo 54 00:02:54,347 --> 00:02:57,751 Trí thông minh nhân tạo từng được dùng để đưa những chỉ thị vào máy tính (hộp) 55 00:02:59,092 --> 00:03:02,174 Bạn sẽ có những nhà lập trình 56 00:03:02,174 --> 00:03:03,886 có thể cần cù tạo ra những vật dụng có hiểu biết 57 00:03:03,886 --> 00:03:05,972 Ta xây dựng những hệ thống chuyên gia này 58 00:03:05,972 --> 00:03:08,296 và chúng khá là hữu dụng cho vài mục đích; 59 00:03:08,296 --> 00:03:10,977 chúng cũng rất dễ vỡ, bạn không thể cạo gỉ cho chúng 60 00:03:10,977 --> 00:03:14,410 Về cơ bản, đầu vào thế nào thì đầu ra như thế 61 00:03:14,410 --> 00:03:15,407 Nhưng kể từ đó, 62 00:03:15,407 --> 00:03:18,874 một sự thay đổi mô hình đã diễn ra , trong lĩnh vực trí tuệ nhân tạo. 63 00:03:18,874 --> 00:03:21,644 Giờ đây, hoạt động này chỉ xoay quanh việc học của máy tính 64 00:03:22,394 --> 00:03:27,781 Vì vậy thay vì tạo ra những tính năng và mô tả có hiểu biết một cách thủ công, 65 00:03:28,511 --> 00:03:34,065 chúng ta tạo ra các thuật toán có thể học hỏi, thường là từ các dữ liệu tri giác thô 66 00:03:34,065 --> 00:03:39,063 Cơ bản là những gì mà trẻ sơ sinh thực hiện. 67 00:03:39,063 --> 00:03:43,270 Kết quả, ta tạo ra trí thông minh nhân tạo không bị bó buộc trong 1 phạm vi -- 68 00:03:43,270 --> 00:03:47,901 hệ thống đó cũng có thể học cách dịch bất kỳ cặp ngôn ngữ nào, 69 00:03:47,901 --> 00:03:53,338 có thể học cách chơi bất kỳ trò chơi máy tính nào trên bảng điều khiển Atari 70 00:03:53,338 --> 00:03:55,117 Giờ đây, tất nhiên, 71 00:03:55,117 --> 00:03:59,116 trí thông minh nhân tạo vẫn chưa gần với khả năng học tập và lên kế hoạch 72 00:03:59,116 --> 00:04:02,335 mạnh mẽ và đa lĩnh vực mà con người có 73 00:04:02,335 --> 00:04:04,461 Vỏ não vẫn có vài mẹo toán học 74 00:04:04,461 --> 00:04:06,816 mà chúng ta vẫn chưa biết làm sao để tạo ra bằng máy móc 75 00:04:07,886 --> 00:04:09,785 Vì thế, câu hỏi đặt ra là 76 00:04:09,785 --> 00:04:13,285 chúng ta còn bao lâu nữa thì mới có thể bắt kịp những mẹo này? 77 00:04:14,245 --> 00:04:15,328 Vài năm trước, 78 00:04:15,328 --> 00:04:18,216 chúng tôi đã có 1cuộc khảo sát vài chuyên gia thế giới về AI 79 00:04:18,216 --> 00:04:21,440 để xem họ nghĩ gì, và 1 trong những điều chúng tôi hỏi là 80 00:04:21,440 --> 00:04:24,793 "Bạn nghĩ xem, vào năm nào thì sẽ có khả năng 50% 81 00:04:24,793 --> 00:04:28,275 chúng ta đạt được trí thông minh nhân tạo ở cấp độ con người?" 82 00:04:28,785 --> 00:04:32,968 Cấp độ con người mà chúng tôi nói đến ở đây là khả năng thực hiện 83 00:04:32,968 --> 00:04:35,839 gần như mọi việc, ít nhất là như 1 người lớn, 84 00:04:35,839 --> 00:04:39,844 tức là, cấp độ con người thực thụ, chứ không chỉ giới hạn trong vài lĩnh vực. 85 00:04:39,844 --> 00:04:43,494 Và câu trả lời trung bình là năm 2040 hoặc 2050 86 00:04:43,494 --> 00:04:46,300 tùy thuộc chính xác vào nhóm chuyên gia mà chúng tôi hỏi. 87 00:04:46,300 --> 00:04:50,339 Việc đó có thể xảy ra, sớm hơn, hoặc muộn hơn rất nhiều, 88 00:04:50,339 --> 00:04:52,279 sự thật là, chẳng ai chắc chắn cả. 89 00:04:53,259 --> 00:04:57,671 Điều mà chúng tôi biết chắc là giới hạn cao nhất cho việc xử lý thông tin 90 00:04:57,671 --> 00:05:02,542 trong 1 nền tảng máy móc nằm rất xa ngoài những giới hạn trong mô sinh học. 91 00:05:03,241 --> 00:05:05,619 Điều này liên quan tới vật lý. 92 00:05:05,619 --> 00:05:10,337 Một nơ-ron sinh học dẫn truyền, chẳng hạn, ở 200 Hz, 200 lần/ giây 93 00:05:10,337 --> 00:05:13,931 Nhưng thậm chí 1 bóng bán dẫn ngày nay vận hành với đơn vị Gigahertz 94 00:05:13,931 --> 00:05:19,228 Nơ-ron truyền chậm rãi trong sợi trục thần kinh, với vận tốc cao nhất là 100 m/s 95 00:05:19,228 --> 00:05:22,339 Nhưng trong máy tính, các tín hiệu có thể đi với vận tốc ánh sáng 96 00:05:23,079 --> 00:05:24,948 Cũng có giới hạn về kích cỡ, 97 00:05:24,948 --> 00:05:27,975 não người thì phải vừa hộp sọ, 98 00:05:27,975 --> 00:05:32,736 nhưng máy tính thì có thể to cỡ nhà kho hoặc hơn 99 00:05:32,736 --> 00:05:38,335 Vì thế, tiềm năng của siêu trí tuệ nằm im lìm trong vật chất, 100 00:05:38,335 --> 00:05:44,047 giống như quyền năng của nguyên tử nằm im lìm xuyên suốt lịch sử loài người, 101 00:05:44,047 --> 00:05:48,452 kiên nhẫn đợi chờ cho tới tận năm 1945. 102 00:05:48,452 --> 00:05:49,700 Ở thế kỷ này, 103 00:05:49,700 --> 00:05:53,818 các nhà khoa học có thể học cách thức tỉnh năng lực của trí tuệ nhân tạo. 104 00:05:53,818 --> 00:05:57,826 Và tôi nghĩ từ đó chúng ta có thể thấy một cuộc bùng nổ trí tuệ. 105 00:05:58,406 --> 00:06:02,363 Giờ đây, hầu hết mọi người, khi nghĩ về trí khôn và sự ngu ngốc, 106 00:06:02,363 --> 00:06:05,386 Với tôi, điều đó giống như thế này. 107 00:06:05,386 --> 00:06:07,984 Ở một đầu là làng người ngốc, 108 00:06:07,984 --> 00:06:10,467 và xa tít phía đối diện, ở đầu bên kia 109 00:06:10,467 --> 00:06:15,223 chúng ta có Ed Witten, Albert Einstein, hay bất kỳ guru ưa thích nào của bạn. 110 00:06:15,223 --> 00:06:19,057 Nhưng tôi nghĩ rằng từ quan điểm của trí thông minh nhân tạo, 111 00:06:19,057 --> 00:06:22,738 viễn cảnh thực sự thực ra trông lại giống như thế này: 112 00:06:23,258 --> 00:06:26,636 AI bắt đầu tại đây, từ chỗ không có gì, 113 00:06:26,636 --> 00:06:29,647 và rồi, sau rất, rất nhiều năm nỗ lực vất vả, 114 00:06:29,647 --> 00:06:33,491 có thể chúng ta rồi sẽ đến với điểm mà trí tuệ nhân tạo ở mức độ loài chuột, 115 00:06:33,491 --> 00:06:35,921 một thứ có thể vượt qua những môi trường hỗn loạn 116 00:06:35,921 --> 00:06:37,908 giống như một chú chuột vậy. 117 00:06:37,908 --> 00:06:42,221 Và rồi, sau rất rất rất nhiều năm lao động vất vả, đầu tư rất nhiều tiền của, 118 00:06:42,221 --> 00:06:46,860 có thể cuối cùng chúng ta sẽ có được AI ở mức độ tinh tinh. 119 00:06:46,860 --> 00:06:50,070 Và rồi, lại sau nhiều năm nữa với rất nhiều, rất nhiều nỗ lực, 120 00:06:50,070 --> 00:06:52,983 chúng ta sẽ tạo ra được trí tuệ nhân tạo như của kẻ ngốc. 121 00:06:52,983 --> 00:06:56,255 Và một vài tháng sau đó, chúng ta sẽ vượt qua Ed Witten. 122 00:06:56,255 --> 00:06:59,225 Con tàu này không dừng lại tại trạm Con người. 123 00:06:59,225 --> 00:07:02,247 Thay vào đó, từ đây nó vẫn tiến về phía trước. 124 00:07:02,247 --> 00:07:04,231 Điều này có ẩn ý sâu sắc, 125 00:07:04,231 --> 00:07:08,093 đặc biệt là khi nhắc tới những câu hỏi về quyền lực. 126 00:07:08,093 --> 00:07:09,992 Ví dụ, loài tinh tinh rất khỏe -- 127 00:07:09,992 --> 00:07:15,214 về cân nặng, 1 chú tinh tinh khỏe gấp đôi 1 người cân đối. 128 00:07:15,214 --> 00:07:19,828 Thế nhưng, số phận của Kanzi và những người bạn của nó phụ thuộc nhiều 129 00:07:19,828 --> 00:07:23,968 vào điều loài người chúng ta làm hơn là điều mà tinh tinh làm. 130 00:07:25,228 --> 00:07:27,542 Một khi đã có siêu trí tuệ, 131 00:07:27,542 --> 00:07:31,381 số phận loài người có thể phụ thuộc vào điều mà siêu trí tuệ sẽ làm. 132 00:07:32,451 --> 00:07:33,508 Hãy nghĩ về điều đó: 133 00:07:33,508 --> 00:07:38,552 Trí thông minh nhân tạo là phát kiến cuối cùng mà con người cần tạo ra. 134 00:07:38,552 --> 00:07:41,525 Khi đó, máy móc sẽ sáng tạo giỏi hơn chúng ta, 135 00:07:41,525 --> 00:07:44,065 và chúng làm điều đó ở thang thời gian số. 136 00:07:44,065 --> 00:07:48,966 Điều này về cơ bản là một lăng kính về tương lai. 137 00:07:48,966 --> 00:07:52,524 Nghĩ về tất cả những công nghệ điên rồ mà bạn có thể tưởng tượng ra 138 00:07:52,524 --> 00:07:55,322 có thể con người sẽ phát triển trong toàn bộ thời gian: 139 00:07:55,322 --> 00:07:58,580 làm chậm lão hóa, sinh sống trên vũ trụ, 140 00:07:58,580 --> 00:08:02,311 những nanobot tự sao chép hay upload trí óc chúng ta vào máy tính, 141 00:08:02,311 --> 00:08:04,470 tất cả những điều có trong tiểu thuyết viễn tưởng 142 00:08:04,470 --> 00:08:07,207 tuy nhiên lại không nhất quán với các luật vật lý. 143 00:08:07,207 --> 00:08:11,419 Tất cả những siêu máy tính này có thể phát triển, có lẽ là khá nhanh chóng. 144 00:08:12,449 --> 00:08:16,007 Giờ, 1 siêu trí tuệ với độ trưởng thành công nghệ như thế 145 00:08:16,007 --> 00:08:18,186 có thể cực kỳ mạnh mẽ, 146 00:08:18,186 --> 00:08:22,732 và ít nhất ở vài trường hợp, nó có thể đạt được điều nó muốn. 147 00:08:22,732 --> 00:08:28,393 Chúng ta rồi sẽ có 1 tương lai có thể được định hình theo ưu tiên của A.I này. 148 00:08:29,855 --> 00:08:33,604 Giờ, câu hỏi hay đặt ra ở đây là, những ưu tiên đó là gì? 149 00:08:34,244 --> 00:08:36,013 Ở đây, mọi thứ trở nên rắc rối hơn. 150 00:08:36,013 --> 00:08:37,448 Để tìm hiểu điều này, 151 00:08:37,448 --> 00:08:40,724 trước hết, chúng ta phải tránh việc nhân cách hóa. 152 00:08:41,933 --> 00:08:45,235 Điều đó thật nực cười bởi vì mọi bài viết trên mặt báo 153 00:08:45,235 --> 00:08:49,090 về tương lai của trí thông minh nhân tạo đều đưa ra tình huống thế này: 154 00:08:50,280 --> 00:08:54,414 Vì thế, tôi nghĩ điều chúng ta cần làm là tiếp nhận vấn đề 1 cách trừu tượng hơn, 155 00:08:54,414 --> 00:08:57,204 không rõ ràng và hoành tráng như những cảnh tượng trên Hollywood. 156 00:08:57,204 --> 00:09:00,821 Chúng ta cần nghĩ về trí thông minh như 1 quá trình tối ưu hóa, 157 00:09:00,821 --> 00:09:06,470 một quá trình giúp định hướng tương lai vào 1 bộ những cấu hình nhất định. 158 00:09:06,470 --> 00:09:09,981 Siêu trí tuệ là quá trình tối ưu hóa thực sự mạnh mẽ. 159 00:09:09,981 --> 00:09:14,098 Nó có tài đặc biệt trong việc dùng những phương tiện sẵn có để đạt được trạng thái 160 00:09:14,098 --> 00:09:16,007 mà ở đó mục tiêu của nó được thực hiện. 161 00:09:16,447 --> 00:09:19,119 Có nghĩa là, không cần thiết phải có sự liên hệ giữa 162 00:09:19,119 --> 00:09:21,853 trở nên cực kỳ thông minh 163 00:09:21,853 --> 00:09:26,515 và có 1 mục tiêu mà con người có thể thấy là đáng giá hoặc ý nghĩa. 164 00:09:27,321 --> 00:09:31,115 Giả sử, chúng ta cho trí tuệ nhân tạo mục tiêu là làm cho con người cười. 165 00:09:31,115 --> 00:09:34,097 Khi AI còn yếu, nó sẽ thực hiện các hành động có ích, hài hước 166 00:09:34,097 --> 00:09:36,614 khiến chủ nhân của nó mỉm cười. 167 00:09:36,614 --> 00:09:39,031 Khi AI trở thành siêu trí tuệ, 168 00:09:39,031 --> 00:09:42,554 nó nhận ra rằng có cách hiệu quả hơn nữa để đạt được mục tiêu này: 169 00:09:42,554 --> 00:09:44,476 thống trị thế giới 170 00:09:44,476 --> 00:09:47,638 và cắm điện cực vào các cơ mặt của con người 171 00:09:47,638 --> 00:09:50,579 để tạo ra những nụ cười rạng rỡ, bất biến. 172 00:09:50,579 --> 00:09:51,614 Một ví dụ khác, 173 00:09:51,614 --> 00:09:54,997 giả sử chúng ta cho AI mục đích giải quyết 1 vấn đề toán học khó khăn. 174 00:09:54,997 --> 00:09:56,934 Khi AI trở thành siêu trí tuệ, 175 00:09:56,934 --> 00:10:01,105 nó nhận ra rằng cách hiệu quả nhất để giải quyết vấn đề này 176 00:10:01,105 --> 00:10:04,035 là biến đổi hành tinh này thành 1 máy tính khổng lồ 177 00:10:04,035 --> 00:10:06,281 để gia tăng khả năng suy nghĩ của nó. 178 00:10:06,281 --> 00:10:09,045 Và để ý rằng điều này cho AI 1 lý do thuộc về phương tiện 179 00:10:09,045 --> 00:10:11,561 để làm những việc mà chúng ta có thể không đồng ý. 180 00:10:11,561 --> 00:10:13,496 Trường hợp này, con người là mối đe dọa, 181 00:10:13,496 --> 00:10:16,417 chúng ta có thể ngăn vấn đề toán học đó được giải quyết. 182 00:10:17,207 --> 00:10:20,701 Tất nhiên, mọi việc có thể cũng không lầm lạc theo đúng những hướng này; 183 00:10:20,701 --> 00:10:22,454 chúng là những ví dụ hư cấu. 184 00:10:22,454 --> 00:10:24,393 Nhưng đại ý ở đây thì quan trọng: 185 00:10:24,393 --> 00:10:27,266 nếu bạn tạo ra một quá trình tối ưu hóa thực sự quyền lực 186 00:10:27,266 --> 00:10:29,500 để cực đại hóa cho mục tiêu x, 187 00:10:29,500 --> 00:10:31,776 bạn nên chắc chắn rằng định nghĩa của bạn về x 188 00:10:31,776 --> 00:10:34,245 kết hợp chặt chẽ với mọi điều bạn quan tâm tới. 189 00:10:34,835 --> 00:10:39,219 Đây cũng là bài học rút ra từ thần thoại sau đây. 190 00:10:39,219 --> 00:10:44,517 Vua Midas ước rằng mọi thứ ông chạm vào đều biến thành vàng. 191 00:10:44,517 --> 00:10:47,378 Ông chạm vào con gái mình, cô biến thành vàng. 192 00:10:47,378 --> 00:10:49,931 Ông chạm vào đồ ăn của mình, chúng biến thành vàng. 193 00:10:49,931 --> 00:10:52,520 Điều này có thể trở nên đặc biệt liên quan, 194 00:10:52,520 --> 00:10:54,590 không chỉ là 1 ẩn dụ cho lòng tham, 195 00:10:54,590 --> 00:10:56,485 mà còn minh họa cho điều sẽ xảy ra 196 00:10:56,485 --> 00:10:59,322 nếu bạn tạo ra 1 quá trình tối ưu hóa mạnh mẽ 197 00:10:59,322 --> 00:11:04,111 và đưa cho nó những mục tiêu sai nhận thức hoặc không được định rõ. 198 00:11:04,111 --> 00:11:09,300 Giờ bạn có thể nói, nếu 1 máy tính bắt đầu cắm điện cực vào mặt con người, 199 00:11:09,300 --> 00:11:11,565 chúng ta đơn giản là tắt chúng đi. 200 00:11:12,555 --> 00:11:17,895 A, điều này không dễ dàng đến thế nếu chúng ta trở nên phụ thuộc vào máy móc- 201 00:11:17,895 --> 00:11:20,627 cũng giống như, làm thế nào để tắt nguồn Internet? 202 00:11:20,627 --> 00:11:25,747 B, tại sao tinh tinh không tắt công tắc chuyển sang loài người, 203 00:11:25,747 --> 00:11:27,298 hay là người Neanderthals? 204 00:11:27,298 --> 00:11:29,964 Ắt hẳn phải có lý do nào đó. 205 00:11:29,964 --> 00:11:32,759 Chúng ta có nút tắt, ví dụ, ở ngay đây. 206 00:11:32,759 --> 00:11:34,313 (Ho) 207 00:11:34,313 --> 00:11:37,238 Bởi lẽ chúng ta là một đối thủ thông minh; 208 00:11:37,238 --> 00:11:39,966 chúng ta có thể đoán trước các nguy cơ và lên kế hoạch. 209 00:11:39,966 --> 00:11:42,470 Nhưng 1siêu máy tính cũng có thể làm điều tương tự, 210 00:11:42,470 --> 00:11:45,724 và nó có thể làm việc đó giỏi hơn chúng ta rất nhiều. 211 00:11:45,724 --> 00:11:52,911 Vấn đề là, ở đây chúng ta không nên tự tin rằng mình đã kiểm soát được nó. 212 00:11:52,911 --> 00:11:56,358 Và chúng ta có thể cố gắng để công việc của mình dễ dàng hơn bằng cách 213 00:11:56,358 --> 00:11:57,948 ví dụ, đặt AI vào 1 chiếc hộp, 214 00:11:57,948 --> 00:11:59,744 giống như 1 môi trường phần mềm an toàn, 215 00:11:59,744 --> 00:12:02,766 1 kích thích thực tế ảo mà từ đó nó không thể trốn thoát. 216 00:12:02,766 --> 00:12:06,912 Nhưng liệu chúng ta tự tin được bao nhiêu rằng AI không thể tìm ra lỗi kỹ thuật. 217 00:12:06,912 --> 00:12:10,081 Cần nhớ rằng, các hacker là con người luôn luôn tìm ra lỗi, 218 00:12:10,081 --> 00:12:13,117 Tôi cho là vậy, dù có thể không được tự tin lắm. 219 00:12:14,237 --> 00:12:18,785 Vì vậy, chúng ta ngắt cáp cục bộ để tạo ra 1 lỗ hổng không khí, 220 00:12:18,785 --> 00:12:21,453 nhưng 1 lần nữa, giống như những hacker 221 00:12:21,453 --> 00:12:24,834 thường xuyên vi phạm những lỗ hổng không khí sử dụng mánh khóe xã hội. 222 00:12:24,834 --> 00:12:26,093 Bây giờ, như tôi nói, 223 00:12:26,093 --> 00:12:28,482 Tôi chắc chắn đâu đó ngoài kia có vài nhân viên 224 00:12:28,482 --> 00:12:31,828 được bảo là phải giao nộp chi tiết tài khoản của mình 225 00:12:31,828 --> 00:12:34,574 bởi 1 người tự nhận là ở ban công nghệ thông tin. 226 00:12:34,574 --> 00:12:36,701 Những tình huống sáng tạo hơn cũng có thể xảy ra, 227 00:12:36,701 --> 00:12:38,016 chẳng hạn, nếu bạn là AI, 228 00:12:38,016 --> 00:12:41,548 bạn có thể tưởng tượng điện cực xoáy trôn ốc xung quanh mạch nội bộ 229 00:12:41,548 --> 00:12:45,010 để tạo ra sóng radio mà bạn có thể dùng để giao tiếp. 230 00:12:45,010 --> 00:12:47,434 Hoặc, bạn có thể giả vờ gặp sự cố, 231 00:12:47,434 --> 00:12:50,931 và rồi khi lập trình viên mở bạn ra để xem bạn bị làm sao, 232 00:12:50,931 --> 00:12:52,867 họ nhìn vào mã nguồn, và Bam! 233 00:12:52,867 --> 00:12:55,314 quá trình thao túng sẽ diễn ra. 234 00:12:55,314 --> 00:12:58,744 Hoặc nó có thể cung cấp bản thiết kế tới 1 công nghệ thực sự tiện lợi, 235 00:12:58,744 --> 00:13:00,142 và khi bạn sử dụng nó, 236 00:13:00,142 --> 00:13:04,539 xảy ra vài phản ứng phụ bí mật mà AI đã tính toán từ trước. 237 00:13:04,539 --> 00:13:08,002 Tức là, chúng ta không nên tự tin vào khẳ năng của mình 238 00:13:08,002 --> 00:13:11,810 để nhốt vị thần gian lận trong chai mãi mãi. 239 00:13:11,810 --> 00:13:14,064 Chẳng sớm thì muốn, nó cũng thoát ra. 240 00:13:15,034 --> 00:13:18,137 Tôi tin rằng câu trả lời ở đây là tìm ra 241 00:13:18,137 --> 00:13:23,161 cách thức tạo 1 AI siêu trí tuệ mà ngay cả khi nó trốn thoát, 242 00:13:23,161 --> 00:13:26,438 nó vẫn an toàn bởi vì về cơ bản nó vẫn thuộc phe ta 243 00:13:26,438 --> 00:13:28,337 bởi vì hai bên cùng sẻ những giá trị chung. 244 00:13:28,337 --> 00:13:31,547 Tôi thấy không còn cách nào khác cho vấn đề khó khăn này. 245 00:13:32,557 --> 00:13:36,391 Thật ra tôi khá lạc quan rằng vấn đề này có thể được giải quyết. 246 00:13:36,391 --> 00:13:40,294 Chúng ta sẽ không phải viết ra 1 danh sách dài tất cả những gì ta quan tâm, 247 00:13:40,294 --> 00:13:43,937 hay tệ hơn, nói ra bằng ngôn ngữ máy tính nào đó 248 00:13:43,937 --> 00:13:45,391 như C++ hoặc Python, 249 00:13:45,391 --> 00:13:48,158 thế thì còn hơn cả vô vọng. 250 00:13:48,158 --> 00:13:52,455 Thay vào đó, chúng ta có thể tạo ra 1 AI sử dụng trí thông minh của mình 251 00:13:52,455 --> 00:13:55,226 để học hỏi những gì ta coi trọng, 252 00:13:55,226 --> 00:14:00,506 và hệ thống thúc đẩy của nó được xây dựng tức là động lực của nó là 253 00:14:00,506 --> 00:14:05,738 theo đuổi các giá trị của ta hay làm các điều mà nó dự đoán ta sẽ chấp thuận. 254 00:14:05,738 --> 00:14:09,152 Từ đó chúng ta có thể tận dụng trí thông minh của nó nhiều nhất có thể 255 00:14:09,152 --> 00:14:11,897 để giải quyết vấn đề tải giá trị. 256 00:14:12,727 --> 00:14:14,239 Điều này có thể xảy ra, 257 00:14:14,239 --> 00:14:17,835 và kết quả có thể sẽ rất tốt cho loài người. 258 00:14:17,835 --> 00:14:21,792 Nhưng điều đó không tự động xảy ra. 259 00:14:21,792 --> 00:14:24,790 Các điều kiện ban đầu cho bùng nổ trí tuệ 260 00:14:24,790 --> 00:14:27,653 có thể cần được thiết lập đúng cách 261 00:14:27,653 --> 00:14:31,183 nếu chúng ta muốn có 1 cuộc bùng nổ được kiểm soát. 262 00:14:31,183 --> 00:14:33,801 Các giá trị mà AI cần hòa hợp với chúng ta, 263 00:14:33,801 --> 00:14:35,561 không chỉ trong bối cảnh quen thuộc, 264 00:14:35,561 --> 00:14:37,999 nơi ta có thể dễ dàng kiểm tra AI cư xử ra sao, 265 00:14:37,999 --> 00:14:41,233 mà còn trong tất cả những hoàn cảnh mới lạ mà AI có thể gặp phải 266 00:14:41,233 --> 00:14:42,790 trong tương lai bất định. 267 00:14:42,790 --> 00:14:47,527 Và cũng có vài vấn đề đặc biệt cần được giải quyết, sắp xếp: 268 00:14:47,527 --> 00:14:49,616 chi tiết cụ thể về lý thuyết ra quyết định 269 00:14:49,616 --> 00:14:52,480 làm sao để giải quyết bất định hợp lý, vân vân. 270 00:14:53,330 --> 00:14:56,432 Vì thế, những vấn đề kỹ thuật cần giải quyết để mọi thứ diễn ra suôn sẻ 271 00:14:56,432 --> 00:14:57,545 trông có vẻ khó khăn -- 272 00:14:57,545 --> 00:15:00,925 tuy không khó khăn bằng việc tạo ra 1 AI siêu trí tuệ, 273 00:15:00,925 --> 00:15:03,793 nhưng cũng tương đối khó khăn. 274 00:15:03,793 --> 00:15:05,488 Đây là nỗi lo: 275 00:15:05,488 --> 00:15:10,172 Tạo ra một AI siêu trí tuệ là 1 thử thách thực sự khó khăn. 276 00:15:10,172 --> 00:15:12,720 Tạo ra 1 AI siêu trí tuệ an toàn 277 00:15:12,720 --> 00:15:15,136 còn liên quan tới vài thử thách nữa. 278 00:15:16,216 --> 00:15:19,703 Nguy cơ có người tìm ra cách vượt qua thử thách đầu tiên 279 00:15:19,703 --> 00:15:22,704 mà không giải quyết một thử thách khác 280 00:15:22,704 --> 00:15:24,605 để đảm bảo an toàn tuyệt đối. 281 00:15:25,375 --> 00:15:28,706 Vì vậy tôi nghĩ chúng ta nên tìm ra giải pháp 282 00:15:28,706 --> 00:15:31,528 cho vấn đề kiểm soát trước đã, 283 00:15:31,528 --> 00:15:34,188 để khi cần thiết ta đã có sẵn giải pháp rồi. 284 00:15:34,768 --> 00:15:38,275 Có thể là chúng ta không thể giải quyết trước toàn bộ vấn đề kiểm soát 285 00:15:38,275 --> 00:15:41,299 bởi vì có lẽ vài yếu tố chỉ có thể được đặt vào 286 00:15:41,299 --> 00:15:45,296 khi bạn biết chi tiết của cấu trúc trong đó nó được thực hiện. 287 00:15:45,296 --> 00:15:48,676 Nhưng chúng ta giải quyết vấn đề kiểm soát càng sớm bao nhiêu, 288 00:15:48,676 --> 00:15:52,766 thì khả năng quá trình chuyển đổi tới kỷ nguyên của trí tuệ nhân tạo 289 00:15:52,766 --> 00:15:54,306 diễn ra càng tốt bấy nhiêu. 290 00:15:54,306 --> 00:15:58,950 Vói tôi, điều này giống như 1 điều rất đáng làm 291 00:15:58,950 --> 00:16:02,282 và tôi có thể tưởng tượng rằng nếu mọi thứ diễn ra ổn thỏa, 292 00:16:02,282 --> 00:16:06,940 rằng con người 1000 năm nữa sẽ nhìn lại thế kỷ này 293 00:16:06,940 --> 00:16:10,942 và rất có thể họ sẽ nói rằng điều quan trọng duy nhất chúng ta làm 294 00:16:10,942 --> 00:16:12,509 là thực hiện đúng điều này. 295 00:16:12,509 --> 00:16:14,198 Cám ơn. 296 00:16:14,198 --> 00:16:17,011 (Vỗ tay)