Ta có thể xây dựng trí thông minh nhân tạo mà không làm mất kiểm soát chúng?
-
0:01 - 0:03Tôi chuẩn bị nói về
sự thất bại của trực giác -
0:03 - 0:05mà nhiều người trong chúng ta
thường gặp phải. -
0:05 - 0:09Nó thật ra là sự thất bại trong việc
phát hiện một mối nguy hiểm nhất định. -
0:09 - 0:11Tôi sẽ mô tả một viễn cảnh
-
0:11 - 0:14mà tôi nghĩ vừa kinh khủng
-
0:14 - 0:17vừa có thể sẽ xảy ra,
-
0:17 - 0:18và đây không phải sự kết hợp tốt
-
0:19 - 0:20khi nó xảy ra.
-
0:20 - 0:23Thế nhưng thay vì sợ,
hầu hết các bạn sẽ cảm thấy -
0:23 - 0:25rằng điều tôi đang nói thật ra rất tuyệt
-
0:25 - 0:28Tôi sẽ mô tả cách mà
những thứ ta gặt hái được -
0:28 - 0:30từ trí thông minh nhân tạo (AI)
-
0:30 - 0:32có thể hủy diệt chúng ta.
-
0:32 - 0:35Thực ra, tôi nghĩ rất khó để xem làm sao
chúng có thể không tiêu diệt chúng ta -
0:35 - 0:37hoặc làm cho chúng ta tự hủy diệt mình.
-
0:37 - 0:39Nhưng nếu các bạn giống tôi,
-
0:39 - 0:42bạn sẽ thấy rằng nó rất vui
khi nghĩ về những điều này. -
0:42 - 0:45Và phản ứng đó là một phần của vấn đề.
-
0:45 - 0:48OK? Phản ứng đó sẽ làm bạn lo lắng.
-
0:48 - 0:51Và nếu tôi thuyết phục được các bạn
trong buổi nói chuyện này -
0:51 - 0:54rằng chúng ta có thể sẽ phải
hứng chịu một nạn đói toàn cầu, -
0:54 - 0:57hoặc do biến đổi khí hậu hoặc
do một số thiên tai khác, -
0:57 - 1:01và rằng cháu chắt của các bạn hay của họ,
-
1:01 - 1:03rất có thể sẽ phải sống như thế này,
-
1:03 - 1:05thì bạn sẽ không nghĩ,
-
1:05 - 1:07"Tuyệt vời.
-
1:07 - 1:09Tôi thích buổi nói chuyện này."
-
1:09 - 1:12Nạn đói không vui vẻ gì đâu.
-
1:12 - 1:15Tuy nhiên cái chết do khoa học
viễn tưởng lại rất hài hước. -
1:15 - 1:19mà một trong số những thứ làm tôi
lo lắng nhất về việc phát triển AI -
1:19 - 1:23là chúng ta dường như không thể sắp xếp
một phản ứng cảm xúc thích hợp nào -
1:23 - 1:25cho những mối nguy hiểm trước mắt.
-
1:25 - 1:30Tôi không thể sắp xếp thứ phản ứng này,
nên tôi mới đưa ra buổi nói chuyện này. -
1:30 - 1:33Nó như thể chúng ta
đứng trước hai cánh cửa. -
1:33 - 1:34Sau cánh cửa thứ nhất,
-
1:34 - 1:37chúng ta ngưng quá trình xây dựng
các loại máy móc thông minh. -
1:37 - 1:41Phần cứng và phần mềm máy tính
không cải tiến tốt hơn nữa vì vài lí do. -
1:41 - 1:45Giờ hãy dành thời gian suy nghĩ
tại sao điều này có thể xảy ra. -
1:45 - 1:49Ý tôi là, dựa vào giá trị của
trí thông minh và sự tự động hóa, -
1:49 - 1:52chúng ta vẫn sẽ tiếp tục cải tiến
công nghệ nếu ta hoàn toàn có thể. -
1:53 - 1:56Điều gì có thể khiến chúng ta
dừng làm việc này? -
1:56 - 1:59Một cuộc chiến hạt nhân quy mô lớn?
-
1:59 - 2:02Một đại dịch toàn cầu?
-
2:02 - 2:06Va chạm thiên thạch?
-
2:06 - 2:08Hay Justin Bieber trở thành tổng thống Mỹ?
-
2:08 - 2:11(Cười)
-
2:13 - 2:17Vấn đề là, thứ gì đó sẽ phải hủy diệt
nền văn minh như chúng ta đã biết. -
2:17 - 2:22Bạn phải tưởng tượng nó
sẽ phải tồi tệ như thế nào -
2:22 - 2:25để ngăn chúng ta tiếp tục
cải tiến công nghệ -
2:25 - 2:26vĩnh viễn,
-
2:26 - 2:28thế hệ này qua thế hệ khác.
-
2:28 - 2:30Gần như theo định nghĩa,
đây là thứ tồi tệ nhất -
2:30 - 2:32xảy ra trong lịch sử nhân loại.
-
2:33 - 2:34Vậy nên lựa chọn duy nhất,
-
2:34 - 2:36và nó nằm sau cánh cửa số hai,
-
2:36 - 2:39đó là chúng ta tiếp tục cải tiến
các máy móc thông minh -
2:39 - 2:41năm này qua năm khác.
-
2:41 - 2:46Tới một thời điểm nhất định, chúng ta sẽ
tạo ra những cỗ máy thông minh hơn mình, -
2:46 - 2:49và một khi chúng ta sở hữu
các cỗ máy thông minh hơn mình, -
2:49 - 2:51chúng sẽ bắt đầu tự cải tiến.
-
2:51 - 2:54Sau đó, chúng ta mạo hiểm với thứ
mà nhà toán học Ij Good gọi là -
2:54 - 2:55sự "bùng nổ trí tuệ"
-
2:55 - 2:58và quá trình đó có thể sẽ
tiến xa ra khỏi chúng ta. -
2:58 - 3:01Và giờ, điều này thường hay bị biếm họa,
như tôi có ở đây, -
3:01 - 3:04nỗi sợ trước một đội quân robot độc ác
-
3:04 - 3:05sẽ tấn công chúng ta.
-
3:05 - 3:08Nhưng đó chưa phải là viễn cảnh
dễ xảy ra nhất. -
3:08 - 3:13Không phải những cỗ máy của chúng ta
tự nhiên trở nên ác độc -
3:13 - 3:16Mối lo thật sự là khi
chúng ta tạo ra những cỗ máy -
3:16 - 3:18tài giỏi hơn chúng ta quá nhiều
-
3:18 - 3:22để rồi, dù chỉ một khác biệt nhỏ nhất
giữa mục tiêu của chúng và ta thôi -
3:22 - 3:24cũng có thể hủy diệt chúng ta.
-
3:24 - 3:27Hãy nghĩ đến mối quan hệ
giữa chúng ta loài kiến. -
3:27 - 3:28Chúng ta không ghét chúng.
-
3:28 - 3:30Chúng ta không cố tình làm hại chúng.
-
3:30 - 3:33Thực tế đôi khi chúng ta cố gắng
không làm hại chúng. -
3:33 - 3:35Chúng ta bước qua chúng trên vỉa hè.
-
3:35 - 3:37Nhưng mỗi khi sự xuất hiện của chúng
-
3:37 - 3:40xung đột cực kì với một
trong các mục đích của chúng ta, -
3:40 - 3:42Ví dụ như khi xây dựng
một tòa nhà như thế này, -
3:42 - 3:44chúng ta tiêu diệt chúng không lo lắng.
-
3:44 - 3:47Có nghĩa là một ngày nào đó
khi chúng ta tạo ra các cỗ máy -
3:47 - 3:50cho dù chúng có ý thức hay không,
-
3:50 - 3:54cũng sẽ đối xử với chúng ta
theo sự bất chấp tương tự như thế. -
3:54 - 3:57Bây giờ, tôi nghi ngờ rằng điều này có vẻ
quá xa với nhiều người -
3:57 - 4:04Tôi cá là có một số người đang nghi ngờ
rằng AI siêu thông minh có thể xảy ra, -
4:04 - 4:05ít nhiều không thể tránh khỏi.
-
4:05 - 4:09Nhưng sau đó bạn phải tìm ra điều sai
với một trong các giả định sau. -
4:09 - 4:12Và chỉ có 3 giả định.
-
4:12 - 4:17Trí thông minh là một vấn đề của quá trình
xử lí thông tin trong các hệ thống vật lí. -
4:17 - 4:20Thực ra, điều này hơn một chút
so với giả định. -
4:20 - 4:23Chúng ta đã tạo ra trí thông minh hạn hẹp
trong các cỗ máy của mình rồi, -
4:23 - 4:25Và rất nhiều máy móc cũng đã hoạt động
-
4:25 - 4:29ở mức độ của trí thông minh siêu việt rồi.
-
4:29 - 4:31Và chúng ta biết rằng chỉ có vật chất
-
4:31 - 4:34mới có thể tạo cơ hội cho
"trí thông minh không giới hạn," -
4:34 - 4:38một khả năng suy nghĩ linh hoạt
trên nhiều lĩnh vực, -
4:38 - 4:41bởi vì bộ não chúng ta quản lí nó.
Đúng chứ? -
4:41 - 4:45Ý tôi là, chỉ có các hạt nhân trong đây,
-
4:45 - 4:49và miễn là chúng ta tiếp tục xây dựng
hệ thống các nguyên tử -
4:49 - 4:52để biểu lộ những hành động
thông minh nhiều hơn nữa, -
4:52 - 4:55cuối cùng chúng ta sẽ,
trừ khi chúng ta bị gián đoạn, -
4:55 - 4:58cuối cùng chúng ta sẽ xây dựng được
trí tuệ không giới hạn -
4:58 - 4:59cho máy móc của mình.
-
4:59 - 5:03Cần phải nhận ra rằng
tiến độ không quan trọng. -
5:03 - 5:06bởi vì bất kì quá trình nào cũng đủ
để đưa chúng ta vào khu vực kết thúc. -
5:06 - 5:10Ta không cần định luật Moore để tiếp tục.
Ta không cần phát triển theo cấp số nhân. -
5:10 - 5:13Chúng ta chỉ cần tiếp tục bước đi.
-
5:13 - 5:17Giả định thứ hai là
chúng ta sẽ tiếp tục đi. -
5:17 - 5:21Chúng ta tiếp tục cải tiến
những cỗ máy thông minh của mình. -
5:21 - 5:25Và dựa vào giá trị của trí thông minh --
-
5:25 - 5:29Ý tôi là, trí thông minh hoặc là nguồn gốc
của tất cả mọi thứ chúng ta đánh giá -
5:29 - 5:32hoặc chúng ta cần nó để bảo vệ
tất cả mọi thứ chúng ta coi trọng. -
5:32 - 5:34Nó là tài nguyên quý giá nhất
của chúng ta. -
5:34 - 5:36Vì thế chúng ta muốn làm điều này.
-
5:36 - 5:39Chúng ta có những vần đề nhất định
phải liều mạng giải quyết. -
5:39 - 5:43Chúng ta muốn chữa khỏi các căn bệnh
như Alzheimer hay ung thư. -
5:43 - 5:47Chúng ta muốn nắm vững hệ thống kinh tế.
Chúng ta muốn cải thiện khoa học khí hậu. -
5:47 - 5:49Cho nên chúng ta sẽ làm nó nếu có thể.
-
5:49 - 5:54Tàu đã rời khỏi trạm,
và không thể kéo phanh nữa. -
5:54 - 5:59Và điều cuối: chúng ta không đứng trên
đỉnh cao của trí thông minh, -
5:59 - 6:01hay có thể là chỗ nào đó gần nó.
-
6:01 - 6:04Và điều này thực sự là
cái nhìn sâu sắc quan trọng. -
6:04 - 6:06Đây là thứ làm tình trạng của
chúng ta bất ổn, -
6:06 - 6:10và nó cũng làm trực giác của chúng ta
về rủi ro trở nên không đáng tin. -
6:11 - 6:15Bây giờ hãy xem xét một người
thông minh nhất trên đời. -
6:15 - 6:18Hầu như trong danh sách của các bạn
đều sẽ có tên John von Neumann. -
6:18 - 6:21Ý tôi là, ấn tượng mà von Neumann tạo ra
đối với mọi người xung quanh, -
6:21 - 6:25và nó cũng bao gồm những nhà toán học
và vật lí vĩ đại ở thời của ông ta, -
6:26 - 6:27được lưu truyền khá tốt.
-
6:27 - 6:31Nếu một nửa câu chuyện về ông
chỉ đúng 50%, -
6:31 - 6:32không cần bàn cãi
-
6:33 - 6:35ông là người thông minh nhất
từng sống trên đời. -
6:35 - 6:38Vậy hãy xét về chuỗi phân bố
của trí thông minh. -
6:38 - 6:40Ở đây là John von Neumann.
-
6:42 - 6:43Tiếp theo là các bạn và tôi.
-
6:44 - 6:45Và tiếp là con gà.
-
6:45 - 6:47(Cười)
-
6:47 - 6:49Xin lỗi, một con gà.
-
6:49 - 6:50(Cười)
-
6:50 - 6:54Không lí do gì tôi phải làm buổi
nói chuyện này tệ hại hơn cần thiết. -
6:54 - 6:55(Cười)
-
6:56 - 7:00Tuy nhiên, có vẻ có khả năng rất lớn là
chuỗi phân bố trí thông minh -
7:00 - 7:04mở rộng ra xa hơn nhiều so với
những gì chúng ta tưởng tượng, -
7:04 - 7:07và nếu chúng ta tạo ra
những cỗ máy thông minh hơn mình, -
7:07 - 7:09chúng có thể sẽ khai phá dải phân bố này
-
7:09 - 7:11theo cách ta không thể tưởng tượng,
-
7:11 - 7:15và vượt xa chúng ta theo cách
ta không thể tưởng tượng. -
7:15 - 7:19Và quan trọng là nhận ra rằng điều này
đúng với tính hấp dẫn của sự mau lẹ. -
7:19 - 7:24Đúng chứ? Hãy cứ tưởng tượng nếu ta
tạo ra một AI siêu thông minh -
7:24 - 7:28mà không tài giỏi hơn
nhóm các nhà nghiên cứu trung bình -
7:28 - 7:30ở Stanford hay MIT.
-
7:30 - 7:33Vâng, các mạch điện tử hoạt động
nhanh hơn khoảng một triệu lần -
7:33 - 7:34so với các mạch sinh hóa,
-
7:35 - 7:38nên cỗ máy này có thể suy nghĩ
nhanh hơn khoảng một triệu lần -
7:38 - 7:39so với trí não đã tạo ra nó.
-
7:40 - 7:41Rồi bạn cài đặt nó chạy một tuần,
-
7:41 - 7:46và nó sẽ thực hiện 20.000 năm làm việc
ở trình độ trí tuệ của con người, -
7:46 - 7:50tuần này qua tuần khác.
-
7:50 - 7:53Thậm chí làm sao ta hiểu được,
dù ít nhiều hạn chế, -
7:53 - 7:57một bộ óc thực hiện
kiểu quá trình như vậy? -
7:57 - 7:59Một điều khác thật sự đáng lo lắng,
-
7:59 - 8:04đó là, tưởng tượng ra
một viễn cảnh tốt nhất. -
8:04 - 8:08Nào hãy tưởng tượng chúng ta tìm ra
một thiết kế cho AI siêu thông minh -
8:08 - 8:10mà không có các vấn đề an toàn.
-
8:10 - 8:13Lần đầu tiên chúng ta có được
một bản thiết kế hoàn hảo. -
8:13 - 8:15Nó như thể chúng ta nhận được
một lời tiên tri -
8:15 - 8:17xảy ra chính xác như trong dự định.
-
8:17 - 8:21Vâng, cỗ máy này sẽ là một thiết bị
tuyệt vời giúp tiết kiệm nhân lực. -
8:21 - 8:24Nó có thể thiết kế một cỗ máy
có khả năng tạo ra cỗ máy khác -
8:24 - 8:26thực hiện các công việc thể chất,
-
8:26 - 8:27chạy bằng ánh sáng mặt trời,
-
8:27 - 8:30nhiều hơn hoặc ít hơn cho
các chi phí nguyên liệu. -
8:30 - 8:33Vậy chúng ta đang nói tới sự kết thúc
cho nỗi cực nhọc của con người. -
8:33 - 8:36Chúng ta cũng nói về sự chấm dứt
cho các công việc trí óc. -
8:36 - 8:40Vậy loài khỉ giống chúng ta sẽ làm gì
trong tình huống này? -
8:40 - 8:46Vâng, chúng ta được tự do chơi Frisbee
và nhắn tin với từng người. -
8:46 - 8:49Thêm vài LSD và vài lựa chọn cho
bộ quần áo đáng ngờ, -
8:49 - 8:51và cả thế giới sẽ như ở Burning Man.
-
8:51 - 8:53(Cười)
-
8:54 - 8:57Bây giờ, điều đó có lẽ nghe rất tốt,
-
8:57 - 9:00nhưng thử hỏi bản thân xem
điều gì sẽ xảy ra -
9:00 - 9:02dưới trật tự kinh tế và chính trị
của chúng ta bây giờ? -
9:02 - 9:05Có vẻ là chúng ta sẽ chứng kiến
-
9:05 - 9:09một mức độ phân biệt giàu nghèo
và nạn thất nghiệp -
9:09 - 9:11chưa từng thấy trước đây.
-
9:11 - 9:14Sự thiếu tự nguyện trong việc lập tức
đưa sự giàu có mới này -
9:14 - 9:16vào phục vụ cho toàn nhân loại,
-
9:16 - 9:19một vài "tỷ tỷ phú" đươc vinh danh
trên trang bìa của các tờ tạp chí kinh tế -
9:19 - 9:22trong khi phần còn lại của thế giới
thì chịu cảnh chết đói -
9:22 - 9:24Người Nga và Trung Quốc sẽ làm gì
-
9:24 - 9:27khi họ nghe được tin một số công ty
trong Thung lũng Silicon -
9:27 - 9:30chuẩn bị triển khai
một AI siêu thông minh? -
9:30 - 9:33Cỗ máy này có khả năng sẽ
tiến hành chiến tranh -
9:33 - 9:35dù cho trên mặt đất hay trên mạng,
-
9:35 - 9:38với sức mạnh chưa từng có.
-
9:38 - 9:40Đây là viễn cảnh "thắng làm vua".
-
9:40 - 9:43Dẫn trước sáu tháng trong cuộc đua này
-
9:43 - 9:46tương đương với
bị dẫn trước 500.000 năm, -
9:46 - 9:47ít nhất là vậy.
-
9:47 - 9:52Vì vậy, thậm chí nó có vẻ chỉ là
những tin đồn cho kiểu đột phá như thế -
9:52 - 9:55nhưng cũng đủ khiến loài người cáu tiết.
-
9:55 - 9:58Và giờ, một trong những điều đáng sợ nhất,
-
9:58 - 10:00theo tôi nghĩ ngay tại thời điểm này,
-
10:00 - 10:05chính là những thứ mà
các nhà nghiên cứu về AI nói -
10:05 - 10:07khi họ muốn được yên tâm.
-
10:07 - 10:10Và thời gian là lí do thường nhất cho việc
chúng ta không cần phải lo lắng. -
10:10 - 10:13Các bạn biết không,
đây là một con đường dài. -
10:13 - 10:16Có thể là 50 hay 100 năm nữa.
-
10:16 - 10:17Một nhà nghiên cứu đã nói,
-
10:17 - 10:19"lo lắng về độ an toàn của AI
-
10:19 - 10:22cũng như lo lắng về
bùng nổ dân số trên sao Hỏa." -
10:22 - 10:24Đây là phiên bản của Thung lũng Silicon
-
10:24 - 10:26về việc "đừng làm cái đầu nhỏ
của bạn lo lắng về nó." -
10:26 - 10:27(Cười)
-
10:28 - 10:29Có vẻ chả ai chú ý
-
10:29 - 10:32rằng xem xét trên phạm vi thời gian
-
10:32 - 10:35là hoàn toàn vô căn cứ.
-
10:35 - 10:38Nếu trí thông minh chỉ là một vấn đề
về xử lí thông tin, -
10:38 - 10:41và chúng ta tiếp tục cải tiến các cỗ máy,
-
10:41 - 10:44chúng ta sẽ tạo ra được
vài dạng của siêu trí tuệ. -
10:44 - 10:48Và chúng ta không biết
sẽ tốn bao nhiêu thời gian -
10:48 - 10:52để tạo ra những điều kiện
thực hiện việc này một cách an toàn. -
10:52 - 10:53Tôi xin nhắc lại.
-
10:54 - 10:57Chúng ta không biết
sẽ tốn bao nhiêu thời gian -
10:57 - 11:01để tạo ra những điều kiện
thực hiện việc này một cách an toàn. -
11:01 - 11:04Và nếu bạn chưa nhận ra,
50 năm không còn như xưa -
11:04 - 11:07Đây là 50 năm tính theo nhiều tháng.
-
11:07 - 11:09Đây là thời gian chúng ta tạo ra iPhone.
-
11:09 - 11:12Đây là thời gian "Gia đình Simpson"
được chiếu trên TV. -
11:13 - 11:1550 năm không quá nhiều
-
11:15 - 11:20để thực hiện một trong số những thử thách
lớn nhất mà loài người từng đối mặt. -
11:20 - 11:24Một lần nữa, chúng ta có vẻ không thế
đưa ra một phản ứng cảm xúc phù hợp -
11:24 - 11:26cho thứ mà chúng ta có đủ lí do
để tin rằng nó sẽ xảy ra. -
11:26 - 11:30Nhà khoa học máy tính Stuart Russell
có một phép loại suy rất hay ở đây. -
11:30 - 11:35Ông nói, tưởng tượng chúng ta nhận được
tin nhắn từ nền văn minh ngoài hành tinh, -
11:35 - 11:37ghi rằng:
-
11:37 - 11:39"Loài người trên Trái Đất,
-
11:39 - 11:42Chúng ta sẽ đáp xuống
hành tinh các người trong 50 năm nữa. -
11:42 - 11:43Chuẩn bị đi."
-
11:43 - 11:48Và giờ chúng ta chỉ đếm ngược từng tháng
đến khi phi thuyền mẹ đáp xuống? -
11:48 - 11:52Chúng ta sẽ cảm thấy nhiều cấp bách hơn.
-
11:52 - 11:54Một lí do khác bảo
chúng ta không nên lo lắng -
11:54 - 11:58là các cỗ máy này không làm gì khác
ngoài chia sẻ giá trị với chúng ta -
11:58 - 12:00bởi vì chúng thật sự sẽ là
những phần mở rộng của chúng ta. -
12:00 - 12:02Chúng sẽ được cấy vào não chúng ta,
-
12:02 - 12:05và chúng ta về cơ bản trở thành
hệ thống cảm xúc của chúng. -
12:05 - 12:07Giờ hãy xem xét
-
12:07 - 12:10rằng con đường an toàn và
đầy thận trọng duy nhất phía trước, -
12:10 - 12:11được đề xuất,
-
12:11 - 12:14chính là cấy trực tiếp công nghệ này
vào não chúng ta. -
12:15 - 12:18Hiện giờ nó có lẽ thật sự là con đường
an toàn, thận trọng duy nhất, -
12:18 - 12:21nhưng thường thì mối lo lắng an toàn
của một người về công nghệ -
12:21 - 12:25phải được tính toán khá kĩ càng
trước khi bạn đính nó vào đầu mình. -
12:25 - 12:27(Cười)
-
12:27 - 12:32Vấn đề sâu hơn là xây dựng
một AI siêu thông minh riêng lẻ -
12:32 - 12:34có vẻ dễ dàng hơn
-
12:34 - 12:36là tạo ra một AI siêu thông minh
-
12:36 - 12:38và có được ngành
khoa học thần kinh hoàn chỉnh -
12:38 - 12:41mà cho phép chúng ta chúng ta
tích hợp trí óc của mình và nó. -
12:41 - 12:44Và giả sử các công ty và
các chính phủ làm việc này -
12:44 - 12:48có thể sẽ nhận ra bản thân đang trong
cuộc đua chống lại loài người, -
12:48 - 12:51giả sử rằng thắng cuộc đua này
là có cả thế giới, -
12:51 - 12:53miễn là bạn không hủy diệt nó
vào thời điểm kế tiếp, -
12:53 - 12:56thì nó có vẻ như là bất kể cái gì dễ hơn
-
12:56 - 12:58sẽ được hoàn thành trước.
-
12:59 - 13:01Bây giờ, đáng tiếc là tôi không có
giải pháp cho vấn đề này, -
13:01 - 13:04ngoại trừ đề nghị chúng ta
cần nghĩ về nó nhiều hơn. -
13:04 - 13:06Tôi nghĩ chúng ta cần thứ gì đó
như Manhattan Project -
13:06 - 13:08trong chủ đề về trí thông minh nhân tạo.
-
13:08 - 13:12Không vì để tạo ra nó, bởi tôi nghĩ
chúng ta chắc chắn sẽ làm được, -
13:12 - 13:15mà để hiểu cách ngăn ngừa
cuộc chạy đua vũ trang -
13:15 - 13:18và xây dựng nó theo cách phù hợp
với lợi ích của chúng ta. -
13:18 - 13:20Khi chúng ta nói về AI siêu thông minh
-
13:20 - 13:23có thể tự thay đổi,
-
13:23 - 13:27có vẻ như chúng ta chỉ có một cơ hội
để làm những điều kiện ban đầu đúng đắn, -
13:27 - 13:30và thậm chí sau đó chúng ta
sẽ cần phải ta hứng chịu -
13:30 - 13:34những hậu quả kinh tế chính trị
khi làm nó đúng đắn. -
13:34 - 13:36Nhưng khoảnh khác ta thừa nhận
-
13:36 - 13:41rằng xử lí thông tin là
nguồn gốc của trí thông minh, -
13:41 - 13:46rằng một số hệ thống tính toán phù hợp
là nền tảng cho trí thông minh -
13:46 - 13:51và chúng ta thừa nhận rằng chúng ta
tiếp tục cải tiến những hệ thống này, -
13:51 - 13:56và chúng ta thừa nhận rằng
chân trời của nhận thức có thể rất xa -
13:56 - 13:58so với những gì chúng ta đang biết,
-
13:58 - 13:59thì chúng ta phải công nhận
-
13:59 - 14:03rằng chúng ta đang trong quá trình
tạo ra một loại thánh thần. -
14:03 - 14:05Bây giờ sẽ là thời điểm tốt
-
14:05 - 14:08để chắc chắn rằng nó là thánh thần
mà chúng ta có thể sống chung -
14:08 - 14:10Cảm ơn các bạn rất nhiều.
-
14:10 - 14:15(Vỗ tay)
- Title:
- Ta có thể xây dựng trí thông minh nhân tạo mà không làm mất kiểm soát chúng?
- Speaker:
- Sam Harris
- Description:
-
Lo sợ trước AI siêu thông minh? Theo nhà khoa học thần kinh và triết gia Sam Harris thì bạn nên làm thế - và không chỉ ở một số cách lí thuyết. Chúng ta sẽ xây dựng các máy siêu nhân, Harris nói, nhưng chúng ta chưa vật lộn với những vấn đề liên quan đến việc tạo ra một cái gì đó mà có thể đối xử với chúng ta theo cách chúng ta đối xử với con kiến.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
TED Translators admin approved Vietnamese subtitles for Can we build AI without losing control over it? | |
![]() |
Uyên Võ accepted Vietnamese subtitles for Can we build AI without losing control over it? | |
![]() |
Uyên Võ edited Vietnamese subtitles for Can we build AI without losing control over it? | |
![]() |
Huong Nguyen edited Vietnamese subtitles for Can we build AI without losing control over it? | |
![]() |
Huong Nguyen edited Vietnamese subtitles for Can we build AI without losing control over it? | |
![]() |
Huong Nguyen edited Vietnamese subtitles for Can we build AI without losing control over it? | |
![]() |
Huong Nguyen edited Vietnamese subtitles for Can we build AI without losing control over it? | |
![]() |
Huong Nguyen edited Vietnamese subtitles for Can we build AI without losing control over it? |