Đừng sợ siêu trí tuệ nhân tạo AI
-
0:01 - 0:05Khi còn là đứa trẻ,
tôi là con mọt sách chính hiệu. -
0:05 - 0:07Tôi nghĩ ở đây cũng có các bạn như vậy.
-
0:08 - 0:09(Cười)
-
0:09 - 0:12Và bạn, bạn cười to nhất đó,
chắc đúng bạn rồi. -
0:12 - 0:14(Cười)
-
0:14 - 0:18Tôi lớn lên ở một thị trấn nhỏ
trong vùng đồng bằng bụi bặm bắc Texas, -
0:18 - 0:21ba tôi là cảnh sát trưởng
và ông nội tôi là một mục sư. -
0:21 - 0:23Gây ra rắc rối là không được phép.
-
0:24 - 0:27Và tôi bắt đầu đọc các sách số học
để cho vui. -
0:27 - 0:29(Cười)
-
0:29 - 0:31Bạn cũng vậy chứ.
-
0:31 - 0:34Nó đã đưa tôi đến việc tạo ra thiết bị
laser, máy tính và các tên lửa mô hình, -
0:34 - 0:37và đã dẫn dắt tôi tạo ra
nhiên liệu tên lửa trong phòng ngủ. -
0:38 - 0:42Theo thuật ngữ khoa học mà nói,
-
0:42 - 0:45chúng ta gọi nó là một ý tưởng sai lầm.
-
0:45 - 0:46(Cười)
-
0:46 - 0:48Vào cùng khoảng thời gian đó,
-
0:48 - 0:52Ra mắt bộ phim của Stanley Kubrick
"2001: A Space Odyssey", -
0:52 - 0:54và cuộc đời tôi đã thay đổi từ đó.
-
0:54 - 0:56Tôi yêu mọi thứ của bộ phim đó,
-
0:56 - 0:59đặc biệt là nhân vật HAL 9000.
-
0:59 - 1:01HAL là một máy tính có tri giác
-
1:01 - 1:03được thiết kế để hướng dẫn
phi thuyền Discovery -
1:03 - 1:06từ Trái Đất tới sao Mộc.
-
1:06 - 1:08HAL cũng là một nhân vật có khiếm khuyết,
-
1:08 - 1:12vì cuối cùng anh ấy đã lựa chọn đề cao
nhiệm vụ hơn sự sống con người. -
1:13 - 1:15HAL là một nhân vật viễn tưởng
-
1:15 - 1:18nhưng anh ta vẫn nói lên
nỗi sợ hãi của chúng ta -
1:18 - 1:20nỗi sợ hãi của việc bị thống trị
-
1:20 - 1:23bởi trí tuệ nhân tạo vô cảm
-
1:23 - 1:25không quan tâm đến loài người chúng ta.
-
1:26 - 1:28Tôi tin rằng những nỗi sợ hãi như vậy
là vô căn cứ. -
1:28 - 1:31Thật vậy, chúng ta đang ở
một thời điểm đáng chú ý -
1:31 - 1:33trong lịch sử loài người,
-
1:33 - 1:38nó được thúc đẩy nhờ sự bất mãn với các
giới hạn của cơ thể và trí tuệ chúng ta, -
1:38 - 1:39chúng ta đang tạo ra các cỗ máy
-
1:39 - 1:43tinh vi, phức tạp, xinh đẹp và duyên dáng
-
1:43 - 1:45thứ sẽ mở rộng trải nghiệm
của con người -
1:45 - 1:47theo những cách vượt xa tưởng tượng.
-
1:48 - 1:50Sau quá trinh công tác từ
Học viện không quân -
1:50 - 1:52đến công tác tại Không quân đến nay,
-
1:52 - 1:54tôi đã trở thành một kỹ sư hệ thống
-
1:54 - 1:57và gần đây tôi được tham gia vào
một vấn đề kỹ thuật -
1:57 - 1:59hỗ trợ cho nhiệm vụ đến sao Hỏa của NASA.
-
1:59 - 2:02Trong các chuyến bay
đến Mặt trăng, -
2:02 - 2:05chúng ta có thể dựa trên hệ thống
điều khiển nhiệm vụ ở Houston -
2:05 - 2:07để quan sát mọi khía cạnh của chuyến bay.
-
2:07 - 2:11Tuy nhiên, sao Hỏa thì xa hơn đến 200 lần
-
2:11 - 2:14và như vậy trung bình phải cần 13 phút
-
2:14 - 2:17để một tín hiệu đi
từ Trái đất đến sao Hỏa. -
2:17 - 2:20Nếu có trục trặc, sẽ không đủ thời gian.
-
2:21 - 2:23Và do vậy một giải pháp kỹ thuật hợp lý
-
2:23 - 2:26đặt ra là cần phải đặt
thiết bị điều khiển nhiệm vụ -
2:26 - 2:29ngay bên trong phi thuyền Orion
-
2:29 - 2:32Một ý tưởng hấp dẫn khác
trong hồ sơ nhiệm vụ -
2:32 - 2:35là đưa các robot giống người
lên bề mặt sao Hỏa -
2:35 - 2:37trước khi con người đặt chân đến,
-
2:37 - 2:38đầu tiên để xây dựng cơ sở hạ tầng
-
2:38 - 2:42và sau đó để phục vụ các thành viên
cộng tác của đội ngũ khoa học. -
2:43 - 2:46Khi tôi xem xét nó dưới góc độ kỹ thuật,
-
2:46 - 2:49thì thấy rõ ràng cái mà chúng ta cần
tạo ra -
2:49 - 2:52là một trí tuệ nhân tạo hiểu biết xã hội
-
2:52 - 2:54thông minh, dễ cộng tác.
-
2:54 - 2:58Nói cách khác, tôi cần tạo ra một thứ
rất giống với một HAL -
2:58 - 3:01nhưng không có khuynh hướng giết người.
-
3:01 - 3:02(Cười)
-
3:03 - 3:05Chúng ta hãy dừng lại trong giây lát.
-
3:05 - 3:09Thực sự chúng ta có thể tạo ra
một trí tuệ nhân tạo như vậy không? -
3:09 - 3:10Thực ra là có thể.
-
3:10 - 3:11Theo nhiều cách,
-
3:11 - 3:13đây là một vấn đề khó khăn về kỹ thuật
-
3:13 - 3:15có liên quan đến AI,
-
3:15 - 3:19chứ không phải một vấn đề lộn xộn về AI
cần được giải quyết. -
3:19 - 3:22Để diễn đạt lại theo ý của Alan Turing,
-
3:22 - 3:25tôi không hứng thú tạo ra
một cỗ máy có tri giác. -
3:25 - 3:26Tôi không tạo ra một HAL.
-
3:26 - 3:29Cái tôi làm là tạo ra một bộ não đơn giản
-
3:29 - 3:32mà có thể đem đến ảo giác của trí tuệ.
-
3:33 - 3:36Nghệ thuật và khoa học điện toán đã
đi được một đoạn đường dài -
3:36 - 3:38kể từ khi HAL trên sóng,
-
3:38 - 3:41và tôi tưởng tượng nếu cha đẻ của
anh ta, Dr. Chandra, ở đây hôm nay, -
3:41 - 3:43ông ấy sẽ có một loạt câu hỏi
cho chúng ta. -
3:43 - 3:45Chúng ta có thể
-
3:45 - 3:49sử dụng một hệ thống gồm hàng triệu
triệu thiết bị, -
3:49 - 3:51để nhập các luồng dữ liệu,
-
3:51 - 3:53để dự đoán các thất bại và
có hành động trước không? -
3:53 - 3:54Vâng, có thể.
-
3:54 - 3:58Ta tạo ra được các hệ thống
giao tiếp bằng ngôn ngữ tự nhiên không? -
3:58 - 3:58Được.
-
3:58 - 4:02Ta tạo ra được các hệ thống
nhận diện vật thể, xác định cảm xúc, -
4:02 - 4:05tự biểu hiện cảm xúc, chơi trò chơi
và thậm chí đọc khẩu hình không? -
4:05 - 4:06Được.
-
4:06 - 4:09Ta tạo ra được hệ thống
tự lập mục tiêu, -
4:09 - 4:12xây dựng kế hoạch lệch với mục tiêu đó
và học hỏi từ quá trình trên không? -
4:12 - 4:13Được
-
4:13 - 4:17Chúng ta có thể tạo ra các hệ thống
có khả năng nhận thức tư duy không? -
4:17 - 4:18Cái này chúng ta đang học.
-
4:18 - 4:22Chúng ta có thể tạo ra các hệ thống
có nền tảng đạo đức và luân lý không? -
4:22 - 4:25Cái này chúng ta phải học cách làm.
-
4:25 - 4:27Vậy chúng ta hãy tạm chấp nhận
-
4:27 - 4:30rằng có thể tạo ra một hệ thống
trí tuệ nhân tạo như vậy -
4:30 - 4:32cho kiểu nhiệm vụ này và cả các loại khác.
-
4:32 - 4:34Câu hỏi tiếp theo mà bạn phải tự hỏi là,
-
4:34 - 4:36chúng ta có nên sợ nó?
-
4:36 - 4:38Thực chất, mọi công nghệ mới
-
4:38 - 4:41đều đem đến sự lo lắng ở mức độ nào đó.
-
4:41 - 4:42Khi chúng ta thấy xe hơi lần đầu,
-
4:42 - 4:47người ta đã than phiền rằng nó sẽ
hủy hoại gia đình. -
4:47 - 4:49Khi điện thoại lần đầu xuất hiện,
-
4:49 - 4:52người ta đã lo lắng nó sẽ hủy hoại
việc giao lưu trò chuyện. -
4:52 - 4:56Đã có lúc khi chữ viết trở nên phổ biến,
-
4:56 - 4:59người ta đã nghĩ
chúng ta sẽ mất khả năng ghi nhớ. -
4:59 - 5:01Tất cả lo sợ đó đều đúng ở mức độ nào đó,
-
5:01 - 5:03nhưng những công nghệ này cũng
-
5:03 - 5:07mang đến chúng ta những thứ
đã mở rộng trải nghiệm của con người -
5:07 - 5:08một cách sâu sắc.
-
5:10 - 5:12Chúng ta hãy nói thêm về nó một chút.
-
5:13 - 5:18Tôi không sợ việc một AI như vậy
được tạo ra, -
5:18 - 5:22bởi vì cuối cùng nó vẫn sẽ là hiện thân
một số giá trị của chúng ta. -
5:22 - 5:25Hãy nghĩ thế này: xây dựng một hệ thống
có nhận thức về cơ bản là khác với -
5:25 - 5:29xây dựng một hệ thống phần mềm chuyên sâu
truyền thống như trước đây. -
5:29 - 5:31Ta không lập trình nó. Ta dạy nó.
-
5:31 - 5:34Để dạy một hệ thống nhận biết
các bông hoa, -
5:34 - 5:37Tôi cho nó xem hàng nghìn bông hoa
thuộc những loại tôi thích. -
5:37 - 5:39Để dạy một hệ thống cách chơi trò chơi--
-
5:39 - 5:41Vâng, tôi sẽ làm thế. Bạn cũng sẽ thôi.
-
5:43 - 5:45Tôi thích hoa mà. Nào mọi người.
-
5:45 - 5:48Để dạy một hệ thống chơi game
như Go chẳng hạn, -
5:48 - 5:50Tôi sẽ cho nó chơi hàng nghìn ván Go,
-
5:50 - 5:52trong quá trình đó tôi cũng dạy nó
-
5:52 - 5:54cách phân biệt
ván chơi hay và ván chơi dở. -
5:55 - 5:58Nếu tôi muốn tạo ra một trợ lý pháp lý
thông minh nhân tạo, -
5:58 - 6:00Tôi sẽ dạy nó một số tập sách luật
-
6:00 - 6:03nhưng đồng thời tôi sẽ lồng ghép vào đó
-
6:03 - 6:06ý thức về lòng thương người và công lý
là một phần của luật. -
6:07 - 6:09Theo thuật ngữ khoa học,
ta gọi nó là sự thật nền móng, -
6:09 - 6:12và đây là điểm quan trọng:
-
6:12 - 6:13khi sản xuất các cỗ máy này,
-
6:13 - 6:16chúng ta đang dạy chúng ý thức
về các giá trị của chúng ta. -
6:17 - 6:20Do vậy, tôi tin tưởng vào
một trí tuệ nhân tạo -
6:20 - 6:23bằng với, nếu không muốn nói hơn cả,
một con người được giáo dục tốt. -
6:24 - 6:25Nhưng bạn có thể sẽ hỏi,
-
6:25 - 6:28thế còn các tổ chức biến tướng thì sao,
-
6:28 - 6:31một tổ chức phi chính phủ
lắm tiền nào đấy chẳng hạn? -
6:31 - 6:35Tôi không sợ một trí tuệ nhân tạo
trong tay một kẻ đơn độc. -
6:35 - 6:40Rõ ràng, chúng ta không thể bảo vệ mình
trước những hành động bạo lực bất ngờ, -
6:40 - 6:42nhưng trong thực tế một hệ thống như vậy
-
6:42 - 6:45yêu cầu sự đào tạo cơ bản
và đào tạo tinh vi -
6:45 - 6:47vượt xa các nguồn lực của một cá nhân.
-
6:47 - 6:49Và hơn nữa,
-
6:49 - 6:52nó không giống như việc phát tán
virus qua mạng ra khắp thế giới, -
6:52 - 6:55kiểu bạn chỉ ấn một phím,
nó đã lan ra một triệu vị trí -
6:55 - 6:57và laptop bắt đầu nổ tanh bành
khắp mọi nơi. -
6:57 - 7:00Những chuyện thế này lớn hơn rất nhiều,
-
7:00 - 7:02và chắc chắn ta
sẽ dự đoán trước được. -
7:03 - 7:06Tôi có sợ rằng
một trí tuệ nhân tạo như vậy -
7:06 - 7:08có thể đe dọa toàn nhân loại hay không?
-
7:08 - 7:13Nếu bạn nhìn vào các bộ phim
như "The Matrix," "Metropolis," -
7:13 - 7:16"The Terminator,"
các chương trình như "Westworld," -
7:16 - 7:18chúng đều nói về nỗi sợ hãi này.
-
7:18 - 7:22Thực vậy, trong cuốn "Siêu trí tuệ"
của triết gia Nick Bostrom, -
7:22 - 7:24ông đề cập đến chủ đề này
-
7:24 - 7:28và nhận ra rằng một siêu trí tuệ
có thể không chỉ nguy hiểm, -
7:28 - 7:32mà còn có thể đại diện cho một
mối đe dọa sống còn với toàn nhân loại. -
7:32 - 7:34Lý lẽ chủ yếu của Dr. Bostrom
-
7:34 - 7:37là các hệ thống như vậy cuối cùng sẽ
-
7:37 - 7:40có một cơn khát thông tin vô độ;
-
7:40 - 7:43là chúng có lẽ sẽ học cách để học
-
7:43 - 7:46và cuối cùng khám phá ra rằng
chúng có các mục tiêu -
7:46 - 7:48trái ngược với nhu cầu con người.
-
7:48 - 7:50Có một số người ủng hộ Dr. Bostrom.
-
7:50 - 7:54Ông ấy được ủng hộ bởi những người như
Elon Musk và Stephen Hawking. -
7:55 - 7:57Dù rất kính trọng
-
7:58 - 8:00những bộ óc lỗi lạc này,
-
8:00 - 8:02tôi tin rằng họ về căn bản đều sai.
-
8:02 - 8:06Có rất nhiều lý lẽ của
Dr. Bostrom cần được mổ xẻ -
8:06 - 8:08và tôi không có thời gian để mổ xẻ tất cả,
-
8:08 - 8:11nhưng rất ngắn gọn, hãy nghĩ thế này:
-
8:11 - 8:14biết nhiều khác với làm nhiều.
-
8:14 - 8:16HAL là một mối đe dọa với tàu Discovery
-
8:16 - 8:21chỉ trong điều kiện HAL được chỉ huy
toàn bộ tàu Discovery. -
8:21 - 8:23Nghĩa là chúng ta xét về một siêu trí tuệ.
-
8:23 - 8:26Nó sẽ phải có quyền chi phối
toàn thế giới chúng ta. -
8:26 - 8:29Đây là trường hợp của Skynet
trong phim "The Terminator" -
8:29 - 8:30trong đó chúng ta có một siêu trí tuệ
-
8:30 - 8:32có thể chỉ huy ý chí con người,
-
8:32 - 8:36điều khiển mọi thiết bị
ở mọi ngõ ngách của thể giới. -
8:36 - 8:37Thực tế mà nói,
-
8:37 - 8:39điều đó sẽ không xảy ra.
-
8:39 - 8:42Chúng ta sẽ không tạo ra các AI
kiểm soát được thời tiết, -
8:42 - 8:44điều khiển được thủy triều,
-
8:44 - 8:47hay chỉ huy được loài người
lộn xộn thất thường chúng ta. -
8:47 - 8:51Và hơn nữa,
nếu một trí tuệ nhân tạo như vậy tồn tại, -
8:51 - 8:54nó sẽ phải cạnh tranh
với nền kinh tế nhân loại, -
8:54 - 8:57và từ đó cạnh tranh với chúng ta
giành các nguồn lực. -
8:57 - 8:58Và cuối cùng thì --
-
8:58 - 9:00đừng nói với Siri nhé --
-
9:00 - 9:02ta luôn có thể rút dây điện.
-
9:02 - 9:04(Cười)
-
9:05 - 9:08Chúng ta đang ở trên
một hành trình khó tin -
9:08 - 9:10cùng tiến hóa với các cỗ máy của mình.
-
9:10 - 9:13Loài người chúng ta hôm nay
-
9:13 - 9:15sẽ không phải là
loài người chúng ta sau này. -
9:15 - 9:19Lo lắng lúc này về sự phát triển
của một siêu trí tuệ -
9:19 - 9:22theo nhiều cách
là một sự phân tâm nguy hiểm -
9:22 - 9:24bởi vì sự phát triển của điện toán tự nó
-
9:24 - 9:27cũng đã đem đến nhiều vấn đề
về con người và xã hội -
9:27 - 9:29mà chúng ta giờ đây phải chú ý tới.
-
9:29 - 9:32Chúng ta sẽ tổ chức xã hội
một cách tốt nhất như thế nào -
9:32 - 9:35khi nhu cầu về
sức lao động con người giảm đi? -
9:35 - 9:38Làm thế nào tôi có thể đem sự hiểu biết
và giáo dục đi khắp thế giới -
9:38 - 9:40và vẫn tôn trọng sự khác biệt?
-
9:40 - 9:44Làm sao tôi có thể mở rộng và nâng cao đời
sống qua chăm sóc sức khỏe có nhận thức? -
9:44 - 9:47Tôi có thể sử dụng điện toán như thế nào
-
9:47 - 9:49để giúp đưa người lên các vì sao?
-
9:50 - 9:52Và đó là điều thú vị.
-
9:52 - 9:55Các cơ hội sử dụng điện toán
-
9:55 - 9:56để nâng cao trải nghiệm
-
9:56 - 9:58đang trong tầm tay chúng ta,
-
9:58 - 10:00ở đây và bây giờ,
-
10:00 - 10:01và chúng ta chỉ vừa bắt đầu.
-
10:02 - 10:03Xin cám ơn rất nhiều.
-
10:04 - 10:08(Vỗ tay)
- Title:
- Đừng sợ siêu trí tuệ nhân tạo AI
- Speaker:
- Grady Booch
- Description:
-
Công nghệ mới sinh ra các lo lắng mới, theo nhà triết học và khoa học Grady Booch, nhưng chúng ta không cần sợ một trí tuệ nhân tạo vô cảm, đầy sức mạnh. Booch làm dịu bớt những nỗi sợ hãi về các máy tính siêu trí tuệ bằng việc giải thích cách chúng ta dạy, không phải lập trình, chúng để chia sẽ các giá trị của mình. Thay vì lo lắng về một mối đe dọa gần như không tồn tại, ông ấy giục chúng ta xem xét cách tri tuệ nhân tạo sẽ nâng cao đời sống con người.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Ai Van Tran edited Vietnamese subtitles for Don't fear superintelligent AI | ||
Vy Chu accepted Vietnamese subtitles for Don't fear superintelligent AI | ||
Vy Chu edited Vietnamese subtitles for Don't fear superintelligent AI | ||
Thuy Nguyen Thanh edited Vietnamese subtitles for Don't fear superintelligent AI | ||
Thuy Nguyen Thanh edited Vietnamese subtitles for Don't fear superintelligent AI | ||
Thuy Nguyen Thanh edited Vietnamese subtitles for Don't fear superintelligent AI | ||
Thuy Nguyen Thanh edited Vietnamese subtitles for Don't fear superintelligent AI | ||
Thuy Nguyen Thanh edited Vietnamese subtitles for Don't fear superintelligent AI |