Làm sao để có được sức mạnh mà không bị áp đảo bởi trí tuệ nhân tạo
-
0:01 - 0:05Sau 13.8 tỉ năm lịch sử vũ trụ,
-
0:05 - 0:07vũ trụ của chúng ta đã tỉnh dậy,
-
0:07 - 0:09và bắt đầu tự nhận thức.
-
0:09 - 0:11Từ một hành tinh xanh nhỏ bé,
-
0:11 - 0:16nơi có nhận thức của thế giới bao la đã
bắt đầu nhìn ra bên ngoài hành tinh của họ -
0:16 - 0:17bằng kính viễn vọng,
-
0:17 - 0:18để khám phá những điều nhỏ bé.
-
0:19 - 0:22Ta phát hiện ra rằng
vũ trụ này rộng lớn hơn rất nhiều -
0:22 - 0:24so với tổ tiên tưởng tượng
-
0:24 - 0:28và cuộc sống dường như là một sự xáo trộn
mà chúng ta đều không thể nhận thấy được -
0:28 - 0:30trên một hành tinh chết khác.
-
0:30 - 0:33Nhưng ta cũng khám phá ra một điều
vô cùng hấp dẫn, -
0:33 - 0:36đó là nền công nghệ đang được phát triển
mang lại tiềm năng -
0:36 - 0:39nâng cao cuộc sống hơn bao giờ hết,
-
0:39 - 0:42không chỉ trong một vài thế kỉ
mà trong hàng triệu năm lịch sử, -
0:42 - 0:46không chỉ trên trái đất này
mà còn rộng mở cho cả vũ trụ vĩ đại này. -
0:48 - 0:51Tôi nghĩ cuộc sống sơ khai nhất
là "Cuộc sống phiên bản 1.0" -
0:51 - 0:52bởi vì nó không có trí tuệ,
-
0:52 - 0:57như vi khuẩn, không có khả năng tiếp thu
được cái gì trong suốt quãng đời của nó. -
0:57 - 1:00Còn loài người là "Cuộc sống bản 2.0"
vì chúng ta có thể học, -
1:00 - 1:02giao tiếp,
-
1:02 - 1:05lại còn nghĩ tới việc
cài một phần mềm vào trong não, -
1:05 - 1:07để biết thêm ngôn ngữ
hoặc kỹ năng khác. -
1:08 - 1:12"Cuộc sống bản 3.0", không những thiết kế
được 'phần mềm' mà còn 'phần cứng' của nó -
1:12 - 1:14chắc chắn là chưa xuất hiện.
-
1:14 - 1:17Nhưng có lẽ, với nền công nghệ hiện tại,
ta đã nâng cấp lên phiên bản 2.1, -
1:17 - 1:22đầu gối nhân tạo, máy điều hòa nhịp tim
và cả những con ốc điện tử. -
1:22 - 1:26Vì vậy, hãy nhìn kỹ hơn sự liên kết
của chúng ta với nền công nghệ, -
1:27 - 1:28Ví dụ,
-
1:28 - 1:33tàu vũ trụ Apollo 11 đã khám phá mặt trăng
rất thành công và truyền cảm hứng, -
1:33 - 1:36chứng tỏ rằng khi ta biết cách
sử dụng công nghệ khéo léo, -
1:36 - 1:40chúng ta có thể đạt tới những điều
mà tổ tiên chỉ biết mơ tới. -
1:40 - 1:43Nhưng còn một chuyến hành trình vĩ đại hơn
-
1:43 - 1:46được phóng lên bởi cái gì đó
mạnh hơn cả hệ thống tên lửa, -
1:47 - 1:50nơi mà hành khách không chỉ có
duy nhất 3 phi hành gia -
1:50 - 1:51mà là cả một nhân loại.
-
1:51 - 1:54Hãy nói về chuyến hành trình
của chúng ta trong tương lai -
1:54 - 1:56với trí tuệ nhân tạo.
-
1:57 - 2:01Bạn của tôi, Jaan Tallinn chỉ ra rằng
nếu chỉ với mỗi nền công nghệ tên lửa, -
2:02 - 2:05thì có lẽ khó để biến công nghệ
trở nên mạnh mẽ hơn. -
2:06 - 2:09Chúng ta cũng sẽ phải tìm ra,
nếu chúng ta thực sự khát vọng, -
2:09 - 2:10cách để điều khiển nó
-
2:10 - 2:12và ta muốn đi tới đâu cùng nó.
-
2:13 - 2:16Hãy nói về 3 điều của trí tuệ nhân tạo:
-
2:16 - 2:19sức mạnh, sự chỉ đạo và đích đến.
-
2:20 - 2:21Cùng bắt đầu với sức mạnh.
-
2:22 - 2:25Tôi định nghĩ trí tuệ rất là bao hàm--
-
2:25 - 2:29đơn giản như khả năng hoàn thành
các mục tiêu phức tạp của chúng ta, -
2:29 - 2:33vì tôi muốn bao gồm
cả trí tuệ sinh học và trí tuệ nhân tạo. -
2:33 - 2:37Tôi muốn tránh cái ý tưởng ngớ ngẩn
về sự tôn vinh carbon -
2:37 - 2:40do đó bạn chỉ có thể thông minh
khi bạn được tạo nên từ thịt. -
2:41 - 2:45Thật tuyệt vời khi nói về AI đã phát triển
như thế nào trong thời gian gần đây. -
2:45 - 2:46Cùng suy nghĩ về nó.
-
2:46 - 2:50Cách đây không lâu,
robots không thể đi được. -
2:51 - 2:53Còn bây giờ, nó có thể nhào lộn.
-
2:54 - 2:56Cách đây không lâu,
-
2:56 - 2:58chúng ta chưa hề có xe ô tô tự động.
-
2:59 - 3:01và bây giờ, ta đã có tên lửa tự động.
-
3:04 - 3:05Cách đây không lâu,
-
3:05 - 3:08AI không thể nhận diện được mặt con người.
-
3:08 - 3:11Bây giờ, AI có thể tạo ra khuôn mặt giả
-
3:11 - 3:15và mô phỏng khuôn mặt của bạn
nói những điều mà bạn chưa bao giờ nói. -
3:16 - 3:18Cách đây không lâu,
-
3:18 - 3:20AI không thể thắng ta trong trò cờ vây.
-
3:20 - 3:25Và rồi, AI của Google DeepMind's AlphaZero
lấy trọn 3000 năm luyện tập của con người -
3:26 - 3:27và cả những chiến thuật,
-
3:27 - 3:32bỏ qua những điều đó, nó trở thành đối thủ
nặng ký nhất kể cả khi chơi với chính nó. -
3:32 - 3:35Điều ấn tượng nhất không phải là
nó đã đánh bại người chơi như thế nào, -
3:36 - 3:38mà là nó đã hạ gục cả những
người nghiên cứu ra nó -
3:38 - 3:42người đã dành hàng chục năm
để tạo ra những phần mềm chơi trò chơi. -
3:42 - 3:47Và AlphaZero hạ gục các nhà nghiên cứu
không chỉ mỗi cờ vây mà còn cả cờ vua, -
3:47 - 3:49bộ môn mà ta đã thành thạo từ năm 1950.
-
3:50 - 3:54Chính những thành tựu tuyệt vời gần đây
của AI, đã dấy lên một câu hỏi: -
3:55 - 3:57Nó sẽ có thể tiến bộ tới đâu?
-
3:58 - 3:59Tôi thích nghĩ tới câu hỏi này
-
4:00 - 4:02bằng các khái niệm trừu tượng
của nhiệm vụ, -
4:03 - 4:06nơi mà các cấp bậc thể hiện sự
khó khăn để AI hoàn thành một nhiệm vụ -
4:06 - 4:07ở cấp độ con người,
-
4:07 - 4:10và mực nước biển thể hiện những gì
mà AI có thể làm ngày nay. -
4:11 - 4:13Mực nước biển tăng lên
chỉ sự cải thiện của AI, -
4:13 - 4:17vì vậy hiện tượng nóng lên toàn cầu xảy ra
trong cảnh quan nhiệm vụ. -
4:18 - 4:21Và điều hiển nhiên là
tránh những công việc tại bờ sông -- -
4:21 - 4:23(Cười)
-
4:23 - 4:26nơi mà nó sẽ bị phá huỷ sớm.
-
4:26 - 4:29Nhưng còn có một câu hỏi lớn hơn thế nữa
-
4:29 - 4:30Mực nước sẽ dâng cao tới đâu?
-
4:31 - 4:35Liệu nó sẽ nhấn chìm mọi thứ,
-
4:36 - 4:38đấu trí với con người ở mọi lĩnh vực.
-
4:38 - 4:42Đây là định nghĩa của trí tuệ nhân tạo --
-
4:42 - 4:43AGI,
-
4:43 - 4:47giao thức mạng thần thánh của AI
từ điểm khởi đầu. -
4:47 - 4:49Với định nghĩa này, những người nói
-
4:49 - 4:52"À, chắc chắn sẽ có việc
mà con người làm tốt hơn máy móc", -
4:52 - 4:55đơn giản nói rằng chúng ta sẽ
không bao giờ có được AGI. -
4:56 - 4:59Chắc chắn, chúng ta vẫn có thể chọn
những công việc của con người -
4:59 - 5:02hoặc là đưa thu nhập và mục tiêu
với công việc của chúng ta, -
5:02 - 5:06nhưng AGI trong mọi trường hợp
sẽ chuyển đổi cuộc sống như ta đã biết -
5:06 - 5:09cái lúc mà con người đã không còn
thông minh nhất nữa. -
5:09 - 5:13Bây giờ, nếu mực nước chạm tới AGI,
-
5:13 - 5:18thì sau này, AI sẽ được vận hành
bởi chính nó thay vì con người, -
5:18 - 5:20nghĩa là có khả năng rằng
-
5:20 - 5:22các AI trong tương lai
sẽ còn phát triển nhanh hơn -
5:22 - 5:26cả những nghiên cứu điển hình
mà loài người đã phát triển bao lâu nay, -
5:26 - 5:30dấy lên tranh cãi
về sự bùng nổ của trí thông minh -
5:30 - 5:32nơi mà quá trình tự hoàn thiện của AI
-
5:32 - 5:35đã nhanh chóng bỏ xa
trí thông minh của con người ở phía sau, -
5:35 - 5:38được biết đến như siêu thông minh.
-
5:40 - 5:42Được rồi, cùng kiểm chứng trong thực tế:
-
5:43 - 5:46Liệu chúng ta sẽ đạt được AGI sớm?
-
5:46 - 5:49Một số nhà nghiên cứu về AI nổi tiếng,
như Rodney Brooks, -
5:49 - 5:52nghĩ điều đó sẽ không xảy ra
trong hàng trăm năm nữa. -
5:52 - 5:55Thế nhưng, nhà sáng lập
Google DeedMind Demis Hassabis, -
5:56 - 5:57lại lạc quan hơn
-
5:57 - 5:59và đang làm việc để
rút ngắn khoảng thời gian này. -
5:59 - 6:03Các khảo sát gần đây cho thấy
rằng đa số các nhà nghiên cứu AI -
6:03 - 6:06thực sự đồng ý
với ý tưởng lạc quan của Demis, -
6:06 - 6:09hy vọng rằng chúng ta có thể đạt đến AGI
chỉ trong vòng vài chục năm tới, -
6:10 - 6:12vì vậy trong cuộc đời của chúng ta,
-
6:12 - 6:14sẽ hỏi rằng-- sau đó sẽ như thế nào?
-
6:15 - 6:17Ta muốn vai trò của loài người sẽ là gì
-
6:17 - 6:20nếu máy móc lại có thể làm mọi thứ
tốt và rẻ hơn chúng ta? -
6:22 - 6:25Với cách nhìn nhận này,
chúng ta đối mặt với một lựa chọn. -
6:26 - 6:28Một lựa chọn là tự mãn.
-
6:28 - 6:31Ta có thể nói rằng, "Ok, hãy xây những
máy móc có thể làm mọi thứ chúng ta làm -
6:31 - 6:33và không cần lo về hậu quả của nó.
-
6:33 - 6:36Nào, nếu ta xây dựng nền công nghệ
khiến loài người trở nên lỗi thời, -
6:37 - 6:39thì hình như có điều gì đó hơi sai ở đây?"
-
6:39 - 6:40(Cười)
-
6:40 - 6:43Tôi nghĩ điều đó sẽ rất xấu hổ.
-
6:44 - 6:48Tôi nghĩ chúng ta nên tham vọng hơn nữa --
theo tinh thần của TED. -
6:48 - 6:51Hãy thử hình dung một cảm hứng thực sự
trong ngành công nghệ cao tương lai -
6:51 - 6:53và cố gắng định hướng nó.
-
6:54 - 6:57Điều này đưa chúng ta tới phép ẩn dụ
về tên lửa thứ hai: sự định hướng. -
6:57 - 6:59Ta làm cho AI
ngày càng hùng mạnh hơn, -
6:59 - 7:03nhưng làm sao chúng ta có thể định hướng
được tương lai -
7:03 - 7:06khi mà AI giúp loài người hưng thịnh
thay vì chật vật khổ sở? -
7:06 - 7:07Để giải quyết vấn đề này,
-
7:07 - 7:10tôi đã đồng sáng lập
Viện Cuộc sống Tương lai. -
7:10 - 7:12Đó là một tổ chức phi lợi nhuận nhỏ
áp dụng công nghệ có ích, -
7:12 - 7:16mục tiêu của chúng tôi chỉ đơn giản
là để hiện thực hóa cuộc sống tương lai -
7:16 - 7:18và trở thành nguồn cảm hứng.
-
7:18 - 7:21Các bạn biết đấy, tôi yêu thích công nghệ.
-
7:21 - 7:24Công nghệ là lý do cuộc sống ngày nay
vượt xa Thời Đồ đá. -
7:25 - 7:29Và tôi lạc quan rằng chúng ta có thể tạo
ra cảm hứng cho công nghệ cao tương lai... -
7:29 - 7:31nếu -- và đây là
một cái nếu quan trọng -- -
7:31 - 7:34nếu ta chiến thắng
trong cuộc đua về sự hiểu biết -- -
7:34 - 7:36cuộc đua giữa sự phát triển
công nghệ của chúng ta -
7:37 - 7:39và sự hiểu biết nằm trong
sự kiểm soát của chúng ta. -
7:39 - 7:42Nhưng điều này đòi hỏi sự thay đổi
trong phương pháp -
7:42 - 7:45bởi các phương pháp cũ được học hỏi
từ những sai lầm. -
7:45 - 7:47Chúng ta đã phát minh ra lửa,
-
7:47 - 7:48lửa đã tàn phá nhiều lần --
-
7:48 - 7:50từ đó phát minh ra bình cứu hỏa.
-
7:50 - 7:51(Cười)
-
7:51 - 7:54Chúng ta đã phát minh ra xe hơi,
gây ra sự tàn phá nhiều lần -- -
7:54 - 7:57từ đó phát minh ra đèn giao thông,
dây an toàn và túi khí -
7:57 - 8:01nhưng với công nghệ càng mạnh mẽ hơn
như vũ khí hạt nhân và AGI, -
8:01 - 8:04học hỏi từ những sai lầm đó là
một phương pháp tồi, -
8:04 - 8:05bạn có nghĩ thế không?
-
8:05 - 8:06(Cười)
-
8:06 - 8:09Sự chủ động luôn tốt hơn nhiều
so với sự bị động; -
8:09 - 8:11lên kế hoạch trước và làm đúng
ngay từ đầu -
8:11 - 8:14bởi vì đó có thể là cơ hội
duy nhất chúng ta có. -
8:14 - 8:16Điều đó cũng khá vui vì
đôi khi mọi người bảo tôi rằng, -
8:16 - 8:19"Max, suỵt, đừng nói như vậy.
-
8:19 - 8:21Như kiểu Luddite đang phao tin vậy."
-
8:22 - 8:24Nhưng đó không phải là tin đồn nhảm nhí.
-
8:24 - 8:26Đây là thứ chúng tôi gọi
là an toàn kỹ thuật tại MIT. -
8:27 - 8:28Hãy nghĩ về điều này:
-
8:28 - 8:31trước khi NASA phóng tàu Apollo 11,
-
8:31 - 8:34họ đã suy nghĩ một cách có hệ thống
rằng mọi thứ có thể sai -
8:34 - 8:36khi bạn đặt con người trên
thùng chứa nhiên liệu nổ -
8:36 - 8:39và đưa họ tới đâu đó,
nơi không ai có thể giúp họ. -
8:39 - 8:41Và có hàng tá điều có thể sai lầm.
-
8:41 - 8:42Đó có phải là
tin đồn nhảm không? -
8:43 - 8:44Không.
-
8:44 - 8:46Đó chính xác là kỹ thuật an toàn
-
8:46 - 8:48nhằm đảm bảo nhiệm vụ thành công,
-
8:48 - 8:52và đó chính xác là mục đích
mà tôi nghĩ ta nên sử dụng AGI. -
8:52 - 8:57Nghĩ thấu "điều gì có thể sai lệch"
để chắc chắn nó đi đúng hướng. -
8:57 - 8:59Nên với tinh thần này,
chúng tôi tổ chức các hội thảo, -
8:59 - 9:02kết nối các nhà nghiên cứu AI
và học giả hàng đầu -
9:02 - 9:06để thảo luận cách phát triển sự thông minh
này ta cần giữ cho AI có ích. -
9:06 - 9:09Hội thảo gần đây nhất của chúng tôi
ở Asilomar, California năm ngoái -
9:09 - 9:12đã đưa ra danh sách này
với 23 quy ước -
9:12 - 9:15được kí tên bởi
hơn 1000 nhà nghiên cứu AI -
9:15 - 9:16và các nhà lãnh đạo
kinh tế chủ chốt, -
9:16 - 9:20Tôi muốn nói với bạn về 3
trong số các nguyên tắc này. -
9:20 - 9:25Một là chúng ta nên tránh chạy đua
vũ trang và vũ khí tự hủy diệt. -
9:25 - 9:29Ý tưởng là sản phẩm khoa học nào cũng được
sử dụng như cách mới để giúp đỡ con người -
9:29 - 9:31hoặc là làm hại con người.
-
9:31 - 9:35Ví dụ, sinh học và hóa học
đang được sử dụng nhiều -
9:35 - 9:39cho nghiên cứu thuốc mới, cách
chữa bệnh mới hơn là giết người. -
9:40 - 9:42vì các nhà sinh hóa học
đã làm việc tích cực -
9:42 - 9:43và thành công
-
9:43 - 9:45khi cấm các loại vũ khí
sinh học và hóa học. -
9:45 - 9:46Và trên tinh thần này,
-
9:46 - 9:51đa số các nhà nghiên cứu AI muốn lên án
và cấm các vũ khí tự hủy diệt. -
9:52 - 9:53Một nguyên tắc khác tại Asilomar AI
-
9:53 - 9:57là chúng ta nên giảm tối thiểu
chi phí nhiên liệu phát sinh cho AI. -
9:57 - 10:02Tôi nghĩ nếu ta có thể tăng trưởng
chiếc bánh kinh tế mạnh mẽ bằng AI -
10:02 - 10:04và ta vẫn không hình dung ra
cách chia cái bánh này -
10:04 - 10:06thì mọi người tốt hơn là dừng lại,
-
10:06 - 10:07đáng tiếc cho chúng ta.
-
10:07 - 10:11(Vỗ tay)
-
10:11 - 10:15Bây giờ, bạn hãy giơ tay lên
nếu máy tính bạn đã từng bị phá tan tành. -
10:15 - 10:17(Cười)
-
10:17 - 10:18Chà, có nhiều cánh tay quá.
-
10:18 - 10:21Và, sau đó, bạn sẽ đánh giá cao
nguyên tắc này -
10:21 - 10:24rằng ta nên đầu tư nhiều hơn nữa
vào việc nghiên cứu an toàn AI, -
10:24 - 10:27Vì khi ta giao cho AI phụ trách làm ra
nhiều quyết định và cơ sở hạ tầng hơn, -
10:27 - 10:31ta cần phải tìm ra cách chuyển
các máy tính bị lỗi và có khả năng bị hack -
10:31 - 10:34thành các hệ thống Robot AI
mà ta có thể thực sự tin tưởng, -
10:34 - 10:35Nếu không thì,
-
10:35 - 10:38mọi công nghệ mới tuyệt vời có thể
trục trặc và gây hại cho ta, -
10:38 - 10:40hoặc bị hack và
chống lại chúng ta. -
10:40 - 10:45Và việc an toàn hoá AI này
phải bao gồm việc liên kết giá trị AI, -
10:45 - 10:48vì đe dọa thực sự từ AI
không hề ác ý, -
10:48 - 10:50như trong những bộ phim ngớ ngẩn
của Hollywood, -
10:50 - 10:52Tuy nhiên, năng lực --
-
10:52 - 10:55Hoàn thành mục tiêu AGI không phải là
con đường thẳng với mục tiêu của chúng ta. -
10:55 - 11:00Ví dụ, khi con người tới,
tê giác đen Tây Phi bị tuyệt chủng, -
11:00 - 11:04chúng ta không làm điều đó vì không phải
tất cả đều căm thù tê giác, phải không ạ? -
11:04 - 11:06Chúng ta làm vì chúng ta
thông minh hơn chúng -
11:06 - 11:08và mục tiêu của chúng ta
không như của chúng. -
11:08 - 11:11Song AGI, theo định nghĩa là nó
thông minh hơn chúng ta, -
11:11 - 11:15nên để đảm bảo chúng ta không đẩy mình vào
vị trí của những con tê giác. -
11:15 - 11:17Nếu ta tạo ra AGI,
-
11:17 - 11:21ta cần phải biết cách làm cho
máy móc hiểu được mục tiêu của chúng ta, -
11:21 - 11:24thích nghi và duy trì
mục tiêu của chúng ta. -
11:25 - 11:28Và toàn bộ mục tiêu nên như thế này,
bằng mọi giá phải không ạ? -
11:28 - 11:30Chúng nên có những mục tiêu nào?
-
11:30 - 11:34Điều này đưa ta tới phần thứ 3
của phép ẩn ý tên lửa: đích đến. -
11:35 - 11:37Chúng ta đang làm cho AI mạnh mẽ hơn,
-
11:37 - 11:39nỗ lực tìm ra cách điều khiển nó,
-
11:39 - 11:41nhưng chúng ta muốn
đi cùng nó tới đâu? -
11:42 - 11:45Điều này giống như con voi trong căn phòng
chẳng có người để ý tới nó, -
11:45 - 11:47thậm chí là ngay đây,
tại TED -
11:47 - 11:51vì chúng ta quá để tâm vào
các thử thách AI ngắn hạn. -
11:52 - 11:57Nhìn xem, loài người đang
nỗ lực xây dựng AGI, -
11:57 - 12:00bởi sự tò mò và nền kinh tế thúc đẩy.
-
12:00 - 12:04Nhưng xã hội mà ta mong đợi trong
tương lai sẽ ra sao nếu ta thành công? -
12:04 - 12:07Chúng tôi đã làm một cuộc thăm dò
ý kiến về điều này gần đây, -
12:07 - 12:08tôi rất ngạc nhiên khi
-
12:08 - 12:11phần lớn mọi người thực sự muốn
chúng tôi tạo ra siêu AI: -
12:11 - 12:14Cực kỳ thông minh hơn
con người về mọi thứ. -
12:15 - 12:18Thỏa thuận lớn nhất đó là
chúng ta nên tham vọng hơn -
12:18 - 12:21và giúp cho sự sống rộng mở hơn
trong vũ trụ, -
12:21 - 12:25nhưng vẫn có sự không nhất quán về việc ai
hoặc cái gì sẽ thực hiện trách nhiệm này. -
12:25 - 12:27Tôi đã thực sự rất vui thích
-
12:27 - 12:30khi thấy một số người muốn
được như những cỗ máy. -
12:30 - 12:32(Cười)
-
12:32 - 12:36Và toàn bộ không nhất trí về vấn đề
đâu là vai trò con người nên có -
12:36 - 12:38thậm chí ở mức cơ bản nhất.
-
12:38 - 12:41Hãy nhìn gần hơn
về một tương lai -
12:41 - 12:44mà chúng ta có thể chọn để
hướng tới, được không? -
12:44 - 12:45Bạn đừng hiểu sai ý tôi.
-
12:45 - 12:47Tôi không nói về du hành xuyên không gian,
-
12:47 - 12:50chỉ đơn thuần là về hành trình ẩn ý
của loài người tới tương lai. -
12:51 - 12:54Một lựa chọn mà một số
đồng nghiệp AI của tôi ưa thích -
12:54 - 12:58là xây dựng siêu AI, và giữ nó
trong sự kiểm soát của con người, -
12:58 - 13:00như là nô lệ của Chúa,
-
13:00 - 13:01ngắt kết nối với internet
-
13:01 - 13:05và được sử dụng để tạo ra công nghệ
phi thường và của cải -
13:05 - 13:06cho bất cứ người nào kiểm soát nó.
-
13:06 - 13:08Song Lord Acton đã cảnh báo chúng ta
-
13:08 - 13:12rằng quyền lực, và quyền lực
tuyệt đối dẫn đến hỗn loạn tuyệt đối, -
13:12 - 13:16nên bạn có thể lo lắng rằng liệu con người
không đủ thông minh -
13:16 - 13:18hoặc không đủ khôn ngoan hơn,
-
13:18 - 13:19để nắm giữ quyền lực này.
-
13:20 - 13:22Ngoài những nỗi e sợ
về đạo đức bạn có thể có, -
13:22 - 13:24về sự nô dịch cho siêu trí tuệ,
-
13:25 - 13:28Bạn có thể bất an về việc
AI có thể thông minh hơn chúng ta, -
13:29 - 13:31thoát khỏi và chiếm quyền kiểm soát.
-
13:32 - 13:35Nhưng tôi cũng có những đồng nghiệp
lạc quan về việc AI sẽ chiếm giữ -
13:35 - 13:37và thậm chí là nguyên nhân
tuyệt chủng con người, -
13:37 - 13:41khi chúng ta cảm thấy AI là
những hậu duệ xứng đáng, -
13:41 - 13:43như con cháu chúng ta.
-
13:43 - 13:48Nhưng làm sao ta biết được AI tiếp nhận
những giá trị tốt nhất của con người, -
13:48 - 13:53và không phải là hình nộm lừa
chúng ta qua nhân cách hóa? -
13:53 - 13:56Liệu những ai không muốn
con người tuyệt chủng, -
13:56 - 13:57lên tiếng rằng đó cũng là nguyên nhân?
-
13:58 - 14:02Giờ đây, nếu bạn đều không thích
cả hai lựa chọn công nghệ này, -
14:02 - 14:05thì điều quan trọng cần nhớ là
công nghệ thấp là tự sát -
14:05 - 14:06từ góc nhìn tương lai,
-
14:06 - 14:09vì nếu chúng ta không vượt xa
công nghệ hiện có, -
14:09 - 14:11câu hỏi sẽ không phải là
liệu nhân loại sắp bị tuyệt chủng, -
14:11 - 14:13mà sẽ là chúng ta sẽ bị kiểm soát
-
14:13 - 14:16bởi hành tinh hủy diệt tiếp theo,
siêu núi lửa -
14:16 - 14:19hoặc vài vấn đề khác mà đáng ra
công nghệ tốt hơn có thể giải quyết. -
14:19 - 14:22Cho nên, việc có cái bánh và ăn nó...
-
14:22 - 14:24cùng với AGI không phải là sự nô dịch
-
14:25 - 14:28nhưng lại đối xử tốt với chúng ta vì
giá trị của chúng song hành cùng chúng ta? -
14:28 - 14:32Đây là nguyên nhân chính mà Cliezer
Yudkowsky đã gọi là "AI thân thiện" -
14:33 - 14:35Nếu ta có thể làm được điều này,
đó sẽ rất tuyệt. -
14:36 - 14:41AI không thể loại bỏ những trải nghiệm
tiêu cực như bệnh tật, đói nghèo, -
14:41 - 14:42tội phạm và những khổ đau khác.
-
14:42 - 14:45Nhưng nó có thể cho chúng ta
sự tự do lựa chọn -
14:45 - 14:49từ sự đa dạng, mới mẻ tuyệt vời
của những trải nghiệm tích cực -- -
14:49 - 14:52dựa trên việc để chúng ta
làm chủ số phận của chính mình. -
14:54 - 14:56Tóm lại,
-
14:56 - 14:59vị thế của chúng ta với
công nghệ là phức tạp, -
14:59 - 15:01nhưng nhìn chung
thì khá đơn giản. -
15:01 - 15:05Đa số các nhà nghiên cứu AI
chờ đợi AGI qua hàng thập kỷ, -
15:05 - 15:08và nếu chúng ta chỉ tự mãn
mà không chuẩn bị, -
15:08 - 15:11đó sẽ có thể là sai lầm lớn nhất
trong lịch sử loài người. -
15:11 - 15:13Hãy đối mặt với nó.
-
15:13 - 15:15Nó có thể sẽ tàn bạo, độc quyền toàn cầu,
-
15:15 - 15:19bằng sự bất bình đẳng không thể
dự đoán, bị quản đốc và tổn thương, -
15:19 - 15:21và thậm chí có thể là
sự tuyệt chủng loài người. -
15:21 - 15:23Nhưng nếu chúng ta điều hướng
cẩn thận, -
15:24 - 15:28ta có thể đúc kết trong một tương lai
sáng lạng khi mọi người đều tốt lên: -
15:28 - 15:30người nghèo sẽ giàu có lên,
người giàu thì giàu hơn, -
15:30 - 15:34mọi người đều khỏe mạnh và tự do
sống với ước mơ của mình. -
15:35 - 15:37Bây giờ, còn nữa.
-
15:37 - 15:41Các bạn muốn tương lai là đúng hay sai?
-
15:41 - 15:44Bạn có muốn một xã hội yên bình
với lề lối đạo đức nghiêm trị, -
15:44 - 15:46hay là một chủ nghĩa khoái lạc -
tự do cho tất cả, -
15:46 - 15:48như Burning Man 24/7?
-
15:48 - 15:51Bạn mong có những bờ biển cát trắng,
rừng xanh và hồ trong veo, -
15:51 - 15:54hay bạn sẽ thích sắp xếp lại
các nguyên tử bằng máy tính, -
15:54 - 15:56có khả năng trải nghiệm thực tế ảo?
-
15:56 - 15:59Với AI thân thiện, chúng ta đơn giản
có thể xây dựng một xã hội như thế -
15:59 - 16:02và cho mọi người sự tự do
lựa chọn cuộc sống -
16:02 - 16:05vì chúng ta sẽ không còn bị
giới hạn bởi trí thông minh, -
16:05 - 16:07chỉ vì luật pháp
hay vật lý học. -
16:07 - 16:10Và nguồn nguyên liệu và không gian có thể
-
16:10 - 16:13vô cùng to lớn.
-
16:13 - 16:15Và đó là lựa chọn
của chúng ta. -
16:16 - 16:18Chúng ta có thể bằng lòng về tương lai,
-
16:19 - 16:22và kiểm soát như một bài báo
với đức tin mù quáng -
16:22 - 16:26nói rằng công nghệ mới nào
cũng bảo đảm mang lại lợi ích, -
16:26 - 16:30và chỉ là sự lặp lại của chính chúng ta.
-
16:30 - 16:34khi ta buông trôi như con tàu mất lái
về sự lỗi thời của chính mình. -
16:35 - 16:37Hoặc ta có thể tham vọng về
-
16:37 - 16:40suy nghĩ làm cách nào để kiểm soát
và điều hướng công nghệ -
16:40 - 16:42và cùng công nghệ
tiến xa tới đâu -
16:42 - 16:44để tạo ra thời kỳ đáng kinh ngạc.
-
16:45 - 16:48Tất cả chúng ta ở đây để ăn mừng nó,
-
16:48 - 16:52và tôi cảm thấy bản chất của nó nên
nằm ở việc không bị áp đảo -
16:53 - 16:56mà là sự trao quyền bằng công nghệ.
-
16:56 - 16:57Cảm ơn các bạn!
-
16:57 - 17:00(Vỗ tay)
- Title:
- Làm sao để có được sức mạnh mà không bị áp đảo bởi trí tuệ nhân tạo
- Speaker:
- Max Tegmark
- Description:
-
Nhiều nhà nghiên cứu trí tuệ nhân tạo kỳ vọng AI sẽ vượt qua con người trong mọi nhiệm vụ và công việc trong vòng nhiều thập kỷ, cho phép một tương lai nơi chúng ta chỉ bị giới hạn bởi các định luật vật lý, chứ không phải giới hạn của trí thông minh. Nhà nghiên cứu vật lý và AI của MIT - Max Tegmark tách các cơ hội và mối đe dọa thực sự khỏi các giả thuyết, mô tả cụ thể các bước mà chúng ta nên thực hiện ngày hôm nay để đảm bảo rằng cuối cùng, AI là điều tốt nhất -- chứ không phải tồi tệ nhất -- từng xảy đến với nhân loại.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:15
Ai Van Tran approved Vietnamese subtitles for How to get empowered, not overpowered, by AI | ||
Ai Van Tran edited Vietnamese subtitles for How to get empowered, not overpowered, by AI | ||
Quynh Anh Ha accepted Vietnamese subtitles for How to get empowered, not overpowered, by AI | ||
Trang Minh Tran edited Vietnamese subtitles for How to get empowered, not overpowered, by AI | ||
Trang Minh Tran edited Vietnamese subtitles for How to get empowered, not overpowered, by AI | ||
Trang Minh Tran edited Vietnamese subtitles for How to get empowered, not overpowered, by AI | ||
Patrizia Le edited Vietnamese subtitles for How to get empowered, not overpowered, by AI | ||
Patrizia Le edited Vietnamese subtitles for How to get empowered, not overpowered, by AI |