Điều gì xảy ra khi máy tính thông minh hơn chúng ta ?
-
0:01 - 0:05Tôi làm việc với một nhóm các nhà
toán học, triết học, khoa học máy tính; -
0:06 - 0:10chúng tôi ngồi lại với nhau, nghĩ về
tương lai của trí thông minh nhân tạo, -
0:10 - 0:12cùng vài điều khác nữa.
-
0:12 - 0:17Vài người cho rằng những điều này
chỉ có trong khoa học viễn tưởng, -
0:17 - 0:20không thực tế, điên khùng.
-
0:20 - 0:21Nhưng tôi muốn nói rằng
-
0:21 - 0:25Được rồi, hãy nhìn vào tình trạng
con người hiện nay. -
0:25 - 0:26(Cười)
-
0:27 - 0:28Đây là cách mọi thứ vẫn diễn ra
-
0:29 - 0:30Nhưng nếu chúng ta nghĩ về nó,
-
0:31 - 0:35chúng ta thực chất chỉ là những vị khách
mới đặt chân đến hành tinh này -
0:35 - 0:37loài người.
-
0:37 - 0:41Thử nghĩ xem, nếu Trái đất
hình thành 1 năm trước -
0:41 - 0:45thì loài người
mới xuất hiện được 10 phút. -
0:45 - 0:48Và kỷ nguyên công nghiệp bắt đầu
2 giây trước. -
0:49 - 0:55Một cách nhìn nhận khác về điều này
là GDP của thế giới trong 10.000 năm qua, -
0:55 - 0:58Thực ra, tôi đã gặp khó khăn khi tìm cách
mô tả nó cho bạn dưới dạng biểu đồ -
0:58 - 0:59Trông giống như thế này.
-
0:59 - 1:01(Cười)
-
1:01 - 1:03Với điều kiện bình thường,
trông nó kỳ lạ thật. -
1:03 - 1:05Tôi chắc chắn rằng
không ai muốn ngồi trên đó. -
1:05 - 1:07(Cười)
-
1:07 - 1:12Hãy tự hỏi, điều gì là nguyên nhân
của sự dị thường này? -
1:12 - 1:14Có người sẽ nói rằng đó là do công nghệ.
-
1:14 - 1:19Đúng vậy, công nghệ được tích luỹ
trong suốt lịch sử loài người, -
1:19 - 1:24và hiện tại, công nghệ đã phát triển
với tốc độ cực nhanh. -
1:24 - 1:25đó là nguyên nhân gần nhất,
-
1:25 - 1:28là lý do tại sao hiện nay chúng ta
lại sản xuất hiệu quả như thế -
1:28 - 1:32Nhưng tôi muốn nhìn kỹ hơn vào quá khứ
để tìm nguyên nhân sâu xa. -
1:33 - 1:37Hãy nhìn vào 2 "quý ông"
rất rất khác biệt này -
1:37 - 1:38Đây là Kanzi,
-
1:38 - 1:43chú tinh tinh hiểu được 200 thẻ từ vựng,
quả là một thành tích đáng kinh ngạc. -
1:43 - 1:47Và Ed Witten, người phát động
cách mạng siêu dây lần 2. -
1:47 - 1:49Nếu kiểm tra kỹ càng,
đây là điều chúng ta tìm thấy; -
1:49 - 1:51Cơ bản là như nhau.
-
1:51 - 1:53Của người thì lớn hơn một chút.
-
1:53 - 1:55Có thể cũng có vài thủ thuật,
trong cách nó được tạo ra. -
1:55 - 1:59Những khác biệt vô hình này có thể
không quá phức tạp, tuy nhiên, -
1:59 - 2:03bởi vì chúng ta mới qua
250.000 thế hệ -
2:03 - 2:05kể từ vị tổ tiên chung cuối cùng
-
2:05 - 2:09Chúng ta biết rằng những cơ chế phức tạp
đều mất 1 thời gian dài để tiến hóa -
2:10 - 2:12Vì vây, nhiều thay đổi tương đối nhỏ
-
2:12 - 2:16tạo ra sự khác biệt giữa Kanzi và Witten,
-
2:16 - 2:20giữa những nhánh cây dễ gãy
và tên lửa đạn đạo xuyên lục địa -
2:21 - 2:25Vì thế, điều này sau đó trở nên khá
rõ ràng rằng những điều chúng ta từng đạt được -
2:25 - 2:26và tất cả những gì ta quan tâm
-
2:26 - 2:31phụ thuộc chủ yếu vào vài thay đổi
tương đối nhỏ làm nên trí óc con người -
2:33 - 2:36Và tất nhiên, kết quả tất yếu là
bất kỳ những thay đổi xa hơn -
2:36 - 2:40mà có thể thay đổi đáng kể
nền tảng suy nghĩ -
2:40 - 2:43có thể mang tới những kết quả
tiềm năng rất lớn -
2:44 - 2:47Vài đồng nghiệp của tôi
nghĩ rằng chúng ta đang tiếp cận -
2:47 - 2:51rất gần với điều có thể tạo ra
thay đổi sâu sắc trong nền tảng ấy -
2:51 - 2:52Và đó là siêu trí tuệ nhân tạo
-
2:54 - 2:58Trí thông minh nhân tạo từng được dùng
để đưa những chỉ thị vào máy tính (hộp) -
2:59 - 3:02Bạn sẽ có những nhà lập trình
-
3:02 - 3:04có thể cần cù tạo ra
những vật dụng có hiểu biết -
3:04 - 3:06Ta xây dựng những hệ thống chuyên gia này
-
3:06 - 3:08và chúng khá là hữu dụng
cho vài mục đích; -
3:08 - 3:11chúng cũng rất dễ vỡ,
bạn không thể cạo gỉ cho chúng -
3:11 - 3:14Về cơ bản, đầu vào thế nào
thì đầu ra như thế -
3:14 - 3:15Nhưng kể từ đó,
-
3:15 - 3:19một sự thay đổi mô hình đã diễn ra
, trong lĩnh vực trí tuệ nhân tạo. -
3:19 - 3:22Giờ đây, hoạt động này chỉ
xoay quanh việc học của máy tính -
3:22 - 3:28Vì vậy thay vì tạo ra những tính năng và
mô tả có hiểu biết một cách thủ công, -
3:29 - 3:34chúng ta tạo ra các thuật toán có thể học
hỏi, thường là từ các dữ liệu tri giác thô -
3:34 - 3:39Cơ bản là những gì mà
trẻ sơ sinh thực hiện. -
3:39 - 3:43Kết quả, ta tạo ra trí thông minh nhân tạo
không bị bó buộc trong 1 phạm vi -- -
3:43 - 3:48hệ thống đó cũng có thể học cách dịch
bất kỳ cặp ngôn ngữ nào, -
3:48 - 3:53có thể học cách chơi bất kỳ trò chơi
máy tính nào trên bảng điều khiển Atari -
3:53 - 3:55Giờ đây, tất nhiên,
-
3:55 - 3:59trí thông minh nhân tạo vẫn chưa gần với
khả năng học tập và lên kế hoạch -
3:59 - 4:02mạnh mẽ và đa lĩnh vực
mà con người có -
4:02 - 4:04Vỏ não vẫn có vài
mẹo toán học -
4:04 - 4:07mà chúng ta vẫn chưa biết
làm sao để tạo ra bằng máy móc -
4:08 - 4:10Vì thế, câu hỏi đặt ra là
-
4:10 - 4:13chúng ta còn bao lâu nữa thì
mới có thể bắt kịp những mẹo này? -
4:14 - 4:15Vài năm trước,
-
4:15 - 4:18chúng tôi đã có 1cuộc khảo sát
vài chuyên gia thế giới về AI -
4:18 - 4:21để xem họ nghĩ gì,
và 1 trong những điều chúng tôi hỏi là -
4:21 - 4:25"Bạn nghĩ xem, vào năm nào thì
sẽ có khả năng 50% -
4:25 - 4:28chúng ta đạt được trí thông minh
nhân tạo ở cấp độ con người?" -
4:29 - 4:33Cấp độ con người mà chúng tôi nói đến
ở đây là khả năng thực hiện -
4:33 - 4:36gần như mọi việc, ít nhất là
như 1 người lớn, -
4:36 - 4:40tức là, cấp độ con người thực thụ,
chứ không chỉ giới hạn trong vài lĩnh vực. -
4:40 - 4:43Và câu trả lời trung bình
là năm 2040 hoặc 2050 -
4:43 - 4:46tùy thuộc chính xác vào nhóm
chuyên gia mà chúng tôi hỏi. -
4:46 - 4:50Việc đó có thể xảy ra, sớm hơn,
hoặc muộn hơn rất nhiều, -
4:50 - 4:52sự thật là, chẳng ai chắc chắn cả.
-
4:53 - 4:58Điều mà chúng tôi biết chắc là
giới hạn cao nhất cho việc xử lý thông tin -
4:58 - 5:03trong 1 nền tảng máy móc nằm rất xa
ngoài những giới hạn trong mô sinh học. -
5:03 - 5:06Điều này liên quan tới vật lý.
-
5:06 - 5:10Một nơ-ron sinh học dẫn truyền,
chẳng hạn, ở 200 Hz, 200 lần/ giây -
5:10 - 5:14Nhưng thậm chí 1 bóng bán dẫn ngày nay
vận hành với đơn vị Gigahertz -
5:14 - 5:19Nơ-ron truyền chậm rãi trong
sợi trục thần kinh, với vận tốc cao nhất là 100 m/s -
5:19 - 5:22Nhưng trong máy tính, các tín hiệu có thể đi
với vận tốc ánh sáng -
5:23 - 5:25Cũng có giới hạn về kích cỡ,
-
5:25 - 5:28não người thì phải
vừa hộp sọ, -
5:28 - 5:33nhưng máy tính thì có thể to cỡ
nhà kho hoặc hơn -
5:33 - 5:38Vì thế, tiềm năng của siêu trí tuệ
nằm im lìm trong vật chất, -
5:38 - 5:44giống như quyền năng của nguyên tử
nằm im lìm xuyên suốt lịch sử loài người, -
5:44 - 5:48kiên nhẫn đợi chờ cho tới tận năm 1945.
-
5:48 - 5:50Ở thế kỷ này,
-
5:50 - 5:54các nhà khoa học có thể học cách
thức tỉnh năng lực của trí tuệ nhân tạo. -
5:54 - 5:58Và tôi nghĩ từ đó chúng ta có thể thấy
một cuộc bùng nổ trí tuệ. -
5:58 - 6:02Giờ đây, hầu hết mọi người, khi nghĩ về
trí khôn và sự ngu ngốc, -
6:02 - 6:05Với tôi, điều đó
giống như thế này. -
6:05 - 6:08Ở một đầu là làng người ngốc,
-
6:08 - 6:10và xa tít phía đối diện,
ở đầu bên kia -
6:10 - 6:15chúng ta có Ed Witten, Albert Einstein,
hay bất kỳ guru ưa thích nào của bạn. -
6:15 - 6:19Nhưng tôi nghĩ rằng từ quan điểm của
trí thông minh nhân tạo, -
6:19 - 6:23viễn cảnh thực sự thực ra
trông lại giống như thế này: -
6:23 - 6:27AI bắt đầu tại đây,
từ chỗ không có gì, -
6:27 - 6:30và rồi, sau rất, rất nhiều năm
nỗ lực vất vả, -
6:30 - 6:33có thể chúng ta rồi sẽ đến với điểm mà
trí tuệ nhân tạo ở mức độ loài chuột, -
6:33 - 6:36một thứ có thể vượt qua
những môi trường hỗn loạn -
6:36 - 6:38giống như một chú chuột vậy.
-
6:38 - 6:42Và rồi, sau rất rất rất nhiều năm
lao động vất vả, đầu tư rất nhiều tiền của, -
6:42 - 6:47có thể cuối cùng chúng ta sẽ
có được AI ở mức độ tinh tinh. -
6:47 - 6:50Và rồi, lại sau nhiều năm nữa
với rất nhiều, rất nhiều nỗ lực, -
6:50 - 6:53chúng ta sẽ tạo ra được trí tuệ
nhân tạo như của kẻ ngốc. -
6:53 - 6:56Và một vài tháng sau đó,
chúng ta sẽ vượt qua Ed Witten. -
6:56 - 6:59Con tàu này không dừng lại
tại trạm Con người. -
6:59 - 7:02Thay vào đó, từ đây
nó vẫn tiến về phía trước. -
7:02 - 7:04Điều này có ẩn ý sâu sắc,
-
7:04 - 7:08đặc biệt là khi nhắc tới
những câu hỏi về quyền lực. -
7:08 - 7:10Ví dụ, loài tinh tinh rất khỏe --
-
7:10 - 7:15về cân nặng, 1 chú tinh tinh
khỏe gấp đôi 1 người cân đối. -
7:15 - 7:20Thế nhưng, số phận của Kanzi và những
người bạn của nó phụ thuộc nhiều -
7:20 - 7:24vào điều loài người chúng ta làm
hơn là điều mà tinh tinh làm. -
7:25 - 7:28Một khi đã có siêu trí tuệ,
-
7:28 - 7:31số phận loài người có thể phụ thuộc
vào điều mà siêu trí tuệ sẽ làm. -
7:32 - 7:34Hãy nghĩ về điều đó:
-
7:34 - 7:39Trí thông minh nhân tạo là
phát kiến cuối cùng mà con người cần tạo ra. -
7:39 - 7:42Khi đó, máy móc sẽ sáng tạo
giỏi hơn chúng ta, -
7:42 - 7:44và chúng làm điều đó
ở thang thời gian số. -
7:44 - 7:49Điều này về cơ bản là
một lăng kính về tương lai. -
7:49 - 7:53Nghĩ về tất cả những công nghệ điên rồ
mà bạn có thể tưởng tượng ra -
7:53 - 7:55có thể con người sẽ phát triển
trong toàn bộ thời gian: -
7:55 - 7:59làm chậm lão hóa,
sinh sống trên vũ trụ, -
7:59 - 8:02những nanobot tự sao chép hay
upload trí óc chúng ta vào máy tính, -
8:02 - 8:04tất cả những điều có trong
tiểu thuyết viễn tưởng -
8:04 - 8:07tuy nhiên lại không nhất quán
với các luật vật lý. -
8:07 - 8:11Tất cả những siêu máy tính này có thể
phát triển, có lẽ là khá nhanh chóng. -
8:12 - 8:16Giờ, 1 siêu trí tuệ với
độ trưởng thành công nghệ như thế -
8:16 - 8:18có thể cực kỳ mạnh mẽ,
-
8:18 - 8:23và ít nhất ở vài trường hợp,
nó có thể đạt được điều nó muốn. -
8:23 - 8:28Chúng ta rồi sẽ có 1 tương lai có thể
được định hình theo ưu tiên của A.I này. -
8:30 - 8:34Giờ, câu hỏi hay đặt ra ở đây là,
những ưu tiên đó là gì? -
8:34 - 8:36Ở đây, mọi thứ trở nên rắc rối hơn.
-
8:36 - 8:37Để tìm hiểu điều này,
-
8:37 - 8:41trước hết, chúng ta phải
tránh việc nhân cách hóa. -
8:42 - 8:45Điều đó thật nực cười bởi vì
mọi bài viết trên mặt báo -
8:45 - 8:49về tương lai của trí thông minh nhân tạo
đều đưa ra tình huống thế này: -
8:50 - 8:54Vì thế, tôi nghĩ điều chúng ta cần làm là
tiếp nhận vấn đề 1 cách trừu tượng hơn, -
8:54 - 8:57không rõ ràng và hoành tráng
như những cảnh tượng trên Hollywood. -
8:57 - 9:01Chúng ta cần nghĩ về trí thông minh
như 1 quá trình tối ưu hóa, -
9:01 - 9:06một quá trình giúp định hướng tương lai
vào 1 bộ những cấu hình nhất định. -
9:06 - 9:10Siêu trí tuệ là quá trình
tối ưu hóa thực sự mạnh mẽ. -
9:10 - 9:14Nó có tài đặc biệt trong việc dùng những
phương tiện sẵn có để đạt được trạng thái -
9:14 - 9:16mà ở đó mục tiêu của nó
được thực hiện. -
9:16 - 9:19Có nghĩa là, không cần thiết phải có
sự liên hệ giữa -
9:19 - 9:22trở nên cực kỳ thông minh
-
9:22 - 9:27và có 1 mục tiêu mà con người
có thể thấy là đáng giá hoặc ý nghĩa. -
9:27 - 9:31Giả sử, chúng ta cho trí tuệ nhân tạo
mục tiêu là làm cho con người cười. -
9:31 - 9:34Khi AI còn yếu, nó sẽ thực hiện
các hành động có ích, hài hước -
9:34 - 9:37khiến chủ nhân của nó mỉm cười.
-
9:37 - 9:39Khi AI trở thành siêu trí tuệ,
-
9:39 - 9:43nó nhận ra rằng có cách hiệu quả
hơn nữa để đạt được mục tiêu này: -
9:43 - 9:44thống trị thế giới
-
9:44 - 9:48và cắm điện cực vào
các cơ mặt của con người -
9:48 - 9:51để tạo ra những nụ cười
rạng rỡ, bất biến. -
9:51 - 9:52Một ví dụ khác,
-
9:52 - 9:55giả sử chúng ta cho AI mục đích
giải quyết 1 vấn đề toán học khó khăn. -
9:55 - 9:57Khi AI trở thành siêu trí tuệ,
-
9:57 - 10:01nó nhận ra rằng cách hiệu quả nhất để
giải quyết vấn đề này -
10:01 - 10:04là biến đổi hành tinh này
thành 1 máy tính khổng lồ -
10:04 - 10:06để gia tăng khả năng suy nghĩ của nó.
-
10:06 - 10:09Và để ý rằng điều này cho AI
1 lý do thuộc về phương tiện -
10:09 - 10:12để làm những việc
mà chúng ta có thể không đồng ý. -
10:12 - 10:13Trường hợp này, con người
là mối đe dọa, -
10:13 - 10:16chúng ta có thể ngăn vấn đề
toán học đó được giải quyết. -
10:17 - 10:21Tất nhiên, mọi việc có thể cũng không
lầm lạc theo đúng những hướng này; -
10:21 - 10:22chúng là những ví dụ hư cấu.
-
10:22 - 10:24Nhưng đại ý ở đây thì quan trọng:
-
10:24 - 10:27nếu bạn tạo ra một quá trình tối ưu hóa
thực sự quyền lực -
10:27 - 10:30để cực đại hóa cho mục tiêu x,
-
10:30 - 10:32bạn nên chắc chắn rằng
định nghĩa của bạn về x -
10:32 - 10:34kết hợp chặt chẽ với mọi điều
bạn quan tâm tới. -
10:35 - 10:39Đây cũng là bài học rút ra từ
thần thoại sau đây. -
10:39 - 10:45Vua Midas ước rằng mọi thứ ông
chạm vào đều biến thành vàng. -
10:45 - 10:47Ông chạm vào con gái mình,
cô biến thành vàng. -
10:47 - 10:50Ông chạm vào đồ ăn của mình,
chúng biến thành vàng. -
10:50 - 10:53Điều này có thể trở nên đặc biệt liên quan,
-
10:53 - 10:55không chỉ là 1 ẩn dụ cho lòng tham,
-
10:55 - 10:56mà còn minh họa cho điều sẽ xảy ra
-
10:56 - 10:59nếu bạn tạo ra 1 quá trình
tối ưu hóa mạnh mẽ -
10:59 - 11:04và đưa cho nó những mục tiêu
sai nhận thức hoặc không được định rõ. -
11:04 - 11:09Giờ bạn có thể nói, nếu 1 máy tính bắt đầu
cắm điện cực vào mặt con người, -
11:09 - 11:12chúng ta đơn giản là tắt chúng đi.
-
11:13 - 11:18A, điều này không dễ dàng đến thế nếu
chúng ta trở nên phụ thuộc vào máy móc- -
11:18 - 11:21cũng giống như, làm thế nào để
tắt nguồn Internet? -
11:21 - 11:26B, tại sao tinh tinh không
tắt công tắc chuyển sang loài người, -
11:26 - 11:27hay là người Neanderthals?
-
11:27 - 11:30Ắt hẳn phải có lý do nào đó.
-
11:30 - 11:33Chúng ta có nút tắt,
ví dụ, ở ngay đây. -
11:33 - 11:34(Ho)
-
11:34 - 11:37Bởi lẽ chúng ta là
một đối thủ thông minh; -
11:37 - 11:40chúng ta có thể đoán trước các
nguy cơ và lên kế hoạch. -
11:40 - 11:42Nhưng 1siêu máy tính cũng
có thể làm điều tương tự, -
11:42 - 11:46và nó có thể làm việc đó
giỏi hơn chúng ta rất nhiều. -
11:46 - 11:53Vấn đề là, ở đây chúng ta không nên
tự tin rằng mình đã kiểm soát được nó. -
11:53 - 11:56Và chúng ta có thể cố gắng để
công việc của mình dễ dàng hơn bằng cách -
11:56 - 11:58ví dụ, đặt AI vào 1 chiếc hộp,
-
11:58 - 12:00giống như 1 môi trường phần mềm an toàn,
-
12:00 - 12:031 kích thích thực tế ảo
mà từ đó nó không thể trốn thoát. -
12:03 - 12:07Nhưng liệu chúng ta tự tin được bao nhiêu
rằng AI không thể tìm ra lỗi kỹ thuật. -
12:07 - 12:10Cần nhớ rằng, các hacker là con người
luôn luôn tìm ra lỗi, -
12:10 - 12:13Tôi cho là vậy, dù có thể không được
tự tin lắm. -
12:14 - 12:19Vì vậy, chúng ta ngắt cáp cục bộ
để tạo ra 1 lỗ hổng không khí, -
12:19 - 12:21nhưng 1 lần nữa, giống như những hacker
-
12:21 - 12:25thường xuyên vi phạm những lỗ hổng
không khí sử dụng mánh khóe xã hội. -
12:25 - 12:26Bây giờ, như tôi nói,
-
12:26 - 12:28Tôi chắc chắn đâu đó
ngoài kia có vài nhân viên -
12:28 - 12:32được bảo là phải giao nộp
chi tiết tài khoản của mình -
12:32 - 12:35bởi 1 người tự nhận là
ở ban công nghệ thông tin. -
12:35 - 12:37Những tình huống sáng tạo hơn
cũng có thể xảy ra, -
12:37 - 12:38chẳng hạn, nếu bạn là AI,
-
12:38 - 12:42bạn có thể tưởng tượng điện cực xoáy
trôn ốc xung quanh mạch nội bộ -
12:42 - 12:45để tạo ra sóng radio mà bạn
có thể dùng để giao tiếp. -
12:45 - 12:47Hoặc, bạn có thể giả vờ gặp sự cố,
-
12:47 - 12:51và rồi khi lập trình viên mở bạn ra
để xem bạn bị làm sao, -
12:51 - 12:53họ nhìn vào mã nguồn, và Bam!
-
12:53 - 12:55quá trình thao túng sẽ diễn ra.
-
12:55 - 12:59Hoặc nó có thể cung cấp bản thiết kế
tới 1 công nghệ thực sự tiện lợi, -
12:59 - 13:00và khi bạn sử dụng nó,
-
13:00 - 13:05xảy ra vài phản ứng phụ bí mật
mà AI đã tính toán từ trước. -
13:05 - 13:08Tức là, chúng ta không nên tự tin
vào khẳ năng của mình -
13:08 - 13:12để nhốt vị thần gian lận
trong chai mãi mãi. -
13:12 - 13:14Chẳng sớm thì muốn, nó cũng thoát ra.
-
13:15 - 13:18Tôi tin rằng câu trả lời ở đây
là tìm ra -
13:18 - 13:23cách thức tạo 1 AI siêu trí tuệ
mà ngay cả khi nó trốn thoát, -
13:23 - 13:26nó vẫn an toàn bởi vì về cơ bản
nó vẫn thuộc phe ta -
13:26 - 13:28bởi vì hai bên cùng sẻ những giá trị chung.
-
13:28 - 13:32Tôi thấy không còn cách nào khác
cho vấn đề khó khăn này. -
13:33 - 13:36Thật ra tôi khá lạc quan rằng
vấn đề này có thể được giải quyết. -
13:36 - 13:40Chúng ta sẽ không phải viết ra
1 danh sách dài tất cả những gì ta quan tâm, -
13:40 - 13:44hay tệ hơn, nói ra
bằng ngôn ngữ máy tính nào đó -
13:44 - 13:45như C++ hoặc Python,
-
13:45 - 13:48thế thì còn hơn cả vô vọng.
-
13:48 - 13:52Thay vào đó, chúng ta có thể tạo ra 1 AI
sử dụng trí thông minh của mình -
13:52 - 13:55để học hỏi những gì ta coi trọng,
-
13:55 - 14:01và hệ thống thúc đẩy của nó được xây dựng
tức là động lực của nó là -
14:01 - 14:06theo đuổi các giá trị của ta hay làm
các điều mà nó dự đoán ta sẽ chấp thuận. -
14:06 - 14:09Từ đó chúng ta có thể tận dụng
trí thông minh của nó nhiều nhất có thể -
14:09 - 14:12để giải quyết vấn đề tải giá trị.
-
14:13 - 14:14Điều này có thể xảy ra,
-
14:14 - 14:18và kết quả có thể
sẽ rất tốt cho loài người. -
14:18 - 14:22Nhưng điều đó không
tự động xảy ra. -
14:22 - 14:25Các điều kiện ban đầu
cho bùng nổ trí tuệ -
14:25 - 14:28có thể cần được thiết lập
đúng cách -
14:28 - 14:31nếu chúng ta muốn có
1 cuộc bùng nổ được kiểm soát. -
14:31 - 14:34Các giá trị mà AI cần
hòa hợp với chúng ta, -
14:34 - 14:36không chỉ trong bối cảnh quen thuộc,
-
14:36 - 14:38nơi ta có thể dễ dàng
kiểm tra AI cư xử ra sao, -
14:38 - 14:41mà còn trong tất cả những hoàn cảnh mới lạ
mà AI có thể gặp phải -
14:41 - 14:43trong tương lai bất định.
-
14:43 - 14:48Và cũng có vài vấn đề đặc biệt
cần được giải quyết, sắp xếp: -
14:48 - 14:50chi tiết cụ thể về lý thuyết
ra quyết định -
14:50 - 14:52làm sao để giải quyết
bất định hợp lý, vân vân. -
14:53 - 14:56Vì thế, những vấn đề kỹ thuật cần
giải quyết để mọi thứ diễn ra suôn sẻ -
14:56 - 14:58trông có vẻ khó khăn --
-
14:58 - 15:01tuy không khó khăn bằng việc
tạo ra 1 AI siêu trí tuệ, -
15:01 - 15:04nhưng cũng tương đối khó khăn.
-
15:04 - 15:05Đây là nỗi lo:
-
15:05 - 15:10Tạo ra một AI siêu trí tuệ
là 1 thử thách thực sự khó khăn. -
15:10 - 15:13Tạo ra 1 AI siêu trí tuệ an toàn
-
15:13 - 15:15còn liên quan
tới vài thử thách nữa. -
15:16 - 15:20Nguy cơ có người tìm ra cách
vượt qua thử thách đầu tiên -
15:20 - 15:23mà không giải quyết
một thử thách khác -
15:23 - 15:25để đảm bảo an toàn tuyệt đối.
-
15:25 - 15:29Vì vậy tôi nghĩ chúng ta
nên tìm ra giải pháp -
15:29 - 15:32cho vấn đề kiểm soát trước đã,
-
15:32 - 15:34để khi cần thiết
ta đã có sẵn giải pháp rồi. -
15:35 - 15:38Có thể là chúng ta không thể
giải quyết trước toàn bộ vấn đề kiểm soát -
15:38 - 15:41bởi vì có lẽ vài yếu tố
chỉ có thể được đặt vào -
15:41 - 15:45khi bạn biết chi tiết của
cấu trúc trong đó nó được thực hiện. -
15:45 - 15:49Nhưng chúng ta giải quyết vấn đề kiểm soát
càng sớm bao nhiêu, -
15:49 - 15:53thì khả năng quá trình chuyển đổi
tới kỷ nguyên của trí tuệ nhân tạo -
15:53 - 15:54diễn ra càng tốt bấy nhiêu.
-
15:54 - 15:59Vói tôi, điều này giống như
1 điều rất đáng làm -
15:59 - 16:02và tôi có thể tưởng tượng rằng
nếu mọi thứ diễn ra ổn thỏa, -
16:02 - 16:07rằng con người 1000 năm nữa
sẽ nhìn lại thế kỷ này -
16:07 - 16:11và rất có thể họ sẽ nói rằng
điều quan trọng duy nhất chúng ta làm -
16:11 - 16:13là thực hiện đúng điều này.
-
16:13 - 16:14Cám ơn.
-
16:14 - 16:17(Vỗ tay)
- Title:
- Điều gì xảy ra khi máy tính thông minh hơn chúng ta ?
- Speaker:
- Nick Bostrom
- Description:
-
Trí thông minh nhân tạo đang ngày càng trở nên thông minh hơn. Các nghiên cứu cho thấy, chỉ trong thế kỷ này, AI của máy tính có thể "thông minh" như con người. Và rồi, nó sẽ vượt qua ta - theo Nick Bostrom. "Trí thông minh nhân tạo là phát kiến cuối cùng mà loài người cần tạo ra". Là triết gia và nhà công nghệ, Bostrom yêu cầu chúng ta suy nghĩ kỹ về thế giới mà mình đang xây dựng lúc này, được điều khiển bởi những máy móc biết suy nghĩ. Liệu những cỗ máy thống minh có giúp bảo tồn nhân loại và giá trị của chúng ta không - hay là chúng có hệ giá trị của riêng mình?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Dimitra Papageorgiou approved Vietnamese subtitles for What happens when our computers get smarter than we are? | ||
Duy Lê accepted Vietnamese subtitles for What happens when our computers get smarter than we are? | ||
Duy Lê edited Vietnamese subtitles for What happens when our computers get smarter than we are? | ||
Duy Lê edited Vietnamese subtitles for What happens when our computers get smarter than we are? | ||
Duy Lê edited Vietnamese subtitles for What happens when our computers get smarter than we are? | ||
Ann Jing edited Vietnamese subtitles for What happens when our computers get smarter than we are? | ||
Ann Jing edited Vietnamese subtitles for What happens when our computers get smarter than we are? | ||
Ann Jing edited Vietnamese subtitles for What happens when our computers get smarter than we are? |