< Return to Video

Đừng sợ siêu trí tuệ nhân tạo AI

  • 0:01 - 0:05
    Khi còn là đứa trẻ,
    tôi là con mọt sách chính hiệu.
  • 0:05 - 0:07
    Tôi nghĩ ở đây cũng có các bạn như vậy.
  • 0:08 - 0:09
    (Cười)
  • 0:09 - 0:12
    Và bạn, bạn cười to nhất đó,
    chắc đúng bạn rồi.
  • 0:12 - 0:14
    (Cười)
  • 0:14 - 0:18
    Tôi lớn lên ở một thị trấn nhỏ
    trong vùng đồng bằng bụi bặm bắc Texas,
  • 0:18 - 0:21
    ba tôi là cảnh sát trưởng
    và ông nội tôi là một mục sư.
  • 0:21 - 0:23
    Gây ra rắc rối là không được phép.
  • 0:24 - 0:27
    Và tôi bắt đầu đọc các sách số học
    để cho vui.
  • 0:27 - 0:29
    (Cười)
  • 0:29 - 0:31
    Bạn cũng vậy chứ.
  • 0:31 - 0:34
    Nó đã đưa tôi đến việc tạo ra thiết bị
    laser, máy tính và các tên lửa mô hình,
  • 0:34 - 0:37
    và đã dẫn dắt tôi tạo ra
    nhiên liệu tên lửa trong phòng ngủ.
  • 0:38 - 0:42
    Theo thuật ngữ khoa học mà nói,
  • 0:42 - 0:45
    chúng ta gọi nó là một ý tưởng sai lầm.
  • 0:45 - 0:46
    (Cười)
  • 0:46 - 0:48
    Vào cùng khoảng thời gian đó,
  • 0:48 - 0:52
    Ra mắt bộ phim của Stanley Kubrick
    "2001: A Space Odyssey",
  • 0:52 - 0:54
    và cuộc đời tôi đã thay đổi từ đó.
  • 0:54 - 0:56
    Tôi yêu mọi thứ của bộ phim đó,
  • 0:56 - 0:59
    đặc biệt là nhân vật HAL 9000.
  • 0:59 - 1:01
    HAL là một máy tính có tri giác
  • 1:01 - 1:03
    được thiết kế để hướng dẫn
    phi thuyền Discovery
  • 1:03 - 1:06
    từ Trái Đất tới sao Mộc.
  • 1:06 - 1:08
    HAL cũng là một nhân vật có khiếm khuyết,
  • 1:08 - 1:12
    vì cuối cùng anh ấy đã lựa chọn đề cao
    nhiệm vụ hơn sự sống con người.
  • 1:13 - 1:15
    HAL là một nhân vật viễn tưởng
  • 1:15 - 1:18
    nhưng anh ta vẫn nói lên
    nỗi sợ hãi của chúng ta
  • 1:18 - 1:20
    nỗi sợ hãi của việc bị thống trị
  • 1:20 - 1:23
    bởi trí tuệ nhân tạo vô cảm
  • 1:23 - 1:25
    không quan tâm đến loài người chúng ta.
  • 1:26 - 1:28
    Tôi tin rằng những nỗi sợ hãi như vậy
    là vô căn cứ.
  • 1:28 - 1:31
    Thật vậy, chúng ta đang ở
    một thời điểm đáng chú ý
  • 1:31 - 1:33
    trong lịch sử loài người,
  • 1:33 - 1:38
    nó được thúc đẩy nhờ sự bất mãn với các
    giới hạn của cơ thể và trí tuệ chúng ta,
  • 1:38 - 1:39
    chúng ta đang tạo ra các cỗ máy
  • 1:39 - 1:43
    tinh vi, phức tạp, xinh đẹp và duyên dáng
  • 1:43 - 1:45
    thứ sẽ mở rộng trải nghiệm
    của con người
  • 1:45 - 1:47
    theo những cách vượt xa tưởng tượng.
  • 1:48 - 1:50
    Sau quá trinh công tác từ
    Học viện không quân
  • 1:50 - 1:52
    đến công tác tại Không quân đến nay,
  • 1:52 - 1:54
    tôi đã trở thành một kỹ sư hệ thống
  • 1:54 - 1:57
    và gần đây tôi được tham gia vào
    một vấn đề kỹ thuật
  • 1:57 - 1:59
    hỗ trợ cho nhiệm vụ đến sao Hỏa của NASA.
  • 1:59 - 2:02
    Trong các chuyến bay
    đến Mặt trăng,
  • 2:02 - 2:05
    chúng ta có thể dựa trên hệ thống
    điều khiển nhiệm vụ ở Houston
  • 2:05 - 2:07
    để quan sát mọi khía cạnh của chuyến bay.
  • 2:07 - 2:11
    Tuy nhiên, sao Hỏa thì xa hơn đến 200 lần
  • 2:11 - 2:14
    và như vậy trung bình phải cần 13 phút
  • 2:14 - 2:17
    để một tín hiệu đi
    từ Trái đất đến sao Hỏa.
  • 2:17 - 2:20
    Nếu có trục trặc, sẽ không đủ thời gian.
  • 2:21 - 2:23
    Và do vậy một giải pháp kỹ thuật hợp lý
  • 2:23 - 2:26
    đặt ra là cần phải đặt
    thiết bị điều khiển nhiệm vụ
  • 2:26 - 2:29
    ngay bên trong phi thuyền Orion
  • 2:29 - 2:32
    Một ý tưởng hấp dẫn khác
    trong hồ sơ nhiệm vụ
  • 2:32 - 2:35
    là đưa các robot giống người
    lên bề mặt sao Hỏa
  • 2:35 - 2:37
    trước khi con người đặt chân đến,
  • 2:37 - 2:38
    đầu tiên để xây dựng cơ sở hạ tầng
  • 2:38 - 2:42
    và sau đó để phục vụ các thành viên
    cộng tác của đội ngũ khoa học.
  • 2:43 - 2:46
    Khi tôi xem xét nó dưới góc độ kỹ thuật,
  • 2:46 - 2:49
    thì thấy rõ ràng cái mà chúng ta cần
    tạo ra
  • 2:49 - 2:52
    là một trí tuệ nhân tạo hiểu biết xã hội
  • 2:52 - 2:54
    thông minh, dễ cộng tác.
  • 2:54 - 2:58
    Nói cách khác, tôi cần tạo ra một thứ
    rất giống với một HAL
  • 2:58 - 3:01
    nhưng không có khuynh hướng giết người.
  • 3:01 - 3:02
    (Cười)
  • 3:03 - 3:05
    Chúng ta hãy dừng lại trong giây lát.
  • 3:05 - 3:09
    Thực sự chúng ta có thể tạo ra
    một trí tuệ nhân tạo như vậy không?
  • 3:09 - 3:10
    Thực ra là có thể.
  • 3:10 - 3:11
    Theo nhiều cách,
  • 3:11 - 3:13
    đây là một vấn đề khó khăn về kỹ thuật
  • 3:13 - 3:15
    có liên quan đến AI,
  • 3:15 - 3:19
    chứ không phải một vấn đề lộn xộn về AI
    cần được giải quyết.
  • 3:19 - 3:22
    Để diễn đạt lại theo ý của Alan Turing,
  • 3:22 - 3:25
    tôi không hứng thú tạo ra
    một cỗ máy có tri giác.
  • 3:25 - 3:26
    Tôi không tạo ra một HAL.
  • 3:26 - 3:29
    Cái tôi làm là tạo ra một bộ não đơn giản
  • 3:29 - 3:32
    mà có thể đem đến ảo giác của trí tuệ.
  • 3:33 - 3:36
    Nghệ thuật và khoa học điện toán đã
    đi được một đoạn đường dài
  • 3:36 - 3:38
    kể từ khi HAL trên sóng,
  • 3:38 - 3:41
    và tôi tưởng tượng nếu cha đẻ của
    anh ta, Dr. Chandra, ở đây hôm nay,
  • 3:41 - 3:43
    ông ấy sẽ có một loạt câu hỏi
    cho chúng ta.
  • 3:43 - 3:45
    Chúng ta có thể
  • 3:45 - 3:49
    sử dụng một hệ thống gồm hàng triệu
    triệu thiết bị,
  • 3:49 - 3:51
    để nhập các luồng dữ liệu,
  • 3:51 - 3:53
    để dự đoán các thất bại và
    có hành động trước không?
  • 3:53 - 3:54
    Vâng, có thể.
  • 3:54 - 3:58
    Ta tạo ra được các hệ thống
    giao tiếp bằng ngôn ngữ tự nhiên không?
  • 3:58 - 3:58
    Được.
  • 3:58 - 4:02
    Ta tạo ra được các hệ thống
    nhận diện vật thể, xác định cảm xúc,
  • 4:02 - 4:05
    tự biểu hiện cảm xúc, chơi trò chơi
    và thậm chí đọc khẩu hình không?
  • 4:05 - 4:06
    Được.
  • 4:06 - 4:09
    Ta tạo ra được hệ thống
    tự lập mục tiêu,
  • 4:09 - 4:12
    xây dựng kế hoạch lệch với mục tiêu đó
    và học hỏi từ quá trình trên không?
  • 4:12 - 4:13
    Được
  • 4:13 - 4:17
    Chúng ta có thể tạo ra các hệ thống
    có khả năng nhận thức tư duy không?
  • 4:17 - 4:18
    Cái này chúng ta đang học.
  • 4:18 - 4:22
    Chúng ta có thể tạo ra các hệ thống
    có nền tảng đạo đức và luân lý không?
  • 4:22 - 4:25
    Cái này chúng ta phải học cách làm.
  • 4:25 - 4:27
    Vậy chúng ta hãy tạm chấp nhận
  • 4:27 - 4:30
    rằng có thể tạo ra một hệ thống
    trí tuệ nhân tạo như vậy
  • 4:30 - 4:32
    cho kiểu nhiệm vụ này và cả các loại khác.
  • 4:32 - 4:34
    Câu hỏi tiếp theo mà bạn phải tự hỏi là,
  • 4:34 - 4:36
    chúng ta có nên sợ nó?
  • 4:36 - 4:38
    Thực chất, mọi công nghệ mới
  • 4:38 - 4:41
    đều đem đến sự lo lắng ở mức độ nào đó.
  • 4:41 - 4:42
    Khi chúng ta thấy xe hơi lần đầu,
  • 4:42 - 4:47
    người ta đã than phiền rằng nó sẽ
    hủy hoại gia đình.
  • 4:47 - 4:49
    Khi điện thoại lần đầu xuất hiện,
  • 4:49 - 4:52
    người ta đã lo lắng nó sẽ hủy hoại
    việc giao lưu trò chuyện.
  • 4:52 - 4:56
    Đã có lúc khi chữ viết trở nên phổ biến,
  • 4:56 - 4:59
    người ta đã nghĩ
    chúng ta sẽ mất khả năng ghi nhớ.
  • 4:59 - 5:01
    Tất cả lo sợ đó đều đúng ở mức độ nào đó,
  • 5:01 - 5:03
    nhưng những công nghệ này cũng
  • 5:03 - 5:07
    mang đến chúng ta những thứ
    đã mở rộng trải nghiệm của con người
  • 5:07 - 5:08
    một cách sâu sắc.
  • 5:10 - 5:12
    Chúng ta hãy nói thêm về nó một chút.
  • 5:13 - 5:18
    Tôi không sợ việc một AI như vậy
    được tạo ra,
  • 5:18 - 5:22
    bởi vì cuối cùng nó vẫn sẽ là hiện thân
    một số giá trị của chúng ta.
  • 5:22 - 5:25
    Hãy nghĩ thế này: xây dựng một hệ thống
    có nhận thức về cơ bản là khác với
  • 5:25 - 5:29
    xây dựng một hệ thống phần mềm chuyên sâu
    truyền thống như trước đây.
  • 5:29 - 5:31
    Ta không lập trình nó. Ta dạy nó.
  • 5:31 - 5:34
    Để dạy một hệ thống nhận biết
    các bông hoa,
  • 5:34 - 5:37
    Tôi cho nó xem hàng nghìn bông hoa
    thuộc những loại tôi thích.
  • 5:37 - 5:39
    Để dạy một hệ thống cách chơi trò chơi--
  • 5:39 - 5:41
    Vâng, tôi sẽ làm thế. Bạn cũng sẽ thôi.
  • 5:43 - 5:45
    Tôi thích hoa mà. Nào mọi người.
  • 5:45 - 5:48
    Để dạy một hệ thống chơi game
    như Go chẳng hạn,
  • 5:48 - 5:50
    Tôi sẽ cho nó chơi hàng nghìn ván Go,
  • 5:50 - 5:52
    trong quá trình đó tôi cũng dạy nó
  • 5:52 - 5:54
    cách phân biệt
    ván chơi hay và ván chơi dở.
  • 5:55 - 5:58
    Nếu tôi muốn tạo ra một trợ lý pháp lý
    thông minh nhân tạo,
  • 5:58 - 6:00
    Tôi sẽ dạy nó một số tập sách luật
  • 6:00 - 6:03
    nhưng đồng thời tôi sẽ lồng ghép vào đó
  • 6:03 - 6:06
    ý thức về lòng thương người và công lý
    là một phần của luật.
  • 6:07 - 6:09
    Theo thuật ngữ khoa học,
    ta gọi nó là sự thật nền móng,
  • 6:09 - 6:12
    và đây là điểm quan trọng:
  • 6:12 - 6:13
    khi sản xuất các cỗ máy này,
  • 6:13 - 6:16
    chúng ta đang dạy chúng ý thức
    về các giá trị của chúng ta.
  • 6:17 - 6:20
    Do vậy, tôi tin tưởng vào
    một trí tuệ nhân tạo
  • 6:20 - 6:23
    bằng với, nếu không muốn nói hơn cả,
    một con người được giáo dục tốt.
  • 6:24 - 6:25
    Nhưng bạn có thể sẽ hỏi,
  • 6:25 - 6:28
    thế còn các tổ chức biến tướng thì sao,
  • 6:28 - 6:31
    một tổ chức phi chính phủ
    lắm tiền nào đấy chẳng hạn?
  • 6:31 - 6:35
    Tôi không sợ một trí tuệ nhân tạo
    trong tay một kẻ đơn độc.
  • 6:35 - 6:40
    Rõ ràng, chúng ta không thể bảo vệ mình
    trước những hành động bạo lực bất ngờ,
  • 6:40 - 6:42
    nhưng trong thực tế một hệ thống như vậy
  • 6:42 - 6:45
    yêu cầu sự đào tạo cơ bản
    và đào tạo tinh vi
  • 6:45 - 6:47
    vượt xa các nguồn lực của một cá nhân.
  • 6:47 - 6:49
    Và hơn nữa,
  • 6:49 - 6:52
    nó không giống như việc phát tán
    virus qua mạng ra khắp thế giới,
  • 6:52 - 6:55
    kiểu bạn chỉ ấn một phím,
    nó đã lan ra một triệu vị trí
  • 6:55 - 6:57
    và laptop bắt đầu nổ tanh bành
    khắp mọi nơi.
  • 6:57 - 7:00
    Những chuyện thế này lớn hơn rất nhiều,
  • 7:00 - 7:02
    và chắc chắn ta
    sẽ dự đoán trước được.
  • 7:03 - 7:06
    Tôi có sợ rằng
    một trí tuệ nhân tạo như vậy
  • 7:06 - 7:08
    có thể đe dọa toàn nhân loại hay không?
  • 7:08 - 7:13
    Nếu bạn nhìn vào các bộ phim
    như "The Matrix," "Metropolis,"
  • 7:13 - 7:16
    "The Terminator,"
    các chương trình như "Westworld,"
  • 7:16 - 7:18
    chúng đều nói về nỗi sợ hãi này.
  • 7:18 - 7:22
    Thực vậy, trong cuốn "Siêu trí tuệ"
    của triết gia Nick Bostrom,
  • 7:22 - 7:24
    ông đề cập đến chủ đề này
  • 7:24 - 7:28
    và nhận ra rằng một siêu trí tuệ
    có thể không chỉ nguy hiểm,
  • 7:28 - 7:32
    mà còn có thể đại diện cho một
    mối đe dọa sống còn với toàn nhân loại.
  • 7:32 - 7:34
    Lý lẽ chủ yếu của Dr. Bostrom
  • 7:34 - 7:37
    là các hệ thống như vậy cuối cùng sẽ
  • 7:37 - 7:40
    có một cơn khát thông tin vô độ;
  • 7:40 - 7:43
    là chúng có lẽ sẽ học cách để học
  • 7:43 - 7:46
    và cuối cùng khám phá ra rằng
    chúng có các mục tiêu
  • 7:46 - 7:48
    trái ngược với nhu cầu con người.
  • 7:48 - 7:50
    Có một số người ủng hộ Dr. Bostrom.
  • 7:50 - 7:54
    Ông ấy được ủng hộ bởi những người như
    Elon Musk và Stephen Hawking.
  • 7:55 - 7:57
    Dù rất kính trọng
  • 7:58 - 8:00
    những bộ óc lỗi lạc này,
  • 8:00 - 8:02
    tôi tin rằng họ về căn bản đều sai.
  • 8:02 - 8:06
    Có rất nhiều lý lẽ của
    Dr. Bostrom cần được mổ xẻ
  • 8:06 - 8:08
    và tôi không có thời gian để mổ xẻ tất cả,
  • 8:08 - 8:11
    nhưng rất ngắn gọn, hãy nghĩ thế này:
  • 8:11 - 8:14
    biết nhiều khác với làm nhiều.
  • 8:14 - 8:16
    HAL là một mối đe dọa với tàu Discovery
  • 8:16 - 8:21
    chỉ trong điều kiện HAL được chỉ huy
    toàn bộ tàu Discovery.
  • 8:21 - 8:23
    Nghĩa là chúng ta xét về một siêu trí tuệ.
  • 8:23 - 8:26
    Nó sẽ phải có quyền chi phối
    toàn thế giới chúng ta.
  • 8:26 - 8:29
    Đây là trường hợp của Skynet
    trong phim "The Terminator"
  • 8:29 - 8:30
    trong đó chúng ta có một siêu trí tuệ
  • 8:30 - 8:32
    có thể chỉ huy ý chí con người,
  • 8:32 - 8:36
    điều khiển mọi thiết bị
    ở mọi ngõ ngách của thể giới.
  • 8:36 - 8:37
    Thực tế mà nói,
  • 8:37 - 8:39
    điều đó sẽ không xảy ra.
  • 8:39 - 8:42
    Chúng ta sẽ không tạo ra các AI
    kiểm soát được thời tiết,
  • 8:42 - 8:44
    điều khiển được thủy triều,
  • 8:44 - 8:47
    hay chỉ huy được loài người
    lộn xộn thất thường chúng ta.
  • 8:47 - 8:51
    Và hơn nữa,
    nếu một trí tuệ nhân tạo như vậy tồn tại,
  • 8:51 - 8:54
    nó sẽ phải cạnh tranh
    với nền kinh tế nhân loại,
  • 8:54 - 8:57
    và từ đó cạnh tranh với chúng ta
    giành các nguồn lực.
  • 8:57 - 8:58
    Và cuối cùng thì --
  • 8:58 - 9:00
    đừng nói với Siri nhé --
  • 9:00 - 9:02
    ta luôn có thể rút dây điện.
  • 9:02 - 9:04
    (Cười)
  • 9:05 - 9:08
    Chúng ta đang ở trên
    một hành trình khó tin
  • 9:08 - 9:10
    cùng tiến hóa với các cỗ máy của mình.
  • 9:10 - 9:13
    Loài người chúng ta hôm nay
  • 9:13 - 9:15
    sẽ không phải là
    loài người chúng ta sau này.
  • 9:15 - 9:19
    Lo lắng lúc này về sự phát triển
    của một siêu trí tuệ
  • 9:19 - 9:22
    theo nhiều cách
    là một sự phân tâm nguy hiểm
  • 9:22 - 9:24
    bởi vì sự phát triển của điện toán tự nó
  • 9:24 - 9:27
    cũng đã đem đến nhiều vấn đề
    về con người và xã hội
  • 9:27 - 9:29
    mà chúng ta giờ đây phải chú ý tới.
  • 9:29 - 9:32
    Chúng ta sẽ tổ chức xã hội
    một cách tốt nhất như thế nào
  • 9:32 - 9:35
    khi nhu cầu về
    sức lao động con người giảm đi?
  • 9:35 - 9:38
    Làm thế nào tôi có thể đem sự hiểu biết
    và giáo dục đi khắp thế giới
  • 9:38 - 9:40
    và vẫn tôn trọng sự khác biệt?
  • 9:40 - 9:44
    Làm sao tôi có thể mở rộng và nâng cao đời
    sống qua chăm sóc sức khỏe có nhận thức?
  • 9:44 - 9:47
    Tôi có thể sử dụng điện toán như thế nào
  • 9:47 - 9:49
    để giúp đưa người lên các vì sao?
  • 9:50 - 9:52
    Và đó là điều thú vị.
  • 9:52 - 9:55
    Các cơ hội sử dụng điện toán
  • 9:55 - 9:56
    để nâng cao trải nghiệm
  • 9:56 - 9:58
    đang trong tầm tay chúng ta,
  • 9:58 - 10:00
    ở đây và bây giờ,
  • 10:00 - 10:01
    và chúng ta chỉ vừa bắt đầu.
  • 10:02 - 10:03
    Xin cám ơn rất nhiều.
  • 10:04 - 10:08
    (Vỗ tay)
Title:
Đừng sợ siêu trí tuệ nhân tạo AI
Speaker:
Grady Booch
Description:

Công nghệ mới sinh ra các lo lắng mới, theo nhà triết học và khoa học Grady Booch, nhưng chúng ta không cần sợ một trí tuệ nhân tạo vô cảm, đầy sức mạnh. Booch làm dịu bớt những nỗi sợ hãi về các máy tính siêu trí tuệ bằng việc giải thích cách chúng ta dạy, không phải lập trình, chúng để chia sẽ các giá trị của mình. Thay vì lo lắng về một mối đe dọa gần như không tồn tại, ông ấy giục chúng ta xem xét cách tri tuệ nhân tạo sẽ nâng cao đời sống con người.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Vietnamese subtitles

Revisions