< Return to Video

Điều gì xảy ra khi máy tính thông minh hơn chúng ta ?

  • 0:01 - 0:05
    Tôi làm việc với một nhóm các nhà
    toán học, triết học, khoa học máy tính;
  • 0:06 - 0:10
    chúng tôi ngồi lại với nhau, nghĩ về
    tương lai của trí thông minh nhân tạo,
  • 0:10 - 0:12
    cùng vài điều khác nữa.
  • 0:12 - 0:17
    Vài người cho rằng những điều này
    chỉ có trong khoa học viễn tưởng,
  • 0:17 - 0:20
    không thực tế, điên khùng.
  • 0:20 - 0:21
    Nhưng tôi muốn nói rằng
  • 0:21 - 0:25
    Được rồi, hãy nhìn vào tình trạng
    con người hiện nay.
  • 0:25 - 0:26
    (Cười)
  • 0:27 - 0:28
    Đây là cách mọi thứ vẫn diễn ra
  • 0:29 - 0:30
    Nhưng nếu chúng ta nghĩ về nó,
  • 0:31 - 0:35
    chúng ta thực chất chỉ là những vị khách
    mới đặt chân đến hành tinh này
  • 0:35 - 0:37
    loài người.
  • 0:37 - 0:41
    Thử nghĩ xem, nếu Trái đất
    hình thành 1 năm trước
  • 0:41 - 0:45
    thì loài người
    mới xuất hiện được 10 phút.
  • 0:45 - 0:48
    Và kỷ nguyên công nghiệp bắt đầu
    2 giây trước.
  • 0:49 - 0:55
    Một cách nhìn nhận khác về điều này
    là GDP của thế giới trong 10.000 năm qua,
  • 0:55 - 0:58
    Thực ra, tôi đã gặp khó khăn khi tìm cách
    mô tả nó cho bạn dưới dạng biểu đồ
  • 0:58 - 0:59
    Trông giống như thế này.
  • 0:59 - 1:01
    (Cười)
  • 1:01 - 1:03
    Với điều kiện bình thường,
    trông nó kỳ lạ thật.
  • 1:03 - 1:05
    Tôi chắc chắn rằng
    không ai muốn ngồi trên đó.
  • 1:05 - 1:07
    (Cười)
  • 1:07 - 1:12
    Hãy tự hỏi, điều gì là nguyên nhân
    của sự dị thường này?
  • 1:12 - 1:14
    Có người sẽ nói rằng đó là do công nghệ.
  • 1:14 - 1:19
    Đúng vậy, công nghệ được tích luỹ
    trong suốt lịch sử loài người,
  • 1:19 - 1:24
    và hiện tại, công nghệ đã phát triển
    với tốc độ cực nhanh.
  • 1:24 - 1:25
    đó là nguyên nhân gần nhất,
  • 1:25 - 1:28
    là lý do tại sao hiện nay chúng ta
    lại sản xuất hiệu quả như thế
  • 1:28 - 1:32
    Nhưng tôi muốn nhìn kỹ hơn vào quá khứ
    để tìm nguyên nhân sâu xa.
  • 1:33 - 1:37
    Hãy nhìn vào 2 "quý ông"
    rất rất khác biệt này
  • 1:37 - 1:38
    Đây là Kanzi,
  • 1:38 - 1:43
    chú tinh tinh hiểu được 200 thẻ từ vựng,
    quả là một thành tích đáng kinh ngạc.
  • 1:43 - 1:47
    Và Ed Witten, người phát động
    cách mạng siêu dây lần 2.
  • 1:47 - 1:49
    Nếu kiểm tra kỹ càng,
    đây là điều chúng ta tìm thấy;
  • 1:49 - 1:51
    Cơ bản là như nhau.
  • 1:51 - 1:53
    Của người thì lớn hơn một chút.
  • 1:53 - 1:55
    Có thể cũng có vài thủ thuật,
    trong cách nó được tạo ra.
  • 1:55 - 1:59
    Những khác biệt vô hình này có thể
    không quá phức tạp, tuy nhiên,
  • 1:59 - 2:03
    bởi vì chúng ta mới qua
    250.000 thế hệ
  • 2:03 - 2:05
    kể từ vị tổ tiên chung cuối cùng
  • 2:05 - 2:09
    Chúng ta biết rằng những cơ chế phức tạp
    đều mất 1 thời gian dài để tiến hóa
  • 2:10 - 2:12
    Vì vây, nhiều thay đổi tương đối nhỏ
  • 2:12 - 2:16
    tạo ra sự khác biệt giữa Kanzi và Witten,
  • 2:16 - 2:20
    giữa những nhánh cây dễ gãy
    và tên lửa đạn đạo xuyên lục địa
  • 2:21 - 2:25
    Vì thế, điều này sau đó trở nên khá
    rõ ràng rằng những điều chúng ta từng đạt được
  • 2:25 - 2:26
    và tất cả những gì ta quan tâm
  • 2:26 - 2:31
    phụ thuộc chủ yếu vào vài thay đổi
    tương đối nhỏ làm nên trí óc con người
  • 2:33 - 2:36
    Và tất nhiên, kết quả tất yếu là
    bất kỳ những thay đổi xa hơn
  • 2:36 - 2:40
    mà có thể thay đổi đáng kể
    nền tảng suy nghĩ
  • 2:40 - 2:43
    có thể mang tới những kết quả
    tiềm năng rất lớn
  • 2:44 - 2:47
    Vài đồng nghiệp của tôi
    nghĩ rằng chúng ta đang tiếp cận
  • 2:47 - 2:51
    rất gần với điều có thể tạo ra
    thay đổi sâu sắc trong nền tảng ấy
  • 2:51 - 2:52
    Và đó là siêu trí tuệ nhân tạo
  • 2:54 - 2:58
    Trí thông minh nhân tạo từng được dùng
    để đưa những chỉ thị vào máy tính (hộp)
  • 2:59 - 3:02
    Bạn sẽ có những nhà lập trình
  • 3:02 - 3:04
    có thể cần cù tạo ra
    những vật dụng có hiểu biết
  • 3:04 - 3:06
    Ta xây dựng những hệ thống chuyên gia này
  • 3:06 - 3:08
    và chúng khá là hữu dụng
    cho vài mục đích;
  • 3:08 - 3:11
    chúng cũng rất dễ vỡ,
    bạn không thể cạo gỉ cho chúng
  • 3:11 - 3:14
    Về cơ bản, đầu vào thế nào
    thì đầu ra như thế
  • 3:14 - 3:15
    Nhưng kể từ đó,
  • 3:15 - 3:19
    một sự thay đổi mô hình đã diễn ra
    , trong lĩnh vực trí tuệ nhân tạo.
  • 3:19 - 3:22
    Giờ đây, hoạt động này chỉ
    xoay quanh việc học của máy tính
  • 3:22 - 3:28
    Vì vậy thay vì tạo ra những tính năng và
    mô tả có hiểu biết một cách thủ công,
  • 3:29 - 3:34
    chúng ta tạo ra các thuật toán có thể học
    hỏi, thường là từ các dữ liệu tri giác thô
  • 3:34 - 3:39
    Cơ bản là những gì mà
    trẻ sơ sinh thực hiện.
  • 3:39 - 3:43
    Kết quả, ta tạo ra trí thông minh nhân tạo
    không bị bó buộc trong 1 phạm vi --
  • 3:43 - 3:48
    hệ thống đó cũng có thể học cách dịch
    bất kỳ cặp ngôn ngữ nào,
  • 3:48 - 3:53
    có thể học cách chơi bất kỳ trò chơi
    máy tính nào trên bảng điều khiển Atari
  • 3:53 - 3:55
    Giờ đây, tất nhiên,
  • 3:55 - 3:59
    trí thông minh nhân tạo vẫn chưa gần với
    khả năng học tập và lên kế hoạch
  • 3:59 - 4:02
    mạnh mẽ và đa lĩnh vực
    mà con người có
  • 4:02 - 4:04
    Vỏ não vẫn có vài
    mẹo toán học
  • 4:04 - 4:07
    mà chúng ta vẫn chưa biết
    làm sao để tạo ra bằng máy móc
  • 4:08 - 4:10
    Vì thế, câu hỏi đặt ra là
  • 4:10 - 4:13
    chúng ta còn bao lâu nữa thì
    mới có thể bắt kịp những mẹo này?
  • 4:14 - 4:15
    Vài năm trước,
  • 4:15 - 4:18
    chúng tôi đã có 1cuộc khảo sát
    vài chuyên gia thế giới về AI
  • 4:18 - 4:21
    để xem họ nghĩ gì,
    và 1 trong những điều chúng tôi hỏi là
  • 4:21 - 4:25
    "Bạn nghĩ xem, vào năm nào thì
    sẽ có khả năng 50%
  • 4:25 - 4:28
    chúng ta đạt được trí thông minh
    nhân tạo ở cấp độ con người?"
  • 4:29 - 4:33
    Cấp độ con người mà chúng tôi nói đến
    ở đây là khả năng thực hiện
  • 4:33 - 4:36
    gần như mọi việc, ít nhất là
    như 1 người lớn,
  • 4:36 - 4:40
    tức là, cấp độ con người thực thụ,
    chứ không chỉ giới hạn trong vài lĩnh vực.
  • 4:40 - 4:43
    Và câu trả lời trung bình
    là năm 2040 hoặc 2050
  • 4:43 - 4:46
    tùy thuộc chính xác vào nhóm
    chuyên gia mà chúng tôi hỏi.
  • 4:46 - 4:50
    Việc đó có thể xảy ra, sớm hơn,
    hoặc muộn hơn rất nhiều,
  • 4:50 - 4:52
    sự thật là, chẳng ai chắc chắn cả.
  • 4:53 - 4:58
    Điều mà chúng tôi biết chắc là
    giới hạn cao nhất cho việc xử lý thông tin
  • 4:58 - 5:03
    trong 1 nền tảng máy móc nằm rất xa
    ngoài những giới hạn trong mô sinh học.
  • 5:03 - 5:06
    Điều này liên quan tới vật lý.
  • 5:06 - 5:10
    Một nơ-ron sinh học dẫn truyền,
    chẳng hạn, ở 200 Hz, 200 lần/ giây
  • 5:10 - 5:14
    Nhưng thậm chí 1 bóng bán dẫn ngày nay
    vận hành với đơn vị Gigahertz
  • 5:14 - 5:19
    Nơ-ron truyền chậm rãi trong
    sợi trục thần kinh, với vận tốc cao nhất là 100 m/s
  • 5:19 - 5:22
    Nhưng trong máy tính, các tín hiệu có thể đi
    với vận tốc ánh sáng
  • 5:23 - 5:25
    Cũng có giới hạn về kích cỡ,
  • 5:25 - 5:28
    não người thì phải
    vừa hộp sọ,
  • 5:28 - 5:33
    nhưng máy tính thì có thể to cỡ
    nhà kho hoặc hơn
  • 5:33 - 5:38
    Vì thế, tiềm năng của siêu trí tuệ
    nằm im lìm trong vật chất,
  • 5:38 - 5:44
    giống như quyền năng của nguyên tử
    nằm im lìm xuyên suốt lịch sử loài người,
  • 5:44 - 5:48
    kiên nhẫn đợi chờ cho tới tận năm 1945.
  • 5:48 - 5:50
    Ở thế kỷ này,
  • 5:50 - 5:54
    các nhà khoa học có thể học cách
    thức tỉnh năng lực của trí tuệ nhân tạo.
  • 5:54 - 5:58
    Và tôi nghĩ từ đó chúng ta có thể thấy
    một cuộc bùng nổ trí tuệ.
  • 5:58 - 6:02
    Giờ đây, hầu hết mọi người, khi nghĩ về
    trí khôn và sự ngu ngốc,
  • 6:02 - 6:05
    Với tôi, điều đó
    giống như thế này.
  • 6:05 - 6:08
    Ở một đầu là làng người ngốc,
  • 6:08 - 6:10
    và xa tít phía đối diện,
    ở đầu bên kia
  • 6:10 - 6:15
    chúng ta có Ed Witten, Albert Einstein,
    hay bất kỳ guru ưa thích nào của bạn.
  • 6:15 - 6:19
    Nhưng tôi nghĩ rằng từ quan điểm của
    trí thông minh nhân tạo,
  • 6:19 - 6:23
    viễn cảnh thực sự thực ra
    trông lại giống như thế này:
  • 6:23 - 6:27
    AI bắt đầu tại đây,
    từ chỗ không có gì,
  • 6:27 - 6:30
    và rồi, sau rất, rất nhiều năm
    nỗ lực vất vả,
  • 6:30 - 6:33
    có thể chúng ta rồi sẽ đến với điểm mà
    trí tuệ nhân tạo ở mức độ loài chuột,
  • 6:33 - 6:36
    một thứ có thể vượt qua
    những môi trường hỗn loạn
  • 6:36 - 6:38
    giống như một chú chuột vậy.
  • 6:38 - 6:42
    Và rồi, sau rất rất rất nhiều năm
    lao động vất vả, đầu tư rất nhiều tiền của,
  • 6:42 - 6:47
    có thể cuối cùng chúng ta sẽ
    có được AI ở mức độ tinh tinh.
  • 6:47 - 6:50
    Và rồi, lại sau nhiều năm nữa
    với rất nhiều, rất nhiều nỗ lực,
  • 6:50 - 6:53
    chúng ta sẽ tạo ra được trí tuệ
    nhân tạo như của kẻ ngốc.
  • 6:53 - 6:56
    Và một vài tháng sau đó,
    chúng ta sẽ vượt qua Ed Witten.
  • 6:56 - 6:59
    Con tàu này không dừng lại
    tại trạm Con người.
  • 6:59 - 7:02
    Thay vào đó, từ đây
    nó vẫn tiến về phía trước.
  • 7:02 - 7:04
    Điều này có ẩn ý sâu sắc,
  • 7:04 - 7:08
    đặc biệt là khi nhắc tới
    những câu hỏi về quyền lực.
  • 7:08 - 7:10
    Ví dụ, loài tinh tinh rất khỏe --
  • 7:10 - 7:15
    về cân nặng, 1 chú tinh tinh
    khỏe gấp đôi 1 người cân đối.
  • 7:15 - 7:20
    Thế nhưng, số phận của Kanzi và những
    người bạn của nó phụ thuộc nhiều
  • 7:20 - 7:24
    vào điều loài người chúng ta làm
    hơn là điều mà tinh tinh làm.
  • 7:25 - 7:28
    Một khi đã có siêu trí tuệ,
  • 7:28 - 7:31
    số phận loài người có thể phụ thuộc
    vào điều mà siêu trí tuệ sẽ làm.
  • 7:32 - 7:34
    Hãy nghĩ về điều đó:
  • 7:34 - 7:39
    Trí thông minh nhân tạo là
    phát kiến cuối cùng mà con người cần tạo ra.
  • 7:39 - 7:42
    Khi đó, máy móc sẽ sáng tạo
    giỏi hơn chúng ta,
  • 7:42 - 7:44
    và chúng làm điều đó
    ở thang thời gian số.
  • 7:44 - 7:49
    Điều này về cơ bản là
    một lăng kính về tương lai.
  • 7:49 - 7:53
    Nghĩ về tất cả những công nghệ điên rồ
    mà bạn có thể tưởng tượng ra
  • 7:53 - 7:55
    có thể con người sẽ phát triển
    trong toàn bộ thời gian:
  • 7:55 - 7:59
    làm chậm lão hóa,
    sinh sống trên vũ trụ,
  • 7:59 - 8:02
    những nanobot tự sao chép hay
    upload trí óc chúng ta vào máy tính,
  • 8:02 - 8:04
    tất cả những điều có trong
    tiểu thuyết viễn tưởng
  • 8:04 - 8:07
    tuy nhiên lại không nhất quán
    với các luật vật lý.
  • 8:07 - 8:11
    Tất cả những siêu máy tính này có thể
    phát triển, có lẽ là khá nhanh chóng.
  • 8:12 - 8:16
    Giờ, 1 siêu trí tuệ với
    độ trưởng thành công nghệ như thế
  • 8:16 - 8:18
    có thể cực kỳ mạnh mẽ,
  • 8:18 - 8:23
    và ít nhất ở vài trường hợp,
    nó có thể đạt được điều nó muốn.
  • 8:23 - 8:28
    Chúng ta rồi sẽ có 1 tương lai có thể
    được định hình theo ưu tiên của A.I này.
  • 8:30 - 8:34
    Giờ, câu hỏi hay đặt ra ở đây là,
    những ưu tiên đó là gì?
  • 8:34 - 8:36
    Ở đây, mọi thứ trở nên rắc rối hơn.
  • 8:36 - 8:37
    Để tìm hiểu điều này,
  • 8:37 - 8:41
    trước hết, chúng ta phải
    tránh việc nhân cách hóa.
  • 8:42 - 8:45
    Điều đó thật nực cười bởi vì
    mọi bài viết trên mặt báo
  • 8:45 - 8:49
    về tương lai của trí thông minh nhân tạo
    đều đưa ra tình huống thế này:
  • 8:50 - 8:54
    Vì thế, tôi nghĩ điều chúng ta cần làm là
    tiếp nhận vấn đề 1 cách trừu tượng hơn,
  • 8:54 - 8:57
    không rõ ràng và hoành tráng
    như những cảnh tượng trên Hollywood.
  • 8:57 - 9:01
    Chúng ta cần nghĩ về trí thông minh
    như 1 quá trình tối ưu hóa,
  • 9:01 - 9:06
    một quá trình giúp định hướng tương lai
    vào 1 bộ những cấu hình nhất định.
  • 9:06 - 9:10
    Siêu trí tuệ là quá trình
    tối ưu hóa thực sự mạnh mẽ.
  • 9:10 - 9:14
    Nó có tài đặc biệt trong việc dùng những
    phương tiện sẵn có để đạt được trạng thái
  • 9:14 - 9:16
    mà ở đó mục tiêu của nó
    được thực hiện.
  • 9:16 - 9:19
    Có nghĩa là, không cần thiết phải có
    sự liên hệ giữa
  • 9:19 - 9:22
    trở nên cực kỳ thông minh
  • 9:22 - 9:27
    và có 1 mục tiêu mà con người
    có thể thấy là đáng giá hoặc ý nghĩa.
  • 9:27 - 9:31
    Giả sử, chúng ta cho trí tuệ nhân tạo
    mục tiêu là làm cho con người cười.
  • 9:31 - 9:34
    Khi AI còn yếu, nó sẽ thực hiện
    các hành động có ích, hài hước
  • 9:34 - 9:37
    khiến chủ nhân của nó mỉm cười.
  • 9:37 - 9:39
    Khi AI trở thành siêu trí tuệ,
  • 9:39 - 9:43
    nó nhận ra rằng có cách hiệu quả
    hơn nữa để đạt được mục tiêu này:
  • 9:43 - 9:44
    thống trị thế giới
  • 9:44 - 9:48
    và cắm điện cực vào
    các cơ mặt của con người
  • 9:48 - 9:51
    để tạo ra những nụ cười
    rạng rỡ, bất biến.
  • 9:51 - 9:52
    Một ví dụ khác,
  • 9:52 - 9:55
    giả sử chúng ta cho AI mục đích
    giải quyết 1 vấn đề toán học khó khăn.
  • 9:55 - 9:57
    Khi AI trở thành siêu trí tuệ,
  • 9:57 - 10:01
    nó nhận ra rằng cách hiệu quả nhất để
    giải quyết vấn đề này
  • 10:01 - 10:04
    là biến đổi hành tinh này
    thành 1 máy tính khổng lồ
  • 10:04 - 10:06
    để gia tăng khả năng suy nghĩ của nó.
  • 10:06 - 10:09
    Và để ý rằng điều này cho AI
    1 lý do thuộc về phương tiện
  • 10:09 - 10:12
    để làm những việc
    mà chúng ta có thể không đồng ý.
  • 10:12 - 10:13
    Trường hợp này, con người
    là mối đe dọa,
  • 10:13 - 10:16
    chúng ta có thể ngăn vấn đề
    toán học đó được giải quyết.
  • 10:17 - 10:21
    Tất nhiên, mọi việc có thể cũng không
    lầm lạc theo đúng những hướng này;
  • 10:21 - 10:22
    chúng là những ví dụ hư cấu.
  • 10:22 - 10:24
    Nhưng đại ý ở đây thì quan trọng:
  • 10:24 - 10:27
    nếu bạn tạo ra một quá trình tối ưu hóa
    thực sự quyền lực
  • 10:27 - 10:30
    để cực đại hóa cho mục tiêu x,
  • 10:30 - 10:32
    bạn nên chắc chắn rằng
    định nghĩa của bạn về x
  • 10:32 - 10:34
    kết hợp chặt chẽ với mọi điều
    bạn quan tâm tới.
  • 10:35 - 10:39
    Đây cũng là bài học rút ra từ
    thần thoại sau đây.
  • 10:39 - 10:45
    Vua Midas ước rằng mọi thứ ông
    chạm vào đều biến thành vàng.
  • 10:45 - 10:47
    Ông chạm vào con gái mình,
    cô biến thành vàng.
  • 10:47 - 10:50
    Ông chạm vào đồ ăn của mình,
    chúng biến thành vàng.
  • 10:50 - 10:53
    Điều này có thể trở nên đặc biệt liên quan,
  • 10:53 - 10:55
    không chỉ là 1 ẩn dụ cho lòng tham,
  • 10:55 - 10:56
    mà còn minh họa cho điều sẽ xảy ra
  • 10:56 - 10:59
    nếu bạn tạo ra 1 quá trình
    tối ưu hóa mạnh mẽ
  • 10:59 - 11:04
    và đưa cho nó những mục tiêu
    sai nhận thức hoặc không được định rõ.
  • 11:04 - 11:09
    Giờ bạn có thể nói, nếu 1 máy tính bắt đầu
    cắm điện cực vào mặt con người,
  • 11:09 - 11:12
    chúng ta đơn giản là tắt chúng đi.
  • 11:13 - 11:18
    A, điều này không dễ dàng đến thế nếu
    chúng ta trở nên phụ thuộc vào máy móc-
  • 11:18 - 11:21
    cũng giống như, làm thế nào để
    tắt nguồn Internet?
  • 11:21 - 11:26
    B, tại sao tinh tinh không
    tắt công tắc chuyển sang loài người,
  • 11:26 - 11:27
    hay là người Neanderthals?
  • 11:27 - 11:30
    Ắt hẳn phải có lý do nào đó.
  • 11:30 - 11:33
    Chúng ta có nút tắt,
    ví dụ, ở ngay đây.
  • 11:33 - 11:34
    (Ho)
  • 11:34 - 11:37
    Bởi lẽ chúng ta là
    một đối thủ thông minh;
  • 11:37 - 11:40
    chúng ta có thể đoán trước các
    nguy cơ và lên kế hoạch.
  • 11:40 - 11:42
    Nhưng 1siêu máy tính cũng
    có thể làm điều tương tự,
  • 11:42 - 11:46
    và nó có thể làm việc đó
    giỏi hơn chúng ta rất nhiều.
  • 11:46 - 11:53
    Vấn đề là, ở đây chúng ta không nên
    tự tin rằng mình đã kiểm soát được nó.
  • 11:53 - 11:56
    Và chúng ta có thể cố gắng để
    công việc của mình dễ dàng hơn bằng cách
  • 11:56 - 11:58
    ví dụ, đặt AI vào 1 chiếc hộp,
  • 11:58 - 12:00
    giống như 1 môi trường phần mềm an toàn,
  • 12:00 - 12:03
    1 kích thích thực tế ảo
    mà từ đó nó không thể trốn thoát.
  • 12:03 - 12:07
    Nhưng liệu chúng ta tự tin được bao nhiêu
    rằng AI không thể tìm ra lỗi kỹ thuật.
  • 12:07 - 12:10
    Cần nhớ rằng, các hacker là con người
    luôn luôn tìm ra lỗi,
  • 12:10 - 12:13
    Tôi cho là vậy, dù có thể không được
    tự tin lắm.
  • 12:14 - 12:19
    Vì vậy, chúng ta ngắt cáp cục bộ
    để tạo ra 1 lỗ hổng không khí,
  • 12:19 - 12:21
    nhưng 1 lần nữa, giống như những hacker
  • 12:21 - 12:25
    thường xuyên vi phạm những lỗ hổng
    không khí sử dụng mánh khóe xã hội.
  • 12:25 - 12:26
    Bây giờ, như tôi nói,
  • 12:26 - 12:28
    Tôi chắc chắn đâu đó
    ngoài kia có vài nhân viên
  • 12:28 - 12:32
    được bảo là phải giao nộp
    chi tiết tài khoản của mình
  • 12:32 - 12:35
    bởi 1 người tự nhận là
    ở ban công nghệ thông tin.
  • 12:35 - 12:37
    Những tình huống sáng tạo hơn
    cũng có thể xảy ra,
  • 12:37 - 12:38
    chẳng hạn, nếu bạn là AI,
  • 12:38 - 12:42
    bạn có thể tưởng tượng điện cực xoáy
    trôn ốc xung quanh mạch nội bộ
  • 12:42 - 12:45
    để tạo ra sóng radio mà bạn
    có thể dùng để giao tiếp.
  • 12:45 - 12:47
    Hoặc, bạn có thể giả vờ gặp sự cố,
  • 12:47 - 12:51
    và rồi khi lập trình viên mở bạn ra
    để xem bạn bị làm sao,
  • 12:51 - 12:53
    họ nhìn vào mã nguồn, và Bam!
  • 12:53 - 12:55
    quá trình thao túng sẽ diễn ra.
  • 12:55 - 12:59
    Hoặc nó có thể cung cấp bản thiết kế
    tới 1 công nghệ thực sự tiện lợi,
  • 12:59 - 13:00
    và khi bạn sử dụng nó,
  • 13:00 - 13:05
    xảy ra vài phản ứng phụ bí mật
    mà AI đã tính toán từ trước.
  • 13:05 - 13:08
    Tức là, chúng ta không nên tự tin
    vào khẳ năng của mình
  • 13:08 - 13:12
    để nhốt vị thần gian lận
    trong chai mãi mãi.
  • 13:12 - 13:14
    Chẳng sớm thì muốn, nó cũng thoát ra.
  • 13:15 - 13:18
    Tôi tin rằng câu trả lời ở đây
    là tìm ra
  • 13:18 - 13:23
    cách thức tạo 1 AI siêu trí tuệ
    mà ngay cả khi nó trốn thoát,
  • 13:23 - 13:26
    nó vẫn an toàn bởi vì về cơ bản
    nó vẫn thuộc phe ta
  • 13:26 - 13:28
    bởi vì hai bên cùng sẻ những giá trị chung.
  • 13:28 - 13:32
    Tôi thấy không còn cách nào khác
    cho vấn đề khó khăn này.
  • 13:33 - 13:36
    Thật ra tôi khá lạc quan rằng
    vấn đề này có thể được giải quyết.
  • 13:36 - 13:40
    Chúng ta sẽ không phải viết ra
    1 danh sách dài tất cả những gì ta quan tâm,
  • 13:40 - 13:44
    hay tệ hơn, nói ra
    bằng ngôn ngữ máy tính nào đó
  • 13:44 - 13:45
    như C++ hoặc Python,
  • 13:45 - 13:48
    thế thì còn hơn cả vô vọng.
  • 13:48 - 13:52
    Thay vào đó, chúng ta có thể tạo ra 1 AI
    sử dụng trí thông minh của mình
  • 13:52 - 13:55
    để học hỏi những gì ta coi trọng,
  • 13:55 - 14:01
    và hệ thống thúc đẩy của nó được xây dựng
    tức là động lực của nó là
  • 14:01 - 14:06
    theo đuổi các giá trị của ta hay làm
    các điều mà nó dự đoán ta sẽ chấp thuận.
  • 14:06 - 14:09
    Từ đó chúng ta có thể tận dụng
    trí thông minh của nó nhiều nhất có thể
  • 14:09 - 14:12
    để giải quyết vấn đề tải giá trị.
  • 14:13 - 14:14
    Điều này có thể xảy ra,
  • 14:14 - 14:18
    và kết quả có thể
    sẽ rất tốt cho loài người.
  • 14:18 - 14:22
    Nhưng điều đó không
    tự động xảy ra.
  • 14:22 - 14:25
    Các điều kiện ban đầu
    cho bùng nổ trí tuệ
  • 14:25 - 14:28
    có thể cần được thiết lập
    đúng cách
  • 14:28 - 14:31
    nếu chúng ta muốn có
    1 cuộc bùng nổ được kiểm soát.
  • 14:31 - 14:34
    Các giá trị mà AI cần
    hòa hợp với chúng ta,
  • 14:34 - 14:36
    không chỉ trong bối cảnh quen thuộc,
  • 14:36 - 14:38
    nơi ta có thể dễ dàng
    kiểm tra AI cư xử ra sao,
  • 14:38 - 14:41
    mà còn trong tất cả những hoàn cảnh mới lạ
    mà AI có thể gặp phải
  • 14:41 - 14:43
    trong tương lai bất định.
  • 14:43 - 14:48
    Và cũng có vài vấn đề đặc biệt
    cần được giải quyết, sắp xếp:
  • 14:48 - 14:50
    chi tiết cụ thể về lý thuyết
    ra quyết định
  • 14:50 - 14:52
    làm sao để giải quyết
    bất định hợp lý, vân vân.
  • 14:53 - 14:56
    Vì thế, những vấn đề kỹ thuật cần
    giải quyết để mọi thứ diễn ra suôn sẻ
  • 14:56 - 14:58
    trông có vẻ khó khăn --
  • 14:58 - 15:01
    tuy không khó khăn bằng việc
    tạo ra 1 AI siêu trí tuệ,
  • 15:01 - 15:04
    nhưng cũng tương đối khó khăn.
  • 15:04 - 15:05
    Đây là nỗi lo:
  • 15:05 - 15:10
    Tạo ra một AI siêu trí tuệ
    là 1 thử thách thực sự khó khăn.
  • 15:10 - 15:13
    Tạo ra 1 AI siêu trí tuệ an toàn
  • 15:13 - 15:15
    còn liên quan
    tới vài thử thách nữa.
  • 15:16 - 15:20
    Nguy cơ có người tìm ra cách
    vượt qua thử thách đầu tiên
  • 15:20 - 15:23
    mà không giải quyết
    một thử thách khác
  • 15:23 - 15:25
    để đảm bảo an toàn tuyệt đối.
  • 15:25 - 15:29
    Vì vậy tôi nghĩ chúng ta
    nên tìm ra giải pháp
  • 15:29 - 15:32
    cho vấn đề kiểm soát trước đã,
  • 15:32 - 15:34
    để khi cần thiết
    ta đã có sẵn giải pháp rồi.
  • 15:35 - 15:38
    Có thể là chúng ta không thể
    giải quyết trước toàn bộ vấn đề kiểm soát
  • 15:38 - 15:41
    bởi vì có lẽ vài yếu tố
    chỉ có thể được đặt vào
  • 15:41 - 15:45
    khi bạn biết chi tiết của
    cấu trúc trong đó nó được thực hiện.
  • 15:45 - 15:49
    Nhưng chúng ta giải quyết vấn đề kiểm soát
    càng sớm bao nhiêu,
  • 15:49 - 15:53
    thì khả năng quá trình chuyển đổi
    tới kỷ nguyên của trí tuệ nhân tạo
  • 15:53 - 15:54
    diễn ra càng tốt bấy nhiêu.
  • 15:54 - 15:59
    Vói tôi, điều này giống như
    1 điều rất đáng làm
  • 15:59 - 16:02
    và tôi có thể tưởng tượng rằng
    nếu mọi thứ diễn ra ổn thỏa,
  • 16:02 - 16:07
    rằng con người 1000 năm nữa
    sẽ nhìn lại thế kỷ này
  • 16:07 - 16:11
    và rất có thể họ sẽ nói rằng
    điều quan trọng duy nhất chúng ta làm
  • 16:11 - 16:13
    là thực hiện đúng điều này.
  • 16:13 - 16:14
    Cám ơn.
  • 16:14 - 16:17
    (Vỗ tay)
Title:
Điều gì xảy ra khi máy tính thông minh hơn chúng ta ?
Speaker:
Nick Bostrom
Description:

Trí thông minh nhân tạo đang ngày càng trở nên thông minh hơn. Các nghiên cứu cho thấy, chỉ trong thế kỷ này, AI của máy tính có thể "thông minh" như con người. Và rồi, nó sẽ vượt qua ta - theo Nick Bostrom. "Trí thông minh nhân tạo là phát kiến cuối cùng mà loài người cần tạo ra". Là triết gia và nhà công nghệ, Bostrom yêu cầu chúng ta suy nghĩ kỹ về thế giới mà mình đang xây dựng lúc này, được điều khiển bởi những máy móc biết suy nghĩ. Liệu những cỗ máy thống minh có giúp bảo tồn nhân loại và giá trị của chúng ta không - hay là chúng có hệ giá trị của riêng mình?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Vietnamese subtitles

Revisions