Return to Video

Làm sao để có được sức mạnh mà không bị áp đảo bởi trí tuệ nhân tạo

  • 0:01 - 0:05
    Sau 13.8 tỉ năm lịch sử vũ trụ,
  • 0:05 - 0:07
    vũ trụ của chúng ta đã tỉnh dậy,
  • 0:07 - 0:09
    và bắt đầu tự nhận thức.
  • 0:09 - 0:11
    Từ một hành tinh xanh nhỏ bé,
  • 0:11 - 0:16
    nơi có nhận thức của thế giới bao la đã
    bắt đầu nhìn ra bên ngoài hành tinh của họ
  • 0:16 - 0:17
    bằng kính viễn vọng,
  • 0:17 - 0:18
    để khám phá những điều nhỏ bé.
  • 0:19 - 0:22
    Ta phát hiện ra rằng
    vũ trụ này rộng lớn hơn rất nhiều
  • 0:22 - 0:24
    so với tổ tiên tưởng tượng
  • 0:24 - 0:28
    và cuộc sống dường như là một sự xáo trộn
    mà chúng ta đều không thể nhận thấy được
  • 0:28 - 0:30
    trên một hành tinh chết khác.
  • 0:30 - 0:33
    Nhưng ta cũng khám phá ra một điều
    vô cùng hấp dẫn,
  • 0:33 - 0:36
    đó là nền công nghệ đang được phát triển
    mang lại tiềm năng
  • 0:36 - 0:39
    nâng cao cuộc sống hơn bao giờ hết,
  • 0:39 - 0:42
    không chỉ trong một vài thế kỉ
    mà trong hàng triệu năm lịch sử,
  • 0:42 - 0:46
    không chỉ trên trái đất này
    mà còn rộng mở cho cả vũ trụ vĩ đại này.
  • 0:48 - 0:51
    Tôi nghĩ cuộc sống sơ khai nhất
    là "Cuộc sống phiên bản 1.0"
  • 0:51 - 0:52
    bởi vì nó không có trí tuệ,
  • 0:52 - 0:57
    như vi khuẩn, không có khả năng tiếp thu
    được cái gì trong suốt quãng đời của nó.
  • 0:57 - 1:00
    Còn loài người là "Cuộc sống bản 2.0"
    vì chúng ta có thể học,
  • 1:00 - 1:02
    giao tiếp,
  • 1:02 - 1:05
    lại còn nghĩ tới việc
    cài một phần mềm vào trong não,
  • 1:05 - 1:07
    để biết thêm ngôn ngữ
    hoặc kỹ năng khác.
  • 1:08 - 1:12
    "Cuộc sống bản 3.0", không những thiết kế
    được 'phần mềm' mà còn 'phần cứng' của nó
  • 1:12 - 1:14
    chắc chắn là chưa xuất hiện.
  • 1:14 - 1:17
    Nhưng có lẽ, với nền công nghệ hiện tại,
    ta đã nâng cấp lên phiên bản 2.1,
  • 1:17 - 1:22
    đầu gối nhân tạo, máy điều hòa nhịp tim
    và cả những con ốc điện tử.
  • 1:22 - 1:26
    Vì vậy, hãy nhìn kỹ hơn sự liên kết
    của chúng ta với nền công nghệ,
  • 1:27 - 1:28
    Ví dụ,
  • 1:28 - 1:33
    tàu vũ trụ Apollo 11 đã khám phá mặt trăng
    rất thành công và truyền cảm hứng,
  • 1:33 - 1:36
    chứng tỏ rằng khi ta biết cách
    sử dụng công nghệ khéo léo,
  • 1:36 - 1:40
    chúng ta có thể đạt tới những điều
    mà tổ tiên chỉ biết mơ tới.
  • 1:40 - 1:43
    Nhưng còn một chuyến hành trình vĩ đại hơn
  • 1:43 - 1:46
    được phóng lên bởi cái gì đó
    mạnh hơn cả hệ thống tên lửa,
  • 1:47 - 1:50
    nơi mà hành khách không chỉ có
    duy nhất 3 phi hành gia
  • 1:50 - 1:51
    mà là cả một nhân loại.
  • 1:51 - 1:54
    Hãy nói về chuyến hành trình
    của chúng ta trong tương lai
  • 1:54 - 1:56
    với trí tuệ nhân tạo.
  • 1:57 - 2:01
    Bạn của tôi, Jaan Tallinn chỉ ra rằng
    nếu chỉ với mỗi nền công nghệ tên lửa,
  • 2:02 - 2:05
    thì có lẽ khó để biến công nghệ
    trở nên mạnh mẽ hơn.
  • 2:06 - 2:09
    Chúng ta cũng sẽ phải tìm ra,
    nếu chúng ta thực sự khát vọng,
  • 2:09 - 2:10
    cách để điều khiển nó
  • 2:10 - 2:12
    và ta muốn đi tới đâu cùng nó.
  • 2:13 - 2:16
    Hãy nói về 3 điều của trí tuệ nhân tạo:
  • 2:16 - 2:19
    sức mạnh, sự chỉ đạo và đích đến.
  • 2:20 - 2:21
    Cùng bắt đầu với sức mạnh.
  • 2:22 - 2:25
    Tôi định nghĩ trí tuệ rất là bao hàm--
  • 2:25 - 2:29
    đơn giản như khả năng hoàn thành
    các mục tiêu phức tạp của chúng ta,
  • 2:29 - 2:33
    vì tôi muốn bao gồm
    cả trí tuệ sinh học và trí tuệ nhân tạo.
  • 2:33 - 2:37
    Tôi muốn tránh cái ý tưởng ngớ ngẩn
    về sự tôn vinh carbon
  • 2:37 - 2:40
    do đó bạn chỉ có thể thông minh
    khi bạn được tạo nên từ thịt.
  • 2:41 - 2:45
    Thật tuyệt vời khi nói về AI đã phát triển
    như thế nào trong thời gian gần đây.
  • 2:45 - 2:46
    Cùng suy nghĩ về nó.
  • 2:46 - 2:50
    Cách đây không lâu,
    robots không thể đi được.
  • 2:51 - 2:53
    Còn bây giờ, nó có thể nhào lộn.
  • 2:54 - 2:56
    Cách đây không lâu,
  • 2:56 - 2:58
    chúng ta chưa hề có xe ô tô tự động.
  • 2:59 - 3:01
    và bây giờ, ta đã có tên lửa tự động.
  • 3:04 - 3:05
    Cách đây không lâu,
  • 3:05 - 3:08
    AI không thể nhận diện được mặt con người.
  • 3:08 - 3:11
    Bây giờ, AI có thể tạo ra khuôn mặt giả
  • 3:11 - 3:15
    và mô phỏng khuôn mặt của bạn
    nói những điều mà bạn chưa bao giờ nói.
  • 3:16 - 3:18
    Cách đây không lâu,
  • 3:18 - 3:20
    AI không thể thắng ta trong trò cờ vây.
  • 3:20 - 3:25
    Và rồi, AI của Google DeepMind's AlphaZero
    lấy trọn 3000 năm luyện tập của con người
  • 3:26 - 3:27
    và cả những chiến thuật,
  • 3:27 - 3:32
    bỏ qua những điều đó, nó trở thành đối thủ
    nặng ký nhất kể cả khi chơi với chính nó.
  • 3:32 - 3:35
    Điều ấn tượng nhất không phải là
    nó đã đánh bại người chơi như thế nào,
  • 3:36 - 3:38
    mà là nó đã hạ gục cả những
    người nghiên cứu ra nó
  • 3:38 - 3:42
    người đã dành hàng chục năm
    để tạo ra những phần mềm chơi trò chơi.
  • 3:42 - 3:47
    Và AlphaZero hạ gục các nhà nghiên cứu
    không chỉ mỗi cờ vây mà còn cả cờ vua,
  • 3:47 - 3:49
    bộ môn mà ta đã thành thạo từ năm 1950.
  • 3:50 - 3:54
    Chính những thành tựu tuyệt vời gần đây
    của AI, đã dấy lên một câu hỏi:
  • 3:55 - 3:57
    Nó sẽ có thể tiến bộ tới đâu?
  • 3:58 - 3:59
    Tôi thích nghĩ tới câu hỏi này
  • 4:00 - 4:02
    bằng các khái niệm trừu tượng
    của nhiệm vụ,
  • 4:03 - 4:06
    nơi mà các cấp bậc thể hiện sự
    khó khăn để AI hoàn thành một nhiệm vụ
  • 4:06 - 4:07
    ở cấp độ con người,
  • 4:07 - 4:10
    và mực nước biển thể hiện những gì
    mà AI có thể làm ngày nay.
  • 4:11 - 4:13
    Mực nước biển tăng lên
    chỉ sự cải thiện của AI,
  • 4:13 - 4:17
    vì vậy hiện tượng nóng lên toàn cầu xảy ra
    trong cảnh quan nhiệm vụ.
  • 4:18 - 4:21
    Và điều hiển nhiên là
    tránh những công việc tại bờ sông --
  • 4:21 - 4:23
    (Cười)
  • 4:23 - 4:26
    nơi mà nó sẽ bị phá huỷ sớm.
  • 4:26 - 4:29
    Nhưng còn có một câu hỏi lớn hơn thế nữa
  • 4:29 - 4:30
    Mực nước sẽ dâng cao tới đâu?
  • 4:31 - 4:35
    Liệu nó sẽ nhấn chìm mọi thứ,
  • 4:36 - 4:38
    đấu trí với con người ở mọi lĩnh vực.
  • 4:38 - 4:42
    Đây là định nghĩa của trí tuệ nhân tạo --
  • 4:42 - 4:43
    AGI,
  • 4:43 - 4:47
    giao thức mạng thần thánh của AI
    từ điểm khởi đầu.
  • 4:47 - 4:49
    Với định nghĩa này, những người nói
  • 4:49 - 4:52
    "À, chắc chắn sẽ có việc
    mà con người làm tốt hơn máy móc",
  • 4:52 - 4:55
    đơn giản nói rằng chúng ta sẽ
    không bao giờ có được AGI.
  • 4:56 - 4:59
    Chắc chắn, chúng ta vẫn có thể chọn
    những công việc của con người
  • 4:59 - 5:02
    hoặc là đưa thu nhập và mục tiêu
    với công việc của chúng ta,
  • 5:02 - 5:06
    nhưng AGI trong mọi trường hợp
    sẽ chuyển đổi cuộc sống như ta đã biết
  • 5:06 - 5:09
    cái lúc mà con người đã không còn
    thông minh nhất nữa.
  • 5:09 - 5:13
    Bây giờ, nếu mực nước chạm tới AGI,
  • 5:13 - 5:18
    thì sau này, AI sẽ được vận hành
    bởi chính nó thay vì con người,
  • 5:18 - 5:20
    nghĩa là có khả năng rằng
  • 5:20 - 5:22
    các AI trong tương lai
    sẽ còn phát triển nhanh hơn
  • 5:22 - 5:26
    cả những nghiên cứu điển hình
    mà loài người đã phát triển bao lâu nay,
  • 5:26 - 5:30
    dấy lên tranh cãi
    về sự bùng nổ của trí thông minh
  • 5:30 - 5:32
    nơi mà quá trình tự hoàn thiện của AI
  • 5:32 - 5:35
    đã nhanh chóng bỏ xa
    trí thông minh của con người ở phía sau,
  • 5:35 - 5:38
    được biết đến như siêu thông minh.
  • 5:40 - 5:42
    Được rồi, cùng kiểm chứng trong thực tế:
  • 5:43 - 5:46
    Liệu chúng ta sẽ đạt được AGI sớm?
  • 5:46 - 5:49
    Một số nhà nghiên cứu về AI nổi tiếng,
    như Rodney Brooks,
  • 5:49 - 5:52
    nghĩ điều đó sẽ không xảy ra
    trong hàng trăm năm nữa.
  • 5:52 - 5:55
    Thế nhưng, nhà sáng lập
    Google DeedMind Demis Hassabis,
  • 5:56 - 5:57
    lại lạc quan hơn
  • 5:57 - 5:59
    và đang làm việc để
    rút ngắn khoảng thời gian này.
  • 5:59 - 6:03
    Các khảo sát gần đây cho thấy
    rằng đa số các nhà nghiên cứu AI
  • 6:03 - 6:06
    thực sự đồng ý
    với ý tưởng lạc quan của Demis,
  • 6:06 - 6:09
    hy vọng rằng chúng ta có thể đạt đến AGI
    chỉ trong vòng vài chục năm tới,
  • 6:10 - 6:12
    vì vậy trong cuộc đời của chúng ta,
  • 6:12 - 6:14
    sẽ hỏi rằng-- sau đó sẽ như thế nào?
  • 6:15 - 6:17
    Ta muốn vai trò của loài người sẽ là gì
  • 6:17 - 6:20
    nếu máy móc lại có thể làm mọi thứ
    tốt và rẻ hơn chúng ta?
  • 6:22 - 6:25
    Với cách nhìn nhận này,
    chúng ta đối mặt với một lựa chọn.
  • 6:26 - 6:28
    Một lựa chọn là tự mãn.
  • 6:28 - 6:31
    Ta có thể nói rằng, "Ok, hãy xây những
    máy móc có thể làm mọi thứ chúng ta làm
  • 6:31 - 6:33
    và không cần lo về hậu quả của nó.
  • 6:33 - 6:36
    Nào, nếu ta xây dựng nền công nghệ
    khiến loài người trở nên lỗi thời,
  • 6:37 - 6:39
    thì hình như có điều gì đó hơi sai ở đây?"
  • 6:39 - 6:40
    (Cười)
  • 6:40 - 6:43
    Tôi nghĩ điều đó sẽ rất xấu hổ.
  • 6:44 - 6:48
    Tôi nghĩ chúng ta nên tham vọng hơn nữa --
    theo tinh thần của TED.
  • 6:48 - 6:51
    Hãy thử hình dung một cảm hứng thực sự
    trong ngành công nghệ cao tương lai
  • 6:51 - 6:53
    và cố gắng định hướng nó.
  • 6:54 - 6:57
    Điều này đưa chúng ta tới phép ẩn dụ
    về tên lửa thứ hai: sự định hướng.
  • 6:57 - 6:59
    Ta làm cho AI
    ngày càng hùng mạnh hơn,
  • 6:59 - 7:03
    nhưng làm sao chúng ta có thể định hướng
    được tương lai
  • 7:03 - 7:06
    khi mà AI giúp loài người hưng thịnh
    thay vì chật vật khổ sở?
  • 7:06 - 7:07
    Để giải quyết vấn đề này,
  • 7:07 - 7:10
    tôi đã đồng sáng lập
    Viện Cuộc sống Tương lai.
  • 7:10 - 7:12
    Đó là một tổ chức phi lợi nhuận nhỏ
    áp dụng công nghệ có ích,
  • 7:12 - 7:16
    mục tiêu của chúng tôi chỉ đơn giản
    là để hiện thực hóa cuộc sống tương lai
  • 7:16 - 7:18
    và trở thành nguồn cảm hứng.
  • 7:18 - 7:21
    Các bạn biết đấy, tôi yêu thích công nghệ.
  • 7:21 - 7:24
    Công nghệ là lý do cuộc sống ngày nay
    vượt xa Thời Đồ đá.
  • 7:25 - 7:29
    Và tôi lạc quan rằng chúng ta có thể tạo
    ra cảm hứng cho công nghệ cao tương lai...
  • 7:29 - 7:31
    nếu -- và đây là
    một cái nếu quan trọng --
  • 7:31 - 7:34
    nếu ta chiến thắng
    trong cuộc đua về sự hiểu biết --
  • 7:34 - 7:36
    cuộc đua giữa sự phát triển
    công nghệ của chúng ta
  • 7:37 - 7:39
    và sự hiểu biết nằm trong
    sự kiểm soát của chúng ta.
  • 7:39 - 7:42
    Nhưng điều này đòi hỏi sự thay đổi
    trong phương pháp
  • 7:42 - 7:45
    bởi các phương pháp cũ được học hỏi
    từ những sai lầm.
  • 7:45 - 7:47
    Chúng ta đã phát minh ra lửa,
  • 7:47 - 7:48
    lửa đã tàn phá nhiều lần --
  • 7:48 - 7:50
    từ đó phát minh ra bình cứu hỏa.
  • 7:50 - 7:51
    (Cười)
  • 7:51 - 7:54
    Chúng ta đã phát minh ra xe hơi,
    gây ra sự tàn phá nhiều lần --
  • 7:54 - 7:57
    từ đó phát minh ra đèn giao thông,
    dây an toàn và túi khí
  • 7:57 - 8:01
    nhưng với công nghệ càng mạnh mẽ hơn
    như vũ khí hạt nhân và AGI,
  • 8:01 - 8:04
    học hỏi từ những sai lầm đó là
    một phương pháp tồi,
  • 8:04 - 8:05
    bạn có nghĩ thế không?
  • 8:05 - 8:06
    (Cười)
  • 8:06 - 8:09
    Sự chủ động luôn tốt hơn nhiều
    so với sự bị động;
  • 8:09 - 8:11
    lên kế hoạch trước và làm đúng
    ngay từ đầu
  • 8:11 - 8:14
    bởi vì đó có thể là cơ hội
    duy nhất chúng ta có.
  • 8:14 - 8:16
    Điều đó cũng khá vui vì
    đôi khi mọi người bảo tôi rằng,
  • 8:16 - 8:19
    "Max, suỵt, đừng nói như vậy.
  • 8:19 - 8:21
    Như kiểu Luddite đang phao tin vậy."
  • 8:22 - 8:24
    Nhưng đó không phải là tin đồn nhảm nhí.
  • 8:24 - 8:26
    Đây là thứ chúng tôi gọi
    là an toàn kỹ thuật tại MIT.
  • 8:27 - 8:28
    Hãy nghĩ về điều này:
  • 8:28 - 8:31
    trước khi NASA phóng tàu Apollo 11,
  • 8:31 - 8:34
    họ đã suy nghĩ một cách có hệ thống
    rằng mọi thứ có thể sai
  • 8:34 - 8:36
    khi bạn đặt con người trên
    thùng chứa nhiên liệu nổ
  • 8:36 - 8:39
    và đưa họ tới đâu đó,
    nơi không ai có thể giúp họ.
  • 8:39 - 8:41
    Và có hàng tá điều có thể sai lầm.
  • 8:41 - 8:42
    Đó có phải là
    tin đồn nhảm không?
  • 8:43 - 8:44
    Không.
  • 8:44 - 8:46
    Đó chính xác là kỹ thuật an toàn
  • 8:46 - 8:48
    nhằm đảm bảo nhiệm vụ thành công,
  • 8:48 - 8:52
    và đó chính xác là mục đích
    mà tôi nghĩ ta nên sử dụng AGI.
  • 8:52 - 8:57
    Nghĩ thấu "điều gì có thể sai lệch"
    để chắc chắn nó đi đúng hướng.
  • 8:57 - 8:59
    Nên với tinh thần này,
    chúng tôi tổ chức các hội thảo,
  • 8:59 - 9:02
    kết nối các nhà nghiên cứu AI
    và học giả hàng đầu
  • 9:02 - 9:06
    để thảo luận cách phát triển sự thông minh
    này ta cần giữ cho AI có ích.
  • 9:06 - 9:09
    Hội thảo gần đây nhất của chúng tôi
    ở Asilomar, California năm ngoái
  • 9:09 - 9:12
    đã đưa ra danh sách này
    với 23 quy ước
  • 9:12 - 9:15
    được kí tên bởi
    hơn 1000 nhà nghiên cứu AI
  • 9:15 - 9:16
    và các nhà lãnh đạo
    kinh tế chủ chốt,
  • 9:16 - 9:20
    Tôi muốn nói với bạn về 3
    trong số các nguyên tắc này.
  • 9:20 - 9:25
    Một là chúng ta nên tránh chạy đua
    vũ trang và vũ khí tự hủy diệt.
  • 9:25 - 9:29
    Ý tưởng là sản phẩm khoa học nào cũng được
    sử dụng như cách mới để giúp đỡ con người
  • 9:29 - 9:31
    hoặc là làm hại con người.
  • 9:31 - 9:35
    Ví dụ, sinh học và hóa học
    đang được sử dụng nhiều
  • 9:35 - 9:39
    cho nghiên cứu thuốc mới, cách
    chữa bệnh mới hơn là giết người.
  • 9:40 - 9:42
    vì các nhà sinh hóa học
    đã làm việc tích cực
  • 9:42 - 9:43
    và thành công
  • 9:43 - 9:45
    khi cấm các loại vũ khí
    sinh học và hóa học.
  • 9:45 - 9:46
    Và trên tinh thần này,
  • 9:46 - 9:51
    đa số các nhà nghiên cứu AI muốn lên án
    và cấm các vũ khí tự hủy diệt.
  • 9:52 - 9:53
    Một nguyên tắc khác tại Asilomar AI
  • 9:53 - 9:57
    là chúng ta nên giảm tối thiểu
    chi phí nhiên liệu phát sinh cho AI.
  • 9:57 - 10:02
    Tôi nghĩ nếu ta có thể tăng trưởng
    chiếc bánh kinh tế mạnh mẽ bằng AI
  • 10:02 - 10:04
    và ta vẫn không hình dung ra
    cách chia cái bánh này
  • 10:04 - 10:06
    thì mọi người tốt hơn là dừng lại,
  • 10:06 - 10:07
    đáng tiếc cho chúng ta.
  • 10:07 - 10:11
    (Vỗ tay)
  • 10:11 - 10:15
    Bây giờ, bạn hãy giơ tay lên
    nếu máy tính bạn đã từng bị phá tan tành.
  • 10:15 - 10:17
    (Cười)
  • 10:17 - 10:18
    Chà, có nhiều cánh tay quá.
  • 10:18 - 10:21
    Và, sau đó, bạn sẽ đánh giá cao
    nguyên tắc này
  • 10:21 - 10:24
    rằng ta nên đầu tư nhiều hơn nữa
    vào việc nghiên cứu an toàn AI,
  • 10:24 - 10:27
    Vì khi ta giao cho AI phụ trách làm ra
    nhiều quyết định và cơ sở hạ tầng hơn,
  • 10:27 - 10:31
    ta cần phải tìm ra cách chuyển
    các máy tính bị lỗi và có khả năng bị hack
  • 10:31 - 10:34
    thành các hệ thống Robot AI
    mà ta có thể thực sự tin tưởng,
  • 10:34 - 10:35
    Nếu không thì,
  • 10:35 - 10:38
    mọi công nghệ mới tuyệt vời có thể
    trục trặc và gây hại cho ta,
  • 10:38 - 10:40
    hoặc bị hack và
    chống lại chúng ta.
  • 10:40 - 10:45
    Và việc an toàn hoá AI này
    phải bao gồm việc liên kết giá trị AI,
  • 10:45 - 10:48
    vì đe dọa thực sự từ AI
    không hề ác ý,
  • 10:48 - 10:50
    như trong những bộ phim ngớ ngẩn
    của Hollywood,
  • 10:50 - 10:52
    Tuy nhiên, năng lực --
  • 10:52 - 10:55
    Hoàn thành mục tiêu AGI không phải là
    con đường thẳng với mục tiêu của chúng ta.
  • 10:55 - 11:00
    Ví dụ, khi con người tới,
    tê giác đen Tây Phi bị tuyệt chủng,
  • 11:00 - 11:04
    chúng ta không làm điều đó vì không phải
    tất cả đều căm thù tê giác, phải không ạ?
  • 11:04 - 11:06
    Chúng ta làm vì chúng ta
    thông minh hơn chúng
  • 11:06 - 11:08
    và mục tiêu của chúng ta
    không như của chúng.
  • 11:08 - 11:11
    Song AGI, theo định nghĩa là nó
    thông minh hơn chúng ta,
  • 11:11 - 11:15
    nên để đảm bảo chúng ta không đẩy mình vào
    vị trí của những con tê giác.
  • 11:15 - 11:17
    Nếu ta tạo ra AGI,
  • 11:17 - 11:21
    ta cần phải biết cách làm cho
    máy móc hiểu được mục tiêu của chúng ta,
  • 11:21 - 11:24
    thích nghi và duy trì
    mục tiêu của chúng ta.
  • 11:25 - 11:28
    Và toàn bộ mục tiêu nên như thế này,
    bằng mọi giá phải không ạ?
  • 11:28 - 11:30
    Chúng nên có những mục tiêu nào?
  • 11:30 - 11:34
    Điều này đưa ta tới phần thứ 3
    của phép ẩn ý tên lửa: đích đến.
  • 11:35 - 11:37
    Chúng ta đang làm cho AI mạnh mẽ hơn,
  • 11:37 - 11:39
    nỗ lực tìm ra cách điều khiển nó,
  • 11:39 - 11:41
    nhưng chúng ta muốn
    đi cùng nó tới đâu?
  • 11:42 - 11:45
    Điều này giống như con voi trong căn phòng
    chẳng có người để ý tới nó,
  • 11:45 - 11:47
    thậm chí là ngay đây,
    tại TED
  • 11:47 - 11:51
    vì chúng ta quá để tâm vào
    các thử thách AI ngắn hạn.
  • 11:52 - 11:57
    Nhìn xem, loài người đang
    nỗ lực xây dựng AGI,
  • 11:57 - 12:00
    bởi sự tò mò và nền kinh tế thúc đẩy.
  • 12:00 - 12:04
    Nhưng xã hội mà ta mong đợi trong
    tương lai sẽ ra sao nếu ta thành công?
  • 12:04 - 12:07
    Chúng tôi đã làm một cuộc thăm dò
    ý kiến về điều này gần đây,
  • 12:07 - 12:08
    tôi rất ngạc nhiên khi
  • 12:08 - 12:11
    phần lớn mọi người thực sự muốn
    chúng tôi tạo ra siêu AI:
  • 12:11 - 12:14
    Cực kỳ thông minh hơn
    con người về mọi thứ.
  • 12:15 - 12:18
    Thỏa thuận lớn nhất đó là
    chúng ta nên tham vọng hơn
  • 12:18 - 12:21
    và giúp cho sự sống rộng mở hơn
    trong vũ trụ,
  • 12:21 - 12:25
    nhưng vẫn có sự không nhất quán về việc ai
    hoặc cái gì sẽ thực hiện trách nhiệm này.
  • 12:25 - 12:27
    Tôi đã thực sự rất vui thích
  • 12:27 - 12:30
    khi thấy một số người muốn
    được như những cỗ máy.
  • 12:30 - 12:32
    (Cười)
  • 12:32 - 12:36
    Và toàn bộ không nhất trí về vấn đề
    đâu là vai trò con người nên có
  • 12:36 - 12:38
    thậm chí ở mức cơ bản nhất.
  • 12:38 - 12:41
    Hãy nhìn gần hơn
    về một tương lai
  • 12:41 - 12:44
    mà chúng ta có thể chọn để
    hướng tới, được không?
  • 12:44 - 12:45
    Bạn đừng hiểu sai ý tôi.
  • 12:45 - 12:47
    Tôi không nói về du hành xuyên không gian,
  • 12:47 - 12:50
    chỉ đơn thuần là về hành trình ẩn ý
    của loài người tới tương lai.
  • 12:51 - 12:54
    Một lựa chọn mà một số
    đồng nghiệp AI của tôi ưa thích
  • 12:54 - 12:58
    là xây dựng siêu AI, và giữ nó
    trong sự kiểm soát của con người,
  • 12:58 - 13:00
    như là nô lệ của Chúa,
  • 13:00 - 13:01
    ngắt kết nối với internet
  • 13:01 - 13:05
    và được sử dụng để tạo ra công nghệ
    phi thường và của cải
  • 13:05 - 13:06
    cho bất cứ người nào kiểm soát nó.
  • 13:06 - 13:08
    Song Lord Acton đã cảnh báo chúng ta
  • 13:08 - 13:12
    rằng quyền lực, và quyền lực
    tuyệt đối dẫn đến hỗn loạn tuyệt đối,
  • 13:12 - 13:16
    nên bạn có thể lo lắng rằng liệu con người
    không đủ thông minh
  • 13:16 - 13:18
    hoặc không đủ khôn ngoan hơn,
  • 13:18 - 13:19
    để nắm giữ quyền lực này.
  • 13:20 - 13:22
    Ngoài những nỗi e sợ
    về đạo đức bạn có thể có,
  • 13:22 - 13:24
    về sự nô dịch cho siêu trí tuệ,
  • 13:25 - 13:28
    Bạn có thể bất an về việc
    AI có thể thông minh hơn chúng ta,
  • 13:29 - 13:31
    thoát khỏi và chiếm quyền kiểm soát.
  • 13:32 - 13:35
    Nhưng tôi cũng có những đồng nghiệp
    lạc quan về việc AI sẽ chiếm giữ
  • 13:35 - 13:37
    và thậm chí là nguyên nhân
    tuyệt chủng con người,
  • 13:37 - 13:41
    khi chúng ta cảm thấy AI là
    những hậu duệ xứng đáng,
  • 13:41 - 13:43
    như con cháu chúng ta.
  • 13:43 - 13:48
    Nhưng làm sao ta biết được AI tiếp nhận
    những giá trị tốt nhất của con người,
  • 13:48 - 13:53
    và không phải là hình nộm lừa
    chúng ta qua nhân cách hóa?
  • 13:53 - 13:56
    Liệu những ai không muốn
    con người tuyệt chủng,
  • 13:56 - 13:57
    lên tiếng rằng đó cũng là nguyên nhân?
  • 13:58 - 14:02
    Giờ đây, nếu bạn đều không thích
    cả hai lựa chọn công nghệ này,
  • 14:02 - 14:05
    thì điều quan trọng cần nhớ là
    công nghệ thấp là tự sát
  • 14:05 - 14:06
    từ góc nhìn tương lai,
  • 14:06 - 14:09
    vì nếu chúng ta không vượt xa
    công nghệ hiện có,
  • 14:09 - 14:11
    câu hỏi sẽ không phải là
    liệu nhân loại sắp bị tuyệt chủng,
  • 14:11 - 14:13
    mà sẽ là chúng ta sẽ bị kiểm soát
  • 14:13 - 14:16
    bởi hành tinh hủy diệt tiếp theo,
    siêu núi lửa
  • 14:16 - 14:19
    hoặc vài vấn đề khác mà đáng ra
    công nghệ tốt hơn có thể giải quyết.
  • 14:19 - 14:22
    Cho nên, việc có cái bánh và ăn nó...
  • 14:22 - 14:24
    cùng với AGI không phải là sự nô dịch
  • 14:25 - 14:28
    nhưng lại đối xử tốt với chúng ta vì
    giá trị của chúng song hành cùng chúng ta?
  • 14:28 - 14:32
    Đây là nguyên nhân chính mà Cliezer
    Yudkowsky đã gọi là "AI thân thiện"
  • 14:33 - 14:35
    Nếu ta có thể làm được điều này,
    đó sẽ rất tuyệt.
  • 14:36 - 14:41
    AI không thể loại bỏ những trải nghiệm
    tiêu cực như bệnh tật, đói nghèo,
  • 14:41 - 14:42
    tội phạm và những khổ đau khác.
  • 14:42 - 14:45
    Nhưng nó có thể cho chúng ta
    sự tự do lựa chọn
  • 14:45 - 14:49
    từ sự đa dạng, mới mẻ tuyệt vời
    của những trải nghiệm tích cực --
  • 14:49 - 14:52
    dựa trên việc để chúng ta
    làm chủ số phận của chính mình.
  • 14:54 - 14:56
    Tóm lại,
  • 14:56 - 14:59
    vị thế của chúng ta với
    công nghệ là phức tạp,
  • 14:59 - 15:01
    nhưng nhìn chung
    thì khá đơn giản.
  • 15:01 - 15:05
    Đa số các nhà nghiên cứu AI
    chờ đợi AGI qua hàng thập kỷ,
  • 15:05 - 15:08
    và nếu chúng ta chỉ tự mãn
    mà không chuẩn bị,
  • 15:08 - 15:11
    đó sẽ có thể là sai lầm lớn nhất
    trong lịch sử loài người.
  • 15:11 - 15:13
    Hãy đối mặt với nó.
  • 15:13 - 15:15
    Nó có thể sẽ tàn bạo, độc quyền toàn cầu,
  • 15:15 - 15:19
    bằng sự bất bình đẳng không thể
    dự đoán, bị quản đốc và tổn thương,
  • 15:19 - 15:21
    và thậm chí có thể là
    sự tuyệt chủng loài người.
  • 15:21 - 15:23
    Nhưng nếu chúng ta điều hướng
    cẩn thận,
  • 15:24 - 15:28
    ta có thể đúc kết trong một tương lai
    sáng lạng khi mọi người đều tốt lên:
  • 15:28 - 15:30
    người nghèo sẽ giàu có lên,
    người giàu thì giàu hơn,
  • 15:30 - 15:34
    mọi người đều khỏe mạnh và tự do
    sống với ước mơ của mình.
  • 15:35 - 15:37
    Bây giờ, còn nữa.
  • 15:37 - 15:41
    Các bạn muốn tương lai là đúng hay sai?
  • 15:41 - 15:44
    Bạn có muốn một xã hội yên bình
    với lề lối đạo đức nghiêm trị,
  • 15:44 - 15:46
    hay là một chủ nghĩa khoái lạc -
    tự do cho tất cả,
  • 15:46 - 15:48
    như Burning Man 24/7?
  • 15:48 - 15:51
    Bạn mong có những bờ biển cát trắng,
    rừng xanh và hồ trong veo,
  • 15:51 - 15:54
    hay bạn sẽ thích sắp xếp lại
    các nguyên tử bằng máy tính,
  • 15:54 - 15:56
    có khả năng trải nghiệm thực tế ảo?
  • 15:56 - 15:59
    Với AI thân thiện, chúng ta đơn giản
    có thể xây dựng một xã hội như thế
  • 15:59 - 16:02
    và cho mọi người sự tự do
    lựa chọn cuộc sống
  • 16:02 - 16:05
    vì chúng ta sẽ không còn bị
    giới hạn bởi trí thông minh,
  • 16:05 - 16:07
    chỉ vì luật pháp
    hay vật lý học.
  • 16:07 - 16:10
    Và nguồn nguyên liệu và không gian có thể
  • 16:10 - 16:13
    vô cùng to lớn.
  • 16:13 - 16:15
    Và đó là lựa chọn
    của chúng ta.
  • 16:16 - 16:18
    Chúng ta có thể bằng lòng về tương lai,
  • 16:19 - 16:22
    và kiểm soát như một bài báo
    với đức tin mù quáng
  • 16:22 - 16:26
    nói rằng công nghệ mới nào
    cũng bảo đảm mang lại lợi ích,
  • 16:26 - 16:30
    và chỉ là sự lặp lại của chính chúng ta.
  • 16:30 - 16:34
    khi ta buông trôi như con tàu mất lái
    về sự lỗi thời của chính mình.
  • 16:35 - 16:37
    Hoặc ta có thể tham vọng về
  • 16:37 - 16:40
    suy nghĩ làm cách nào để kiểm soát
    và điều hướng công nghệ
  • 16:40 - 16:42
    và cùng công nghệ
    tiến xa tới đâu
  • 16:42 - 16:44
    để tạo ra thời kỳ đáng kinh ngạc.
  • 16:45 - 16:48
    Tất cả chúng ta ở đây để ăn mừng nó,
  • 16:48 - 16:52
    và tôi cảm thấy bản chất của nó nên
    nằm ở việc không bị áp đảo
  • 16:53 - 16:56
    mà là sự trao quyền bằng công nghệ.
  • 16:56 - 16:57
    Cảm ơn các bạn!
  • 16:57 - 17:00
    (Vỗ tay)
Title:
Làm sao để có được sức mạnh mà không bị áp đảo bởi trí tuệ nhân tạo
Speaker:
Max Tegmark
Description:

Nhiều nhà nghiên cứu trí tuệ nhân tạo kỳ vọng AI sẽ vượt qua con người trong mọi nhiệm vụ và công việc trong vòng nhiều thập kỷ, cho phép một tương lai nơi chúng ta chỉ bị giới hạn bởi các định luật vật lý, chứ không phải giới hạn của trí thông minh. Nhà nghiên cứu vật lý và AI của MIT - Max Tegmark tách các cơ hội và mối đe dọa thực sự khỏi các giả thuyết, mô tả cụ thể các bước mà chúng ta nên thực hiện ngày hôm nay để đảm bảo rằng cuối cùng, AI là điều tốt nhất -- chứ không phải tồi tệ nhất -- từng xảy đến với nhân loại.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:15

Vietnamese subtitles

Revisions