0:00:00.735,0:00:03.024 Có bao nhiêu bạn ở đây[br]là những nhà sáng tạo? 0:00:03.048,0:00:06.672 những nhà thiết kế, kỹ sư,[br]doanh nhân, nghệ sĩ, 0:00:06.696,0:00:09.083 hay có thể bạn là người có[br]trí tưởng tượng lớn? 0:00:09.107,0:00:10.955 Xin giơ tay lên xem nào? 0:00:10.979,0:00:12.160 Hầu như tất cả các bạn. 0:00:13.334,0:00:15.628 Tôi có vài tin cho[br]những nhà sáng tạo chúng ta. 0:00:16.714,0:00:19.287 Trong vòng 20 năm đến, 0:00:21.471,0:00:24.444 Sẽ có nhiều thứ thay đổi[br]về cách chúng ta làm việc 0:00:25.382,0:00:27.539 hơn những thứ đã xảy ra 2000 năm vừa qua. 0:00:28.511,0:00:33.139 Thực ra, tôi nghĩ ta đang ở buổi bình mình[br]của thời đại mới trong lịch sử loài người. 0:00:33.645,0:00:38.406 Đến nay, đã có 4 thời kỳ lịch sử lớn được[br]định nghĩa qua cách chúng ta làm việc. 0:00:39.404,0:00:42.679 Thời kỳ Săn bắt và Hái lượm[br]kéo dài vài triệu năm. 0:00:43.163,0:00:46.739 và sau đó là thời kỳ Nông nghiệp[br]kéo dài vài nghìn năm. 0:00:47.195,0:00:50.685 Thời kỳ Công nghiệp[br]kéo dài vài thế kỷ. 0:00:50.709,0:00:54.996 Và giờ đây Kỷ nguyên thông tin đã trải[br]qua được vài thập kỷ. 0:00:55.020,0:01:00.240 Hôm nay, chúng ta đang ở điểm bắt đầu[br]một kỷ nguyên vĩ đại mới của nhân loại. 0:01:01.296,0:01:03.976 Chào mừng đến với Kỷ nguyên tăng cường. 0:01:04.000,0:01:07.693 Ở thời đại mới này, các kỹ năng tự nhiên[br]của con người sẽ được tăng cường 0:01:07.717,0:01:10.785 bởi các hệ thống điện toán[br]giúp bạn suy nghĩ, 0:01:10.809,0:01:12.995 các hệ thống robot giúp bạn sản xuất, 0:01:13.019,0:01:14.667 và hệ thần kinh kỹ thuật số 0:01:14.691,0:01:18.381 kết nối với con người với thế giới[br]vượt xa các giác quan tự nhiên. 0:01:19.437,0:01:21.379 Hãy bắt đầu với sự tăng cường nhận thức. 0:01:21.403,0:01:23.603 Có bao nhiêu bạn ở đây[br]là nửa người nửa máy? 0:01:24.133,0:01:26.783 (Cười) 0:01:26.807,0:01:29.628 Tôi thực sự muốn nói rằng[br]chúng ta đã được tăng cường. 0:01:30.288,0:01:31.792 Tưởng tượng bạn đang dự tiệc, 0:01:31.816,0:01:35.336 và có ai đó hỏi bạn câu hỏi[br]bạn không biết trả lời thế nào. 0:01:35.360,0:01:39.120 Nếu bạn có thứ này, trong vài giây,[br]bạn có thể biết câu trả lời. 0:01:39.869,0:01:42.168 Nhưng đây mới chỉ là sự khởi đầu sơ khai. 0:01:42.863,0:01:46.194 Thậm chí Siri cũng chỉ là [br]một công cụ thụ động. 0:01:46.660,0:01:50.041 Thực tế, trong 3,5 triệu năm qua, 0:01:50.065,0:01:53.174 những công cụ chúng ta có[br]là hoàn toàn thụ động. 0:01:54.203,0:01:57.858 Chúng làm chính xác[br]những gì ta nói, không hơn. 0:01:57.882,0:02:00.983 Công cụ đầu tiên của chúng ta[br]chỉ cắt vào chỗ nào ta đặt. 0:02:01.822,0:02:04.862 Cái đục chỉ đục vào chỗ[br]mà người thợ nhắm đến. 0:02:05.343,0:02:10.984 Và ngay những công cụ tiên tiến nhất cũng[br]không làm gì nếu không được điều khiển. 0:02:11.008,0:02:14.189 Thực ra, cho đến giờ, đây là điều[br]làm tôi thấy thất vọng, 0:02:14.213,0:02:16.181 chúng ta luôn bị giới hạn 0:02:16.181,0:02:19.210 bởi nhu cầu đưa ý chí vào công cụ[br]một cách thủ công 0:02:19.210,0:02:21.507 giống như phải dùng chính tay của mình, 0:02:21.531,0:02:22.959 ngay cả với máy tính. 0:02:24.072,0:02:27.035 Nhưng tôi giống với Scotty trong[br]"Du hành giữa các vì sao" hơn. 0:02:27.035,0:02:28.409 (Cười) 0:02:28.433,0:02:30.579 Tôi muốn nói chuyện với một máy tính. 0:02:30.603,0:02:33.573 Khi tôi nói, "Máy tính,[br]chúng ta hãy thiết kế một chiếc ô tô," 0:02:33.597,0:02:35.060 và nó cho tôi xem chiếc ôtô. 0:02:35.060,0:02:38.048 Và tôi nói, "Không, trông nhanh hơn,[br]và ít phong cách Đức hơn," 0:02:38.048,0:02:39.955 và bùm, nó đưa ra cho tôi một tùy chọn. 0:02:39.979,0:02:41.844 (Cười) 0:02:42.208,0:02:44.514 Buổi nói chuyện đó có thể[br]sắp thành hiện thực, 0:02:44.538,0:02:47.203 có thể nhanh hơn[br]nhiều người chúng ta nghĩ, 0:02:47.227,0:02:48.990 nhưng ngay lúc này, 0:02:49.014,0:02:50.165 ta đang thực hiện nó. 0:02:50.189,0:02:54.222 Các công cụ đang thực hiện bước nhảy từ[br]kiểu thụ động sang kiểu sản sinh. 0:02:54.831,0:02:58.189 Các công cụ thiết kế kiểu sản sinh[br]sử dụng máy tính và các thuật toán 0:02:58.189,0:03:00.771 để tổng hợp hình học 0:03:00.795,0:03:03.549 cho ra các thiết kế mới[br]tất cả đều do chính nó tự làm. 0:03:03.996,0:03:06.744 Mọi thứ nó cần là các mục tiêu của bạn[br]và các ràng buộc. 0:03:06.768,0:03:08.176 Tôi sẽ cho một ví dụ. 0:03:08.200,0:03:10.988 Lấy trường hợp về[br]khung máy bay không người lái, 0:03:11.012,0:03:13.638 bạn chỉ cần nói cho nó biết[br]những thứ kiểu như, 0:03:13.662,0:03:14.935 máy bay có 4 cánh quạt, 0:03:14.959,0:03:17.090 bạn muốn nó[br]nhẹ nhất có thể, 0:03:17.114,0:03:19.384 và muốn nó hiệu quả về khí động học. 0:03:19.408,0:03:24.322 Máy tính sẽ tìm và đưa ra[br]toàn bộ không gian giải pháp: 0:03:24.346,0:03:28.273 Từng khả năng có thể giải quyết[br]và đáp ứng các điều kiện của bạn-- 0:03:28.297,0:03:29.739 hàng triệu giải pháp. 0:03:29.763,0:03:31.738 Cần các máy tính lớn để thực hiện. 0:03:31.762,0:03:33.717 Nhưng nó trả về cho ta những thiết kế 0:03:33.741,0:03:36.884 mà chính chúng ta không bao giờ[br]tưởng tượng được. 0:03:37.326,0:03:40.238 Máy tính cho ra kết quả này[br]hoàn toàn do nó tự làm-- 0:03:40.262,0:03:41.940 chưa ai từng vẽ bất cứ thứ gì, 0:03:41.964,0:03:44.050 và nó bắt đầu hoàn toàn từ đầu. 0:03:45.038,0:03:47.425 Nhân tiện, không phải ngẫu nhiên mà 0:03:47.449,0:03:50.930 cái khung máy bay trông giống[br]xương chậu của một con sóc bay. 0:03:51.287,0:03:53.294 (Cười) 0:03:54.040,0:03:56.342 Đó là vì các thuật toán[br]được thiết kế để làm việc 0:03:56.366,0:03:58.003 giống như cách[br]sự tiến hóa diễn ra. 0:03:58.715,0:04:01.375 Điều thú vị là chúng ta[br]bắt đầu thấy công nghệ này 0:04:01.399,0:04:02.558 có mặt ở đời sống thực. 0:04:02.582,0:04:05.034 Chúng tôi làm việc với Airbus[br]đã được vài năm 0:04:05.058,0:04:06.967 về kiểu máy bay này trong tương lai. 0:04:06.991,0:04:08.875 Vẫn còn phải chờ. 0:04:08.875,0:04:12.935 Nhưng gần đây chúng tôi đã sử dụng một[br]trí thông minh nhân tạo thiết kế sản sinh 0:04:12.935,0:04:14.696 để giải quyết vấn đề này. 0:04:15.609,0:04:20.762 Đây là một vách ngăn cabin được in 3D[br]được thiết kế bởi máy tính. 0:04:20.786,0:04:23.730 Nó mạnh hơn thiết kế vách gốc[br]nhưng nhẹ bẳng một nửa, 0:04:23.730,0:04:26.780 và nó sẽ được dùng cho [br]máy bay Airbus 320 cuối năm nay. 0:04:27.405,0:04:29.304 Máy tính giờ đây có thể kiến tạo, 0:04:29.304,0:04:33.583 nó có thể tự đưa ra các giải pháp[br]cho các vấn đề được định nghĩa tốt. 0:04:34.677,0:04:36.167 Nhưng nó không có trực giác. 0:04:36.167,0:04:39.097 Chúng sẽ phải bắt đầu lại từ đầu[br]mỗi lần thực hiện, 0:04:39.121,0:04:41.686 đó là bởi vì chúng không bao giờ học. 0:04:42.368,0:04:44.134 Không giống như Maggie. 0:04:44.158,0:04:45.739 (Cười) 0:04:45.763,0:04:49.060 Maggie thực sự thông minh hơn các[br]công cụ tiên tiến nhất của chúng ta. 0:04:49.467,0:04:50.907 Ý tôi muốn nói là gì? 0:04:50.931,0:04:52.521 Nếu chủ nó nhặt dây xích, 0:04:52.545,0:04:54.613 Maggie biết gần như chắc chắn 0:04:54.637,0:04:56.041 đã đến lúc đi dạo. 0:04:56.065,0:04:57.250 Vậy nó đã học thế nào? 0:04:57.274,0:05:00.598 Vâng, mỗi lúc chủ của nó[br]nhặt dây xích, họ đi dạo. 0:05:00.622,0:05:02.500 Và Maggie làm ba việc: 0:05:02.524,0:05:04.393 Nó phải chú ý, 0:05:04.417,0:05:06.499 nó phải ghi nhớ những thứ xảy ra 0:05:06.523,0:05:10.540 và nó phải giữ lại và tạo ra[br]một hình mẫu trong đầu nó. 0:05:11.429,0:05:13.524 Thật thú vị, đó chính xác là cách mà 0:05:13.548,0:05:16.801 các nhà khoa học máy tính đang cố gắng[br]bắt các trí tuệ nhân tạo làm 0:05:16.801,0:05:17.954 từ khoảng 60 năm nay. 0:05:18.683,0:05:20.032 Trở lại năm 1952, 0:05:20.056,0:05:23.857 Người ta tạo ra máy tính[br]có thể chơi Tic-Tac-Toe. 0:05:25.081,0:05:26.241 Một thành tựu lớn. 0:05:27.029,0:05:30.029 45 năm sau, năm 1997, 0:05:30.053,0:05:32.525 Siêu máy tính Deep Blue[br]đánh cờ vua thắng Kasparov. 0:05:34.046,0:05:39.014 Năm 2011, Watson thắng hai người[br]trong trò chơi Jeopardy, 0:05:39.038,0:05:42.286 đối với máy tính trò này còn khó chơi[br]hơn nhiều so với chơi cờ vua. 0:05:42.286,0:05:45.802 Thực ra, thay vì làm việc trên[br]những công thức định nghĩa sẵn, 0:05:45.826,0:05:49.149 Watson đã phải sử dụng suy luận[br]để chiến thắng các đối thủ. 0:05:50.393,0:05:52.832 Cách đây vài tuần, 0:05:52.856,0:05:57.118 AlphaGo của DeepMind đã thắng người chơi[br]giỏi nhất thế giới ở môn Go, 0:05:57.142,0:05:59.354 đây là trò chơi khó nhất chúng ta có. 0:05:59.378,0:06:02.274 Thực ra, ở Go, số lượng[br]các bước di chuyển có thể có 0:06:02.298,0:06:04.322 còn nhiều hơn số nguyên tử trong vũ trụ. 0:06:06.210,0:06:08.036 Do vậy để chiến thắng, 0:06:08.060,0:06:10.678 AlphaGo cần phải phát triển trực giác. 0:06:11.098,0:06:15.208 Thực ra, ở một số thời điểm, những[br]người lập trình ra AlphaGo cũng không hiểu 0:06:15.232,0:06:17.518 tại sao AlphaGo lại làm như vậy. 0:06:19.451,0:06:21.111 Mọi thứ đang chuyển động rất nhanh 0:06:21.135,0:06:24.362 Ý tôi là, hãy xem xét[br]trong khoảng thời gian một đời người, 0:06:24.386,0:06:26.619 máy tính đã phát triển từ[br]một trò chơi trẻ con 0:06:27.920,0:06:30.968 đến khi đạt đến mức được xem như[br]đỉnh cao của tư duy chiến lược. 0:06:31.999,0:06:34.416 Về căn bản điều đang xảy ra 0:06:34.440,0:06:37.750 là máy tính đang phát triển[br]từ thứ giống như Spock 0:06:37.774,0:06:39.723 đến thứ giống như Kirk nhiều hơn. 0:06:39.747,0:06:43.365 (Cười) 0:06:43.389,0:06:46.813 Đúng chứ?[br]Từ logic thuần túy đến trực giác. 0:06:48.184,0:06:49.927 Bạn sẽ đi qua chiếc cầu này chứ? 0:06:50.609,0:06:52.932 Hầu hết các bạn sẽ nói "Ồ không!" 0:06:52.956,0:06:54.264 (Cười) 0:06:54.288,0:06:56.945 Và bạn đã đưa ra quyết định[br]trong tích tắc. 0:06:56.969,0:06:59.397 Ở mức độ nào đó[br]bạn biết chiếc cầu đó không an toàn. 0:06:59.421,0:07:01.410 Và đó chính xác là loại trực quan 0:07:01.434,0:07:05.002 mà các hệ thống học tập đào sâu[br]ngay lúc này đang bắt đầu phát triển. 0:07:05.722,0:07:07.429 Sẽ nhanh thôi, bạn sẽ có thể 0:07:07.453,0:07:09.659 cho máy tính xem những thứ 0:07:09.683,0:07:10.836 bạn làm, bạn thiết kế, 0:07:10.860,0:07:12.349 và máy tính sẽ nhìn qua và nói, 0:07:12.373,0:07:15.196 "Xin lỗi bạn, nó sẽ không[br]hoạt động đâu. Bạn phải thử lại." 0:07:15.854,0:07:18.924 Hay bạn có thể hỏi nó liệu người ta[br]có thích bài hát mới của bạn 0:07:19.773,0:07:21.836 hoặc hương vị của cây kem tiếp theo. 0:07:23.549,0:07:26.128 Hay, quan trọng hơn, 0:07:26.152,0:07:28.516 bạn có thể cùng với máy tính[br]giải quyết một vấn đề 0:07:28.540,0:07:30.177 mà bạn chưa từng gặp trước đó. 0:07:30.201,0:07:31.602 Chẳng hạn, biến đổi khí hậu. 0:07:31.626,0:07:33.646 Tự chúng ta không làm tốt lắm, 0:07:33.670,0:07:35.915 chúng ta có thể sử dụng[br]mọi sự trợ giúp có thể. 0:07:35.939,0:07:37.397 Đó là điều tôi đang nói đến, 0:07:37.421,0:07:39.976 công nghệ đang tăng cường khả năng[br]nhận thức cho ta 0:07:40.000,0:07:43.552 nhờ đó ta có thể nghĩ đến và thiết kế[br]những thứ mà trước đây là ngoài tầm 0:07:43.576,0:07:46.135 khi vẫn là những con người[br]chưa được tăng cường. 0:07:47.984,0:07:50.925 Thế còn việc tạo ra tất cả[br]những thứ mới mẻ điên rồ 0:07:50.949,0:07:53.390 mà chúng ta đang phát minh[br]và thiết kế là gì? 0:07:53.952,0:07:58.045 Tôi nghĩ kỷ nguyên tăng cường con người[br]hướng đến thế giới vật chất 0:07:58.069,0:08:01.134 nhiều như hướng đến lĩnh vực trí tuệ ảo. 0:08:01.833,0:08:03.754 Công nghệ sẽ tăng cường chúng ta ra sao? 0:08:04.261,0:08:06.734 Trong thế giới vật chất,[br]các hệ thống robot. 0:08:07.620,0:08:09.356 Vâng, chắc chắn có sự sợ hãi rằng 0:08:09.380,0:08:11.868 robot sẽ tước đoạt[br]việc làm của con người, 0:08:11.892,0:08:13.722 và điều đó đúng ở một số lĩnh vực. 0:08:14.174,0:08:17.052 Nhưng tôi quan tâm nhiều hơn đến ý tưởng 0:08:17.076,0:08:20.810 rằng con người và robot làm việc cùng nhau[br]sẽ tăng cường lẫn nhau, 0:08:20.810,0:08:23.110 và bắt đầu sống trong một không gian mới. 0:08:23.578,0:08:26.578 Đây là 1 phòng nghiên cứu thực nghiệm[br]ở San Francisco, 0:08:26.578,0:08:29.720 Nơi đây, một trong những lĩnh vực được[br]tập trung là robot cao cấp, 0:08:29.744,0:08:32.255 cụ thể là cộng tác robot và người. 0:08:33.034,0:08:35.793 Đây là Bishop, một robot của chúng tôi. 0:08:35.817,0:08:37.606 [br]Chúng tôi làm thí nghiệm cài đặt nó 0:08:37.630,0:08:41.090 để giúp một người làm xây dựng[br]làm những công việc lặp lại-- 0:08:41.984,0:08:46.178 các công việc như cắt các lỗ trên vách[br]thạch cao để gắn ổ cắm và công tắc điện. 0:08:46.202,0:08:48.668 (Cười) 0:08:49.877,0:08:52.988 Và, đối tác người của Bishop bảo nó cần[br]phải làm gì bằng tiếng Anh 0:08:53.012,0:08:54.317 và với các cử chỉ đơn giản, 0:08:54.341,0:08:55.788 giống như nói với một con chó, 0:08:55.812,0:08:57.955 và Bishop thực hiện theo những chỉ dẫn đó 0:08:57.979,0:08:59.871 với độ chính xác hoàn hảo. 0:08:59.895,0:09:02.884 Ta đang sử dụng con người vào những[br]việc mà con người làm tốt: 0:09:02.908,0:09:05.241 sự hiểu biết, cảm nhận và ra quyết đinh. 0:09:05.265,0:09:07.505 Ta dùng robot vào những việc[br]mà robot làm tốt: 0:09:07.529,0:09:09.277 chính xác và lặp lại. 0:09:10.252,0:09:12.619 Đây là một dự án thú vị nữa[br]mà Bishop đã thực hiện 0:09:12.643,0:09:15.718 Chúng ta gọi dự án này là HIVE,[br]mục tiêu của dự án 0:09:15.742,0:09:19.593 là tạo ra một hình mẫu về sự trải nghiệm[br]gồm con người, máy tính và robot 0:09:19.617,0:09:22.837 làm việc cùng nhau để giải quyết[br]một vấn đề thiết kế phức tạp. 0:09:23.793,0:09:25.244 Con người đóng vai công nhân. 0:09:25.268,0:09:28.741 Họ đi tuần quanh công trường,[br]họ thao tác với cây tre-- 0:09:28.765,0:09:31.521 cũng cần nói thêm,[br]bởi vì tre là vật liệu phi đẳng cấu, 0:09:31.545,0:09:33.419 rất khó để robot thao tác với nó. 0:09:33.443,0:09:35.465 Nhưng robot đã cuốn các sợi chỉ này, 0:09:35.489,0:09:37.940 việc này gần như[br]con người không thể làm. 0:09:37.964,0:09:41.585 Và chúng tôi đã có một trí tuệ nhân tạo[br]kiểm soát mọi thứ. 0:09:41.609,0:09:44.899 nó nói cho con người biết cần phải làm gì,[br]robot cần phải làm gì 0:09:44.923,0:09:47.838 và theo dõi hàng nghìn phần tử riêng lẻ. 0:09:47.862,0:09:49.042 Điều thú vị là, 0:09:49.066,0:09:52.207 việc xây dựng căn lều này đơn giản[br]là không thể làm được 0:09:52.231,0:09:56.755 mà không có sự tăng cường lẫn nhau giữa[br]con người, robot và trí tuệ nhân tạo. 0:09:57.890,0:10:01.210 Tôi sẽ chia sẻ thêm về một dự án.[br]Dự án này có phần điên rồ. 0:10:01.234,0:10:03.966 Chúng tôi làm việc với[br]nghệ sỹ Joris Laarman ở Amsterdam 0:10:03.966,0:10:05.726 và nhóm của ông ở MX3D 0:10:05.726,0:10:08.604 để thiết kế sản sinh[br]và in bằng robot 0:10:08.628,0:10:11.623 chiếc cầu tự động xây đầu tiên[br]trên thế giới. 0:10:12.315,0:10:15.164 Và, khi chúng ta đang nói,[br]thì Joris và một trí tuệ nhân tạo 0:10:15.164,0:10:17.196 đang thiết kế chiếc cầu này ở Amsterdam. 0:10:17.220,0:10:19.541 Và khi nó hoàn thành,[br]chúng ta sẽ ấn phím "Chạy," 0:10:19.565,0:10:22.876 và các robot sẽ tiến hành in 3D[br]bằng thép không gỉ, 0:10:22.900,0:10:26.183 và sau đó nó sẽ tự in mà không cần[br]sự can thiệp của con người, 0:10:26.207,0:10:27.765 cho đến khi[br]chiếc cầu hoàn thành. 0:10:29.099,0:10:32.027 Vậy, máy tính đang tăng cường[br]cho chúng ta khả năng 0:10:32.051,0:10:34.201 tưởng tượng và thiết kế những cái mới, 0:10:34.225,0:10:37.120 các hệ thống robot đang giúp chúng ta[br]xây và làm những thứ 0:10:37.144,0:10:39.228 mà trước đây chúng ta không thể làm được. 0:10:40.347,0:10:44.507 Nhưng thế còn khả năng cảm nhận và điều[br]khiển những thứ đó của con người thì sao? 0:10:44.531,0:10:48.562 Thế còn một hệ thần kinh cho những vật[br]chúng ta tạo ra thì sao? 0:10:48.586,0:10:51.098 Hệ thần kinh của chúng ta,[br]hệ thần kinh con người, 0:10:51.122,0:10:53.433 cho ta biết những thứ[br]đang diễn ra xung quanh ta. 0:10:54.186,0:10:57.870 Nhưng hệ thần kinh của những vật chúng ta[br]tạo ra là thô sơ nhất. 0:10:58.894,0:11:01.457 Ví dụ, ôtô không nói cho Sở công trình[br]thành phố biết 0:11:01.457,0:11:04.457 rằng nó vừa lọt ổ gà ở góc đường[br]Broadway và Morrison. 0:11:04.635,0:11:06.667 Tòa nhà không nói cho[br]người thiết kế biết 0:11:06.691,0:11:09.375 những người trong đó có thích ở đó không, 0:11:09.399,0:11:12.409 và những người sản xuất đồ chơi không biết 0:11:12.433,0:11:14.440 là món đồ chơi có thực sự được chơi, 0:11:14.464,0:11:17.003 chơi ra sao, ở đâu và có vui hay không. 0:11:17.620,0:11:21.434 Nhìn kìa, Tôi chắc rằng những nhà thiết[br]kế đã nghĩ đến cuộc sống này của Barbie 0:11:21.458,0:11:22.682 khi họ thiết kế cô ấy. 0:11:22.706,0:11:24.153 (Cười) 0:11:24.177,0:11:27.083 Và điều gì xảy ra nếu thực ra[br]Barbie đang rất cô đơn? 0:11:27.107,0:11:30.254 (Cười) 0:11:31.266,0:11:32.554 Nếu nhà thiết kế biết trước 0:11:32.578,0:11:34.685 điều gì thực sự xảy ra trong thế giới thực 0:11:34.709,0:11:37.292 với các thiết kế của họ--[br]con đường, tòa nhà, Barbie-- 0:11:37.316,0:11:40.010 họ đã có thể dùng thông tin đó để[br]tạo ra sự trải nghiệm 0:11:40.034,0:11:41.434 tốt hơn cho người dùng. 0:11:41.458,0:11:43.249 Cái đang thiếu là một hệ thần kinh 0:11:43.273,0:11:46.982 kết nối chúng ta với những thứ do chúng ta[br]thiết kế, tạo ra và sử dụng. 0:11:47.915,0:11:51.470 Điều gì xảy ra nếu các bạn có thông tin đó[br]nó chảy đến với bạn 0:11:51.494,0:11:53.677 từ những thứ bạn tạo ra[br]trong thế giới thật? 0:11:55.432,0:11:56.883 Với mọi thứ chúng ta tạo ra, 0:11:56.907,0:11:59.342 chúng ta tiêu tốn một lượng lớn[br]tiền và năng lượng 0:11:59.366,0:12:01.742 thực ra, năm ngoái,[br]khoảng 2 nghìn tỷ USD-- 0:12:01.766,0:12:04.620 để thuyết phục mọi người mua đồ do[br]chúng ta sản xuất ra. 0:12:04.644,0:12:08.032 Nhưng nếu bạn có mối liên kết đó với những[br]thứ bạn thiết kế và tạo ra 0:12:08.056,0:12:09.783 sau khi nó đã có mặt[br]ở thế giới thực, 0:12:09.807,0:12:13.421 sau khi nó đã được bán[br]hoặc được giới thiệu. 0:12:13.445,0:12:15.065 Chúng ta đã có thể thay đổi nó. 0:12:15.089,0:12:18.136 và chuyển từ làm cho mọi người[br]muốn đồ của ta, 0:12:18.160,0:12:21.594 sang làm ra những thứ[br]mà mọi người muốn, ngay từ đầu. 0:12:21.618,0:12:24.405 Tin tốt là, chúng ta đang triển khai[br]các hệ thần kinh số 0:12:24.429,0:12:27.230 để kết nối chúng ta[br]đến những thứ mà ta thiết kế. 0:12:28.365,0:12:29.992 Chúng tôi đang triển khai[br]một dự án 0:12:30.016,0:12:33.728 với một vài người ở Los Angeles[br]được gọi là Bandito Brothers 0:12:33.752,0:12:35.159 và nhóm của họ. 0:12:35.183,0:12:38.616 Và một trong những thứ mà họ làm[br]là sản xuất những chiếc xe điên rồ 0:12:38.640,0:12:41.513 để thực hiện những việc cực kỳ điên rồ. 0:12:42.905,0:12:44.355 Họ là những người điên rồ-- 0:12:44.379,0:12:45.415 (Cười) 0:12:45.439,0:12:46.842 theo cách tốt nhất. 0:12:48.993,0:12:50.756 Và cái mà chúng tôi đang làm với họ 0:12:50.780,0:12:53.220 là sử dụng một bộ khung[br]xe đua truyền thống 0:12:53.244,0:12:54.829 và gắn cho nó một hệ thần kinh. 0:12:54.853,0:12:57.911 Và chúng tôi đã trang bị cho nó[br]hàng tá bộ cảm biến, 0:12:57.935,0:13:00.570 đặt một tài xế đẳng cấp thế giới[br]đằng sau vô lăng, 0:13:00.594,0:13:03.951 đưa nó ra sa mạc và chạy một cách điên rồ[br]trong một tuần. 0:13:03.975,0:13:06.466 Và hệ thần kinh của chiếc xe[br]đã ghi lại mọi thứ 0:13:06.490,0:13:07.972 xảy ra với chiếc xe. 0:13:07.996,0:13:10.617 chúng tôi đã ghi lại 4 tỷ điểm dữ liệu; 0:13:10.641,0:13:12.951 toàn bộ các tác động mà mà nó đã trải qua. 0:13:12.975,0:13:14.634 Và chúng tôi đã làm điều điên rồ. 0:13:15.268,0:13:16.768 Chúng tôi lấy toàn bộ[br]dữ liệu đó 0:13:16.792,0:13:20.528 và nạp vào một trí tuệ nhân tạo[br]thiết kế sản sinh, tên là Dreamcatcher. 0:13:21.270,0:13:25.234 Chúng ta nhận được gì khi gắn cho[br]công cụ thiết kế một hệ thần kinh, 0:13:25.258,0:13:28.140 và bạn bảo nó làm cho bạn một cái[br]khung xe tốt nhất? 0:13:28.723,0:13:30.696 Bạn nhận được cái này. 0:13:32.293,0:13:36.006 Đây là cái mà con người có thể[br]chưa bao giờ thiết kế được. 0:13:36.707,0:13:38.595 Ngoại trừ một người đã thiết kế nó, 0:13:38.619,0:13:42.928 nhưng là một người được tăng cường bởi[br]một trí tuệ nhân tạo thiết kế sản sinh, 0:13:42.952,0:13:44.183 một hệ thần kinh số 0:13:44.207,0:13:47.212 và các robot có thể chế tạo ra[br]cái giống như vậy. 0:13:47.680,0:13:51.275 Vậy nếu đây là tương lai,[br]kỷ nguyên được tăng cường, 0:13:51.299,0:13:55.560 và chúng ta đang được tăng cường về[br]nhận thức, thể chất và giác quan, 0:13:55.584,0:13:56.992 thì nó sẽ trông như thế nào? 0:13:57.576,0:14:00.897 Thiên đường đó sẽ giống như thế nào? 0:14:00.921,0:14:02.630 Tôi nghĩ ta sẽ thấy một thế giới 0:14:02.654,0:14:05.722 ở đó, chúng ta sẽ[br]chuyển từ đồ dùng được chế tạo 0:14:05.746,0:14:07.191 sang đồ dùng được nuôi trồng. 0:14:08.159,0:14:11.612 Ở đó, chúng ta sẽ chuyển [br]từ đồ dùng được xây dựng 0:14:11.636,0:14:13.340 sang những thứ được nuôi lớn. 0:14:14.134,0:14:16.322 Chúng ta đang chuyển từ chỗ bị cách ly 0:14:16.346,0:14:17.956 sang chỗ được kết nối. 0:14:18.634,0:14:21.045 Và chúng ta sẽ từ giã việc khai thác 0:14:21.069,0:14:22.942 để chuyển sang việc cùng chung sống. 0:14:23.967,0:14:27.734 Tôi cũng nghĩ chúng ta sẽ dịch chuyển[br]từ chỗ muốn đồ dùng biết vâng lời 0:14:27.758,0:14:29.399 sang đề cao sự tự chủ động. 0:14:30.510,0:14:32.415 Nhờ vào các khả năng tăng cường, 0:14:32.439,0:14:34.816 thế giới của chúng ta sẽ thay đổi[br]một cách đáng kể. 0:14:35.576,0:14:38.822 Chúng ta sẽ có một thế giới[br]đa dạng hơn, kết nối hơn, 0:14:38.846,0:14:41.133 năng động hơn, phức tạp hơn, 0:14:41.157,0:14:43.475 thích nghi hơn và, tất nhiên, 0:14:43.499,0:14:44.716 tươi đẹp hơn. 0:14:45.231,0:14:46.795 Việc định hình đồ vật mới ra đời 0:14:46.819,0:14:49.109 sẽ không giống bất kỳ thứ gì[br]mà ta đã từng thấy. 0:14:49.133,0:14:50.292 Tại sao? 0:14:50.316,0:14:54.071 Bởi vì cái sẽ định hình đồ vật đó[br]là mối quan hệ đối tác mới 0:14:54.095,0:14:57.765 giữa công nghệ, tự nhiên và con người. 0:14:59.279,0:15:03.083 Theo tôi, đó là một tương lai[br]đáng để chờ đợi. 0:15:03.107,0:15:04.378 Cám ơn rất nhiều. 0:15:04.402,0:15:06.221 (Vỗ tay)