WEBVTT 00:00:07.257 --> 00:00:09.309 Đây là một thử nghiệm về nhận thức. NOTE Paragraph 00:00:09.309 --> 00:00:11.917 Giả sử tại một thời điểm nào đó không xa, 00:00:11.917 --> 00:00:15.505 bạn đang đi trên đường cao tốc trong chiếc xe tự lái của bạn, 00:00:15.505 --> 00:00:19.809 và bạn bị vây quanh bởi các xe khác. 00:00:19.809 --> 00:00:24.213 Bỗng nhiên, một vật to và nặng rơi xuống từ chiếc xe tải ngay trước mặt bạn. 00:00:24.213 --> 00:00:27.364 Bạn không thể dừng lại lập tức để tránh bị va chạm, 00:00:27.364 --> 00:00:29.415 nên bạn cần ra quyết định lập tức: 00:00:29.415 --> 00:00:31.673 đi thẳng và đụng vào vật đó, 00:00:31.673 --> 00:00:33.953 quẹo trái trúng chiếc SUV, 00:00:33.953 --> 00:00:36.940 hay quẹo phải trúng chiếc xe máy. 00:00:36.940 --> 00:00:40.450 Chiếc xe sẽ ưu tiên sự an toàn của bạn bằng cách tông vào xe máy, 00:00:40.450 --> 00:00:43.267 giảm nguy hiểm cho người khác bằng cách đi thẳng, 00:00:43.267 --> 00:00:47.346 mặc dù đó nghĩa là tông vào vật lớn và hi sinh mạng sống của bạn, 00:00:47.346 --> 00:00:50.104 hay lựa chọn tông vào chiếc SUV, 00:00:50.104 --> 00:00:53.087 khi mà khả năng an toàn cho hành khách trên xe khá cao? 00:00:53.087 --> 00:00:56.298 Vậy xe tự lái sẽ làm gì? NOTE Paragraph 00:00:56.298 --> 00:00:59.505 Nếu chúng ta chạy xe ở chế độ người lái, 00:00:59.505 --> 00:01:03.034 cách phản ứng nào của chúng ta đều được xem là, 00:01:03.034 --> 00:01:04.320 một phản ứng đơn thuần, 00:01:04.320 --> 00:01:06.571 không phải một quyết định có tính suy xét. 00:01:06.571 --> 00:01:10.869 Nó sẽ là phản ứng tự nhiên mà không có sự suy nghĩ hay ý đồ xấu. 00:01:10.869 --> 00:01:14.519 Nhưng nếu một người lập trình ra lệnh cho chiếc xe phản ứng tương tự, 00:01:14.519 --> 00:01:17.316 trong một tình huống có thể xảy ra ở tương lai, 00:01:17.316 --> 00:01:21.619 có thể bị coi là giết người có chủ đích. NOTE Paragraph 00:01:21.619 --> 00:01:22.637 Để công bằng, 00:01:22.637 --> 00:01:26.709 xe tự lái được cho là sẽ giảm thiểu tai nạn giao thông đáng kể 00:01:26.709 --> 00:01:27.956 và tỉ lệ thương vong 00:01:27.956 --> 00:01:31.398 bằng việc loại bỏ sự sai sót của con người trong phương trình lái xe. 00:01:31.398 --> 00:01:33.512 Và, còn có những lợi ích khác: 00:01:33.512 --> 00:01:35.150 giảm tắc đường, 00:01:35.150 --> 00:01:36.723 giảm khí thải độc hại, 00:01:36.723 --> 00:01:41.345 và rút ngắn thời gian lái xe vô bổ và căng thẳng. 00:01:41.345 --> 00:01:43.716 Nhưng tai nạn vẫn và sẽ tiếp tục xảy ra, 00:01:43.716 --> 00:01:44.685 và khi đó, 00:01:44.685 --> 00:01:49.147 hậu quả của nó có thể đã được xác định vài tháng hay vài năm trước đó 00:01:49.147 --> 00:01:51.752 bởi người lập trình viên hay nhà hoạch định chính sách 00:01:51.752 --> 00:01:54.252 Và họ sẽ phải đưa ra những quyết định khó khăn. 00:01:54.252 --> 00:01:57.204 Chúng ta thường hướng tới những nguyên tắc ra quyết định 00:01:57.204 --> 00:01:59.099 như giảm thiểu thiệt hại, 00:01:59.099 --> 00:02:02.475 nhưng những nguyên tắc này cũng gặp phải các vấn đề đạo đức. NOTE Paragraph 00:02:02.475 --> 00:02:03.633 Ví dụ như, 00:02:03.633 --> 00:02:05.641 trong hoàn cảnh tương tự, 00:02:05.641 --> 00:02:08.512 nhưng giờ người đi xe máy phía bên trái có đội nón bảo hiểm 00:02:08.512 --> 00:02:11.309 và một người khác không đội nón bên phải bạn. 00:02:11.309 --> 00:02:14.360 Xe tự lái của bạn sẽ chọn tông vào ai? 00:02:14.360 --> 00:02:18.442 Nếu bạn nói người đó là người có nón bảo hiểm vì khả năng sống sót cao hơn, 00:02:18.442 --> 00:02:21.771 vậy nghĩa là bạn đang trừng phạt một người lái xe có trách nhiệm? 00:02:21.771 --> 00:02:24.115 Nói cách khác, bạn sẽ cứu người không có nón 00:02:24.115 --> 00:02:26.106 bời vì anh ta hành động vô trách nhiệm, 00:02:26.106 --> 00:02:31.017 khi đó bạn đã đi quá xa khỏi ranh giới nguyên tắc giảm thiểu thiệt hại, 00:02:31.017 --> 00:02:34.871 và chiếc xe giờ đối mặt với công lý trên đường. NOTE Paragraph 00:02:34.871 --> 00:02:38.403 Vần đề đạo đức càng trở nên phức tạp hơn. 00:02:38.403 --> 00:02:39.807 Trong cả hai tình huống trên, 00:02:39.807 --> 00:02:44.400 thiết kế mấu chốt đang hoạt động như một hàm số. 00:02:44.400 --> 00:02:45.299 Nói cách khác, 00:02:45.299 --> 00:02:47.809 nó lựa chọn và lọc ra có hệ thống 00:02:47.809 --> 00:02:51.298 những vật mà xe tự lái có thể va chạm. 00:02:51.298 --> 00:02:53.613 Và người điều khiển phương tiện mục tiêu 00:02:53.613 --> 00:02:56.662 sẽ phải chịu những hậu quả từ hàm số này 00:02:56.662 --> 00:02:58.747 mặc dù họ không có lỗi. NOTE Paragraph 00:02:58.747 --> 00:03:03.401 Công nghệ mới của chúng ta đang mở ra nhiều tình huống nan giải khác. 00:03:03.401 --> 00:03:05.482 Ví dụ, nếu bạn phải lựa chọn giữa việc 00:03:05.482 --> 00:03:09.534 một chiếc xe luôn cố gắng cứu càng nhiều mạng người càng tốt khi tai nạn xảy ra, 00:03:09.534 --> 00:03:12.565 và chiếc xe chỉ cứu sống bạn bằng mọi giá, 00:03:12.565 --> 00:03:14.262 bạn sẽ mua chiếc nào? 00:03:14.262 --> 00:03:17.577 Điều gì sẽ xảy ra nếu những chiếc xe tự phân tích và bao hàm 00:03:17.577 --> 00:03:21.047 các hành khách trên xe và mạng sống của từng người? 00:03:21.047 --> 00:03:23.219 Như vậy, liệu một quyết định ngẫu nhiên 00:03:23.219 --> 00:03:28.125 sẽ tốt hơn là quyết định có suy tính trước để giảm thiểu thiệt hại? 00:03:28.125 --> 00:03:30.878 Và ai sẽ là người ra những quyết định này? 00:03:30.878 --> 00:03:31.972 Lập trình viên? 00:03:31.972 --> 00:03:32.908 Công ty? 00:03:32.908 --> 00:03:34.352 Chính phủ? NOTE Paragraph 00:03:34.352 --> 00:03:37.566 Thực tế có thể sẽ không giống thử nghiệm của chúng ta, 00:03:37.566 --> 00:03:39.232 nhưng đó không phải là điểm chính. 00:03:39.232 --> 00:03:43.603 Các thử nghiệm nhằm cô lập và thử thách trực giác của chúng ta về đạo đức, 00:03:43.603 --> 00:03:46.589 giống như thí nghiệm khoa học đã làm trong thế giới vật chất. 00:03:46.589 --> 00:03:49.979 Nhận ra các phương diện về mặt đạo đức 00:03:49.979 --> 00:03:53.550 sẽ giúp chúng ta tinh chỉnh đạo đức công nghệ trên con đường mới mẻ, 00:03:53.550 --> 00:03:57.301 và cho phép ta tự tin và sáng suốt trong hành trình 00:03:57.301 --> 00:03:59.648 vào một tương lai tươi sáng.