Video gây ác mộng cho trẻ em trên YouTube - có gì sai với Internet ngày nay
-
0:00 - 0:02Tôi là James.
-
0:02 - 0:04Nhà văn và nghệ sĩ,
-
0:04 - 0:07và tôi sáng tác phẩm về công nghệ.
-
0:07 - 0:10Tôi vẽ viền máy bay do thám quân sự
theo kích thước thật -
0:10 - 0:12lên đường phố khắp thế giới,
-
0:12 - 0:15để mọi người bắt đầu suy nghĩ
và quan tâm -
0:15 - 0:20đến những công nghệ
khó nhìn thấy và khó hiểu này. -
0:20 - 0:23Tôi tạo ra những tác phẩm như
mạng dự đoán kết quả bỏ phiếu -
0:23 - 0:25dựa trên báo cáo thời tiết,
-
0:25 - 0:27vì tôi quan tâm đến
-
0:27 - 0:31tiềm năng thực sự của
những công nghệ mới lạ này. -
0:31 - 0:34Năm ngoái, tôi tự chế tạo
xe tự lái. -
0:34 - 0:36Vì không thật sự
tin tưởng vào công nghệ, -
0:36 - 0:39tôi tự thiết kế luôn đường chạy.
-
0:39 - 0:40(Tiếng cười)
-
0:40 - 0:44Tôi làm những việc này
không chỉ vì thấy nó cực kỳ thú vị, -
0:44 - 0:47mà còn vì tôi nghĩ
công nghệ là cách -
0:47 - 0:50ta nói về bản thân mình
-
0:50 - 0:52cũng như nhìn nhận của ta
về thế giới. -
0:52 - 0:56Và đây là một câu chuyện
về công nghệ. -
0:56 - 0:58Đây là một video
"trứng bất ngờ". -
0:58 - 1:02Đó cơ bản là video ai đó
ngồi mở thật nhiều trứng sô-cô-la -
1:02 - 1:05để người xem thấy được
đồ chơi bên trong. -
1:05 - 1:08Chỉ vậy thôi. Đó là toàn bộ
nội dung trong bảy phút. -
1:08 - 1:11Và tôi muốn các bạn chú ý
đến hai điều. -
1:11 - 1:15Thứ nhất, video này
đạt 30 triệu lượt xem. -
1:15 - 1:16(Tiếng cười)
-
1:16 - 1:18Điều còn lại là,
-
1:18 - 1:21nó thuộc một kênh
có 6.3 triệu người theo dõi, -
1:21 - 1:25với tổng số tám tỷ lượt xem,
-
1:25 - 1:28chỉ toàn video như thế.
-
1:28 - 1:3230 triệu người xem ai đó
mở những quả trứng này. -
1:32 - 1:36Nghe kỳ cục, nhưng nếu bạn
gõ "trứng bất ngờ" trên YouTube, -
1:36 - 1:40kết quả cho thấy
có 10 triệu video như thế, -
1:40 - 1:43và tôi nghĩ thực tế
còn nhiều, nhiều hơn. -
1:43 - 1:46Nếu tiếp tục tìm,
bạn sẽ thấy vô số. -
1:46 - 1:48Có hàng triệu, hàng triệu
video thế này -
1:48 - 1:52dưới đủ mọi hình thức kết hợp
giữa nhãn hàng và nội dung, -
1:52 - 1:56và mỗi ngày, càng nhiều
video như vậy được tải lên. -
1:56 - 1:59Một thế giới kỳ lạ phải không?
-
1:59 - 2:03Nhưng vấn đề là, những video này
không dành cho người lớn, -
2:03 - 2:05mà là cho trẻ nhỏ.
-
2:05 - 2:08Những video này giống như
ma túy với chúng. -
2:08 - 2:10Sự lặp đi lặp lại,
-
2:10 - 2:13những tiết lộ nho nhỏ
-
2:13 - 2:15gây kích thích và cuốn hút chúng.
-
2:15 - 2:19Trẻ nhỏ xem những video này
hết lần này đến lần khác, -
2:19 - 2:21trong hàng giờ, hàng giờ liền.
-
2:21 - 2:24Và nếu bạn cố tách chúng
ra khỏi màn hình, -
2:24 - 2:25chúng sẽ la hét dữ dội.
-
2:25 - 2:27Nếu bạn không tin tôi --
-
2:27 - 2:29tôi đã thấy vài khán giả gật đầu --
-
2:29 - 2:32nếu bạn không tin tôi,
hãy hỏi người có con nhỏ, -
2:32 - 2:35và họ sẽ biết về những video
"trứng bất ngờ" này. -
2:35 - 2:38Đây là nơi ta bắt đầu.
-
2:38 - 2:41Đây là năm 2018, ai đó,
hoặc rất nhiều người, -
2:41 - 2:44đang sử dụng cùng một cơ chế mà
Facebook và Instagram đang dùng -
2:44 - 2:47để khiến bạn liên tục
mở chúng ra xem. -
2:47 - 2:51Và họ dùng nó trên YouTube để
tác động lên não bộ của trẻ nhỏ -
2:51 - 2:54để đổi lấy lợi nhuận quảng cáo.
-
2:54 - 2:57Ít ra thì tôi hy vọng
đó là điều họ đang làm. -
2:57 - 2:59Tôi hy vọng đó là mục đích của họ,
-
2:59 - 3:03bởi có những cách dễ hơn để
thu lợi từ quảng cáo trên YouTube. -
3:03 - 3:06Bạn có thể bịa chuyện hoặc
ăn cắp nội dung. -
3:06 - 3:09Tìm những phim hoạt hình
thật sự phổ biến với trẻ em -
3:09 - 3:11như "Pepper Pig" hoặc "Paw Patrol,"
-
3:11 - 3:13bạn sẽ thấy có hàng triệu
đoạn phim này trên mạng. -
3:13 - 3:17Tất nhiên, phần lớn không phải do
tác giả gốc tải lên. -
3:17 - 3:20Chúng đến từ nhiều tài khoản
bất kỳ khác nhau, -
3:20 - 3:22và không thể biết
người tải là ai -
3:22 - 3:24hay động cơ của họ là gì.
-
3:24 - 3:26Điều này nghe có quen không?
-
3:26 - 3:28Bởi vì đó chính là cơ chế
-
3:28 - 3:31đang hoạt động trên hầu hết
các dịch vụ kỹ thuật số, -
3:31 - 3:34khi ta không thể biết
thông tin này đến từ ai. -
3:34 - 3:36Nó cơ bản là tin giả
với trẻ em, -
3:36 - 3:38và chúng ta huấn luyện chúng từ bé
-
3:38 - 3:41để bấm vào đường dẫn nào
xuất hiện đầu tiên -
3:41 - 3:43bất kể nguồn tin là gì.
-
3:43 - 3:46Có vẻ không phải là
một ý tưởng hay. -
3:46 - 3:49Còn đây là một thứ khác rất
phổ biến với trẻ trên YouTube, -
3:49 - 3:51gọi là "Bài hát Gia đình Ngón tay".
-
3:51 - 3:53Tôi vừa nghe ai đó "ồ" lên.
-
3:53 - 3:57Đây là "Bài hát Gia đình Ngón tay",
bài xưa nhất mà tôi tìm được. -
3:57 - 3:59Từ năm 2007, và chỉ có
200,000 lượt xem. -
3:59 - 4:01Chẳng là gì trong cuộc chơi này cả.
-
4:01 - 4:04Nhưng nó có một giai điệu
bắt tai khủng khiếp, -
4:04 - 4:06mà tôi sẽ không phát
cho các bạn nghe, -
4:06 - 4:08vì nó sẽ in vào não bạn
-
4:08 - 4:10như cách mà
nó đã in vào não tôi, -
4:10 - 4:13và tôi sẽ không làm điều đó
với các bạn đâu. -
4:13 - 4:16Nhưng cũng như trứng bất ngờ,
nó len lỏi vào não trẻ -
4:16 - 4:18và làm chúng bị nghiện.
-
4:18 - 4:20Chỉ trong vài năm,
những video "Gia đình Ngón tay" này -
4:20 - 4:23xuất hiện khắp nơi,
với nhiều phiên bản ngôn ngữ. -
4:23 - 4:26Những đoạn phim hoạt hình
minh hoạ bằng thức ăn -
4:26 - 4:31hay bất kỳ yếu tố hoạt hình nào có sẵn.
-
4:31 - 4:36Có hàng triệu, hàng triệu video
thế này trên mạng -
4:36 - 4:40với đa dạng
những sự kết hợp điên rồ. -
4:40 - 4:42Và càng dành nhiều
thời gian để xem, -
4:42 - 4:46bạn càng cảm thấy mình
trở nên điên khùng. -
4:46 - 4:49Đó là khi tôi bắt đầu nhận thấy
-
4:49 - 4:53một cảm giác kỳ lạ
và không thể hiểu nổi -
4:53 - 4:57về cách những thứ này được tạo ra
và hiện diện quanh mình. -
4:57 - 5:00Không thể biết được
chúng đến từ đâu. -
5:00 - 5:01Ai tạo ra chúng?
-
5:01 - 5:04Một số có vẻ là từ các nhóm
làm phim hoạt hình chuyên nghiệp. -
5:04 - 5:08Một số khác chỉ là do phần mềm
sắp xếp ngẫu nhiên. -
5:08 - 5:11Một số trông có vẻ là
những sản phẩm giải trí chỉn chu cho trẻ, -
5:11 - 5:14và một số được tạo ra
bởi những người -
5:14 - 5:17rõ ràng là không nên
ở gần con nít. -
5:17 - 5:19(Tiếng cười)
-
5:19 - 5:23Một lần nữa, việc không thể lần ra
ai tạo ra những thứ này - -
5:23 - 5:25liệu có phải
là một phần mềm tự động? -
5:25 - 5:27Hay người thật?
Hay là một trò đùa? -
5:27 - 5:30Ý nghĩa của việc
không thể phân biệt -
5:30 - 5:32những nguồn này nữa là gì?
-
5:32 - 5:38Và cảm giác không chắc chắn này
quen thuộc phải không? -
5:38 - 5:41Thủ thuật chính để thu hút
người xem video, -
5:41 - 5:43hãy nhớ rằng, lượt xem tạo ra tiền,
-
5:43 - 5:47là chèn các cụm từ phổ biến
vào tiêu đề video. -
5:47 - 5:49Chẳng hạn như
với "trứng bất ngờ", -
5:49 - 5:52bạn thêm vào tiêu đề
"Paw Patrol," "trứng Phục sinh" -
5:52 - 5:55hay bất kỳ từ khoá tương tự
từ các video nổi tiếng khác -
5:55 - 5:58cho tới khi có một hỗn hợp
từ ngữ vô nghĩa -
5:58 - 6:01mà người thường
chẳng thể nào hiểu được. -
6:01 - 6:04Tất nhiên chỉ có trẻ nhỏ
mới xem những video này, -
6:04 - 6:06và chúng thì biết gì cơ chứ?
-
6:06 - 6:10Khán giả thực sự của những video này
là phần mềm, là những thuật toán. -
6:10 - 6:12Đó là phần mềm YouTube dùng
-
6:12 - 6:15để chọn những video giống nhau,
-
6:15 - 6:17phổ biến chúng,
gợi ý chúng. -
6:17 - 6:21Đó là lý do, cuối cùng,
bạn có thứ hỗn tạp vô nghĩa này, -
6:21 - 6:24cả trong tiêu đề lẫn nội dung.
-
6:24 - 6:26Những vấn đề là,
bạn cần phải nhớ, -
6:26 - 6:30vẫn còn có con người
trong hệ thống tối ưu bằng thuật toán này, -
6:30 - 6:33những người bị buộc phải
ngày càng tăng cường -
6:33 - 6:36mức độ kết hợp
những từ khóa kỳ dị này, -
6:36 - 6:41như một nghệ sĩ ứng biến
tuyệt vọng đáp lại tiếng la hét -
6:41 - 6:45của hàng triệu trẻ sơ sinh.
-
6:45 - 6:48Có những con người thực
bị kẹt trong hệ thống này, -
6:48 - 6:52một điều kỳ lạ khác trong
nền văn hóa bị thuật toán chi phối. -
6:52 - 6:53Vì ngay cả khi là người thật,
-
6:53 - 6:57bạn, cuối cùng, cũng phải hành xử
như máy để tồn tại. -
6:57 - 6:59Ở phía bên kia màn hình cũng vậy,
-
6:59 - 7:02trẻ nhỏ xem những thứ này,
-
7:02 - 7:06chúng bị mắc kẹt, hoàn toàn
bị cơ chế này cuốn hút. -
7:06 - 7:09Phần lớn những đứa trẻ này
quá nhỏ để biết cách truy cập trang web. -
7:09 - 7:13Chúng đơn giản chỉ là
đập bàn tay nhỏ xíu lên màn hình. -
7:13 - 7:15Rồi lại có chức năng
tự động phát, -
7:15 - 7:17những video này liên tục
-
7:17 - 7:20trong một vòng lặp vô tận
hàng giờ liền. -
7:20 - 7:22Hệ thống này giờ đã quá kỳ dị
-
7:22 - 7:26đến nỗi chức năng tự động phát này
sẽ đưa bạn đến những nội dung kỳ lạ. -
7:26 - 7:28Đó là cách mà,
trong hơn chục cái nhấp chuột, -
7:28 - 7:32bạn có thể từ đang xem một video
dễ thương về đếm số xe lửa -
7:32 - 7:34đến video chuột Mickey thủ dâm.
-
7:34 - 7:37Đúng vậy. Rất tiếc là như thế.
-
7:37 - 7:39Chuyện này ngày càng trở nên tồi tệ.
-
7:39 - 7:41Đây là điều sẽ xảy ra
-
7:41 - 7:43khi tất cả những từ khóa
khác nhau này, -
7:43 - 7:46tất cả những nội dung thu hút này,
-
7:46 - 7:48cả một thế hệ thèm khát nội dung này,
-
7:48 - 7:52đều tập trung về một chỗ.
-
7:52 - 7:56Dây là nơi mà tất cả những từ khóa
kỳ dị này phản tác dụng. -
7:56 - 7:59Bạn ghép các video về
Gia đình Ngón tay -
7:59 - 8:01với những đoạn phim hành động
siêu anh hùng, -
8:01 - 8:04thêm vào trò chơi khăm
kỳ cục hay gì đó -
8:04 - 8:07và bạn có được
một video hết sức kỳ dị như thế này. -
8:07 - 8:10Thứ thường làm phụ huynh lo lắng
-
8:10 - 8:13là những nội dung có tính bạo lực
hoặc tình dục, đúng không? -
8:13 - 8:16Phim hoạt hình cho trẻ bị tấn công,
-
8:16 - 8:18bị tiêu diệt,
-
8:18 - 8:21những trò chơi khăm làm cho trẻ
bị khủng hoảng. -
8:21 - 8:25Cái bạn có là phần mềm dùng tất cả
các luồng ảnh hưởng này -
8:25 - 8:28để tự động tạo ra cơn ác mộng
tồi tệ nhất cho lũ trẻ. -
8:28 - 8:31Và nó thật sự tác động lên trẻ nhỏ.
-
8:31 - 8:33Phụ huynh cho biết con họ
bị khủng hoảng, -
8:33 - 8:35sợ bóng tối,
-
8:35 - 8:38sợ các nhân vật hoạt hình
yêu thích của chúng. -
8:38 - 8:42Nếu rút ra được điều gì từ việc này,
thì đó là nếu bạn có con nhỏ, -
8:42 - 8:45giữ chúng tránh xa YouTube.
-
8:45 - 8:50(Vỗ tay)
-
8:50 - 8:54Những còn một điều khác thật sự
làm tôi quan tâm, -
8:54 - 8:59đó là tôi không chắc ta hiểu được
vì sao đi đến nước này. -
8:59 - 9:02Ta lấy tất cả những tác nhân,
tất cả mọi thứ, -
9:02 - 9:05nhào nặn theo một cách
không ai tính trước. -
9:05 - 9:08Nhưng đây cũng là cách
ta xây dựng thế giới này. -
9:08 - 9:11Ta lấy mọi dữ liệu,
phần lớn là dữ liệu xấu, -
9:11 - 9:14nhiều dữ liệu lịch sử
mang đầy định kiến, -
9:14 - 9:17và những thôi thúc tồi tệ nhất.
-
9:17 - 9:19Ta dựng nên
những bộ dữ liệu lớn -
9:19 - 9:21rồi tự động hóa chúng,
-
9:21 - 9:24Ta lồng ghép chúng
vào những thứ như báo cáo tín dụng, -
9:24 - 9:26phí bảo hiểm,
-
9:26 - 9:28hệ thống cảnh sát ngăn ngừa,
-
9:28 - 9:30nguyên tắc tuyên án.
-
9:30 - 9:33Đây là cách chúng ta xây dựng nên
thế giới ngày nay -
9:33 - 9:34từ dữ liệu.
-
9:34 - 9:36Và tôi không biết điều gì tồi tệ hơn,
-
9:36 - 9:39tạo ra một hệ thống
hoàn toàn tối ưu -
9:39 - 9:42cho các khía cạnh tệ hại nhất
trong hành vi con người, -
9:42 - 9:47hay vô tình làm thế
mà không hề hay biết, -
9:47 - 9:50vì ta không thật sự hiểu
hệ thống mà ta dựng nên, -
9:50 - 9:55và không biết làm cách nào
làm khác đi. -
9:55 - 9:56Có một vài thứ, tôi nghĩ,
-
9:56 - 9:59là nguyên nhân chính
thúc đẩy chuyện này trên YouTube, -
9:59 - 10:01đầu tiên là quảng cáo,
-
10:01 - 10:04tức là kiếm tiền từ sự chú ý
-
10:04 - 10:08mà không thật sự tính đến
các yếu tố khác, -
10:08 - 10:11không quan tâm đến những người
thật sự tạo ra các nội dung này, -
10:11 - 10:15sự tập trung quyền lực,
và sự tách biệt khỏi những thứ khác. -
10:15 - 10:18Dù góc nhìn của bạn
về quảng cáo là gì -
10:18 - 10:19có thể là ủng hộ,
-
10:19 - 10:22thì cảnh những người trưởng thành
mặc tã lăn lộn trên cát -
10:22 - 10:26với hy vọng sẽ nhận được tiền
từ một thuật toán khó hiểu -
10:26 - 10:28cho thấy
đây chắc chắn không phải là -
10:28 - 10:31nền tảng mà ta mong muốn
tạo dựng xã hội và văn hóa, -
10:31 - 10:34và không phải cách
mà ta nên ủng hộ. -
10:34 - 10:37Còn một nhân tố chính thúc đẩy
quá trình tự động hóa này -
10:37 - 10:39là sự triển khai tất cả
các công nghệ -
10:39 - 10:42ngay khi vừa phát triển xong mà
không có bất kỳ sự giám sát. -
10:42 - 10:44Để rồi khi phát sinh vấn đề,
-
10:44 - 10:47ta bực bội phát biểu: "Không phải
do chúng tôi, mà là do công nghệ." -
10:47 - 10:51Như thể: "Chúng tôi vô can."
Không đủ thuyết phục, -
10:51 - 10:53bởi thuật toán không chỉ
điều khiển thứ này, -
10:53 - 10:56mà còn kiểm soát nó.
-
10:56 - 10:59Khi YouTube bắt đầu quan tâm
đến vấn đề này, -
10:59 - 11:01giải pháp đầu tiên của họ
-
11:01 - 11:04là cải tiến thuật toán máy học
(machine learning) -
11:04 - 11:05để giám sát nội dung.
-
11:05 - 11:08Về máy học, bất kỳ chuyên gia nào
cũng sẽ nói -
11:08 - 11:11cơ bản đó là tên gọi phần mềm
-
11:11 - 11:13khi ta bắt đầu không hiểu
cách thức nó hoạt động. -
11:13 - 11:17Tôi nghĩ, thế đã là quá đủ.
-
11:17 - 11:20Chúng ta không nên
để trí tuệ nhân tạo quyết định -
11:20 - 11:23những gì là phù hợp,
bởi ta biết điều gì sẽ xảy ra. -
11:23 - 11:25Nó sẽ bắt đầu kiểm duyệt
những nội dung khác. -
11:25 - 11:29Nội dung liên quan đến đồng tính,
Những phát biểu hợp pháp trước công chúng. -
11:29 - 11:31Những gì được tự do ngôn luận
-
11:31 - 11:34thì không nên bị loại bỏ
bởi các hệ thống khó hiểu này. -
11:34 - 11:37Bởi đó là một phần thảo luận
mà tất cả chúng ta nên tham gia. -
11:37 - 11:39Nhưng tôi xin nhắc một điều
-
11:39 - 11:41là giải pháp thay thế
cũng không hề dễ chịu. -
11:41 - 11:43YouTube vừa thông báo
-
11:43 - 11:46họ sẽ đưa ra phiên bản ứng dụng
dành cho trẻ em -
11:46 - 11:48hoàn toàn do con người giám sát.
-
11:48 - 11:52Zuckerberg của Facebook
cũng nói tương tự trước Quốc hội, -
11:52 - 11:55khi bị hỏi dồn sẽ giám sát
sản phẩm của họ ra sao. -
11:55 - 11:57Anh ta nói họ có người
để làm điều đó. -
11:57 - 11:58Ý nghĩa thật của nó là
-
11:58 - 12:01thay vì trẻ nhỏ là người
đầu tiên thấy những thứ này, -
12:01 - 12:04ta sẽ có những nhân công
hợp đồng bấp bênh, lương thấp, -
12:04 - 12:07không được hỗ trợ sức khỏe
tinh thần đúng cách, xem qua nó trước. -
12:07 - 12:09(Tiếng cười)
-
12:09 - 12:12Tôi nghĩ chúng ta
có thể làm tốt hơn thế. -
12:12 - 12:14(Vỗ tay)
-
12:14 - 12:20Theo tôi, việc đưa hai điều đó
lại với nhau là sự đại diện. -
12:20 - 12:23Sự đại diện, ý tôi là,
chúng ta hiểu biết đến đâu, -
12:23 - 12:28chúng ta biết phải làm gì
để đạt lợi ích tốt nhất. -
12:28 - 12:30Điều này gần như là không thể
-
12:30 - 12:33với những hệ thống
mà chúng ta không hiểu hết. -
12:33 - 12:36Bất bình đẳng về quyền lực
luôn dẫn đến bạo lực. -
12:36 - 12:38Và có thể thấy
trong những hệ thống này, -
12:38 - 12:41bất bình đẳng tri thức
cũng dẫn đến điều tương tự. -
12:41 - 12:44Nếu có thể làm gì để
cải thiện hệ thống này -
12:44 - 12:47đó là làm cho chúng dễ hiểu hơn
với người dùng, -
12:47 - 12:49để tất cả chúng ta
đều có đủ hiểu biết -
12:49 - 12:52về những gì
thực sự đang diễn ra. -
12:52 - 12:55Tuy nhiên, tôi nghĩ
những vấn đề hệ thống này -
12:55 - 12:59không chỉ là của YouTube,
như đã giải thích. -
12:59 - 13:00Mà là tất cả.
-
13:00 - 13:03Những vấn đề về trách nhiệm
và đại diện, -
13:03 - 13:05về sự thiếu minh bạch
và sự phức tạp, -
13:05 - 13:08về bạo lực và khai thác bạo lực
-
13:08 - 13:11do sự tập trung quyền lực
vào một số ít người, -
13:11 - 13:14đó là những vấn đề
to lớn hơn nhiều. -
13:14 - 13:17Đây không chỉ là vấn đề
của YouTube, hay của giới công nghệ, -
13:17 - 13:19và nó, thậm chí, cũng không mới.
-
13:19 - 13:21Đây là vấn đề của chúng ta
từ rất lâu. -
13:21 - 13:25Nhưng khi ta xây dựng hệ thống
toàn cầu này, Internet, -
13:25 - 13:28các vấn đề này nổi lên theo
những cách thức dị thường, -
13:28 - 13:30không thể chối bỏ được.
-
13:30 - 13:33Công nghệ có khả năng phi thường
-
13:33 - 13:37để vừa đại diện vừa chắp cánh
-
13:37 - 13:41những khao khát và định kiến
bất thường nhất mà ta hằng chôn giấu -
13:41 - 13:43rồi mã hóa và đưa chúng ra thế giới,
-
13:43 - 13:46nhưng nó cũng ghi lại
để chúng ta thấy, -
13:46 - 13:50để chúng ta không còn có thể vờ như
chúng không hiện hữu. -
13:50 - 13:54Ta cần ngưng cho rằng công nghệ
là giải pháp cho mọi vấn đề, -
13:54 - 13:58mà xem chúng như
một hướng dẫn cho các vấn đề thật sự, -
13:58 - 14:00để ta có thể suy nghĩ thấu đáo
-
14:00 - 14:02và tìm cách giải quyết.
-
14:02 - 14:04Xin cám ơn.
-
14:04 - 14:09(Vỗ tay)
-
14:09 - 14:11Xin cám ơn.
-
14:11 - 14:17(Vỗ tay)
-
14:17 - 14:20Helen Walters: Cảm ơn James
đã đến và nói về vấn đề này, -
14:20 - 14:22Thật thú vị khi nhớ lại các bộ phim,
-
14:22 - 14:25trong đó, người máy nắm quyền thống trị,
-
14:25 - 14:28hơi hào nhoáng hơn
so với những gì anh mô tả. -
14:28 - 14:32Những tôi thắc mắc, trong phim,
ta nhận thấy sự phản kháng tăng dần. -
14:32 - 14:35Vậy trong thực tế, có sự phản kháng nào
với những thứ này không? -
14:35 - 14:40Anh có thấy những dấu hiệu
tích cực nào của sự phản kháng? -
14:40 - 14:43JB: Tôi không biết có
sự phản kháng trực tiếp không, -
14:43 - 14:45vì tôi nghĩ vấn đề này
cực kỳ lâu dài. -
14:45 - 14:48Nó ăn sâu vào
nền văn hóa theo nhiều cách. -
14:48 - 14:50Bạn tôi, Eleanor Saitta, luôn nói
-
14:50 - 14:54tất cả những vấn đề công nghệ
có quy mô và phạm vi đủ lớn -
14:54 - 14:56trước tiên, đều là vấn đề chính trị.
-
14:56 - 14:59Vì thế, tất cả những vấn đề
mà ta nhắm đến -
14:59 - 15:02không thể được giải quyết
chỉ bằng việc tạo ra công nghệ tốt hơn, -
15:02 - 15:05mà là thay đổi cách xã hội
tạo ra những công nghệ này. -
15:05 - 15:09Vậy nên, không, tôi nghĩ ta còn
một chặng đường rất dài. -
15:09 - 15:11Nhưng như tôi nói,
bằng cách chia nhỏ vấn đè, -
15:11 - 15:13giải thích và nói về chúng
một cách trung thực, -
15:13 - 15:16ta thật sự có thể bắt đầu
quá trình phản kháng đó. -
15:16 - 15:19HW: Khi anh nói về am hiểu
công nghệ kỹ thuật số, -
15:19 - 15:21tôi thấy khó mà tưởng tượng
-
15:21 - 15:25việc đặt gánh nặng
tìm hiểu kỹ thuật lên người dùng. -
15:25 - 15:29Nhưng ai chịu trách nhiệm
về giáo dục trong thế giới mới này? -
15:29 - 15:33JB: Tôi nghĩ trách nhiệm này
thuộc về tất cả chúng ta, -
15:33 - 15:36tất cả những gì ta làm,
dựng nên, tạo ra, -
15:36 - 15:40phải được thực hiện với
sự thảo luận và đồng ý -
15:40 - 15:42với tất cả những người
đang tránh né chúng; -
15:42 - 15:45chúng ta không tạo ra hệ thống
-
15:45 - 15:48để lừa người khác
làm điều đúng đắn, -
15:48 - 15:52mà thực sự từng bước giáo dục họ,
-
15:52 - 15:54bởi mỗi hệ thống này
đều có tính giáo dục. -
15:54 - 15:57Đó là điều tôi hy vọng,
là ngay cả trong thực tế ảm đạm, -
15:57 - 15:59nếu xem xét nó
một cách đúng đắn, -
15:59 - 16:01bạn sẽ thấy nó thật sự là giáo dục
-
16:01 - 16:03cho phép bạn nhìn thấy
-
16:03 - 16:06cách hệ thống phức tạp này
kết hợp và hoạt động -
16:06 - 16:09và có thể áp dụng kiến thức này
ở nơi khác trên thế giới. -
16:09 - 16:11HW: James, đây là một
cuộc thảo luận quan trọng, -
16:11 - 16:14mà tôi biết nhiều người
đã rất cởi mở và sẵn lòng lắng nghe. -
16:14 - 16:17Cảm ơn vì đã chia sẻ
với chúng tôi sáng hôm nay. -
16:17 - 16:18JB: Cám ơn rất nhiều.
-
16:18 - 16:19(Vỗ tay)
- Title:
- Video gây ác mộng cho trẻ em trên YouTube - có gì sai với Internet ngày nay
- Speaker:
- James Bridle
- Description:
-
Nhà văn và nghệ sĩ James Bridle hé lộ góc tối của Internet, nơi những người hoặc nhóm người vô danh trên YouTube tác động lên trí não của trẻ nhỏ để đổi lấy doanh thu quảng cáo. Từ những màn "đập hộp" "trứng bất ngờ" đến "Bài hát Gia đình Ngón tay" tới thuật toán nhào trộn nhân vật hoạt hình quen thuộc với tình huống bạo lực, những video này khai thác và làm những đầu óc non trẻ kinh sợ - và cho thấy thế giới ngày càng bị dữ liệu chi phối của chúng ta sẽ đi về đâu. James phát biểu: "Đã đến lúc ngừng cho rằng công nghệ sẽ giải quyết được mọi vấn đề. Thay vào đó, hãy dùng nó như một hướng dẫn cho các vấn đề thực sự, để có thể xem xét thấu đáo và tìm cách giải quyết."
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32