< Return to Video

Video gây ác mộng cho trẻ em trên YouTube - có gì sai với Internet ngày nay

  • 0:00 - 0:02
    Tôi là James.
  • 0:02 - 0:04
    Nhà văn và nghệ sĩ,
  • 0:04 - 0:07
    và tôi sáng tác phẩm về công nghệ.
  • 0:07 - 0:10
    Tôi vẽ viền máy bay do thám quân sự
    theo kích thước thật
  • 0:10 - 0:12
    lên đường phố khắp thế giới,
  • 0:12 - 0:15
    để mọi người bắt đầu suy nghĩ
    và quan tâm
  • 0:15 - 0:20
    đến những công nghệ
    khó nhìn thấy và khó hiểu này.
  • 0:20 - 0:23
    Tôi tạo ra những tác phẩm như
    mạng dự đoán kết quả bỏ phiếu
  • 0:23 - 0:25
    dựa trên báo cáo thời tiết,
  • 0:25 - 0:27
    vì tôi quan tâm đến
  • 0:27 - 0:31
    tiềm năng thực sự của
    những công nghệ mới lạ này.
  • 0:31 - 0:34
    Năm ngoái, tôi tự chế tạo
    xe tự lái.
  • 0:34 - 0:36
    Vì không thật sự
    tin tưởng vào công nghệ,
  • 0:36 - 0:39
    tôi tự thiết kế luôn đường chạy.
  • 0:39 - 0:40
    (Tiếng cười)
  • 0:40 - 0:44
    Tôi làm những việc này
    không chỉ vì thấy nó cực kỳ thú vị,
  • 0:44 - 0:47
    mà còn vì tôi nghĩ
    công nghệ là cách
  • 0:47 - 0:50
    ta nói về bản thân mình
  • 0:50 - 0:52
    cũng như nhìn nhận của ta
    về thế giới.
  • 0:52 - 0:56
    Và đây là một câu chuyện
    về công nghệ.
  • 0:56 - 0:58
    Đây là một video
    "trứng bất ngờ".
  • 0:58 - 1:02
    Đó cơ bản là video ai đó
    ngồi mở thật nhiều trứng sô-cô-la
  • 1:02 - 1:05
    để người xem thấy được
    đồ chơi bên trong.
  • 1:05 - 1:08
    Chỉ vậy thôi. Đó là toàn bộ
    nội dung trong bảy phút.
  • 1:08 - 1:11
    Và tôi muốn các bạn chú ý
    đến hai điều.
  • 1:11 - 1:15
    Thứ nhất, video này
    đạt 30 triệu lượt xem.
  • 1:15 - 1:16
    (Tiếng cười)
  • 1:16 - 1:18
    Điều còn lại là,
  • 1:18 - 1:21
    nó thuộc một kênh
    có 6.3 triệu người theo dõi,
  • 1:21 - 1:25
    với tổng số tám tỷ lượt xem,
  • 1:25 - 1:28
    chỉ toàn video như thế.
  • 1:28 - 1:32
    30 triệu người xem ai đó
    mở những quả trứng này.
  • 1:32 - 1:36
    Nghe kỳ cục, nhưng nếu bạn
    gõ "trứng bất ngờ" trên YouTube,
  • 1:36 - 1:40
    kết quả cho thấy
    có 10 triệu video như thế,
  • 1:40 - 1:43
    và tôi nghĩ thực tế
    còn nhiều, nhiều hơn.
  • 1:43 - 1:46
    Nếu tiếp tục tìm,
    bạn sẽ thấy vô số.
  • 1:46 - 1:48
    Có hàng triệu, hàng triệu
    video thế này
  • 1:48 - 1:52
    dưới đủ mọi hình thức kết hợp
    giữa nhãn hàng và nội dung,
  • 1:52 - 1:56
    và mỗi ngày, càng nhiều
    video như vậy được tải lên.
  • 1:56 - 1:59
    Một thế giới kỳ lạ phải không?
  • 1:59 - 2:03
    Nhưng vấn đề là, những video này
    không dành cho người lớn,
  • 2:03 - 2:05
    mà là cho trẻ nhỏ.
  • 2:05 - 2:08
    Những video này giống như
    ma túy với chúng.
  • 2:08 - 2:10
    Sự lặp đi lặp lại,
  • 2:10 - 2:13
    những tiết lộ nho nhỏ
  • 2:13 - 2:15
    gây kích thích và cuốn hút chúng.
  • 2:15 - 2:19
    Trẻ nhỏ xem những video này
    hết lần này đến lần khác,
  • 2:19 - 2:21
    trong hàng giờ, hàng giờ liền.
  • 2:21 - 2:24
    Và nếu bạn cố tách chúng
    ra khỏi màn hình,
  • 2:24 - 2:25
    chúng sẽ la hét dữ dội.
  • 2:25 - 2:27
    Nếu bạn không tin tôi --
  • 2:27 - 2:29
    tôi đã thấy vài khán giả gật đầu --
  • 2:29 - 2:32
    nếu bạn không tin tôi,
    hãy hỏi người có con nhỏ,
  • 2:32 - 2:35
    và họ sẽ biết về những video
    "trứng bất ngờ" này.
  • 2:35 - 2:38
    Đây là nơi ta bắt đầu.
  • 2:38 - 2:41
    Đây là năm 2018, ai đó,
    hoặc rất nhiều người,
  • 2:41 - 2:44
    đang sử dụng cùng một cơ chế mà
    Facebook và Instagram đang dùng
  • 2:44 - 2:47
    để khiến bạn liên tục
    mở chúng ra xem.
  • 2:47 - 2:51
    Và họ dùng nó trên YouTube để
    tác động lên não bộ của trẻ nhỏ
  • 2:51 - 2:54
    để đổi lấy lợi nhuận quảng cáo.
  • 2:54 - 2:57
    Ít ra thì tôi hy vọng
    đó là điều họ đang làm.
  • 2:57 - 2:59
    Tôi hy vọng đó là mục đích của họ,
  • 2:59 - 3:03
    bởi có những cách dễ hơn để
    thu lợi từ quảng cáo trên YouTube.
  • 3:03 - 3:06
    Bạn có thể bịa chuyện hoặc
    ăn cắp nội dung.
  • 3:06 - 3:09
    Tìm những phim hoạt hình
    thật sự phổ biến với trẻ em
  • 3:09 - 3:11
    như "Pepper Pig" hoặc "Paw Patrol,"
  • 3:11 - 3:13
    bạn sẽ thấy có hàng triệu
    đoạn phim này trên mạng.
  • 3:13 - 3:17
    Tất nhiên, phần lớn không phải do
    tác giả gốc tải lên.
  • 3:17 - 3:20
    Chúng đến từ nhiều tài khoản
    bất kỳ khác nhau,
  • 3:20 - 3:22
    và không thể biết
    người tải là ai
  • 3:22 - 3:24
    hay động cơ của họ là gì.
  • 3:24 - 3:26
    Điều này nghe có quen không?
  • 3:26 - 3:28
    Bởi vì đó chính là cơ chế
  • 3:28 - 3:31
    đang hoạt động trên hầu hết
    các dịch vụ kỹ thuật số,
  • 3:31 - 3:34
    khi ta không thể biết
    thông tin này đến từ ai.
  • 3:34 - 3:36
    Nó cơ bản là tin giả
    với trẻ em,
  • 3:36 - 3:38
    và chúng ta huấn luyện chúng từ bé
  • 3:38 - 3:41
    để bấm vào đường dẫn nào
    xuất hiện đầu tiên
  • 3:41 - 3:43
    bất kể nguồn tin là gì.
  • 3:43 - 3:46
    Có vẻ không phải là
    một ý tưởng hay.
  • 3:46 - 3:49
    Còn đây là một thứ khác rất
    phổ biến với trẻ trên YouTube,
  • 3:49 - 3:51
    gọi là "Bài hát Gia đình Ngón tay".
  • 3:51 - 3:53
    Tôi vừa nghe ai đó "ồ" lên.
  • 3:53 - 3:57
    Đây là "Bài hát Gia đình Ngón tay",
    bài xưa nhất mà tôi tìm được.
  • 3:57 - 3:59
    Từ năm 2007, và chỉ có
    200,000 lượt xem.
  • 3:59 - 4:01
    Chẳng là gì trong cuộc chơi này cả.
  • 4:01 - 4:04
    Nhưng nó có một giai điệu
    bắt tai khủng khiếp,
  • 4:04 - 4:06
    mà tôi sẽ không phát
    cho các bạn nghe,
  • 4:06 - 4:08
    vì nó sẽ in vào não bạn
  • 4:08 - 4:10
    như cách mà
    nó đã in vào não tôi,
  • 4:10 - 4:13
    và tôi sẽ không làm điều đó
    với các bạn đâu.
  • 4:13 - 4:16
    Nhưng cũng như trứng bất ngờ,
    nó len lỏi vào não trẻ
  • 4:16 - 4:18
    và làm chúng bị nghiện.
  • 4:18 - 4:20
    Chỉ trong vài năm,
    những video "Gia đình Ngón tay" này
  • 4:20 - 4:23
    xuất hiện khắp nơi,
    với nhiều phiên bản ngôn ngữ.
  • 4:23 - 4:26
    Những đoạn phim hoạt hình
    minh hoạ bằng thức ăn
  • 4:26 - 4:31
    hay bất kỳ yếu tố hoạt hình nào có sẵn.
  • 4:31 - 4:36
    Có hàng triệu, hàng triệu video
    thế này trên mạng
  • 4:36 - 4:40
    với đa dạng
    những sự kết hợp điên rồ.
  • 4:40 - 4:42
    Và càng dành nhiều
    thời gian để xem,
  • 4:42 - 4:46
    bạn càng cảm thấy mình
    trở nên điên khùng.
  • 4:46 - 4:49
    Đó là khi tôi bắt đầu nhận thấy
  • 4:49 - 4:53
    một cảm giác kỳ lạ
    và không thể hiểu nổi
  • 4:53 - 4:57
    về cách những thứ này được tạo ra
    và hiện diện quanh mình.
  • 4:57 - 5:00
    Không thể biết được
    chúng đến từ đâu.
  • 5:00 - 5:01
    Ai tạo ra chúng?
  • 5:01 - 5:04
    Một số có vẻ là từ các nhóm
    làm phim hoạt hình chuyên nghiệp.
  • 5:04 - 5:08
    Một số khác chỉ là do phần mềm
    sắp xếp ngẫu nhiên.
  • 5:08 - 5:11
    Một số trông có vẻ là
    những sản phẩm giải trí chỉn chu cho trẻ,
  • 5:11 - 5:14
    và một số được tạo ra
    bởi những người
  • 5:14 - 5:17
    rõ ràng là không nên
    ở gần con nít.
  • 5:17 - 5:19
    (Tiếng cười)
  • 5:19 - 5:23
    Một lần nữa, việc không thể lần ra
    ai tạo ra những thứ này -
  • 5:23 - 5:25
    liệu có phải
    là một phần mềm tự động?
  • 5:25 - 5:27
    Hay người thật?
    Hay là một trò đùa?
  • 5:27 - 5:30
    Ý nghĩa của việc
    không thể phân biệt
  • 5:30 - 5:32
    những nguồn này nữa là gì?
  • 5:32 - 5:38
    Và cảm giác không chắc chắn này
    quen thuộc phải không?
  • 5:38 - 5:41
    Thủ thuật chính để thu hút
    người xem video,
  • 5:41 - 5:43
    hãy nhớ rằng, lượt xem tạo ra tiền,
  • 5:43 - 5:47
    là chèn các cụm từ phổ biến
    vào tiêu đề video.
  • 5:47 - 5:49
    Chẳng hạn như
    với "trứng bất ngờ",
  • 5:49 - 5:52
    bạn thêm vào tiêu đề
    "Paw Patrol," "trứng Phục sinh"
  • 5:52 - 5:55
    hay bất kỳ từ khoá tương tự
    từ các video nổi tiếng khác
  • 5:55 - 5:58
    cho tới khi có một hỗn hợp
    từ ngữ vô nghĩa
  • 5:58 - 6:01
    mà người thường
    chẳng thể nào hiểu được.
  • 6:01 - 6:04
    Tất nhiên chỉ có trẻ nhỏ
    mới xem những video này,
  • 6:04 - 6:06
    và chúng thì biết gì cơ chứ?
  • 6:06 - 6:10
    Khán giả thực sự của những video này
    là phần mềm, là những thuật toán.
  • 6:10 - 6:12
    Đó là phần mềm YouTube dùng
  • 6:12 - 6:15
    để chọn những video giống nhau,
  • 6:15 - 6:17
    phổ biến chúng,
    gợi ý chúng.
  • 6:17 - 6:21
    Đó là lý do, cuối cùng,
    bạn có thứ hỗn tạp vô nghĩa này,
  • 6:21 - 6:24
    cả trong tiêu đề lẫn nội dung.
  • 6:24 - 6:26
    Những vấn đề là,
    bạn cần phải nhớ,
  • 6:26 - 6:30
    vẫn còn có con người
    trong hệ thống tối ưu bằng thuật toán này,
  • 6:30 - 6:33
    những người bị buộc phải
    ngày càng tăng cường
  • 6:33 - 6:36
    mức độ kết hợp
    những từ khóa kỳ dị này,
  • 6:36 - 6:41
    như một nghệ sĩ ứng biến
    tuyệt vọng đáp lại tiếng la hét
  • 6:41 - 6:45
    của hàng triệu trẻ sơ sinh.
  • 6:45 - 6:48
    Có những con người thực
    bị kẹt trong hệ thống này,
  • 6:48 - 6:52
    một điều kỳ lạ khác trong
    nền văn hóa bị thuật toán chi phối.
  • 6:52 - 6:53
    Vì ngay cả khi là người thật,
  • 6:53 - 6:57
    bạn, cuối cùng, cũng phải hành xử
    như máy để tồn tại.
  • 6:57 - 6:59
    Ở phía bên kia màn hình cũng vậy,
  • 6:59 - 7:02
    trẻ nhỏ xem những thứ này,
  • 7:02 - 7:06
    chúng bị mắc kẹt, hoàn toàn
    bị cơ chế này cuốn hút.
  • 7:06 - 7:09
    Phần lớn những đứa trẻ này
    quá nhỏ để biết cách truy cập trang web.
  • 7:09 - 7:13
    Chúng đơn giản chỉ là
    đập bàn tay nhỏ xíu lên màn hình.
  • 7:13 - 7:15
    Rồi lại có chức năng
    tự động phát,
  • 7:15 - 7:17
    những video này liên tục
  • 7:17 - 7:20
    trong một vòng lặp vô tận
    hàng giờ liền.
  • 7:20 - 7:22
    Hệ thống này giờ đã quá kỳ dị
  • 7:22 - 7:26
    đến nỗi chức năng tự động phát này
    sẽ đưa bạn đến những nội dung kỳ lạ.
  • 7:26 - 7:28
    Đó là cách mà,
    trong hơn chục cái nhấp chuột,
  • 7:28 - 7:32
    bạn có thể từ đang xem một video
    dễ thương về đếm số xe lửa
  • 7:32 - 7:34
    đến video chuột Mickey thủ dâm.
  • 7:34 - 7:37
    Đúng vậy. Rất tiếc là như thế.
  • 7:37 - 7:39
    Chuyện này ngày càng trở nên tồi tệ.
  • 7:39 - 7:41
    Đây là điều sẽ xảy ra
  • 7:41 - 7:43
    khi tất cả những từ khóa
    khác nhau này,
  • 7:43 - 7:46
    tất cả những nội dung thu hút này,
  • 7:46 - 7:48
    cả một thế hệ thèm khát nội dung này,
  • 7:48 - 7:52
    đều tập trung về một chỗ.
  • 7:52 - 7:56
    Dây là nơi mà tất cả những từ khóa
    kỳ dị này phản tác dụng.
  • 7:56 - 7:59
    Bạn ghép các video về
    Gia đình Ngón tay
  • 7:59 - 8:01
    với những đoạn phim hành động
    siêu anh hùng,
  • 8:01 - 8:04
    thêm vào trò chơi khăm
    kỳ cục hay gì đó
  • 8:04 - 8:07
    và bạn có được
    một video hết sức kỳ dị như thế này.
  • 8:07 - 8:10
    Thứ thường làm phụ huynh lo lắng
  • 8:10 - 8:13
    là những nội dung có tính bạo lực
    hoặc tình dục, đúng không?
  • 8:13 - 8:16
    Phim hoạt hình cho trẻ bị tấn công,
  • 8:16 - 8:18
    bị tiêu diệt,
  • 8:18 - 8:21
    những trò chơi khăm làm cho trẻ
    bị khủng hoảng.
  • 8:21 - 8:25
    Cái bạn có là phần mềm dùng tất cả
    các luồng ảnh hưởng này
  • 8:25 - 8:28
    để tự động tạo ra cơn ác mộng
    tồi tệ nhất cho lũ trẻ.
  • 8:28 - 8:31
    Và nó thật sự tác động lên trẻ nhỏ.
  • 8:31 - 8:33
    Phụ huynh cho biết con họ
    bị khủng hoảng,
  • 8:33 - 8:35
    sợ bóng tối,
  • 8:35 - 8:38
    sợ các nhân vật hoạt hình
    yêu thích của chúng.
  • 8:38 - 8:42
    Nếu rút ra được điều gì từ việc này,
    thì đó là nếu bạn có con nhỏ,
  • 8:42 - 8:45
    giữ chúng tránh xa YouTube.
  • 8:45 - 8:50
    (Vỗ tay)
  • 8:50 - 8:54
    Những còn một điều khác thật sự
    làm tôi quan tâm,
  • 8:54 - 8:59
    đó là tôi không chắc ta hiểu được
    vì sao đi đến nước này.
  • 8:59 - 9:02
    Ta lấy tất cả những tác nhân,
    tất cả mọi thứ,
  • 9:02 - 9:05
    nhào nặn theo một cách
    không ai tính trước.
  • 9:05 - 9:08
    Nhưng đây cũng là cách
    ta xây dựng thế giới này.
  • 9:08 - 9:11
    Ta lấy mọi dữ liệu,
    phần lớn là dữ liệu xấu,
  • 9:11 - 9:14
    nhiều dữ liệu lịch sử
    mang đầy định kiến,
  • 9:14 - 9:17
    và những thôi thúc tồi tệ nhất.
  • 9:17 - 9:19
    Ta dựng nên
    những bộ dữ liệu lớn
  • 9:19 - 9:21
    rồi tự động hóa chúng,
  • 9:21 - 9:24
    Ta lồng ghép chúng
    vào những thứ như báo cáo tín dụng,
  • 9:24 - 9:26
    phí bảo hiểm,
  • 9:26 - 9:28
    hệ thống cảnh sát ngăn ngừa,
  • 9:28 - 9:30
    nguyên tắc tuyên án.
  • 9:30 - 9:33
    Đây là cách chúng ta xây dựng nên
    thế giới ngày nay
  • 9:33 - 9:34
    từ dữ liệu.
  • 9:34 - 9:36
    Và tôi không biết điều gì tồi tệ hơn,
  • 9:36 - 9:39
    tạo ra một hệ thống
    hoàn toàn tối ưu
  • 9:39 - 9:42
    cho các khía cạnh tệ hại nhất
    trong hành vi con người,
  • 9:42 - 9:47
    hay vô tình làm thế
    mà không hề hay biết,
  • 9:47 - 9:50
    vì ta không thật sự hiểu
    hệ thống mà ta dựng nên,
  • 9:50 - 9:55
    và không biết làm cách nào
    làm khác đi.
  • 9:55 - 9:56
    Có một vài thứ, tôi nghĩ,
  • 9:56 - 9:59
    là nguyên nhân chính
    thúc đẩy chuyện này trên YouTube,
  • 9:59 - 10:01
    đầu tiên là quảng cáo,
  • 10:01 - 10:04
    tức là kiếm tiền từ sự chú ý
  • 10:04 - 10:08
    mà không thật sự tính đến
    các yếu tố khác,
  • 10:08 - 10:11
    không quan tâm đến những người
    thật sự tạo ra các nội dung này,
  • 10:11 - 10:15
    sự tập trung quyền lực,
    và sự tách biệt khỏi những thứ khác.
  • 10:15 - 10:18
    Dù góc nhìn của bạn
    về quảng cáo là gì
  • 10:18 - 10:19
    có thể là ủng hộ,
  • 10:19 - 10:22
    thì cảnh những người trưởng thành
    mặc tã lăn lộn trên cát
  • 10:22 - 10:26
    với hy vọng sẽ nhận được tiền
    từ một thuật toán khó hiểu
  • 10:26 - 10:28
    cho thấy
    đây chắc chắn không phải là
  • 10:28 - 10:31
    nền tảng mà ta mong muốn
    tạo dựng xã hội và văn hóa,
  • 10:31 - 10:34
    và không phải cách
    mà ta nên ủng hộ.
  • 10:34 - 10:37
    Còn một nhân tố chính thúc đẩy
    quá trình tự động hóa này
  • 10:37 - 10:39
    là sự triển khai tất cả
    các công nghệ
  • 10:39 - 10:42
    ngay khi vừa phát triển xong mà
    không có bất kỳ sự giám sát.
  • 10:42 - 10:44
    Để rồi khi phát sinh vấn đề,
  • 10:44 - 10:47
    ta bực bội phát biểu: "Không phải
    do chúng tôi, mà là do công nghệ."
  • 10:47 - 10:51
    Như thể: "Chúng tôi vô can."
    Không đủ thuyết phục,
  • 10:51 - 10:53
    bởi thuật toán không chỉ
    điều khiển thứ này,
  • 10:53 - 10:56
    mà còn kiểm soát nó.
  • 10:56 - 10:59
    Khi YouTube bắt đầu quan tâm
    đến vấn đề này,
  • 10:59 - 11:01
    giải pháp đầu tiên của họ
  • 11:01 - 11:04
    là cải tiến thuật toán máy học
    (machine learning)
  • 11:04 - 11:05
    để giám sát nội dung.
  • 11:05 - 11:08
    Về máy học, bất kỳ chuyên gia nào
    cũng sẽ nói
  • 11:08 - 11:11
    cơ bản đó là tên gọi phần mềm
  • 11:11 - 11:13
    khi ta bắt đầu không hiểu
    cách thức nó hoạt động.
  • 11:13 - 11:17
    Tôi nghĩ, thế đã là quá đủ.
  • 11:17 - 11:20
    Chúng ta không nên
    để trí tuệ nhân tạo quyết định
  • 11:20 - 11:23
    những gì là phù hợp,
    bởi ta biết điều gì sẽ xảy ra.
  • 11:23 - 11:25
    Nó sẽ bắt đầu kiểm duyệt
    những nội dung khác.
  • 11:25 - 11:29
    Nội dung liên quan đến đồng tính,
    Những phát biểu hợp pháp trước công chúng.
  • 11:29 - 11:31
    Những gì được tự do ngôn luận
  • 11:31 - 11:34
    thì không nên bị loại bỏ
    bởi các hệ thống khó hiểu này.
  • 11:34 - 11:37
    Bởi đó là một phần thảo luận
    mà tất cả chúng ta nên tham gia.
  • 11:37 - 11:39
    Nhưng tôi xin nhắc một điều
  • 11:39 - 11:41
    là giải pháp thay thế
    cũng không hề dễ chịu.
  • 11:41 - 11:43
    YouTube vừa thông báo
  • 11:43 - 11:46
    họ sẽ đưa ra phiên bản ứng dụng
    dành cho trẻ em
  • 11:46 - 11:48
    hoàn toàn do con người giám sát.
  • 11:48 - 11:52
    Zuckerberg của Facebook
    cũng nói tương tự trước Quốc hội,
  • 11:52 - 11:55
    khi bị hỏi dồn sẽ giám sát
    sản phẩm của họ ra sao.
  • 11:55 - 11:57
    Anh ta nói họ có người
    để làm điều đó.
  • 11:57 - 11:58
    Ý nghĩa thật của nó là
  • 11:58 - 12:01
    thay vì trẻ nhỏ là người
    đầu tiên thấy những thứ này,
  • 12:01 - 12:04
    ta sẽ có những nhân công
    hợp đồng bấp bênh, lương thấp,
  • 12:04 - 12:07
    không được hỗ trợ sức khỏe
    tinh thần đúng cách, xem qua nó trước.
  • 12:07 - 12:09
    (Tiếng cười)
  • 12:09 - 12:12
    Tôi nghĩ chúng ta
    có thể làm tốt hơn thế.
  • 12:12 - 12:14
    (Vỗ tay)
  • 12:14 - 12:20
    Theo tôi, việc đưa hai điều đó
    lại với nhau là sự đại diện.
  • 12:20 - 12:23
    Sự đại diện, ý tôi là,
    chúng ta hiểu biết đến đâu,
  • 12:23 - 12:28
    chúng ta biết phải làm gì
    để đạt lợi ích tốt nhất.
  • 12:28 - 12:30
    Điều này gần như là không thể
  • 12:30 - 12:33
    với những hệ thống
    mà chúng ta không hiểu hết.
  • 12:33 - 12:36
    Bất bình đẳng về quyền lực
    luôn dẫn đến bạo lực.
  • 12:36 - 12:38
    Và có thể thấy
    trong những hệ thống này,
  • 12:38 - 12:41
    bất bình đẳng tri thức
    cũng dẫn đến điều tương tự.
  • 12:41 - 12:44
    Nếu có thể làm gì để
    cải thiện hệ thống này
  • 12:44 - 12:47
    đó là làm cho chúng dễ hiểu hơn
    với người dùng,
  • 12:47 - 12:49
    để tất cả chúng ta
    đều có đủ hiểu biết
  • 12:49 - 12:52
    về những gì
    thực sự đang diễn ra.
  • 12:52 - 12:55
    Tuy nhiên, tôi nghĩ
    những vấn đề hệ thống này
  • 12:55 - 12:59
    không chỉ là của YouTube,
    như đã giải thích.
  • 12:59 - 13:00
    Mà là tất cả.
  • 13:00 - 13:03
    Những vấn đề về trách nhiệm
    và đại diện,
  • 13:03 - 13:05
    về sự thiếu minh bạch
    và sự phức tạp,
  • 13:05 - 13:08
    về bạo lực và khai thác bạo lực
  • 13:08 - 13:11
    do sự tập trung quyền lực
    vào một số ít người,
  • 13:11 - 13:14
    đó là những vấn đề
    to lớn hơn nhiều.
  • 13:14 - 13:17
    Đây không chỉ là vấn đề
    của YouTube, hay của giới công nghệ,
  • 13:17 - 13:19
    và nó, thậm chí, cũng không mới.
  • 13:19 - 13:21
    Đây là vấn đề của chúng ta
    từ rất lâu.
  • 13:21 - 13:25
    Nhưng khi ta xây dựng hệ thống
    toàn cầu này, Internet,
  • 13:25 - 13:28
    các vấn đề này nổi lên theo
    những cách thức dị thường,
  • 13:28 - 13:30
    không thể chối bỏ được.
  • 13:30 - 13:33
    Công nghệ có khả năng phi thường
  • 13:33 - 13:37
    để vừa đại diện vừa chắp cánh
  • 13:37 - 13:41
    những khao khát và định kiến
    bất thường nhất mà ta hằng chôn giấu
  • 13:41 - 13:43
    rồi mã hóa và đưa chúng ra thế giới,
  • 13:43 - 13:46
    nhưng nó cũng ghi lại
    để chúng ta thấy,
  • 13:46 - 13:50
    để chúng ta không còn có thể vờ như
    chúng không hiện hữu.
  • 13:50 - 13:54
    Ta cần ngưng cho rằng công nghệ
    là giải pháp cho mọi vấn đề,
  • 13:54 - 13:58
    mà xem chúng như
    một hướng dẫn cho các vấn đề thật sự,
  • 13:58 - 14:00
    để ta có thể suy nghĩ thấu đáo
  • 14:00 - 14:02
    và tìm cách giải quyết.
  • 14:02 - 14:04
    Xin cám ơn.
  • 14:04 - 14:09
    (Vỗ tay)
  • 14:09 - 14:11
    Xin cám ơn.
  • 14:11 - 14:17
    (Vỗ tay)
  • 14:17 - 14:20
    Helen Walters: Cảm ơn James
    đã đến và nói về vấn đề này,
  • 14:20 - 14:22
    Thật thú vị khi nhớ lại các bộ phim,
  • 14:22 - 14:25
    trong đó, người máy nắm quyền thống trị,
  • 14:25 - 14:28
    hơi hào nhoáng hơn
    so với những gì anh mô tả.
  • 14:28 - 14:32
    Những tôi thắc mắc, trong phim,
    ta nhận thấy sự phản kháng tăng dần.
  • 14:32 - 14:35
    Vậy trong thực tế, có sự phản kháng nào
    với những thứ này không?
  • 14:35 - 14:40
    Anh có thấy những dấu hiệu
    tích cực nào của sự phản kháng?
  • 14:40 - 14:43
    JB: Tôi không biết có
    sự phản kháng trực tiếp không,
  • 14:43 - 14:45
    vì tôi nghĩ vấn đề này
    cực kỳ lâu dài.
  • 14:45 - 14:48
    Nó ăn sâu vào
    nền văn hóa theo nhiều cách.
  • 14:48 - 14:50
    Bạn tôi, Eleanor Saitta, luôn nói
  • 14:50 - 14:54
    tất cả những vấn đề công nghệ
    có quy mô và phạm vi đủ lớn
  • 14:54 - 14:56
    trước tiên, đều là vấn đề chính trị.
  • 14:56 - 14:59
    Vì thế, tất cả những vấn đề
    mà ta nhắm đến
  • 14:59 - 15:02
    không thể được giải quyết
    chỉ bằng việc tạo ra công nghệ tốt hơn,
  • 15:02 - 15:05
    mà là thay đổi cách xã hội
    tạo ra những công nghệ này.
  • 15:05 - 15:09
    Vậy nên, không, tôi nghĩ ta còn
    một chặng đường rất dài.
  • 15:09 - 15:11
    Nhưng như tôi nói,
    bằng cách chia nhỏ vấn đè,
  • 15:11 - 15:13
    giải thích và nói về chúng
    một cách trung thực,
  • 15:13 - 15:16
    ta thật sự có thể bắt đầu
    quá trình phản kháng đó.
  • 15:16 - 15:19
    HW: Khi anh nói về am hiểu
    công nghệ kỹ thuật số,
  • 15:19 - 15:21
    tôi thấy khó mà tưởng tượng
  • 15:21 - 15:25
    việc đặt gánh nặng
    tìm hiểu kỹ thuật lên người dùng.
  • 15:25 - 15:29
    Nhưng ai chịu trách nhiệm
    về giáo dục trong thế giới mới này?
  • 15:29 - 15:33
    JB: Tôi nghĩ trách nhiệm này
    thuộc về tất cả chúng ta,
  • 15:33 - 15:36
    tất cả những gì ta làm,
    dựng nên, tạo ra,
  • 15:36 - 15:40
    phải được thực hiện với
    sự thảo luận và đồng ý
  • 15:40 - 15:42
    với tất cả những người
    đang tránh né chúng;
  • 15:42 - 15:45
    chúng ta không tạo ra hệ thống
  • 15:45 - 15:48
    để lừa người khác
    làm điều đúng đắn,
  • 15:48 - 15:52
    mà thực sự từng bước giáo dục họ,
  • 15:52 - 15:54
    bởi mỗi hệ thống này
    đều có tính giáo dục.
  • 15:54 - 15:57
    Đó là điều tôi hy vọng,
    là ngay cả trong thực tế ảm đạm,
  • 15:57 - 15:59
    nếu xem xét nó
    một cách đúng đắn,
  • 15:59 - 16:01
    bạn sẽ thấy nó thật sự là giáo dục
  • 16:01 - 16:03
    cho phép bạn nhìn thấy
  • 16:03 - 16:06
    cách hệ thống phức tạp này
    kết hợp và hoạt động
  • 16:06 - 16:09
    và có thể áp dụng kiến thức này
    ở nơi khác trên thế giới.
  • 16:09 - 16:11
    HW: James, đây là một
    cuộc thảo luận quan trọng,
  • 16:11 - 16:14
    mà tôi biết nhiều người
    đã rất cởi mở và sẵn lòng lắng nghe.
  • 16:14 - 16:17
    Cảm ơn vì đã chia sẻ
    với chúng tôi sáng hôm nay.
  • 16:17 - 16:18
    JB: Cám ơn rất nhiều.
  • 16:18 - 16:19
    (Vỗ tay)
Title:
Video gây ác mộng cho trẻ em trên YouTube - có gì sai với Internet ngày nay
Speaker:
James Bridle
Description:

Nhà văn và nghệ sĩ James Bridle hé lộ góc tối của Internet, nơi những người hoặc nhóm người vô danh trên YouTube tác động lên trí não của trẻ nhỏ để đổi lấy doanh thu quảng cáo. Từ những màn "đập hộp" "trứng bất ngờ" đến "Bài hát Gia đình Ngón tay" tới thuật toán nhào trộn nhân vật hoạt hình quen thuộc với tình huống bạo lực, những video này khai thác và làm những đầu óc non trẻ kinh sợ - và cho thấy thế giới ngày càng bị dữ liệu chi phối của chúng ta sẽ đi về đâu. James phát biểu: "Đã đến lúc ngừng cho rằng công nghệ sẽ giải quyết được mọi vấn đề. Thay vào đó, hãy dùng nó như một hướng dẫn cho các vấn đề thực sự, để có thể xem xét thấu đáo và tìm cách giải quyết."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Vietnamese subtitles

Revisions