Return to Video

The moral bias behind your search results

  • 0:00 - 0:03
    Mỗi khi đến thăm một ngôi trường nào đó và nói chuyện với sinh viên
  • 0:03 - 0:06
    Tôi luôn hỏi họ cùng một câu hỏi
  • 0:07 - 0:08
    Tại sao bạn sử dụng Google?
  • 0:10 - 0:10
    Tại sao bạn chọn Google là công cụ tìm kiếm cho mình?
  • 0:13 - 0:15
    Điều kì lạ là, tôi luôn nhận được cùng ba câu trả lời
  • 0:15 - 0:17
    Thứ nhất, "Vì nó mang lại kết quả"
  • 0:17 - 0:20
    Một câu trả lời rất thú vị, và đó chính là lý do vì sao tôi cũng chọn Google
  • 0:20 - 0:22
    Thứ hai, một vài người sẽ nói
  • 0:22 - 0:25
    "Tôi thật sự không tìm thấy công cụ thay thế nào khác
  • 0:26 - 0:29
    Theo tôi câu trả lời này không thỏa đáng, và thường đáp lại rằng
  • 0:29 - 0:31
    "Thế thì bạn hãy thử Google từ 'công cụ tìm kiếm' xem"
  • 0:31 - 0:33
    bạn chắc chắn sẽ tìm thấy rất nhiều công cụ tìm kiếm thú vị khác đấy
  • 0:33 - 0:35
    Thứ ba, cuối cùng nhưng không kém phần quan trọng
  • 0:35 - 0:39
    hiển nhiên là một học sinh giơ tay lên và nói
  • 0:39 - 0:44
    "Tìm kiếm bằng Google, tôi luôn chắc chắn rằng mình sẽ nhận được những kết quả khách quan nhất"
  • 0:45 - 0:52
    Chắc chắn sẽ luôn nhận được kết quả tốt và khách quan nhất
  • 0:53 - 0:55
    Ngay lúc này, với tư cách là một con người trong nhân loại,
  • 0:56 - 0:58
    dù là một người trong thời đại kỹ thuật số
  • 0:58 - 0:59
    thì điều đó cũng làm tôi thấy sởn gai ốc
  • 0:59 - 1:04
    Kể cả khi tôi cũng nhận ra rằng sự thật đó, ý tưởng về các kết quả tìm kiếm không thiên vị
  • 1:04 - 1:08
    là nền tảng của tình yêu chung của chúng ta đối với, và trân trọng Google.
  • 1:09 - 1:13
    Tôi sẽ cho các bạn thấy lý do tại sao, theo triết học, đây gần như là điều không thể
  • 1:13 - 1:16
    Nhưng trước hết hãy để tôi giải thích một chút, dựa trên một nguyên tắc cơ bản
  • 1:16 - 1:19
    đằng sau mỗi truy vấn tìm kiếm mà đôi khi chúng ta dường như quên mất...
  • 1:20 - 1:22
    Bất cứ khi nào bạn yêu cầu Google tìm kiếm một điều gì đó
  • 1:22 - 1:26
    Hãy bắt đầu bằng cách tự hỏi mình "Tôi có đang tìm kiếm một sự thật độc lập?"
  • 1:26 - 1:29
    Thủ đô của Pháp là gì?
  • 1:30 - 1:32
    Các nhân tố nào trong một phân tử nước?
  • 1:32 - 1:34
    Tuyệt - Tra Google ngay lập tức
  • 1:34 - 1:37
    Không một nhà khoa học nào có thể chứng minh
  • 1:37 - 1:39
    rằng đó là London và H3O
  • 1:39 - 1:42
    Bạn không hề thấy có sự thông đồng nào trong những câu trả lời đó
  • 1:42 - 1:43
    Chúng tôi đều thừa nhận, trên quy mô toàn cầu,
  • 1:43 - 1:46
    câu trả lời là những thực tế độc lập này
  • 1:46 - 1:52
    Nhưng nếu bạn phức tạp hóa những câu hỏi của mình một chút, và hỏi những câu như,
  • 1:52 - 1:54
    Tại sao lại xảy ra xung đột giữa Israel và Palestine?
  • 1:55 - 1:58
    Lúc đó, bạn sẽ không đơn giản là tìm kiếm một sự thật cá nhân nữa,
  • 1:58 - 1:59
    bạn đang tìm kiếm kiến thức
  • 1:59 - 2:02
    một thứ gì đó phức tạp và tinh vi hơn
  • 2:03 - 2:04
    Và để có được kiến thức,
  • 2:04 - 2:07
    bạn phải đưa 10, 20 hay thậm chí 100 sự thật vào bàn tròn,
  • 2:07 - 2:10
    và thừa nhận chúng, và nói rằng : "Vâng, những điều này hoàn toàn đúng"
  • 2:10 - 2:12
    Nhưng dù tôi là ai,
  • 2:12 - 2:14
    dù trẻ hay già, đen hay trắng, đồng tính hay "trai thẳng"
  • 2:14 - 2:16
    tôi đều sẽ đánh giá chúng khác nhau.
  • 2:16 - 2:18
    Và tôi sẽ nói rằng: "Vâng, điều này đúng,
  • 2:18 - 2:20
    nhưng điều này đối với tôi còn quan trọng hơn thế nữa."
  • 2:20 - 2:22
    Và đây là thứ khiến mọi chuyện thú vị hơn,
  • 2:22 - 2:24
    bởi vì đây là thứ khiến chúng ta là những con người,
  • 2:24 - 2:27
    Đây là khi chúng ta bắt đầu tranh luận, hình thành nên xã hội,
  • 2:27 - 2:30
    và để thật sự biết được một nơi nào đó, chúng ta phải chắt lọc những sự kiện ở đây
  • 2:30 - 2:33
    thông qua bạn bè, hàng xóm, cha mẹ và con cái
  • 2:33 - 2:35
    đồng nghiệp, báo và tạp chí,
  • 2:35 - 2:38
    để cuối cùng, đặt nền cho kiến thức thực tế,
  • 2:38 - 2:42
    mà một công cụ tìm kiếm khó có thể làm được
  • 2:43 - 2:50
    Vì vậy, tôi đã đưa ra cho các bạn một ví dụ chỉ để cho các bạn thấy lí do tại sao
  • 2:50 - 2:53
    để có được kiến thức đúng, "sạch" và khách quan laị khó khăn đến vậy
  • 2:53 - 2:55
    - một đề tài đáng suy ngẫm.
  • 2:55 - 2:58
    Tôi sẽ thực hiện một vài truy vấn tìm kiếm đơn giản
  • 2:58 - 3:03
    Chúng ta sẽ bắt đầu với "Michelle Obama",
  • 3:03 - 3:04
    Đệ Nhất Phu Nhân Hoa Kì.
  • 3:04 - 3:06
    Và chúng ta nhấp chuột vào phần tìm kiếm hình ảnh
  • 3:07 - 3:09
    Nó hoạt động thực sự tốt, bạn có thể nhìn thấy.
  • 3:09 - 3:12
    Ít nhiều, đó là một kết quả tìm kiếm hoàn hảo.
  • 3:12 - 3:15
    chỉ có hình Bà ấy, thậm chí còn không hề có sự xuất hiện của Ngài Tổng Thống trong những bức hình.
  • 3:16 - 3:17
    Công cụ này hoạt động như thế nào?
  • 3:18 - 3:19
    Đơn giản thôi,
  • 3:19 - 3:22
    Google sử dụng khá nhiều" trí thông minh" để đạt được các kết quả này, tuy nhiên, một cách đơn giản,
  • 3:22 - 3:25
    Google sẽ chú ý đến hai thứ này nhiều hơn bất cứ thứ gì khác
  • 3:25 - 3:30
    Thứ nhất, nội dung của dòng chú thích bên dưới bức ảnh trên mỗi trang web là gì
  • 3:30 - 3:32
    Liệu có phải là "Michelle Obama" không?
  • 3:32 - 3:34
    Quả nhiên, đúng là bà ấy ở đó.
  • 3:34 - 3:37
    Thứ hai, Google nhìn vào các tập tin hình ảnh,
  • 3:37 - 3:40
    tên của các tập tin được đăng tải lên trang web
  • 3:40 - 3:42
    Một lần nữa, có phải tên là " Michelle Obama.jpeg" không
  • 3:43 - 3:46
    Rất tốt, tên file không phải là Clint Eastwood trong hình.
  • 3:46 - 3:50
    Như vậy, bạn vừa biết được hai cách tìm kiếm và hầu như là bạn nhận được kết quả tìm kiếm thông qua quá trình như thế đấy
  • 3:50 - 3:57
    Trong năm 2009, Michelle Obama từng là nạn nhân của một chiến dịch phân biệt chủng tộc,
  • 3:57 - 4:01
    mọi người gày bẫy để sỉ nhục bà ấy thông qua các kết quả tìm kiếm về bà
  • 4:01 - 4:04
    Có một bức ảnh được phát tán rộng rãi trên mạng
  • 4:04 - 4:07
    trong đó, khuôn mặt bà ấy bị bóp méo trông giống như một con khỉ
  • 4:07 - 4:10
    Và bức ảnh ấy được phát tán rộng rãi.
  • 4:10 - 4:14
    và những người công bố bức ảnh ấy rất cố ý,
  • 4:14 - 4:16
    làm cho bức ảnh ấy hiển thị trên các kết quả tìm kiếm
  • 4:16 - 4:19
    Họ chắc chắn đã viết "Michelle Obama" trong dòng chú thích
  • 4:19 - 4:23
    và cũng chắc chắn đăng tải bức ảnh với tập tin "Michelle Obama.jpeg" hoặc những thứ tương tự.
  • 4:23 - 4:25
    Bạn đã biết làm sao để thao túng các kết quả tìm kiếm.
  • 4:25 - 4:27
    Và chúng đã thành công.
  • 4:27 - 4:29
    Vì vậy, khi bạn tìm kiếm bức hình "Michelle Obama" trên Google trong năm 2009
  • 4:29 - 4:33
    bạn sẽ thấy bức hình với khuôn mặt biến dạng hình mặt khỉ ấy xuất hiện ở những kết quả đầu tiên
  • 4:33 - 4:36
    Nhưng giờ thì những kết quả ấy đã tự biến mất,
  • 4:36 - 4:38
    và đó giống như là một ưu điểm của Google
  • 4:38 - 4:42
    bởi vì Google đánh giá sự hợp lý mỗi giờ, mỗi ngày.
  • 4:42 - 4:44
    Tuy nhiên, Google đã không giải quyết vấn đề đó trong khoảng thời gian này
  • 4:44 - 4:47
    họ chỉ nghĩ rằng" đó là phân biệt chủng tộc và đó là một kết quả tìm kiếm không tốt
  • 4:48 - 4:51
    Chúng ta sẽ quay trở lại và tự tay dọn dẹp sạch sẽ
  • 4:51 - 4:54
    Chúng ta sẽ viết một số mã và sửa chữa nó".
  • 4:54 - 4:55
    Điều mà họ đã từng làm
  • 5:00 - 5:01
    Và tôi không nghĩ rằng ai đó trong phòng này nghĩ đó là một ý kiến tồi.
  • 5:01 - 5:03
    Và tôi cũng vậy.
  • 5:03 - 5:06
    Nhưng một vài năm sau,
  • 5:06 - 5:09
    người được cả thế giới tìm kiếm nhiều nhất trên Google - Anders
  • 5:09 - 5:11
    Anders Behring Breivik
  • 5:11 - 5:13
    làm việc hắn đã làm.
  • 5:13 - 5:15
    Và ngày 22 tháng 7 năm 2011
  • 5:15 - 5:18
    một ngày tồi tệ trong lịch sử Na Uy
  • 5:18 - 5:21
    Hắn ta, một kẻ khủng bố đã thổi bay khu tòa nhà Chính phủ
  • 5:21 - 5:24
    nơi cách chỗ chúng ta bây giờ tại Oslo, Na Uy không xa
  • 5:24 - 5:26
    sau đó, hắn chạy đến đảo Utoya
  • 5:26 - 5:29
    xả súng tấn công vào một đoàn thiếu niên
  • 5:29 - 5:31
    Gần 80 người đã thiệt mạng ngày hôm đó.
  • 5:32 - 5:37
    Rất nhiều người có thể mô tả hành động khủng bố này qua hai bước,
  • 5:37 - 5:40
    rằng hắn đã làm 2 việc: đánh sập các tòa nhà bắn những đứa trẻ
  • 5:40 - 5:42
    Nhưng điều này không đúng.
  • 5:42 - 5:44
    Thực tế, có tới ba bước.
  • 5:44 - 5:47
    Hắn ta thổi bay các tòa nhà, hắn bắn lũ trẻ,
  • 5:47 - 5:50
    và ngồi xuống, chờ thế giới Google về mình.
  • 5:51 - 5:54
    Và hắn đã chuẩn bị rất tốt cho cả ba bước này
  • 5:55 - 5:57
    Và nếu có ai ngay lập tức hiểu ra điều này,
  • 5:57 - 5:59
    thì đó là một nhà phát triển web người Thụy Sĩ,
  • 5:59 - 6:03
    một chuyên gia về tối ưu hóa công cụ tìm kiếm sống tại Stockholm, có tên là Nikke Lindqvist.
  • 6:03 - 6:04
    Anh ta cũng là một anh chàng rất có tư tưởng chính trị
  • 6:04 - 6:07
    Và trên các phương tiện truyền thông xã hội, trên blog và facebook của mình,
  • 6:07 - 6:09
    anh ta nói với mọi người
  • 6:09 - 6:11
    "Nếu có điều gì đó mà tên sát nhân muốn ngay bây giờ,
  • 6:11 - 6:14
    thì đó là kiểm soát hình ảnh của chính hắn.
  • 6:15 - 6:17
    Xem xem liệu chúng ta có làm biến dạng những bức hình,
  • 6:17 - 6:21
    hay trong thế giới văn minh này, chúng ta có thể phản đối những gì hắn ta đã làm
  • 6:21 - 6:25
    bằng cách nhục mạ hắn thông qua các kết quả tìm kiếm hay không.
  • 6:25 - 6:26
    Và bằng cách nào?
  • 6:27 - 6:29
    Anh ta đã nói với độc giả của mình thế này:
  • 6:29 - 6:31
    "Hãy lên mạng,
  • 6:31 - 6:34
    tìm kiếm những bức hình chụp phân chó trên vỉa hè,
  • 6:35 - 6:37
    tìm kiếm những bức hình chụp phân chó trên vỉa hè,
  • 6:37 - 6:40
    rồi công bố chúng trên các phản hồi, trên các trang web và trên blog của bạn.
  • 6:40 - 6:43
    Và hãy chắc chắn rằng bạn sẽ viết tên của tên khủng bố trên dòng chú thích,
  • 6:43 - 6:48
    và đặt tên tập tin cho bức hình đó là "Breivik.jpeg"
  • 6:48 - 6:52
    Hãy cho Google biết rằng đó chính là gương mặt của tên sát nhân."
  • 6:54 - 6:55
    Và hành động này đã đem lại kết quả.
  • 6:56 - 6:59
    Hai năm sau chiến dịch chống Phu Nhân Michelle Obama,
  • 6:59 - 7:02
    chiến dịch thao tác này chống Anders Behring Breivik đã hoạt động
  • 7:02 - 7:07
    Nếu bạn Google hình ảnh của hắn 2 tuần sau sự kiện ngày 22 tháng 7 tại Thụy Điển,
  • 7:07 - 7:11
    bạn sẽ thấy bức hình phân chó xuất hiện ở những trang đầu tiên trong kết quả tìm kiếm,
  • 7:11 - 7:12
    giống như là một cuộc biểu tình quy mô nhỏ.
  • 7:13 - 7:18
    Cũng thật kì lạ là trong thời gian này, Google đã không can thiệp
  • 7:18 - 7:23
    Họ không hề xen vào và "dọn dẹp" các kết quả tìm kiếm trên
  • 7:24 - 7:26
    Vậy nên câu hỏi đáng giá triệu đô là,
  • 7:26 - 7:29
    Có điều gì khác biệt giữa hai sự kiện này?
  • 7:29 - 7:32
    Liệu có sự khác biệt nào giữa những gì đã xảy ra với bà Michelle Obama
  • 7:32 - 7:34
    và những việc xảy ra với Anders Behring Breivik?
  • 7:34 - 7:36
    Dĩ nhiên là không.
  • 7:37 - 7:38
    Hai sự kiện này hoàn toàn giống hệt nhau.
  • 7:38 - 7:41
    Thế nhưng Google lại chỉ can thiệp vào một trường hợp của bà Michelle Obama
  • 7:41 - 7:42
    Tại sao lại như vậy?
  • 7:43 - 7:47
    Là bởi vì Michelle Obama là một người đáng kính,
  • 7:47 - 7:50
    còn Anders Behring Breivik là một kẻ đáng khinh.
  • 7:50 - 7:52
    Bạn đã hiểu ra vấn đề ở đây chưa?
  • 7:52 - 7:55
    Việc đánh giá một con người xảy ra
  • 7:55 - 7:59
    và chỉ có một người chơi có quyền lực trên thế giới
  • 7:59 - 8:01
    có thẩm quyền để nói ai là ai.
  • 8:02 - 8:04
    Chúng tôi ủng hộ bạn, chúng tôi căm ghét bạn.
  • 8:04 - 8:06
    Chúng tôi tin tưởng ở bạn, chúng tôi không tin bạn.
  • 8:06 - 8:08
    Bạn nói đúng rồi, bạn nói sai rồi
    Bạn làm đúng, bạn đã sai rồi.
  • 8:08 - 8:10
    Bạn là Obama, và bạn là Breivik.
  • 8:11 - 8:13
    Đó chính là quyền lực mà tôi đã từng chứng kiến
  • 8:15 - 8:19
    Vậy nên, tôi muốn các bạn nhớ rằng, đằng sau mỗi thuật toán
  • 8:19 - 8:21
    luôn luôn là một con người.
  • 8:21 - 8:23
    một người với những đức tin cá nhân,
  • 8:23 - 8:26
    rằng không một mã số nào có thể bị xóa bỏ hoàn toàn.
  • 8:26 - 8:28
    Và thông điệp tôi muốn gửi tới không chỉ cho Google,
  • 8:28 - 8:31
    mà cho tất cả những người luôn tin vào các dòng lệnh trên toàn thế giới.
  • 8:31 - 8:34
    Bạn cần phải xác định được chính kiến của mình.
  • 8:34 - 8:35
    Bạn cần phải hiểu rằng bạn là con người,
  • 8:35 - 8:39
    và do đó bạn phải có trách nhiệm
  • 8:40 - 8:43
    Tôi nói điều này bởi lẽ tôi tin chúng ta đã đạt đến một thời điểm nào đó
  • 8:43 - 8:44
    mà chúng ta hoàn toàn bị bắt buộc
  • 8:44 - 8:48
    thắt chặt mối quan hệ này một lần nữa, chặt chẽ hơn:
  • 8:48 - 8:50
    giữa Nhân loại và Công nghệ
  • 8:50 - 8:52
    Chặt chẽ hơn bao giờ hết.
  • 8:52 - 8:56
    Và, nếu không còn thứ gì khác, nhắc chúng ta rằng cái ý tưởng vô cùng thú vị
  • 8:56 - 8:58
    về kết quả tìm kiếm sạch, không thiên vị
  • 8:58 - 9:01
    đang, và hẳn sẽ vẫn là một huyền thoại
  • 9:02 - 9:03
    Cảm ơn các bạn đã lắng nghe.
  • 9:03 - 9:06
    (Tiếng vỗ tay)
Title:
The moral bias behind your search results
Speaker:
Andreas Ekstrøm
Description:

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
09:18

Vietnamese subtitles

Revisions