Return to Video

Twitter cần phải thay đổi như thế nào

  • 0:01 - 0:04
    Chris Anderson:
    Hiện tại điều gì khiến anh lo ngại?
  • 0:04 - 0:06
    Nghe nói anh rất quan tâm về
    các vấn đề trên Twitter.
  • 0:06 - 0:09
    Vậy điều gì khiến anh lo lắng nhất
  • 0:09 - 0:11
    trước tình hình hiện nay?
  • 0:11 - 0:14
    Jack Dorsey: Hiện tại thì,
    là vấn đề lành mạnh trong giao tiếp.
  • 0:14 - 0:18
    Mục tiêu của chúng tôi là phục vụ
    giao tiếp của cộng đồng,
  • 0:18 - 0:23
    và chúng tôi đã nhận thấy
    nhiều sự công kích nhắm vào nó.
  • 0:23 - 0:26
    Chúng tôi thấy sự lăng mạ, sự quấy rối,
  • 0:26 - 0:29
    chúng tôi thấy những thủ đoạn thao túng,
  • 0:29 - 0:33
    những sự dàn dựng, phối hợp,
    sự sai lệch thông tin.
  • 0:34 - 0:38
    Đây là sự bùng nổ
    mà chúng tôi đã không lường được
  • 0:38 - 0:42
    khi thành lập công ty 13 năm trước.
  • 0:42 - 0:44
    Hiện tại những công kích đó
    đã bùng nổ ở phạm vi lớn
  • 0:45 - 0:50
    và điều tôi lo lắng nhất là làm cách nào
    có thể giải quyết những vấn đề trên
  • 0:50 - 0:53
    một cách có hệ thống
    và trên quy mô rộng,
  • 0:55 - 1:00
    vừa nghiêm ngặt,
  • 1:00 - 1:03
    lại vừa minh bạch về
    phương hướng hành động
  • 1:03 - 1:06
    và có quy trình kháng cáo nghiêm ngặt
    phòng khi chúng tôi làm sai,
  • 1:06 - 1:08
    vì sai sót là điều không thể tránh khỏi.
  • 1:09 - 1:11
    Whitney Pennington Rodgers:
    Tôi rất mừng khi nghe rằng
  • 1:11 - 1:13
    đó là một trong những nỗi lo của anh,
  • 1:13 - 1:16
    vì tôi thấy rất nhiều người bày tỏ
  • 1:16 - 1:18
    họ cảm thấy bị bạc đãi
    và quấy rối trên Twitter,
  • 1:18 - 1:22
    và tôi nghĩ đa số họ là phụ nữ,
    phụ nữ da màu
  • 1:22 - 1:23
    và phụ nữ da đen.
  • 1:23 - 1:25
    Và có những số liệu được đưa ra --
  • 1:25 - 1:28
    Vài tháng trước, Tổ chức Ân xá Quốc tế
    đã đưa ra một báo cáo
  • 1:28 - 1:33
    cho thấy rằng trong một bộ phận
    phụ nữ da đen đang sử dụng Twitter
  • 1:33 - 1:36
    nhận được trung bình cứ 10 tweets
    thì có một tweet
  • 1:36 - 1:38
    thuộc dạng quấy rối.
  • 1:38 - 1:42
    Và khi nói đến tính lành mạnh
    cho cộng đồng trên Twitter,
  • 1:42 - 1:46
    Tôi muốn nghe về,
    "lành mạnh cho mọi người,"
  • 1:46 - 1:49
    và cụ thể làm cách nào
    biến Twitter thành một nơi an toàn
  • 1:49 - 1:54
    cho phụ nữ, phụ nữ da màu
    và phụ nữ da đen?
  • 1:54 - 1:55
    JD: Vâng.
  • 1:55 - 1:57
    Đây là một tình trạng khá là nhức nhối
  • 1:57 - 1:59
    khi bạn tham gia một dịch vụ
  • 1:59 - 2:03
    với góc nhìn lý tưởng là bạn muốn
    học hỏi được nhiều điều mới mẻ về thế giới
  • 2:03 - 2:09
    và rồi lại phải dành đa số thời gian
    cho việc báo cáo vi phạm hay chịu bạc đãi,
  • 2:09 - 2:11
    quấy rối từ người khác.
  • 2:11 - 2:18
    Trước đây chúng tôi tập trung vào
    những khuyến khích
  • 2:18 - 2:22
    mà một hệ thống hay dịch vụ
    thường đưa ra.
  • 2:22 - 2:27
    Hiện tại, sự bùng nổ của hệ thống này đã
    biến việc quấy rối và bạc đãi người khác
  • 2:27 - 2:31
    trở nên cực kỳ đơn giản
    thông qua những dịch vụ của nó,
  • 2:31 - 2:34
    và đáng tiếc rằng đa số những hệ thống
    trước đây của chúng tôi
  • 2:34 - 2:39
    vận hành hoàn toàn dựa trên việc
    báo cáo vi phạm và quấy rối.
  • 2:39 - 2:45
    Nên vào khoảng giữa năm ngoái,
    chúng tôi đã quyết định chuyên tâm
  • 2:45 - 2:49
    nghiên cứu về machine learning,
    deep learning về vấn đề này,
  • 2:49 - 2:53
    và cố chủ động hơn trong việc
    giải quyết những quấy rối
  • 2:53 - 2:57
    để trút bỏ hoàn toàn những gánh nặng
    mà nạn nhân phải chịu.
  • 2:57 - 3:00
    Và gần đây chúng tôi
    đã có nhiều tiến triển.
  • 3:00 - 3:06
    Khoảng 38% những tweet quấy rối
    giờ có thể được nhận dạng
  • 3:06 - 3:08
    bằng những thuật toán học máy
  • 3:08 - 3:10
    để mọi người không cần phải
    báo cáo vi phạm nữa.
  • 3:10 - 3:14
    Nhưng những tweet được nhận dạng
    vẫn được con người xem xét lại,
  • 3:14 - 3:18
    nên chúng tôi kiểm soát lại những bài viết
    hay tài khoản này trước khi xóa bỏ chúng
  • 3:19 - 3:22
    Nhưng một năm trước,
    tỉ lệ này là 0%.
  • 3:22 - 3:24
    Điều này nghĩa là, với 0%,
  • 3:24 - 3:28
    tất cả những người chịu quấy rối
    phải thực sự báo cáo hết,
  • 3:28 - 3:31
    điều này khiến cả chúng tôi lẫn nạn nhân
    phải tốn rất nhiều công sức
  • 3:31 - 3:33
    và việc đó thực sự không công bằng.
  • 3:34 - 3:38
    Một việc mà hiện chúng tôi đang tiến hành
    là đảm bảo rằng, với tư cách một công ty,
  • 3:38 - 3:42
    chúng tôi đại diện tất cả các cộng đồng
    đang sử dụng dịch vụ của chúng tôi
  • 3:42 - 3:44
    Chúng tôi không thể xây dựng
    thương hiệu thành công
  • 3:44 - 3:47
    nếu chúng tôi không có sự đa dạng
    về góc nhìn trong chính công ty
  • 3:47 - 3:51
    nơi mỗi ngày đều gặp phải
    những vấn đề này.
  • 3:51 - 3:55
    Và điều đó không chỉ được thực hiện
    bởi một nhóm nhân viên
  • 3:55 - 3:57
    mà còn bởi ban lãnh đạo của công ty.
  • 3:57 - 4:03
    Chúng tôi cần duy trì việc đồng cảm hơn
    với những gì mọi người đang trải qua
  • 4:03 - 4:06
    và cho họ một số phương tiện để hành động
  • 4:06 - 4:10
    và cũng như giúp họ tiếp cận
    với một phương án xử lý
  • 4:10 - 4:13
    những vấn đề họ phải đối mặt
    một cách dễ dàng và hiệu quả hơn.
  • 4:13 - 4:16
    Những gì chúng tôi đang giải quyết
    đa phần liên quan đến công nghệ,
  • 4:16 - 4:20
    nhưng chúng tôi cũng nghiên cứu
    những khuyến kích từ dịch vụ này:
  • 4:20 - 4:25
    Twitter khuyến khích người dùng làm gì
    khi vừa mở nó lên?
  • 4:25 - 4:27
    Và trước đây,
  • 4:29 - 4:34
    nó đã gây ra nhiều phẫn nộ,
    khuyến khích những hành vi đám đông,
  • 4:34 - 4:37
    khuyến khích những hành vi
    quấy rối nhóm,
  • 4:37 - 4:40
    và chúng tôi phải xem xét kỹ
    những chức năng cơ bản
  • 4:40 - 4:43
    của dịch vụ này để tạo nên
    những sự thay đổi.
  • 4:43 - 4:47
    Chúng tôi có thể tạo ra những thay đổi nhỏ
    về công nghệ, như tôi đã nói,
  • 4:47 - 4:52
    nhưng cuối cùng vẫn phải nhìn vào
    chính những động lực của hệ thống này
  • 4:52 - 4:53
    và đây là điều chúng tôi đang làm.
  • 4:53 - 4:55
    CA: Nhưng anh cảm thấy --
  • 4:55 - 4:59
    anh có thể thay đổi điều gì
  • 4:59 - 5:02
    để dẫn đến những thay đổi
    cơ bản về hành vi?
  • 5:03 - 5:05
    JD: Thì, một trong những điều đó là --
  • 5:05 - 5:10
    chúng tôi mở ra một dịch vụ
    với chức năng theo dõi tài khoản,
  • 5:10 - 5:12
    ví dụ vậy,
  • 5:12 - 5:16
    và tôi nghĩ đây không phải
    lý do chính mà người ta tìm đến Twitter.
  • 5:16 - 5:21
    Tôi nghĩ Twitter tốt hơn hết
    là một mạng lưới dựa trên sở thích.
  • 5:21 - 5:25
    Người ta tìm đến nó
    vì một sở thích cụ thể.
  • 5:25 - 5:28
    Họ phải vất vả tìm kiếm
    và theo dõi những tài khoản
  • 5:28 - 5:30
    liên quan đến sở thích ấy.
  • 5:30 - 5:34
    Thay vào đó, chúng tôi có thể
    giúp các bạn theo dõi một sở thích,
  • 5:34 - 5:36
    một hashtag, một xu hướng,
  • 5:36 - 5:38
    một cộng đồng,
  • 5:38 - 5:42
    và điều này tạo cơ hội để chúng tôi
    cho các bạn thấy tất cả những tài khoản,
  • 5:42 - 5:46
    những chủ đề, những khoảnh khắc,
    những hashtag
  • 5:46 - 5:50
    liên quan đến chủ đề
    và sở thích nhất định đó,
  • 5:50 - 5:54
    và điều này giúp bạn trải nghiệm
    nhiều góc nhìn khác nhau.
  • 5:54 - 5:56
    Nhưng đó là một thay đổi cơ bản
  • 5:56 - 6:00
    của toàn hệ thống
    từ khuynh hướng theo dõi tài khoản
  • 6:00 - 6:03
    thành khuynh hướng theo dõi
    về những chủ đề và sở thích.
  • 6:03 - 6:06
    CA: Nhưng chẳng phải rằng
  • 6:07 - 6:11
    việc nền tảng này
    có nhiều nội dung đến vậy
  • 6:11 - 6:15
    là kết quả của việc
    đưa hàng triệu người trên thế giới
  • 6:15 - 6:18
    vào một cuộc chiến để giành lấy
  • 6:18 - 6:20
    những người theo dõi và sự chú ý hay sao?
  • 6:20 - 6:24
    Ví dụ như, từ góc nhìn
    của những người chỉ lướt Twitter,
  • 6:24 - 6:25
    thì đây không là vấn đề,
  • 6:25 - 6:29
    nhưng với những người
    tạo nội dung Twitter, họ sẽ nói rằng,
  • 6:29 - 6:32
    "Ước gì tôi có thê một vài 'like',
    lượt theo dõi và retweet nữa."
  • 6:32 - 6:34
    Và họ thử nghiệm nhiều cách
  • 6:34 - 6:36
    để đạt được điều đó.
  • 6:36 - 6:40
    Và chúng ta đều nhận thấy rằng
    phương pháp hàng đầu của họ
  • 6:40 - 6:44
    là những lời lăng mạ đầy khiêu khích,
  • 6:44 - 6:47
    đáng ghét, hùng hồn một cách đáng ghét,
  • 6:47 - 6:50
    những lời lăng mạ hùng hồn
    cứ như một giấc mộng trên Twitter vậy,
  • 6:50 - 6:53
    chúng ngày một chồng chất --
  • 6:53 - 6:57
    và trở thành một vòng luân hồi
    chỉ toàn sự xúc phạm.
  • 6:57 - 7:00
    Anh sẽ ngăn chặn điều đó như thế nào?
  • 7:01 - 7:04
    JD: Vâng, anh nói rất đúng,
  • 7:04 - 7:06
    nhưng đó lại là vấn đề
    về những động cơ thúc đẩy.
  • 7:06 - 7:08
    Một trong những điều chúng tôi
    làm từ ban đầu
  • 7:08 - 7:13
    là đưa ra một con số cho thấy
    bao nhiêu người đang theo dõi bạn.
  • 7:13 - 7:16
    Chúng tôi đã quyết định rằng
    con số này phải thật to, thật rõ,
  • 7:16 - 7:19
    và những gì to rõ
    sẽ có tầm quan trọng lớn,
  • 7:19 - 7:22
    và những điều đó sẽ là động lực
    thúc đẩy bạn sử dụng twitter.
  • 7:22 - 7:24
    Đó có phải là một quyết định
    đúng đắn không?
  • 7:24 - 7:25
    Có lẽ là không.
  • 7:25 - 7:27
    Nếu tôi có thể làm lại từ đầu,
  • 7:27 - 7:29
    tôi sẽ không đặt trọng tâm
    vào lượt theo dõi nhiều như vậy.
  • 7:29 - 7:32
    Tôi sẽ không coi trọng vào
    lượt "thích" nhiều như vậy.
  • 7:32 - 7:35
    Thậm chí tôi sẽ không tạo ra
    chức năng "thích" ngay từ đầu,
  • 7:35 - 7:38
    bởi điều đó thực sự đang cản trở
  • 7:38 - 7:41
    những điều mà chúng tôi
    cho là quan trọng nhất,
  • 7:41 - 7:44
    đó là những đóng góp
    lành mạnh cho cộng đồng
  • 7:44 - 7:47
    là giao tiếp trong cộng đồng,
  • 7:47 - 7:49
    sự tham gia của mọi người
    vào các cuộc trò chuyện,
  • 7:49 - 7:52
    sự có ích của những cuộc trò chuyện đó.
  • 7:52 - 7:54
    Đấy là những điều
    13 năm trước chúng tôi chưa nghĩ đến,
  • 7:54 - 7:57
    và giờ chúng tôi cho rằng
    là vô cùng quan trọng.
  • 7:57 - 8:00
    Vậy nên chúng tôi phải nhìn nhận lại
    cách hiển thị lượt theo dõi,
  • 8:00 - 8:02
    hiển thị lượt retweet,
  • 8:02 - 8:04
    hiển thị lượt "thích,"
  • 8:04 - 8:06
    và đặt câu hỏi rằng:
  • 8:06 - 8:09
    Đây có phải là con số
    mà mọi người nên đẩy lên hay không?
  • 8:09 - 8:12
    Đây có phải là việc mà,
    khi bạn mở Twitter lên
  • 8:12 - 8:14
    và thấy, "Đó là thứ
    mình cần nhiều hơn nữa?"
  • 8:14 - 8:17
    Và tôi nghĩ đó không phải
    là điều quan trọng lúc này.
  • 8:17 - 8:19
    (Vỗ tay)
  • 8:19 - 8:21
    WPR: Tôi nghĩ chúng ta nên
    xem một số tweet
  • 8:21 - 8:23
    đến từ khán giả nữa.
  • 8:24 - 8:26
    CA: Để xem mọi người đang hỏi gì nào.
  • 8:26 - 8:30
    Tôi nghĩ -- nhìn chung,
    một trong những điều kì diệu của Twitter
  • 8:30 - 8:32
    là bạn có thể thấy được trí tuệ đám đông,
  • 8:32 - 8:37
    bạn sẽ có nhiều kiến thức,
    câu hỏi, góc nhìn
  • 8:37 - 8:38
    ngoài sức tưởng tượng của bạn,
  • 8:38 - 8:42
    và đôi khi, những điều đó
    lại rất lành mạnh.
  • 8:42 - 8:45
    WPR: Tôi vừa thấy
    một câu hỏi ở dưới kia,
  • 8:45 - 8:48
    "Twitter có kế hoạch gì với ảnh hưởng
    từ quốc tế lên bầu cử Mỹ năm 2020?"
  • 8:48 - 8:51
    Tôi nghĩ đó là vấn đề
    ta thường thấy
  • 8:51 - 8:53
    trên mạng nói chung,
  • 8:53 - 8:56
    là có rất nhiều những tác vụ tự động
    đầy ác ý đang diễn ra.
  • 8:56 - 9:02
    Ví dụ như Twitter, trên thực tế,
    chúng tôi đã làm việc
  • 9:02 - 9:05
    với những đồng nghiệp
    tại Zignal Labs,
  • 9:05 - 9:07
    và có thể họ sẽ cho ta thấy
    một vài ví dụ
  • 9:07 - 9:09
    về điều tôi đang nói đến,
  • 9:09 - 9:12
    về những cái gọi là bot hay robot mạng
  • 9:13 - 9:17
    hay là những tài khoản
    tự động hóa ác ý
  • 9:17 - 9:20
    được sử dụng nhằm ảnh hưởng
    những việc như tranh cử.
  • 9:20 - 9:24
    Và trong ví dụ
    mà Zignal đã chia sẻ
  • 9:24 - 9:26
    sử dụng những thông tin
    thu thập từ Twitter,
  • 9:26 - 9:28
    ta có thể thấy trong trường hợp này,
  • 9:28 - 9:33
    mỗi chấm trắng đại diện cho
    một tài khoản người dùng,
  • 9:33 - 9:34
    Khi nó càng hồng
  • 9:34 - 9:36
    nghĩa là tài khoản đó càng tự động hơn.
  • 9:36 - 9:42
    Và anh có thể thấy một vài người
    đang tương tác với các bot.
  • 9:42 - 9:46
    Trường hợp này liên quan đến
    việc tranh cử tại Israel
  • 9:46 - 9:49
    và truyền bá thông tin sai lệch
    về Benny Gantz,
  • 9:49 - 9:52
    và như ta đã biết,
    trong trận tranh cử
  • 9:52 - 9:56
    Netanyahu đã thắng với kết quả sít sao,
  • 9:56 - 9:59
    và đó có lẽ một phần là do
    ảnh hưởng từ vấn đề này.
  • 9:59 - 10:01
    Và khi nghĩ về những gì
    đang diễn ra trên Twitter,
  • 10:01 - 10:04
    cụ thể là anh đang làm những gì
  • 10:04 - 10:07
    để ngăn chặn việc truyền bá
    thông tin sai lệch
  • 10:07 - 10:12
    và ảnh hưởng người khác đến mức
    tác động lên nền dân chủ?
  • 10:12 - 10:13
    JD: Để củng cố lí lẽ một chút,
  • 10:13 - 10:16
    chúng tôi đã tự hỏi:
  • 10:16 - 10:20
    Chúng ta có thể đo lường
    tính lành mạnh của cuộc trò chuyện không,
  • 10:20 - 10:22
    và điều đó nghĩa là gì?
  • 10:22 - 10:25
    Cũng giống như khi sức khỏe của con người
    có vấn đề gì
  • 10:25 - 10:28
    thì sẽ có những dấu hiệu biểu hiện
    ra ngoài cơ thể
  • 10:28 - 10:33
    như nhiệt độ,
    hay sắc mặt của người đó, chẳng hạn
  • 10:33 - 10:38
    thì ở đây chúng tôi tin là sẽ tìm được
    những biểu hiện của giao tiếp lành mạnh.
  • 10:38 - 10:42
    Và chúng tôi đã làm việc với
    phòng lab Cortico tại MIT
  • 10:42 - 10:49
    và đề xuất bốn biểu hiện cơ bản
  • 10:49 - 10:52
    mà chúng tôi tin rằng có thể dùng
    để đo lường trên hệ thống.
  • 10:53 - 10:59
    Biểu hiện đầu tiên
    gọi là sự chú ý tương đồng.
  • 10:59 - 11:02
    Nó dùng để đo lường
    mức độ chú ý
  • 11:02 - 11:05
    vào một chủ đề chung
    từ các tài khoản trên twitter.
  • 11:06 - 11:09
    Biểu hiện thứ hai là
    hiện thực tương đương,
  • 11:09 - 11:11
    và đây là tỉ lệ phần trăm
    những thông tin
  • 11:12 - 11:14
    mà các bên trò chuyện
    cùng chia sẻ --
  • 11:14 - 11:17
    bất kể những thông tin này
    đúng sự thật hay không,
  • 11:17 - 11:20
    khi trò chuyện, ta có đang
    chia sẻ chung một thực tại không?
  • 11:20 - 11:23
    Biểu hiện thứ ba là sự tiếp thu:
  • 11:23 - 11:27
    Cuộc trò chuyện được sẵn sàng
    đón nhận, ôn hòa,
  • 11:27 - 11:30
    hay bị ném gạch đá,
    có tính gây hại đến mức nào?
  • 11:30 - 11:33
    Và biểu hiện thứ tư
    là sự đa dạng góc nhìn.
  • 11:33 - 11:37
    Ta đang thấy những thông tin được chắt lọc
    hoặc chỉ lặp đi lặp lại,
  • 11:37 - 11:40
    hay ta đang thực sự
    đưa ra những ý kiến, quan điểm
  • 11:40 - 11:41
    trong cuộc trò chuyện?
  • 11:41 - 11:45
    Từ đó có thể ngầm hiểu rằng,
  • 11:45 - 11:49
    khi bốn biểu hiện này càng rõ,
    cuộc trò chuyện sẽ càng lành mạnh hơn.
  • 11:49 - 11:54
    Vậy nên bước đầu tiên chúng tôi
    sẽ thử đo lường chúng qua mạng,
  • 11:54 - 11:55
    chúng tôi tin sẽ làm được.
  • 11:55 - 11:58
    Chúng tôi đang có những tiến triển tốt
    trong nghiên cứu về sự tiếp thu.
  • 11:58 - 12:03
    Chúng tôi đã tính được chỉ số độc hại và
    mô hình độc hại trên hệ thống
  • 12:03 - 12:07
    cái mà có thể tính toán được
    khả năng rời khỏi của bạn từ
  • 12:07 - 12:09
    một cuộc trò chuyện trên Twitter
  • 12:09 - 12:11
    là do bạn cảm thấy nó độc hại
  • 12:11 - 12:13
    ở một mức độ cao.
  • 12:14 - 12:17
    Chúng tôi đang đo lường
    các biểu hiện còn lại,
  • 12:17 - 12:19
    và bước tiếp theo,
  • 12:19 - 12:22
    là vừa xây dựng các giải pháp,
  • 12:22 - 12:25
    vừa quan sát khuynh hướng
    của những biểu hiện này
  • 12:25 - 12:27
    và tiếp tục thử nghiệm.
  • 12:27 - 12:31
    Và mục tiêu của chúng tôi là
    đảm bảo sự cân bằng các chỉ số,
  • 12:31 - 12:35
    vì nếu một bên tăng
    thì bên khác sẽ giảm.
  • 12:35 - 12:37
    Nếu bạn tăng sự đa dạng góc nhìn,
  • 12:37 - 12:40
    có thể tính chân thực của sự thực sẽ giảm.
  • 12:40 - 12:45
    CA: Đây là một trong số
    nhiều câu hỏi được đặt ra.
  • 12:45 - 12:46
    JD: Câu hỏi đến dồn dập.
  • 12:47 - 12:51
    CA: Nhiều người đang tự hỏi
  • 12:51 - 12:55
    việc loại những người theo Quốc xã
    khỏi Twitter khó lắm sao?
  • 12:56 - 12:58
    JD: (Cười)
  • 12:58 - 13:05
    Chúng tôi có những chính sách
    đối với các nhóm cực đoan,
  • 13:05 - 13:09
    và đa số những hoạt động
    và điều khoản dịch vụ của chúng tôi
  • 13:09 - 13:13
    là về cách cư xử, không phải nội dung.
  • 13:13 - 13:15
    Nên thực chất chúng tôi
    chỉ tìm kiếm những hành vi.
  • 13:15 - 13:18
    Những hành vi sử dụng dịch vụ này
  • 13:18 - 13:22
    để liên tục hoặc thi thoảng
    quấy rối người khác,
  • 13:22 - 13:25
    dùng những hình ảnh đầy thù hằn
  • 13:25 - 13:27
    mà có thể liên quan đến tổ chức KKK
  • 13:27 - 13:30
    hay Đảng Quốc xã Mỹ.
  • 13:30 - 13:34
    Đó là những hành vi mà chúng tôi
    sẽ can thiệp ngay lập tức.
  • 13:35 - 13:40
    Hiện tại thì điểu khoản này
    vẫn còn khá lới lỏng,
  • 13:40 - 13:46
    chúng tôi không thể cho rằng
  • 13:46 - 13:48
    chỉ một lời cáo buộc người khác
  • 13:48 - 13:51
    là bằng chứng để loại họ
    khỏi nền tảng này.
  • 13:51 - 13:55
    Nên những mô hình của chúng tôi
    được dựa trên những điều kiện như sau:
  • 13:55 - 13:58
    Tài khoản này có liên đới đến
    nhóm bạo lực cực đoan nào không?
  • 13:58 - 14:00
    Nếu có, chúng tôi sẽ can thiệp.
  • 14:00 - 14:03
    Và chúng tôi đã làm vậy với KKK,
    Đảng Quốc xã Mỹ, và các tổ chức khác.
  • 14:03 - 14:08
    Và thứ hai: Tài khoản đó
    có sử dụng hình ảnh hay có hành vi
  • 14:08 - 14:10
    liên quan đến các tổ chức đó hay không?
  • 14:10 - 14:13
    CA: Hiện tại có bao nhiêu người
    thuộc nhóm quản lí nội dung
  • 14:13 - 14:15
    đang xem xét vấn đề này?
  • 14:15 - 14:16
    JD: Cũng tùy trường hợp.
  • 14:16 - 14:18
    Chúng tôi muốn linh động hơn
  • 14:18 - 14:20
    để đảm bảo rằng thứ nhất,
  • 14:20 - 14:25
    chúng tôi đang xây dựng thuật toán
    chứ không chỉ thuê nhiều người
  • 14:25 - 14:28
    vì chúng tôi cần đảm bảo
    tính đo lường được,
  • 14:28 - 14:31
    và không phải có cứ có nhiều nhân công
    là sẽ đo lường được.
  • 14:31 - 14:38
    Vì vậy chúng tôi tập trung vào
    tự động phát hiện những hành vi quấy rối
  • 14:38 - 14:40
    rồi sau đó con người sẽ xem xét lại.
  • 14:40 - 14:42
    Mục tiêu của chúng tôi là tạo ra
  • 14:42 - 14:46
    những thuật toán
    dò xét được từng tweet
  • 14:46 - 14:48
    và đưa những tweet
    đáng chú ý nhất lên đầu
  • 14:48 - 14:52
    để con người có thể xem xét
    việc can thiệp vào tình hình,
  • 14:52 - 14:54
    dựa trên những điều khoản dịch vụ.
  • 14:54 - 14:57
    WPR: Đúng là không biết
    bao nhiêu người để đo cho đủ,
  • 14:57 - 15:00
    nhưng hiện tại có bao nhiêu người
    trong đội giám sát những tài khoản đó,
  • 15:00 - 15:03
    và anh nghĩ đến mức nào thì nên can thiệp?
  • 15:03 - 15:05
    JD: Việc này sẽ linh hoạt tùy tình hình.
  • 15:05 - 15:08
    Với một số người thì chúng tôi
    chỉ cho là spam.
  • 15:08 - 15:12
    Một số người thì thât sự
    ngược đãi và quấy rối người khác.
  • 15:12 - 15:15
    Chúng tôi đảm bảo rằng
    những nhân viên sẽ linh động
  • 15:15 - 15:17
    được điều phối đến
    những ví trí cần thiết.
  • 15:17 - 15:19
    Đôi khi là những đợt bầu cử.
  • 15:19 - 15:23
    Có một loạt đợt bầu cử tại Mexico,
    một đợt sắp diễn ra tại Ấn Độ,
  • 15:23 - 15:28
    đợt bầu cử năm ngoái,
    đợt giữa nhiệm kỳ,
  • 15:28 - 15:30
    nên chúng tôi muốn tận dụng
    nguồn lực thật linh hoạt.
  • 15:30 - 15:33
    Nên khi mọi người --
  • 15:33 - 15:39
    ví dụ, nếu bạn mở trang
    điều khoản dịch vụ của chúng tôi
  • 15:39 - 15:41
    và xem xét những điều khoản,
  • 15:41 - 15:44
    và bạn đang không biết những hành vi
    như thế nào bị coi là quấy rối
  • 15:44 - 15:48
    theo những điều khoản của chúng tôi,
  • 15:48 - 15:51
    điều đầu tiên mà bạn thấy
    khi mở trang đó lên
  • 15:51 - 15:54
    là về việc bảo vệ
    quyền sở hữu trí tuệ.
  • 15:55 - 16:00
    Khi kéo xuống xem, bạn sẽ thấy
    những điều mục về quấy rối, ngược đãi
  • 16:00 - 16:02
    và những hành vi khác
    mà bạn có thể gặp phải.
  • 16:02 - 16:05
    Tôi không biết trước đây
    như thế nào, nhưng hiện tại
  • 16:05 - 16:10
    chúng tôi đưa điều khoản đó
    lên đầu tiên
  • 16:12 - 16:15
    trước cả những thông tin bạn cần tìm
    và thực hiện theo.
  • 16:15 - 16:21
    Sự sắp xếp đó cho mọi người
    thấy những gì chúng tôi tin là quan trọng.
  • 16:21 - 16:24
    Và giờ chúng tôi sẽ thay đổi chúng.
  • 16:24 - 16:25
    Chúng tôi sẽ sắp xếp lại trật tự,
  • 16:25 - 16:29
    và cũng sẽ đơn giản hóa
    những điều khoản
  • 16:29 - 16:33
    để mọi người có thể
    dễ dàng đọc hiểu được
  • 16:33 - 16:36
    việc nào là trái với điều khoản
    và việc nào không.
  • 16:36 - 16:38
    Và chúng tôi sẽ --
  • 16:38 - 16:44
    nhắc lại, mục tiêu hàng đầu của chúng tôi
    là giúp những nạn nhân trút bỏ gánh nặng.
  • 16:44 - 16:47
    Điều này đồng nghĩa với
    việc thúc đẩy công nghệ,
  • 16:47 - 16:49
    thay vì để con người làm mọi việc --
  • 16:49 - 16:52
    con người ở đây là những nạn nhân
  • 16:52 - 16:55
    cũng như những người
    phải làm công việc giám sát.
  • 16:55 - 16:56
    Chúng tôi muốn đảm bảo
  • 16:56 - 16:59
    rằng chúng tôi không chỉ khuyến khích
  • 16:59 - 17:02
    làm những công việc
    vô cùng tiêu cực,
  • 17:02 - 17:05
    và chúng tôi muốn cân bằng
    giữa công nghệ
  • 17:05 - 17:08
    và sự sáng tạo của con người
  • 17:08 - 17:11
    trong vấn đề đánh giá
    những quy tắc,
  • 17:11 - 17:14
    và không chỉ là tìm hiểu
    và làm báo cáo một cách máy móc.
  • 17:14 - 17:15
    Đó là quan điểm của chúng tôi.
  • 17:15 - 17:18
    CA: Tôi muốn biết thêm
    về những gì anh chia sẻ.
  • 17:18 - 17:21
    Tôi rất ngưỡng mộ
    việc anh đang tìm cách
  • 17:21 - 17:24
    tạo những thay đổi
    căn bản cho dao diện của hệ thống
  • 17:24 - 17:29
    để ngăn chặn những hành vi
    quá khích, và có lẽ --
  • 17:29 - 17:32
    trích lời Tristan Harris --
  • 17:32 - 17:36
    khuyến khích mọi người
    suy ngẫm nhiều hơn.
  • 17:36 - 17:38
    Vậy phải phát triển đến mức nào?
  • 17:38 - 17:42
    Liệu có thể thay thế nút "like"
    bằng những phương án nào?
  • 17:44 - 17:47
    JD: Đầu tiên,
  • 17:47 - 17:53
    mục tiêu riêng của tôi
    đối với dịch vụ này là tôi tin rằng
  • 17:53 - 17:56
    giao tiếp trong cộng đồng
    là vô cùng quan trọng.
  • 17:56 - 17:58
    Có những vấn đề cả thế giới
    đang phải đối mặt
  • 17:58 - 18:02
    cả thế giới chứ
    không phải chỉ riêng một quốc gia,
  • 18:02 - 18:05
    mà việc trao đổi trong cộng đồng
    có thể giúp ích được.
  • 18:05 - 18:08
    Và đó là một trong những
    nét độc đáo của Twitter,
  • 18:08 - 18:09
    nó hoàn toàn rộng mở,
  • 18:09 - 18:11
    hoàn toàn công khai,
  • 18:11 - 18:12
    hoàn toàn mượt mà,
  • 18:12 - 18:16
    và mọi người đều có thể thấy
    và tham gia vào các cuộc trò chuyện.
  • 18:16 - 18:19
    Ví dụ như biến đổi khí hậu
    là chủ đề của rất nhiều cuộc trò chuyện.
  • 18:19 - 18:21
    Một số khác về sự thay thế
  • 18:21 - 18:23
    bởi trí tuệ nhân tạo trong công việc.
  • 18:23 - 18:26
    Một số về bất bình đẳng kinh tế.
  • 18:26 - 18:29
    Một quốc gia có làm thế nào đi nữa,
  • 18:29 - 18:32
    cũng không thể tự mình
    giải quyết những vấn đề này.
  • 18:32 - 18:34
    Chúng đòi hỏi sự hợp tác toàn cầu,
  • 18:34 - 18:37
    và tôi nghĩ đây là điều
    mà Twitter có thể giúp.
  • 18:37 - 18:43
    Thứ hai, hiện nay, khi bạn lên Twitter,
  • 18:43 - 18:47
    bạn không nhất thiết phải cảm thấy
    mình đã học được điều gì đó.
  • 18:47 - 18:48
    Một số người thì thấy vậy.
  • 18:48 - 18:51
    Một số người có mạng lưới
    các mối quan hệ rộng lớn,
  • 18:51 - 18:54
    nằm trong một cộng đồng
    mà họ có thể học hỏi mỗi ngày.
  • 18:54 - 18:58
    Nhưng phải tốn nhiều thời gian và
    công sức để xây dựng mạng lưới đó.
  • 18:58 - 19:02
    Nên chúng tôi muốn kết nối
    mọi người với những mối quan tâm trên
  • 19:02 - 19:03
    thật nhanh chóng
  • 19:03 - 19:06
    và đảm bảo rằng
    họ biết được điều gì đang diễn ra,
  • 19:07 - 19:09
    dù họ bỏ ra bao nhiêu
    thời gian trên Twitter --
  • 19:09 - 19:11
    tôi không muốn tối đa hóa
    thời gian dùng Twitter,
  • 19:11 - 19:14
    tôi muốn tối đa hóa những gì
    mọi người tiếp nhận được
  • 19:14 - 19:16
    mỗi khi sử dụng nó, và --
  • 19:18 - 19:19
    CA: Anh mong muốn vậy sao?
  • 19:19 - 19:22
    Vì đây là câu hỏi cốt lõi
    mà nhiều người muốn biết câu trả lời.
  • 19:22 - 19:26
    Hẳn là phần nào anh cũng
    bị ràng buộc
  • 19:26 - 19:28
    vì đây là một công ty đại chúng,
  • 19:28 - 19:30
    các nhà đầu tư đang theo dõi anh,
  • 19:30 - 19:33
    quảng cáo là nguồn thu nhập
    hàng đầu của các anh --
  • 19:33 - 19:36
    và nó dựa trên
    sự tương tác với người dùng.
  • 19:36 - 19:41
    Anh sẵn lòng hy sinh
    thời gian sử dụng Twitter,
  • 19:41 - 19:45
    để tạo dựng những cuộc trò chuyện
    đa chiều hơn sao?
  • 19:45 - 19:48
    JD: Vâng, nếu tập trung vào chủ đề
    thì sẽ tốn ít thời gian hơn,
  • 19:48 - 19:50
    và điều đó hoàn toàn ổn,
  • 19:50 - 19:53
    vì chúng tôi muốn đảm bảo rằng
    mỗi khi bạn lên Twitter,
  • 19:53 - 19:57
    bạn sẽ thấy ngay thông tin cần thiết
    đối với bạn.
  • 19:57 - 20:00
    Chúng tôi vẫn có thể
    cho chạy quảng cáo.
  • 20:00 - 20:04
    Điều này không có nghĩa là bạn
    phải bỏ thêm nhiều thời gian vào việc đó.
  • 20:04 - 20:06
    Điều thứ hai chúng tôi đang xem xét --
  • 20:06 - 20:08
    CA: Nhưng -- về mục tiêu
    thời gian hoạt động hằng ngày,
  • 20:08 - 20:11
    tuy anh có thể đo lường
    nhưng cái đó không có nghĩa là những thứ
  • 20:11 - 20:13
    mà mọi người cũng quan tâm.
  • 20:13 - 20:14
    Đó có thể là
  • 20:14 - 20:18
    những điều thu hút người ta
    như thiêu thân lao vào lửa, mỗi ngày.
  • 20:18 - 20:21
    Chúng ta trở nên nghiện bởi vì
    có những thứ khiến ta bức xúc,
  • 20:21 - 20:24
    thế là ta lại đi đổ dầu vào lửa,
  • 20:24 - 20:26
    dĩ nhiên thời gian hoạt động hàng ngày,
  • 20:26 - 20:28
    và doanh thu từ quảng cáo cũng tăng,
  • 20:28 - 20:30
    nhưng mọi người lại càng căm ghét nhau.
  • 20:30 - 20:33
    Anh quan niệm thế nào...
  • 20:33 - 20:37
    "Thời gian sử dụng hằng ngày" có lẽ
    là một khía cạnh khó tối ưu hóa được.
  • 20:37 - 20:42
    (Vỗ tay)
  • 20:42 - 20:43
    JD: Đúng, nếu xét riêng,
  • 20:44 - 20:46
    nhưng hãy để tôi nói tiếp
    về tiêu chuẩn còn lại,
  • 20:46 - 20:50
    đó là những cuộc trò chuyện
  • 20:50 - 20:52
    và chuỗi trò chuyện.
  • 20:52 - 20:57
    Chúng tôi muốn thúc đẩy
    đóng góp lành mạnh cho hệ thống,
  • 20:57 - 21:01
    và chúng tôi cho rằng đó là nhờ
    việc tham gia trò chuyện
  • 21:01 - 21:02
    thực sự lành mạnh,
  • 21:02 - 21:07
    dựa trên bốn biểu hiện
    tôi đã đưa ra ở trên.
  • 21:07 - 21:10
    Nên không thể tối ưu hóa
    chỉ dựa trên một tiêu chí.
  • 21:10 - 21:13
    Chúng ta phải cân đo đong đếm và nhìn nhận
  • 21:13 - 21:17
    những gì thực sự sẽ
    đóng góp lành mạnh cho hệ thống
  • 21:17 - 21:19
    và trải nghiệm lành mạnh cho mọi người.
  • 21:19 - 21:21
    Sau cùng, chúng tôi muốn đạt tiêu chí
  • 21:21 - 21:25
    mà mọi người có thể nói,
    "Này, tôi học được điều này trên Twitter,
  • 21:25 - 21:27
    và nó vô cùng bổ ích."
  • 21:27 - 21:29
    Đó là mục tiêu cuối cùng của chúng tôi,
  • 21:29 - 21:31
    và sẽ tốn kha khá thời gian.
  • 21:31 - 21:36
    CA: Tôi nghĩ đối với nhiều người,
    anh là một bí ẩn.
  • 21:36 - 21:41
    Điều đó khá bất công,
    nhưng một đêm nọ
  • 21:41 - 21:45
    tôi hình dung về anh
    và về vấn đề này
  • 21:45 - 21:52
    giống như chúng ta đang vươn ra biển lớn
    trên con thuyền tên "Twittanic" này --
  • 21:52 - 21:53
    (Cười)
  • 21:53 - 21:57
    và có vài thuyền viên
  • 21:57 - 22:00
    đang tỏ ra bất mãn,
  • 22:00 - 22:02
    và anh, không như
    nhiều thuyền trưởng khác,
  • 22:02 - 22:06
    dõng dạc, "Có vấn đề gì, hãy nói với tôi,
    tôi muốn nghe các bạn."
  • 22:06 - 22:09
    Và họ nói với anh rằng,
    "Chúng tôi sợ tảng băng trôi đằng trước."
  • 22:09 - 22:11
    Và anh nói,
    "Bạn nói cũng phải,
  • 22:11 - 22:14
    và thật sự, thuyền của chúng ta
    cũng chưa đủ chắc
  • 22:14 - 22:16
    để lái một cách tốt nhất."
  • 22:16 - 22:17
    Rồi chúng tôi nói,
    "Hãy làm gì đi."
  • 22:17 - 22:19
    Và anh lên đài chỉ huy,
  • 22:19 - 22:21
    chúng tôi thì đang chờ đợi,
  • 22:21 - 22:26
    chúng tôi nhìn anh
    đứng bình thản một cách lạ thường,
  • 22:26 - 22:30
    nhưng chúng tôi đều ra ngoài
    và nói, "Jack, bẻ lái lẹ đi!"
  • 22:30 - 22:31
    Bạn biết đấy?
  • 22:31 - 22:32
    (Cười)
  • 22:32 - 22:34
    (Vỗ tay)
  • 22:34 - 22:36
    Ý tôi là --
  • 22:36 - 22:37
    (Vỗ tay)
  • 22:37 - 22:42
    Nền dân chủ đang bị đe dọa.
  • 22:42 - 22:45
    Nền văn hóa và thế giới
    của chúng ta đang bị đe dọa.
  • 22:45 - 22:50
    Và Twitter thật tuyệt vời
    và tác động lên nhiều thứ.
  • 22:50 - 22:52
    Nó không lớn
    như một số nền tảng khác.
  • 22:52 - 22:55
    nhưng những người có tầm
    sử dụng nó để mở đầu xu hướng,
  • 22:55 - 23:01
    và thật khó hình dung
    vai trò nào quan trọng hơn là...
  • 23:02 - 23:05
    Ý tôi là, Jack, anh đang
    lắng nghe ý kiến của mọi người
  • 23:05 - 23:10
    nhưng để thực sự khẩn trương lên
    và giải quyết vấn đề này --
  • 23:10 - 23:12
    anh sẽ làm vậy chứ?
  • 23:13 - 23:17
    JD: Vâng, và chúng tôi đang
    triển khai đáng kể.
  • 23:17 - 23:20
    Đã có một số thay đổi
    trong lịch sử Twitter.
  • 23:20 - 23:22
    Một, là khi tôi quay về công ty,
  • 23:23 - 23:30
    chúng tôi đang trong tình trạng
    tương lai vô định,
  • 23:30 - 23:34
    và không chỉ vì cách
    mọi người dùng nền tảng này,
  • 23:34 - 23:36
    mà còn là trên phương diện kinh doanh.
  • 23:36 - 23:40
    Nên chúng tôi đã phải chỉnh sửa
    từng bước cơ bản,
  • 23:40 - 23:42
    gây dựng lại công ty,
  • 23:42 - 23:45
    trải qua hai đợt sa thải nhân viên,
  • 23:45 - 23:49
    vì chúng tôi có quá nhiều nhân viên
    trong khi thực tế không cần nhiều đến vậy,
  • 23:49 - 23:51
    và chúng tôi tập trung hết sức
  • 23:51 - 23:54
    cho khái niệm phục vụ
    giao tiếp cộng đồng.
  • 23:54 - 23:56
    Và nó tốn khá nhiều công sức.
  • 23:56 - 23:58
    Và khi chúng tôi càng tìm hiểu,
  • 23:58 - 24:01
    chúng tôi nhận thấy
    một số vấn đề căn bản.
  • 24:02 - 24:07
    Chúng tôi đã có thể giải quyết
    hời hợt những vấn đề anh đặt ra,
  • 24:07 - 24:09
    nhưng chúng tôi phải dứt khoát thay đổi
  • 24:09 - 24:11
    và nó đồng nghĩa với phải đào thật sâu
  • 24:11 - 24:15
    và xem xét lại những gì
    chúng tôi bắt đầu 13 năm trước
  • 24:15 - 24:18
    và thắc mắc rằng
  • 24:18 - 24:20
    hệ thống này, cơ chế này
    vận hành như thế nào
  • 24:20 - 24:24
    và điều gì là cần thiết
    trong bối cảnh hiện nay,
  • 24:24 - 24:28
    khi mọi thứ thay đổi không ngừng và
    và cách mọi người sử dụng công cụ này.
  • 24:28 - 24:35
    Chúng tôi đang khẩn trương nhất có thể,
    nhưng không phải cứ nhanh là xong việc.
  • 24:35 - 24:37
    Mà là sự tập trung, sự ưu tiên công việc,
  • 24:37 - 24:40
    sự am hiểu nền tảng của hệ thống
  • 24:40 - 24:43
    và xây dựng một khung đo lường
  • 24:43 - 24:46
    để chống lại sự thay đổi,
  • 24:46 - 24:51
    và phải minh bạch
    về những hoạt động của chúng tôi
  • 24:51 - 24:53
    để tiếp tục được lòng tin từ mọi người.
  • 24:54 - 24:57
    Nên tôi rất tự hào về những cơ chế
    đang vận hành hiện nay.
  • 24:57 - 25:00
    Tôi tự hào về đường lối của chúng tôi.
  • 25:01 - 25:04
    Hẳn là chúng tôi có thể làm nhanh hơn,
  • 25:04 - 25:08
    nhưng chỉ cần dừng những thứ ngớ ngẩn
    mà chúng tôi làm trước đây.
  • 25:09 - 25:10
    CA: Vâng.
  • 25:10 - 25:14
    Tôi nghĩ rằng nếu có cơ hội,
    rất nhiều người tại khán đài đây
  • 25:14 - 25:18
    cũng muốn được cùng anh
    tạo nên những thay đổi,
  • 25:18 - 25:20
    và, tôi không biết nữa --
  • 25:20 - 25:23
    Jack, rất cảm ơn đã đến
    tâm sự cùng chúng tôi.
  • 25:23 - 25:24
    Thật can đảm.
  • 25:24 - 25:28
    Tôi rất trân trọng những chia sẻ của anh,
    và chúc anh may mắn.
  • 25:28 - 25:30
    JD: Cảm ơn vì đã mời tôi.
  • 25:30 - 25:33
    (Vỗ tay)
  • 25:33 - 25:34
    Cảm ơn.
Title:
Twitter cần phải thay đổi như thế nào
Speaker:
Jack Dorsey
Description:

Chúng ta có thể cứu vãn Twitter không? Trong cuộc trò chuyện cùng Chris Anderson và Whitney Penningn Rogers đến từ TED, Giám đốc điều hành của Twitter, ông Jack Dorsey bàn luận về tương lai của nền tảng này -- thừa nhận những vấn đề về quấy rối, vấn đề kiểm duyệt và đề xuất một vài thay đổi căn bản để hướng đến sự giao tiếp lành mạnh, nhân văn trong cộng đồng. Và trong cuộc trò chuyện này, ông Dorsey cũng đặt ra câu hỏi "Chúng ta có đang truyền tải những điều đáng giá cho mọi người hay không?".

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47

Vietnamese subtitles

Revisions