Return to Video

Comment Twitter doit changer

  • 0:01 - 0:04
    Chris Anderson :
    Qu’est-ce qui vous inquiète ?
  • 0:04 - 0:07
    Vous avez été très ouvert
    sur beaucoup de problèmes sur Twitter.
  • 0:07 - 0:09
    Quelle serait votre principale inquiétude
  • 0:09 - 0:11
    quant à l’état actuel des choses ?
  • 0:11 - 0:14
    Jack Dorsey : Actuellement,
    la santé de la conversation.
  • 0:14 - 0:18
    Notre objectif est de servir
    le débat public
  • 0:18 - 0:23
    et nous y avons vu
    un certain nombre d’attaques.
  • 0:23 - 0:26
    Nous avons vu des abus, du harcèlement,
  • 0:26 - 0:29
    de la manipulation,
  • 0:29 - 0:32
    de l’automatisation,
    de la coordination humaine,
  • 0:32 - 0:34
    de la désinformation.
  • 0:34 - 0:38
    Ce sont des dynamiques
    auxquelles nous ne nous attendions pas
  • 0:38 - 0:42
    il y a 13 ans, quand nous étions
    en train de lancer l’entreprise.
  • 0:42 - 0:45
    Mais nous les voyons maintenant
    à grande échelle
  • 0:45 - 0:50
    et ce qui m’inquiète le plus
    est notre capacité à résoudre cela
  • 0:50 - 0:53
    de façon systémique
    et adaptée à l’échelle,
  • 0:53 - 1:00
    avec une compréhension rigoureuse
    de comment nous agissons,
  • 1:00 - 1:03
    une vision transparente
    de comment nous agissons
  • 1:03 - 1:06
    et une procédure d’appel rigoureuse
    pour les fois où nous avons tort,
  • 1:06 - 1:08
    car nous aurons tort.
  • 1:09 - 1:11
    Whitney Pennington Rodgers :
    Je suis ravie d’entendre
  • 1:11 - 1:13
    que cela vous inquiète
  • 1:13 - 1:15
    car il y a beaucoup d’articles
    sur des personnes
  • 1:15 - 1:18
    qui se sont senties maltraitées,
    harcelées sur Twitter
  • 1:18 - 1:22
    et je crois que personne ne l’a plus été
    que les femmes, les femmes de couleur
  • 1:22 - 1:23
    et les femmes noires.
  • 1:23 - 1:25
    Des données ont été publiées --
  • 1:25 - 1:28
    Amnesty International a publié
    un rapport il y a quelques mois
  • 1:28 - 1:33
    où ils ont montré que pour un sous-groupe
    de femmes noires utilisant Twitter,
  • 1:33 - 1:36
    en moyenne un tweet sur 10 reçus
  • 1:36 - 1:38
    présentait une forme de harcèlement.
  • 1:38 - 1:42
    Quand vous pensez à la santé
    de la communauté sur Twitter,
  • 1:42 - 1:46
    cela m’intéresse d’entendre
    « de la santé pour tout le monde »,
  • 1:46 - 1:50
    mais en particulier : comment allez-vous
    faire de Twitter un espace sûr
  • 1:50 - 1:51
    pour ce sous-groupe, pour les femmes,
  • 1:51 - 1:54
    pour les femmes de couleur
    et les femmes noires ?
  • 1:54 - 1:55
    JD : Ouais.
  • 1:55 - 1:57
    C’est une situation effroyable
  • 1:57 - 1:59
    quand vous venez sur un service
  • 1:59 - 2:03
    où, idéalement, vous voulez apprendre
    quelque chose sur le monde
  • 2:03 - 2:09
    et vous passez la majorité de votre temps
    à signaler des abus, à être agressée,
  • 2:09 - 2:11
    à être harcelée.
  • 2:11 - 2:18
    Nous reconsidérons
    en profondeur les incitations
  • 2:18 - 2:22
    que la plateforme offre naturellement
    et le service qu’elle fournit.
  • 2:22 - 2:27
    Actuellement, la dynamique du système
    rend cela très facile de harceler
  • 2:27 - 2:31
    et d’agresser les autres via le service
  • 2:31 - 2:34
    et malheureusement, auparavant,
    la majorité de notre système
  • 2:34 - 2:39
    était entièrement basé sur le signalement
    du harcèlement et des agressions.
  • 2:39 - 2:45
    Vers le milieu de l’année dernière,
    nous avons décidé d’appliquer
  • 2:45 - 2:49
    beaucoup plus d’apprentissage automatique,
    d’apprentissage profond au problème
  • 2:49 - 2:53
    et d’essayer d’être plus proactifs
    là où il y a des agressions
  • 2:53 - 2:57
    afin de pouvoir soulager complètement
    les victimes de ce fardeau.
  • 2:57 - 3:00
    Récemment, nous avons réalisé des progrès.
  • 3:00 - 3:06
    Environ 38 % des tweets abusifs
    sont identifiés de façon proactive
  • 3:06 - 3:08
    par des algorithmes
    d’apprentissage automatique
  • 3:08 - 3:10
    afin que les gens
    n’aient pas à les signaler.
  • 3:10 - 3:14
    Ceux qui sont identifiés
    sont passés en revue par des êtres humains
  • 3:14 - 3:17
    afin de ne pas supprimer
    du contenu ou des comptes
  • 3:17 - 3:19
    sans que quelqu’un ne les contrôle.
  • 3:19 - 3:22
    C’était à zéro pourcent il y a un an.
  • 3:22 - 3:24
    À ce zéro pourcent,
  • 3:24 - 3:28
    toute personne étant agressée
    devant le signaler,
  • 3:28 - 3:31
    ce qui représentait beaucoup de travail
    pour elle, pour nous
  • 3:31 - 3:33
    et était fondamentalement injuste.
  • 3:34 - 3:36
    Une autre chose que nous faisons,
  • 3:36 - 3:38
    c’est de nous s’assurer
    qu’en tant qu’entreprise,
  • 3:38 - 3:40
    nous avons une représentation
  • 3:40 - 3:42
    de toutes les communautés
    que nous servons.
  • 3:42 - 3:44
    Nous ne pouvons pas bâtir
    une entreprise fructueuse
  • 3:44 - 3:47
    sans avoir de diversité de points de vue
    au sein de nos murs
  • 3:47 - 3:51
    qui ressentent ces problèmes au quotidien.
  • 3:51 - 3:55
    Ce n’est pas valable qu’avec l’équipe
    qui accomplit le travail
  • 3:55 - 3:57
    mais aussi avec notre direction.
  • 3:57 - 4:00
    Nous devons continuer
    à développer de l’empathie
  • 4:00 - 4:03
    pour ce que les gens vivent,
  • 4:03 - 4:06
    leur offrir de meilleurs outils
    pour agir en fonction de leur vécu
  • 4:06 - 4:10
    et offrir à nos clients une approche
    meilleure et plus simple
  • 4:10 - 4:13
    pour gérer le genre de choses
    que nous voyons.
  • 4:13 - 4:16
    Une grande partie de notre travail
    a trait à la technologie
  • 4:16 - 4:20
    mais nous considérons également
    les incitations du service :
  • 4:20 - 4:25
    qu’est-ce que Twitter vous encourage-t-il
    à faire quand vous l’ouvrez ?
  • 4:25 - 4:27
    Auparavant,
  • 4:29 - 4:34
    il encourageait fortement l’indignation,
    le comportement de foule,
  • 4:34 - 4:37
    le harcèlement collectif.
  • 4:37 - 4:40
    Nous devons considérer plus en profondeur
    certains des principes fondamentaux
  • 4:40 - 4:44
    de ce que le service fait
    pour affecter de plus grands changements.
  • 4:44 - 4:47
    Nous pouvons faire de petits changements
    concernant la technologie
  • 4:47 - 4:50
    mais fondamentalement,
    nous devons considérer en profondeur
  • 4:50 - 4:52
    les dynamiques dans le réseau même
  • 4:52 - 4:53
    et c’est ce que nous faisons.
  • 4:53 - 4:55
    CA : Quelle est votre impression --
  • 4:55 - 4:59
    quel genre de choses
    que vous pourriez changer
  • 4:59 - 5:02
    modifieraient fondamentalement
    les comportements ?
  • 5:03 - 5:05
    JD : Une des choses --
  • 5:05 - 5:10
    nous avons démarré le service
    avec ce concept de suivre un compte,
  • 5:10 - 5:12
    en tant qu’exemple,
  • 5:12 - 5:13
    et je ne crois pas
  • 5:13 - 5:16
    que ce soit la raison pour laquelle
    les gens viennent sur Twitter.
  • 5:16 - 5:21
    Je crois que Twitter est surtout
    un réseau basé sur les centres d’intérêt.
  • 5:21 - 5:25
    Les gens y viennent
    avec un centre d’intérêt particulier.
  • 5:25 - 5:26
    Il leur faut beaucoup de travail
  • 5:26 - 5:30
    pour trouver et suivre les comptes
    associés à ces centres d’intérêt.
  • 5:30 - 5:34
    Nous pourrions plutôt vous permettre
    de suivre un centre d’intérêt,
  • 5:34 - 5:36
    suivre un hashtag, suivre une tendance,
  • 5:36 - 5:38
    suivre une communauté,
  • 5:38 - 5:42
    ce qui nous offre l’opportunité
    de montrer tous les comptes,
  • 5:42 - 5:46
    tous les sujets, tous les moments,
    tous les hashtags
  • 5:46 - 5:50
    qui sont associés à ce sujet
    et centre d’intérêt en particulier,
  • 5:50 - 5:54
    ce qui ouvre les perspectives
    que vous voyez.
  • 5:54 - 5:56
    Mais c’est un changement fondamental
  • 5:56 - 6:00
    faisant passer tous le réseau
    d’une subjectivité liée à un compte
  • 6:00 - 6:03
    à une subjectivité liée
    à un sujet et centre d’intérêt.
  • 6:03 - 6:06
    CA : N’est-il pas vrai
  • 6:07 - 6:11
    qu’une des raisons pour lesquelles
    vous avez là tant de contenu
  • 6:11 - 6:15
    résulte du fait d’avoir mis des millions
    de personnes à travers le monde
  • 6:15 - 6:18
    en compétition les uns contre les autres
    tels des gladiateurs
  • 6:18 - 6:20
    pour des abonnés, pour de l’attention ?
  • 6:20 - 6:24
    Du point de vue des gens
    qui ne font que lire Twitter,
  • 6:24 - 6:25
    ce n’est pas un problème,
  • 6:25 - 6:29
    mais pour les gens qui créent,
    tout le monde dit :
  • 6:29 - 6:32
    « J’aimerais avoir quelques “j’aime”,
    abonnés, retweets de plus. »
  • 6:32 - 6:34
    Ils font constamment des expérimentations,
  • 6:34 - 6:36
    essayent de trouver comment faire cela.
  • 6:36 - 6:40
    Nous avons tous découvert
    qu’un moyen pour y arriver,
  • 6:40 - 6:44
    c’est d’être provocateur,
  • 6:44 - 6:47
    odieux, odieux de façon éloquente,
  • 6:47 - 6:50
    les insultes éloquentes
    sont un rêve sur Twitter,
  • 6:50 - 6:53
    vous êtes vite suivi --
  • 6:53 - 6:57
    cela devient un processus
    d’outrage s’autoalimentant.
  • 6:57 - 7:00
    Comment arrêter cela ?
  • 7:01 - 7:04
    JD : Je pense que vous
    touchez au cœur du problème,
  • 7:04 - 7:05
    mais cela en revient aux incitations.
  • 7:06 - 7:08
    Un des choix que nous avons faits
    au tout début a été
  • 7:08 - 7:13
    que nous avions ce nombre montrant
    combien vous avez d’abonnés.
  • 7:13 - 7:16
    Nous avons décidé que ce nombre
    devrait être en grand et en gras,
  • 7:16 - 7:20
    que toute chose sur la page étant
    en grand et en gras avait de l’importance
  • 7:20 - 7:22
    et était ce que vous deviez
    aspirer à stimuler.
  • 7:22 - 7:24
    Était-ce la bonne décision à l’époque ?
  • 7:24 - 7:25
    Probablement pas.
  • 7:25 - 7:27
    Si je devais relancer le service,
  • 7:27 - 7:29
    je ne valoriserais pas autant
    le nombre d’abonnés.
  • 7:29 - 7:32
    Je ne valoriserais pas autant
    le nombre de « j’aime ».
  • 7:32 - 7:35
    Je ne pense pas que je créerais
    de « j’aime » du tout
  • 7:35 - 7:38
    car cela n’est pas un moteur
  • 7:38 - 7:41
    de ce que nous croyons aujourd’hui
    être la chose la plus importante :
  • 7:41 - 7:44
    les contributions saines au réseau
  • 7:44 - 7:47
    et la conversation avec le réseau,
  • 7:47 - 7:49
    la participation à la conversation,
  • 7:49 - 7:52
    l’apprentissage de quelque chose
    via cette conversation.
  • 7:52 - 7:54
    Nous n’avons pas pensé
    à ces choses-là il y a 13 ans
  • 7:54 - 7:57
    et nous les croyons
    extrêmement importantes aujourd’hui.
  • 7:57 - 8:00
    Nous devons considérer
    la façon d’afficher le nombre d’abonnés,
  • 8:00 - 8:02
    la façon d’afficher le nombre de retweets,
  • 8:02 - 8:04
    le nombre de « j’aime »
  • 8:04 - 8:06
    et poser la question profonde :
  • 8:06 - 8:09
    est-ce vraiment le nombre
    que les gens veulent faire augmenter ?
  • 8:09 - 8:12
    Est-ce la chose que,
    quand vous ouvrez Twitter,
  • 8:12 - 8:14
    c’est cela que vous devez augmenter.
  • 8:14 - 8:16
    Je ne crois pas que ce soit le cas.
  • 8:16 - 8:19
    (Applaudissements)
  • 8:19 - 8:23
    WPR : Nous devrions regarder
    certains des tweets venant du public.
  • 8:24 - 8:26
    CA : Voyons voir ce que vous demandez.
  • 8:26 - 8:30
    C’est -- en général, une des choses
    géniales concernant Twitter,
  • 8:30 - 8:32
    c’est son utilisation
    pour la sagesse de foule :
  • 8:32 - 8:37
    plus de savoir, plus de questions,
    plus de points de vue
  • 8:37 - 8:38
    que vous ne pouvez l’imaginer
  • 8:38 - 8:42
    et parfois, la plupart
    sont vraiment sains.
  • 8:42 - 8:45
    WPR : Je crois en avoir vu un
    passer rapidement disant :
  • 8:45 - 8:46
    « Comment Twitter compte-t-il lutter
  • 8:46 - 8:48
    contre les ingérences étrangères ? »
  • 8:48 - 8:53
    Je crois que c’est un problème
    observé sur Internet en général :
  • 8:53 - 8:56
    il y a beaucoup d’activité
    automatisée et malicieuse.
  • 8:56 - 9:02
    Sur Twitter, par exemple,
    nous avons un travail
  • 9:02 - 9:05
    venant de nos amis à Zignal Labs
  • 9:05 - 9:07
    et nous pouvons peut-être le voir
    et prendre un exemple
  • 9:07 - 9:09
    de ce dont je parle :
  • 9:09 - 9:12
    vous avez ces robots, si vous voulez,
  • 9:13 - 9:17
    ou une activité de compte coordonnée,
    automatisée et malicieuse
  • 9:17 - 9:20
    utilisée pour influencer
    des choses comme les élections.
  • 9:20 - 9:24
    Dans cet exemple
    que Zignal a partagé avec nous
  • 9:24 - 9:26
    et utilisant les données
    qu’ils ont sur Twitter,
  • 9:26 - 9:28
    vous voyez que dans ce cas
  • 9:28 - 9:30
    le blanc représente des êtres humains --
  • 9:30 - 9:33
    des comptes humains,
    chaque point est un compte.
  • 9:33 - 9:34
    Plus il est rose,
  • 9:34 - 9:36
    plus l’activité est automatisée.
  • 9:36 - 9:42
    Il y a quelques êtres humains
    interagissant avec des robots.
  • 9:42 - 9:46
    Dans ce cas, il s’agit
    des élections en Israël
  • 9:46 - 9:49
    et de la diffusion de désinformation
    au sujet de Benny Gantz
  • 9:49 - 9:52
    et, finalement, c’est une élection
  • 9:52 - 9:56
    que Netanyahu a gagnée de justesse
  • 9:56 - 9:59
    et elle a pu être influencée par cela.
  • 9:59 - 10:01
    Quand vous pensez
    à ce qu’il se passe sur Twitter,
  • 10:01 - 10:04
    quelles choses en particulier faites-vous
  • 10:04 - 10:07
    pour vous assurer de ne pas avoir
    une telle diffusion de la désinformation
  • 10:07 - 10:12
    influençant les gens de façons
    pouvant avoir un effet sur la démocratie ?
  • 10:12 - 10:13
    JD : Pour revenir un peu en arrière,
  • 10:13 - 10:16
    nous nous sommes posé une question :
  • 10:16 - 10:20
    pouvons-nous mesurer
    la santé d’une conversation
  • 10:20 - 10:22
    et qu’est-ce que cela signifie ?
  • 10:22 - 10:25
    Comme vous avez des indicateurs
  • 10:25 - 10:28
    et nous avons des indicateurs
    pour savoir si nous sommes en bonne santé
  • 10:28 - 10:33
    tels que la température,
    la rougeur de votre visage,
  • 10:33 - 10:35
    nous croyions pouvoir trouver
  • 10:35 - 10:38
    les indicateurs de la santé
    de la conversation.
  • 10:38 - 10:42
    Nous avons travaillé
    avec un labo du MIT appelé Cortico
  • 10:42 - 10:49
    pour proposer quatre indicateurs initiaux
  • 10:49 - 10:52
    que nous croyons pouvoir
    utiliser pour mesurer le système.
  • 10:53 - 10:59
    Le premier est ce que nous appelons
    « attention partagée ».
  • 10:59 - 11:02
    C’est une mesure indiquant
    si la conversation est attentive
  • 11:02 - 11:05
    plutôt que disparate sur un sujet.
  • 11:06 - 11:09
    Le deuxième s’appelle
    « réalité partagée » :
  • 11:09 - 11:11
    quel pourcentage de la conversation
  • 11:12 - 11:14
    partage les mêmes faits --
  • 11:14 - 11:17
    non pas est-ce que ces faits
    sont vrais ou faux,
  • 11:17 - 11:20
    mais partageons-nous les mêmes faits
    durant notre conversation ?
  • 11:20 - 11:23
    Le troisième est la réceptivité :
  • 11:23 - 11:27
    quelle part de la conversation
    est réceptive ou civile
  • 11:27 - 11:30
    ou au contraire, toxique ?
  • 11:30 - 11:33
    Le quatrième est la diversité
    des points de vue.
  • 11:33 - 11:37
    Observons-nous des bulles de filtres
    ou des chambres d’écho
  • 11:37 - 11:40
    ou avons-nous une diversité d’opinions
  • 11:40 - 11:41
    dans la conversation ?
  • 11:41 - 11:45
    Implicitement avec ces quatre indicateurs,
    nous nous entendons pour dire
  • 11:45 - 11:49
    que lorsqu’ils augmentent, la conversation
    devient de plus en plus saine.
  • 11:49 - 11:54
    Notre première étape est de voir
    si nous pouvons les mesurer en ligne,
  • 11:54 - 11:55
    ce que nous croyons possible.
  • 11:55 - 11:58
    Nous avons le plus de dynamisme
    concernant la réceptivité.
  • 11:58 - 12:03
    Nous avons un score de toxicité,
    un modèle de toxicité, dans notre système
  • 12:03 - 12:07
    qui peut mesurer si vous allez
    probablement vous retirer
  • 12:07 - 12:09
    d’une conversation
    que vous avez sur Twitter
  • 12:09 - 12:11
    car vous la trouvez toxique,
  • 12:11 - 12:13
    dont l’exactitude est plutôt élevée.
  • 12:14 - 12:17
    Nous travaillons à mesurer le reste
  • 12:17 - 12:19
    et la prochaine étape est,
  • 12:19 - 12:22
    alors que nous élaborons des solutions,
  • 12:22 - 12:25
    d’observer la tendance
    de ces mesures au fil du temps
  • 12:25 - 12:27
    et de continuer à expérimenter.
  • 12:27 - 12:31
    Notre objectif est de nous assurer
    qu’ils soient équilibrés
  • 12:31 - 12:35
    car si vous en augmentez un,
    vous pourriez en abaisser un autre.
  • 12:35 - 12:37
    Si vous améliorez
    la diversité des points de vue,
  • 12:37 - 12:40
    vous pourriez faire baisser
    la réalité partagée.
  • 12:40 - 12:45
    CA : Je recueille certaines des questions
    qui nous inondent là-haut.
  • 12:45 - 12:46
    JD : Plein de questions.
  • 12:47 - 12:51
    CA : Beaucoup de gens
    sont perplexes quant à pourquoi,
  • 12:51 - 12:55
    à quel point est-il difficile
    de se débarrasser des nazis sur Twitter ?
  • 12:56 - 12:58
    JD : (Rit)
  • 12:58 - 13:05
    Nous avons des politiques concernant
    les groupes extrémistes violents
  • 13:05 - 13:09
    et la majorité de notre travail
    et nos conditions d’utilisation
  • 13:09 - 13:13
    sont basées sur le comportement,
    pas le contenu.
  • 13:13 - 13:15
    Nous considérons le comportement.
  • 13:15 - 13:18
    Le comportement,
    c’est l’utilisation du service
  • 13:18 - 13:22
    pour harceler quelqu’un
    de façon répétée ou épisodique,
  • 13:22 - 13:25
    utiliser des images haineuses
  • 13:25 - 13:27
    pouvant être associées
    avec le Ku Klux Klan
  • 13:27 - 13:30
    ou le parti nazi américain.
  • 13:30 - 13:34
    Ce sont des choses pour lesquelles
    nous prenons des mesures immédiates.
  • 13:35 - 13:37
    Nous sommes actuellement
    dans une situation
  • 13:37 - 13:40
    où ce terme est employé à tout vent
  • 13:40 - 13:46
    et nous ne pouvons pas prendre
    une allusion à ce mot
  • 13:46 - 13:48
    en accusant quelqu’un d’autre
  • 13:48 - 13:52
    comme une indication factuelle
    qu’il devrait être banni de la plateforme.
  • 13:52 - 13:54
    Beaucoup de nos modèles
    sont basés, numéro un :
  • 13:54 - 13:58
    ce compte est-il associé
    à un groupe extrémiste violent ?
  • 13:58 - 14:00
    Si oui, nous pouvons prendre des mesures.
  • 14:00 - 14:03
    Nous l’avons fait avec le Ku Klux Klan,
    le parti nazi américain et d’autres.
  • 14:03 - 14:08
    Numéro deux : utilise-t-il des images
    ou a-t-il un comportement
  • 14:08 - 14:10
    qui les y associerait ?
  • 14:10 - 14:12
    CA : Combien de gens
    avez-vous à travailler
  • 14:12 - 14:15
    sur la modération du contenu ?
  • 14:15 - 14:16
    JD : Cela dépend.
  • 14:16 - 14:18
    Nous voulons être flexibles
  • 14:18 - 14:20
    car nous voulons nous assurer
    que, premièrement,
  • 14:20 - 14:25
    nous développons des algorithmes
    au lieu d’embaucher beaucoup de gens
  • 14:25 - 14:28
    car nous devons nous assurer
    que cela puisse être étendu
  • 14:28 - 14:31
    et à si grande échelle, cela ne peut pas
    être fait par des humains.
  • 14:31 - 14:34
    C’est pourquoi nous avons
    réalisé tant de travail
  • 14:34 - 14:38
    sur la détection proactive d’abus
  • 14:38 - 14:39
    que des humains peuvent vérifier.
  • 14:39 - 14:42
    Nous voulons avoir une situation
  • 14:42 - 14:46
    où des algorithmes parcourent
    constamment tous les tweets
  • 14:46 - 14:48
    et font remonter les plus intéressants
  • 14:48 - 14:51
    pour que des humains puissent
    exercer leur jugement
  • 14:51 - 14:52
    sur la prise de mesures ou non
  • 14:52 - 14:54
    d’après nos conditions d’utilisation.
  • 14:54 - 14:57
    WPR : C'est impossible à faire
    avec des humains,
  • 14:57 - 14:59
    mais combien de personnes
    avez-vous actuellement
  • 14:59 - 15:00
    à surveiller ces comptes
  • 15:00 - 15:03
    et comment déterminez-vous
    le nombre suffisant ?
  • 15:03 - 15:05
    JD : C’est entièrement flexible.
  • 15:05 - 15:08
    Parfois, nous assignons des gens au spam.
  • 15:08 - 15:12
    Parfois, nous assignons des gens
    aux abus et au harcèlement.
  • 15:12 - 15:15
    Nous allons nous assurer d’avoir
    la flexibilité dans nos effectifs
  • 15:15 - 15:17
    afin d’orienter leur travail
    sur ce qui est nécessaire.
  • 15:17 - 15:19
    Parfois, les élections.
  • 15:19 - 15:23
    Il y a eu une série d’élections
    au Mexique, à venir en Inde,
  • 15:23 - 15:28
    évidemment, les élections
    de mi-mandat l’année dernière,
  • 15:28 - 15:30
    donc nous voulons être flexibles
    avec nos ressources.
  • 15:30 - 15:33
    Quand les gens --
  • 15:33 - 15:39
    par exemple, si vous allez
    voir nos conditions d’utilisation,
  • 15:39 - 15:41
    vous chargez la page
  • 15:41 - 15:42
    et vous vous interrogez
  • 15:42 - 15:44
    sur les abus, le harcèlement
    dont vous avez été victime
  • 15:44 - 15:47
    et si cela va à l’encontre
    de nos conditions d’utilisation
  • 15:47 - 15:48
    pour les signaler,
  • 15:48 - 15:51
    la première chose que vous voyez
    en ouvrant cette page
  • 15:51 - 15:54
    concerne la protection
    de la propriété intellectuelle.
  • 15:55 - 16:00
    Si vous allez plus bas,
    vous arrivez aux abus et au harcèlement
  • 16:00 - 16:02
    et tout ce à quoi
    vous pourriez faire face.
  • 16:02 - 16:05
    J’ignore comment cela s’est passé
    dans l’histoire de l’entreprise
  • 16:05 - 16:10
    mais nous avons placé cela au-dessus
    de ce au sujet de quoi les gens veulent
  • 16:12 - 16:15
    le plus d’informations
    et une prise de mesures.
  • 16:15 - 16:21
    L’ordre montre au monde
    ce que nous pensions important.
  • 16:21 - 16:24
    Nous changeons tout cela.
  • 16:24 - 16:25
    Nous réordonnons cela comme il faut
  • 16:25 - 16:29
    mais nous simplifions aussi les règles
    pour qu’elles soient intelligibles
  • 16:29 - 16:33
    et que les gens puissent
    comprendre d’eux-mêmes
  • 16:33 - 16:36
    quand une chose va ou non à l’encontre
    de nos conditions d’utilisation.
  • 16:36 - 16:38
    Puis nous faisons --
  • 16:38 - 16:42
    de nouveau, nous mettons l’accent
    sur le fait de soulager les victimes
  • 16:42 - 16:44
    de la charge de travail.
  • 16:44 - 16:47
    Cela signifie de délester
    plus de travail sur la technologie
  • 16:47 - 16:49
    plutôt qu’il soit réalisé
    par des humains --
  • 16:49 - 16:52
    que ce soit les humains victimes d’abus
  • 16:52 - 16:55
    ainsi que les humains devant les examiner.
  • 16:55 - 16:56
    Nous voulons nous assurer
  • 16:56 - 16:59
    de ne pas seulement
    encourager plus de travail
  • 16:59 - 17:02
    autour de quelque chose
    de très, très négatif
  • 17:02 - 17:05
    et nous voulons avoir un équilibre
    entre la technologie
  • 17:05 - 17:08
    et là où les humains
    peuvent être créatifs,
  • 17:08 - 17:11
    c’est-à-dire l’appréciation des règles
  • 17:11 - 17:14
    et pas seulement l’aspect mécanique :
    la recherche et le signalement.
  • 17:14 - 17:15
    Voilà comment nous voyons cela.
  • 17:15 - 17:18
    CA : Je suis curieux de creuser
    ce que vous avez dit.
  • 17:18 - 17:21
    J’aime que vous ayez dit
    que vous cherchiez des moyens
  • 17:21 - 17:24
    de remettre au point
    la conception du système
  • 17:24 - 17:29
    pour décourager des comportements
    réactifs et peut-être --
  • 17:29 - 17:32
    pour utiliser un langage
    à la Tristan Harris --
  • 17:32 - 17:36
    motiver la pensée plus réflexive des gens.
  • 17:36 - 17:38
    À quel stade en est-ce ?
  • 17:38 - 17:42
    Quelles seraient des alternatives
    au bouton « j’aime » ?
  • 17:44 - 17:47
    JD : Avant tout,
  • 17:47 - 17:53
    mon objectif personnel avec le service
    est que je crois fondamentalement
  • 17:53 - 17:56
    qu’une conversation publique
    est essentielle.
  • 17:56 - 17:58
    Le monde fait face
    à des problèmes existentiels --
  • 17:58 - 18:02
    le monde entier y fait face,
    pas un État-nation en particulier --
  • 18:02 - 18:05
    auxquels une conversation
    publique bénéficie.
  • 18:05 - 18:08
    C’est l’une des dynamiques
    uniques à Twitter :
  • 18:08 - 18:09
    c’est entièrement ouvert,
  • 18:09 - 18:11
    c’est entièrement public,
  • 18:11 - 18:12
    c’est complètement fluide
  • 18:12 - 18:16
    et tout le monde peut voir et participer
    à toutes les conversations.
  • 18:16 - 18:19
    Il y a des conversations
    comme le changement climatique,
  • 18:19 - 18:21
    les déplacements dans le travail
  • 18:21 - 18:23
    via l’intelligence artificielle,
  • 18:23 - 18:26
    la disparité économique.
  • 18:26 - 18:29
    Peu importe ce qu’un État-nation fait,
  • 18:29 - 18:32
    il ne pourra pas
    résoudre le problème seul.
  • 18:32 - 18:34
    Cela nécessite une coordination
    à travers le monde
  • 18:34 - 18:37
    et c’est là que je pense
    que Twitter peut jouer un rôle.
  • 18:37 - 18:43
    La deuxième chose est qu’actuellement,
    quand vous allez sur Twitter,
  • 18:43 - 18:45
    vous n’en partez pas nécessairement
  • 18:45 - 18:47
    avec le sentiment
    d’avoir appris quelque chose.
  • 18:47 - 18:48
    Pour certains, c’est le cas.
  • 18:48 - 18:51
    Certains ont un réseau très, très riche,
  • 18:51 - 18:54
    une communauté très riche
    et ils apprennent chaque jour.
  • 18:54 - 18:58
    Mais il faut beaucoup de travail
    et de temps pour établir cela.
  • 18:58 - 19:02
    Nous voulons que les gens en viennent
    à ces sujets et centres d’intérêt
  • 19:02 - 19:03
    bien plus rapidement
  • 19:03 - 19:06
    et nous assurer
    qu’ils trouvent quelque chose,
  • 19:07 - 19:09
    peu importe le temps
    qu’ils passent sur Twitter --
  • 19:09 - 19:11
    je ne veux pas maximiser
    le temps sur Twitter,
  • 19:11 - 19:14
    je veux maximiser ce qu’ils en tirent
  • 19:14 - 19:16
    et ce qu’ils y apprennent...
  • 19:18 - 19:19
    CA : Est-ce vraiment le cas ?
  • 19:19 - 19:22
    C’est la question principale
    à laquelle les gens veulent une réponse.
  • 19:22 - 19:26
    Certainement, Jack, vous êtes
    considérablement contraint
  • 19:26 - 19:28
    par le fait d’être une entreprise privée,
  • 19:28 - 19:30
    des investisseurs font pression sur vous,
  • 19:30 - 19:33
    la façon principale dont vous gagnez
    de l’argent, c’est la publicité --
  • 19:33 - 19:36
    cela dépend de l’engagement
    des utilisateurs.
  • 19:36 - 19:41
    Êtes-vous prêt à sacrifier
    le temps des utilisateurs, si besoin est,
  • 19:41 - 19:45
    pour vous diriger
    vers une conversation plus réflexive ?
  • 19:45 - 19:48
    JD : Plus de pertinence signifie
    moins de temps sur le service
  • 19:48 - 19:50
    et c’est très bien
  • 19:50 - 19:53
    car je veux m’assurer
    que vous veniez sur Twitter
  • 19:53 - 19:55
    et que vous voyiez immédiatement
  • 19:55 - 19:57
    quelque chose à apprendre
    et qui vous fait avancer.
  • 19:57 - 20:01
    Nous pouvons toujours
    placer une annonce là-dessus.
  • 20:01 - 20:04
    Vous n’avez pas à passer
    plus de temps pour voir plus.
  • 20:04 - 20:05
    Secondement, nous considérons...
  • 20:05 - 20:08
    CA : Sur cet objectif,
    l’utilisation active quotidienne,
  • 20:08 - 20:11
    si vous mesurez cela, cela ne signifie pas
    que ce sont des choses
  • 20:11 - 20:14
    que les gens apprécient chaque jour.
  • 20:14 - 20:18
    Ce pourrait être des choses les attirant
    tels des papillons vers une flamme.
  • 20:18 - 20:21
    Nous sommes accros car nous voyons
    quelque chose qui nous énerve,
  • 20:21 - 20:24
    nous ajoutons de l’huile sur le feu,
  • 20:24 - 20:26
    l’utilisation active quotidienne augmente,
  • 20:26 - 20:28
    il y a plus de revenus publicitaires
  • 20:28 - 20:30
    mais nous sommes tous
    plus en colère envers les autres.
  • 20:30 - 20:33
    Comme définissez-vous...
  • 20:33 - 20:37
    « Utilisation active quotidienne » semble
    être un terme dangereux à optimiser.
  • 20:37 - 20:42
    (Applaudissements)
  • 20:42 - 20:43
    JD : Tout seul, ça l’est,
  • 20:44 - 20:46
    mais vous ne m’avez pas
    laissé finir l’autre métrique :
  • 20:46 - 20:50
    nous observons les conversations
  • 20:50 - 20:52
    et les chaînes de conversations.
  • 20:52 - 20:57
    Nous voulons encourager
    des contributions saines pour le réseau
  • 20:57 - 21:01
    et ce que nous croyons que c'est,
    c’est la participation à une conversation
  • 21:01 - 21:02
    qui est saine,
  • 21:02 - 21:05
    telle que définie
    par ces quatre indicateurs
  • 21:05 - 21:07
    que j’ai présentés plus tôt.
  • 21:07 - 21:10
    Vous ne pouvez pas optimiser
    une seule métrique.
  • 21:10 - 21:13
    Il faut un équilibre
    et constamment considérer
  • 21:13 - 21:17
    ce qui va créer une contribution
    saine pour le réseau
  • 21:17 - 21:19
    et une expérience saine pour les gens.
  • 21:19 - 21:21
    Finalement, nous voulons
    établir une métrique
  • 21:21 - 21:25
    où les gens peuvent nous dire :
    « J’ai appris quelque chose sur Twitter
  • 21:25 - 21:27
    et je repars avec une chose
    qui a de la valeur. »
  • 21:27 - 21:29
    C’est notre objectif ultime,
  • 21:29 - 21:31
    mais cela va prendre du temps.
  • 21:31 - 21:36
    CA : Pour beaucoup, je pense pour moi,
    vous paraissez être une énigme.
  • 21:36 - 21:41
    C’est peut-être injuste
    mais je me suis réveillé l’autre soir
  • 21:41 - 21:45
    avec cette image qui me faisait penser
    à vous et à la situation :
  • 21:45 - 21:52
    nous étions en voyage avec vous
    sur un bateau appelé « Twittanic » --
  • 21:52 - 21:53
    (Rires)
  • 21:53 - 21:57
    et il y a des gens sur l’entrepont
  • 21:57 - 22:00
    qui expriment un malaise
  • 22:00 - 22:02
    et vous, contrairement
    à de nombreux capitaines,
  • 22:02 - 22:06
    leur dites : « Dites-moi, parlez-moi,
    écoutez-moi, je veux entendre. »
  • 22:06 - 22:09
    Ils vous parlent et vous disent :
    « L’iceberg devant nous inquiète. »
  • 22:09 - 22:11
    Et vous dites :
    « C’est une très bonne remarque
  • 22:11 - 22:14
    et notre bateau n’a pas été fait
    de façon appropriée
  • 22:14 - 22:16
    pour tourner autant que nécessaire. »
  • 22:16 - 22:17
    Nous disons : « Agissez. »
  • 22:17 - 22:19
    Vous allez sur le pont
  • 22:19 - 22:21
    et nous attendons,
  • 22:21 - 22:26
    nous regardons et vous faites preuve
    d’un calme extraordinaire,
  • 22:26 - 22:30
    mais nous sommes tous dehors à dire :
    « Jack, allez, tournez le gouvernail ! »
  • 22:30 - 22:31
    Vous voyez ?
  • 22:31 - 22:32
    (Rires)
  • 22:32 - 22:34
    (Applaudissements)
  • 22:34 - 22:36
    Je veux dire --
  • 22:36 - 22:37
    (Applaudissements)
  • 22:37 - 22:42
    La démocratie est en jeu.
  • 22:42 - 22:45
    Notre culture est en jeu.
    Notre monde est en jeu.
  • 22:45 - 22:50
    Twitter est génial
    et façonne tant de choses.
  • 22:50 - 22:52
    Ce n’est pas aussi grand
    que d’autres plateformes,
  • 22:52 - 22:55
    mais les gens influents
    l’utilisent pour établir un programme
  • 22:55 - 23:01
    et il est difficile d’imaginer un rôle
    plus important au monde que de...
  • 23:02 - 23:05
    Vous faites un excellent travail
    en écoutant et entendant les gens, Jack,
  • 23:05 - 23:10
    mais élevez l’état d’urgence
    et faites avancer les choses --
  • 23:10 - 23:12
    ferez-vous cela ?
  • 23:13 - 23:17
    JD : Oui, et nous avons
    fait des progrès substantiels.
  • 23:17 - 23:20
    Il y a eu quelques dynamiques
    dans l’histoire de Twitter.
  • 23:20 - 23:22
    Un : quand je suis revenu
    dans l’entreprise,
  • 23:23 - 23:30
    nous étions dans un état déplorable
    concernant notre avenir
  • 23:30 - 23:34
    et pas seulement quant à la façon
    dont les gens utilisaient la plateforme,
  • 23:34 - 23:37
    mais aussi d’un point de vue
    de l’entreprise.
  • 23:37 - 23:40
    Nous avons dû réparer quelques fondations,
  • 23:40 - 23:42
    redresser l’entreprise,
  • 23:42 - 23:45
    en passer par deux folles
    périodes de licenciements,
  • 23:45 - 23:49
    car nous étions devenus trop gros
    pour ce que nous faisions,
  • 23:49 - 23:51
    et nous avons concentré
    toute notre énergie
  • 23:51 - 23:54
    sur ce concept qu’est
    servir le débat public.
  • 23:54 - 23:56
    Cela a nécessité du travail.
  • 23:56 - 23:58
    En nous plongeant là-dedans,
  • 23:58 - 24:01
    nous avons vu les problèmes
    avec des principes fondamentaux.
  • 24:02 - 24:04
    Nous pouvions faire
    des choses superficielles
  • 24:04 - 24:07
    pour régler ce dont vous parlez,
  • 24:07 - 24:09
    mais les changements doivent durer
  • 24:09 - 24:11
    et cela signifie aller très en profondeur
  • 24:11 - 24:15
    et prêter attention
    à ce que nous avons démarré il y a 13 ans
  • 24:15 - 24:18
    et remettre en question
  • 24:18 - 24:20
    comment le système
    et la structure fonctionnent
  • 24:20 - 24:24
    et ce dont le monde a besoin aujourd’hui,
  • 24:24 - 24:28
    étant données la rapidité à laquelle
    tout avance et l’utilisation des gens.
  • 24:28 - 24:32
    Nous travaillons aussi vite que possible,
  • 24:32 - 24:35
    mais la rapidité
    n’accomplira pas le travail.
  • 24:35 - 24:37
    C’est la concentration, la priorisation,
  • 24:37 - 24:40
    la compréhension des principes
    fondamentaux du réseau
  • 24:40 - 24:43
    et l’établissement
    d’une structure à grande échelle
  • 24:43 - 24:46
    et s’adaptant aux changements,
  • 24:46 - 24:51
    être ouverts et transparents
    quant à où nous en sommes
  • 24:51 - 24:53
    afin de continuer
    à gagner la confiance des gens.
  • 24:54 - 24:57
    Je suis fier des bases
    que nous avons mises en place.
  • 24:57 - 25:00
    Je suis fier de notre direction.
  • 25:01 - 25:04
    Nous pouvons évidemment aller plus vite,
  • 25:04 - 25:08
    mais cela nécessitait de mettre un terme
    à des trucs stupides que nous faisions.
  • 25:09 - 25:10
    CA : Très bien.
  • 25:10 - 25:14
    Je suppose qu’il y a beaucoup de gens ici
    qui, s’ils en avaient l’opportunité,
  • 25:14 - 25:18
    aimeraient vous aider
    à réaliser ces changements
  • 25:18 - 25:20
    et je ne sais pas si Whitney --
  • 25:20 - 25:23
    Jack, merci d’être venu
    et d’avoir parlé si ouvertement.
  • 25:23 - 25:24
    Cela a nécessité du courage.
  • 25:24 - 25:28
    J’apprécie ce que vous avez dit
    et bon courage pour votre mission.
  • 25:28 - 25:30
    JD : Merci beaucoup.
    Merci de m’avoir invité.
  • 25:30 - 25:33
    (Applaudissements)
  • 25:33 - 25:34
    Merci.
Title:
Comment Twitter doit changer
Speaker:
Jack Dorsey
Description:

Twitter peut-il être sauvé ? Dans une conversation de grande envergure avec Chris Anderson et Whitney Pennington Rodgers de TED, le PDG de Twitter Jack Dorsey discute de l'avenir de la plateforme -- reconnaissant des problèmes concernant le harcèlement et la modération et proposant des changements fondamentaux qui, il l'espère, encourageront des conversations saines et respectueuses. « Offrons-nous quelque chose que les gens apprécient chaque jour ? » demande Dorsey.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47
eric vautier approved French subtitles for How Twitter needs to change
eric vautier edited French subtitles for How Twitter needs to change
eric vautier edited French subtitles for How Twitter needs to change
Emmanuel Parfond accepted French subtitles for How Twitter needs to change
Emmanuel Parfond edited French subtitles for How Twitter needs to change
Emmanuel Parfond edited French subtitles for How Twitter needs to change
Morgane Quilfen edited French subtitles for How Twitter needs to change
Morgane Quilfen edited French subtitles for How Twitter needs to change
Show all

French subtitles

Revisions