Comment Twitter doit changer
-
0:01 - 0:04Chris Anderson :
Qu’est-ce qui vous inquiète ? -
0:04 - 0:07Vous avez été très ouvert
sur beaucoup de problèmes sur Twitter. -
0:07 - 0:09Quelle serait votre principale inquiétude
-
0:09 - 0:11quant à l’état actuel des choses ?
-
0:11 - 0:14Jack Dorsey : Actuellement,
la santé de la conversation. -
0:14 - 0:18Notre objectif est de servir
le débat public -
0:18 - 0:23et nous y avons vu
un certain nombre d’attaques. -
0:23 - 0:26Nous avons vu des abus, du harcèlement,
-
0:26 - 0:29de la manipulation,
-
0:29 - 0:32de l’automatisation,
de la coordination humaine, -
0:32 - 0:34de la désinformation.
-
0:34 - 0:38Ce sont des dynamiques
auxquelles nous ne nous attendions pas -
0:38 - 0:42il y a 13 ans, quand nous étions
en train de lancer l’entreprise. -
0:42 - 0:45Mais nous les voyons maintenant
à grande échelle -
0:45 - 0:50et ce qui m’inquiète le plus
est notre capacité à résoudre cela -
0:50 - 0:53de façon systémique
et adaptée à l’échelle, -
0:53 - 1:00avec une compréhension rigoureuse
de comment nous agissons, -
1:00 - 1:03une vision transparente
de comment nous agissons -
1:03 - 1:06et une procédure d’appel rigoureuse
pour les fois où nous avons tort, -
1:06 - 1:08car nous aurons tort.
-
1:09 - 1:11Whitney Pennington Rodgers :
Je suis ravie d’entendre -
1:11 - 1:13que cela vous inquiète
-
1:13 - 1:15car il y a beaucoup d’articles
sur des personnes -
1:15 - 1:18qui se sont senties maltraitées,
harcelées sur Twitter -
1:18 - 1:22et je crois que personne ne l’a plus été
que les femmes, les femmes de couleur -
1:22 - 1:23et les femmes noires.
-
1:23 - 1:25Des données ont été publiées --
-
1:25 - 1:28Amnesty International a publié
un rapport il y a quelques mois -
1:28 - 1:33où ils ont montré que pour un sous-groupe
de femmes noires utilisant Twitter, -
1:33 - 1:36en moyenne un tweet sur 10 reçus
-
1:36 - 1:38présentait une forme de harcèlement.
-
1:38 - 1:42Quand vous pensez à la santé
de la communauté sur Twitter, -
1:42 - 1:46cela m’intéresse d’entendre
« de la santé pour tout le monde », -
1:46 - 1:50mais en particulier : comment allez-vous
faire de Twitter un espace sûr -
1:50 - 1:51pour ce sous-groupe, pour les femmes,
-
1:51 - 1:54pour les femmes de couleur
et les femmes noires ? -
1:54 - 1:55JD : Ouais.
-
1:55 - 1:57C’est une situation effroyable
-
1:57 - 1:59quand vous venez sur un service
-
1:59 - 2:03où, idéalement, vous voulez apprendre
quelque chose sur le monde -
2:03 - 2:09et vous passez la majorité de votre temps
à signaler des abus, à être agressée, -
2:09 - 2:11à être harcelée.
-
2:11 - 2:18Nous reconsidérons
en profondeur les incitations -
2:18 - 2:22que la plateforme offre naturellement
et le service qu’elle fournit. -
2:22 - 2:27Actuellement, la dynamique du système
rend cela très facile de harceler -
2:27 - 2:31et d’agresser les autres via le service
-
2:31 - 2:34et malheureusement, auparavant,
la majorité de notre système -
2:34 - 2:39était entièrement basé sur le signalement
du harcèlement et des agressions. -
2:39 - 2:45Vers le milieu de l’année dernière,
nous avons décidé d’appliquer -
2:45 - 2:49beaucoup plus d’apprentissage automatique,
d’apprentissage profond au problème -
2:49 - 2:53et d’essayer d’être plus proactifs
là où il y a des agressions -
2:53 - 2:57afin de pouvoir soulager complètement
les victimes de ce fardeau. -
2:57 - 3:00Récemment, nous avons réalisé des progrès.
-
3:00 - 3:06Environ 38 % des tweets abusifs
sont identifiés de façon proactive -
3:06 - 3:08par des algorithmes
d’apprentissage automatique -
3:08 - 3:10afin que les gens
n’aient pas à les signaler. -
3:10 - 3:14Ceux qui sont identifiés
sont passés en revue par des êtres humains -
3:14 - 3:17afin de ne pas supprimer
du contenu ou des comptes -
3:17 - 3:19sans que quelqu’un ne les contrôle.
-
3:19 - 3:22C’était à zéro pourcent il y a un an.
-
3:22 - 3:24À ce zéro pourcent,
-
3:24 - 3:28toute personne étant agressée
devant le signaler, -
3:28 - 3:31ce qui représentait beaucoup de travail
pour elle, pour nous -
3:31 - 3:33et était fondamentalement injuste.
-
3:34 - 3:36Une autre chose que nous faisons,
-
3:36 - 3:38c’est de nous s’assurer
qu’en tant qu’entreprise, -
3:38 - 3:40nous avons une représentation
-
3:40 - 3:42de toutes les communautés
que nous servons. -
3:42 - 3:44Nous ne pouvons pas bâtir
une entreprise fructueuse -
3:44 - 3:47sans avoir de diversité de points de vue
au sein de nos murs -
3:47 - 3:51qui ressentent ces problèmes au quotidien.
-
3:51 - 3:55Ce n’est pas valable qu’avec l’équipe
qui accomplit le travail -
3:55 - 3:57mais aussi avec notre direction.
-
3:57 - 4:00Nous devons continuer
à développer de l’empathie -
4:00 - 4:03pour ce que les gens vivent,
-
4:03 - 4:06leur offrir de meilleurs outils
pour agir en fonction de leur vécu -
4:06 - 4:10et offrir à nos clients une approche
meilleure et plus simple -
4:10 - 4:13pour gérer le genre de choses
que nous voyons. -
4:13 - 4:16Une grande partie de notre travail
a trait à la technologie -
4:16 - 4:20mais nous considérons également
les incitations du service : -
4:20 - 4:25qu’est-ce que Twitter vous encourage-t-il
à faire quand vous l’ouvrez ? -
4:25 - 4:27Auparavant,
-
4:29 - 4:34il encourageait fortement l’indignation,
le comportement de foule, -
4:34 - 4:37le harcèlement collectif.
-
4:37 - 4:40Nous devons considérer plus en profondeur
certains des principes fondamentaux -
4:40 - 4:44de ce que le service fait
pour affecter de plus grands changements. -
4:44 - 4:47Nous pouvons faire de petits changements
concernant la technologie -
4:47 - 4:50mais fondamentalement,
nous devons considérer en profondeur -
4:50 - 4:52les dynamiques dans le réseau même
-
4:52 - 4:53et c’est ce que nous faisons.
-
4:53 - 4:55CA : Quelle est votre impression --
-
4:55 - 4:59quel genre de choses
que vous pourriez changer -
4:59 - 5:02modifieraient fondamentalement
les comportements ? -
5:03 - 5:05JD : Une des choses --
-
5:05 - 5:10nous avons démarré le service
avec ce concept de suivre un compte, -
5:10 - 5:12en tant qu’exemple,
-
5:12 - 5:13et je ne crois pas
-
5:13 - 5:16que ce soit la raison pour laquelle
les gens viennent sur Twitter. -
5:16 - 5:21Je crois que Twitter est surtout
un réseau basé sur les centres d’intérêt. -
5:21 - 5:25Les gens y viennent
avec un centre d’intérêt particulier. -
5:25 - 5:26Il leur faut beaucoup de travail
-
5:26 - 5:30pour trouver et suivre les comptes
associés à ces centres d’intérêt. -
5:30 - 5:34Nous pourrions plutôt vous permettre
de suivre un centre d’intérêt, -
5:34 - 5:36suivre un hashtag, suivre une tendance,
-
5:36 - 5:38suivre une communauté,
-
5:38 - 5:42ce qui nous offre l’opportunité
de montrer tous les comptes, -
5:42 - 5:46tous les sujets, tous les moments,
tous les hashtags -
5:46 - 5:50qui sont associés à ce sujet
et centre d’intérêt en particulier, -
5:50 - 5:54ce qui ouvre les perspectives
que vous voyez. -
5:54 - 5:56Mais c’est un changement fondamental
-
5:56 - 6:00faisant passer tous le réseau
d’une subjectivité liée à un compte -
6:00 - 6:03à une subjectivité liée
à un sujet et centre d’intérêt. -
6:03 - 6:06CA : N’est-il pas vrai
-
6:07 - 6:11qu’une des raisons pour lesquelles
vous avez là tant de contenu -
6:11 - 6:15résulte du fait d’avoir mis des millions
de personnes à travers le monde -
6:15 - 6:18en compétition les uns contre les autres
tels des gladiateurs -
6:18 - 6:20pour des abonnés, pour de l’attention ?
-
6:20 - 6:24Du point de vue des gens
qui ne font que lire Twitter, -
6:24 - 6:25ce n’est pas un problème,
-
6:25 - 6:29mais pour les gens qui créent,
tout le monde dit : -
6:29 - 6:32« J’aimerais avoir quelques “j’aime”,
abonnés, retweets de plus. » -
6:32 - 6:34Ils font constamment des expérimentations,
-
6:34 - 6:36essayent de trouver comment faire cela.
-
6:36 - 6:40Nous avons tous découvert
qu’un moyen pour y arriver, -
6:40 - 6:44c’est d’être provocateur,
-
6:44 - 6:47odieux, odieux de façon éloquente,
-
6:47 - 6:50les insultes éloquentes
sont un rêve sur Twitter, -
6:50 - 6:53vous êtes vite suivi --
-
6:53 - 6:57cela devient un processus
d’outrage s’autoalimentant. -
6:57 - 7:00Comment arrêter cela ?
-
7:01 - 7:04JD : Je pense que vous
touchez au cœur du problème, -
7:04 - 7:05mais cela en revient aux incitations.
-
7:06 - 7:08Un des choix que nous avons faits
au tout début a été -
7:08 - 7:13que nous avions ce nombre montrant
combien vous avez d’abonnés. -
7:13 - 7:16Nous avons décidé que ce nombre
devrait être en grand et en gras, -
7:16 - 7:20que toute chose sur la page étant
en grand et en gras avait de l’importance -
7:20 - 7:22et était ce que vous deviez
aspirer à stimuler. -
7:22 - 7:24Était-ce la bonne décision à l’époque ?
-
7:24 - 7:25Probablement pas.
-
7:25 - 7:27Si je devais relancer le service,
-
7:27 - 7:29je ne valoriserais pas autant
le nombre d’abonnés. -
7:29 - 7:32Je ne valoriserais pas autant
le nombre de « j’aime ». -
7:32 - 7:35Je ne pense pas que je créerais
de « j’aime » du tout -
7:35 - 7:38car cela n’est pas un moteur
-
7:38 - 7:41de ce que nous croyons aujourd’hui
être la chose la plus importante : -
7:41 - 7:44les contributions saines au réseau
-
7:44 - 7:47et la conversation avec le réseau,
-
7:47 - 7:49la participation à la conversation,
-
7:49 - 7:52l’apprentissage de quelque chose
via cette conversation. -
7:52 - 7:54Nous n’avons pas pensé
à ces choses-là il y a 13 ans -
7:54 - 7:57et nous les croyons
extrêmement importantes aujourd’hui. -
7:57 - 8:00Nous devons considérer
la façon d’afficher le nombre d’abonnés, -
8:00 - 8:02la façon d’afficher le nombre de retweets,
-
8:02 - 8:04le nombre de « j’aime »
-
8:04 - 8:06et poser la question profonde :
-
8:06 - 8:09est-ce vraiment le nombre
que les gens veulent faire augmenter ? -
8:09 - 8:12Est-ce la chose que,
quand vous ouvrez Twitter, -
8:12 - 8:14c’est cela que vous devez augmenter.
-
8:14 - 8:16Je ne crois pas que ce soit le cas.
-
8:16 - 8:19(Applaudissements)
-
8:19 - 8:23WPR : Nous devrions regarder
certains des tweets venant du public. -
8:24 - 8:26CA : Voyons voir ce que vous demandez.
-
8:26 - 8:30C’est -- en général, une des choses
géniales concernant Twitter, -
8:30 - 8:32c’est son utilisation
pour la sagesse de foule : -
8:32 - 8:37plus de savoir, plus de questions,
plus de points de vue -
8:37 - 8:38que vous ne pouvez l’imaginer
-
8:38 - 8:42et parfois, la plupart
sont vraiment sains. -
8:42 - 8:45WPR : Je crois en avoir vu un
passer rapidement disant : -
8:45 - 8:46« Comment Twitter compte-t-il lutter
-
8:46 - 8:48contre les ingérences étrangères ? »
-
8:48 - 8:53Je crois que c’est un problème
observé sur Internet en général : -
8:53 - 8:56il y a beaucoup d’activité
automatisée et malicieuse. -
8:56 - 9:02Sur Twitter, par exemple,
nous avons un travail -
9:02 - 9:05venant de nos amis à Zignal Labs
-
9:05 - 9:07et nous pouvons peut-être le voir
et prendre un exemple -
9:07 - 9:09de ce dont je parle :
-
9:09 - 9:12vous avez ces robots, si vous voulez,
-
9:13 - 9:17ou une activité de compte coordonnée,
automatisée et malicieuse -
9:17 - 9:20utilisée pour influencer
des choses comme les élections. -
9:20 - 9:24Dans cet exemple
que Zignal a partagé avec nous -
9:24 - 9:26et utilisant les données
qu’ils ont sur Twitter, -
9:26 - 9:28vous voyez que dans ce cas
-
9:28 - 9:30le blanc représente des êtres humains --
-
9:30 - 9:33des comptes humains,
chaque point est un compte. -
9:33 - 9:34Plus il est rose,
-
9:34 - 9:36plus l’activité est automatisée.
-
9:36 - 9:42Il y a quelques êtres humains
interagissant avec des robots. -
9:42 - 9:46Dans ce cas, il s’agit
des élections en Israël -
9:46 - 9:49et de la diffusion de désinformation
au sujet de Benny Gantz -
9:49 - 9:52et, finalement, c’est une élection
-
9:52 - 9:56que Netanyahu a gagnée de justesse
-
9:56 - 9:59et elle a pu être influencée par cela.
-
9:59 - 10:01Quand vous pensez
à ce qu’il se passe sur Twitter, -
10:01 - 10:04quelles choses en particulier faites-vous
-
10:04 - 10:07pour vous assurer de ne pas avoir
une telle diffusion de la désinformation -
10:07 - 10:12influençant les gens de façons
pouvant avoir un effet sur la démocratie ? -
10:12 - 10:13JD : Pour revenir un peu en arrière,
-
10:13 - 10:16nous nous sommes posé une question :
-
10:16 - 10:20pouvons-nous mesurer
la santé d’une conversation -
10:20 - 10:22et qu’est-ce que cela signifie ?
-
10:22 - 10:25Comme vous avez des indicateurs
-
10:25 - 10:28et nous avons des indicateurs
pour savoir si nous sommes en bonne santé -
10:28 - 10:33tels que la température,
la rougeur de votre visage, -
10:33 - 10:35nous croyions pouvoir trouver
-
10:35 - 10:38les indicateurs de la santé
de la conversation. -
10:38 - 10:42Nous avons travaillé
avec un labo du MIT appelé Cortico -
10:42 - 10:49pour proposer quatre indicateurs initiaux
-
10:49 - 10:52que nous croyons pouvoir
utiliser pour mesurer le système. -
10:53 - 10:59Le premier est ce que nous appelons
« attention partagée ». -
10:59 - 11:02C’est une mesure indiquant
si la conversation est attentive -
11:02 - 11:05plutôt que disparate sur un sujet.
-
11:06 - 11:09Le deuxième s’appelle
« réalité partagée » : -
11:09 - 11:11quel pourcentage de la conversation
-
11:12 - 11:14partage les mêmes faits --
-
11:14 - 11:17non pas est-ce que ces faits
sont vrais ou faux, -
11:17 - 11:20mais partageons-nous les mêmes faits
durant notre conversation ? -
11:20 - 11:23Le troisième est la réceptivité :
-
11:23 - 11:27quelle part de la conversation
est réceptive ou civile -
11:27 - 11:30ou au contraire, toxique ?
-
11:30 - 11:33Le quatrième est la diversité
des points de vue. -
11:33 - 11:37Observons-nous des bulles de filtres
ou des chambres d’écho -
11:37 - 11:40ou avons-nous une diversité d’opinions
-
11:40 - 11:41dans la conversation ?
-
11:41 - 11:45Implicitement avec ces quatre indicateurs,
nous nous entendons pour dire -
11:45 - 11:49que lorsqu’ils augmentent, la conversation
devient de plus en plus saine. -
11:49 - 11:54Notre première étape est de voir
si nous pouvons les mesurer en ligne, -
11:54 - 11:55ce que nous croyons possible.
-
11:55 - 11:58Nous avons le plus de dynamisme
concernant la réceptivité. -
11:58 - 12:03Nous avons un score de toxicité,
un modèle de toxicité, dans notre système -
12:03 - 12:07qui peut mesurer si vous allez
probablement vous retirer -
12:07 - 12:09d’une conversation
que vous avez sur Twitter -
12:09 - 12:11car vous la trouvez toxique,
-
12:11 - 12:13dont l’exactitude est plutôt élevée.
-
12:14 - 12:17Nous travaillons à mesurer le reste
-
12:17 - 12:19et la prochaine étape est,
-
12:19 - 12:22alors que nous élaborons des solutions,
-
12:22 - 12:25d’observer la tendance
de ces mesures au fil du temps -
12:25 - 12:27et de continuer à expérimenter.
-
12:27 - 12:31Notre objectif est de nous assurer
qu’ils soient équilibrés -
12:31 - 12:35car si vous en augmentez un,
vous pourriez en abaisser un autre. -
12:35 - 12:37Si vous améliorez
la diversité des points de vue, -
12:37 - 12:40vous pourriez faire baisser
la réalité partagée. -
12:40 - 12:45CA : Je recueille certaines des questions
qui nous inondent là-haut. -
12:45 - 12:46JD : Plein de questions.
-
12:47 - 12:51CA : Beaucoup de gens
sont perplexes quant à pourquoi, -
12:51 - 12:55à quel point est-il difficile
de se débarrasser des nazis sur Twitter ? -
12:56 - 12:58JD : (Rit)
-
12:58 - 13:05Nous avons des politiques concernant
les groupes extrémistes violents -
13:05 - 13:09et la majorité de notre travail
et nos conditions d’utilisation -
13:09 - 13:13sont basées sur le comportement,
pas le contenu. -
13:13 - 13:15Nous considérons le comportement.
-
13:15 - 13:18Le comportement,
c’est l’utilisation du service -
13:18 - 13:22pour harceler quelqu’un
de façon répétée ou épisodique, -
13:22 - 13:25utiliser des images haineuses
-
13:25 - 13:27pouvant être associées
avec le Ku Klux Klan -
13:27 - 13:30ou le parti nazi américain.
-
13:30 - 13:34Ce sont des choses pour lesquelles
nous prenons des mesures immédiates. -
13:35 - 13:37Nous sommes actuellement
dans une situation -
13:37 - 13:40où ce terme est employé à tout vent
-
13:40 - 13:46et nous ne pouvons pas prendre
une allusion à ce mot -
13:46 - 13:48en accusant quelqu’un d’autre
-
13:48 - 13:52comme une indication factuelle
qu’il devrait être banni de la plateforme. -
13:52 - 13:54Beaucoup de nos modèles
sont basés, numéro un : -
13:54 - 13:58ce compte est-il associé
à un groupe extrémiste violent ? -
13:58 - 14:00Si oui, nous pouvons prendre des mesures.
-
14:00 - 14:03Nous l’avons fait avec le Ku Klux Klan,
le parti nazi américain et d’autres. -
14:03 - 14:08Numéro deux : utilise-t-il des images
ou a-t-il un comportement -
14:08 - 14:10qui les y associerait ?
-
14:10 - 14:12CA : Combien de gens
avez-vous à travailler -
14:12 - 14:15sur la modération du contenu ?
-
14:15 - 14:16JD : Cela dépend.
-
14:16 - 14:18Nous voulons être flexibles
-
14:18 - 14:20car nous voulons nous assurer
que, premièrement, -
14:20 - 14:25nous développons des algorithmes
au lieu d’embaucher beaucoup de gens -
14:25 - 14:28car nous devons nous assurer
que cela puisse être étendu -
14:28 - 14:31et à si grande échelle, cela ne peut pas
être fait par des humains. -
14:31 - 14:34C’est pourquoi nous avons
réalisé tant de travail -
14:34 - 14:38sur la détection proactive d’abus
-
14:38 - 14:39que des humains peuvent vérifier.
-
14:39 - 14:42Nous voulons avoir une situation
-
14:42 - 14:46où des algorithmes parcourent
constamment tous les tweets -
14:46 - 14:48et font remonter les plus intéressants
-
14:48 - 14:51pour que des humains puissent
exercer leur jugement -
14:51 - 14:52sur la prise de mesures ou non
-
14:52 - 14:54d’après nos conditions d’utilisation.
-
14:54 - 14:57WPR : C'est impossible à faire
avec des humains, -
14:57 - 14:59mais combien de personnes
avez-vous actuellement -
14:59 - 15:00à surveiller ces comptes
-
15:00 - 15:03et comment déterminez-vous
le nombre suffisant ? -
15:03 - 15:05JD : C’est entièrement flexible.
-
15:05 - 15:08Parfois, nous assignons des gens au spam.
-
15:08 - 15:12Parfois, nous assignons des gens
aux abus et au harcèlement. -
15:12 - 15:15Nous allons nous assurer d’avoir
la flexibilité dans nos effectifs -
15:15 - 15:17afin d’orienter leur travail
sur ce qui est nécessaire. -
15:17 - 15:19Parfois, les élections.
-
15:19 - 15:23Il y a eu une série d’élections
au Mexique, à venir en Inde, -
15:23 - 15:28évidemment, les élections
de mi-mandat l’année dernière, -
15:28 - 15:30donc nous voulons être flexibles
avec nos ressources. -
15:30 - 15:33Quand les gens --
-
15:33 - 15:39par exemple, si vous allez
voir nos conditions d’utilisation, -
15:39 - 15:41vous chargez la page
-
15:41 - 15:42et vous vous interrogez
-
15:42 - 15:44sur les abus, le harcèlement
dont vous avez été victime -
15:44 - 15:47et si cela va à l’encontre
de nos conditions d’utilisation -
15:47 - 15:48pour les signaler,
-
15:48 - 15:51la première chose que vous voyez
en ouvrant cette page -
15:51 - 15:54concerne la protection
de la propriété intellectuelle. -
15:55 - 16:00Si vous allez plus bas,
vous arrivez aux abus et au harcèlement -
16:00 - 16:02et tout ce à quoi
vous pourriez faire face. -
16:02 - 16:05J’ignore comment cela s’est passé
dans l’histoire de l’entreprise -
16:05 - 16:10mais nous avons placé cela au-dessus
de ce au sujet de quoi les gens veulent -
16:12 - 16:15le plus d’informations
et une prise de mesures. -
16:15 - 16:21L’ordre montre au monde
ce que nous pensions important. -
16:21 - 16:24Nous changeons tout cela.
-
16:24 - 16:25Nous réordonnons cela comme il faut
-
16:25 - 16:29mais nous simplifions aussi les règles
pour qu’elles soient intelligibles -
16:29 - 16:33et que les gens puissent
comprendre d’eux-mêmes -
16:33 - 16:36quand une chose va ou non à l’encontre
de nos conditions d’utilisation. -
16:36 - 16:38Puis nous faisons --
-
16:38 - 16:42de nouveau, nous mettons l’accent
sur le fait de soulager les victimes -
16:42 - 16:44de la charge de travail.
-
16:44 - 16:47Cela signifie de délester
plus de travail sur la technologie -
16:47 - 16:49plutôt qu’il soit réalisé
par des humains -- -
16:49 - 16:52que ce soit les humains victimes d’abus
-
16:52 - 16:55ainsi que les humains devant les examiner.
-
16:55 - 16:56Nous voulons nous assurer
-
16:56 - 16:59de ne pas seulement
encourager plus de travail -
16:59 - 17:02autour de quelque chose
de très, très négatif -
17:02 - 17:05et nous voulons avoir un équilibre
entre la technologie -
17:05 - 17:08et là où les humains
peuvent être créatifs, -
17:08 - 17:11c’est-à-dire l’appréciation des règles
-
17:11 - 17:14et pas seulement l’aspect mécanique :
la recherche et le signalement. -
17:14 - 17:15Voilà comment nous voyons cela.
-
17:15 - 17:18CA : Je suis curieux de creuser
ce que vous avez dit. -
17:18 - 17:21J’aime que vous ayez dit
que vous cherchiez des moyens -
17:21 - 17:24de remettre au point
la conception du système -
17:24 - 17:29pour décourager des comportements
réactifs et peut-être -- -
17:29 - 17:32pour utiliser un langage
à la Tristan Harris -- -
17:32 - 17:36motiver la pensée plus réflexive des gens.
-
17:36 - 17:38À quel stade en est-ce ?
-
17:38 - 17:42Quelles seraient des alternatives
au bouton « j’aime » ? -
17:44 - 17:47JD : Avant tout,
-
17:47 - 17:53mon objectif personnel avec le service
est que je crois fondamentalement -
17:53 - 17:56qu’une conversation publique
est essentielle. -
17:56 - 17:58Le monde fait face
à des problèmes existentiels -- -
17:58 - 18:02le monde entier y fait face,
pas un État-nation en particulier -- -
18:02 - 18:05auxquels une conversation
publique bénéficie. -
18:05 - 18:08C’est l’une des dynamiques
uniques à Twitter : -
18:08 - 18:09c’est entièrement ouvert,
-
18:09 - 18:11c’est entièrement public,
-
18:11 - 18:12c’est complètement fluide
-
18:12 - 18:16et tout le monde peut voir et participer
à toutes les conversations. -
18:16 - 18:19Il y a des conversations
comme le changement climatique, -
18:19 - 18:21les déplacements dans le travail
-
18:21 - 18:23via l’intelligence artificielle,
-
18:23 - 18:26la disparité économique.
-
18:26 - 18:29Peu importe ce qu’un État-nation fait,
-
18:29 - 18:32il ne pourra pas
résoudre le problème seul. -
18:32 - 18:34Cela nécessite une coordination
à travers le monde -
18:34 - 18:37et c’est là que je pense
que Twitter peut jouer un rôle. -
18:37 - 18:43La deuxième chose est qu’actuellement,
quand vous allez sur Twitter, -
18:43 - 18:45vous n’en partez pas nécessairement
-
18:45 - 18:47avec le sentiment
d’avoir appris quelque chose. -
18:47 - 18:48Pour certains, c’est le cas.
-
18:48 - 18:51Certains ont un réseau très, très riche,
-
18:51 - 18:54une communauté très riche
et ils apprennent chaque jour. -
18:54 - 18:58Mais il faut beaucoup de travail
et de temps pour établir cela. -
18:58 - 19:02Nous voulons que les gens en viennent
à ces sujets et centres d’intérêt -
19:02 - 19:03bien plus rapidement
-
19:03 - 19:06et nous assurer
qu’ils trouvent quelque chose, -
19:07 - 19:09peu importe le temps
qu’ils passent sur Twitter -- -
19:09 - 19:11je ne veux pas maximiser
le temps sur Twitter, -
19:11 - 19:14je veux maximiser ce qu’ils en tirent
-
19:14 - 19:16et ce qu’ils y apprennent...
-
19:18 - 19:19CA : Est-ce vraiment le cas ?
-
19:19 - 19:22C’est la question principale
à laquelle les gens veulent une réponse. -
19:22 - 19:26Certainement, Jack, vous êtes
considérablement contraint -
19:26 - 19:28par le fait d’être une entreprise privée,
-
19:28 - 19:30des investisseurs font pression sur vous,
-
19:30 - 19:33la façon principale dont vous gagnez
de l’argent, c’est la publicité -- -
19:33 - 19:36cela dépend de l’engagement
des utilisateurs. -
19:36 - 19:41Êtes-vous prêt à sacrifier
le temps des utilisateurs, si besoin est, -
19:41 - 19:45pour vous diriger
vers une conversation plus réflexive ? -
19:45 - 19:48JD : Plus de pertinence signifie
moins de temps sur le service -
19:48 - 19:50et c’est très bien
-
19:50 - 19:53car je veux m’assurer
que vous veniez sur Twitter -
19:53 - 19:55et que vous voyiez immédiatement
-
19:55 - 19:57quelque chose à apprendre
et qui vous fait avancer. -
19:57 - 20:01Nous pouvons toujours
placer une annonce là-dessus. -
20:01 - 20:04Vous n’avez pas à passer
plus de temps pour voir plus. -
20:04 - 20:05Secondement, nous considérons...
-
20:05 - 20:08CA : Sur cet objectif,
l’utilisation active quotidienne, -
20:08 - 20:11si vous mesurez cela, cela ne signifie pas
que ce sont des choses -
20:11 - 20:14que les gens apprécient chaque jour.
-
20:14 - 20:18Ce pourrait être des choses les attirant
tels des papillons vers une flamme. -
20:18 - 20:21Nous sommes accros car nous voyons
quelque chose qui nous énerve, -
20:21 - 20:24nous ajoutons de l’huile sur le feu,
-
20:24 - 20:26l’utilisation active quotidienne augmente,
-
20:26 - 20:28il y a plus de revenus publicitaires
-
20:28 - 20:30mais nous sommes tous
plus en colère envers les autres. -
20:30 - 20:33Comme définissez-vous...
-
20:33 - 20:37« Utilisation active quotidienne » semble
être un terme dangereux à optimiser. -
20:37 - 20:42(Applaudissements)
-
20:42 - 20:43JD : Tout seul, ça l’est,
-
20:44 - 20:46mais vous ne m’avez pas
laissé finir l’autre métrique : -
20:46 - 20:50nous observons les conversations
-
20:50 - 20:52et les chaînes de conversations.
-
20:52 - 20:57Nous voulons encourager
des contributions saines pour le réseau -
20:57 - 21:01et ce que nous croyons que c'est,
c’est la participation à une conversation -
21:01 - 21:02qui est saine,
-
21:02 - 21:05telle que définie
par ces quatre indicateurs -
21:05 - 21:07que j’ai présentés plus tôt.
-
21:07 - 21:10Vous ne pouvez pas optimiser
une seule métrique. -
21:10 - 21:13Il faut un équilibre
et constamment considérer -
21:13 - 21:17ce qui va créer une contribution
saine pour le réseau -
21:17 - 21:19et une expérience saine pour les gens.
-
21:19 - 21:21Finalement, nous voulons
établir une métrique -
21:21 - 21:25où les gens peuvent nous dire :
« J’ai appris quelque chose sur Twitter -
21:25 - 21:27et je repars avec une chose
qui a de la valeur. » -
21:27 - 21:29C’est notre objectif ultime,
-
21:29 - 21:31mais cela va prendre du temps.
-
21:31 - 21:36CA : Pour beaucoup, je pense pour moi,
vous paraissez être une énigme. -
21:36 - 21:41C’est peut-être injuste
mais je me suis réveillé l’autre soir -
21:41 - 21:45avec cette image qui me faisait penser
à vous et à la situation : -
21:45 - 21:52nous étions en voyage avec vous
sur un bateau appelé « Twittanic » -- -
21:52 - 21:53(Rires)
-
21:53 - 21:57et il y a des gens sur l’entrepont
-
21:57 - 22:00qui expriment un malaise
-
22:00 - 22:02et vous, contrairement
à de nombreux capitaines, -
22:02 - 22:06leur dites : « Dites-moi, parlez-moi,
écoutez-moi, je veux entendre. » -
22:06 - 22:09Ils vous parlent et vous disent :
« L’iceberg devant nous inquiète. » -
22:09 - 22:11Et vous dites :
« C’est une très bonne remarque -
22:11 - 22:14et notre bateau n’a pas été fait
de façon appropriée -
22:14 - 22:16pour tourner autant que nécessaire. »
-
22:16 - 22:17Nous disons : « Agissez. »
-
22:17 - 22:19Vous allez sur le pont
-
22:19 - 22:21et nous attendons,
-
22:21 - 22:26nous regardons et vous faites preuve
d’un calme extraordinaire, -
22:26 - 22:30mais nous sommes tous dehors à dire :
« Jack, allez, tournez le gouvernail ! » -
22:30 - 22:31Vous voyez ?
-
22:31 - 22:32(Rires)
-
22:32 - 22:34(Applaudissements)
-
22:34 - 22:36Je veux dire --
-
22:36 - 22:37(Applaudissements)
-
22:37 - 22:42La démocratie est en jeu.
-
22:42 - 22:45Notre culture est en jeu.
Notre monde est en jeu. -
22:45 - 22:50Twitter est génial
et façonne tant de choses. -
22:50 - 22:52Ce n’est pas aussi grand
que d’autres plateformes, -
22:52 - 22:55mais les gens influents
l’utilisent pour établir un programme -
22:55 - 23:01et il est difficile d’imaginer un rôle
plus important au monde que de... -
23:02 - 23:05Vous faites un excellent travail
en écoutant et entendant les gens, Jack, -
23:05 - 23:10mais élevez l’état d’urgence
et faites avancer les choses -- -
23:10 - 23:12ferez-vous cela ?
-
23:13 - 23:17JD : Oui, et nous avons
fait des progrès substantiels. -
23:17 - 23:20Il y a eu quelques dynamiques
dans l’histoire de Twitter. -
23:20 - 23:22Un : quand je suis revenu
dans l’entreprise, -
23:23 - 23:30nous étions dans un état déplorable
concernant notre avenir -
23:30 - 23:34et pas seulement quant à la façon
dont les gens utilisaient la plateforme, -
23:34 - 23:37mais aussi d’un point de vue
de l’entreprise. -
23:37 - 23:40Nous avons dû réparer quelques fondations,
-
23:40 - 23:42redresser l’entreprise,
-
23:42 - 23:45en passer par deux folles
périodes de licenciements, -
23:45 - 23:49car nous étions devenus trop gros
pour ce que nous faisions, -
23:49 - 23:51et nous avons concentré
toute notre énergie -
23:51 - 23:54sur ce concept qu’est
servir le débat public. -
23:54 - 23:56Cela a nécessité du travail.
-
23:56 - 23:58En nous plongeant là-dedans,
-
23:58 - 24:01nous avons vu les problèmes
avec des principes fondamentaux. -
24:02 - 24:04Nous pouvions faire
des choses superficielles -
24:04 - 24:07pour régler ce dont vous parlez,
-
24:07 - 24:09mais les changements doivent durer
-
24:09 - 24:11et cela signifie aller très en profondeur
-
24:11 - 24:15et prêter attention
à ce que nous avons démarré il y a 13 ans -
24:15 - 24:18et remettre en question
-
24:18 - 24:20comment le système
et la structure fonctionnent -
24:20 - 24:24et ce dont le monde a besoin aujourd’hui,
-
24:24 - 24:28étant données la rapidité à laquelle
tout avance et l’utilisation des gens. -
24:28 - 24:32Nous travaillons aussi vite que possible,
-
24:32 - 24:35mais la rapidité
n’accomplira pas le travail. -
24:35 - 24:37C’est la concentration, la priorisation,
-
24:37 - 24:40la compréhension des principes
fondamentaux du réseau -
24:40 - 24:43et l’établissement
d’une structure à grande échelle -
24:43 - 24:46et s’adaptant aux changements,
-
24:46 - 24:51être ouverts et transparents
quant à où nous en sommes -
24:51 - 24:53afin de continuer
à gagner la confiance des gens. -
24:54 - 24:57Je suis fier des bases
que nous avons mises en place. -
24:57 - 25:00Je suis fier de notre direction.
-
25:01 - 25:04Nous pouvons évidemment aller plus vite,
-
25:04 - 25:08mais cela nécessitait de mettre un terme
à des trucs stupides que nous faisions. -
25:09 - 25:10CA : Très bien.
-
25:10 - 25:14Je suppose qu’il y a beaucoup de gens ici
qui, s’ils en avaient l’opportunité, -
25:14 - 25:18aimeraient vous aider
à réaliser ces changements -
25:18 - 25:20et je ne sais pas si Whitney --
-
25:20 - 25:23Jack, merci d’être venu
et d’avoir parlé si ouvertement. -
25:23 - 25:24Cela a nécessité du courage.
-
25:24 - 25:28J’apprécie ce que vous avez dit
et bon courage pour votre mission. -
25:28 - 25:30JD : Merci beaucoup.
Merci de m’avoir invité. -
25:30 - 25:33(Applaudissements)
-
25:33 - 25:34Merci.
- Title:
- Comment Twitter doit changer
- Speaker:
- Jack Dorsey
- Description:
-
Twitter peut-il être sauvé ? Dans une conversation de grande envergure avec Chris Anderson et Whitney Pennington Rodgers de TED, le PDG de Twitter Jack Dorsey discute de l'avenir de la plateforme -- reconnaissant des problèmes concernant le harcèlement et la modération et proposant des changements fondamentaux qui, il l'espère, encourageront des conversations saines et respectueuses. « Offrons-nous quelque chose que les gens apprécient chaque jour ? » demande Dorsey.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 25:47
eric vautier approved French subtitles for How Twitter needs to change | ||
eric vautier edited French subtitles for How Twitter needs to change | ||
eric vautier edited French subtitles for How Twitter needs to change | ||
Emmanuel Parfond accepted French subtitles for How Twitter needs to change | ||
Emmanuel Parfond edited French subtitles for How Twitter needs to change | ||
Emmanuel Parfond edited French subtitles for How Twitter needs to change | ||
Morgane Quilfen edited French subtitles for How Twitter needs to change | ||
Morgane Quilfen edited French subtitles for How Twitter needs to change |