Cher Facebook, voilà comment vous détruisez la démocratie
-
0:01 - 0:03Il y a environ cinq ans,
-
0:03 - 0:05je me suis rendue compte
que je devenais incapable -
0:05 - 0:08de dialoguer avec les gens
qui ne pensaient pas comme moi. -
0:09 - 0:13L'idée de débattre des sujets sensibles
avec mes compatriotes Américains -
0:13 - 0:15commençait à devenir plus rebutante
-
0:15 - 0:19que d'aller dialoguer avec de présumés
extrémistes étrangers. -
0:20 - 0:23Cela commençait à me rendre
de plus en plus amère et frustrée. -
0:23 - 0:25Et d'un seul coup,
-
0:25 - 0:27mon attention s'est portée
-
0:27 - 0:29des problèmes de sécurité nationale
-
0:29 - 0:30à essayer de comprendre
-
0:30 - 0:36ce qui poussait
notre pays vers une polarisation extrême. -
0:36 - 0:38En tant qu'ancienne agent de la CIA
et diplomate -
0:38 - 0:41qui a travaillé des années
sur les problématiques extrémistes, -
0:41 - 0:45j'ai commencé à craindre que ces divisions
soient plus dangereuses pour la démocratie -
0:45 - 0:48que n'importe quelle menace étrangère.
-
0:48 - 0:50J'ai donc commencé à me renseigner,
-
0:50 - 0:51et j'ai commencé à m'exprimer,
-
0:51 - 0:54ce qui m'a conduit
à être engagée par Facebook -
0:54 - 0:57et finalement amenée ici, aujourd'hui,
-
0:57 - 1:00pour continuer à vous prévenir
de la façon dont ces plateformes -
1:00 - 1:04manipulent et radicalisent
tant d'entre nous, -
1:04 - 1:07et pour parler de la reconquête
de notre espace public. -
1:08 - 1:10En tant que diplomate,
j'ai été envoyée au Kenya, -
1:10 - 1:13quelques années
après les attaques du 11 septembre, -
1:13 - 1:15et j'ai dirigé ces opérations
appelées « cœurs et âmes, » -
1:15 - 1:17près de la frontière somalienne.
-
1:17 - 1:20La gros de mon travail
était d'établir la confiance -
1:20 - 1:23entre les communautés jugées
plus sensibles aux discours extrémistes. -
1:24 - 1:26J'ai passé des heures à boire le thé
-
1:26 - 1:28avec de fervents religieux
anti-occidentaux -
1:28 - 1:32et même à discuter
avec quelques terroristes présumés, -
1:32 - 1:35et bien que ces rencontres commençaient
dans la suspicion mutuelle, -
1:35 - 1:39je ne me rappelle d'aucun finissant
dans un haussement du ton ou des insultes, -
1:39 - 1:40et parfois,
-
1:40 - 1:43nous avons même travaillé ensemble
sur des centres d'intérêt communs. -
1:44 - 1:48L'outil le plus efficace que nous avions
était de simplement écouter, apprendre, -
1:48 - 1:50et développer de l'empathie.
-
1:50 - 1:53C'est l'essence
du travail du cœur et de l'âme, -
1:53 - 1:56car j'ai constaté de nombreuses fois
que la plupart des gens désirent -
1:56 - 2:00se sentir écoutés,
validés et respectés. -
2:00 - 2:03Et je crois que la plupart d'entre
nous désirons cela. -
2:03 - 2:06Donc ce que je vois en ligne aujourd'hui
me touche particulièrement -
2:06 - 2:09et s'avère être un problème
bien plus difficile à résoudre. -
2:09 - 2:13Nous sommes manipulés
par cet écosystème d'information actuel -
2:13 - 2:16qui nous pousse tellement
à nous retrancher dans l'absolutisme, -
2:16 - 2:19que « compromis » est devenu un gros mot.
-
2:19 - 2:21Parce qu'en ce moment même,
-
2:21 - 2:23les entreprises de réseaux sociaux
comme Facebook -
2:23 - 2:27tirent profit à nous diviser et à nous
procurer des contenus personnalisés -
2:27 - 2:31qui valident et exploitent nos préjugés.
-
2:31 - 2:34Leurs profits dépendent de leur capacité
à provoquer de fortes émotions -
2:34 - 2:36pour nous garder captivés,
-
2:36 - 2:40souvent en mettant en avant les personnes
les plus provocatrices et polarisantes, -
2:40 - 2:45au point que trouver un terrain d'entente
ne semble plus possible. -
2:45 - 2:49Et malgré une communauté croissante
demandant désespérément du changement, -
2:49 - 2:52il est évident que les plateformes
ne feront pas assez par eux-mêmes. -
2:52 - 2:55Les gouvernement doivent donc
définir la responsabilité -
2:55 - 2:59des dommages causés dans le monde physique
par ce modèle économique -
2:59 - 3:01et imposer un coût réel
-
3:01 - 3:03aux effets néfastes
affectant notre santé publique, -
3:03 - 3:07notre espace public et notre démocratie.
-
3:07 - 3:12Malheureusement, cela ne sera pas en place
à temps pour l'élection présidentielle, -
3:12 - 3:15alors je continue de sonner l'alarme,
-
3:15 - 3:18car même si un jour
nous établissons de très bonnes lois, -
3:18 - 3:21nous aurons besoin de tout le monde
pour s'occuper de ce problème. -
3:21 - 3:24Quand j'ai porté mon attention
des problèmes étrangers -
3:24 - 3:26à la défaillance des débats civiques
chez nous, -
3:26 - 3:30je me suis demandée s'il était possible
d'utiliser ces opérations « cœur et âme » -
3:30 - 3:32pour aider à réparer nos divisions.
-
3:32 - 3:36Notre expérience démocratique
sur plus de 200 ans fonctionne -
3:36 - 3:38en grande partie grâce à la possibilité
-
3:38 - 3:43de débattre ouvertement et passionnément
jusqu'à trouver la bonne solution. -
3:43 - 3:45Mais bien que je crois intimement
-
3:45 - 3:47dans l’intérêt d'un débat public
en face-à-face, -
3:47 - 3:49il ne peut plus rivaliser
-
3:49 - 3:53avec les effets polarisants à l'échelle
des réseaux sociaux d'aujourd'hui. -
3:53 - 3:56Les gens qui sont pris dans ces pièges
de l'indignation sur les réseaux sociaux -
3:56 - 4:00ont souvent plus de mal
à casser leurs points de vue idéologiques -
4:00 - 4:04que toutes les communautés vulnérables
avec lesquelles j'ai travaillé. -
4:04 - 4:06Alors, quand Facebook m'a appelée en 2018,
-
4:06 - 4:07et m'a offert ce poste
-
4:07 - 4:11pour superviser la gestion déontologique
des publicités politiques, -
4:11 - 4:13je me suis sentie obligée de l'accepter.
-
4:13 - 4:16Je me doutais bien
que je ne pourrais pas tout arranger, -
4:16 - 4:18mais avec une telle opportunité
-
4:18 - 4:20de pouvoir mettre les choses
dans le droit chemin, -
4:20 - 4:21il fallait au moins que j'essaie.
-
4:23 - 4:25Je n'ai pas pu travailler
sur la polarisation, -
4:25 - 4:29mais j'ai pu voir quels étaient les sujets
les plus clivants dans notre société, -
4:29 - 4:33et donc les plus exploitables par ceux
qui veulent interférer dans les élections, -
4:33 - 4:36ce qui était déjà la tactique des Russes
en 2016. -
4:37 - 4:39J'ai donc commencé à poser des questions.
-
4:39 - 4:42Je voulais comprendre les problèmes
inhérents et systémiques -
4:42 - 4:44qui permettaient à tout cela d'arriver,
-
4:44 - 4:46afin de comprendre comment les réparer.
-
4:48 - 4:53Je crois toujours dans la force d'Internet
pour amener plus de gens à débattre, -
4:53 - 4:56mais malgré leur but avoué
de construire une communauté, -
4:56 - 4:59les plus grandes entreprises
de réseaux sociaux, actuellement, -
4:59 - 5:03sont bâties à l'opposé
du concept de débat raisonné. -
5:03 - 5:05Il n'y a aucun moyen
de récompenser l'écoute, -
5:05 - 5:07d'encourager le débat public,
-
5:07 - 5:11et de protéger les gens qui veulent
sincèrement poser des questions, -
5:11 - 5:14dans un business où optimiser
l'implication et le nombre d'utilisateurs -
5:14 - 5:17sont les deux principales
mesures du succès. -
5:17 - 5:21Rien n'est fait pour aider les gens
à prendre du recul, -
5:21 - 5:24pour construire un frein
qui leur permette de s'arrêter, -
5:24 - 5:27de reconnaitre
leurs réactions émotionnelles, -
5:27 - 5:29et de questionner leurs propres avis
avant de discuter. -
5:31 - 5:33Malheureusement, en réalité,
-
5:33 - 5:36les mensonges sont plus captivants
que la vérité, -
5:36 - 5:39et le licencieux l'emporte
sur le raisonnement basé sur les faits -
5:39 - 5:42dans un monde optimisé
pour la viralité sans contrôle. -
5:43 - 5:47Tant que le but des algorithmes
est de nous garder captivés, -
5:47 - 5:49ils continueront à nous donner le poison
-
5:49 - 5:52qui joue sur nos pires instincts
et faiblesses humaines. -
5:53 - 5:56Et oui, la colère, la défiance,
-
5:56 - 5:58la culture de la peur, la haine :
-
5:58 - 6:01aucune n'est nouvelle aux États-Unis.
-
6:01 - 6:04Mais ces dernières années,
les réseaux sociaux s'en sont emparés -
6:04 - 6:08et, de mon point de vue,
ont dramatiquement démesuré les échelles. -
6:08 - 6:10Et Facebook le sait.
-
6:10 - 6:13Un article récent
du « Wall Street Journal » dénonce -
6:13 - 6:16un rapport interne de Facebook de 2018,
-
6:16 - 6:20dans lequel était démontré
que les algorithmes de l'entreprise -
6:20 - 6:23rendaient les groupes extrémistes
plus visibles sur leur plateforme, -
6:23 - 6:26et polarisaient leurs utilisateurs.
-
6:27 - 6:30Mais nous garder captivés
est leur manière de gagner de l'argent. -
6:30 - 6:35Le modèle économique de l'information
consiste en l'établissement de nos profils -
6:35 - 6:38et de nous ranger dans des catégories
de plus en plus précises -
6:38 - 6:41afin de parfaire
ce processus de personnalisation. -
6:41 - 6:45Nous sommes ensuite bombardés
d'informations confirmant nos pensées, -
6:45 - 6:47renforçant nos préjugés,
-
6:47 - 6:50et qui nous donne l'impression
d'appartenir à quelque chose. -
6:50 - 6:54Ce sont les mêmes tactiques
qu'utilisent des recruteurs terroristes -
6:54 - 6:56sur la jeunesse vulnérable,
-
6:56 - 7:00bien qu'à plus petite échelle
comparées aux réseaux sociaux, -
7:00 - 7:03le but ultime étant d'entraîner
un comportement particulier. -
7:03 - 7:04Malheureusement,
-
7:04 - 7:08Facebook ne m'a jamais donné assez
de pouvoir pour avoir un véritable impact. -
7:08 - 7:12En fait, à mon deuxième jour, le nom
et le rôle de mon poste ont été changés, -
7:12 - 7:15et on m'a éloigné des réunions
de prises de décision. -
7:15 - 7:16Mes plus grands efforts,
-
7:16 - 7:19essayer de bâtir un plan
pour lutter contre la désinformation -
7:19 - 7:23et l'incitation à ne pas aller voter via
les publicités ciblées ont été rejetés. -
7:23 - 7:26Et donc j'ai tenu à peine six mois.
-
7:26 - 7:30Mais voilà la plus grande chose
que j'ai apprise là-bas. -
7:30 - 7:32Il y a des milliers d'employés à Facebook
-
7:32 - 7:34qui travaillent passionnément
sur un produit -
7:34 - 7:38en pensant véritablement
qu'il rend le monde meilleur, -
7:38 - 7:41mais tant que cette entreprise continue
à littéralement bricoler -
7:41 - 7:44aux frontières de la politique de contenu
et de la modération, -
7:44 - 7:49et ne pas considérer comment l'entièreté
de la machine est pensée et monétisée, -
7:49 - 7:53ils ne vont jamais vraiment remédier
à la façon dont la plateforme contribue -
7:53 - 7:57à la haine, aux divisions,
et à la radicalisation. -
7:57 - 8:01Et c'est précisément cette conversation
que je n'ai jamais entendue là-bas, -
8:01 - 8:04parce que cela reviendrait à devoir
accepter fondamentalement -
8:04 - 8:06que leur construction
-
8:06 - 8:08pourrait ne pas contribuer
au bien commun social -
8:08 - 8:12et d'accepter de modifier ce produit
et de changer de modèle économique. -
8:12 - 8:15Alors,
qu'est-ce que nous pouvons y faire ? -
8:15 - 8:19Je ne dis pas que les réseaux sociaux
portent toute la responsabilité -
8:19 - 8:21de l'état du monde actuel.
-
8:21 - 8:24Clairement, il y a de profonds
problèmes de société -
8:24 - 8:26qu'il nous faut résoudre.
-
8:26 - 8:30Mais la réponse de Facebook,
qui n'est qu'un miroir de notre société, -
8:30 - 8:34est une tentative un peu facile
pour éviter toute responsabilité -
8:34 - 8:38de la manière dont leur plateforme
accentue le contenu néfaste -
8:38 - 8:41et pousse certains utilisateurs
vers des points de vue extrêmes. -
8:42 - 8:44Et Facebook pourrait, s'il le voulait,
-
8:44 - 8:46résoudre certains de ces problèmes.
-
8:46 - 8:48Ils pourraient arrêter d'amplifier
-
8:48 - 8:50et recommander
les théories conspirationnistes, -
8:50 - 8:53les groupes de haine, les pourvoyeurs
de désinformation, -
8:53 - 8:57et, oui, dans certains cas,
même notre président. -
8:57 - 9:00Ils pourraient arrêter d'utiliser
les mêmes techniques de personnalisation -
9:00 - 9:04pour diffuser un discours politique que
celles pour nous vendre des chaussures. -
9:04 - 9:06Ils pourraient apprendre
à leurs algorithmes, -
9:06 - 9:09à se baser sur une autre mesure
que l'implication -
9:09 - 9:11et ils pourraient mettre en place
des protocoles -
9:11 - 9:14pour empêcher certains contenus
de devenir viraux avant leur modération. -
9:15 - 9:17Et ils pourraient faire tout cela
-
9:17 - 9:21sans devenir ce qu'ils appellent
des arbitres de la vérité. -
9:21 - 9:24Mais ils ont bien fait comprendre
qu'ils ne sont pas prêts -
9:24 - 9:27à faire les choses justes
sans y être forcés, -
9:27 - 9:30et, honnêtement,
pourquoi le feraient-ils ? -
9:30 - 9:32Leurs affaires ne cessent
de les conforter, -
9:32 - 9:34et ils n'enfreignent pas la loi.
-
9:34 - 9:38Parce qu’actuellement, il n'y a aucune loi
aux États-Unis obligeant Facebook, -
9:38 - 9:40ou n'importe quelle entreprise
de réseaux sociaux, -
9:40 - 9:42à protéger notre espace public,
-
9:42 - 9:43notre démocratie,
-
9:43 - 9:46ou même nos élections.
-
9:46 - 9:50Nous avons cédé notre pouvoir de décision
sur quelles règles écrire ou appliquer -
9:50 - 9:53aux PDGs d'entreprises lucratives
sur Internet. -
9:54 - 9:56Est-ce que c'est ce que nous voulons ?
-
9:56 - 9:59Un monde post-vérité
où la toxicité et le tribalisme -
9:59 - 10:02coupent les ponts
et la recherche de consensus ? -
10:03 - 10:07Je demeure optimiste sur le fait
que nous avons toujours plus en commun -
10:07 - 10:10que ce que les médias actuels
et l'environnement en ligne dépeignent, -
10:10 - 10:14et je crois qu'avoir une plus grande
variété de perspectives -
10:14 - 10:17permet une démocratie plus robuste
et plus inclusive. -
10:17 - 10:20Mais pas de cette manière-là.
-
10:20 - 10:24Et cela mérite d'insister,
je ne veux pas détruire ces entreprises. -
10:24 - 10:28Je veux juste qu'elles portent
une certaine part de responsabilité, -
10:28 - 10:29tout comme le reste de la société.
-
10:31 - 10:35Il est temps pour nos gouvernements
de s'élever et de faire leur travail -
10:35 - 10:37en protégeant notre citoyenneté.
-
10:37 - 10:40Et bien qu'il n'y aura pas de loi miracle
-
10:40 - 10:41qui remettrait tout en ordre,
-
10:41 - 10:46je crois que les gouvernements peuvent,
et doivent trouver l'équilibre -
10:46 - 10:48entre protéger la liberté d'expression,
-
10:48 - 10:52et tenir ces plateformes responsables
de leurs conséquences sur la société. -
10:52 - 10:57Et ils pourraient le faire, en partie,
en demandant une vraie transparence -
10:57 - 11:00sur la façon dont ces moteurs
de recommandations fonctionnent, -
11:00 - 11:04et comment le traitement, l'amplification
et le ciblage se fait. -
11:04 - 11:07Je veux que ces compagnies
soient tenues responsables -
11:07 - 11:10non pas si un individu poste
de la désinformation -
11:10 - 11:12ou des discours extrémistes,
-
11:12 - 11:15mais pour la manière dont leurs moteurs
de recommandation les propagent, -
11:15 - 11:19dont leurs algorithmes amènent
les gens vers ces contenus, -
11:19 - 11:22et dont leurs outils sont utilisés
pour cibler les gens avec ces contenus. -
11:23 - 11:27J'ai essayé de changer Facebook
de l’intérieur, et j'ai échoué, -
11:27 - 11:30alors j'ai de nouveau utilisé ma voix
ces dernières années -
11:30 - 11:33pour continuer à sonner cette alarme,
-
11:33 - 11:37dans l'espoir d'inspirer plus de gens
à réclamer cette responsabilité. -
11:37 - 11:40Mon message pour vous est simple :
-
11:40 - 11:44faites pression sur votre gouvernement
pour qu'il s'élève et ne cède plus -
11:44 - 11:47notre espace public
aux intérêts commerciaux. -
11:47 - 11:49Éduquez vos amis et votre famille
-
11:49 - 11:52sur la manière
dont ils sont manipulés en ligne. -
11:52 - 11:56Obligez-vous à vous discuter
avec ceux qui ne pensent pas comme vous. -
11:56 - 11:59Faites de ce problème une priorité.
-
11:59 - 12:02Nous avons besoin de l'ensemble
de la société pour résoudre ce problème. -
12:03 - 12:05Et mon message aux dirigeants
-
12:05 - 12:09de mon ancien employeur Facebook
est celui-ci : -
12:09 - 12:10en ce moment même,
-
12:10 - 12:15les gens utilisent vos outils
exactement comme ils ont été pensés : -
12:15 - 12:17pour planter la haine,
la division et la défiance, -
12:17 - 12:21et vous ne faites pas que le permettre,
vous le favorisez. -
12:21 - 12:25Et oui, il y a beaucoup
de belles histoires, de choses positives -
12:25 - 12:28sur votre plateforme qui viennent
du monde entier, -
12:28 - 12:31mais cela n'excuse en rien tout le reste.
-
12:31 - 12:34Et cela ne fait qu'empirer
à l'approche des élections, -
12:34 - 12:36et encore plus concernant,
-
12:36 - 12:38nous faisons face
à notre plus grande crise potentielle, -
12:38 - 12:42si les résultats ne sont pas acceptés,
et si la violence éclate. -
12:42 - 12:45Donc quand, en 2021,
vous direz encore une fois : -
12:45 - 12:47« Nous savons
que nous allons devoir faire mieux, » -
12:47 - 12:50je veux que vous vous rappeliez ce moment,
-
12:50 - 12:53parce que ce n'est plus
seulement quelques voix isolées. -
12:53 - 12:56Militants des droits civiques,
intellectuels, -
12:56 - 12:59journalistes, publicitaires,
vos propres employés, -
12:59 - 13:01vous crient de toutes parts
-
13:01 - 13:03que vos politiques
et vos pratiques commerciales -
13:03 - 13:06sont néfastes pour les gens
et pour la démocratie. -
13:07 - 13:09Vos décisions vous appartiennent,
-
13:09 - 13:13vous ne pourrez plus dire
que vous ne l'aviez pas vu venir. -
13:14 - 13:15Merci.
- Title:
- Cher Facebook, voilà comment vous détruisez la démocratie
- Speaker:
- Yaël Eisenstat
- Description:
-
« Sur internet, les mensonges sont plus captivants que la vérité, » nous dit Yaël Eisenstat, ancienne agent de la CIA et employée de Facebook. « Tant que le but des algorithmes sont de nous maintenir captivés, ils continueront de nous donner le poison qui joue sur nos pires instincts et nos faiblesses humaines. » Dans cette conférence osée, Eisenstat explore la façon dont les entreprises de réseaux sociaux comme Facebook, mettent en avant les contenus provocateurs, ce qui contribue à une culture d'un clivage et d'une défiance politique - et elle appelle les gouvernements à tenir ces plateformes responsables afin de protéger les débats publics et la démocratie.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
Claire Ghyselen approved French subtitles for Dear Facebook, this is how you're breaking democracy | ||
Claire Ghyselen accepted French subtitles for Dear Facebook, this is how you're breaking democracy | ||
Claire Ghyselen edited French subtitles for Dear Facebook, this is how you're breaking democracy | ||
Lucien Cauchy edited French subtitles for Dear Facebook, this is how you're breaking democracy | ||
Lucien Cauchy edited French subtitles for Dear Facebook, this is how you're breaking democracy | ||
Lucien Cauchy edited French subtitles for Dear Facebook, this is how you're breaking democracy | ||
Lucien Cauchy edited French subtitles for Dear Facebook, this is how you're breaking democracy | ||
Clemence Ortuno edited French subtitles for Dear Facebook, this is how you're breaking democracy |