Return to Video

Cher Facebook, voilà comment vous détruisez la démocratie

  • 0:01 - 0:03
    Il y a environ cinq ans,
  • 0:03 - 0:05
    je me suis rendue compte
    que je devenais incapable
  • 0:05 - 0:08
    de dialoguer avec les gens
    qui ne pensaient pas comme moi.
  • 0:09 - 0:13
    L'idée de débattre des sujets sensibles
    avec mes compatriotes Américains
  • 0:13 - 0:15
    commençait à devenir plus rebutante
  • 0:15 - 0:19
    que d'aller dialoguer avec de présumés
    extrémistes étrangers.
  • 0:20 - 0:23
    Cela commençait à me rendre
    de plus en plus amère et frustrée.
  • 0:23 - 0:25
    Et d'un seul coup,
  • 0:25 - 0:27
    mon attention s'est portée
  • 0:27 - 0:29
    des problèmes de sécurité nationale
  • 0:29 - 0:30
    à essayer de comprendre
  • 0:30 - 0:36
    ce qui poussait
    notre pays vers une polarisation extrême.
  • 0:36 - 0:38
    En tant qu'ancienne agent de la CIA
    et diplomate
  • 0:38 - 0:41
    qui a travaillé des années
    sur les problématiques extrémistes,
  • 0:41 - 0:45
    j'ai commencé à craindre que ces divisions
    soient plus dangereuses pour la démocratie
  • 0:45 - 0:48
    que n'importe quelle menace étrangère.
  • 0:48 - 0:50
    J'ai donc commencé à me renseigner,
  • 0:50 - 0:51
    et j'ai commencé à m'exprimer,
  • 0:51 - 0:54
    ce qui m'a conduit
    à être engagée par Facebook
  • 0:54 - 0:57
    et finalement amenée ici, aujourd'hui,
  • 0:57 - 1:00
    pour continuer à vous prévenir
    de la façon dont ces plateformes
  • 1:00 - 1:04
    manipulent et radicalisent
    tant d'entre nous,
  • 1:04 - 1:07
    et pour parler de la reconquête
    de notre espace public.
  • 1:08 - 1:10
    En tant que diplomate,
    j'ai été envoyée au Kenya,
  • 1:10 - 1:13
    quelques années
    après les attaques du 11 septembre,
  • 1:13 - 1:15
    et j'ai dirigé ces opérations
    appelées « cœurs et âmes, »
  • 1:15 - 1:17
    près de la frontière somalienne.
  • 1:17 - 1:20
    La gros de mon travail
    était d'établir la confiance
  • 1:20 - 1:23
    entre les communautés jugées
    plus sensibles aux discours extrémistes.
  • 1:24 - 1:26
    J'ai passé des heures à boire le thé
  • 1:26 - 1:28
    avec de fervents religieux
    anti-occidentaux
  • 1:28 - 1:32
    et même à discuter
    avec quelques terroristes présumés,
  • 1:32 - 1:35
    et bien que ces rencontres commençaient
    dans la suspicion mutuelle,
  • 1:35 - 1:39
    je ne me rappelle d'aucun finissant
    dans un haussement du ton ou des insultes,
  • 1:39 - 1:40
    et parfois,
  • 1:40 - 1:43
    nous avons même travaillé ensemble
    sur des centres d'intérêt communs.
  • 1:44 - 1:48
    L'outil le plus efficace que nous avions
    était de simplement écouter, apprendre,
  • 1:48 - 1:50
    et développer de l'empathie.
  • 1:50 - 1:53
    C'est l'essence
    du travail du cœur et de l'âme,
  • 1:53 - 1:56
    car j'ai constaté de nombreuses fois
    que la plupart des gens désirent
  • 1:56 - 2:00
    se sentir écoutés,
    validés et respectés.
  • 2:00 - 2:03
    Et je crois que la plupart d'entre
    nous désirons cela.
  • 2:03 - 2:06
    Donc ce que je vois en ligne aujourd'hui
    me touche particulièrement
  • 2:06 - 2:09
    et s'avère être un problème
    bien plus difficile à résoudre.
  • 2:09 - 2:13
    Nous sommes manipulés
    par cet écosystème d'information actuel
  • 2:13 - 2:16
    qui nous pousse tellement
    à nous retrancher dans l'absolutisme,
  • 2:16 - 2:19
    que « compromis » est devenu un gros mot.
  • 2:19 - 2:21
    Parce qu'en ce moment même,
  • 2:21 - 2:23
    les entreprises de réseaux sociaux
    comme Facebook
  • 2:23 - 2:27
    tirent profit à nous diviser et à nous
    procurer des contenus personnalisés
  • 2:27 - 2:31
    qui valident et exploitent nos préjugés.
  • 2:31 - 2:34
    Leurs profits dépendent de leur capacité
    à provoquer de fortes émotions
  • 2:34 - 2:36
    pour nous garder captivés,
  • 2:36 - 2:40
    souvent en mettant en avant les personnes
    les plus provocatrices et polarisantes,
  • 2:40 - 2:45
    au point que trouver un terrain d'entente
    ne semble plus possible.
  • 2:45 - 2:49
    Et malgré une communauté croissante
    demandant désespérément du changement,
  • 2:49 - 2:52
    il est évident que les plateformes
    ne feront pas assez par eux-mêmes.
  • 2:52 - 2:55
    Les gouvernement doivent donc
    définir la responsabilité
  • 2:55 - 2:59
    des dommages causés dans le monde physique
    par ce modèle économique
  • 2:59 - 3:01
    et imposer un coût réel
  • 3:01 - 3:03
    aux effets néfastes
    affectant notre santé publique,
  • 3:03 - 3:07
    notre espace public et notre démocratie.
  • 3:07 - 3:12
    Malheureusement, cela ne sera pas en place
    à temps pour l'élection présidentielle,
  • 3:12 - 3:15
    alors je continue de sonner l'alarme,
  • 3:15 - 3:18
    car même si un jour
    nous établissons de très bonnes lois,
  • 3:18 - 3:21
    nous aurons besoin de tout le monde
    pour s'occuper de ce problème.
  • 3:21 - 3:24
    Quand j'ai porté mon attention
    des problèmes étrangers
  • 3:24 - 3:26
    à la défaillance des débats civiques
    chez nous,
  • 3:26 - 3:30
    je me suis demandée s'il était possible
    d'utiliser ces opérations « cœur et âme »
  • 3:30 - 3:32
    pour aider à réparer nos divisions.
  • 3:32 - 3:36
    Notre expérience démocratique
    sur plus de 200 ans fonctionne
  • 3:36 - 3:38
    en grande partie grâce à la possibilité
  • 3:38 - 3:43
    de débattre ouvertement et passionnément
    jusqu'à trouver la bonne solution.
  • 3:43 - 3:45
    Mais bien que je crois intimement
  • 3:45 - 3:47
    dans l’intérêt d'un débat public
    en face-à-face,
  • 3:47 - 3:49
    il ne peut plus rivaliser
  • 3:49 - 3:53
    avec les effets polarisants à l'échelle
    des réseaux sociaux d'aujourd'hui.
  • 3:53 - 3:56
    Les gens qui sont pris dans ces pièges
    de l'indignation sur les réseaux sociaux
  • 3:56 - 4:00
    ont souvent plus de mal
    à casser leurs points de vue idéologiques
  • 4:00 - 4:04
    que toutes les communautés vulnérables
    avec lesquelles j'ai travaillé.
  • 4:04 - 4:06
    Alors, quand Facebook m'a appelée en 2018,
  • 4:06 - 4:07
    et m'a offert ce poste
  • 4:07 - 4:11
    pour superviser la gestion déontologique
    des publicités politiques,
  • 4:11 - 4:13
    je me suis sentie obligée de l'accepter.
  • 4:13 - 4:16
    Je me doutais bien
    que je ne pourrais pas tout arranger,
  • 4:16 - 4:18
    mais avec une telle opportunité
  • 4:18 - 4:20
    de pouvoir mettre les choses
    dans le droit chemin,
  • 4:20 - 4:21
    il fallait au moins que j'essaie.
  • 4:23 - 4:25
    Je n'ai pas pu travailler
    sur la polarisation,
  • 4:25 - 4:29
    mais j'ai pu voir quels étaient les sujets
    les plus clivants dans notre société,
  • 4:29 - 4:33
    et donc les plus exploitables par ceux
    qui veulent interférer dans les élections,
  • 4:33 - 4:36
    ce qui était déjà la tactique des Russes
    en 2016.
  • 4:37 - 4:39
    J'ai donc commencé à poser des questions.
  • 4:39 - 4:42
    Je voulais comprendre les problèmes
    inhérents et systémiques
  • 4:42 - 4:44
    qui permettaient à tout cela d'arriver,
  • 4:44 - 4:46
    afin de comprendre comment les réparer.
  • 4:48 - 4:53
    Je crois toujours dans la force d'Internet
    pour amener plus de gens à débattre,
  • 4:53 - 4:56
    mais malgré leur but avoué
    de construire une communauté,
  • 4:56 - 4:59
    les plus grandes entreprises
    de réseaux sociaux, actuellement,
  • 4:59 - 5:03
    sont bâties à l'opposé
    du concept de débat raisonné.
  • 5:03 - 5:05
    Il n'y a aucun moyen
    de récompenser l'écoute,
  • 5:05 - 5:07
    d'encourager le débat public,
  • 5:07 - 5:11
    et de protéger les gens qui veulent
    sincèrement poser des questions,
  • 5:11 - 5:14
    dans un business où optimiser
    l'implication et le nombre d'utilisateurs
  • 5:14 - 5:17
    sont les deux principales
    mesures du succès.
  • 5:17 - 5:21
    Rien n'est fait pour aider les gens
    à prendre du recul,
  • 5:21 - 5:24
    pour construire un frein
    qui leur permette de s'arrêter,
  • 5:24 - 5:27
    de reconnaitre
    leurs réactions émotionnelles,
  • 5:27 - 5:29
    et de questionner leurs propres avis
    avant de discuter.
  • 5:31 - 5:33
    Malheureusement, en réalité,
  • 5:33 - 5:36
    les mensonges sont plus captivants
    que la vérité,
  • 5:36 - 5:39
    et le licencieux l'emporte
    sur le raisonnement basé sur les faits
  • 5:39 - 5:42
    dans un monde optimisé
    pour la viralité sans contrôle.
  • 5:43 - 5:47
    Tant que le but des algorithmes
    est de nous garder captivés,
  • 5:47 - 5:49
    ils continueront à nous donner le poison
  • 5:49 - 5:52
    qui joue sur nos pires instincts
    et faiblesses humaines.
  • 5:53 - 5:56
    Et oui, la colère, la défiance,
  • 5:56 - 5:58
    la culture de la peur, la haine :
  • 5:58 - 6:01
    aucune n'est nouvelle aux États-Unis.
  • 6:01 - 6:04
    Mais ces dernières années,
    les réseaux sociaux s'en sont emparés
  • 6:04 - 6:08
    et, de mon point de vue,
    ont dramatiquement démesuré les échelles.
  • 6:08 - 6:10
    Et Facebook le sait.
  • 6:10 - 6:13
    Un article récent
    du « Wall Street Journal » dénonce
  • 6:13 - 6:16
    un rapport interne de Facebook de 2018,
  • 6:16 - 6:20
    dans lequel était démontré
    que les algorithmes de l'entreprise
  • 6:20 - 6:23
    rendaient les groupes extrémistes
    plus visibles sur leur plateforme,
  • 6:23 - 6:26
    et polarisaient leurs utilisateurs.
  • 6:27 - 6:30
    Mais nous garder captivés
    est leur manière de gagner de l'argent.
  • 6:30 - 6:35
    Le modèle économique de l'information
    consiste en l'établissement de nos profils
  • 6:35 - 6:38
    et de nous ranger dans des catégories
    de plus en plus précises
  • 6:38 - 6:41
    afin de parfaire
    ce processus de personnalisation.
  • 6:41 - 6:45
    Nous sommes ensuite bombardés
    d'informations confirmant nos pensées,
  • 6:45 - 6:47
    renforçant nos préjugés,
  • 6:47 - 6:50
    et qui nous donne l'impression
    d'appartenir à quelque chose.
  • 6:50 - 6:54
    Ce sont les mêmes tactiques
    qu'utilisent des recruteurs terroristes
  • 6:54 - 6:56
    sur la jeunesse vulnérable,
  • 6:56 - 7:00
    bien qu'à plus petite échelle
    comparées aux réseaux sociaux,
  • 7:00 - 7:03
    le but ultime étant d'entraîner
    un comportement particulier.
  • 7:03 - 7:04
    Malheureusement,
  • 7:04 - 7:08
    Facebook ne m'a jamais donné assez
    de pouvoir pour avoir un véritable impact.
  • 7:08 - 7:12
    En fait, à mon deuxième jour, le nom
    et le rôle de mon poste ont été changés,
  • 7:12 - 7:15
    et on m'a éloigné des réunions
    de prises de décision.
  • 7:15 - 7:16
    Mes plus grands efforts,
  • 7:16 - 7:19
    essayer de bâtir un plan
    pour lutter contre la désinformation
  • 7:19 - 7:23
    et l'incitation à ne pas aller voter via
    les publicités ciblées ont été rejetés.
  • 7:23 - 7:26
    Et donc j'ai tenu à peine six mois.
  • 7:26 - 7:30
    Mais voilà la plus grande chose
    que j'ai apprise là-bas.
  • 7:30 - 7:32
    Il y a des milliers d'employés à Facebook
  • 7:32 - 7:34
    qui travaillent passionnément
    sur un produit
  • 7:34 - 7:38
    en pensant véritablement
    qu'il rend le monde meilleur,
  • 7:38 - 7:41
    mais tant que cette entreprise continue
    à littéralement bricoler
  • 7:41 - 7:44
    aux frontières de la politique de contenu
    et de la modération,
  • 7:44 - 7:49
    et ne pas considérer comment l'entièreté
    de la machine est pensée et monétisée,
  • 7:49 - 7:53
    ils ne vont jamais vraiment remédier
    à la façon dont la plateforme contribue
  • 7:53 - 7:57
    à la haine, aux divisions,
    et à la radicalisation.
  • 7:57 - 8:01
    Et c'est précisément cette conversation
    que je n'ai jamais entendue là-bas,
  • 8:01 - 8:04
    parce que cela reviendrait à devoir
    accepter fondamentalement
  • 8:04 - 8:06
    que leur construction
  • 8:06 - 8:08
    pourrait ne pas contribuer
    au bien commun social
  • 8:08 - 8:12
    et d'accepter de modifier ce produit
    et de changer de modèle économique.
  • 8:12 - 8:15
    Alors,
    qu'est-ce que nous pouvons y faire ?
  • 8:15 - 8:19
    Je ne dis pas que les réseaux sociaux
    portent toute la responsabilité
  • 8:19 - 8:21
    de l'état du monde actuel.
  • 8:21 - 8:24
    Clairement, il y a de profonds
    problèmes de société
  • 8:24 - 8:26
    qu'il nous faut résoudre.
  • 8:26 - 8:30
    Mais la réponse de Facebook,
    qui n'est qu'un miroir de notre société,
  • 8:30 - 8:34
    est une tentative un peu facile
    pour éviter toute responsabilité
  • 8:34 - 8:38
    de la manière dont leur plateforme
    accentue le contenu néfaste
  • 8:38 - 8:41
    et pousse certains utilisateurs
    vers des points de vue extrêmes.
  • 8:42 - 8:44
    Et Facebook pourrait, s'il le voulait,
  • 8:44 - 8:46
    résoudre certains de ces problèmes.
  • 8:46 - 8:48
    Ils pourraient arrêter d'amplifier
  • 8:48 - 8:50
    et recommander
    les théories conspirationnistes,
  • 8:50 - 8:53
    les groupes de haine, les pourvoyeurs
    de désinformation,
  • 8:53 - 8:57
    et, oui, dans certains cas,
    même notre président.
  • 8:57 - 9:00
    Ils pourraient arrêter d'utiliser
    les mêmes techniques de personnalisation
  • 9:00 - 9:04
    pour diffuser un discours politique que
    celles pour nous vendre des chaussures.
  • 9:04 - 9:06
    Ils pourraient apprendre
    à leurs algorithmes,
  • 9:06 - 9:09
    à se baser sur une autre mesure
    que l'implication
  • 9:09 - 9:11
    et ils pourraient mettre en place
    des protocoles
  • 9:11 - 9:14
    pour empêcher certains contenus
    de devenir viraux avant leur modération.
  • 9:15 - 9:17
    Et ils pourraient faire tout cela
  • 9:17 - 9:21
    sans devenir ce qu'ils appellent
    des arbitres de la vérité.
  • 9:21 - 9:24
    Mais ils ont bien fait comprendre
    qu'ils ne sont pas prêts
  • 9:24 - 9:27
    à faire les choses justes
    sans y être forcés,
  • 9:27 - 9:30
    et, honnêtement,
    pourquoi le feraient-ils ?
  • 9:30 - 9:32
    Leurs affaires ne cessent
    de les conforter,
  • 9:32 - 9:34
    et ils n'enfreignent pas la loi.
  • 9:34 - 9:38
    Parce qu’actuellement, il n'y a aucune loi
    aux États-Unis obligeant Facebook,
  • 9:38 - 9:40
    ou n'importe quelle entreprise
    de réseaux sociaux,
  • 9:40 - 9:42
    à protéger notre espace public,
  • 9:42 - 9:43
    notre démocratie,
  • 9:43 - 9:46
    ou même nos élections.
  • 9:46 - 9:50
    Nous avons cédé notre pouvoir de décision
    sur quelles règles écrire ou appliquer
  • 9:50 - 9:53
    aux PDGs d'entreprises lucratives
    sur Internet.
  • 9:54 - 9:56
    Est-ce que c'est ce que nous voulons ?
  • 9:56 - 9:59
    Un monde post-vérité
    où la toxicité et le tribalisme
  • 9:59 - 10:02
    coupent les ponts
    et la recherche de consensus ?
  • 10:03 - 10:07
    Je demeure optimiste sur le fait
    que nous avons toujours plus en commun
  • 10:07 - 10:10
    que ce que les médias actuels
    et l'environnement en ligne dépeignent,
  • 10:10 - 10:14
    et je crois qu'avoir une plus grande
    variété de perspectives
  • 10:14 - 10:17
    permet une démocratie plus robuste
    et plus inclusive.
  • 10:17 - 10:20
    Mais pas de cette manière-là.
  • 10:20 - 10:24
    Et cela mérite d'insister,
    je ne veux pas détruire ces entreprises.
  • 10:24 - 10:28
    Je veux juste qu'elles portent
    une certaine part de responsabilité,
  • 10:28 - 10:29
    tout comme le reste de la société.
  • 10:31 - 10:35
    Il est temps pour nos gouvernements
    de s'élever et de faire leur travail
  • 10:35 - 10:37
    en protégeant notre citoyenneté.
  • 10:37 - 10:40
    Et bien qu'il n'y aura pas de loi miracle
  • 10:40 - 10:41
    qui remettrait tout en ordre,
  • 10:41 - 10:46
    je crois que les gouvernements peuvent,
    et doivent trouver l'équilibre
  • 10:46 - 10:48
    entre protéger la liberté d'expression,
  • 10:48 - 10:52
    et tenir ces plateformes responsables
    de leurs conséquences sur la société.
  • 10:52 - 10:57
    Et ils pourraient le faire, en partie,
    en demandant une vraie transparence
  • 10:57 - 11:00
    sur la façon dont ces moteurs
    de recommandations fonctionnent,
  • 11:00 - 11:04
    et comment le traitement, l'amplification
    et le ciblage se fait.
  • 11:04 - 11:07
    Je veux que ces compagnies
    soient tenues responsables
  • 11:07 - 11:10
    non pas si un individu poste
    de la désinformation
  • 11:10 - 11:12
    ou des discours extrémistes,
  • 11:12 - 11:15
    mais pour la manière dont leurs moteurs
    de recommandation les propagent,
  • 11:15 - 11:19
    dont leurs algorithmes amènent
    les gens vers ces contenus,
  • 11:19 - 11:22
    et dont leurs outils sont utilisés
    pour cibler les gens avec ces contenus.
  • 11:23 - 11:27
    J'ai essayé de changer Facebook
    de l’intérieur, et j'ai échoué,
  • 11:27 - 11:30
    alors j'ai de nouveau utilisé ma voix
    ces dernières années
  • 11:30 - 11:33
    pour continuer à sonner cette alarme,
  • 11:33 - 11:37
    dans l'espoir d'inspirer plus de gens
    à réclamer cette responsabilité.
  • 11:37 - 11:40
    Mon message pour vous est simple :
  • 11:40 - 11:44
    faites pression sur votre gouvernement
    pour qu'il s'élève et ne cède plus
  • 11:44 - 11:47
    notre espace public
    aux intérêts commerciaux.
  • 11:47 - 11:49
    Éduquez vos amis et votre famille
  • 11:49 - 11:52
    sur la manière
    dont ils sont manipulés en ligne.
  • 11:52 - 11:56
    Obligez-vous à vous discuter
    avec ceux qui ne pensent pas comme vous.
  • 11:56 - 11:59
    Faites de ce problème une priorité.
  • 11:59 - 12:02
    Nous avons besoin de l'ensemble
    de la société pour résoudre ce problème.
  • 12:03 - 12:05
    Et mon message aux dirigeants
  • 12:05 - 12:09
    de mon ancien employeur Facebook
    est celui-ci :
  • 12:09 - 12:10
    en ce moment même,
  • 12:10 - 12:15
    les gens utilisent vos outils
    exactement comme ils ont été pensés :
  • 12:15 - 12:17
    pour planter la haine,
    la division et la défiance,
  • 12:17 - 12:21
    et vous ne faites pas que le permettre,
    vous le favorisez.
  • 12:21 - 12:25
    Et oui, il y a beaucoup
    de belles histoires, de choses positives
  • 12:25 - 12:28
    sur votre plateforme qui viennent
    du monde entier,
  • 12:28 - 12:31
    mais cela n'excuse en rien tout le reste.
  • 12:31 - 12:34
    Et cela ne fait qu'empirer
    à l'approche des élections,
  • 12:34 - 12:36
    et encore plus concernant,
  • 12:36 - 12:38
    nous faisons face
    à notre plus grande crise potentielle,
  • 12:38 - 12:42
    si les résultats ne sont pas acceptés,
    et si la violence éclate.
  • 12:42 - 12:45
    Donc quand, en 2021,
    vous direz encore une fois :
  • 12:45 - 12:47
    « Nous savons
    que nous allons devoir faire mieux, »
  • 12:47 - 12:50
    je veux que vous vous rappeliez ce moment,
  • 12:50 - 12:53
    parce que ce n'est plus
    seulement quelques voix isolées.
  • 12:53 - 12:56
    Militants des droits civiques,
    intellectuels,
  • 12:56 - 12:59
    journalistes, publicitaires,
    vos propres employés,
  • 12:59 - 13:01
    vous crient de toutes parts
  • 13:01 - 13:03
    que vos politiques
    et vos pratiques commerciales
  • 13:03 - 13:06
    sont néfastes pour les gens
    et pour la démocratie.
  • 13:07 - 13:09
    Vos décisions vous appartiennent,
  • 13:09 - 13:13
    vous ne pourrez plus dire
    que vous ne l'aviez pas vu venir.
  • 13:14 - 13:15
    Merci.
Title:
Cher Facebook, voilà comment vous détruisez la démocratie
Speaker:
Yaël Eisenstat
Description:

« Sur internet, les mensonges sont plus captivants que la vérité, » nous dit Yaël Eisenstat, ancienne agent de la CIA et employée de Facebook. « Tant que le but des algorithmes sont de nous maintenir captivés, ils continueront de nous donner le poison qui joue sur nos pires instincts et nos faiblesses humaines. » Dans cette conférence osée, Eisenstat explore la façon dont les entreprises de réseaux sociaux comme Facebook, mettent en avant les contenus provocateurs, ce qui contribue à une culture d'un clivage et d'une défiance politique - et elle appelle les gouvernements à tenir ces plateformes responsables afin de protéger les débats publics et la démocratie.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

French subtitles

Revisions