Return to Video

Comment pouvons-nous transformer l'Internet en un lieu de confiance ?

  • 0:02 - 0:04
    Peu importe qui vous êtes
    ou où vous habitez,
  • 0:04 - 0:06
    je suis convaincue que vous avez
    au moins un parent
  • 0:06 - 0:09
    qui adore transférer ces courriels.
  • 0:09 - 0:11
    Vous savez de quoi je parle,
  • 0:11 - 0:14
    ceux avec des affirmations douteuses
    ou des vidéos de conspiration.
  • 0:14 - 0:17
    Vous les avez sans doute bloqués
    sur Facebook
  • 0:17 - 0:19
    parce qu'ils partagent ce genre de posts.
  • 0:19 - 0:21
    C'est l'illustration d'une banane
  • 0:21 - 0:23
    avec une étrange croix rouge
    en son cœur.
  • 0:23 - 0:26
    Le message avertit le lecteur
  • 0:26 - 0:28
    d'éviter de manger un fruit pareil
  • 0:28 - 0:30
    car on y aurait injecté du sang
  • 0:30 - 0:32
    contaminé par le virus du VIH.
  • 0:32 - 0:35
    L'intitulé du message est simplement :
  • 0:35 - 0:37
    « Transférez pour sauver des vies ! »
  • 0:38 - 0:41
    Les vérificateurs de faits tentent
    de le désamorcer depuis des années
  • 0:41 - 0:44
    mais c'est le genre de rumeurs
    qui ne veulent pas s'éteindre.
  • 0:44 - 0:45
    Une rumeur zombie.
  • 0:46 - 0:48
    Naturellement, totalement fausse.
  • 0:48 - 0:51
    Cela pourrait être risible
    et on pourrait se demander
  • 0:51 - 0:53
    qui va bien pouvoir croire ça.
  • 0:53 - 0:55
    C'est précisément une rumeur zombie
  • 0:55 - 0:59
    car elle se nourrit des peurs les plus
    profondes des gens quant à leur sécurité
  • 0:59 - 1:01
    et celles des personnes
    qui leur sont chères.
  • 1:02 - 1:05
    Quand on passe autant de temps
    que moi à étudier la désinformation,
  • 1:05 - 1:08
    on comprend vite qu'il s'agit d'un exemple
    parmi tant d'autres
  • 1:08 - 1:11
    qui fait appel aux craintes
    et vulnérabilités des gens.
  • 1:11 - 1:16
    Tous les jours, partout dans le monde,
    des nouveaux mèmes sur Instagram
  • 1:16 - 1:19
    encouragent les parents
    à ne pas vacciner leurs enfants,
  • 1:19 - 1:23
    des vidéos sur YouTube expliquent
    que le changement climatique est un hoax.
  • 1:23 - 1:28
    Sur toutes les plateformes, un nombre
    infini de messages diabolisent l'autre
  • 1:28 - 1:31
    sur base de leur race, de leur religion
    ou de leur orientation sexuelle.
  • 1:32 - 1:35
    Bienvenue au cœur d'un des plus
    grands défis de notre temps.
  • 1:36 - 1:40
    Comment perpétuer un Internet
    fondé sur la liberté d'expression
  • 1:40 - 1:43
    tout en garantissant que le contenu
    qui y est propagé
  • 1:43 - 1:47
    ne cause pas de préjudice irréversible
    à nos démocraties, à nos communautés
  • 1:47 - 1:49
    et à notre bien-être physique et mental ?
  • 1:50 - 1:52
    Nous vivons en effet
    dans l'ère de l'information
  • 1:52 - 1:56
    et pourtant notre devise principale,
    celle dont on dépend tous, l'information,
  • 1:56 - 1:58
    n'est plus considérée totalement fiable
  • 1:58 - 2:00
    et semble parfois même
    franchement dangereuse.
  • 2:01 - 2:05
    C'est partiellement dû à la croissance
    monstrueuse des plateformes sociales
  • 2:05 - 2:06
    qui nous permettent de parcourir
  • 2:06 - 2:09
    contenus mensongers et des faits
    l'un à côté de l'autre
  • 2:09 - 2:12
    mais sans les signaux traditionnels
    de véracité.
  • 2:12 - 2:16
    Et bon dieu, notre langage à ce sujet
    est affreusement confus.
  • 2:16 - 2:19
    On est encore obsédé
    par le terme « intox »,
  • 2:19 - 2:22
    même s'il est particulièrement obscur
  • 2:22 - 2:25
    et utilisé pour décrire
    des phénomènes très différents :
  • 2:25 - 2:28
    mensonges, rumeurs, hoax,
    conspirations et propagande.
  • 2:29 - 2:32
    Je souhaite tant qu'on cesse
    d'utiliser cette expression
  • 2:32 - 2:35
    adoptée par les politiciens
    partout dans le monde,
  • 2:35 - 2:36
    de gauche comme de droite,
  • 2:36 - 2:39
    et brandie comme une arme
    contre une presse libre et indépendante.
  • 2:40 - 2:45
    (Applaudissements)
  • 2:45 - 2:48
    Car un journalisme professionnel
    est plus que jamais indispensable.
  • 2:49 - 2:52
    De plus, la plupart de ces contenus
    ne se déguisent même pas en info.
  • 2:52 - 2:55
    Ce sont des mèmes, des vidéos
    et des posts sociaux.
  • 2:55 - 2:58
    La plupart ne sont pas faux,
    ils sont trompeurs.
  • 2:58 - 3:01
    On a tendance à se concentrer
    sur ce qui est vrai ou faux.
  • 3:01 - 3:05
    Toutefois, la préoccupation principale
    est le détournement abusif du contexte.
  • 3:07 - 3:09
    Car la désinformation la plus efficace
  • 3:09 - 3:12
    contient toujours une part de vérité.
  • 3:12 - 3:14
    Prenons l'exemple de Londres.
  • 3:14 - 3:17
    Un tweet circule largement
    depuis mars 2017,
  • 3:17 - 3:21
    juste après l'attentat terroriste
    sur le pont de Westminster.
  • 3:21 - 3:23
    Cette photo est vraie,
    ce n'est pas un montage.
  • 3:23 - 3:26
    On a interviewé la femme
    qui apparaît sur la photo par la suite
  • 3:26 - 3:29
    et elle a expliqué qu'elle était
    tétanisée de peur.
  • 3:29 - 3:30
    Elle parlait à une personne chère
  • 3:30 - 3:33
    et détournait le regard
    de la victime par respect.
  • 3:33 - 3:37
    Mais la photo a circulé largement
    avec un titre islamophobe
  • 3:37 - 3:40
    et de multiples hashtags dont : #BanIslam.
  • 3:40 - 3:43
    Si vous étiez employé par Twitter,
    comment réagiriez-vous ?
  • 3:43 - 3:46
    Vous le supprimeriez ou le laisseriez ?
  • 3:47 - 3:50
    Ma réaction viscérale et émotionnelle
    serait de le supprimer.
  • 3:50 - 3:52
    Je déteste le choix de l'angle.
  • 3:53 - 3:55
    Mais la liberté d'expression
    est un droit de l'homme.
  • 3:55 - 3:58
    Et si on commence à censurer
    les propos qui nous mettent mal à l'aise,
  • 3:58 - 4:00
    c'est le début des problèmes.
  • 4:00 - 4:02
    Ce cas semble évident
  • 4:02 - 4:04
    mais la plupart ne le sont pas.
  • 4:04 - 4:06
    La ligne de démarcation est floue.
  • 4:06 - 4:08
    Qu'est-ce qui sépare
    une décision bien intentionnée
  • 4:08 - 4:10
    de la censure ?
  • 4:11 - 4:14
    Nous savons à présent
    que ce compte, Texas Lone Star,
  • 4:14 - 4:17
    faisait partie d'une campagne
    russe de désinformation
  • 4:17 - 4:19
    qui a été démantelée depuis lors.
  • 4:19 - 4:21
    Cela change-t-il votre opinion ?
  • 4:21 - 4:23
    Ça influencerait la mienne
  • 4:23 - 4:25
    car il s'agit d'une campagne orchestrée
  • 4:25 - 4:26
    pour semer la zizanie.
  • 4:26 - 4:28
    Et pour ceux et celles qui pensent
  • 4:28 - 4:31
    que l'intelligence artificielle
    va résoudre tous nos problèmes,
  • 4:31 - 4:33
    Nous sommes tous d'accord pour dire
  • 4:33 - 4:36
    que le temps où l'IA pourra comprendre ça
    n'est pas encore venu.
  • 4:37 - 4:40
    Je vais d'abord vous présenter
    trois enjeux entrelacés
  • 4:40 - 4:42
    qui rendent tout ça si compliqué.
  • 4:42 - 4:45
    Ensuite, je vous proposerai quelques
    manières de réfléchir à ces défis.
  • 4:45 - 4:49
    D'abord, notre relation à l'information
    n'est pas rationnelle,
  • 4:49 - 4:51
    elle est émotionnelle.
  • 4:51 - 4:55
    Il n'est pas vrai que davantage de faits
    vont amender les choses
  • 4:55 - 4:58
    car les algorithmes déterminent
    ce que nous voyons,
  • 4:58 - 5:01
    ils sont conçus pour récompenser
    nos réactions émotionnelles.
  • 5:01 - 5:02
    Or, quand on a peur,
  • 5:02 - 5:05
    les narrations simplifiées à outrance,
    les théories de conspiration
  • 5:05 - 5:09
    et les termes qui diabolisent l'autre
    sont encore plus efficaces.
  • 5:10 - 5:12
    De surcroît, le modèle
    de fonctionnement de ces plateformes
  • 5:12 - 5:14
    est basé sur l'attention.
  • 5:14 - 5:18
    Ça signifie que leurs algorithmes
    sont conçus pour favoriser l'émotion.
  • 5:18 - 5:23
    Ensuite, la plupart des discours
    que j'évoque sont légaux.
  • 5:23 - 5:25
    La situation serait différente
  • 5:25 - 5:27
    si on parlait d'images de pédophilie
  • 5:27 - 5:29
    ou de contenu incitant à la violence.
  • 5:29 - 5:32
    Il est parfaitement légal
    de poster un mensonge patent.
  • 5:33 - 5:37
    Toutefois, on continue de censurer
    les contenus problématiques ou nuisibles
  • 5:37 - 5:40
    sans définition claire
    de ce que ça signifie.
  • 5:40 - 5:41
    Mark Zuckerberg n'y échappe pas
  • 5:41 - 5:45
    quand il plaide en faveur d'une
    réglementation mondiale des discours.
  • 5:45 - 5:47
    Je crains que les gouvernements
  • 5:47 - 5:48
    partout dans le monde
  • 5:48 - 5:51
    mettent en place
    des décisions politiques précipitées
  • 5:51 - 5:54
    qui pourraient en réalité générer
    des conséquences bien plus graves
  • 5:54 - 5:56
    en matière d'expression.
  • 5:56 - 6:00
    Même si nous pouvions décider
    quels contenus conserver ou éliminer,
  • 6:00 - 6:02
    nous n'avons jamais eu tant de contenus.
  • 6:02 - 6:04
    Chaque seconde, des millions de contenus
  • 6:04 - 6:06
    sont téléchargés partout dans le monde,
  • 6:06 - 6:08
    dans des langues différentes
  • 6:08 - 6:10
    et basés sur des contextes
    culturels multiples.
  • 6:10 - 6:13
    Nous n'avons aucun mécanisme efficace
  • 6:13 - 6:15
    pour modérer les discours à cette échelle,
  • 6:15 - 6:17
    que ce soit avec des humains
    ou de la technologie.
  • 6:18 - 6:22
    Troisièmement, ces sociétés,
    Google, Twitter, Facebook, WhatsApp,
  • 6:22 - 6:25
    font part d'un écosystème
    d'information plus vaste.
  • 6:25 - 6:28
    On a tendance à leur faire
    porter le blâme mais en fait,
  • 6:28 - 6:32
    les médias et les représentants politiques
    peuvent jouer un rôle aussi important
  • 6:32 - 6:35
    pour amplifier les rumeurs
    et les conspirations qui les arrangent.
  • 6:36 - 6:41
    Nous aussi, nous sommes susceptibles
    de diffuser du contenu trompeur
  • 6:41 - 6:42
    sans le vouloir.
  • 6:42 - 6:44
    On accentue la pollution.
  • 6:45 - 6:48
    Nous cherchons tous un remède miracle.
  • 6:48 - 6:50
    Mais ça n'existe pas.
  • 6:50 - 6:54
    Toute solution devra être mise en place
    à une échelle massive, celle d'Internet,
  • 6:54 - 6:58
    et les plateformes en fait,
    sont habituées à cette échelle.
  • 6:58 - 7:01
    Mais pouvons-nous et devrions-nous
    les autoriser à gérer ces problèmes ?
  • 7:02 - 7:03
    Certes, elles essaient.
  • 7:03 - 7:07
    Nous sommes presque tous d'accord de
    ne pas souhaiter voir des multinationales
  • 7:07 - 7:10
    devenir les gardiens de la vérité
    et de l'équité sur Internet.
  • 7:10 - 7:12
    Les plateformes seront
    d'accord aussi, je crois.
  • 7:12 - 7:15
    Actuellement, elles sont en train
    de s'accorder des bons points.
  • 7:15 - 7:16
    Elles nous disent
  • 7:16 - 7:19
    que leurs interventions sont efficaces.
  • 7:19 - 7:22
    Mais elles rédigent elles-mêmes
    leurs rapports sur leur transparence.
  • 7:22 - 7:25
    Il n'y a donc aucun moyen indépendant
    pour vérifier les faits.
  • 7:26 - 7:30
    (Applaudissements)
  • 7:30 - 7:33
    Pour être franche, la plupart
    des changements que nous observons
  • 7:33 - 7:36
    ont lieu après une enquête journalistique
  • 7:36 - 7:37
    et la mise à nu de preuves de biais
  • 7:37 - 7:41
    ou de contenus qui enfreignent
    les règles de fonctionnement.
  • 7:41 - 7:45
    Bien sûr, ces entreprises doivent jouer
    un rôle crucial dans le processus
  • 7:45 - 7:47
    mais elles ne peuvent pas le contrôler.
  • 7:48 - 7:50
    Qu'en est-il alors des gouvernements ?
  • 7:50 - 7:53
    Beaucoup fondent leur dernier espoir
    dans une réglementation mondiale
  • 7:53 - 7:56
    pour rendre notre écosystème propre.
  • 7:56 - 7:59
    Mais les politiciens
    peinent à rester à jour
  • 7:59 - 8:01
    avec la vélocité
    de l'évolution technologique.
  • 8:01 - 8:03
    Pire, ils travaillent dans le noir
  • 8:03 - 8:05
    car ils n'ont pas accès aux données
  • 8:05 - 8:08
    pour comprendre ce qu'il se passe
    sur ces plateformes.
  • 8:08 - 8:11
    Et puis, en quel gouvernement
    pourrions-nous faire confiance ?
  • 8:11 - 8:14
    La réaction doit être mondiale
    et pas au niveau national.
  • 8:15 - 8:18
    Le maillon manquant, c'est nous.
  • 8:18 - 8:21
    Nous, femmes et hommes qui
    utilisons ces technologies tous les jours.
  • 8:21 - 8:24
    Saurons-nous concevoir
    une nouvelle infrastructure
  • 8:24 - 8:26
    pour véhiculer
    une information de qualité ?
  • 8:26 - 8:28
    Je pense que oui.
  • 8:28 - 8:31
    J'ai quelques idées pour y arriver.
  • 8:31 - 8:34
    D'abord, si nous sommes
    déterminés à engager le public,
  • 8:34 - 8:37
    Wikipedia pourrait
    être une source d'inspiration.
  • 8:37 - 8:38
    Ils ont montré que c'est faisable.
  • 8:38 - 8:40
    Ce n'est pas parfait
  • 8:40 - 8:42
    mais ils ont démontré
    qu'avec les structures adéquates,
  • 8:42 - 8:45
    une vision mondiale
    et une transparence totale,
  • 8:45 - 8:48
    on peut construire quelque chose
    qui gagnera la confiance du public.
  • 8:48 - 8:51
    Nous devons trouver un moyen
    de puiser dans la sagesse collective
  • 8:51 - 8:53
    et l'expérience de tous les utilisateurs,
  • 8:54 - 8:56
    particulièrement les femmes,
    les personnes de couleur
  • 8:56 - 8:58
    et les minorités.
  • 8:58 - 8:58
    Pourquoi ?
  • 8:58 - 9:01
    Parce qu'ils sont spécialisés
    dans la haine et la désinformation
  • 9:02 - 9:05
    dès lors qu'ils sont la cible
    de ces campagnes depuis si longtemps.
  • 9:05 - 9:07
    Cela fait des années
    qu'ils sonnent l'alarme
  • 9:07 - 9:09
    mais personne ne les écoute.
  • 9:09 - 9:10
    Cela doit changer.
  • 9:11 - 9:15
    Est-il possible de construire
    un Wikipedia de la confiance ?
  • 9:15 - 9:19
    Comment les utilisateurs pourraient-ils
    nous nourrir de leurs idées ?
  • 9:19 - 9:23
    Des idées au sujet des décisions complexes
    de la modération de contenu.
  • 9:23 - 9:28
    Un retour quand les plateformes décident
    de mettre en œuvre des changements.
  • 9:28 - 9:32
    Ensuite, l'expérience que les gens ont
    de l'information est personnalisée.
  • 9:32 - 9:35
    Mon fil de Facebook
    est différent du vôtre.
  • 9:35 - 9:38
    Vos recommandations Youtube
    sont différentes des miennes.
  • 9:38 - 9:40
    Ceci rend impossible
    l'analyse en profondeur
  • 9:40 - 9:42
    des informations vues par les gens.
  • 9:43 - 9:44
    On pourrait imaginer
  • 9:44 - 9:49
    de créer une sorte de répertoire ouvert
    pour les données anonymisées
  • 9:49 - 9:52
    qui prenne en considération
    vie privée et éthique.
  • 9:52 - 9:54
    Imaginez le potentiel de compréhension
  • 9:54 - 9:57
    issu de la création d'un réseau mondial
    de citoyens engagés
  • 9:57 - 10:01
    qui souhaitent faire don
    de leurs données sociales à la science.
  • 10:01 - 10:03
    Nous ignorons en effet
  • 10:03 - 10:06
    les conséquences à long terme
    de la haine et de la désinformation
  • 10:06 - 10:08
    sur l'état d'esprit et les comportements.
  • 10:08 - 10:09
    Et ce que nous en savons
  • 10:09 - 10:12
    provient d'études
    réalisées aux États-Unis,
  • 10:12 - 10:14
    alors que le problème est mondial.
  • 10:14 - 10:16
    Nous devons aussi remédier à ça.
  • 10:16 - 10:17
    Troisièmement,
  • 10:17 - 10:20
    comment relier toutes les parties ?
  • 10:20 - 10:23
    Aucun secteur seul, encore moins une ONG,
    une start-up ou un gouvernement
  • 10:23 - 10:25
    ne pourra résoudre ça.
  • 10:25 - 10:27
    Mais de nombreuses personnes
    intelligentes dans le monde
  • 10:27 - 10:30
    s'attaquent à ces défis
    dans les salles de rédaction,
  • 10:30 - 10:33
    la société civile, le monde académique,
    les communautés activistes.
  • 10:33 - 10:34
    En voici quelques-uns.
  • 10:34 - 10:37
    Certains élaborent des indicateurs
    de crédibilité des contenus.
  • 10:37 - 10:38
    D'autres vérifient les faits
  • 10:38 - 10:42
    pour dégrader le taux de référencement
    des allégations, vidéos et images fausses.
  • 10:42 - 10:45
    J'ai participé à la création
    d'une ONG, First Draft,
  • 10:45 - 10:47
    qui collabore avec des salles
    de rédaction dans le monde
  • 10:47 - 10:51
    pour les aider à élaborer des programmes
    collaboratifs d'investigation.
  • 10:51 - 10:54
    Dennis Hillis, un programmateur,
  • 10:54 - 10:56
    conçoit un nouveau système appelé
    The Underlay,
  • 10:56 - 10:59
    qui sera l'archive de toutes
    les déclarations publiques de faits
  • 10:59 - 11:02
    reliées à leurs sources
    afin que le public et les algorithmes
  • 11:02 - 11:04
    puissent mieux évaluer
    ce qui est crédible.
  • 11:05 - 11:08
    Des éducateurs dans le monde
    testent diverses techniques
  • 11:08 - 11:12
    pour aiguiser l'esprit critique des gens
    par rapport aux contenus.
  • 11:13 - 11:16
    Tous ces efforts sont impressionnants
    mais ils sont dans des silos
  • 11:16 - 11:18
    et la plupart sont lamentablement
    sous-financés.
  • 11:19 - 11:21
    Des centaines de personnes brillantes
  • 11:21 - 11:22
    travaillent dans ces entreprises
  • 11:22 - 11:25
    mais à nouveau, leurs efforts
    ne sont pas consolidés
  • 11:25 - 11:29
    car ils développent des solutions
    différentes aux mêmes problèmes.
  • 11:29 - 11:31
    Comment associer ces personnes
  • 11:31 - 11:35
    dans un seul lieu physique,
    pendant quelques jours ou semaines,
  • 11:35 - 11:38
    pour leur permettre de réfléchir
    ensemble à ces problèmes
  • 11:38 - 11:39
    mais avec leur propre perspective ?
  • 11:39 - 11:40
    Est-ce possible ?
  • 11:40 - 11:44
    Est-il possible de créer une réponse
    ambitieuse et coordonnée,
  • 11:44 - 11:47
    à la hauteur de l'échelle
    et de la complexité de ce problème ?
  • 11:48 - 11:49
    J'en suis convaincue.
  • 11:49 - 11:53
    Ensemble, reconstruisons
    nos fondations communes de l'information.
  • 11:53 - 11:54
    Merci.
  • 11:54 - 11:58
    (Applaudissements)
Title:
Comment pouvons-nous transformer l'Internet en un lieu de confiance ?
Speaker:
Claire Wardle
Description:

Comment empêcher la diffusion de contenus mensongers et parfois dangereux sur Internet tout en perpétuant sa liberté d'expression ?

Claire Wardle est spécialiste en désinformation et elle explore les défis récents liés à la pollution de notre environnement en ligne. Elle trace les lignes pour transformer l'Internet en un espace de confiance, avec la contribution de tous ses usagers. « Ensemble, reconstruisons nos bases communes de l'information, » nous propose-t-elle.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

French subtitles

Revisions