Return to Video

Fake news, infobésité... l'urgence d'une écologie de l'information | Claude de Loupy | TEDxSaclay

  • 0:08 - 0:10
    Bonsoir.
  • 0:11 - 0:14
    On va donc parler d'écologie
    de l'information.
  • 0:14 - 0:16
    Si nous sommes ici tous ce soir,
  • 0:16 - 0:19
    si on est ensemble,
    c'est parce qu'on partage
  • 0:19 - 0:21
    un intérêt pour la connaissance,
  • 0:21 - 0:23
    voire une passion pour la connaissance.
  • 0:24 - 0:26
    Ça fait du bien d'apprendre.
  • 0:26 - 0:29
    Ça nous grandit, ça nous libère,
  • 0:29 - 0:31
    ça nous fait nous remettre en question.
  • 0:31 - 0:33
    Mais imaginez.
  • 0:34 - 0:37
    Imaginez que
    toutes les sources d'information
  • 0:38 - 0:39
    que vous regardez
  • 0:39 - 0:41
    soient polluées ;
  • 0:41 - 0:45
    qu'en fait, leur objectif
    ne soit pas de vous informer
  • 0:45 - 0:48
    mais soit de vous diminuer,
    de vous limiter
  • 0:49 - 0:52
    de vous rapetisser,
    de vous renfermer sur vous-même.
  • 0:54 - 0:55
    C'est cauchemardesque, non ?
  • 0:55 - 0:56
    C'est vraiment un cauchemar.
  • 0:56 - 0:58
    Je suis là pour ça ce soir,
  • 0:58 - 1:01
    parce que je pense que
    c'est vraiment vers ça qu'on va.
  • 1:02 - 1:06
    Notre système,
    notre écosystème informationnel
  • 1:06 - 1:08
    est attaqué de toutes parts,
  • 1:08 - 1:10
    et il est en danger.
  • 1:11 - 1:15
    Il est attaqué par exemple,
    par les fake news, bien évidemment.
  • 1:16 - 1:18
    Cette pollution massive, ordonnée,
  • 1:18 - 1:21
    voulue, industrialisée,
  • 1:22 - 1:28
    qui n'a pour seul objectif que de changer
    la façon dont nous pensons,
  • 1:28 - 1:30
    dont nous voulons agir, bref,
  • 1:30 - 1:32
    qui nous enlève notre libre-arbitre.
  • 1:32 - 1:33
    Et on a vu les conséquences
  • 1:34 - 1:37
    sur des élections très récemment.
  • 1:38 - 1:42
    Cet écosystème est aussi attaqué
    dans sa diversité.
  • 1:43 - 1:45
    Je n'ai même pas besoin de vous demander
  • 1:45 - 1:48
    qui parmi vous a regardé Google,
    Twitter ou Facebook aujourd'hui,
  • 1:48 - 1:51
    et qui a acheté un journal.
  • 1:51 - 1:53
    Je sais très bien
    quelle est la proportion.
  • 1:54 - 1:57
    L'information à laquelle
    nous accédons aujourd'hui
  • 1:57 - 1:59
    passe par quelques portes
  • 2:00 - 2:01
    très limitées
  • 2:02 - 2:04
    et tous les médias,
    toutes les sources d'information
  • 2:04 - 2:07
    doivent passer par ces portes
    pour pouvoir nous atteindre.
  • 2:09 - 2:12
    Quelle est la conséquence
    logique, imparable ?
  • 2:13 - 2:14
    Vous prenez les médias.
  • 2:14 - 2:17
    Eh bien, énormément de médias,
  • 2:17 - 2:18
    peut-être la majorité,
  • 2:18 - 2:20
    demandent à leurs journalistes d'écrire
  • 2:21 - 2:23
    pour Google,
  • 2:23 - 2:26
    d'écrire pour l'algorithme de Google,
  • 2:26 - 2:29
    d'employer les termes qui vont faire
    que les articles vont ressortir,
  • 2:29 - 2:33
    d'employer les titres qui vont faire
    que nous allons cliquer dessus.
  • 2:34 - 2:38
    Ça n'a plus rien à voir avec
    du journalisme, c'est même le contraire,
  • 2:38 - 2:41
    des journalistes qui écrivent
    pour des algorithmes,
  • 2:41 - 2:44
    au lieu d'écrire
    pour des hommes et des femmes.
  • 2:46 - 2:50
    Une autre attaque se fait
    sur la circulation de l'information.
  • 2:52 - 2:55
    Les algorithmes Facebook nous limitent,
  • 2:55 - 2:57
    nous renferment dans des bulles
  • 2:57 - 3:02
    en fonction de ce que l'algorithme
    pense être qui nous sommes.
  • 3:04 - 3:07
    Du coup, on voit des choses qui nous
    renforcent dans ce que nous pensons,
  • 3:07 - 3:08
    nous limitent,
  • 3:08 - 3:11
    et en fait, nous empêchent
    de nous enrichir,
  • 3:11 - 3:13
    nous empêchent d'apprendre.
  • 3:14 - 3:16
    Et tout ça,
    ça a des conséquences dramatiques
  • 3:16 - 3:20
    sur la façon dont nous évoluons,
  • 3:20 - 3:23
    sur notre progrès humain,
    sur les démocraties entre autres.
  • 3:24 - 3:27
    Et quand on remonte ça à Facebook,
  • 3:27 - 3:29
    que nous répond Mark Zuckerberg ?
  • 3:30 - 3:31
    « Mais, c'est une techno !
  • 3:32 - 3:34
    Facebook, c'est une techno !
  • 3:34 - 3:38
    On la met à disposition pour que les gens
    puissent communiquer entre eux.
  • 3:38 - 3:42
    Ce que les gens échangent entre eux,
    ce n'est pas notre responsabilité ! »
  • 3:43 - 3:44
    Quelle blague !
  • 3:45 - 3:48
    Vous avez le pouvoir d'influencer
    deux milliards de personnes
  • 3:49 - 3:51
    et vous n'êtes pas responsable ?
  • 3:52 - 3:54
    C'est absurde.
  • 3:54 - 3:56
    Évidemment que Facebook est responsable.
  • 3:56 - 3:59
    Évidemment que Mark Zuckerberg
    est responsable.
  • 4:00 - 4:03
    Et cette responsabilité,
    évidemment à un niveau moindre,
  • 4:04 - 4:05
    je la partage.
  • 4:06 - 4:07
    Je suis moi-même entrepreneur,
  • 4:07 - 4:11
    j'ai créé une entreprise avec mon associé
    qui s'appelle Sylabs
  • 4:12 - 4:14
    et qui a développé un algorithme,
  • 4:14 - 4:16
    un moteur de rédaction,
  • 4:16 - 4:18
    qui permet de produire automatiquement
  • 4:19 - 4:22
    des contenus, des textes, des articles.
  • 4:22 - 4:25
    Ces articles,
    nous les vendons à nos clients
  • 4:25 - 4:27
    qui peuvent être des médias -
  • 4:27 - 4:30
    Le Monde, France TV, Radio France
    nous utilisent -
  • 4:30 - 4:32
    qui peuvent être des sites web -
  • 4:32 - 4:34
    e-commerce, tourisme, peu importe -
  • 4:35 - 4:37
    et nous diffusons comme cela
    de l'information
  • 4:38 - 4:40
    avec ces articles.
  • 4:42 - 4:46
    On produit des centaines de milliers,
    des millions d'articles par an.
  • 4:47 - 4:50
    Est-ce que je peux me permettre de dire :
  • 4:50 - 4:51
    « Ah mais, c'est une techno !
  • 4:52 - 4:53
    Je ne suis pas responsable ! »
  • 4:54 - 4:56
    Évidemment que je suis responsable.
  • 4:56 - 4:59
    Évidemment que, à partir du moment
  • 4:59 - 5:03
    où les articles que la technologie
    de mon entreprise produit sont lus,
  • 5:03 - 5:05
    qu'ils peuvent influencer des gens,
  • 5:05 - 5:08
    évidemment que je porte
    une responsabilité.
  • 5:08 - 5:13
    Et donc, évidemment,
    je dois contrôler ce qui sort,
  • 5:13 - 5:14
    ce que nous produisons,
  • 5:14 - 5:19
    et essayer de le faire
    de manière équilibrée, saine, éthique.
  • 5:20 - 5:21
    Certains cas sont simples.
  • 5:21 - 5:23
    Quand on nous demande -
  • 5:23 - 5:26
    on l'a fait à maintes reprises
    - de produire de faux avis -
  • 5:26 - 5:27
    « Cet hôtel, il est génial,
  • 5:27 - 5:30
    mais celui-là, il est
    complétement pourri » -
  • 5:31 - 5:32
    évidemment qu'on ne peut pas faire ça.
  • 5:33 - 5:35
    Pourtant, on nous l'a demandé
    à de nombreuses reprises.
  • 5:36 - 5:37
    C'est simple : on dit non.
  • 5:37 - 5:40
    Quand on nous demande de participer
  • 5:40 - 5:43
    à la propagande d'un État
    qui se trouve très à l'ouest,
  • 5:43 - 5:44
    on a été contacté -
  • 5:44 - 5:46
    très à l'est, pardon -
  • 5:46 - 5:50
    on a été contacté par un média -
    et j'étais très content.
  • 5:50 - 5:53
    Mais quand j'ai compris que le but
    était la propagande d'un État
  • 5:53 - 5:55
    qui évidemment n'a pas
    mes idéaux démocratiques :
  • 5:56 - 5:58
    simple : « Non ! »
  • 5:59 - 6:04
    Mais il y a d'autres questions
    dont on ne connaît pas la réponse.
  • 6:04 - 6:07
    On ne sait pas, par exemple
    si on doit forcer nos clients
  • 6:07 - 6:11
    à indiquer sur nos articles
    qu'ils ont été écrits par une machine.
  • 6:12 - 6:14
    Ça se discute !
  • 6:14 - 6:17
    Est-ce qu'on peut accepter
    pour un média normal
  • 6:17 - 6:20
    avec une orientation politique
    tout à fait légitime
  • 6:21 - 6:25
    d'orienter nos articles pour suivre
    cette orientation politique ?
  • 6:25 - 6:26
    Je ne sais pas.
  • 6:27 - 6:29
    Et donc, comme je ne suis pas sûr,
  • 6:29 - 6:30
    comme je ne veux pas décider,
  • 6:31 - 6:34
    nous avons décidé
    de monter un comité d'éthique
  • 6:35 - 6:38
    composé de chercheurs,
    sociologues, journalistes,
  • 6:38 - 6:40
    pour nous aider à répondre
    à ces questions.
  • 6:41 - 6:48
    Et je suis persuadé que
    tous les producteurs d'informations,
  • 6:49 - 6:53
    les technologies de l'information,
    devraient avoir un tel comité d'éthique.
  • 6:55 - 6:57
    Il faut même aller plus loin.
  • 6:57 - 6:59
    Ces décisions-là nous concernent tous.
  • 7:00 - 7:03
    Nous devrions donc avoir la possibilité
    de nous exprimer,
  • 7:03 - 7:07
    de pouvoir dire : « Oui, OK,
    les experts ont dit quelque chose,
  • 7:07 - 7:10
    mais, les experts ne vivent pas ma vie.
  • 7:10 - 7:14
    Moi aussi, j'ai besoin
    d'exprimer mon opinion. »
  • 7:14 - 7:19
    Et, on devrait donc ouvrir
    cette discussion à tout le monde.
  • 7:19 - 7:22
    C'est-à-dire avoir un site web dans lequel
  • 7:22 - 7:25
    nous posons des questions
    et tout le monde peut y répondre
  • 7:25 - 7:28
    et tout le monde peut nous interpeller,
    vous pouvez nous interpeller.
  • 7:29 - 7:31
    En nous posant des questions
  • 7:31 - 7:35
    parce que vous vous demandez
    si ce qu'on fait est éthique ou pas.
  • 7:35 - 7:38
    Et c'est normal,
    et ça devrait être fait partout.
  • 7:39 - 7:42
    Parce qu'en fait,
    nous sommes tous responsables.
  • 7:42 - 7:44
    Cet écosystème informationnel,
  • 7:45 - 7:48
    c'est notre avenir,
    c'est la façon dont nous pensons
  • 7:48 - 7:53
    c'est ce qui va définir nos enfants.
  • 7:54 - 7:57
    Nous avons un devoir, une responsabilité,
  • 7:58 - 8:02
    pour le protéger, pour le faire évoluer
    dans le bon sens.
  • 8:02 - 8:06
    Nous avons une responsabilité
    en tant que consommateurs.
  • 8:07 - 8:09
    On regarde des articles,
    on lit les articles
  • 8:10 - 8:16
    Et puis quand l'article dit la même chose
    que ce qu'on pense, c'est cool,
  • 8:16 - 8:17
    on est content,
  • 8:17 - 8:20
    ça nous renforce dans ce qu'on pense,
  • 8:20 - 8:23
    ça nous fait penser qu'on est intelligent
    en fait, puisque c'est écrit.
  • 8:25 - 8:29
    Mais ce n'est pas parce que ça dit la même
    chose que ce qu'on pense que c'est vrai.
  • 8:30 - 8:34
    Et donc au lieu de nous rendre
    intelligent, ça nous rend bête.
  • 8:35 - 8:40
    Il est indispensable de réfléchir
    à l'information qu'on est en train de lire
  • 8:40 - 8:44
    Est-ce que ça a été écrit
    pour nous informer
  • 8:44 - 8:46
    ou est-ce que ça a été écrit
    pour nous conditionner ?
  • 8:47 - 8:48
    Quelle est la source ?
  • 8:48 - 8:50
    Qui a écrit ? Avec quel objectif ?
  • 8:51 - 8:53
    Il est nécessaire
    de se poser ces questions-là.
  • 8:54 - 8:57
    Il est nécessaire également
    de diversifier ses sources d'information.
  • 8:58 - 9:01
    Je consomme beaucoup de médias,
    je suis abonné à six,
  • 9:01 - 9:04
    parmi lesquels il y a MediaPart, Le Figaro
  • 9:04 - 9:06
    On peut difficilement faire plus éloigné.
  • 9:06 - 9:10
    Je ne suis pas toujours d'accord
    avec MediaPart, ni avec Le Figaro,
  • 9:10 - 9:14
    mais le fait d'avoir ces deux points
    de vue, parfois très opposés,
  • 9:14 - 9:16
    sur un même événement,
  • 9:17 - 9:18
    je pense que ça m'enrichit.
  • 9:18 - 9:22
    Je pense que ça me permet d'avoir
    une meilleure vision de ce qu'il se passe.
  • 9:23 - 9:26
    On a aussi une responsabilité
    en tant que producteur.
  • 9:27 - 9:28
    Quand vous faites un like,
  • 9:28 - 9:31
    quand vous partagez un article
  • 9:31 - 9:32
    ce n'est pas anodin.
  • 9:33 - 9:36
    C'est un acte social,
    c'est un acte politique.
  • 9:36 - 9:41
    Vous êtes responsable,
    nous sommes responsables,
  • 9:41 - 9:42
    des articles que nous partageons.
  • 9:43 - 9:47
    Parce que ces articles peuvent influencer
    les gens qui nous suivent.
  • 9:47 - 9:50
    Et donc, nous sommes responsables
    de cette influence.
  • 9:51 - 9:54
    Nous devons réfléchir à ce qui est fait
    quand on partage.
  • 9:54 - 9:56
    Est-ce que la source est fiable ?
  • 9:57 - 9:58
    Ou est-ce simplement cool
  • 9:58 - 10:00
    de partager quelque chose
    qui dit comme je pense ?
  • 10:01 - 10:04
    Et enfin, nous sommes responsables
  • 10:05 - 10:07
    en tant que citoyens.
  • 10:08 - 10:09
    Ne pensez pas
  • 10:11 - 10:14
    qu'on n'a pas le pouvoir et la possibilité
    de faire changer les choses.
  • 10:14 - 10:17
    Nous pouvons faire changer les choses.
  • 10:17 - 10:20
    Je dirais même que nous devons
    faire changer les choses.
  • 10:20 - 10:23
    Regardez ce qu'il s'est passé
    avec Facebook.
  • 10:24 - 10:27
    Le Pew Research Center a fait un sondage
  • 10:27 - 10:30
    quelques mois après la révélation
    du scandale Facebook.
  • 10:30 - 10:31
    Quand on a révélé que
  • 10:31 - 10:33
    Facebook avait été utilisé
  • 10:33 - 10:36
    enfin, que les données Facebook,
    nos données,
  • 10:36 - 10:37
    avaient été utilisées
  • 10:37 - 10:40
    pour influencer de manière massive
  • 10:40 - 10:42
    les élections américaines.
  • 10:43 - 10:44
    Qu'a révélé le sondage ?
  • 10:45 - 10:50
    26 % des Américains
    qui avaient un compte Facebook
  • 10:50 - 10:51
    se sont désabonnés.
  • 10:51 - 10:53
    26 %.
  • 10:54 - 10:58
    Parmi eux, 44 % de jeunes
    se sont désabonnés de Facebook.
  • 10:59 - 11:01
    Bravo !
  • 11:02 - 11:05
    C'est un vrai acte citoyen !
  • 11:05 - 11:07
    Facebook nous a trahis !
  • 11:07 - 11:11
    Facebook a donné les moyens
    de truquer nos élections.
  • 11:11 - 11:12
    On s'en va.
  • 11:15 - 11:16
    Et puis...
  • 11:17 - 11:19
    En fait, on a les moyens d'agir.
  • 11:19 - 11:20
    Rappelez-vous :
  • 11:20 - 11:23
    on parle d'écosystème de l'information,
  • 11:23 - 11:25
    mais parlons d'un autre écosystème,
  • 11:25 - 11:26
    l'écologie.
  • 11:28 - 11:34
    L'écologie, avant, c'était un truc
    de quelques hurluberlus
  • 11:34 - 11:37
    qui criaient au loup dans le désert,
    tout seuls,
  • 11:37 - 11:39
    mais petit à petit, ça a pris.
  • 11:40 - 11:42
    Petit à petit, de plus en plus de gens
  • 11:42 - 11:44
    se sont rendu compte
    qu'il y avait un vrai enjeu,
  • 11:45 - 11:46
    qu'il y avait
  • 11:47 - 11:50
    une catastrophe qui se préparait.
  • 11:50 - 11:52
    Et petit à petit, les choses ont bougé :
  • 11:52 - 11:55
    une très grande partie de la population
    mondiale a conscience que
  • 11:55 - 11:57
    nous pouvons détruire notre environnement,
  • 11:57 - 11:59
    que nous pouvons détruire le climat.
  • 12:00 - 12:03
    Et cette conscience a fait
    bouger les politiques,
  • 12:03 - 12:04
    a fait bouger les États.
  • 12:06 - 12:10
    Évidemment, tout n'est pas parfait
    dans l'écologie, on le sait bien,
  • 12:10 - 12:11
    mais ça a bougé.
  • 12:12 - 12:16
    On peut faire la même chose
    pour l'information.
  • 12:18 - 12:20
    On peut déjà agir sur nous,
    comme je l'ai dit.
  • 12:20 - 12:23
    On peut en parler autour de nous,
    je suis là pour ça.
  • 12:23 - 12:24
    Vous aussi.
  • 12:24 - 12:26
    On peut apprendre à nos enfants
  • 12:26 - 12:29
    comment traiter l'information
    qui leur arrive.
  • 12:31 - 12:33
    On peut inventer ensemble
  • 12:34 - 12:36
    une écologie de l'information.
  • 12:38 - 12:39
    Et ça vaut le coup.
  • 12:39 - 12:41
    Donc il n'y a plus qu'à y aller.
  • 12:41 - 12:42
    Merci bien.
  • 12:42 - 12:45
    (Applaudissements)
Title:
Fake news, infobésité... l'urgence d'une écologie de l'information | Claude de Loupy | TEDxSaclay
Description:

L’écosystème de l’information est menacé de toutes parts. La majorité des médias écrivent pour les algorithmes en oubliant leur mission vis-à-vis des hommes, les fake news intoxiquent les choix démocratiques, c’est une marée noire qui nous asphyxie chaque jour un peu plus. Claude de Loupy est le patron et fondateur d’une entreprise qui produit de l’information grâce à l’intelligence artificielle. Il expose ici les questions qu’il se pose et les engagements qu’il prend pour contribuer à assainir cet écosystème en péril. « Nous sommes tous responsables » dit-il, « et la bonne nouvelle c’est que nous avons le pouvoir de faire changer les choses. Agir pour une écologie de l’information, maintenant ! » Ce n'est pas seulement un mot d'ordre, mais aussi une porte ouverte pour dialoguer, réfléchir, exiger de faire autrement, une nécessité absolue pour sauvegarder notre avenir d'espèces pensantes.

Claude de Loupy est docteur en informatique appliquée au traitement automatique des langues (sémantique) et à la gestion de l’information. Après un passage dans divers organismes de recherche publics et privés, il crée avec son associée la société Syllabs dont le moteur de rédaction permet transformer des données brutes en textes. De grands médias comme Le Monde ou Radio France font appel à cette technologie conjuguant expertise humaine et intelligence artificielle. Syllabs est aujourd’hui l’un des leaders mondiaux en production automatique de contenus multilingues et fournit de grands acteurs du web, tous secteurs confondus : médias, immobilier, e-commerce, tourisme, webmarketing.

Cette présentation a été donnée lors d'un événement TEDx local utilisant le format des conférences TED mais organisé indépendamment. En savoir plus : http://ted.com/tedx

more » « less
Video Language:
French
Team:
closed TED
Project:
TEDxTalks
Duration:
12:52

French subtitles

Revisions