YouTube

Got a YouTube account?

New: enable viewer-created translations and captions on your YouTube channel!

French subtitles

← Fake news, infobésité... l'urgence d'une écologie de l'information | Claude de Loupy | TEDxSaclay

Get Embed Code
3 Languages

Download

Showing Revision 8 created 06/13/2019 by eric vautier.

  1. Bonsoir.
  2. On va donc parler d'écologie
    de l'information.
  3. Si nous sommes ici tous ce soir,
  4. si on est ensemble,
    c'est parce qu'on partage
  5. un intérêt pour la connaissance,
  6. voire une passion pour la connaissance.
  7. Ça fait du bien d'apprendre.
  8. Ça nous grandit, ça nous libère,
  9. ça nous fait nous remettre en question.
  10. Mais imaginez.
  11. Imaginez que
    toutes les sources d'information
  12. que vous regardez
  13. soient polluées ;
  14. qu'en fait, leur objectif
    ne soit pas de vous informer
  15. mais soit de vous diminuer,
    de vous limiter
  16. de vous rapetisser,
    de vous renfermer sur vous-même.
  17. C'est cauchemardesque, non ?
  18. C'est vraiment un cauchemar.
  19. Je suis là pour ça ce soir,
  20. parce que je pense que
    c'est vraiment vers ça qu'on va.
  21. Notre système,
    notre écosystème informationnel
  22. est attaqué de toutes parts,
  23. et il est en danger.
  24. Il est attaqué par exemple,
    par les fake news, bien évidemment.
  25. Cette pollution massive, ordonnée,
  26. voulue, industrialisée,
  27. qui n'a pour seul objectif que de changer
    la façon dont nous pensons,
  28. dont nous voulons agir, bref,
  29. qui nous enlève notre libre-arbitre.
  30. Et on a vu les conséquences
  31. sur des élections très récemment.
  32. Cet écosystème est aussi attaqué
    dans sa diversité.
  33. Je n'ai même pas besoin de vous demander
  34. qui parmi vous a regardé Google,
    Twitter ou Facebook aujourd'hui,
  35. et qui a acheté un journal.
  36. Je sais très bien
    quelle est la proportion.
  37. L'information à laquelle
    nous accédons aujourd'hui
  38. passe par quelques portes
  39. très limitées
  40. et tous les médias,
    toutes les sources d'information
  41. doivent passer par ces portes
    pour pouvoir nous atteindre.
  42. Quelle est la conséquence
    logique, imparable ?
  43. Vous prenez les médias.
  44. Eh bien, énormément de médias,
  45. peut-être la majorité,
  46. demandent à leurs journalistes d'écrire
  47. pour Google,
  48. d'écrire pour l'algorithme de Google,
  49. d'employer les termes qui vont faire
    que les articles vont ressortir,
  50. d'employer les titres qui vont faire
    que nous allons cliquer dessus.
  51. Ça n'a plus rien à voir avec
    du journalisme, c'est même le contraire,
  52. des journalistes qui écrivent
    pour des algorithmes,
  53. au lieu d'écrire
    pour des hommes et des femmes.
  54. Une autre attaque se fait
    sur la circulation de l'information.
  55. Les algorithmes Facebook nous limitent,
  56. nous renferment dans des bulles
  57. en fonction de ce que l'algorithme
    pense être qui nous sommes.
  58. Du coup, on voit des choses qui nous
    renforcent dans ce que nous pensons,
  59. nous limitent,
  60. et en fait, nous empêchent
    de nous enrichir,
  61. nous empêchent d'apprendre.
  62. Et tout ça,
    ça a des conséquences dramatiques
  63. sur la façon dont nous évoluons,
  64. sur notre progrès humain,
    sur les démocraties entre autres.
  65. Et quand on remonte ça à Facebook,
  66. que nous répond Mark Zuckerberg ?
  67. « Mais, c'est une techno !
  68. Facebook, c'est une techno !
  69. On la met à disposition pour que les gens
    puissent communiquer entre eux.
  70. Ce que les gens échangent entre eux,
    ce n'est pas notre responsabilité ! »
  71. Quelle blague !
  72. Vous avez le pouvoir d'influencer
    deux milliards de personnes
  73. et vous n'êtes pas responsable ?
  74. C'est absurde.
  75. Évidemment que Facebook est responsable.
  76. Évidemment que Mark Zuckerberg
    est responsable.
  77. Et cette responsabilité,
    évidemment à un niveau moindre,
  78. je la partage.
  79. Je suis moi-même entrepreneur,
  80. j'ai créé une entreprise avec mon associé
    qui s'appelle Sylabs
  81. et qui a développé un algorithme,
  82. un moteur de rédaction,
  83. qui permet de produire automatiquement
  84. des contenus, des textes, des articles.
  85. Ces articles,
    nous les vendons à nos clients
  86. qui peuvent être des médias -
  87. Le Monde, France TV, Radio France
    nous utilisent -
  88. qui peuvent être des sites web -
  89. e-commerce, tourisme, peu importe -
  90. et nous diffusons comme cela
    de l'information
  91. avec ces articles.
  92. On produit des centaines de milliers,
    des millions d'articles par an.
  93. Est-ce que je peux me permettre de dire :
  94. « Ah mais, c'est une techno !
  95. Je ne suis pas responsable ! »
  96. Évidemment que je suis responsable.
  97. Évidemment que, à partir du moment
  98. où les articles que la technologie
    de mon entreprise produit sont lus,
  99. qu'ils peuvent influencer des gens,
  100. évidemment que je porte
    une responsabilité.
  101. Et donc, évidemment,
    je dois contrôler ce qui sort,
  102. ce que nous produisons,
  103. et essayer de le faire
    de manière équilibrée, saine, éthique.
  104. Certains cas sont simples.
  105. Quand on nous demande -
  106. on l'a fait à maintes reprises
    - de produire de faux avis -
  107. « Cet hôtel, il est génial,
  108. mais celui-là, il est
    complétement pourri » -
  109. évidemment qu'on ne peut pas faire ça.
  110. Pourtant, on nous l'a demandé
    à de nombreuses reprises.
  111. C'est simple : on dit non.
  112. Quand on nous demande de participer
  113. à la propagande d'un État
    qui se trouve très à l'ouest,
  114. on a été contacté -
  115. très à l'est, pardon -
  116. on a été contacté par un média -
    et j'étais très content.
  117. Mais quand j'ai compris que le but
    était la propagande d'un État
  118. qui évidemment n'a pas
    mes idéaux démocratiques :
  119. simple : « Non ! »
  120. Mais il y a d'autres questions
    dont on ne connaît pas la réponse.
  121. On ne sait pas, par exemple
    si on doit forcer nos clients
  122. à indiquer sur nos articles
    qu'ils ont été écrits par une machine.
  123. Ça se discute !
  124. Est-ce qu'on peut accepter
    pour un média normal
  125. avec une orientation politique
    tout à fait légitime
  126. d'orienter nos articles pour suivre
    cette orientation politique ?
  127. Je ne sais pas.
  128. Et donc, comme je ne suis pas sûr,
  129. comme je ne veux pas décider,
  130. nous avons décidé
    de monter un comité d'éthique
  131. composé de chercheurs,
    sociologues, journalistes,
  132. pour nous aider à répondre
    à ces questions.
  133. Et je suis persuadé que
    tous les producteurs d'informations,
  134. les technologies de l'information,
    devraient avoir un tel comité d'éthique.
  135. Il faut même aller plus loin.
  136. Ces décisions-là nous concernent tous.
  137. Nous devrions donc avoir la possibilité
    de nous exprimer,
  138. de pouvoir dire : « Oui, OK,
    les experts ont dit quelque chose,
  139. mais, les experts ne vivent pas ma vie.
  140. Moi aussi, j'ai besoin
    d'exprimer mon opinion. »
  141. Et, on devrait donc ouvrir
    cette discussion à tout le monde.
  142. C'est-à-dire avoir un site web dans lequel
  143. nous posons des questions
    et tout le monde peut y répondre
  144. et tout le monde peut nous interpeller,
    vous pouvez nous interpeller.
  145. En nous posant des questions
  146. parce que vous vous demandez
    si ce qu'on fait est éthique ou pas.
  147. Et c'est normal,
    et ça devrait être fait partout.
  148. Parce qu'en fait,
    nous sommes tous responsables.
  149. Cet écosystème informationnel,
  150. c'est notre avenir,
    c'est la façon dont nous pensons
  151. c'est ce qui va définir nos enfants.
  152. Nous avons un devoir, une responsabilité,
  153. pour le protéger, pour le faire évoluer
    dans le bon sens.
  154. Nous avons une responsabilité
    en tant que consommateurs.
  155. On regarde des articles,
    on lit les articles
  156. Et puis quand l'article dit la même chose
    que ce qu'on pense, c'est cool,
  157. on est content,
  158. ça nous renforce dans ce qu'on pense,
  159. ça nous fait penser qu'on est intelligent
    en fait, puisque c'est écrit.
  160. Mais ce n'est pas parce que ça dit la même
    chose que ce qu'on pense que c'est vrai.
  161. Et donc au lieu de nous rendre
    intelligent, ça nous rend bête.
  162. Il est indispensable de réfléchir
    à l'information qu'on est en train de lire
  163. Est-ce que ça a été écrit
    pour nous informer
  164. ou est-ce que ça a été écrit
    pour nous conditionner ?
  165. Quelle est la source ?
  166. Qui a écrit ? Avec quel objectif ?
  167. Il est nécessaire
    de se poser ces questions-là.
  168. Il est nécessaire également
    de diversifier ses sources d'information.
  169. Je consomme beaucoup de médias,
    je suis abonné à six,
  170. parmi lesquels il y a MediaPart, Le Figaro
  171. On peut difficilement faire plus éloigné.
  172. Je ne suis pas toujours d'accord
    avec MediaPart, ni avec Le Figaro,
  173. mais le fait d'avoir ces deux points
    de vue, parfois très opposés,
  174. sur un même événement,
  175. je pense que ça m'enrichit.
  176. Je pense que ça me permet d'avoir
    une meilleure vision de ce qu'il se passe.
  177. On a aussi une responsabilité
    en tant que producteur.
  178. Quand vous faites un like,
  179. quand vous partagez un article
  180. ce n'est pas anodin.
  181. C'est un acte social,
    c'est un acte politique.
  182. Vous êtes responsable,
    nous sommes responsables,
  183. des articles que nous partageons.
  184. Parce que ces articles peuvent influencer
    les gens qui nous suivent.
  185. Et donc, nous sommes responsables
    de cette influence.
  186. Nous devons réfléchir à ce qui est fait
    quand on partage.
  187. Est-ce que la source est fiable ?
  188. Ou est-ce simplement cool
  189. de partager quelque chose
    qui dit comme je pense ?
  190. Et enfin, nous sommes responsables
  191. en tant que citoyens.
  192. Ne pensez pas
  193. qu'on n'a pas le pouvoir et la possibilité
    de faire changer les choses.
  194. Nous pouvons faire changer les choses.
  195. Je dirais même que nous devons
    faire changer les choses.
  196. Regardez ce qu'il s'est passé
    avec Facebook.
  197. Le Pew Research Center a fait un sondage
  198. quelques mois après la révélation
    du scandale Facebook.
  199. Quand on a révélé que
  200. Facebook avait été utilisé
  201. enfin, que les données Facebook,
    nos données,
  202. avaient été utilisées
  203. pour influencer de manière massive
  204. les élections américaines.
  205. Qu'a révélé le sondage ?
  206. 26 % des Américains
    qui avaient un compte Facebook
  207. se sont désabonnés.
  208. 26 %.
  209. Parmi eux, 44 % de jeunes
    se sont désabonnés de Facebook.
  210. Bravo !
  211. C'est un vrai acte citoyen !
  212. Facebook nous a trahis !
  213. Facebook a donné les moyens
    de truquer nos élections.
  214. On s'en va.
  215. Et puis...
  216. En fait, on a les moyens d'agir.
  217. Rappelez-vous :
  218. on parle d'écosystème de l'information,
  219. mais parlons d'un autre écosystème,
  220. l'écologie.
  221. L'écologie, avant, c'était un truc
    de quelques hurluberlus
  222. qui criaient au loup dans le désert,
    tout seuls,
  223. mais petit à petit, ça a pris.
  224. Petit à petit, de plus en plus de gens
  225. se sont rendu compte
    qu'il y avait un vrai enjeu,
  226. qu'il y avait
  227. une catastrophe qui se préparait.
  228. Et petit à petit, les choses ont bougé :
  229. une très grande partie de la population
    mondiale a conscience que
  230. nous pouvons détruire notre environnement,
  231. que nous pouvons détruire le climat.
  232. Et cette conscience a fait
    bouger les politiques,
  233. a fait bouger les États.
  234. Évidemment, tout n'est pas parfait
    dans l'écologie, on le sait bien,
  235. mais ça a bougé.
  236. On peut faire la même chose
    pour l'information.
  237. On peut déjà agir sur nous,
    comme je l'ai dit.
  238. On peut en parler autour de nous,
    je suis là pour ça.
  239. Vous aussi.
  240. On peut apprendre à nos enfants
  241. comment traiter l'information
    qui leur arrive.
  242. On peut inventer ensemble
  243. une écologie de l'information.
  244. Et ça vaut le coup.
  245. Donc il n'y a plus qu'à y aller.
  246. Merci bien.
  247. (Applaudissements)