WEBVTT 00:00:08.332 --> 00:00:09.749 Bonsoir. 00:00:10.899 --> 00:00:13.576 On va donc parler d'écologie de l'information. 00:00:14.443 --> 00:00:16.312 Si nous sommes ici tous ce soir, 00:00:16.314 --> 00:00:18.997 si on est ensemble, c'est parce qu'on partage 00:00:18.998 --> 00:00:20.865 un intérêt pour la connaissance, 00:00:20.866 --> 00:00:23.419 voire une passion pour la connaissance. 00:00:24.349 --> 00:00:25.974 Ça fait du bien d'apprendre. 00:00:26.264 --> 00:00:28.803 Ça nous grandit, ça nous libère, 00:00:29.287 --> 00:00:31.224 ça nous fait nous remettre en question. 00:00:31.350 --> 00:00:32.778 Mais imaginez. 00:00:34.052 --> 00:00:36.997 Imaginez que toutes les sources d'information 00:00:37.787 --> 00:00:39.393 que vous regardez 00:00:39.394 --> 00:00:40.660 soient polluées ; 00:00:41.123 --> 00:00:45.130 qu'en fait, leur objectif ne soit pas de vous informer 00:00:45.131 --> 00:00:48.310 mais soit de vous diminuer, de vous limiter 00:00:48.861 --> 00:00:52.143 de vous rapetisser, de vous renfermer sur vous-même. 00:00:53.511 --> 00:00:55.002 C'est cauchemardesque, non ? 00:00:55.003 --> 00:00:56.445 C'est vraiment un cauchemar. 00:00:56.446 --> 00:00:57.815 Je suis là pour ça ce soir, 00:00:57.816 --> 00:01:00.535 parce que je pense que c'est vraiment vers ça qu'on va. 00:01:02.033 --> 00:01:05.516 Notre système, notre écosystème informationnel 00:01:05.516 --> 00:01:07.810 est attaqué de toutes parts, 00:01:08.263 --> 00:01:09.884 et il est en danger. 00:01:11.072 --> 00:01:15.206 Il est attaqué par exemple, par les fake news, bien évidemment. 00:01:15.500 --> 00:01:18.223 Cette pollution massive, ordonnée, 00:01:18.448 --> 00:01:20.988 voulue, industrialisée, 00:01:21.861 --> 00:01:27.590 qui n'a pour seul objectif que de changer la façon dont nous pensons, 00:01:27.591 --> 00:01:29.566 dont nous voulons agir, bref, 00:01:29.567 --> 00:01:31.586 qui nous enlève notre libre-arbitre. 00:01:32.132 --> 00:01:33.431 Et on a vu les conséquences 00:01:34.392 --> 00:01:36.620 sur des élections très récemment. 00:01:37.876 --> 00:01:42.044 Cet écosystème est aussi attaqué dans sa diversité. 00:01:43.034 --> 00:01:44.955 Je n'ai même pas besoin de vous demander 00:01:44.956 --> 00:01:48.328 qui parmi vous a regardé Google, Twitter ou Facebook aujourd'hui, 00:01:48.329 --> 00:01:50.520 et qui a acheté un journal. 00:01:51.137 --> 00:01:53.223 Je sais très bien quelle est la proportion. 00:01:54.023 --> 00:01:56.962 L'information à laquelle nous accédons aujourd'hui 00:01:56.963 --> 00:01:58.780 passe par quelques portes 00:01:59.826 --> 00:02:01.082 très limitées 00:02:01.899 --> 00:02:04.462 et tous les médias, toutes les sources d'information 00:02:04.463 --> 00:02:07.402 doivent passer par ces portes pour pouvoir nous atteindre. 00:02:08.937 --> 00:02:12.025 Quelle est la conséquence logique, imparable ? 00:02:12.597 --> 00:02:13.764 Vous prenez les médias. 00:02:14.313 --> 00:02:16.515 Eh bien, énormément de médias, 00:02:16.516 --> 00:02:17.685 peut-être la majorité, 00:02:17.686 --> 00:02:20.312 demandent à leurs journalistes d'écrire 00:02:20.884 --> 00:02:22.725 pour Google, 00:02:22.726 --> 00:02:25.591 d'écrire pour l'algorithme de Google, 00:02:25.592 --> 00:02:29.400 d'employer les termes qui vont faire que les articles vont ressortir, 00:02:29.401 --> 00:02:32.970 d'employer les titres qui vont faire que nous allons cliquer dessus. 00:02:34.190 --> 00:02:37.867 Ça n'a plus rien à voir avec du journalisme, c'est même le contraire, 00:02:38.103 --> 00:02:40.682 des journalistes qui écrivent pour des algorithmes, 00:02:41.381 --> 00:02:43.620 au lieu d'écrire pour des hommes et des femmes. 00:02:46.276 --> 00:02:49.948 Une autre attaque se fait sur la circulation de l'information. 00:02:52.427 --> 00:02:54.862 Les algorithmes Facebook nous limitent, 00:02:54.863 --> 00:02:56.991 nous renferment dans des bulles 00:02:56.992 --> 00:03:01.611 en fonction de ce que l'algorithme pense être qui nous sommes. 00:03:03.643 --> 00:03:07.247 Du coup, on voit des choses qui nous renforcent dans ce que nous pensons, 00:03:07.252 --> 00:03:08.320 nous limitent, 00:03:08.321 --> 00:03:10.713 et en fait, nous empêchent de nous enrichir, 00:03:10.714 --> 00:03:12.776 nous empêchent d'apprendre. 00:03:13.796 --> 00:03:16.442 Et tout ça, ça a des conséquences dramatiques 00:03:16.443 --> 00:03:19.506 sur la façon dont nous évoluons, 00:03:19.507 --> 00:03:23.267 sur notre progrès humain, sur les démocraties entre autres. 00:03:24.268 --> 00:03:26.547 Et quand on remonte ça à Facebook, 00:03:26.894 --> 00:03:28.518 que nous répond Mark Zuckerberg ? 00:03:29.695 --> 00:03:30.945 « Mais, c'est une techno ! 00:03:31.843 --> 00:03:34.066 Facebook, c'est une techno ! 00:03:34.444 --> 00:03:38.150 On la met à disposition pour que les gens puissent communiquer entre eux. 00:03:38.151 --> 00:03:41.628 Ce que les gens échangent entre eux, ce n'est pas notre responsabilité ! » 00:03:42.627 --> 00:03:43.882 Quelle blague ! 00:03:45.092 --> 00:03:48.266 Vous avez le pouvoir d'influencer deux milliards de personnes 00:03:49.345 --> 00:03:50.869 et vous n'êtes pas responsable ? 00:03:52.469 --> 00:03:53.667 C'est absurde. 00:03:53.668 --> 00:03:55.603 Évidemment que Facebook est responsable. 00:03:55.604 --> 00:03:59.077 Évidemment que Mark Zuckerberg est responsable. 00:03:59.762 --> 00:04:03.420 Et cette responsabilité, évidemment à un niveau moindre, 00:04:03.761 --> 00:04:04.872 je la partage. 00:04:05.769 --> 00:04:07.221 Je suis moi-même entrepreneur, 00:04:07.222 --> 00:04:10.545 j'ai créé une entreprise avec mon associé qui s'appelle Sylabs 00:04:11.507 --> 00:04:13.949 et qui a développé un algorithme, 00:04:14.375 --> 00:04:15.687 un moteur de rédaction, 00:04:16.428 --> 00:04:18.349 qui permet de produire automatiquement 00:04:19.257 --> 00:04:21.966 des contenus, des textes, des articles. 00:04:22.484 --> 00:04:25.424 Ces articles, nous les vendons à nos clients 00:04:25.425 --> 00:04:27.118 qui peuvent être des médias - 00:04:27.215 --> 00:04:30.309 Le Monde, France TV, Radio France nous utilisent - 00:04:30.310 --> 00:04:31.961 qui peuvent être des sites web - 00:04:31.962 --> 00:04:33.978 e-commerce, tourisme, peu importe - 00:04:34.577 --> 00:04:36.834 et nous diffusons comme cela de l'information 00:04:38.059 --> 00:04:39.873 avec ces articles. 00:04:42.045 --> 00:04:46.455 On produit des centaines de milliers, des millions d'articles par an. 00:04:47.141 --> 00:04:49.807 Est-ce que je peux me permettre de dire : 00:04:49.808 --> 00:04:51.189 « Ah mais, c'est une techno ! 00:04:51.681 --> 00:04:53.467 Je ne suis pas responsable ! » 00:04:54.269 --> 00:04:55.993 Évidemment que je suis responsable. 00:04:56.500 --> 00:04:58.876 Évidemment que, à partir du moment 00:04:58.877 --> 00:05:02.506 où les articles que la technologie de mon entreprise produit sont lus, 00:05:02.995 --> 00:05:04.802 qu'ils peuvent influencer des gens, 00:05:05.146 --> 00:05:07.641 évidemment que je porte une responsabilité. 00:05:07.899 --> 00:05:12.655 Et donc, évidemment, je dois contrôler ce qui sort, 00:05:12.656 --> 00:05:14.203 ce que nous produisons, 00:05:14.204 --> 00:05:18.646 et essayer de le faire de manière équilibrée, saine, éthique. 00:05:19.948 --> 00:05:21.289 Certains cas sont simples. 00:05:21.289 --> 00:05:22.503 Quand on nous demande - 00:05:22.504 --> 00:05:25.887 on l'a fait à maintes reprises - de produire de faux avis - 00:05:26.056 --> 00:05:27.488 « Cet hôtel, il est génial, 00:05:27.489 --> 00:05:29.585 mais celui-là, il est complétement pourri » - 00:05:30.587 --> 00:05:32.397 évidemment qu'on ne peut pas faire ça. 00:05:32.547 --> 00:05:35.198 Pourtant, on nous l'a demandé à de nombreuses reprises. 00:05:35.921 --> 00:05:37.357 C'est simple : on dit non. 00:05:37.357 --> 00:05:39.531 Quand on nous demande de participer 00:05:39.532 --> 00:05:43.421 à la propagande d'un État qui se trouve très à l'ouest, 00:05:43.422 --> 00:05:44.467 on a été contacté - 00:05:44.468 --> 00:05:45.905 très à l'est, pardon - 00:05:45.906 --> 00:05:49.556 on a été contacté par un média - et j'étais très content. 00:05:49.557 --> 00:05:52.764 Mais quand j'ai compris que le but était la propagande d'un État 00:05:52.764 --> 00:05:55.468 qui évidemment n'a pas mes idéaux démocratiques : 00:05:56.016 --> 00:05:57.645 simple : « Non ! » 00:05:58.813 --> 00:06:04.233 Mais il y a d'autres questions dont on ne connaît pas la réponse. 00:06:04.234 --> 00:06:07.003 On ne sait pas, par exemple si on doit forcer nos clients 00:06:07.004 --> 00:06:10.780 à indiquer sur nos articles qu'ils ont été écrits par une machine. 00:06:12.379 --> 00:06:13.652 Ça se discute ! 00:06:13.772 --> 00:06:16.712 Est-ce qu'on peut accepter pour un média normal 00:06:16.713 --> 00:06:19.834 avec une orientation politique tout à fait légitime 00:06:20.824 --> 00:06:24.502 d'orienter nos articles pour suivre cette orientation politique ? 00:06:25.079 --> 00:06:26.425 Je ne sais pas. 00:06:26.848 --> 00:06:28.592 Et donc, comme je ne suis pas sûr, 00:06:28.593 --> 00:06:30.289 comme je ne veux pas décider, 00:06:31.365 --> 00:06:33.917 nous avons décidé de monter un comité d'éthique 00:06:34.717 --> 00:06:38.483 composé de chercheurs, sociologues, journalistes, 00:06:38.484 --> 00:06:40.484 pour nous aider à répondre à ces questions. 00:06:40.548 --> 00:06:47.548 Et je suis persuadé que tous les producteurs d'informations, 00:06:49.011 --> 00:06:53.482 les technologies de l'information, devraient avoir un tel comité d'éthique. 00:06:55.191 --> 00:06:56.963 Il faut même aller plus loin. 00:06:57.199 --> 00:06:59.373 Ces décisions-là nous concernent tous. 00:06:59.961 --> 00:07:03.177 Nous devrions donc avoir la possibilité de nous exprimer, 00:07:03.178 --> 00:07:06.672 de pouvoir dire : « Oui, OK, les experts ont dit quelque chose, 00:07:06.673 --> 00:07:09.635 mais, les experts ne vivent pas ma vie. 00:07:10.207 --> 00:07:13.592 Moi aussi, j'ai besoin d'exprimer mon opinion. » 00:07:14.392 --> 00:07:18.915 Et, on devrait donc ouvrir cette discussion à tout le monde. 00:07:18.916 --> 00:07:22.010 C'est-à-dire avoir un site web dans lequel 00:07:22.011 --> 00:07:24.906 nous posons des questions et tout le monde peut y répondre 00:07:24.907 --> 00:07:28.392 et tout le monde peut nous interpeller, vous pouvez nous interpeller. 00:07:29.233 --> 00:07:30.716 En nous posant des questions 00:07:30.717 --> 00:07:35.162 parce que vous vous demandez si ce qu'on fait est éthique ou pas. 00:07:35.361 --> 00:07:38.359 Et c'est normal, et ça devrait être fait partout. 00:07:39.163 --> 00:07:41.505 Parce qu'en fait, nous sommes tous responsables. 00:07:42.208 --> 00:07:44.116 Cet écosystème informationnel, 00:07:45.250 --> 00:07:48.096 c'est notre avenir, c'est la façon dont nous pensons 00:07:48.097 --> 00:07:53.142 c'est ce qui va définir nos enfants. 00:07:54.014 --> 00:07:57.179 Nous avons un devoir, une responsabilité, 00:07:57.750 --> 00:08:01.749 pour le protéger, pour le faire évoluer dans le bon sens. 00:08:02.417 --> 00:08:05.547 Nous avons une responsabilité en tant que consommateurs. 00:08:06.800 --> 00:08:09.124 On regarde des articles, on lit les articles 00:08:10.173 --> 00:08:15.756 Et puis quand l'article dit la même chose que ce qu'on pense, c'est cool, 00:08:15.757 --> 00:08:16.809 on est content, 00:08:17.494 --> 00:08:19.955 ça nous renforce dans ce qu'on pense, 00:08:19.956 --> 00:08:23.432 ça nous fait penser qu'on est intelligent en fait, puisque c'est écrit. 00:08:24.931 --> 00:08:28.879 Mais ce n'est pas parce que ça dit la même chose que ce qu'on pense que c'est vrai. 00:08:30.343 --> 00:08:33.712 Et donc au lieu de nous rendre intelligent, ça nous rend bête. 00:08:35.200 --> 00:08:40.058 Il est indispensable de réfléchir à l'information qu'on est en train de lire 00:08:40.283 --> 00:08:43.735 Est-ce que ça a été écrit pour nous informer 00:08:43.736 --> 00:08:46.310 ou est-ce que ça a été écrit pour nous conditionner ? 00:08:46.521 --> 00:08:47.592 Quelle est la source ? 00:08:47.593 --> 00:08:49.976 Qui a écrit ? Avec quel objectif ? 00:08:50.937 --> 00:08:53.406 Il est nécessaire de se poser ces questions-là. 00:08:53.604 --> 00:08:56.890 Il est nécessaire également de diversifier ses sources d'information. 00:08:58.381 --> 00:09:01.110 Je consomme beaucoup de médias, je suis abonné à six, 00:09:01.110 --> 00:09:03.539 parmi lesquels il y a MediaPart, Le Figaro 00:09:04.269 --> 00:09:06.222 On peut difficilement faire plus éloigné. 00:09:06.436 --> 00:09:10.320 Je ne suis pas toujours d'accord avec MediaPart, ni avec Le Figaro, 00:09:10.448 --> 00:09:14.233 mais le fait d'avoir ces deux points de vue, parfois très opposés, 00:09:14.234 --> 00:09:15.742 sur un même événement, 00:09:16.639 --> 00:09:18.248 je pense que ça m'enrichit. 00:09:18.448 --> 00:09:22.020 Je pense que ça me permet d'avoir une meilleure vision de ce qu'il se passe. 00:09:23.255 --> 00:09:26.016 On a aussi une responsabilité en tant que producteur. 00:09:26.787 --> 00:09:28.428 Quand vous faites un like, 00:09:28.429 --> 00:09:30.995 quand vous partagez un article 00:09:31.125 --> 00:09:32.346 ce n'est pas anodin. 00:09:32.939 --> 00:09:36.233 C'est un acte social, c'est un acte politique. 00:09:36.423 --> 00:09:40.803 Vous êtes responsable, nous sommes responsables, 00:09:40.804 --> 00:09:42.376 des articles que nous partageons. 00:09:42.907 --> 00:09:47.001 Parce que ces articles peuvent influencer les gens qui nous suivent. 00:09:47.266 --> 00:09:50.236 Et donc, nous sommes responsables de cette influence. 00:09:51.234 --> 00:09:54.489 Nous devons réfléchir à ce qui est fait quand on partage. 00:09:54.489 --> 00:09:56.061 Est-ce que la source est fiable ? 00:09:56.515 --> 00:09:58.039 Ou est-ce simplement cool 00:09:58.039 --> 00:10:00.381 de partager quelque chose qui dit comme je pense ? 00:10:01.031 --> 00:10:04.229 Et enfin, nous sommes responsables 00:10:05.297 --> 00:10:07.204 en tant que citoyens. 00:10:08.486 --> 00:10:09.486 Ne pensez pas 00:10:10.728 --> 00:10:14.069 qu'on n'a pas le pouvoir et la possibilité de faire changer les choses. 00:10:14.402 --> 00:10:16.802 Nous pouvons faire changer les choses. 00:10:17.005 --> 00:10:19.761 Je dirais même que nous devons faire changer les choses. 00:10:19.947 --> 00:10:22.743 Regardez ce qu'il s'est passé avec Facebook. 00:10:23.643 --> 00:10:26.820 Le Pew Research Center a fait un sondage 00:10:26.821 --> 00:10:29.695 quelques mois après la révélation du scandale Facebook. 00:10:29.931 --> 00:10:31.382 Quand on a révélé que 00:10:31.383 --> 00:10:33.225 Facebook avait été utilisé 00:10:33.226 --> 00:10:35.566 enfin, que les données Facebook, nos données, 00:10:35.567 --> 00:10:37.264 avaient été utilisées 00:10:37.265 --> 00:10:40.042 pour influencer de manière massive 00:10:40.043 --> 00:10:41.873 les élections américaines. 00:10:42.662 --> 00:10:44.492 Qu'a révélé le sondage ? 00:10:45.060 --> 00:10:49.877 26 % des Américains qui avaient un compte Facebook 00:10:49.878 --> 00:10:51.283 se sont désabonnés. 00:10:51.284 --> 00:10:53.013 26 %. 00:10:53.521 --> 00:10:58.189 Parmi eux, 44 % de jeunes se sont désabonnés de Facebook. 00:10:59.424 --> 00:11:01.300 Bravo ! 00:11:01.996 --> 00:11:04.562 C'est un vrai acte citoyen ! 00:11:05.257 --> 00:11:06.783 Facebook nous a trahis ! 00:11:06.784 --> 00:11:10.909 Facebook a donné les moyens de truquer nos élections. 00:11:10.910 --> 00:11:11.990 On s'en va. 00:11:15.371 --> 00:11:16.371 Et puis... 00:11:17.201 --> 00:11:18.809 En fait, on a les moyens d'agir. 00:11:18.810 --> 00:11:19.920 Rappelez-vous : 00:11:20.208 --> 00:11:22.708 on parle d'écosystème de l'information, 00:11:22.709 --> 00:11:25.493 mais parlons d'un autre écosystème, 00:11:25.494 --> 00:11:26.494 l'écologie. 00:11:27.742 --> 00:11:33.606 L'écologie, avant, c'était un truc de quelques hurluberlus 00:11:33.607 --> 00:11:37.086 qui criaient au loup dans le désert, tout seuls, 00:11:37.087 --> 00:11:39.340 mais petit à petit, ça a pris. 00:11:40.094 --> 00:11:42.015 Petit à petit, de plus en plus de gens 00:11:42.015 --> 00:11:44.349 se sont rendu compte qu'il y avait un vrai enjeu, 00:11:44.681 --> 00:11:45.681 qu'il y avait 00:11:46.819 --> 00:11:49.653 une catastrophe qui se préparait. 00:11:49.811 --> 00:11:51.810 Et petit à petit, les choses ont bougé : 00:11:51.811 --> 00:11:55.390 une très grande partie de la population mondiale a conscience que 00:11:55.391 --> 00:11:57.496 nous pouvons détruire notre environnement, 00:11:57.497 --> 00:11:59.442 que nous pouvons détruire le climat. 00:11:59.848 --> 00:12:02.552 Et cette conscience a fait bouger les politiques, 00:12:02.553 --> 00:12:04.069 a fait bouger les États. 00:12:06.370 --> 00:12:09.574 Évidemment, tout n'est pas parfait dans l'écologie, on le sait bien, 00:12:09.584 --> 00:12:10.900 mais ça a bougé. 00:12:12.163 --> 00:12:16.226 On peut faire la même chose pour l'information. 00:12:17.811 --> 00:12:20.089 On peut déjà agir sur nous, comme je l'ai dit. 00:12:20.090 --> 00:12:22.910 On peut en parler autour de nous, je suis là pour ça. 00:12:23.081 --> 00:12:24.248 Vous aussi. 00:12:24.248 --> 00:12:26.208 On peut apprendre à nos enfants 00:12:26.209 --> 00:12:29.108 comment traiter l'information qui leur arrive. 00:12:30.950 --> 00:12:32.760 On peut inventer ensemble 00:12:33.744 --> 00:12:35.863 une écologie de l'information. 00:12:37.634 --> 00:12:39.214 Et ça vaut le coup. 00:12:39.215 --> 00:12:40.740 Donc il n'y a plus qu'à y aller. 00:12:40.793 --> 00:12:41.801 Merci bien. 00:12:41.802 --> 00:12:44.802 (Applaudissements)