0:00:08.332,0:00:09.749 Bonsoir. 0:00:10.899,0:00:13.576 On va donc parler d'écologie[br]de l'information. 0:00:14.443,0:00:16.312 Si nous sommes ici tous ce soir, 0:00:16.314,0:00:18.997 si on est ensemble,[br]c'est parce qu'on partage 0:00:18.998,0:00:20.865 un intérêt pour la connaissance, 0:00:20.866,0:00:23.419 voire une passion pour la connaissance. 0:00:24.349,0:00:25.974 Ça fait du bien d'apprendre. 0:00:26.264,0:00:28.803 Ça nous grandit, ça nous libère, 0:00:29.287,0:00:31.224 ça nous fait nous remettre en question. 0:00:31.350,0:00:32.778 Mais imaginez. 0:00:34.052,0:00:36.997 Imaginez que[br]toutes les sources d'information 0:00:37.787,0:00:39.393 que vous regardez 0:00:39.394,0:00:40.660 soient polluées ; 0:00:41.123,0:00:45.130 qu'en fait, leur objectif[br]ne soit pas de vous informer 0:00:45.131,0:00:48.310 mais soit de vous diminuer,[br]de vous limiter 0:00:48.861,0:00:52.143 de vous rapetisser,[br]de vous renfermer sur vous-même. 0:00:53.511,0:00:55.002 C'est cauchemardesque, non ? 0:00:55.003,0:00:56.445 C'est vraiment un cauchemar. 0:00:56.446,0:00:57.815 Je suis là pour ça ce soir, 0:00:57.816,0:01:00.535 parce que je pense que[br]c'est vraiment vers ça qu'on va. 0:01:02.033,0:01:05.516 Notre système,[br]notre écosystème informationnel 0:01:05.516,0:01:07.810 est attaqué de toutes parts, 0:01:08.263,0:01:09.884 et il est en danger. 0:01:11.072,0:01:15.206 Il est attaqué par exemple,[br]par les fake news, bien évidemment. 0:01:15.500,0:01:18.223 Cette pollution massive, ordonnée, 0:01:18.448,0:01:20.988 voulue, industrialisée, 0:01:21.861,0:01:27.590 qui n'a pour seul objectif que de changer[br]la façon dont nous pensons, 0:01:27.591,0:01:29.566 dont nous voulons agir, bref, 0:01:29.567,0:01:31.586 qui nous enlève notre libre-arbitre. 0:01:32.132,0:01:33.431 Et on a vu les conséquences 0:01:34.392,0:01:36.620 sur des élections très récemment. 0:01:37.876,0:01:42.044 Cet écosystème est aussi attaqué[br]dans sa diversité. 0:01:43.034,0:01:44.955 Je n'ai même pas besoin de vous demander 0:01:44.956,0:01:48.328 qui parmi vous a regardé Google,[br]Twitter ou Facebook aujourd'hui, 0:01:48.329,0:01:50.520 et qui a acheté un journal. 0:01:51.137,0:01:53.223 Je sais très bien[br]quelle est la proportion. 0:01:54.023,0:01:56.962 L'information à laquelle[br]nous accédons aujourd'hui 0:01:56.963,0:01:58.780 passe par quelques portes 0:01:59.826,0:02:01.082 très limitées 0:02:01.899,0:02:04.462 et tous les médias,[br]toutes les sources d'information 0:02:04.463,0:02:07.402 doivent passer par ces portes[br]pour pouvoir nous atteindre. 0:02:08.937,0:02:12.025 Quelle est la conséquence[br]logique, imparable ? 0:02:12.597,0:02:13.764 Vous prenez les médias. 0:02:14.313,0:02:16.515 Eh bien, énormément de médias, 0:02:16.516,0:02:17.685 peut-être la majorité, 0:02:17.686,0:02:20.312 demandent à leurs journalistes d'écrire 0:02:20.884,0:02:22.725 pour Google, 0:02:22.726,0:02:25.591 d'écrire pour l'algorithme de Google, 0:02:25.592,0:02:29.400 d'employer les termes qui vont faire[br]que les articles vont ressortir, 0:02:29.401,0:02:32.970 d'employer les titres qui vont faire[br]que nous allons cliquer dessus. 0:02:34.190,0:02:37.867 Ça n'a plus rien à voir avec[br]du journalisme, c'est même le contraire, 0:02:38.103,0:02:40.682 des journalistes qui écrivent[br]pour des algorithmes, 0:02:41.381,0:02:43.620 au lieu d'écrire[br]pour des hommes et des femmes. 0:02:46.276,0:02:49.948 Une autre attaque se fait[br]sur la circulation de l'information. 0:02:52.427,0:02:54.862 Les algorithmes Facebook nous limitent, 0:02:54.863,0:02:56.991 nous renferment dans des bulles 0:02:56.992,0:03:01.611 en fonction de ce que l'algorithme[br]pense être qui nous sommes. 0:03:03.643,0:03:07.247 Du coup, on voit des choses qui nous[br]renforcent dans ce que nous pensons, 0:03:07.252,0:03:08.320 nous limitent, 0:03:08.321,0:03:10.713 et en fait, nous empêchent[br]de nous enrichir, 0:03:10.714,0:03:12.776 nous empêchent d'apprendre. 0:03:13.796,0:03:16.442 Et tout ça,[br]ça a des conséquences dramatiques 0:03:16.443,0:03:19.506 sur la façon dont nous évoluons, 0:03:19.507,0:03:23.267 sur notre progrès humain,[br]sur les démocraties entre autres. 0:03:24.268,0:03:26.547 Et quand on remonte ça à Facebook, 0:03:26.894,0:03:28.518 que nous répond Mark Zuckerberg ? 0:03:29.695,0:03:30.945 « Mais, c'est une techno ! 0:03:31.843,0:03:34.066 Facebook, c'est une techno ! 0:03:34.444,0:03:38.150 On la met à disposition pour que les gens[br]puissent communiquer entre eux. 0:03:38.151,0:03:41.628 Ce que les gens échangent entre eux,[br]ce n'est pas notre responsabilité ! » 0:03:42.627,0:03:43.882 Quelle blague ! 0:03:45.092,0:03:48.266 Vous avez le pouvoir d'influencer[br]deux milliards de personnes 0:03:49.345,0:03:50.869 et vous n'êtes pas responsable ? 0:03:52.469,0:03:53.667 C'est absurde. 0:03:53.668,0:03:55.603 Évidemment que Facebook est responsable. 0:03:55.604,0:03:59.077 Évidemment que Mark Zuckerberg[br]est responsable. 0:03:59.762,0:04:03.420 Et cette responsabilité,[br]évidemment à un niveau moindre, 0:04:03.761,0:04:04.872 je la partage. 0:04:05.769,0:04:07.221 Je suis moi-même entrepreneur, 0:04:07.222,0:04:10.545 j'ai créé une entreprise avec mon associé[br]qui s'appelle Sylabs 0:04:11.507,0:04:13.949 et qui a développé un algorithme, 0:04:14.375,0:04:15.687 un moteur de rédaction, 0:04:16.428,0:04:18.349 qui permet de produire automatiquement 0:04:19.257,0:04:21.966 des contenus, des textes, des articles. 0:04:22.484,0:04:25.424 Ces articles,[br]nous les vendons à nos clients 0:04:25.425,0:04:27.118 qui peuvent être des médias - 0:04:27.215,0:04:30.309 Le Monde, France TV, Radio France[br]nous utilisent - 0:04:30.310,0:04:31.961 qui peuvent être des sites web - 0:04:31.962,0:04:33.978 e-commerce, tourisme, peu importe - 0:04:34.577,0:04:36.834 et nous diffusons comme cela[br]de l'information 0:04:38.059,0:04:39.873 avec ces articles. 0:04:42.045,0:04:46.455 On produit des centaines de milliers,[br]des millions d'articles par an. 0:04:47.141,0:04:49.807 Est-ce que je peux me permettre de dire : 0:04:49.808,0:04:51.189 « Ah mais, c'est une techno ! 0:04:51.681,0:04:53.467 Je ne suis pas responsable ! » 0:04:54.269,0:04:55.993 Évidemment que je suis responsable. 0:04:56.500,0:04:58.876 Évidemment que, à partir du moment 0:04:58.877,0:05:02.506 où les articles que la technologie[br]de mon entreprise produit sont lus, 0:05:02.995,0:05:04.802 qu'ils peuvent influencer des gens, 0:05:05.146,0:05:07.641 évidemment que je porte[br]une responsabilité. 0:05:07.899,0:05:12.655 Et donc, évidemment,[br]je dois contrôler ce qui sort, 0:05:12.656,0:05:14.203 ce que nous produisons, 0:05:14.204,0:05:18.646 et essayer de le faire[br]de manière équilibrée, saine, éthique. 0:05:19.948,0:05:21.289 Certains cas sont simples. 0:05:21.289,0:05:22.503 Quand on nous demande - 0:05:22.504,0:05:25.887 on l'a fait à maintes reprises[br]- de produire de faux avis - 0:05:26.056,0:05:27.488 « Cet hôtel, il est génial, 0:05:27.489,0:05:29.585 mais celui-là, il est[br]complétement pourri » - 0:05:30.587,0:05:32.397 évidemment qu'on ne peut pas faire ça. 0:05:32.547,0:05:35.198 Pourtant, on nous l'a demandé[br]à de nombreuses reprises. 0:05:35.921,0:05:37.357 C'est simple : on dit non. 0:05:37.357,0:05:39.531 Quand on nous demande de participer 0:05:39.532,0:05:43.421 à la propagande d'un État[br]qui se trouve très à l'ouest, 0:05:43.422,0:05:44.467 on a été contacté - 0:05:44.468,0:05:45.905 très à l'est, pardon - 0:05:45.906,0:05:49.556 on a été contacté par un média -[br]et j'étais très content. 0:05:49.557,0:05:52.764 Mais quand j'ai compris que le but[br]était la propagande d'un État 0:05:52.764,0:05:55.468 qui évidemment n'a pas[br]mes idéaux démocratiques : 0:05:56.016,0:05:57.645 simple : « Non ! » 0:05:58.813,0:06:04.233 Mais il y a d'autres questions[br]dont on ne connaît pas la réponse. 0:06:04.234,0:06:07.003 On ne sait pas, par exemple[br]si on doit forcer nos clients 0:06:07.004,0:06:10.780 à indiquer sur nos articles[br]qu'ils ont été écrits par une machine. 0:06:12.379,0:06:13.652 Ça se discute ! 0:06:13.772,0:06:16.712 Est-ce qu'on peut accepter[br]pour un média normal 0:06:16.713,0:06:19.834 avec une orientation politique[br]tout à fait légitime 0:06:20.824,0:06:24.502 d'orienter nos articles pour suivre[br]cette orientation politique ? 0:06:25.079,0:06:26.425 Je ne sais pas. 0:06:26.848,0:06:28.592 Et donc, comme je ne suis pas sûr, 0:06:28.593,0:06:30.289 comme je ne veux pas décider, 0:06:31.365,0:06:33.917 nous avons décidé[br]de monter un comité d'éthique 0:06:34.717,0:06:38.483 composé de chercheurs,[br]sociologues, journalistes, 0:06:38.484,0:06:40.484 pour nous aider à répondre[br]à ces questions. 0:06:40.548,0:06:47.548 Et je suis persuadé que[br]tous les producteurs d'informations, 0:06:49.011,0:06:53.482 les technologies de l'information,[br]devraient avoir un tel comité d'éthique. 0:06:55.191,0:06:56.963 Il faut même aller plus loin. 0:06:57.199,0:06:59.373 Ces décisions-là nous concernent tous. 0:06:59.961,0:07:03.177 Nous devrions donc avoir la possibilité[br]de nous exprimer, 0:07:03.178,0:07:06.672 de pouvoir dire : « Oui, OK,[br]les experts ont dit quelque chose, 0:07:06.673,0:07:09.635 mais, les experts ne vivent pas ma vie. 0:07:10.207,0:07:13.592 Moi aussi, j'ai besoin[br]d'exprimer mon opinion. » 0:07:14.392,0:07:18.915 Et, on devrait donc ouvrir[br]cette discussion à tout le monde. 0:07:18.916,0:07:22.010 C'est-à-dire avoir un site web dans lequel 0:07:22.011,0:07:24.906 nous posons des questions[br]et tout le monde peut y répondre 0:07:24.907,0:07:28.392 et tout le monde peut nous interpeller,[br]vous pouvez nous interpeller. 0:07:29.233,0:07:30.716 En nous posant des questions 0:07:30.717,0:07:35.162 parce que vous vous demandez[br]si ce qu'on fait est éthique ou pas. 0:07:35.361,0:07:38.359 Et c'est normal,[br]et ça devrait être fait partout. 0:07:39.163,0:07:41.505 Parce qu'en fait,[br]nous sommes tous responsables. 0:07:42.208,0:07:44.116 Cet écosystème informationnel, 0:07:45.250,0:07:48.096 c'est notre avenir,[br]c'est la façon dont nous pensons 0:07:48.097,0:07:53.142 c'est ce qui va définir nos enfants. 0:07:54.014,0:07:57.179 Nous avons un devoir, une responsabilité, 0:07:57.750,0:08:01.749 pour le protéger, pour le faire évoluer[br]dans le bon sens. 0:08:02.417,0:08:05.547 Nous avons une responsabilité[br]en tant que consommateurs. 0:08:06.800,0:08:09.124 On regarde des articles,[br]on lit les articles 0:08:10.173,0:08:15.756 Et puis quand l'article dit la même chose[br]que ce qu'on pense, c'est cool, 0:08:15.757,0:08:16.809 on est content, 0:08:17.494,0:08:19.955 ça nous renforce dans ce qu'on pense, 0:08:19.956,0:08:23.432 ça nous fait penser qu'on est intelligent[br]en fait, puisque c'est écrit. 0:08:24.931,0:08:28.879 Mais ce n'est pas parce que ça dit la même[br]chose que ce qu'on pense que c'est vrai. 0:08:30.343,0:08:33.712 Et donc au lieu de nous rendre[br]intelligent, ça nous rend bête. 0:08:35.200,0:08:40.058 Il est indispensable de réfléchir[br]à l'information qu'on est en train de lire 0:08:40.283,0:08:43.735 Est-ce que ça a été écrit[br]pour nous informer 0:08:43.736,0:08:46.310 ou est-ce que ça a été écrit[br]pour nous conditionner ? 0:08:46.521,0:08:47.592 Quelle est la source ? 0:08:47.593,0:08:49.976 Qui a écrit ? Avec quel objectif ? 0:08:50.937,0:08:53.406 Il est nécessaire[br]de se poser ces questions-là. 0:08:53.604,0:08:56.890 Il est nécessaire également[br]de diversifier ses sources d'information. 0:08:58.381,0:09:01.110 Je consomme beaucoup de médias,[br]je suis abonné à six, 0:09:01.110,0:09:03.539 parmi lesquels il y a MediaPart, Le Figaro 0:09:04.269,0:09:06.222 On peut difficilement faire plus éloigné. 0:09:06.436,0:09:10.320 Je ne suis pas toujours d'accord[br]avec MediaPart, ni avec Le Figaro, 0:09:10.448,0:09:14.233 mais le fait d'avoir ces deux points[br]de vue, parfois très opposés, 0:09:14.234,0:09:15.742 sur un même événement, 0:09:16.639,0:09:18.248 je pense que ça m'enrichit. 0:09:18.448,0:09:22.020 Je pense que ça me permet d'avoir[br]une meilleure vision de ce qu'il se passe. 0:09:23.255,0:09:26.016 On a aussi une responsabilité[br]en tant que producteur. 0:09:26.787,0:09:28.428 Quand vous faites un like, 0:09:28.429,0:09:30.995 quand vous partagez un article 0:09:31.125,0:09:32.346 ce n'est pas anodin. 0:09:32.939,0:09:36.233 C'est un acte social,[br]c'est un acte politique. 0:09:36.423,0:09:40.803 Vous êtes responsable,[br]nous sommes responsables, 0:09:40.804,0:09:42.376 des articles que nous partageons. 0:09:42.907,0:09:47.001 Parce que ces articles peuvent influencer[br]les gens qui nous suivent. 0:09:47.266,0:09:50.236 Et donc, nous sommes responsables[br]de cette influence. 0:09:51.234,0:09:54.489 Nous devons réfléchir à ce qui est fait[br]quand on partage. 0:09:54.489,0:09:56.061 Est-ce que la source est fiable ? 0:09:56.515,0:09:58.039 Ou est-ce simplement cool 0:09:58.039,0:10:00.381 de partager quelque chose[br]qui dit comme je pense ? 0:10:01.031,0:10:04.229 Et enfin, nous sommes responsables 0:10:05.297,0:10:07.204 en tant que citoyens. 0:10:08.486,0:10:09.486 Ne pensez pas 0:10:10.728,0:10:14.069 qu'on n'a pas le pouvoir et la possibilité[br]de faire changer les choses. 0:10:14.402,0:10:16.802 Nous pouvons faire changer les choses. 0:10:17.005,0:10:19.761 Je dirais même que nous devons[br]faire changer les choses. 0:10:19.947,0:10:22.743 Regardez ce qu'il s'est passé[br]avec Facebook. 0:10:23.643,0:10:26.820 Le Pew Research Center a fait un sondage 0:10:26.821,0:10:29.695 quelques mois après la révélation[br]du scandale Facebook. 0:10:29.931,0:10:31.382 Quand on a révélé que 0:10:31.383,0:10:33.225 Facebook avait été utilisé 0:10:33.226,0:10:35.566 enfin, que les données Facebook,[br]nos données, 0:10:35.567,0:10:37.264 avaient été utilisées 0:10:37.265,0:10:40.042 pour influencer de manière massive 0:10:40.043,0:10:41.873 les élections américaines. 0:10:42.662,0:10:44.492 Qu'a révélé le sondage ? 0:10:45.060,0:10:49.877 26 % des Américains[br]qui avaient un compte Facebook 0:10:49.878,0:10:51.283 se sont désabonnés. 0:10:51.284,0:10:53.013 26 %. 0:10:53.521,0:10:58.189 Parmi eux, 44 % de jeunes[br]se sont désabonnés de Facebook. 0:10:59.424,0:11:01.300 Bravo ! 0:11:01.996,0:11:04.562 C'est un vrai acte citoyen ! 0:11:05.257,0:11:06.783 Facebook nous a trahis ! 0:11:06.784,0:11:10.909 Facebook a donné les moyens[br]de truquer nos élections. 0:11:10.910,0:11:11.990 On s'en va. 0:11:15.371,0:11:16.371 Et puis... 0:11:17.201,0:11:18.809 En fait, on a les moyens d'agir. 0:11:18.810,0:11:19.920 Rappelez-vous : 0:11:20.208,0:11:22.708 on parle d'écosystème de l'information, 0:11:22.709,0:11:25.493 mais parlons d'un autre écosystème, 0:11:25.494,0:11:26.494 l'écologie. 0:11:27.742,0:11:33.606 L'écologie, avant, c'était un truc[br]de quelques hurluberlus 0:11:33.607,0:11:37.086 qui criaient au loup dans le désert,[br]tout seuls, 0:11:37.087,0:11:39.340 mais petit à petit, ça a pris. 0:11:40.094,0:11:42.015 Petit à petit, de plus en plus de gens 0:11:42.015,0:11:44.349 se sont rendu compte[br]qu'il y avait un vrai enjeu, 0:11:44.681,0:11:45.681 qu'il y avait 0:11:46.819,0:11:49.653 une catastrophe qui se préparait. 0:11:49.811,0:11:51.810 Et petit à petit, les choses ont bougé : 0:11:51.811,0:11:55.390 une très grande partie de la population[br]mondiale a conscience que 0:11:55.391,0:11:57.496 nous pouvons détruire notre environnement, 0:11:57.497,0:11:59.442 que nous pouvons détruire le climat. 0:11:59.848,0:12:02.552 Et cette conscience a fait[br]bouger les politiques, 0:12:02.553,0:12:04.069 a fait bouger les États. 0:12:06.370,0:12:09.574 Évidemment, tout n'est pas parfait[br]dans l'écologie, on le sait bien, 0:12:09.584,0:12:10.900 mais ça a bougé. 0:12:12.163,0:12:16.226 On peut faire la même chose[br]pour l'information. 0:12:17.811,0:12:20.089 On peut déjà agir sur nous,[br]comme je l'ai dit. 0:12:20.090,0:12:22.910 On peut en parler autour de nous,[br]je suis là pour ça. 0:12:23.081,0:12:24.248 Vous aussi. 0:12:24.248,0:12:26.208 On peut apprendre à nos enfants 0:12:26.209,0:12:29.108 comment traiter l'information[br]qui leur arrive. 0:12:30.950,0:12:32.760 On peut inventer ensemble 0:12:33.744,0:12:35.863 une écologie de l'information. 0:12:37.634,0:12:39.214 Et ça vaut le coup. 0:12:39.215,0:12:40.740 Donc il n'y a plus qu'à y aller. 0:12:40.793,0:12:41.801 Merci bien. 0:12:41.802,0:12:44.802 (Applaudissements)