1 00:00:03,634 --> 00:00:07,363 [Derrière les écrans : Qui décide de ce que je vois en ligne ?] 2 00:00:08,376 --> 00:00:09,526 Je m'appelle Taylor 3 00:00:09,526 --> 00:00:11,778 J'étudie l'internet et le journalisme, 4 00:00:11,778 --> 00:00:16,077 et comment, en tant que citoyens, nous recevons l'information sur le monde. 5 00:00:17,389 --> 00:00:19,628 Avant, quand les gens avaient des informations, 6 00:00:19,778 --> 00:00:22,688 c'était principalement des personnes qui décidaient. 7 00:00:22,688 --> 00:00:25,560 Il y avait des humains qui décidaient ce que nous devions savoir. 8 00:00:25,560 --> 00:00:28,550 Ainsi, quand nous ouvrions le journal ou allumions le JT, 9 00:00:28,550 --> 00:00:32,570 c'était une personne qui décidait de ce que nous entendions et voyions. 10 00:00:33,240 --> 00:00:36,546 Le résultat est que nous savions tous des choses similaires. 11 00:00:38,059 --> 00:00:40,742 Maintenant, Internet a tout changé. 12 00:00:41,090 --> 00:00:44,017 Quand on va en ligne, quand on ouvre une application, 13 00:00:44,486 --> 00:00:47,224 ce que l'on voit n'est pas déterminé par une personne, 14 00:00:47,489 --> 00:00:48,710 mais par une machine. 15 00:00:49,589 --> 00:00:51,820 Et c'est impressionnant à bien des égards : 16 00:00:51,984 --> 00:00:54,053 Cela permet d'utiliser Google Maps; 17 00:00:54,053 --> 00:00:56,523 Cela permet de commander de la nourriture en ligne; 18 00:00:56,523 --> 00:01:00,162 Cela vous permet de vous connecter avec des amis dans le monde entier 19 00:01:00,162 --> 00:01:01,870 et de partager des informations... 20 00:01:02,290 --> 00:01:04,911 Mais il y a des aspects de cette machine 21 00:01:05,221 --> 00:01:07,511 auxquels nous devons réfléchir très attentivement 22 00:01:07,741 --> 00:01:11,618 car elles déterminent l'information que nous recevons tous 23 00:01:11,793 --> 00:01:15,050 en tant que citoyens d'une société et dans une démocratie. 24 00:01:15,489 --> 00:01:17,029 Quand vous ouvrez une application 25 00:01:17,179 --> 00:01:20,531 et qu'on vous montre une photo dans votre fil Snapchat, 26 00:01:20,764 --> 00:01:24,420 toutes ces informations sont déterminées par cette machine, 27 00:01:24,465 --> 00:01:28,951 et cette machine est pilotée par les motivations de l'entreprise 28 00:01:28,951 --> 00:01:32,251 qui possède le site web ou qui possède l'application. 29 00:01:32,684 --> 00:01:36,540 Et la motivation est que vous passiez le plus de temps possible 30 00:01:36,540 --> 00:01:38,080 sur cette application. 31 00:01:38,680 --> 00:01:42,087 Elles font donc en sorte que vous vous y sentiez très bien. 32 00:01:42,250 --> 00:01:44,553 Elles permettent aux gens d'aimer vos photos. 33 00:01:44,975 --> 00:01:47,943 Elles affichent le contenu pensant être de votre intérêt, 34 00:01:47,943 --> 00:01:50,850 qui vous rendra soit vraiment heureux, soit vraiment en colère 35 00:01:50,850 --> 00:01:53,880 qui suscitera une réaction émotionnelle pour que vous restiez. 36 00:01:54,260 --> 00:01:57,173 Leur but est de vous montrer autant de publicités que possible 37 00:01:57,173 --> 00:01:58,173 quand vous êtes là 38 00:01:58,173 --> 00:02:00,160 car c'est leur modèle économique. 39 00:02:00,897 --> 00:02:04,414 Elles profitent aussi de votre présence sur leur application 40 00:02:04,414 --> 00:02:06,140 pour collecter des données sur vous. 41 00:02:06,370 --> 00:02:08,005 Et elles utilisent ces données 42 00:02:08,005 --> 00:02:11,553 pour créer des profils détaillés de votre vie et de votre comportement, 43 00:02:11,845 --> 00:02:13,924 et ces profils peuvent être utilisés 44 00:02:13,924 --> 00:02:16,930 pour cibler davantage de publicités pour vous, 45 00:02:17,200 --> 00:02:19,700 et cela détermine aussi ce que vous voyez. 46 00:02:21,470 --> 00:02:25,170 Mais tout cela ne concerne pas juste le modèle économique de ces entreprises, 47 00:02:25,614 --> 00:02:28,277 cela a en fait un impact sur notre démocratie 48 00:02:28,735 --> 00:02:34,509 car ce que nous voyons sur Internet est fortement personnalisé par rapport 49 00:02:34,990 --> 00:02:36,183 à ce que nous aimons, 50 00:02:36,453 --> 00:02:37,843 à ce que nous croyons, 51 00:02:38,253 --> 00:02:41,203 à ce que nous voulons voir ou croire. 52 00:02:41,523 --> 00:02:43,498 Et cela signifie qu'en tant que société, 53 00:02:43,756 --> 00:02:47,500 nous n'avons plus un ensemble de connaissances partagées 54 00:02:47,500 --> 00:02:50,197 ce qui est difficile pour une démocratie nous exigeant 55 00:02:50,197 --> 00:02:52,621 de travailler ensemble et connaître les mêmes choses 56 00:02:52,851 --> 00:02:55,171 de prendre des décisions sur notre vie commune. 57 00:02:55,391 --> 00:02:57,030 Quand on sait des choses diverses 58 00:02:57,030 --> 00:03:01,059 et qu'on est tous cloisonnés dans nos propres petites bulles d'information, 59 00:03:01,567 --> 00:03:04,860 il est incroyablement difficile de s'entendre les uns avec les autres. 60 00:03:04,860 --> 00:03:07,670 On n'a pas d'expérience ou de connaissances partagées. 61 00:03:08,241 --> 00:03:11,335 Je pense qu'il est très important de réfléchir de manière critique 62 00:03:11,545 --> 00:03:13,897 sur les informations que nous recevons en ligne, 63 00:03:14,247 --> 00:03:17,167 et sur les entreprises et les structures qui déterminent 64 00:03:17,337 --> 00:03:19,455 ce que nous voyons sur Internet. 65 00:03:20,114 --> 00:03:25,412 [NewsWise: un projet de CIVIX& The Canadian Journalism Foundation] 66 00:03:26,002 --> 00:03:27,365 Sous-titres: Claudia Contreras Révision: Carol Wang 67 00:03:27,509 --> 00:03:31,509 Sous-titres français: Alicia Ramos Révision: Leah Aiche-Olivier