1 00:00:03,634 --> 00:00:07,363 [Por detrás do ecrã: Quem decide o que eu vejo online?] 2 00:00:08,376 --> 00:00:09,696 Olá, chamo-me Taylor. 3 00:00:09,786 --> 00:00:11,868 Estudo a Internet e jornalismo, 4 00:00:11,928 --> 00:00:16,077 e como os cidadãos recebem informações sobre o mundo. 5 00:00:17,389 --> 00:00:19,938 Antigamente, quando as pessoas recebiam informações, 6 00:00:19,978 --> 00:00:22,678 estas eram sobretudo decididas pelas pessoas. 7 00:00:22,728 --> 00:00:25,632 Havia seres humanos que decidiam o que precisávamos de saber. 8 00:00:25,709 --> 00:00:28,973 Por isso, quando abríamos o jornal ou ouvíamos o noticiário da noite, 9 00:00:29,013 --> 00:00:32,660 era uma pessoa que decidia o que ouvíamos e víamos. 10 00:00:33,240 --> 00:00:36,546 O resultado disse era que todos nós sabíamos coisas semelhantes. 11 00:00:38,059 --> 00:00:40,742 Agora, a Internet alterou tudo. 12 00:00:41,090 --> 00:00:44,017 Quando vamos para a Internet, quando abrimos uma aplicação, 13 00:00:44,486 --> 00:00:47,324 o que vemos não é determinado por uma pessoa, 14 00:00:47,489 --> 00:00:49,104 mas por uma máquina. 15 00:00:49,479 --> 00:00:51,940 Isto é impressionante, sob vários pontos de vista: 16 00:00:51,984 --> 00:00:54,053 permite-nos usar o Google Maps; 17 00:00:54,093 --> 00:00:56,523 permite-nos encomendar refeições online; 18 00:00:56,543 --> 00:01:00,162 permite-nos comunicar com amigos do mundo inteiro 19 00:01:00,232 --> 00:01:02,115 e partilhar informações... 20 00:01:02,290 --> 00:01:05,081 Mas há aspetos desta máquina 21 00:01:05,221 --> 00:01:07,641 que precisamos de encarar com muito cuidado 22 00:01:07,741 --> 00:01:11,618 porque determinam as informações que todos recebemos 23 00:01:11,793 --> 00:01:15,050 enquanto cidadãos numa sociedade e numa democracia. 24 00:01:15,409 --> 00:01:17,149 Assim, quando abrimos uma aplicação 25 00:01:17,179 --> 00:01:20,699 e nos aparece uma imagem nos feed do Snapchat, 26 00:01:20,764 --> 00:01:24,490 todas essas informações são determinadas por essa máquina 27 00:01:24,555 --> 00:01:28,941 e essa máquina é guiada pelos incentivos da empresa 28 00:01:29,021 --> 00:01:32,390 que possui o website ou a aplicação 29 00:01:32,684 --> 00:01:36,520 O incentivo é para passarmos a maior parte do tempo possível 30 00:01:36,540 --> 00:01:38,451 nessa aplicação. 31 00:01:38,680 --> 00:01:42,087 Assim, arranjam coisas que nos convidam a gostar de estar ali. 32 00:01:42,250 --> 00:01:44,826 Permitem que as pessoas gostem das nossas fotos. 33 00:01:44,975 --> 00:01:47,943 Mostram-nos conteúdos que acham que queremos ver 34 00:01:48,066 --> 00:01:50,850 que nos fazem muito felizes ou nos irritam muito 35 00:01:50,940 --> 00:01:53,880 que provocam uma reação emotiva de forma a manter-nos ali. 36 00:01:54,160 --> 00:01:57,323 Isso porque querem mostrar-nos o maior número de anúncios possível 37 00:01:57,333 --> 00:01:58,423 enquanto ali estamos 38 00:01:58,443 --> 00:02:00,509 porque é esse o seu modelo de negócio. 39 00:02:00,897 --> 00:02:04,385 Também aproveitam a mesma oportunidade de estarmos na aplicação deles 40 00:02:04,434 --> 00:02:06,297 para reunir dados sobre nós. 41 00:02:06,370 --> 00:02:07,905 E usam esses dados 42 00:02:08,005 --> 00:02:11,553 para criar perfis pormenorizados da nossa vida e comportamento, 43 00:02:11,845 --> 00:02:13,835 e esses perfis podem ser usados 44 00:02:13,924 --> 00:02:16,930 para nos enviarem mais anúncios 45 00:02:17,200 --> 00:02:19,700 e isso também vai determinar aquilo que vemos. 46 00:02:21,470 --> 00:02:25,170 Mas tudo isto não se refere apenas ao modelo de negócios dessas empresas 47 00:02:25,614 --> 00:02:28,517 tem um verdadeiro impacto na nossa democracia 48 00:02:28,735 --> 00:02:34,448 porque o que vemos na Internet é personalizado profundamente 49 00:02:34,680 --> 00:02:36,309 em relação ao que gostamos, 50 00:02:36,453 --> 00:02:38,184 àquilo em que acreditamos, 51 00:02:38,253 --> 00:02:41,203 àquilo que queremos ver ou queremos acreditar. 52 00:02:41,523 --> 00:02:43,687 Isso significa que, enquanto sociedade, 53 00:02:43,756 --> 00:02:47,390 já não temos um conjunto comum de conhecimentos 54 00:02:47,500 --> 00:02:49,727 o que se torna difícil para uma democracia 55 00:02:49,767 --> 00:02:52,911 que exige que trabalhemos em conjunto e conheçamos as mesmas coisas 56 00:02:52,981 --> 00:02:55,391 para tomarmos decisões sobre a nossa vida em comum. 57 00:02:55,431 --> 00:02:57,705 Quando todos nós conhecemos coisas diferentes 58 00:02:57,715 --> 00:03:01,379 e estamos a ser enfiados em pequenas bolhas de informações, 59 00:03:01,487 --> 00:03:04,790 é extremamente difícil entendermo-nos uns com os outros. 60 00:03:04,860 --> 00:03:08,150 Não temos experiências partilhadas nem conhecimentos partilhados. 61 00:03:08,241 --> 00:03:11,335 Penso que é muito importante que pensemos de forma crítica 62 00:03:11,545 --> 00:03:14,133 sobre as informações que recebemos online, 63 00:03:14,223 --> 00:03:16,573 e sobre as empresas e estruturas 64 00:03:16,634 --> 00:03:19,204 que determinam o que vemos na Internet. 65 00:03:20,764 --> 00:03:24,872 [NewsWise é um projeto de CIVIX & The Canadian Journalism Foundation] 66 00:03:26,932 --> 00:03:29,355 Tradução de Margarida Mariz (março-2023)