1
00:00:03,634 --> 00:00:07,363
[Por detrás do ecrã:
Quem decide o que eu vejo online?]
2
00:00:08,376 --> 00:00:09,696
Olá, chamo-me Taylor.
3
00:00:09,786 --> 00:00:11,868
Estudo a Internet e jornalismo,
4
00:00:11,928 --> 00:00:16,077
e como os cidadãos recebem
informações sobre o mundo.
5
00:00:17,389 --> 00:00:19,938
Antigamente, quando as pessoas
recebiam informações,
6
00:00:19,978 --> 00:00:22,678
estas eram sobretudo
decididas pelas pessoas.
7
00:00:22,728 --> 00:00:25,632
Havia seres humanos que decidiam
o que precisávamos de saber.
8
00:00:25,709 --> 00:00:28,973
Por isso, quando abríamos o jornal
ou ouvíamos o noticiário da noite,
9
00:00:29,013 --> 00:00:32,660
era uma pessoa que decidia
o que ouvíamos e víamos.
10
00:00:33,240 --> 00:00:36,546
O resultado disse era que todos nós
sabíamos coisas semelhantes.
11
00:00:38,059 --> 00:00:40,742
Agora, a Internet alterou tudo.
12
00:00:41,090 --> 00:00:44,017
Quando vamos para a Internet,
quando abrimos uma aplicação,
13
00:00:44,486 --> 00:00:47,324
o que vemos não é determinado
por uma pessoa,
14
00:00:47,489 --> 00:00:49,104
mas por uma máquina.
15
00:00:49,479 --> 00:00:51,940
Isto é impressionante,
sob vários pontos de vista:
16
00:00:51,984 --> 00:00:54,053
permite-nos usar o Google Maps;
17
00:00:54,093 --> 00:00:56,523
permite-nos encomendar refeições online;
18
00:00:56,543 --> 00:01:00,162
permite-nos comunicar
com amigos do mundo inteiro
19
00:01:00,232 --> 00:01:02,115
e partilhar informações...
20
00:01:02,290 --> 00:01:05,081
Mas há aspetos desta máquina
21
00:01:05,221 --> 00:01:07,641
que precisamos de encarar
com muito cuidado
22
00:01:07,741 --> 00:01:11,618
porque determinam as informações
que todos recebemos
23
00:01:11,793 --> 00:01:15,050
enquanto cidadãos numa sociedade
e numa democracia.
24
00:01:15,409 --> 00:01:17,149
Assim, quando abrimos uma aplicação
25
00:01:17,179 --> 00:01:20,699
e nos aparece uma imagem
nos feed do Snapchat,
26
00:01:20,764 --> 00:01:24,490
todas essas informações
são determinadas por essa máquina
27
00:01:24,555 --> 00:01:28,941
e essa máquina é guiada
pelos incentivos da empresa
28
00:01:29,021 --> 00:01:32,390
que possui o website ou a aplicação
29
00:01:32,684 --> 00:01:36,520
O incentivo é para passarmos
a maior parte do tempo possível
30
00:01:36,540 --> 00:01:38,451
nessa aplicação.
31
00:01:38,680 --> 00:01:42,087
Assim, arranjam coisas que nos
convidam a gostar de estar ali.
32
00:01:42,250 --> 00:01:44,826
Permitem que as pessoas gostem
das nossas fotos.
33
00:01:44,975 --> 00:01:47,943
Mostram-nos conteúdos
que acham que queremos ver
34
00:01:48,066 --> 00:01:50,850
que nos fazem muito felizes
ou nos irritam muito
35
00:01:50,940 --> 00:01:53,880
que provocam uma reação emotiva
de forma a manter-nos ali.
36
00:01:54,160 --> 00:01:57,323
Isso porque querem mostrar-nos
o maior número de anúncios possível
37
00:01:57,333 --> 00:01:58,423
enquanto ali estamos
38
00:01:58,443 --> 00:02:00,509
porque é esse o seu modelo de negócio.
39
00:02:00,897 --> 00:02:04,385
Também aproveitam a mesma oportunidade
de estarmos na aplicação deles
40
00:02:04,434 --> 00:02:06,297
para reunir dados sobre nós.
41
00:02:06,370 --> 00:02:07,905
E usam esses dados
42
00:02:08,005 --> 00:02:11,553
para criar perfis pormenorizados
da nossa vida e comportamento,
43
00:02:11,845 --> 00:02:13,835
e esses perfis podem ser usados
44
00:02:13,924 --> 00:02:16,930
para nos enviarem mais anúncios
45
00:02:17,200 --> 00:02:19,700
e isso também vai determinar
aquilo que vemos.
46
00:02:21,470 --> 00:02:25,170
Mas tudo isto não se refere apenas
ao modelo de negócios dessas empresas
47
00:02:25,614 --> 00:02:28,517
tem um verdadeiro impacto
na nossa democracia
48
00:02:28,735 --> 00:02:34,448
porque o que vemos na Internet
é personalizado profundamente
49
00:02:34,680 --> 00:02:36,309
em relação ao que gostamos,
50
00:02:36,453 --> 00:02:38,184
àquilo em que acreditamos,
51
00:02:38,253 --> 00:02:41,203
àquilo que queremos ver
ou queremos acreditar.
52
00:02:41,523 --> 00:02:43,687
Isso significa que, enquanto sociedade,
53
00:02:43,756 --> 00:02:47,390
já não temos um conjunto
comum de conhecimentos
54
00:02:47,500 --> 00:02:49,727
o que se torna difícil para uma democracia
55
00:02:49,767 --> 00:02:52,911
que exige que trabalhemos em conjunto
e conheçamos as mesmas coisas
56
00:02:52,981 --> 00:02:55,391
para tomarmos decisões
sobre a nossa vida em comum.
57
00:02:55,431 --> 00:02:57,705
Quando todos nós conhecemos
coisas diferentes
58
00:02:57,715 --> 00:03:01,379
e estamos a ser enfiados
em pequenas bolhas de informações,
59
00:03:01,487 --> 00:03:04,790
é extremamente difícil entendermo-nos
uns com os outros.
60
00:03:04,860 --> 00:03:08,150
Não temos experiências partilhadas
nem conhecimentos partilhados.
61
00:03:08,241 --> 00:03:11,335
Penso que é muito importante
que pensemos de forma crítica
62
00:03:11,545 --> 00:03:14,133
sobre as informações
que recebemos online,
63
00:03:14,223 --> 00:03:16,573
e sobre as empresas e estruturas
64
00:03:16,634 --> 00:03:19,204
que determinam o que vemos na Internet.
65
00:03:20,764 --> 00:03:24,872
[NewsWise é um projeto de CIVIX &
The Canadian Journalism Foundation]
66
00:03:26,932 --> 00:03:29,355
Tradução de Margarida Mariz
(março-2023)