Os vídeos de pesadelo do YouTube para crianças - e o que há de errado com a Internet
-
0:01 - 0:02Sou James.
-
0:02 - 0:04Sou escritor e artista
-
0:04 - 0:06e trabalho sobre a tecnologia.
-
0:06 - 0:10Faço coisas como desenhar
"drones" militares em tamanho natural -
0:10 - 0:12nas ruas das cidades, por todo o mundo,
-
0:12 - 0:16para que as pessoas comecem a pensar,
a dar a volta à cabeça, -
0:16 - 0:19nestas tecnologias muito difíceis de ver
e muito difíceis de imaginar. -
0:19 - 0:23Faço coisas como redes neurais
que preveem os resultados de eleições. -
0:23 - 0:25com base nos boletins meteorológicos,
-
0:25 - 0:26porque sinto-me intrigado
-
0:27 - 0:30com as reais possibilidades
destas novas tecnologias estranhas. -
0:31 - 0:34No ano passado, construí
o meu carro autónomo. -
0:34 - 0:36Mas, como não confio na tecnologia,
-
0:36 - 0:39também desenhei uma ratoeira para ele.
-
0:39 - 0:40(Risos)
-
0:40 - 0:44Faço estas coisas sobretudo porque
acho-as totalmente fascinantes -
0:44 - 0:47mas também porque penso que,
quando falamos de tecnologia, -
0:47 - 0:49estamos sobretudo a falar de nós mesmos
-
0:49 - 0:52e da forma como entendemos o mundo.
-
0:52 - 0:54Eis uma história sobre tecnologia.
-
0:56 - 0:58Este é um vídeo de "ovos surpresa".
-
0:58 - 1:02É basicamente um vídeo de alguém
a abrir montes de ovos de chocolate -
1:02 - 1:04e mostra ao espetador
os brinquedos que estão lá dentro. -
1:04 - 1:07É só isso. É só o que se passa
durante sete longos minutos. -
1:07 - 1:10Queria que reparassem em duas coisas.
-
1:11 - 1:15Primeiro, este vídeo
tem 30 milhões de visitas. -
1:15 - 1:16(Risos)
-
1:16 - 1:18A outra coisa é:
-
1:18 - 1:21aparece num canal
que tem 6,3 milhões de subscritores -
1:21 - 1:24que tem um total
de oito milhões de visitas -
1:24 - 1:27e há mais vídeos como este.
-
1:28 - 1:32Trinta milhões de pessoas
que veem um tipo a abrir estes ovos. -
1:32 - 1:37Parece muito estranho mas, se pesquisarem
"ovos surpresa" no YouTube, -
1:37 - 1:40verificam que há 10 milhões destes vídeos
-
1:40 - 1:42e acho que a contagem
está feita por baixo. -
1:42 - 1:44Acho que há muitos mais.
-
1:44 - 1:46Se continuarem a procurar, não têm fim.
-
1:46 - 1:48Há milhões e milhões destes vídeos,
-
1:48 - 1:52em combinações incrivelmente barrocas
de marcas e materiais. -
1:52 - 1:55E todos os dias cada vez há mais
a aparecerem na Internet. -
1:56 - 1:59Isto é um mundo estranho.
-
1:59 - 2:03Mas o que acontece é que
não são os adultos que veem estes vídeos. -
2:03 - 2:05São os miúdos, as crianças.
-
2:06 - 2:08Estes vídeos são como droga
para as crianças. -
2:08 - 2:10Há qualquer coisa quanto à repetição,
-
2:10 - 2:12o constante choque
de dopamina da revelação -
2:12 - 2:14que os hipnotiza totalmente.
-
2:14 - 2:19As crianças veem estes vídeos
vezes sem conta -
2:19 - 2:21e fazem-no durante horas
e horas e horas. -
2:21 - 2:25Se tentarem afastá-las do ecrã,
elas desatam aos gritos. -
2:25 - 2:27Se não acreditam
-
2:27 - 2:29- já vi pessoas no público
a abanar a cabeça - -
2:29 - 2:32se não acreditam, procurem alguém
com uma criança pequena e perguntem-lhe. -
2:32 - 2:35Eles conhecem os vídeos
dos ovos surpresa. -
2:36 - 2:37É aqui que começamos.
-
2:37 - 2:41Estamos em 2018 e alguém,
ou imensas pessoas, -
2:41 - 2:45usam o mesmo mecanismo
que o Facebook e o Instagram usam -
2:45 - 2:47para nos obrigar a voltar
a ver aquela aplicação -
2:47 - 2:51e usam-no no YouTube para apanhar
o cérebro das criancinhas -
2:51 - 2:53em troca de receitas publicitárias.
-
2:54 - 2:56Pelo menos, é o que eu julgo
que estão a fazer. -
2:57 - 2:58Espero que seja o que eles estão a fazer
-
2:58 - 3:03porque há formas mais fáceis de gerar
receitas publicitárias no YouTube. -
3:04 - 3:06Podemos inventar coisas ou roubar coisas.
-
3:06 - 3:09Se procurarem desenhos animados
infantis, realmente populares, -
3:09 - 3:11como o "Peppa Pig" ou o " Patrulha Pata",
-
3:11 - 3:14descobrem que também há
muitos milhões deles na Internet. -
3:14 - 3:17Claro que a maioria não são
publicados pelos criadores originais. -
3:17 - 3:20São carregados por imensas
diferentes contas ao acaso -
3:20 - 3:22e é impossível saber quem as publicou
-
3:22 - 3:24ou quais os motivos para isso.
-
3:24 - 3:26Isto parece-vos familiar?
-
3:26 - 3:28Porque é exatamente o mesmo mecanismo
-
3:28 - 3:31que está a ocorrer na maior parte
dos nossos serviços digitais -
3:31 - 3:34em que é impossível saber
de onde provêm as informações. -
3:34 - 3:36São notícias falsas para crianças
-
3:36 - 3:38e nós estamos a treinar as crianças
desde que nascem, -
3:39 - 3:41para clicarem na primeira ligação
que lhes apareça, -
3:41 - 3:43seja qual for a sua origem.
-
3:43 - 3:46Não parece ser uma ideia muito boa.
-
3:46 - 3:49Uma outra coisa que é importante
no YouTube para crianças -
3:49 - 3:51chama-se "Finger Family Song."
-
3:51 - 3:53Ouvi alguém no público a resmungar.
-
3:53 - 3:55Esta é a canção da Família dos Dedos.
-
3:55 - 3:57Foi a primeira que encontrei.
-
3:57 - 4:00É de 2007 e só tem 200 000 visitas
-
4:00 - 4:02o que é nada, neste campeonato.
-
4:02 - 4:04Mas tem uma melodia irritante
-
4:04 - 4:06que não vou tocar para vocês ouvirem
-
4:06 - 4:08porque ela cola-se no vosso cérebro
-
4:08 - 4:10tal como se colou no meu
-
4:10 - 4:12e não vou fazer-vos uma partida dessas.
-
4:12 - 4:14Mas, tal como com os ovos surpresa,
-
4:14 - 4:18enfia-se na cabeça das crianças
e elas ficam viciados nela. -
4:18 - 4:20Dentro de alguns anos,
estes vídeos da família dos dedos -
4:20 - 4:22começa a aparecer por toda a parte
-
4:22 - 4:24e temos versões em várias línguas
-
4:24 - 4:26com desenhos animados para crianças,
usando a comida -
4:26 - 4:28ou usando todos e quaisquer
elementos de animação -
4:28 - 4:31que por aí existem.
-
4:31 - 4:36Mais uma vez, há milhões e milhões
destes vídeos na Internet, -
4:36 - 4:40disponíveis em todos os tipos
de combinações extravagantes. -
4:40 - 4:42Quanto mais tempo gastarmos com eles
-
4:42 - 4:45mais loucos nos começamos a sentir.
-
4:46 - 4:49Foi aí que comecei a sentir
-
4:49 - 4:53uma sensação de profunda estranheza
e profunda falta de compreensão -
4:53 - 4:56de como era montada esta coisa
que parece estar sempre à minha volta. -
4:57 - 5:00Porque é impossível saber
de onde vêm estas coisas. -
5:00 - 5:01Quem é que as faz?
-
5:01 - 5:04Alguns parecem ser feitos
por equipas de animadores profissionais. -
5:05 - 5:07Alguns são apenas montados
ao acaso por um "software". -
5:07 - 5:12Alguns deles são vídeos para crianças
com um aspeto muito saudável. -
5:12 - 5:13E alguns são de pessoas
-
5:13 - 5:16que, claramente, não deviam
aproximar-se de criancinhas. -
5:16 - 5:18(Risos)
-
5:20 - 5:24Mais uma vez, esta impossibilidade
de vir a saber quem é que faz estas coisas -
5:24 - 5:25- tipo, isto é um robô?
-
5:25 - 5:27Isto é uma pessoa? é um "troll"?
-
5:28 - 5:30O que significa é
que já não consigamos ver -
5:30 - 5:31as diferenças entre estas coisas.
-
5:32 - 5:36Esta incerteza não vos parece familiar?
-
5:38 - 5:41A principal forma de as pessoas
obterem visitas nos seus vídeos -
5:41 - 5:43- os vídeos significam dinheiro -
-
5:43 - 5:47é encherem os títulos desses vídeos
com estes termos populares. -
5:47 - 5:49Por exemplo, os ovos surpresa.
-
5:49 - 5:51Acrescenta-se ao título
"Patrulha Pata", "Ovo da Páscoa" -
5:51 - 5:53ou outra coisa qualquer,
-
5:53 - 5:55todas as palavras
de outros vídeos populares -
5:55 - 5:58até acabar neste tipo
de linguagem misturada, sem sentido -
5:58 - 6:01que não faz sentido nenhum
para as pessoas. -
6:01 - 6:04Porque, claro, são só as crianças
que veem esses vídeos -
6:04 - 6:06e o que é que eles sabem?
-
6:06 - 6:09O verdadeiro público
para estas coisas é o "software", -
6:09 - 6:11são os algoritmos.
-
6:11 - 6:12É o "software" que o YouTube usa
-
6:12 - 6:15para escolher os vídeos
que são como os outros vídeos, -
6:15 - 6:17para os tornar populares,
para os recomendar. -
6:17 - 6:21É assim que acabamos por ter
esta misturada totalmente sem sentido, -
6:21 - 6:23tanto a nível do título como do conteúdo.
-
6:24 - 6:26Mas é preciso não esquecermos
-
6:26 - 6:27que, mesmo assim, ainda há pessoas
-
6:27 - 6:30dentro deste sistema
otimizado com algoritmos, -
6:30 - 6:33pessoas que são forçadas a produzir
-
6:33 - 6:36estas combinações de palavras
cada vez mais bizarras, -
6:36 - 6:41numa desesperada improvisação artística
reagindo aos gritos combinados -
6:41 - 6:44de um milhão de bebés ao mesmo tempo.
-
6:45 - 6:48São pessoas reais, presas
dentro destes sistemas -
6:48 - 6:51e essa é a outra coisa muito estranha
desta cultura comandada por logaritmos, -
6:51 - 6:53porque, mesmo sendo seres humanos,
-
6:53 - 6:55acabamos por nos comportar
como uma máquina -
6:55 - 6:57apenas para sobrevivermos.
-
6:57 - 6:59Do outro lado do ecrã,
-
6:59 - 7:02continua a haver criancinhas
a ver estas coisas. -
7:02 - 7:06com a atenção presa
nestes mecanismos esquisitos. -
7:07 - 7:10A maioria dessas crianças são
muito pequenas para usar a Internet. -
7:10 - 7:13Só batem no ecrã com as suas mãozinhas.
-
7:13 - 7:14Por isso, há o Autoplay,
-
7:14 - 7:17que se limita a exibir estes vídeos
vezes sem conta, num ciclo, -
7:17 - 7:20durante horas e horas seguidas,
infindavelmente. -
7:20 - 7:23Há atualmente no sistema
tanta coisa esquisita -
7:23 - 7:26que o Autoplay nos leva
a locais muito estranhos. -
7:26 - 7:28Isto é como, em doze passos,
-
7:28 - 7:31podemos passar de um vídeo giro
de um comboio de contagem -
7:31 - 7:34para um Mickey Mouse a masturbar-se.
-
7:35 - 7:36Desculpem isto.
-
7:37 - 7:39Mas as coisas pioram.
-
7:39 - 7:40Isto é o que acontece
-
7:40 - 7:43quando todas estas palavras-chave,
-
7:43 - 7:45todas estas diferentes peças de atenção,
-
7:45 - 7:48esta geração desesperada de conteúdo,
-
7:48 - 7:51se junta tudo num só local.
-
7:52 - 7:54É aqui que todas estas palavras-chave
-
7:54 - 7:57profundamente estranhas
entram na nossa casa. -
7:57 - 7:59Mistura-se o vídeo da família dos dedos
-
7:59 - 8:01com alguma ação de super-heróis,
-
8:01 - 8:04acrescenta-se umas piadas baratas
ou qualquer coisa assim -
8:04 - 8:07e, de repente, vamos parar
a um sítio muito esquisito. -
8:08 - 8:10As coisas que mais incomodam os pais
-
8:10 - 8:13são as coisas que têm um conteúdo
violento ou sexual, não é? -
8:13 - 8:16Os desenhos animados
em que crianças são atacadas -
8:16 - 8:18são assassinadas,
-
8:18 - 8:21situações estranhas que aterrorizam
genuinamente as crianças. -
8:21 - 8:25Temos é um "software" que vai buscar
todas estas influências diferentes -
8:25 - 8:28para gerar automaticamente
os piores pesadelos das crianças. -
8:28 - 8:31Este material afeta realmente
as criancinhas. -
8:31 - 8:34Os pais relatam que os filhos
ficam traumatizados, -
8:34 - 8:35ficam com medo do escuro,
-
8:35 - 8:38ficam com medo
dos desenhos animados preferidos. -
8:39 - 8:42Se há uma conclusão a tirar daqui
é que, se tiverem filhos pequenos, -
8:42 - 8:44mantenham-nos bem afastados do YouTube.
-
8:45 - 8:48(Aplausos)
-
8:51 - 8:54Mas há outra coisa que me aborrece
-
8:54 - 8:58é que eu não tenho a certeza se percebemos
como chegámos a este ponto. -
8:59 - 9:02Aceitámos todas estas influências,
todas estas coisas -
9:02 - 9:05misturadas duma forma
que ninguém pretendia. -
9:05 - 9:08Mas isto também é a forma
como estamos a construir o mundo inteiro. -
9:08 - 9:11Agarramos em todas estas informações,
uma data de más informações, -
9:11 - 9:14uma data de informações históricas
cheias de preconceitos, -
9:14 - 9:17cheias de todos os nossos
piores impulsos da história, -
9:17 - 9:19criamos enormes conjuntos de informações
-
9:19 - 9:21e depois automatizamo-las.
-
9:21 - 9:24E estamos a misturá-las
com coisas como relatórios de crédito, -
9:24 - 9:26com prémios de seguros,
-
9:26 - 9:29com coisas como
sistemas de vigilância preditiva -
9:29 - 9:31com linhas de orientação
de sentenças. -
9:31 - 9:33Esta é a forma como estamos
a construir o mundo de hoje -
9:33 - 9:35a partir destas informações.
-
9:35 - 9:36Não sei o que será pior,
-
9:36 - 9:39termos criado um sistema
que parece estar totalmente otimizado -
9:39 - 9:42para os piores aspetos absolutos
do comportamento humano -
9:42 - 9:45ou parecer que o fizemos por acaso
-
9:45 - 9:47sem sequer ter percebido
o que estávamos a fazer, -
9:47 - 9:50porque não percebíamos nada
dos sistemas que estávamos a criar -
9:50 - 9:54e não percebíamos minimamente
como fazer de forma diferente. -
9:55 - 9:58Penso que há algumas coisas
que parecem ter levado a isto -
9:58 - 9:59sobretudo no YouTube,
-
9:59 - 10:01A primeira é a publicidade
-
10:01 - 10:04que é a monetarização da atenção
-
10:04 - 10:07sem quaisquer outras variáveis em ação,
-
10:07 - 10:11sem se pensar nas pessoas
que desenvolvem este conteúdo, -
10:11 - 10:14a centralização do poder,
a separação destas coisas. -
10:15 - 10:18Mas penso que, em relação
ao uso da publicidade, -
10:18 - 10:19que apoia este tipo de coisas,
-
10:19 - 10:22a vista de adultos de fraldas
a rebolar na areia -
10:22 - 10:25na esperança de que um algoritmo
- de que não percebem nada - -
10:25 - 10:27lhes dará dinheiro,
-
10:27 - 10:29sugere que, provavelmente,
não é nisso que devemos basear -
10:29 - 10:31a nossa sociedade e a nossa cultura
-
10:31 - 10:33e a forma como devemos financiá-la.
-
10:34 - 10:37A outra coisa que é
o maior impulso é a automação -
10:37 - 10:39que é a evolução
de toda esta tecnologia -
10:39 - 10:42logo que ela chega
sem qualquer tipo de supervisão -
10:42 - 10:44e, logo que ela aparece,
lavamos as mãos e dizemos: -
10:44 - 10:47"Não fomos nós, é a tecnologia".
-
10:47 - 10:49"Nós não estamos metidos nisso".
-
10:49 - 10:51Isso não chega
-
10:51 - 10:53porque isto, além de ser
governado por algoritmos, -
10:53 - 10:56também é policiado por algoritmos.
-
10:56 - 10:59Quando o YouTube começou
a prestar atenção a isto, -
10:59 - 11:02a primeira coisa que disseram
foi que iam arranjar melhores algoritmos -
11:02 - 11:05através da aprendizagem de máquinas,
para moderar o conteúdo -
11:05 - 11:09Bom, a aprendizagem de máquinas,
como qualquer especialista dirá, -
11:09 - 11:11é aquilo a que começámos
por chamar "software" -
11:11 - 11:13e que não percebemos
minimamente como funciona. -
11:13 - 11:16Penso que já temos disso que chegue.
-
11:17 - 11:20Não devíamos deixar estas coisas
para a IA decidir -
11:20 - 11:22o que é apropriado ou não,
-
11:22 - 11:23porque sabemos o que acontece.
-
11:23 - 11:25Vai começar por censurar outras coisas,
-
11:25 - 11:27censurar conteúdos estranhos,
-
11:27 - 11:29censurar discursos públicos legítimos.
-
11:29 - 11:31O que é permitido nesses discursos
-
11:31 - 11:34não devia ser uma coisa
deixada a sistemas irresponsáveis. -
11:34 - 11:37Faz parte de uma discussão
que todos devíamos ter. -
11:37 - 11:38Mas vou deixar um alerta:
-
11:38 - 11:41a alternativa também
não é muito agradável. -
11:41 - 11:43O YouTube anunciou recentemente
-
11:43 - 11:45que vão lançar uma versão
da sua aplicação para crianças -
11:45 - 11:48que será totalmente
moderada por pessoas. -
11:48 - 11:52Facebook - Zuckeberger disse
uma coisa parecida no Congresso, -
11:52 - 11:55quando lhe perguntaram
como iam moderar as suas coisas. -
11:55 - 11:57Disse que iam pôr pessoas a fazê-lo.
-
11:57 - 11:59Queriam dizer que,
em vez de serem as crianças -
11:59 - 12:01as primeiras a verem aqueles conteúdos
-
12:01 - 12:04iam pôr trabalhadores mal pagos,
com contratos precários, -
12:04 - 12:06sem apoio adequado de saúde mental,
-
12:06 - 12:07que também vão ser contaminados.
-
12:07 - 12:08(Risos)
-
12:08 - 12:11
Penso que todos podemos fazer
melhor do que isso. -
12:11 - 12:13(Aplausos)
-
12:14 - 12:18Penso que a ideia que reúne
estas duas coisas -
12:19 - 12:20é a ação.
-
12:20 - 12:23Ou seja, por ação, quero dizer
-
12:23 - 12:27até que ponto sabemos como agir
no nosso melhor interesse? -
12:28 - 12:30É quase impossível sabê-lo
-
12:30 - 12:33nestes sistemas que não
compreendemos minimamente. -
12:33 - 12:36A desigualdade no poder
leva sempre à violência. -
12:36 - 12:38Vemos no interior destes sistemas
-
12:38 - 12:41que a desigualdade de compreensão
faz a mesma coisa. -
12:41 - 12:44Se há alguma coisa que podemos fazer
para começar a melhorar estes sistemas, -
12:44 - 12:47é torná-los mais legíveis
para as pessoas que os usam, -
12:47 - 12:49de modo a que todos tenhamos
um entendimento comum -
12:49 - 12:51do que está realmente a acontecer.
-
12:52 - 12:55Mas a coisa em que mais penso
quanto a estes sistemas -
12:55 - 12:59é que isto não é, como espero
ter deixado claro, sobre o YouTube. -
12:59 - 13:00Trata-se de todas as coisas.
-
13:00 - 13:03Estes problemas
de responsabilização e de ação, -
13:03 - 13:05de opacidade e de complexidade,
-
13:05 - 13:08da violência e da exploração
que resulta inerentemente -
13:08 - 13:11da concentração do poder
em poucas mãos -
13:11 - 13:13- são problemas muito maiores.
-
13:14 - 13:18São problemas não apenas do YouTube
nem sequer da tecnologia em geral -
13:18 - 13:19e nem sequer são novos.
-
13:19 - 13:21Sempre os tivemos ao longo de eras.
-
13:21 - 13:25Mas, por fim, criámos este sistema,
este sistema global, a Internet, -
13:25 - 13:28que está a exibir-se à nossa frente
desta forma extraordinária, -
13:28 - 13:30tornando-os inegáveis.
-
13:30 - 13:33A tecnologia tem
esta capacidade extraordinária -
13:33 - 13:36de exemplificar e continuar
-
13:37 - 13:41todos os nossos desejos e preconceitos
mais extraordinários e às vezes ocultos -
13:41 - 13:43e codificando-os no mundo,
-
13:43 - 13:46mas também de os escrever
para os podermos ver, -
13:46 - 13:49de modo que já não podemos
pretender que não existem. -
13:50 - 13:52Temos que deixar de pensar na tecnologia
-
13:52 - 13:54como uma solução
para todos os nossos problemas -
13:54 - 13:58mas pensar nela como uma orientação
para quais são esses problemas hoje, -
13:58 - 14:00para podermos pensar neles
de modo adequado -
14:00 - 14:02e começar a resolvê-los.
-
14:02 - 14:03Muito obrigado.
-
14:03 - 14:07(Aplausos)
-
14:10 - 14:11Obrigado.
-
14:11 - 14:14(Aplausos)
-
14:17 - 14:20Helen Walters: James, obrigada
por teres vindo fazer esta palestra. -
14:20 - 14:21É interessante,
-
14:21 - 14:25quando pensamos nos filmes
em que os robôs assumem o comando, -
14:25 - 14:28é um pouco mais deslumbrante
do que o que descreveste. -
14:28 - 14:32Mas fico a pensar - nestes filmes,
temos a escalada da resistência. -
14:32 - 14:35Há uma escalada de resistência
contra esta matéria? -
14:35 - 14:39Vês quaisquer sinais positivos,
disparos verdes de resistência? -
14:40 - 14:43James Bridle: Não sei nada
sobre resistência direta, -
14:43 - 14:45porque penso que isto
é a muito longo prazo, -
14:45 - 14:48está cozinhado na cultura
de forma muito profunda. -
14:48 - 14:50Uma amiga minha,
Eleanor Saitta, diz sempre -
14:50 - 14:54que quaisquer problemas tecnológicos
de dimensão e âmbito suficientes -
14:54 - 14:56são problemas políticos,
acima de tudo. -
14:56 - 14:58Portanto, todas estas coisas
que tentamos abordar -
14:59 - 15:01não vão ser resolvidas apenas
por melhorarmos a tecnologia, -
15:02 - 15:05mas só alterando a sociedade
que produz essas tecnologias. -
15:05 - 15:08Neste momento, penso que temos
um comprido caminho a percorrer. -
15:08 - 15:11Mas, como disse, penso que,
se os explicarmos, -
15:11 - 15:13se falarmos disso de forma honesta,
-
15:13 - 15:16pelo menos, podemos iniciar esse processo.
-
15:16 - 15:19HW: Quando falas da legibilidade
e da literacia digital, -
15:19 - 15:21tenho dificuldade em imaginar
-
15:21 - 15:25que precisamos de atirar o peso
da literacia digital para os utilizadores. -
15:25 - 15:29De quem é a responsabilidade
do ensino neste novo mundo? -
15:29 - 15:33JB: Penso que essa responsabilidade
também tem a ver com todos nós, -
15:33 - 15:36penso que tudo o que fazemos,
tudo o que criamos, -
15:36 - 15:39tem que ser feito
numa discussão consensual -
15:40 - 15:42com todos os que a têm evitado.
-
15:42 - 15:43de que não estamos a construir sistemas
-
15:43 - 15:46destinados a enganar
e a surpreender as pessoas -
15:46 - 15:48mas para fazer as coisas certas,
-
15:48 - 15:52e que eles estão realmente envolvidos
em cada passo na educação deles, -
15:52 - 15:54porque cada um destes sistemas
é educativo. -
15:54 - 15:57É nisso que tenho esperança,
mesmo nestas coisas sombrias, -
15:57 - 15:59que, se pudermos
analisá-lo devidamente, -
15:59 - 16:01é em si mesmo
uma peça de ensino -
16:01 - 16:03que nos permite começar a ver
-
16:03 - 16:05como sistemas complexos
se juntam e funcionam -
16:05 - 16:08e porventura possam aplicar
esses conhecimentos pelo mundo. -
16:09 - 16:11HW: James, é uma discussão
tão importante -
16:11 - 16:14e sei que muita gente aqui
está aberta e preparada para ela -
16:14 - 16:16obrigada por teres começado
a nossa manhã. -
16:16 - 16:17JB: Muito obrigado.
-
16:17 - 16:19(Aplausos)
- Title:
- Os vídeos de pesadelo do YouTube para crianças - e o que há de errado com a Internet
- Speaker:
- James Bridle
- Description:
-
James Bridle, escritor e artista, revela um canto escuro e estranho da Internet, em que pessoas ou grupos desconhecidos no YouTube se apoderam do cérebro de criancinhas em troca de receitas publicitárias. Desde os "ovos surpresa e as canções da família dos dedos, até âs misturadas criadas por algoritmos de figuras de desenhos animados familiares, em situações violentas, estes vídeos exploram e aterrorizam espíritos jovens- e dizem-nos coisas sobre para onde são dirigidos cada vez mais os nossos dados. "Temos que deixar de pensar na tecnologia como uma solução para todos os nossos problemas e pensar nela como um guia para quais são esses problemas, para podermos pensar neles de forma adequada e começar a resolvê-los", diz Bridle.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32