< Return to Video

Os vídeos de pesadelo do YouTube para crianças - e o que há de errado com a Internet

  • 0:01 - 0:02
    Sou James.
  • 0:02 - 0:04
    Sou escritor e artista
  • 0:04 - 0:06
    e trabalho sobre a tecnologia.
  • 0:06 - 0:10
    Faço coisas como desenhar
    "drones" militares em tamanho natural
  • 0:10 - 0:12
    nas ruas das cidades, por todo o mundo,
  • 0:12 - 0:16
    para que as pessoas comecem a pensar,
    a dar a volta à cabeça,
  • 0:16 - 0:19
    nestas tecnologias muito difíceis de ver
    e muito difíceis de imaginar.
  • 0:19 - 0:23
    Faço coisas como redes neurais
    que preveem os resultados de eleições.
  • 0:23 - 0:25
    com base nos boletins meteorológicos,
  • 0:25 - 0:26
    porque sinto-me intrigado
  • 0:27 - 0:30
    com as reais possibilidades
    destas novas tecnologias estranhas.
  • 0:31 - 0:34
    No ano passado, construí
    o meu carro autónomo.
  • 0:34 - 0:36
    Mas, como não confio na tecnologia,
  • 0:36 - 0:39
    também desenhei uma ratoeira para ele.
  • 0:39 - 0:40
    (Risos)
  • 0:40 - 0:44
    Faço estas coisas sobretudo porque
    acho-as totalmente fascinantes
  • 0:44 - 0:47
    mas também porque penso que,
    quando falamos de tecnologia,
  • 0:47 - 0:49
    estamos sobretudo a falar de nós mesmos
  • 0:49 - 0:52
    e da forma como entendemos o mundo.
  • 0:52 - 0:54
    Eis uma história sobre tecnologia.
  • 0:56 - 0:58
    Este é um vídeo de "ovos surpresa".
  • 0:58 - 1:02
    É basicamente um vídeo de alguém
    a abrir montes de ovos de chocolate
  • 1:02 - 1:04
    e mostra ao espetador
    os brinquedos que estão lá dentro.
  • 1:04 - 1:07
    É só isso. É só o que se passa
    durante sete longos minutos.
  • 1:07 - 1:10
    Queria que reparassem em duas coisas.
  • 1:11 - 1:15
    Primeiro, este vídeo
    tem 30 milhões de visitas.
  • 1:15 - 1:16
    (Risos)
  • 1:16 - 1:18
    A outra coisa é:
  • 1:18 - 1:21
    aparece num canal
    que tem 6,3 milhões de subscritores
  • 1:21 - 1:24
    que tem um total
    de oito milhões de visitas
  • 1:24 - 1:27
    e há mais vídeos como este.
  • 1:28 - 1:32
    Trinta milhões de pessoas
    que veem um tipo a abrir estes ovos.
  • 1:32 - 1:37
    Parece muito estranho mas, se pesquisarem
    "ovos surpresa" no YouTube,
  • 1:37 - 1:40
    verificam que há 10 milhões destes vídeos
  • 1:40 - 1:42
    e acho que a contagem
    está feita por baixo.
  • 1:42 - 1:44
    Acho que há muitos mais.
  • 1:44 - 1:46
    Se continuarem a procurar, não têm fim.
  • 1:46 - 1:48
    Há milhões e milhões destes vídeos,
  • 1:48 - 1:52
    em combinações incrivelmente barrocas
    de marcas e materiais.
  • 1:52 - 1:55
    E todos os dias cada vez há mais
    a aparecerem na Internet.
  • 1:56 - 1:59
    Isto é um mundo estranho.
  • 1:59 - 2:03
    Mas o que acontece é que
    não são os adultos que veem estes vídeos.
  • 2:03 - 2:05
    São os miúdos, as crianças.
  • 2:06 - 2:08
    Estes vídeos são como droga
    para as crianças.
  • 2:08 - 2:10
    Há qualquer coisa quanto à repetição,
  • 2:10 - 2:12
    o constante choque
    de dopamina da revelação
  • 2:12 - 2:14
    que os hipnotiza totalmente.
  • 2:14 - 2:19
    As crianças veem estes vídeos
    vezes sem conta
  • 2:19 - 2:21
    e fazem-no durante horas
    e horas e horas.
  • 2:21 - 2:25
    Se tentarem afastá-las do ecrã,
    elas desatam aos gritos.
  • 2:25 - 2:27
    Se não acreditam
  • 2:27 - 2:29
    - já vi pessoas no público
    a abanar a cabeça -
  • 2:29 - 2:32
    se não acreditam, procurem alguém
    com uma criança pequena e perguntem-lhe.
  • 2:32 - 2:35
    Eles conhecem os vídeos
    dos ovos surpresa.
  • 2:36 - 2:37
    É aqui que começamos.
  • 2:37 - 2:41
    Estamos em 2018 e alguém,
    ou imensas pessoas,
  • 2:41 - 2:45
    usam o mesmo mecanismo
    que o Facebook e o Instagram usam
  • 2:45 - 2:47
    para nos obrigar a voltar
    a ver aquela aplicação
  • 2:47 - 2:51
    e usam-no no YouTube para apanhar
    o cérebro das criancinhas
  • 2:51 - 2:53
    em troca de receitas publicitárias.
  • 2:54 - 2:56
    Pelo menos, é o que eu julgo
    que estão a fazer.
  • 2:57 - 2:58
    Espero que seja o que eles estão a fazer
  • 2:58 - 3:03
    porque há formas mais fáceis de gerar
    receitas publicitárias no YouTube.
  • 3:04 - 3:06
    Podemos inventar coisas ou roubar coisas.
  • 3:06 - 3:09
    Se procurarem desenhos animados
    infantis, realmente populares,
  • 3:09 - 3:11
    como o "Peppa Pig" ou o " Patrulha Pata",
  • 3:11 - 3:14
    descobrem que também há
    muitos milhões deles na Internet.
  • 3:14 - 3:17
    Claro que a maioria não são
    publicados pelos criadores originais.
  • 3:17 - 3:20
    São carregados por imensas
    diferentes contas ao acaso
  • 3:20 - 3:22
    e é impossível saber quem as publicou
  • 3:22 - 3:24
    ou quais os motivos para isso.
  • 3:24 - 3:26
    Isto parece-vos familiar?
  • 3:26 - 3:28
    Porque é exatamente o mesmo mecanismo
  • 3:28 - 3:31
    que está a ocorrer na maior parte
    dos nossos serviços digitais
  • 3:31 - 3:34
    em que é impossível saber
    de onde provêm as informações.
  • 3:34 - 3:36
    São notícias falsas para crianças
  • 3:36 - 3:38
    e nós estamos a treinar as crianças
    desde que nascem,
  • 3:39 - 3:41
    para clicarem na primeira ligação
    que lhes apareça,
  • 3:41 - 3:43
    seja qual for a sua origem.
  • 3:43 - 3:46
    Não parece ser uma ideia muito boa.
  • 3:46 - 3:49
    Uma outra coisa que é importante
    no YouTube para crianças
  • 3:49 - 3:51
    chama-se "Finger Family Song."
  • 3:51 - 3:53
    Ouvi alguém no público a resmungar.
  • 3:53 - 3:55
    Esta é a canção da Família dos Dedos.
  • 3:55 - 3:57
    Foi a primeira que encontrei.
  • 3:57 - 4:00
    É de 2007 e só tem 200 000 visitas
  • 4:00 - 4:02
    o que é nada, neste campeonato.
  • 4:02 - 4:04
    Mas tem uma melodia irritante
  • 4:04 - 4:06
    que não vou tocar para vocês ouvirem
  • 4:06 - 4:08
    porque ela cola-se no vosso cérebro
  • 4:08 - 4:10
    tal como se colou no meu
  • 4:10 - 4:12
    e não vou fazer-vos uma partida dessas.
  • 4:12 - 4:14
    Mas, tal como com os ovos surpresa,
  • 4:14 - 4:18
    enfia-se na cabeça das crianças
    e elas ficam viciados nela.
  • 4:18 - 4:20
    Dentro de alguns anos,
    estes vídeos da família dos dedos
  • 4:20 - 4:22
    começa a aparecer por toda a parte
  • 4:22 - 4:24
    e temos versões em várias línguas
  • 4:24 - 4:26
    com desenhos animados para crianças,
    usando a comida
  • 4:26 - 4:28
    ou usando todos e quaisquer
    elementos de animação
  • 4:28 - 4:31
    que por aí existem.
  • 4:31 - 4:36
    Mais uma vez, há milhões e milhões
    destes vídeos na Internet,
  • 4:36 - 4:40
    disponíveis em todos os tipos
    de combinações extravagantes.
  • 4:40 - 4:42
    Quanto mais tempo gastarmos com eles
  • 4:42 - 4:45
    mais loucos nos começamos a sentir.
  • 4:46 - 4:49
    Foi aí que comecei a sentir
  • 4:49 - 4:53
    uma sensação de profunda estranheza
    e profunda falta de compreensão
  • 4:53 - 4:56
    de como era montada esta coisa
    que parece estar sempre à minha volta.
  • 4:57 - 5:00
    Porque é impossível saber
    de onde vêm estas coisas.
  • 5:00 - 5:01
    Quem é que as faz?
  • 5:01 - 5:04
    Alguns parecem ser feitos
    por equipas de animadores profissionais.
  • 5:05 - 5:07
    Alguns são apenas montados
    ao acaso por um "software".
  • 5:07 - 5:12
    Alguns deles são vídeos para crianças
    com um aspeto muito saudável.
  • 5:12 - 5:13
    E alguns são de pessoas
  • 5:13 - 5:16
    que, claramente, não deviam
    aproximar-se de criancinhas.
  • 5:16 - 5:18
    (Risos)
  • 5:20 - 5:24
    Mais uma vez, esta impossibilidade
    de vir a saber quem é que faz estas coisas
  • 5:24 - 5:25
    - tipo, isto é um robô?
  • 5:25 - 5:27
    Isto é uma pessoa? é um "troll"?
  • 5:28 - 5:30
    O que significa é
    que já não consigamos ver
  • 5:30 - 5:31
    as diferenças entre estas coisas.
  • 5:32 - 5:36
    Esta incerteza não vos parece familiar?
  • 5:38 - 5:41
    A principal forma de as pessoas
    obterem visitas nos seus vídeos
  • 5:41 - 5:43
    - os vídeos significam dinheiro -
  • 5:43 - 5:47
    é encherem os títulos desses vídeos
    com estes termos populares.
  • 5:47 - 5:49
    Por exemplo, os ovos surpresa.
  • 5:49 - 5:51
    Acrescenta-se ao título
    "Patrulha Pata", "Ovo da Páscoa"
  • 5:51 - 5:53
    ou outra coisa qualquer,
  • 5:53 - 5:55
    todas as palavras
    de outros vídeos populares
  • 5:55 - 5:58
    até acabar neste tipo
    de linguagem misturada, sem sentido
  • 5:58 - 6:01
    que não faz sentido nenhum
    para as pessoas.
  • 6:01 - 6:04
    Porque, claro, são só as crianças
    que veem esses vídeos
  • 6:04 - 6:06
    e o que é que eles sabem?
  • 6:06 - 6:09
    O verdadeiro público
    para estas coisas é o "software",
  • 6:09 - 6:11
    são os algoritmos.
  • 6:11 - 6:12
    É o "software" que o YouTube usa
  • 6:12 - 6:15
    para escolher os vídeos
    que são como os outros vídeos,
  • 6:15 - 6:17
    para os tornar populares,
    para os recomendar.
  • 6:17 - 6:21
    É assim que acabamos por ter
    esta misturada totalmente sem sentido,
  • 6:21 - 6:23
    tanto a nível do título como do conteúdo.
  • 6:24 - 6:26
    Mas é preciso não esquecermos
  • 6:26 - 6:27
    que, mesmo assim, ainda há pessoas
  • 6:27 - 6:30
    dentro deste sistema
    otimizado com algoritmos,
  • 6:30 - 6:33
    pessoas que são forçadas a produzir
  • 6:33 - 6:36
    estas combinações de palavras
    cada vez mais bizarras,
  • 6:36 - 6:41
    numa desesperada improvisação artística
    reagindo aos gritos combinados
  • 6:41 - 6:44
    de um milhão de bebés ao mesmo tempo.
  • 6:45 - 6:48
    São pessoas reais, presas
    dentro destes sistemas
  • 6:48 - 6:51
    e essa é a outra coisa muito estranha
    desta cultura comandada por logaritmos,
  • 6:51 - 6:53
    porque, mesmo sendo seres humanos,
  • 6:53 - 6:55
    acabamos por nos comportar
    como uma máquina
  • 6:55 - 6:57
    apenas para sobrevivermos.
  • 6:57 - 6:59
    Do outro lado do ecrã,
  • 6:59 - 7:02
    continua a haver criancinhas
    a ver estas coisas.
  • 7:02 - 7:06
    com a atenção presa
    nestes mecanismos esquisitos.
  • 7:07 - 7:10
    A maioria dessas crianças são
    muito pequenas para usar a Internet.
  • 7:10 - 7:13
    Só batem no ecrã com as suas mãozinhas.
  • 7:13 - 7:14
    Por isso, há o Autoplay,
  • 7:14 - 7:17
    que se limita a exibir estes vídeos
    vezes sem conta, num ciclo,
  • 7:17 - 7:20
    durante horas e horas seguidas,
    infindavelmente.
  • 7:20 - 7:23
    Há atualmente no sistema
    tanta coisa esquisita
  • 7:23 - 7:26
    que o Autoplay nos leva
    a locais muito estranhos.
  • 7:26 - 7:28
    Isto é como, em doze passos,
  • 7:28 - 7:31
    podemos passar de um vídeo giro
    de um comboio de contagem
  • 7:31 - 7:34
    para um Mickey Mouse a masturbar-se.
  • 7:35 - 7:36
    Desculpem isto.
  • 7:37 - 7:39
    Mas as coisas pioram.
  • 7:39 - 7:40
    Isto é o que acontece
  • 7:40 - 7:43
    quando todas estas palavras-chave,
  • 7:43 - 7:45
    todas estas diferentes peças de atenção,
  • 7:45 - 7:48
    esta geração desesperada de conteúdo,
  • 7:48 - 7:51
    se junta tudo num só local.
  • 7:52 - 7:54
    É aqui que todas estas palavras-chave
  • 7:54 - 7:57
    profundamente estranhas
    entram na nossa casa.
  • 7:57 - 7:59
    Mistura-se o vídeo da família dos dedos
  • 7:59 - 8:01
    com alguma ação de super-heróis,
  • 8:01 - 8:04
    acrescenta-se umas piadas baratas
    ou qualquer coisa assim
  • 8:04 - 8:07
    e, de repente, vamos parar
    a um sítio muito esquisito.
  • 8:08 - 8:10
    As coisas que mais incomodam os pais
  • 8:10 - 8:13
    são as coisas que têm um conteúdo
    violento ou sexual, não é?
  • 8:13 - 8:16
    Os desenhos animados
    em que crianças são atacadas
  • 8:16 - 8:18
    são assassinadas,
  • 8:18 - 8:21
    situações estranhas que aterrorizam
    genuinamente as crianças.
  • 8:21 - 8:25
    Temos é um "software" que vai buscar
    todas estas influências diferentes
  • 8:25 - 8:28
    para gerar automaticamente
    os piores pesadelos das crianças.
  • 8:28 - 8:31
    Este material afeta realmente
    as criancinhas.
  • 8:31 - 8:34
    Os pais relatam que os filhos
    ficam traumatizados,
  • 8:34 - 8:35
    ficam com medo do escuro,
  • 8:35 - 8:38
    ficam com medo
    dos desenhos animados preferidos.
  • 8:39 - 8:42
    Se há uma conclusão a tirar daqui
    é que, se tiverem filhos pequenos,
  • 8:42 - 8:44
    mantenham-nos bem afastados do YouTube.
  • 8:45 - 8:48
    (Aplausos)
  • 8:51 - 8:54
    Mas há outra coisa que me aborrece
  • 8:54 - 8:58
    é que eu não tenho a certeza se percebemos
    como chegámos a este ponto.
  • 8:59 - 9:02
    Aceitámos todas estas influências,
    todas estas coisas
  • 9:02 - 9:05
    misturadas duma forma
    que ninguém pretendia.
  • 9:05 - 9:08
    Mas isto também é a forma
    como estamos a construir o mundo inteiro.
  • 9:08 - 9:11
    Agarramos em todas estas informações,
    uma data de más informações,
  • 9:11 - 9:14
    uma data de informações históricas
    cheias de preconceitos,
  • 9:14 - 9:17
    cheias de todos os nossos
    piores impulsos da história,
  • 9:17 - 9:19
    criamos enormes conjuntos de informações
  • 9:19 - 9:21
    e depois automatizamo-las.
  • 9:21 - 9:24
    E estamos a misturá-las
    com coisas como relatórios de crédito,
  • 9:24 - 9:26
    com prémios de seguros,
  • 9:26 - 9:29
    com coisas como
    sistemas de vigilância preditiva
  • 9:29 - 9:31
    com linhas de orientação
    de sentenças.
  • 9:31 - 9:33
    Esta é a forma como estamos
    a construir o mundo de hoje
  • 9:33 - 9:35
    a partir destas informações.
  • 9:35 - 9:36
    Não sei o que será pior,
  • 9:36 - 9:39
    termos criado um sistema
    que parece estar totalmente otimizado
  • 9:39 - 9:42
    para os piores aspetos absolutos
    do comportamento humano
  • 9:42 - 9:45
    ou parecer que o fizemos por acaso
  • 9:45 - 9:47
    sem sequer ter percebido
    o que estávamos a fazer,
  • 9:47 - 9:50
    porque não percebíamos nada
    dos sistemas que estávamos a criar
  • 9:50 - 9:54
    e não percebíamos minimamente
    como fazer de forma diferente.
  • 9:55 - 9:58
    Penso que há algumas coisas
    que parecem ter levado a isto
  • 9:58 - 9:59
    sobretudo no YouTube,
  • 9:59 - 10:01
    A primeira é a publicidade
  • 10:01 - 10:04
    que é a monetarização da atenção
  • 10:04 - 10:07
    sem quaisquer outras variáveis em ação,
  • 10:07 - 10:11
    sem se pensar nas pessoas
    que desenvolvem este conteúdo,
  • 10:11 - 10:14
    a centralização do poder,
    a separação destas coisas.
  • 10:15 - 10:18
    Mas penso que, em relação
    ao uso da publicidade,
  • 10:18 - 10:19
    que apoia este tipo de coisas,
  • 10:19 - 10:22
    a vista de adultos de fraldas
    a rebolar na areia
  • 10:22 - 10:25
    na esperança de que um algoritmo
    - de que não percebem nada -
  • 10:25 - 10:27
    lhes dará dinheiro,
  • 10:27 - 10:29
    sugere que, provavelmente,
    não é nisso que devemos basear
  • 10:29 - 10:31
    a nossa sociedade e a nossa cultura
  • 10:31 - 10:33
    e a forma como devemos financiá-la.
  • 10:34 - 10:37
    A outra coisa que é
    o maior impulso é a automação
  • 10:37 - 10:39
    que é a evolução
    de toda esta tecnologia
  • 10:39 - 10:42
    logo que ela chega
    sem qualquer tipo de supervisão
  • 10:42 - 10:44
    e, logo que ela aparece,
    lavamos as mãos e dizemos:
  • 10:44 - 10:47
    "Não fomos nós, é a tecnologia".
  • 10:47 - 10:49
    "Nós não estamos metidos nisso".
  • 10:49 - 10:51
    Isso não chega
  • 10:51 - 10:53
    porque isto, além de ser
    governado por algoritmos,
  • 10:53 - 10:56
    também é policiado por algoritmos.
  • 10:56 - 10:59
    Quando o YouTube começou
    a prestar atenção a isto,
  • 10:59 - 11:02
    a primeira coisa que disseram
    foi que iam arranjar melhores algoritmos
  • 11:02 - 11:05
    através da aprendizagem de máquinas,
    para moderar o conteúdo
  • 11:05 - 11:09
    Bom, a aprendizagem de máquinas,
    como qualquer especialista dirá,
  • 11:09 - 11:11
    é aquilo a que começámos
    por chamar "software"
  • 11:11 - 11:13
    e que não percebemos
    minimamente como funciona.
  • 11:13 - 11:16
    Penso que já temos disso que chegue.
  • 11:17 - 11:20
    Não devíamos deixar estas coisas
    para a IA decidir
  • 11:20 - 11:22
    o que é apropriado ou não,
  • 11:22 - 11:23
    porque sabemos o que acontece.
  • 11:23 - 11:25
    Vai começar por censurar outras coisas,
  • 11:25 - 11:27
    censurar conteúdos estranhos,
  • 11:27 - 11:29
    censurar discursos públicos legítimos.
  • 11:29 - 11:31
    O que é permitido nesses discursos
  • 11:31 - 11:34
    não devia ser uma coisa
    deixada a sistemas irresponsáveis.
  • 11:34 - 11:37
    Faz parte de uma discussão
    que todos devíamos ter.
  • 11:37 - 11:38
    Mas vou deixar um alerta:
  • 11:38 - 11:41
    a alternativa também
    não é muito agradável.
  • 11:41 - 11:43
    O YouTube anunciou recentemente
  • 11:43 - 11:45
    que vão lançar uma versão
    da sua aplicação para crianças
  • 11:45 - 11:48
    que será totalmente
    moderada por pessoas.
  • 11:48 - 11:52
    Facebook - Zuckeberger disse
    uma coisa parecida no Congresso,
  • 11:52 - 11:55
    quando lhe perguntaram
    como iam moderar as suas coisas.
  • 11:55 - 11:57
    Disse que iam pôr pessoas a fazê-lo.
  • 11:57 - 11:59
    Queriam dizer que,
    em vez de serem as crianças
  • 11:59 - 12:01
    as primeiras a verem aqueles conteúdos
  • 12:01 - 12:04
    iam pôr trabalhadores mal pagos,
    com contratos precários,
  • 12:04 - 12:06
    sem apoio adequado de saúde mental,
  • 12:06 - 12:07
    que também vão ser contaminados.
  • 12:07 - 12:08
    (Risos)
  • 12:08 - 12:11

    Penso que todos podemos fazer
    melhor do que isso.
  • 12:11 - 12:13
    (Aplausos)
  • 12:14 - 12:18
    Penso que a ideia que reúne
    estas duas coisas
  • 12:19 - 12:20
    é a ação.
  • 12:20 - 12:23
    Ou seja, por ação, quero dizer
  • 12:23 - 12:27
    até que ponto sabemos como agir
    no nosso melhor interesse?
  • 12:28 - 12:30
    É quase impossível sabê-lo
  • 12:30 - 12:33
    nestes sistemas que não
    compreendemos minimamente.
  • 12:33 - 12:36
    A desigualdade no poder
    leva sempre à violência.
  • 12:36 - 12:38
    Vemos no interior destes sistemas
  • 12:38 - 12:41
    que a desigualdade de compreensão
    faz a mesma coisa.
  • 12:41 - 12:44
    Se há alguma coisa que podemos fazer
    para começar a melhorar estes sistemas,
  • 12:44 - 12:47
    é torná-los mais legíveis
    para as pessoas que os usam,
  • 12:47 - 12:49
    de modo a que todos tenhamos
    um entendimento comum
  • 12:49 - 12:51
    do que está realmente a acontecer.
  • 12:52 - 12:55
    Mas a coisa em que mais penso
    quanto a estes sistemas
  • 12:55 - 12:59
    é que isto não é, como espero
    ter deixado claro, sobre o YouTube.
  • 12:59 - 13:00
    Trata-se de todas as coisas.
  • 13:00 - 13:03
    Estes problemas
    de responsabilização e de ação,
  • 13:03 - 13:05
    de opacidade e de complexidade,
  • 13:05 - 13:08
    da violência e da exploração
    que resulta inerentemente
  • 13:08 - 13:11
    da concentração do poder
    em poucas mãos
  • 13:11 - 13:13
    - são problemas muito maiores.
  • 13:14 - 13:18
    São problemas não apenas do YouTube
    nem sequer da tecnologia em geral
  • 13:18 - 13:19
    e nem sequer são novos.
  • 13:19 - 13:21
    Sempre os tivemos ao longo de eras.
  • 13:21 - 13:25
    Mas, por fim, criámos este sistema,
    este sistema global, a Internet,
  • 13:25 - 13:28
    que está a exibir-se à nossa frente
    desta forma extraordinária,
  • 13:28 - 13:30
    tornando-os inegáveis.
  • 13:30 - 13:33
    A tecnologia tem
    esta capacidade extraordinária
  • 13:33 - 13:36
    de exemplificar e continuar
  • 13:37 - 13:41
    todos os nossos desejos e preconceitos
    mais extraordinários e às vezes ocultos
  • 13:41 - 13:43
    e codificando-os no mundo,
  • 13:43 - 13:46
    mas também de os escrever
    para os podermos ver,
  • 13:46 - 13:49
    de modo que já não podemos
    pretender que não existem.
  • 13:50 - 13:52
    Temos que deixar de pensar na tecnologia
  • 13:52 - 13:54
    como uma solução
    para todos os nossos problemas
  • 13:54 - 13:58
    mas pensar nela como uma orientação
    para quais são esses problemas hoje,
  • 13:58 - 14:00
    para podermos pensar neles
    de modo adequado
  • 14:00 - 14:02
    e começar a resolvê-los.
  • 14:02 - 14:03
    Muito obrigado.
  • 14:03 - 14:07
    (Aplausos)
  • 14:10 - 14:11
    Obrigado.
  • 14:11 - 14:14
    (Aplausos)
  • 14:17 - 14:20
    Helen Walters: James, obrigada
    por teres vindo fazer esta palestra.
  • 14:20 - 14:21
    É interessante,
  • 14:21 - 14:25
    quando pensamos nos filmes
    em que os robôs assumem o comando,
  • 14:25 - 14:28
    é um pouco mais deslumbrante
    do que o que descreveste.
  • 14:28 - 14:32
    Mas fico a pensar - nestes filmes,
    temos a escalada da resistência.
  • 14:32 - 14:35
    Há uma escalada de resistência
    contra esta matéria?
  • 14:35 - 14:39
    Vês quaisquer sinais positivos,
    disparos verdes de resistência?
  • 14:40 - 14:43
    James Bridle: Não sei nada
    sobre resistência direta,
  • 14:43 - 14:45
    porque penso que isto
    é a muito longo prazo,
  • 14:45 - 14:48
    está cozinhado na cultura
    de forma muito profunda.
  • 14:48 - 14:50
    Uma amiga minha,
    Eleanor Saitta, diz sempre
  • 14:50 - 14:54
    que quaisquer problemas tecnológicos
    de dimensão e âmbito suficientes
  • 14:54 - 14:56
    são problemas políticos,
    acima de tudo.
  • 14:56 - 14:58
    Portanto, todas estas coisas
    que tentamos abordar
  • 14:59 - 15:01
    não vão ser resolvidas apenas
    por melhorarmos a tecnologia,
  • 15:02 - 15:05
    mas só alterando a sociedade
    que produz essas tecnologias.
  • 15:05 - 15:08
    Neste momento, penso que temos
    um comprido caminho a percorrer.
  • 15:08 - 15:11
    Mas, como disse, penso que,
    se os explicarmos,
  • 15:11 - 15:13
    se falarmos disso de forma honesta,
  • 15:13 - 15:16
    pelo menos, podemos iniciar esse processo.
  • 15:16 - 15:19
    HW: Quando falas da legibilidade
    e da literacia digital,
  • 15:19 - 15:21
    tenho dificuldade em imaginar
  • 15:21 - 15:25
    que precisamos de atirar o peso
    da literacia digital para os utilizadores.
  • 15:25 - 15:29
    De quem é a responsabilidade
    do ensino neste novo mundo?
  • 15:29 - 15:33
    JB: Penso que essa responsabilidade
    também tem a ver com todos nós,
  • 15:33 - 15:36
    penso que tudo o que fazemos,
    tudo o que criamos,
  • 15:36 - 15:39
    tem que ser feito
    numa discussão consensual
  • 15:40 - 15:42
    com todos os que a têm evitado.
  • 15:42 - 15:43
    de que não estamos a construir sistemas
  • 15:43 - 15:46
    destinados a enganar
    e a surpreender as pessoas
  • 15:46 - 15:48
    mas para fazer as coisas certas,
  • 15:48 - 15:52
    e que eles estão realmente envolvidos
    em cada passo na educação deles,
  • 15:52 - 15:54
    porque cada um destes sistemas
    é educativo.
  • 15:54 - 15:57
    É nisso que tenho esperança,
    mesmo nestas coisas sombrias,
  • 15:57 - 15:59
    que, se pudermos
    analisá-lo devidamente,
  • 15:59 - 16:01
    é em si mesmo
    uma peça de ensino
  • 16:01 - 16:03
    que nos permite começar a ver
  • 16:03 - 16:05
    como sistemas complexos
    se juntam e funcionam
  • 16:05 - 16:08
    e porventura possam aplicar
    esses conhecimentos pelo mundo.
  • 16:09 - 16:11
    HW: James, é uma discussão
    tão importante
  • 16:11 - 16:14
    e sei que muita gente aqui
    está aberta e preparada para ela
  • 16:14 - 16:16
    obrigada por teres começado
    a nossa manhã.
  • 16:16 - 16:17
    JB: Muito obrigado.
  • 16:17 - 16:19
    (Aplausos)
Title:
Os vídeos de pesadelo do YouTube para crianças - e o que há de errado com a Internet
Speaker:
James Bridle
Description:

James Bridle, escritor e artista, revela um canto escuro e estranho da Internet, em que pessoas ou grupos desconhecidos no YouTube se apoderam do cérebro de criancinhas em troca de receitas publicitárias. Desde os "ovos surpresa e as canções da família dos dedos, até âs misturadas criadas por algoritmos de figuras de desenhos animados familiares, em situações violentas, estes vídeos exploram e aterrorizam espíritos jovens- e dizem-nos coisas sobre para onde são dirigidos cada vez mais os nossos dados. "Temos que deixar de pensar na tecnologia como uma solução para todos os nossos problemas e pensar nela como um guia para quais são esses problemas, para podermos pensar neles de forma adequada e começar a resolvê-los", diz Bridle.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Portuguese subtitles

Revisions