Return to Video

A parcialidade moral por trás dos seus resultados de busca na internet

  • 0:01 - 0:04
    Sempre que visito uma escola
    e falo com os alunos,
  • 0:04 - 0:06
    sempre lhes faço a mesma pergunta:
  • 0:07 - 0:08
    "Por que vocês usam a busca do Google?
  • 0:08 - 0:12
    Por que vocês optam pela ferramenta
    de busca do Google?"
  • 0:12 - 0:15
    É engraçado, mas sempre recebo
    as mesmas três respostas.
  • 0:15 - 0:17
    Primeiro: "Porque funciona",
  • 0:17 - 0:20
    o que é uma ótima resposta.
    Também opto pelo Google por isso.
  • 0:20 - 0:25
    Segundo, alguém vai dizer:
    "Não conheço outras ferramentas".
  • 0:25 - 0:28
    Não é uma resposta tão boa quanto
    a anterior, e normalmente respondo:
  • 0:28 - 0:31
    "Busque 'ferramenta de busca' no Google",
  • 0:31 - 0:33
    e vai encontrar algumas
    alternativas interessantes".
  • 0:33 - 0:35
    Por último, mas não menos importante,
  • 0:35 - 0:39
    inevitavelmente, algum aluno
    levanta a mão e diz:
  • 0:39 - 0:44
    "Com o Google, sempre obtenho
    o resultado melhor e imparcial".
  • 0:45 - 0:52
    "Sempre obtenho
    o resultado melhor e imparcial."
  • 0:53 - 0:57
    Como um cara de humanas,
    embora um cara de humanas digitais,
  • 0:57 - 0:59
    isso simplesmente me assusta,
  • 0:59 - 1:04
    embora eu também saiba que essa confiança,
    essa ideia de um resultado imparcial,
  • 1:04 - 1:08
    é a base de nosso apreço
    e paixão coletivos pelo Google.
  • 1:08 - 1:13
    Vou mostrar por que, filosoficamente,
    isso é quase impossível,
  • 1:13 - 1:16
    mas primeiro vou falar, só um pouquinho,
    sobre um princípio básico
  • 1:16 - 1:19
    por trás de cada pesquisa feita,
    do qual às vezes parecemos nos esquecer.
  • 1:19 - 1:22
    Sempre que você pesquisar algo no Google,
  • 1:22 - 1:26
    faça antes a seguinte pergunta a si mesmo:
    "Estou buscando um fato isolado?"
  • 1:26 - 1:29
    Tipo, qual é a capital da França?
  • 1:30 - 1:32
    Quais elementos compõem
    a molécula de água?
  • 1:32 - 1:34
    Perfeito. Pesquise à vontade.
  • 1:34 - 1:37
    Não há um grupo sequer de cientistas
    que esteja perto de provar
  • 1:37 - 1:39
    que as respostas são "Londres" e "H3O".
  • 1:39 - 1:42
    Não se vê uma grande
    conspiração em torno disso.
  • 1:42 - 1:43
    Concordamos, em escala mundial,
  • 1:43 - 1:46
    quanto a quais são as respostas
    para esses fatos isolados.
  • 1:46 - 1:51
    Porém, se você complicar
    a pergunta só um pouquinho, assim:
  • 1:51 - 1:54
    "Por que existe um conflito
    entre Israel e Palestina?",
  • 1:55 - 1:57
    não estará mais buscando
    exatamente um único fato,
  • 1:57 - 1:59
    mas estará buscando conhecimento,
  • 1:59 - 2:02
    o que é bem mais complicado e delicado.
  • 2:02 - 2:04
    E, para chegar ao conhecimento,
  • 2:04 - 2:07
    você precisa trazer
    10, 20 ou 100 fatos à mesa,
  • 2:07 - 2:10
    reconhecê-los e dizer:
    "Sim, todos são verdadeiros".
  • 2:10 - 2:12
    Mas, por causa de quem somos -
  • 2:12 - 2:14
    jovens, idosos, negros,
    brancos, gays, héteros -,
  • 2:14 - 2:17
    vamos valorizá-los de forma diferente:
    "Sim, isso aqui é verdade,
  • 2:17 - 2:20
    mas isso aqui é mais importante
    pra mim do que aquilo".
  • 2:20 - 2:24
    É aí que a coisa fica interessante,
    porque é aí que nos tornamos humanos,
  • 2:24 - 2:27
    que começamos a debater,
    a criar uma sociedade.
  • 2:27 - 2:30
    E, para realmente chegar a algum lugar,
    precisamos filtrar todos os fatos,
  • 2:30 - 2:35
    entre amigos, vizinhos, pais, filhos,
    colegas de trabalho, jornais, revistas,
  • 2:35 - 2:38
    para finalmente estarmos baseados
    em conhecimento real,
  • 2:38 - 2:42
    algo que uma ferramenta de busca
    é ruim em nos ajudar a obter.
  • 2:45 - 2:49
    Prometi a vocês um exemplo,
    apenas para mostrar por que é tão difícil
  • 2:49 - 2:53
    chegar ao conhecimento
    real, claro e objetivo,
  • 2:53 - 2:54
    como ponto para reflexão.
  • 2:54 - 2:58
    Vou fazer algumas
    pesquisas simples, buscas simples.
  • 2:58 - 3:04
    Vamos começar com "Michelle Obama",
    a primeira-dama dos Estados Unidos,
  • 3:04 - 3:06
    e vamos clicar em "imagens".
  • 3:07 - 3:09
    Funciona muito bem, como vocês podem ver.
  • 3:09 - 3:12
    É um resultado de busca
    praticamente perfeito.
  • 3:12 - 3:15
    Só ela aparece nas fotos.
    Nem o presidente aparece.
  • 3:15 - 3:17
    Como isso funciona?
  • 3:18 - 3:19
    Bem simples.
  • 3:19 - 3:22
    O Google usa muita inteligência para isso,
    mas, de forma bem simples,
  • 3:22 - 3:25
    eles analisam principalmente duas coisas.
  • 3:25 - 3:30
    Primeiro, o que está escrito
    na legenda da foto, em cada site?
  • 3:30 - 3:32
    Está escrito "Michelle Obama"
    abaixo da foto?
  • 3:32 - 3:34
    É bem provável que seja ela mesma na foto.
  • 3:34 - 3:36
    Segundo, o Google analisa
    o arquivo da imagem,
  • 3:36 - 3:40
    o nome com que o arquivo
    foi carregado no site.
  • 3:40 - 3:43
    Novamente, se o nome do arquivo
    for "MichelleObama.jpeg",
  • 3:43 - 3:45
    é bem provável que a foto
    não seja do Clint Eastwood.
  • 3:45 - 3:50
    Então, você tem essas duas coisas,
    e obtém um resultado mais ou menos assim.
  • 3:50 - 3:56
    Bem, em 2009, Michelle Obama
    foi vítima de uma campanha racista,
  • 3:56 - 3:59
    quando as pessoas começaram a insultá-la
  • 3:59 - 4:01
    através dos resultados de pesquisa
    relacionados a ela.
  • 4:01 - 4:04
    Uma foto circulou em toda a internet,
  • 4:04 - 4:07
    com o rosto dela distorcido,
    fazendo-a parecer com um macaco.
  • 4:07 - 4:10
    Essa imagem foi publicada
    em toda a internet.
  • 4:10 - 4:13
    As pessoas a publicaram
    realmente com a intenção
  • 4:13 - 4:16
    de aparecer nos primeiros
    resultados de pesquisa.
  • 4:16 - 4:19
    Certificaram-se de escrever
    "Michelle Obama" na legenda
  • 4:19 - 4:23
    e de carregar a imagem como
    "MichelleObama.jpeg", ou algo assim.
  • 4:23 - 4:25
    Entendem por quê?
    Para manipular os resultados.
  • 4:25 - 4:27
    E funcionou também.
  • 4:27 - 4:29
    Então, ao pesquisar imagens
    de "Michelle Obama" em 2009,
  • 4:29 - 4:33
    a imagem distorcida de macaco
    aparecia entre os primeiros resultados.
  • 4:33 - 4:37
    Mas os resultados são autoajustáveis,
    o que é meio que a vantagem disso tudo,
  • 4:37 - 4:42
    porque o Google avalia a relevância
    a cada hora, a cada dia.
  • 4:42 - 4:44
    Porém, o Google não fez isso dessa vez.
  • 4:44 - 4:47
    Eles pensaram: "Isso é racismo
    e um resultado ruim de pesquisa.
  • 4:47 - 4:50
    Vamos lá e vamos corrigir
    isso manualmente.
  • 4:50 - 4:53
    Vamos escrever algum código
    para consertar isso".
  • 4:53 - 4:55
    E assim o fizeram.
  • 4:55 - 4:59
    Não acredito que alguém nesta sala
    ache que isso foi uma má ideia.
  • 5:00 - 5:01
    Também não acho.
  • 5:03 - 5:06
    Mas então, dois anos depois,
  • 5:06 - 5:11
    e o "Anders" mais buscado no Google,
    Anders Behind Breivik,
  • 5:11 - 5:13
    fez o que fez.
  • 5:13 - 5:17
    É 22 de julho de 2011,
    um dia terrível na história da Noruega.
  • 5:17 - 5:21
    Este homem, um terrorista,
    explodiu dois edifícios governamentais,
  • 5:21 - 5:24
    a poucos metros daqui,
    em Oslo, na Noruega,
  • 5:24 - 5:28
    e depois viajou para a ilha de Utøya
    e matou a tiros um grupo de jovens.
  • 5:29 - 5:31
    Quase 80 pessoas morreram naquele dia.
  • 5:32 - 5:37
    Muitos descreveriam esse ato
    de terror como realizado em duas etapas,
  • 5:37 - 5:40
    que ele fez duas coisas: explodiu
    os edifícios e atirou nos jovens.
  • 5:40 - 5:42
    Não é verdade.
  • 5:42 - 5:47
    Foram três etapas: ele explodiu
    aqueles edifícios, atirou naqueles jovens,
  • 5:47 - 5:50
    depois parou e esperou
    até que o mundo o buscasse no Google.
  • 5:51 - 5:54
    Ele preparou todas as três
    etapas igualmente bem.
  • 5:54 - 5:58
    Alguém que imediatamente entendeu isso
    foi um desenvolvedor web sueco,
  • 5:58 - 6:01
    especialista em otimização
    de ferramentas de busca de Estocolmo,
  • 6:01 - 6:02
    chamado Nikke Lindqvist.
  • 6:02 - 6:04
    Ele também é um cara bem político
  • 6:04 - 6:07
    e ele estava lá nas redes sociais,
    em seu blog e Facebook.
  • 6:07 - 6:09
    Ele disse a todo mundo:
  • 6:09 - 6:13
    "O que esse cara deseja agora
    é controlar sua própria imagem.
  • 6:15 - 6:17
    Vejamos se conseguimos
    distorcer os resultados.
  • 6:17 - 6:19
    Vejamos se nós, do mundo civilizado,
  • 6:19 - 6:21
    conseguimos protestar
    contra o que ele fez,
  • 6:21 - 6:25
    insultando-o em seus
    resultados de pesquisa".
  • 6:25 - 6:26
    Mas como?
  • 6:27 - 6:29
    Ele disse o seguinte
    a todos os leitores dele:
  • 6:29 - 6:31
    "Procurem na internet
  • 6:31 - 6:34
    imagens de cocô de cachorro em calçadas.
  • 6:35 - 6:37
    Imagens de cocô de cachorro em calçadas.
  • 6:37 - 6:40
    Publiquem-nas em suas páginas,
    seus sites, seus blogs.
  • 6:40 - 6:43
    Certifiquem-se de escrever
    o nome do terrorista na legenda,
  • 6:43 - 6:48
    coloquem o seguinte nome
    na imagem: 'Breivik.jpeg'.
  • 6:48 - 6:52
    Vamos mostrar ao Google
    que essa é a imagem do terrorista".
  • 6:53 - 6:55
    E funcionou.
  • 6:56 - 6:59
    Dois anos após a campanha
    contra Michelle Obama,
  • 6:59 - 7:02
    essa campanha de manipulação
    contra Anders Behring Breivik funcionou.
  • 7:02 - 7:04
    Ao pesquisar a imagem dele no Google
  • 7:04 - 7:06
    semanas após os eventos
    de 22 de julho, na Suécia,
  • 7:06 - 7:11
    você veria a imagem do cocô
    de cachorro no topo dos resultados,
  • 7:11 - 7:13
    como uma pequena forma de protesto.
  • 7:13 - 7:18
    Por incrível que pareça,
    o Google não interveio dessa vez.
  • 7:18 - 7:23
    Eles não ajustaram manualmente
    esses resultados de pesquisa.
  • 7:24 - 7:25
    Então, a pergunta que não quer calar:
  • 7:25 - 7:29
    há algo diferente
    entre esses dois acontecimentos?
  • 7:29 - 7:32
    Há algo diferente entre o que
    aconteceu com Michelle Obama
  • 7:32 - 7:34
    e o que aconteceu
    com Anders Behring Breivik?
  • 7:34 - 7:36
    Claro que não.
  • 7:37 - 7:38
    É exatamente a mesma coisa,
  • 7:38 - 7:41
    mas o Google interveio
    em um caso e no outro não.
  • 7:41 - 7:42
    Por quê?
  • 7:43 - 7:46
    Porque Michelle Obama
    é uma pessoa honrada,
  • 7:46 - 7:50
    e Anders Behring Breivik
    é uma pessoa desprezível.
  • 7:50 - 7:52
    Percebem o acontece aqui?
  • 7:52 - 7:55
    A avaliação de uma pessoa acontece
  • 7:55 - 7:58
    e há apenas um mandachuva no mundo
  • 7:58 - 8:01
    com a autoridade para dizer quem é quem.
  • 8:02 - 8:04
    "Gostamos de você. Não gostamos de você.
  • 8:04 - 8:07
    Acreditamos em você; não em você.
    Está certo, errado. É verdadeiro, falso.
  • 8:07 - 8:10
    Você é Obama. Você é Breivik."
  • 8:11 - 8:13
    Isso é que é poder.
  • 8:15 - 8:19
    Então, peço que vocês lembrem
    que, atrás de cada algoritmo,
  • 8:19 - 8:23
    sempre existe alguém
    com um conjunto de crenças pessoais
  • 8:23 - 8:26
    que código algum jamais poderá
    erradicar totalmente.
  • 8:26 - 8:28
    Minha mensagem não é apenas ao Google,
  • 8:28 - 8:31
    mas a todos os que creem piamente
    em códigos, em todo o mundo.
  • 8:31 - 8:34
    Vocês precisam identificar
    sua própria parcialidade.
  • 8:34 - 8:39
    Precisam entender que são humanos
    e assumir responsabilidade como tais.
  • 8:40 - 8:42
    Digo isso porque acredito
    que chegamos a um ponto
  • 8:42 - 8:44
    em que é absolutamente imperativo
  • 8:44 - 8:47
    que atemos esses laços
    novamente, de maneira mais forte:
  • 8:47 - 8:50
    ciências humanas e tecnologia,
  • 8:50 - 8:52
    mais unidas que nunca,
  • 8:52 - 8:56
    e, no mínimo, lembrar que essa ideia
    maravilhosamente sedutora
  • 8:56 - 8:58
    de um resultado de pesquisa
    imparcial e limpo
  • 8:58 - 9:01
    é, e provavelmente
    continuará sendo, um mito.
  • 9:02 - 9:03
    Obrigado pela atenção.
  • 9:03 - 9:05
    (Aplausos)
Title:
A parcialidade moral por trás dos seus resultados de busca na internet
Speaker:
Andreas Ekström
Description:

Ferramentas de busca tornaram-se nossas fontes mais confiáveis de informação e árbitros da verdade. Mas será que é possível obtermos resultados imparciais nessas buscas? Andreas Ekström, escritor e jornalista sueco, argumenta que isso é filosoficamente impossível. Nesta profunda palestra, eles nos convoca a estreitar os laços entre a tecnologia e as ciências humanas, e nos lembra que, por trás de todo algoritmo, existe um conjunto de crenças pessoais que código algum jamais poderá erradicar totalmente.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
09:18
  • Oi legendadores! Acho que dá pra substituir "parcialidade moral" por "viés moral", é um termo semi-técnico bem usado em economia das instituições. (Estou só começando a ajudar aqui, não tenho certeza se é nos comentários que eu devo fazer sugestões?)

Portuguese, Brazilian subtitles

Revisions