Return to Video

O preconceito moral por detrás dos resultados de pesquisa

  • 0:01 - 0:04
    Sempre que visito uma escola
    e falo com estudantes
  • 0:04 - 0:06
    pergunto-lhes sempre a mesma coisa:
  • 0:07 - 0:09
    "Porque é que usam o Google?
  • 0:09 - 0:12
    "Porque é que o Google é
    o vosso motor de pesquisa preferido?"
  • 0:13 - 0:15
    É curioso que obtenho sempre
    as mesmas três respostas.
  • 0:15 - 0:17
    Um: "Porque funciona",
  • 0:17 - 0:21
    o que é uma ótima resposta,
    também é por isso que eu uso o Google.
  • 0:21 - 0:23
    Dois, há alguém que diz:
  • 0:23 - 0:26
    "Não conheço nenhuma alternativa".
  • 0:26 - 0:29
    Não é uma resposta tão boa
    e a minha resposta habitualmente é:
  • 0:29 - 0:31
    "Experimenta pesquisar
    no Google 'motor de busca',
  • 0:31 - 0:34
    "talvez encontres
    algumas alternativas interessantes".
  • 0:34 - 0:36
    Por fim, mas não menos
    frequente, terceiro,
  • 0:36 - 0:39
    inevitavelmente, um estudante
    levanta a mão e diz:
  • 0:39 - 0:42
    "Com o Google, tenho a certeza
    de obter sempre
  • 0:42 - 0:45
    "o melhor resultado de pesquisa,
    e imparcial".
  • 0:45 - 0:52
    A certeza de obter sempre
    o melhor resultado de pesquisa, imparcial.
  • 0:53 - 0:56
    Enquanto homem de Humanidades.
  • 0:56 - 0:59
    apesar de ser uma pessoa
    de Humanidades Digitais,
  • 0:59 - 1:00
    fico todo arrepiado,
  • 1:00 - 1:02
    embora eu também perceba
    que essa confiança,
  • 1:02 - 1:05
    essa ideia de resultado
    imparcial de pesquisa
  • 1:05 - 1:08
    seja uma pedra basilar no nosso amor
    e apreciação coletiva do Google.
  • 1:09 - 1:13
    Vou mostrar-vos porque é que,
    filosoficamente, isso é quase impossível.
  • 1:13 - 1:16
    Mas, primeiro, vou refletir um pouco
    sobre um princípio básico
  • 1:16 - 1:19
    por detrás de cada pesquisa,
    que por vezes esquecemos.
  • 1:20 - 1:23
    Sempre que se dispuserem a usar o Google,
    comecem por pensar nisto:
  • 1:23 - 1:27
    "Estou à procura de um facto isolado?
  • 1:26 - 1:29
    "Qual é a capital da França?
  • 1:29 - 1:32
    "Quais são os elementos constitutivos
    duma molécula da água?"
  • 1:32 - 1:34
    Ótimo... Google para a frente.
  • 1:35 - 1:38
    Não há nenhum grupo de cientistas
    que estejam dispostos a provar
  • 1:38 - 1:40
    que é Londres e H3O.
  • 1:40 - 1:42
    Não vemos nenhuma
    conspiração nestas coisas.
  • 1:42 - 1:44
    Numa escala global, estamos de acordo
  • 1:44 - 1:47
    quanto às respostas
    para este tipo de factos isolados.
  • 1:47 - 1:52
    Mas, se complicarem um pouco
    a pergunta e perguntarem:
  • 1:52 - 1:55
    "Porque é que há
    um conflito israelo-palestino?"
  • 1:55 - 1:58
    já não estão propriamente a procurar
    um facto singular,
  • 1:58 - 2:00
    estão a procurar conhecimentos,
  • 2:00 - 2:02
    o que é uma coisa
    mais complicada e delicada.
  • 2:03 - 2:04
    Para chegar ao conhecimento
  • 2:04 - 2:07
    precisamos de pôr em cima da mesa
    10 ou 20 ou 100 factos,
  • 2:07 - 2:10
    analisá-los e dizer:
    "Sim, estes são todos verdadeiros".
  • 2:10 - 2:12
    Mas, consoante eu seja
  • 2:12 - 2:15
    novo ou velho, negro ou branco,
    "gay" ou hetero,
  • 2:15 - 2:16
    avalio-los de modo diferente e digo:
  • 2:16 - 2:20
    "Sim, isto é verdade, mas, para mim,
    isto é mais importante do que aquilo".
  • 2:20 - 2:22
    É aqui que as coisas
    se tornam interessantes,
  • 2:22 - 2:24
    porque é aqui que nos tornamos humanos.
  • 2:24 - 2:27
    É aqui que começamos a argumentar,
    a formar sociedade.
  • 2:27 - 2:30
    Para chegar a algum lado, é preciso
    filtrar todos os nossos factos
  • 2:30 - 2:33
    com os amigos e vizinhos,
    com os pais e os filhos
  • 2:33 - 2:35
    e colegas e jornais e revistas,
  • 2:35 - 2:38
    para finalmente chegarmos
    a um conhecimento real,
  • 2:38 - 2:42
    coisa que um motor de busca
    dificilmente consegue.
  • 2:44 - 2:50
    Prometi-vos um exemplo, só para mostrar
    porque é tão difícil
  • 2:50 - 2:53
    chegar ao ponto da verdade, nua e crua,
    de um conhecimento objetivo,
  • 2:53 - 2:56
    como alimento para o pensamento.
  • 2:56 - 2:59
    Vou fazer algumas pesquisas simples.
  • 2:59 - 3:03
    Vamos começar com "Michelle Obama",
  • 3:03 - 3:05
    a primeira dama dos EUA.
  • 3:05 - 3:07
    E clicamos em imagens.
  • 3:07 - 3:09
    Funciona mesmo bem, como podem ver.
  • 3:09 - 3:13
    É um resultado de pesquisa perfeito,
    mais ou menos.
  • 3:13 - 3:15
    É só ela na imagem,
    sem sequer o Presidente.
  • 3:16 - 3:18
    Como é que isto funciona?
  • 3:18 - 3:19
    Muito simples.
  • 3:19 - 3:23
    O Google usa muita esperteza
    para conseguir isto, mas é muito simples,
  • 3:23 - 3:24
    olha sobretudo para duas coisas.
  • 3:25 - 3:30
    Primeiro, o que é que diz na legenda
    por baixo da imagem em cada website?
  • 3:30 - 3:32
    Diz: "Michelle Obama" por baixo da imagem?
  • 3:32 - 3:35
    É uma boa indicação de que
    é realmente ela que ali está.
  • 3:35 - 3:37
    Segundo, o Google olha
    para o ficheiro da imagem,
  • 3:37 - 3:40
    para o nome do ficheiro,
    tal como carregado no "website".
  • 3:40 - 3:43
    Chama-se "MichelleObama.jpeg"?
  • 3:43 - 3:46
    Uma boa indicação de que
    não é o Clint Eastwood na imagem.
  • 3:46 - 3:50
    Portanto, temos estes dois e obtemos
    um resultado de pesquisa como este... quase.
  • 3:50 - 3:57
    Ora bem, em 2009, Michelle Obama
    foi vítima duma campanha racista,
  • 3:57 - 4:01
    em que as pessoas se puseram a insultá-la,
    através dos resultados de pesquisa.
  • 4:01 - 4:04
    Houve uma imagem distribuída
    amplamente na Internet
  • 4:04 - 4:07
    com a cara dela distorcida
    para parecer um macaco.
  • 4:07 - 4:10
    Essa imagem foi publicada
    por toda a parte.
  • 4:10 - 4:13
    As pessoas publicaram-na de propósito
  • 4:13 - 4:16
    para que ela aparecesse
    no resultado da pesquisa.
  • 4:16 - 4:19
    Tiveram o cuidado de escrever
    "Michelle Obama" na legenda
  • 4:19 - 4:23
    e tiveram o cuidado de carregar a imagem
    como "MichelleObama.jpeg", ou equivalente.
  • 4:23 - 4:25
    Porquê? Para manipularem
    o resultado da pesquisa.
  • 4:25 - 4:27
    E também funcionou.
  • 4:27 - 4:30
    Quando, em 2009, procurávamos
    no Google imagens de Michelle Obama,
  • 4:30 - 4:33
    essa imagem distorcida
    aparecia entre os primeiros resultados.
  • 4:33 - 4:37
    Ora bem, os resultados
    fazem uma auto-limpeza,
  • 4:37 - 4:38
    — é o que faz a beleza do sistema —
  • 4:38 - 4:42
    porque o Google está sempre
    a medir a relevância.
  • 4:42 - 4:45
    Mas, dessa vez, o Google
    não se contentou com isso e pensou:
  • 4:45 - 4:48
    "Isto é racista, e é um
    mau resultado da pesquisa,
  • 4:48 - 4:51
    "vamos limpar isto manualmente.
  • 4:51 - 4:54
    "Vamos escrever um código
    qualquer e consertar isto".
  • 4:54 - 4:55
    E assim fizeram.
  • 4:55 - 4:59
    Penso que ninguém nesta sala acha
    que foi uma má ideia.
  • 5:00 - 5:01
    Eu também não.
  • 5:03 - 5:06
    Mas depois, passaram uns anos
  • 5:06 - 5:09
    e Anders Behring Breivik,
  • 5:09 - 5:11
    o Anders mais procurado no Google,
  • 5:11 - 5:13
    fez o que fez.
  • 5:13 - 5:15
    Foi a 22 de julho de 2011,
  • 5:15 - 5:18
    um dia terrível na história da Noruega.
  • 5:18 - 5:21
    Este homem, um terrorista, fez explodir
    alguns edifícios governamentais
  • 5:21 - 5:24
    perto do sítio onde nos encontramos
    em Oslo, na Noruega.
  • 5:24 - 5:26
    Depois, foi para a ilha de Utøya
  • 5:26 - 5:28
    e matou a tiro um grupo de jovens.
  • 5:29 - 5:32
    Morreram quase 80 pessoas nesse dia.
  • 5:33 - 5:37
    Muita gente pensou que este ato
    de terrorismo teve duas fases:
  • 5:37 - 5:40
    fazer explodir os edifícios
    e matar aqueles jovens.
  • 5:40 - 5:42
    Não é verdade.
  • 5:42 - 5:44
    Foram três fases.
  • 5:45 - 5:47
    Fez explodir os edifícios,
    matou aqueles jovens,
  • 5:47 - 5:50
    sentou-se e esperou que o mundo
    o procurasse no Google.
  • 5:52 - 5:54
    E preparou igualmente bem
    todas essas três fases.
  • 5:55 - 5:57
    Houve alguém que percebeu
    isto imediatamente,
  • 5:57 - 5:59
    um programador sueco, Nikke Lindqvist.
  • 5:59 - 6:03
    um especialista de otimização
    de motores de busca, em Estocolmo.
  • 6:03 - 6:05
    É também um tipo muito político.
  • 6:05 - 6:08
    Saltou logo para as redes sociais,
    no seu blogue e no Facebook.
  • 6:08 - 6:09
    Disse a toda a gente:
  • 6:09 - 6:13
    "O que este tipo quer, neste momento,
    é controlar a própria imagem.
  • 6:15 - 6:17
    "Vejamos se podemos contrariar isso.
  • 6:18 - 6:22
    "Vejamos se nós, no mundo civilizado,
    podemos protestar contra o que ele fez
  • 6:22 - 6:25
    "insultando-o nos resultados da pesquisa."
  • 6:25 - 6:26
    Mas como?
  • 6:27 - 6:29
    Ele disse o seguinte
    a todos os seus leitores:
  • 6:29 - 6:31
    "Vão à Internet,
  • 6:31 - 6:34
    "procurem imagens
    de cocó de cão nos passeios,
  • 6:35 - 6:37
    "encontrem imagens
    de cocó de cão nos passeios,
  • 6:37 - 6:41
    "publiquem-nas nos vossos
    websites, nos vossos blogues.
  • 6:41 - 6:44
    "Não se esqueçam de escrever
    o nome do terrorista na legenda,
  • 6:44 - 6:48
    "não se esqueçam de pôr o nome
    'Breivik.jpeg' no ficheiro da imagem.
  • 6:48 - 6:52
    "Vamos ensinar ao Google
    que é esse o rosto do terrorista".
  • 6:54 - 6:55
    E funcionou.
  • 6:56 - 6:59
    Dois anos depois da campanha
    contra Michelle Obama,
  • 6:59 - 7:03
    esta campanha de manipulação
    contra Anders Behring Breivik funcionou.
  • 7:03 - 7:07
    Quem procurou imagens dele no Google,
    depois de 22 de julho na Suécia,
  • 7:07 - 7:11
    viu que as imagens de cocó de cão
    apareciam nos resultados da pesquisa,
  • 7:11 - 7:13
    como um pequeno protesto.
  • 7:14 - 7:17
    Estranhamente, o Google
    dessa vez não interferiu.
  • 7:19 - 7:23
    Não limparam manualmente
    os resultados da pesquisa.
  • 7:24 - 7:26
    Então, a pergunta de ouro,
  • 7:26 - 7:29
    "Há alguma diferença
    entre estes dois acontecimentos?"
  • 7:29 - 7:32
    "Há alguma diferença entre
    o que aconteceu a Michelle Obama
  • 7:32 - 7:34
    "e o que aconteceu
    a Anders Behring Breivik?"
  • 7:35 - 7:36
    Claro que não.
  • 7:37 - 7:39
    Foi exatamente a mesma coisa.
  • 7:39 - 7:41
    No entanto, o Google interveio
    num caso e não no outro.
  • 7:41 - 7:42
    Porquê?
  • 7:44 - 7:47
    Porque Michelle Obama
    é uma pessoa respeitável, é por isso,
  • 7:47 - 7:50
    e Anders Behring Breivik
    é uma pessoa ignóbil.
  • 7:50 - 7:52
    Estão a ver o que acontece aqui?
  • 7:52 - 7:55
    Fez-se um juízo de valor duma pessoa
  • 7:55 - 8:01
    e só há um todo-poderoso no mundo
    com autoridade para dizer quem é quem.
  • 8:02 - 8:04
    "Gosto de ti, não gosto de ti.
  • 8:04 - 8:05
    "Acredito em ti, em ti não.
  • 8:05 - 8:08
    "Tens razão, tu não.
    Estás certo, estás errado.
  • 8:08 - 8:10
    "És o Obama, e tu és o Breivik."
  • 8:11 - 8:13
    Esse é um poder sem igual.
  • 8:15 - 8:19
    Portanto, peço-vos que se lembrem
    de que, por detrás de cada algoritmo,
  • 8:19 - 8:21
    está sempre uma pessoa,
  • 8:21 - 8:23
    uma pessoa com um conjunto
    de crenças pessoais
  • 8:23 - 8:26
    que nenhum código
    consegue eliminar totalmente.
  • 8:26 - 8:28
    A minha mensagem não se dirige
    exclusivamente ao Google,
  • 8:28 - 8:32
    mas a todos os que acreditam
    na fé do código, pelo mundo inteiro.
  • 8:32 - 8:34
    Precisamos de identificar
    os nossos preconceitos pessoais.
  • 8:34 - 8:36
    Precisamos de perceber
    que somos seres humanos
  • 8:36 - 8:39
    e assumir essa responsabilidade,
    em conformidade com isso.
  • 8:40 - 8:43
    Digo isto porque acredito
    que chegámos a um ponto
  • 8:43 - 8:45
    em que é totalmente imperativo
  • 8:45 - 8:48
    que voltemos a ligar estes laços,
    mais apertados ainda,
  • 8:48 - 8:50
    as humanidades e a tecnologia.
  • 8:51 - 8:53
    Mais apertados do que nunca.
  • 8:53 - 8:56
    E, pelo menos, lembrarmo-nos de que
    essa ideia maravilhosamente sedutora
  • 8:56 - 8:59
    de resultados de pesquisa
    limpos, imparciais,
  • 8:59 - 9:01
    é, e provavelmente
    continuará a ser, um mito.
  • 9:02 - 9:04
    Obrigado pelo vosso tempo.
  • 9:04 - 9:06
    (Aplausos)
Title:
O preconceito moral por detrás dos resultados de pesquisa
Speaker:
Andreas Ekström
Description:

Os motores de busca tornaram-se nas fontes mais fiáveis de informações e árbitros da verdade. Mas será possível obtermos um resultado de pesquisa imparcial? Andreas Ekström, autor e jornalista sueco, defende que isso é impossível filosoficamente. Nesta palestra que faz pensar, pede-nos que reforcemos os laços entre a tecnologia e as humanidades, e recorda-nos que, por detrás de cada algoritmo está um conjunto de crenças pessoais que nenhum código consegue eliminar totalmente.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
09:18

Portuguese subtitles

Revisions