Return to Video

Como evitar os preconceitos humanos na IA

  • 0:01 - 0:05
    Quantas decisões
    foram tomadas sobre vocês, hoje,
  • 0:05 - 0:07
    ou esta semana ou este ano,
  • 0:07 - 0:09
    pela inteligência artificial?
  • 0:11 - 0:13
    O meu trabalho é construir IA
  • 0:13 - 0:16
    por isso, reconheço, sou meia "nerd".
  • 0:16 - 0:18
    E como sou um bocado "nerd",
  • 0:18 - 0:20
    quando saem notícias, seja onde for,
  • 0:20 - 0:24
    sobre a inteligência artificial
    a roubar-nos todos os empregos,
  • 0:24 - 0:28
    ou robôs a terem cidadania de um país,
  • 0:28 - 0:31
    eu sou a pessoa a quem
    os meus amigos enviam mensagens
  • 0:31 - 0:33
    preocupados com o futuro.
  • 0:34 - 0:36
    Vemos isto em todo o lado.
  • 0:36 - 0:41
    Este pânico mediático de que
    os soberanos robôs estão a dominar.
  • 0:41 - 0:43
    podíamos culpar Hollywood por isso.
  • 0:44 - 0:49
    Mas na verdade, não é esse o problema
    sobre o qual nos devemos focar.
  • 0:49 - 0:53
    Há um perigo mais eminente,
    um maior risco com a IA,
  • 0:53 - 0:55
    que precisamos de resolver primeiro.
  • 0:55 - 0:58
    Voltamos a esta questão:
  • 0:58 - 1:03
    Quantas decisões foram
    tomadas hoje sobre vocês, pela IA?
  • 1:04 - 1:06
    Quantas delas
  • 1:06 - 1:10
    se basearam no vosso género,
    raça ou origens?
  • 1:12 - 1:15
    Os algoritmos estão sempre a ser usados
  • 1:15 - 1:19
    para decidirem
    quem somos e o que queremos.
  • 1:20 - 1:24
    Algumas das mulheres nesta sala
    saberão do que estou a falar
  • 1:24 - 1:28
    se vos obrigaram a ver aqueles anúncios
    de testes de gravidez, no YouTube,
  • 1:28 - 1:30
    umas 1000 vezes.
  • 1:30 - 1:33
    Ou se já passaram por anúncios
    de clínicas de fertilidade
  • 1:33 - 1:35
    na vossa página do Facebook.
  • 1:36 - 1:38
    Ou, no meu caso, agências
    indianas de casamento.
  • 1:38 - 1:39
    (Risos)
  • 1:39 - 1:42
    Mas a IA não está a ser usada
    só para tomar decisões
  • 1:42 - 1:45
    sobre quais os produtos
    que queremos comprar
  • 1:45 - 1:48
    ou que programa queremos ver de seguida.
  • 1:49 - 1:54
    Pergunto-me o que sentiriam sobre alguém
    que pensasse coisas como estas:
  • 1:54 - 1:56
    "Uma pessoa negra ou latina
  • 1:56 - 2:01
    "tem menos probabilidade de pagar
    atempadamente um empréstimo."
  • 2:02 - 2:03
    "Uma pessoa chamada João
  • 2:03 - 2:06
    "é melhor programador
    do que uma pessoa chamada Maria."
  • 2:07 - 2:12
    "É mais provável que um negro
    repita um crime, do que um branco."
  • 2:15 - 2:17
    Devem estar a pensar,
  • 2:17 - 2:20
    "Uau, isso parece uma pessoa
    muito sexista, racista," certo?
  • 2:21 - 2:26
    Estas são algumas decisões reais
    que a IA tem tomado, muito recentemente,
  • 2:26 - 2:29
    baseadas em preconceitos
    que aprendeu connosco,
  • 2:29 - 2:31
    com os seres humanos.
  • 2:32 - 2:37
    A IA tem sido usada para ajudar a decidir
    se vamos ou não à entrevista de emprego;
  • 2:37 - 2:39
    quanto pagamos pelo seguro automóvel;
  • 2:39 - 2:41
    quão boa é a nossa avaliação de crédito;
  • 2:41 - 2:43
    e até a classificação que recebemos
  • 2:43 - 2:45
    na análise do nosso desempenho anual.
  • 2:45 - 2:48
    Mas estas decisões
    estão todas a ser filtradas
  • 2:48 - 2:54
    com base nas suposições sobre a nossa
    identidade, raça, género, idade.
  • 2:56 - 2:59
    Como é que isso está a acontecer?
  • 2:59 - 3:02
    Imaginem que a IA está a ajudar
    um gestor de recursos humanos
  • 3:02 - 3:05
    a encontrar, na empresa,
    o próximo líder em tecnologia.
  • 3:05 - 3:08
    Até agora, o gestor
    tem contratado sobretudo homens.
  • 3:08 - 3:11
    Assim, a IA aprende que é mais provável
  • 3:11 - 3:14
    os homens serem programadores,
    em vez das mulheres.
  • 3:14 - 3:16
    E, a partir daí, é um salto
    muito pequeno para:
  • 3:16 - 3:19
    "os homens são melhores
    programadores do que as mulheres".
  • 3:19 - 3:23
    Reforçamos o nosso preconceito na IA.
  • 3:23 - 3:27
    E agora está a excluir
    candidatas femininas.
  • 3:29 - 3:32
    Se um recrutador humano fizesse isso,
  • 3:32 - 3:34
    ficávamos indignados
    e não o permitíamos.
  • 3:35 - 3:38
    Este tipo de discriminação
    de género não é correto.
  • 3:38 - 3:42
    Apesar disso, de certa forma
    a IA está acima da lei,
  • 3:42 - 3:45
    porque foi uma máquina
    que tomou a decisão.
  • 3:46 - 3:47
    Não é só isso.
  • 3:47 - 3:50
    Também estamos a reforçar
    o nosso preconceito
  • 3:50 - 3:53
    sobre o modo como interagimos com a IA.
  • 3:53 - 3:55
    Quão frequentemente
    usam um assistente de voz
  • 3:55 - 3:58
    como a Siri, a Alexa ou até a Cortana?
  • 3:59 - 4:01
    Todas têm duas coisas em comum:
  • 4:02 - 4:05
    uma, nunca conseguem
    acertar no meu nome,
  • 4:05 - 4:08
    e segunda, são todas femininas.
  • 4:08 - 4:11
    São concebidas para serem
    as nossas servas obedientes,
  • 4:11 - 4:15
    ligando e desligando as nossas luzes,
    decidindo o que comprar.
  • 4:15 - 4:19
    Também há IA masculinos,
    mas tendem a ser mais potentes,
  • 4:19 - 4:22
    como o Watson IBM,
    para tomar decisões de negócios.
  • 4:22 - 4:26
    o Força de Vendas Einstein
    ou ROSS, o advogado do robô.
  • 4:26 - 4:30
    Coitados dos robôs,
    até eles sofrem de sexismo no trabalho.
  • 4:30 - 4:32
    (Risos)
  • 4:32 - 4:35
    Pensem em como estas duas coisas
    estão ligadas
  • 4:35 - 4:40
    e afetam uma criança a crescer
    num mundo rodeado de IA.
  • 4:41 - 4:44
    Assim, se ela está a fazer uma
    pesquisa para um projeto escolar
  • 4:44 - 4:47
    vai ao Google procurar
    imagens de diretor executivo.
  • 4:47 - 4:49
    O algoritmo mostra resultados
    sobretudo de homens.
  • 4:49 - 4:52
    Depois, pesquisa "assistente pessoal".
  • 4:52 - 4:55
    Como podem adivinhar,
    mostra sobretudo mulheres.
  • 4:56 - 4:59
    Depois, quer pôr uma música,
    e talvez encomendar comida,
  • 5:00 - 5:06
    e agora está a vociferar ordens
    a uma voz feminina assistente e obediente.
  • 5:08 - 5:12
    Algumas das mentes mais brilhantes
    estão hoje a criar esta tecnologia.
  • 5:13 - 5:17
    Tecnologia que podiam ter criado
    como quisessem.
  • 5:17 - 5:20
    E ainda assim, escolheram criá-la
  • 5:20 - 5:23
    ao estilo dos anos 50,
    da secretária de "Mad Man".
  • 5:23 - 5:24
    Pois é!
  • 5:25 - 5:27
    Mas tudo bem, não se preocupem,
  • 5:27 - 5:29
    isto não vai terminar comigo a dizer-vos
  • 5:29 - 5:32
    que vamos na direção de máquinas
    racistas e sexistas a controlarem o mundo.
  • 5:33 - 5:38
    As boas notícias sobre a IA é que
    está inteiramente sob o nosso controlo.
  • 5:39 - 5:44
    Somos nós que temos de ensinar
    os valores e a ética certa à IA.
  • 5:44 - 5:47
    Assim há três coisas que podemos fazer.
  • 5:47 - 5:50
    Uma, podemos ter consciência
    dos nossos próprios preconceitos
  • 5:50 - 5:53
    e dos preconceitos
    das máquinas à nossa volta.
  • 5:53 - 5:55
    Dois, podemos garantir
    que são equipas diversas
  • 5:55 - 5:57
    a construir esta tecnologia.
  • 5:57 - 6:02
    E três, temos de lhe dar experiências
    diversas com as quais aprender.
  • 6:03 - 6:06
    Posso falar sobre as primeiras
    duas por experiência pessoal.
  • 6:06 - 6:08
    Quando trabalhamos em tecnologia,
  • 6:08 - 6:11
    e não nos parecemos
    com o Mark Zuckerberg ou o Elon Musk
  • 6:11 - 6:15
    a nossa vida é um bocadinho difícil,
    a nossa capacidade é questionada.
  • 6:16 - 6:17
    Aqui está apenas um exemplo.
  • 6:17 - 6:21
    Como a maioria dos programadores,
    frequentemente junto-me a fóruns "online"
  • 6:21 - 6:24
    e partilho o meu conhecimento
    para ajudar outros.
  • 6:24 - 6:26
    E percebi que,
  • 6:26 - 6:30
    quando entro como eu própria,
    a minha foto e o meu nome,
  • 6:30 - 6:34
    costumo receber perguntas
    ou comentários como estes:
  • 6:34 - 6:38
    "O que te faz pensar que és qualificada
    para falar sobre a IA?"
  • 6:38 - 6:42
    "O que te faz pensar que sabes
    sobre aprendizagem de máquinas?"
  • 6:42 - 6:45
    Então, como se faz, criei um perfil novo
  • 6:46 - 6:50
    e, desta vez, escolhi a foto
    de um gato com uma mochila a jato.
  • 6:50 - 6:53
    E escolhi um nome que não revelasse
    o meu género.
  • 6:54 - 6:57
    Conseguem adivinhar onde
    é que isto vai dar, certo?
  • 6:57 - 7:01
    Mas, desta vez, não tive aqueles
    comentários paternalistas
  • 7:01 - 7:03
    sobre as minhas competências
  • 7:03 - 7:06
    e consegui fazer algum trabalho.
  • 7:08 - 7:09
    Mas é uma seca.
  • 7:09 - 7:12
    Construo robôs desde os 15 anos,
  • 7:12 - 7:15
    tenho algumas graduações
    em ciências informáticas,
  • 7:15 - 7:17
    e ainda assim,
    tive de esconder o meu género
  • 7:17 - 7:20
    para o meu trabalho ser levado a sério.
  • 7:20 - 7:22
    Então, o que está a acontecer aqui?
  • 7:22 - 7:26
    Os homens são melhores
    do que as mulheres em tecnologia?
  • 7:26 - 7:29
    Um outro estudo descobriu que,
    quando mulheres programadoras
  • 7:29 - 7:32
    numa plataforma, escondem
    o seu género, como eu,
  • 7:32 - 7:36
    o seu código é aceite 4% mais vezes
    do que o dos homens.
  • 7:37 - 7:39
    Então, não se trata de talento.
  • 7:40 - 7:43
    Trata-se de elitismo na IA
  • 7:43 - 7:47
    que diz que um programador precisa
    de se parecer com uma certa pessoa.
  • 7:47 - 7:50
    O que realmente precisamos
    fazer para melhorar a IA
  • 7:50 - 7:54
    é trazer pessoas
    de todos os tipos de origens.
  • 7:55 - 7:57
    Precisamos de pessoas
    que possam escrever e contar histórias,
  • 7:57 - 8:00
    para nos ajudarem a criar
    personalidades da IA.
  • 8:00 - 8:03
    Precisamos de pessoas
    que possam resolver problemas.
  • 8:03 - 8:06
    Precisamos de pessoas
    que enfrentem diferentes desafios,
  • 8:07 - 8:10
    e precisamos de pessoas
    que nos possam dizer
  • 8:10 - 8:12
    quais são os problemas reais
    que precisam de ser resolvidos
  • 8:12 - 8:16
    e nos ajudem a encontrar maneiras
    de a tecnologia os resolver.
  • 8:18 - 8:22
    Porque, quando as pessoas
    de diversas origens se reúnem,
  • 8:22 - 8:24
    quando construímos as coisas
    da maneira certa,
  • 8:24 - 8:26
    as possibilidades são ilimitadas.
  • 8:27 - 8:30
    É disso que quero falar convosco.
  • 8:30 - 8:32
    Menos sobre robôs racistas,
  • 8:32 - 8:34
    menos sobre máquinas
    que vão roubar os nossos empregos
  • 8:34 - 8:38
    e mais sobre o que a tecnologia
    pode realmente conseguir.
  • 8:38 - 8:42
    Então, sim, parte da energia
    no mundo da IA,
  • 8:42 - 8:43
    no mundo da tecnologia
  • 8:43 - 8:47
    vai ser sobre quais os anúncios
    que podem ver na Internet.
  • 8:47 - 8:53
    Mas muita dessa energia vai ser
    sobre como tornar o mundo muito melhor.
  • 8:54 - 8:57
    Pensem numa mulher grávida
    na República Democrática do Congo,
  • 8:57 - 9:01
    que tem de caminhar 17 horas
    até à clínica pré-natal rural mais próxima
  • 9:02 - 9:03
    para fazer um exame de rotina.
  • 9:03 - 9:07
    E se, em vez disso, ela pudesse obter
    um diagnóstico pelo telefone?
  • 9:08 - 9:10
    Ou pensem sobre o que a IA pode fazer
  • 9:10 - 9:12
    por uma em cada três mulheres
    na África do Sul
  • 9:12 - 9:15
    que enfrenta a violência doméstica.
  • 9:15 - 9:18
    Se não fosse seguro falar em voz alta,
  • 9:18 - 9:21
    elas podiam obter um serviço de IA
    para dar o alerta,
  • 9:21 - 9:23
    obter aconselhamento
    financeiro e jurídico.
  • 9:24 - 9:29
    Estes são todos exemplos de projetos
    reais, em que pessoas, incluindo eu,
  • 9:29 - 9:32
    estão agora a trabalhar, usando a IA.
  • 9:34 - 9:37
    Tenho a certeza que, nos próximos dias,
    haverá mais uma notícia
  • 9:37 - 9:40
    sobre o risco existencial,
  • 9:40 - 9:42
    de os robôs assumirem
    e roubarem os nossos empregos.
  • 9:42 - 9:43
    (Risos)
  • 9:43 - 9:46
    E quando acontece algo assim,
  • 9:46 - 9:49
    já sei que vou receber as mesmas mensagens
    de preocupação com o futuro.
  • 9:50 - 9:53
    Mas sinto-me incrivelmente otimista
    quanto a esta tecnologia.
  • 9:55 - 9:57
    Esta é a nossa oportunidade
  • 9:57 - 10:01
    de refazer o mundo
    num lugar muito mais igualitário
  • 10:02 - 10:07
    Mas para isso, precisamos de construí-lo
    da maneira certa, desde o início.
  • 10:08 - 10:13
    Precisamos de pessoas de diferentes sexos,
    raças, sexualidades e origens.
  • 10:14 - 10:17
    Precisamos que as mulheres
    sejam criadoras
  • 10:17 - 10:20
    e não apenas máquinas
    que cumprem ordens.
  • 10:22 - 10:26
    Precisamos de pensar com muito cuidado
    no que ensinamos às máquinas
  • 10:26 - 10:27
    que dados lhes damos,
  • 10:27 - 10:31
    para que não repitam
    os nossos erros do passado.
  • 10:32 - 10:36
    Assim, espero deixar-vos
    a pensar sobre duas coisas.
  • 10:37 - 10:41
    Primeiro, espero que saiam daqui
    a pensar nos preconceitos.
  • 10:41 - 10:44
    E da próxima vez
    que passem por um anúncio
  • 10:44 - 10:47
    que assume que estão interessadas
    em clínicas de fertilidade
  • 10:47 - 10:50
    ou em páginas de apostas "online",
  • 10:50 - 10:52
    pensem e lembrem-se
  • 10:52 - 10:57
    que é a mesma tecnologia que está
    a assumir que um homem negro vai reincidir
  • 10:58 - 11:02
    ou que é mais provável uma mulher ser
    uma assistente do que diretora executiva.
  • 11:03 - 11:07
    Espero que isso vos relembre
    que precisamos de fazer algo sobre isto.
  • 11:09 - 11:11
    E em segundo lugar,
  • 11:11 - 11:13
    espero que pensem no facto
  • 11:13 - 11:15
    de não precisarem de parecer
    de uma certa maneira
  • 11:15 - 11:18
    ou de ter experiência
    em engenharia ou tecnologia
  • 11:19 - 11:20
    para criar IA,
  • 11:20 - 11:23
    o que vai ser uma força
    fenomenal para o nosso futuro.
  • 11:24 - 11:27
    Não precisam de ser
    parecidas com o Mark Zuckerberg,
  • 11:27 - 11:28
    podem parecer-se comigo.
  • 11:29 - 11:32
    E cabe a todos nós nesta sala
  • 11:32 - 11:35
    convencer os governos e as empresas
  • 11:35 - 11:38
    a construir a tecnologia da IA para todos,
  • 11:38 - 11:40
    incluindo para os casos menos comuns
  • 11:40 - 11:43
    e para que todos possamos ter educação
  • 11:43 - 11:45
    sobre esta tecnologia fenomenal do futuro.
  • 11:46 - 11:48
    Porque, se fizermos isso,
  • 11:48 - 11:53
    estamos apenas a raspar a superfície
    do que podemos conseguir com a IA.
  • 11:53 - 11:54
    Obrigada.
  • 11:54 - 11:57
    (Aplausos)
Title:
Como evitar os preconceitos humanos na IA
Speaker:
Kriti Sharma
Description:

Os algoritmos da Inteligência Artificial (IA) tomam decisões importantes sobre nós a todo o momento — como quanto devemos pagar pelo seguro de um carro ou se vamos ou não àquela entrevista de emprego. Mas o que acontece quando estas máquinas são construídas com os preconceitos humanos codificados dentro dos sistemas? A tecnóloga Kriti Sharma explora como a falta de diversidade na tecnologia está a infiltrar-se na IA, e apresenta três maneiras pelas quais podemos começar a fazer algoritmos mais éticos.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:10

Portuguese subtitles

Revisions