Como evitar os preconceitos humanos na IA
-
0:01 - 0:05Quantas decisões
foram tomadas sobre vocês, hoje, -
0:05 - 0:07ou esta semana ou este ano,
-
0:07 - 0:09pela inteligência artificial?
-
0:11 - 0:13O meu trabalho é construir IA
-
0:13 - 0:16por isso, reconheço, sou meia "nerd".
-
0:16 - 0:18E como sou um bocado "nerd",
-
0:18 - 0:20quando saem notícias, seja onde for,
-
0:20 - 0:24sobre a inteligência artificial
a roubar-nos todos os empregos, -
0:24 - 0:28ou robôs a terem cidadania de um país,
-
0:28 - 0:31eu sou a pessoa a quem
os meus amigos enviam mensagens -
0:31 - 0:33preocupados com o futuro.
-
0:34 - 0:36Vemos isto em todo o lado.
-
0:36 - 0:41Este pânico mediático de que
os soberanos robôs estão a dominar. -
0:41 - 0:43podíamos culpar Hollywood por isso.
-
0:44 - 0:49Mas na verdade, não é esse o problema
sobre o qual nos devemos focar. -
0:49 - 0:53Há um perigo mais eminente,
um maior risco com a IA, -
0:53 - 0:55que precisamos de resolver primeiro.
-
0:55 - 0:58Voltamos a esta questão:
-
0:58 - 1:03Quantas decisões foram
tomadas hoje sobre vocês, pela IA? -
1:04 - 1:06Quantas delas
-
1:06 - 1:10se basearam no vosso género,
raça ou origens? -
1:12 - 1:15Os algoritmos estão sempre a ser usados
-
1:15 - 1:19para decidirem
quem somos e o que queremos. -
1:20 - 1:24Algumas das mulheres nesta sala
saberão do que estou a falar -
1:24 - 1:28se vos obrigaram a ver aqueles anúncios
de testes de gravidez, no YouTube, -
1:28 - 1:30umas 1000 vezes.
-
1:30 - 1:33Ou se já passaram por anúncios
de clínicas de fertilidade -
1:33 - 1:35na vossa página do Facebook.
-
1:36 - 1:38Ou, no meu caso, agências
indianas de casamento. -
1:38 - 1:39(Risos)
-
1:39 - 1:42Mas a IA não está a ser usada
só para tomar decisões -
1:42 - 1:45sobre quais os produtos
que queremos comprar -
1:45 - 1:48ou que programa queremos ver de seguida.
-
1:49 - 1:54Pergunto-me o que sentiriam sobre alguém
que pensasse coisas como estas: -
1:54 - 1:56"Uma pessoa negra ou latina
-
1:56 - 2:01"tem menos probabilidade de pagar
atempadamente um empréstimo." -
2:02 - 2:03"Uma pessoa chamada João
-
2:03 - 2:06"é melhor programador
do que uma pessoa chamada Maria." -
2:07 - 2:12"É mais provável que um negro
repita um crime, do que um branco." -
2:15 - 2:17Devem estar a pensar,
-
2:17 - 2:20"Uau, isso parece uma pessoa
muito sexista, racista," certo? -
2:21 - 2:26Estas são algumas decisões reais
que a IA tem tomado, muito recentemente, -
2:26 - 2:29baseadas em preconceitos
que aprendeu connosco, -
2:29 - 2:31com os seres humanos.
-
2:32 - 2:37A IA tem sido usada para ajudar a decidir
se vamos ou não à entrevista de emprego; -
2:37 - 2:39quanto pagamos pelo seguro automóvel;
-
2:39 - 2:41quão boa é a nossa avaliação de crédito;
-
2:41 - 2:43e até a classificação que recebemos
-
2:43 - 2:45na análise do nosso desempenho anual.
-
2:45 - 2:48Mas estas decisões
estão todas a ser filtradas -
2:48 - 2:54com base nas suposições sobre a nossa
identidade, raça, género, idade. -
2:56 - 2:59Como é que isso está a acontecer?
-
2:59 - 3:02Imaginem que a IA está a ajudar
um gestor de recursos humanos -
3:02 - 3:05a encontrar, na empresa,
o próximo líder em tecnologia. -
3:05 - 3:08Até agora, o gestor
tem contratado sobretudo homens. -
3:08 - 3:11Assim, a IA aprende que é mais provável
-
3:11 - 3:14os homens serem programadores,
em vez das mulheres. -
3:14 - 3:16E, a partir daí, é um salto
muito pequeno para: -
3:16 - 3:19"os homens são melhores
programadores do que as mulheres". -
3:19 - 3:23Reforçamos o nosso preconceito na IA.
-
3:23 - 3:27E agora está a excluir
candidatas femininas. -
3:29 - 3:32Se um recrutador humano fizesse isso,
-
3:32 - 3:34ficávamos indignados
e não o permitíamos. -
3:35 - 3:38Este tipo de discriminação
de género não é correto. -
3:38 - 3:42Apesar disso, de certa forma
a IA está acima da lei, -
3:42 - 3:45porque foi uma máquina
que tomou a decisão. -
3:46 - 3:47Não é só isso.
-
3:47 - 3:50Também estamos a reforçar
o nosso preconceito -
3:50 - 3:53sobre o modo como interagimos com a IA.
-
3:53 - 3:55Quão frequentemente
usam um assistente de voz -
3:55 - 3:58como a Siri, a Alexa ou até a Cortana?
-
3:59 - 4:01Todas têm duas coisas em comum:
-
4:02 - 4:05uma, nunca conseguem
acertar no meu nome, -
4:05 - 4:08e segunda, são todas femininas.
-
4:08 - 4:11São concebidas para serem
as nossas servas obedientes, -
4:11 - 4:15ligando e desligando as nossas luzes,
decidindo o que comprar. -
4:15 - 4:19Também há IA masculinos,
mas tendem a ser mais potentes, -
4:19 - 4:22como o Watson IBM,
para tomar decisões de negócios. -
4:22 - 4:26o Força de Vendas Einstein
ou ROSS, o advogado do robô. -
4:26 - 4:30Coitados dos robôs,
até eles sofrem de sexismo no trabalho. -
4:30 - 4:32(Risos)
-
4:32 - 4:35Pensem em como estas duas coisas
estão ligadas -
4:35 - 4:40e afetam uma criança a crescer
num mundo rodeado de IA. -
4:41 - 4:44Assim, se ela está a fazer uma
pesquisa para um projeto escolar -
4:44 - 4:47vai ao Google procurar
imagens de diretor executivo. -
4:47 - 4:49O algoritmo mostra resultados
sobretudo de homens. -
4:49 - 4:52Depois, pesquisa "assistente pessoal".
-
4:52 - 4:55Como podem adivinhar,
mostra sobretudo mulheres. -
4:56 - 4:59Depois, quer pôr uma música,
e talvez encomendar comida, -
5:00 - 5:06e agora está a vociferar ordens
a uma voz feminina assistente e obediente. -
5:08 - 5:12Algumas das mentes mais brilhantes
estão hoje a criar esta tecnologia. -
5:13 - 5:17Tecnologia que podiam ter criado
como quisessem. -
5:17 - 5:20E ainda assim, escolheram criá-la
-
5:20 - 5:23ao estilo dos anos 50,
da secretária de "Mad Man". -
5:23 - 5:24Pois é!
-
5:25 - 5:27Mas tudo bem, não se preocupem,
-
5:27 - 5:29isto não vai terminar comigo a dizer-vos
-
5:29 - 5:32que vamos na direção de máquinas
racistas e sexistas a controlarem o mundo. -
5:33 - 5:38As boas notícias sobre a IA é que
está inteiramente sob o nosso controlo. -
5:39 - 5:44Somos nós que temos de ensinar
os valores e a ética certa à IA. -
5:44 - 5:47Assim há três coisas que podemos fazer.
-
5:47 - 5:50Uma, podemos ter consciência
dos nossos próprios preconceitos -
5:50 - 5:53e dos preconceitos
das máquinas à nossa volta. -
5:53 - 5:55Dois, podemos garantir
que são equipas diversas -
5:55 - 5:57a construir esta tecnologia.
-
5:57 - 6:02E três, temos de lhe dar experiências
diversas com as quais aprender. -
6:03 - 6:06Posso falar sobre as primeiras
duas por experiência pessoal. -
6:06 - 6:08Quando trabalhamos em tecnologia,
-
6:08 - 6:11e não nos parecemos
com o Mark Zuckerberg ou o Elon Musk -
6:11 - 6:15a nossa vida é um bocadinho difícil,
a nossa capacidade é questionada. -
6:16 - 6:17Aqui está apenas um exemplo.
-
6:17 - 6:21Como a maioria dos programadores,
frequentemente junto-me a fóruns "online" -
6:21 - 6:24e partilho o meu conhecimento
para ajudar outros. -
6:24 - 6:26E percebi que,
-
6:26 - 6:30quando entro como eu própria,
a minha foto e o meu nome, -
6:30 - 6:34costumo receber perguntas
ou comentários como estes: -
6:34 - 6:38"O que te faz pensar que és qualificada
para falar sobre a IA?" -
6:38 - 6:42"O que te faz pensar que sabes
sobre aprendizagem de máquinas?" -
6:42 - 6:45Então, como se faz, criei um perfil novo
-
6:46 - 6:50e, desta vez, escolhi a foto
de um gato com uma mochila a jato. -
6:50 - 6:53E escolhi um nome que não revelasse
o meu género. -
6:54 - 6:57Conseguem adivinhar onde
é que isto vai dar, certo? -
6:57 - 7:01Mas, desta vez, não tive aqueles
comentários paternalistas -
7:01 - 7:03sobre as minhas competências
-
7:03 - 7:06e consegui fazer algum trabalho.
-
7:08 - 7:09Mas é uma seca.
-
7:09 - 7:12Construo robôs desde os 15 anos,
-
7:12 - 7:15tenho algumas graduações
em ciências informáticas, -
7:15 - 7:17e ainda assim,
tive de esconder o meu género -
7:17 - 7:20para o meu trabalho ser levado a sério.
-
7:20 - 7:22Então, o que está a acontecer aqui?
-
7:22 - 7:26Os homens são melhores
do que as mulheres em tecnologia? -
7:26 - 7:29Um outro estudo descobriu que,
quando mulheres programadoras -
7:29 - 7:32numa plataforma, escondem
o seu género, como eu, -
7:32 - 7:36o seu código é aceite 4% mais vezes
do que o dos homens. -
7:37 - 7:39Então, não se trata de talento.
-
7:40 - 7:43Trata-se de elitismo na IA
-
7:43 - 7:47que diz que um programador precisa
de se parecer com uma certa pessoa. -
7:47 - 7:50O que realmente precisamos
fazer para melhorar a IA -
7:50 - 7:54é trazer pessoas
de todos os tipos de origens. -
7:55 - 7:57Precisamos de pessoas
que possam escrever e contar histórias, -
7:57 - 8:00para nos ajudarem a criar
personalidades da IA. -
8:00 - 8:03Precisamos de pessoas
que possam resolver problemas. -
8:03 - 8:06Precisamos de pessoas
que enfrentem diferentes desafios, -
8:07 - 8:10e precisamos de pessoas
que nos possam dizer -
8:10 - 8:12quais são os problemas reais
que precisam de ser resolvidos -
8:12 - 8:16e nos ajudem a encontrar maneiras
de a tecnologia os resolver. -
8:18 - 8:22Porque, quando as pessoas
de diversas origens se reúnem, -
8:22 - 8:24quando construímos as coisas
da maneira certa, -
8:24 - 8:26as possibilidades são ilimitadas.
-
8:27 - 8:30É disso que quero falar convosco.
-
8:30 - 8:32Menos sobre robôs racistas,
-
8:32 - 8:34menos sobre máquinas
que vão roubar os nossos empregos -
8:34 - 8:38e mais sobre o que a tecnologia
pode realmente conseguir. -
8:38 - 8:42Então, sim, parte da energia
no mundo da IA, -
8:42 - 8:43no mundo da tecnologia
-
8:43 - 8:47vai ser sobre quais os anúncios
que podem ver na Internet. -
8:47 - 8:53Mas muita dessa energia vai ser
sobre como tornar o mundo muito melhor. -
8:54 - 8:57Pensem numa mulher grávida
na República Democrática do Congo, -
8:57 - 9:01que tem de caminhar 17 horas
até à clínica pré-natal rural mais próxima -
9:02 - 9:03para fazer um exame de rotina.
-
9:03 - 9:07E se, em vez disso, ela pudesse obter
um diagnóstico pelo telefone? -
9:08 - 9:10Ou pensem sobre o que a IA pode fazer
-
9:10 - 9:12por uma em cada três mulheres
na África do Sul -
9:12 - 9:15que enfrenta a violência doméstica.
-
9:15 - 9:18Se não fosse seguro falar em voz alta,
-
9:18 - 9:21elas podiam obter um serviço de IA
para dar o alerta, -
9:21 - 9:23obter aconselhamento
financeiro e jurídico. -
9:24 - 9:29Estes são todos exemplos de projetos
reais, em que pessoas, incluindo eu, -
9:29 - 9:32estão agora a trabalhar, usando a IA.
-
9:34 - 9:37Tenho a certeza que, nos próximos dias,
haverá mais uma notícia -
9:37 - 9:40sobre o risco existencial,
-
9:40 - 9:42de os robôs assumirem
e roubarem os nossos empregos. -
9:42 - 9:43(Risos)
-
9:43 - 9:46E quando acontece algo assim,
-
9:46 - 9:49já sei que vou receber as mesmas mensagens
de preocupação com o futuro. -
9:50 - 9:53Mas sinto-me incrivelmente otimista
quanto a esta tecnologia. -
9:55 - 9:57Esta é a nossa oportunidade
-
9:57 - 10:01de refazer o mundo
num lugar muito mais igualitário -
10:02 - 10:07Mas para isso, precisamos de construí-lo
da maneira certa, desde o início. -
10:08 - 10:13Precisamos de pessoas de diferentes sexos,
raças, sexualidades e origens. -
10:14 - 10:17Precisamos que as mulheres
sejam criadoras -
10:17 - 10:20e não apenas máquinas
que cumprem ordens. -
10:22 - 10:26Precisamos de pensar com muito cuidado
no que ensinamos às máquinas -
10:26 - 10:27que dados lhes damos,
-
10:27 - 10:31para que não repitam
os nossos erros do passado. -
10:32 - 10:36Assim, espero deixar-vos
a pensar sobre duas coisas. -
10:37 - 10:41Primeiro, espero que saiam daqui
a pensar nos preconceitos. -
10:41 - 10:44E da próxima vez
que passem por um anúncio -
10:44 - 10:47que assume que estão interessadas
em clínicas de fertilidade -
10:47 - 10:50ou em páginas de apostas "online",
-
10:50 - 10:52pensem e lembrem-se
-
10:52 - 10:57que é a mesma tecnologia que está
a assumir que um homem negro vai reincidir -
10:58 - 11:02ou que é mais provável uma mulher ser
uma assistente do que diretora executiva. -
11:03 - 11:07Espero que isso vos relembre
que precisamos de fazer algo sobre isto. -
11:09 - 11:11E em segundo lugar,
-
11:11 - 11:13espero que pensem no facto
-
11:13 - 11:15de não precisarem de parecer
de uma certa maneira -
11:15 - 11:18ou de ter experiência
em engenharia ou tecnologia -
11:19 - 11:20para criar IA,
-
11:20 - 11:23o que vai ser uma força
fenomenal para o nosso futuro. -
11:24 - 11:27Não precisam de ser
parecidas com o Mark Zuckerberg, -
11:27 - 11:28podem parecer-se comigo.
-
11:29 - 11:32E cabe a todos nós nesta sala
-
11:32 - 11:35convencer os governos e as empresas
-
11:35 - 11:38a construir a tecnologia da IA para todos,
-
11:38 - 11:40incluindo para os casos menos comuns
-
11:40 - 11:43e para que todos possamos ter educação
-
11:43 - 11:45sobre esta tecnologia fenomenal do futuro.
-
11:46 - 11:48Porque, se fizermos isso,
-
11:48 - 11:53estamos apenas a raspar a superfície
do que podemos conseguir com a IA. -
11:53 - 11:54Obrigada.
-
11:54 - 11:57(Aplausos)
- Title:
- Como evitar os preconceitos humanos na IA
- Speaker:
- Kriti Sharma
- Description:
-
Os algoritmos da Inteligência Artificial (IA) tomam decisões importantes sobre nós a todo o momento — como quanto devemos pagar pelo seguro de um carro ou se vamos ou não àquela entrevista de emprego. Mas o que acontece quando estas máquinas são construídas com os preconceitos humanos codificados dentro dos sistemas? A tecnóloga Kriti Sharma explora como a falta de diversidade na tecnologia está a infiltrar-se na IA, e apresenta três maneiras pelas quais podemos começar a fazer algoritmos mais éticos.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:10
Margarida Ferreira approved Portuguese subtitles for How to keep human bias out of AI | ||
Margarida Ferreira edited Portuguese subtitles for How to keep human bias out of AI | ||
Margarida Ferreira accepted Portuguese subtitles for How to keep human bias out of AI | ||
Margarida Ferreira edited Portuguese subtitles for How to keep human bias out of AI | ||
Margarida Ferreira edited Portuguese subtitles for How to keep human bias out of AI | ||
Marta Pinto edited Portuguese subtitles for How to keep human bias out of AI | ||
Marta Pinto edited Portuguese subtitles for How to keep human bias out of AI | ||
Marta Pinto edited Portuguese subtitles for How to keep human bias out of AI |