Code4Rights: codificação em benefício de todos | Joy Buolamwini | TEDxBeaconStreet
-
0:14 - 0:17Olá, meu nome é Joy,
sou uma "poetisa dos códigos", -
0:17 - 0:22e minha missão é deter
uma força invisível e que tem crescido, -
0:22 - 0:25uma força que chamo
de "olhar codificado", -
0:25 - 0:28minha forma de chamar o viés algorítmico.
-
0:28 - 0:32Tal como o preconceito humano,
ele resulta em desigualdade. -
0:32 - 0:35Porém, os algoritmos, assim como os vírus,
-
0:35 - 0:40podem espalhar o viés
em grande escala e rapidamente. -
0:41 - 0:45O viés algorítmico também
pode levar a experiências de exclusão -
0:45 - 0:47e a práticas discriminatórias.
-
0:47 - 0:49Vou mostrar o que quero dizer.
-
0:50 - 0:52(Vídeo) Joy Boulamwini:
Oi, câmera. Tenho um rosto. -
0:53 - 0:55Consegue ver meu rosto?
-
0:55 - 0:57Um rosto sem óculos?
-
0:58 - 1:00Você consegue ver o rosto dela...
-
1:01 - 1:03E o meu?
-
1:07 - 1:10Estou usando uma máscara. Consegue vê-la?
-
1:12 - 1:14Joy Boulamwini: Como isso aconteceu?
-
1:14 - 1:19Por que estou diante de um computador,
usando uma máscara branca, -
1:19 - 1:22tentando ser detectada
por uma câmera barata? -
1:22 - 1:25Bom, quando não estou lutando
contra o olhar codificado -
1:25 - 1:26como poetisa dos códigos,
-
1:26 - 1:30faço pós-graduação
no Laboratório de Mídia do MIT, -
1:30 - 1:35onde tenho a oportunidade de trabalhar
em diversos projetos bacanas, -
1:35 - 1:37inclusive o "Aspire Mirror",
-
1:37 - 1:42projeto que criei para poder projetar
máscaras digitais sobre meu reflexo. -
1:42 - 1:45De manhã, se eu quisesse me sentir
poderosa, poderia usar uma de leão. -
1:45 - 1:49Se precisasse de uma inspiração,
usaria uma citação. -
1:49 - 1:52Então, usei um software genérico
de reconhecimento facial -
1:52 - 1:54para criar o sistema,
-
1:54 - 1:59mas descobri que era bem difícil testá-lo,
a não ser que usasse uma máscara branca. -
2:00 - 2:04Infelizmente, já tive esse problema antes.
-
2:04 - 2:08Quando cursava minha graduação
em ciência da computação na Georgia Tech, -
2:08 - 2:10eu trabalhava com robôs sociais,
-
2:10 - 2:14e uma das minhas tarefas era fazer com que
um robô brincasse de "Achou!", -
2:14 - 2:16um jogo simples de revezamento
-
2:16 - 2:21em que uma pessoa cobre o rosto e depois
o mostra à outra, dizendo: "Achou!" -
2:21 - 2:25O problema é que a brincadeira
não dá certo se você não vê o outro, -
2:25 - 2:27e meu robô não me via.
-
2:27 - 2:31Aí, peguei emprestado o rosto
de uma amiga para fazer o projeto, -
2:32 - 2:33entreguei a tarefa
-
2:33 - 2:36e pensei: "Sabe de uma coisa?
Outra pessoa vai resolver esse problema". -
2:37 - 2:39Não muito tempo depois,
-
2:39 - 2:43eu estava em Hong Kong,
em uma competição de empreendedorismo. -
2:44 - 2:47Os organizadores decidiram
levar os participantes -
2:47 - 2:49pra visitar "start-ups" locais.
-
2:49 - 2:54Uma das start-ups tinha um robô social,
e eles decidiram fazer uma demonstração. -
2:54 - 2:55A demonstração funcionou com todos,
-
2:55 - 2:59até que chegou a minha vez
e, como vocês já podem imaginar, -
2:59 - 3:02ele não detectou meu rosto.
-
3:02 - 3:04Perguntei aos desenvolvedores por quê,
-
3:04 - 3:10e descobri que usaram o mesmo software
genérico de reconhecimento facial que eu. -
3:10 - 3:14Do outro lado do mundo,
descobri que o viés algorítmico -
3:14 - 3:19consegue viajar tão rápido
quanto um download da internet. -
3:19 - 3:23O que estava acontecendo?
Por que meu rosto não era detectado? -
3:23 - 3:26Bem, precisamos analisar
como damos "visão" às máquinas. -
3:26 - 3:29A visão de computador utiliza
técnicas de aprendizagem automática -
3:29 - 3:31para fazer o reconhecimento facial.
-
3:31 - 3:35Funciona assim: você cria uma série
de treinamento, com alguns rostos. -
3:35 - 3:38"Isto é um rosto. Isto é um rosto.
Isto não é um rosto." -
3:38 - 3:42Com o tempo, você ensina o computador
a reconhecer outros rostos. -
3:43 - 3:47Porém, se as séries não forem
diversificadas o bastante, -
3:47 - 3:50qualquer rosto que seja
muito diferente dos demais -
3:50 - 3:54será mais difícil de detectar,
e era isso que acontecia comigo. -
3:54 - 3:56Mas não se preocupem. Tenho boas notícias.
-
3:56 - 3:59As séries de treinamento
não surgem do nada. -
3:59 - 4:01Nós é que as criamos.
-
4:01 - 4:05Então, podemos criar
séries de amplo espectro, -
4:05 - 4:09que reflitam rostos humanos
de forma mais diversa. -
4:09 - 4:11Vocês já viram nos exemplos que dei
-
4:11 - 4:13como os robôs sociais
-
4:13 - 4:17me fizeram ver a exclusão causada
pelo viés algorítmico, -
4:17 - 4:22mas o viés algorítmico também
pode acarretar práticas discriminatórias. -
4:23 - 4:25Em todos os Estados Unidos,
-
4:25 - 4:29departamentos de polícia estão começando
a usar softwares de reconhecimento facial -
4:29 - 4:31como parte de seu arsenal
na luta contra o crime. -
4:31 - 4:33A Georgetown Law publicou um relatório
-
4:33 - 4:40mostrando que um em cada dois adultos
nos EUA, ou seja, 117 milhões de pessoas, -
4:40 - 4:44tiveram seus rostos incluídos
em redes de reconhecimento facial. -
4:44 - 4:48Hoje, os departamentos de polícia podem
usar essas redes sem qualquer regulação, -
4:48 - 4:53usando algoritmos que não tiveram
sua precisão auditada. -
4:53 - 4:56Ainda assim, sabemos que
o reconhecimento facial não é infalível, -
4:56 - 5:00e identificar rostos de forma consistente
continua sendo um desafio. -
5:00 - 5:02Talvez já tenham visto isso no Facebook.
-
5:02 - 5:05Eu e meus amigos rimos o tempo todo
quando vemos outras pessoas -
5:05 - 5:08sendo marcadas incorretamente
em nossas fotos. -
5:08 - 5:14Mas errar na identificação de um suspeito
de crime não é nada engraçado, -
5:14 - 5:16nem violar liberdades civis.
-
5:16 - 5:20A aprendizagem automática vem sendo
usada no reconhecimento facial, -
5:20 - 5:24mas também vem se expandindo
além da visão de computador. -
5:25 - 5:29Em seu livro "Weapons
of Math Destruction", -
5:29 - 5:36a cientista de dados Cathy O'Neil
fala sobre a ascensão dos novos "DMDs", -
5:36 - 5:40os algoritmos "disseminados,
misteriosos e destrutivos", -
5:40 - 5:43que têm sido cada vez mais utilizados
na tomada de decisões -
5:43 - 5:46que impactam mais aspectos
das nossas vidas. -
5:46 - 5:48Quem será contratado ou demitido?
-
5:48 - 5:50Vai conseguir aquele
empréstimo, ou seguro? -
5:50 - 5:54Vai entrar na faculdade que você queria?
-
5:54 - 5:57Eu e você pagamos o mesmo valor
pelo mesmo produto -
5:57 - 6:00vendido na mesma loja?
-
6:00 - 6:04A segurança pública também está começando
a usar a aprendizagem automática -
6:04 - 6:06no policiamento preditivo.
-
6:06 - 6:09Alguns juízes utilizam índices
de risco gerados por máquinas -
6:09 - 6:14para determinar quanto tempo
um indivíduo ficará na prisão. -
6:14 - 6:17Temos realmente que refletir
sobre essas decisões. Será que são justas? -
6:17 - 6:24E já vimos que o viés algorítmico
nem sempre leva a resultados justos. -
6:24 - 6:26Então, o que podemos fazer?
-
6:26 - 6:30Bem, podemos começar a pensar
em como criar codificação mais inclusiva -
6:30 - 6:33e adotar práticas
de codificação inclusivas. -
6:33 - 6:35Tudo começa com pessoas.
-
6:35 - 6:37Então, é importante saber quem codifica.
-
6:37 - 6:42Estamos criando equipes diversificadas,
com indivíduos diferentes -
6:42 - 6:44que possam verificar
pontos cegos uns dos outros? -
6:44 - 6:48Quanto ao aspecto técnico,
a forma como codificamos é relevante. -
6:48 - 6:51Estamos levando em conta a equidade
no desenvolvimento de sistemas? -
6:51 - 6:54Finalmente, a razão pela qual
codificamos é relevante. -
6:54 - 7:00Utilizamos ferramentas de criação
computacional para gerar imensas riquezas. -
7:00 - 7:04Hoje temos a oportunidade
de gerar igualdade ainda maior, -
7:04 - 7:07se considerarmos a mudança social
como uma prioridade -
7:07 - 7:09e não como algo de menos importância.
-
7:10 - 7:14Esses são os três princípios na criação
do movimento pela codificação inclusiva. -
7:14 - 7:16É importante quem codifica,
-
7:16 - 7:17é importante como se codifica
-
7:17 - 7:20e é importante por que se codifica.
-
7:20 - 7:23Então, para uma codificação inclusiva,
podemos começar a pensar -
7:23 - 7:26na criação de plataformas
que identifiquem o viés, -
7:26 - 7:29coletando as experiências das pessoas,
como as que eu contei aqui, -
7:29 - 7:32mas também auditando
softwares já existentes. -
7:32 - 7:36Também podemos começar a criar
séries de treinamento mais inclusivas. -
7:36 - 7:39Imaginem uma campanha
de "'Selfies' pela Inclusão", -
7:39 - 7:42em que eu e vocês possamos ajudar
os desenvolvedores a testar -
7:42 - 7:44e criar séries de treinamento
mais inclusivas. -
7:45 - 7:48Também podemos começar
a pensar de forma mais consciente -
7:48 - 7:53sobre o impacto social das tecnologias
que temos desenvolvido. -
7:53 - 7:56Para iniciarmos o movimento
de codificação inclusiva -
7:56 - 7:59lancei a Liga da Justiça Algorítmica,
-
7:59 - 8:04onde todos que se importem com a equidade
podem lutar contra o olhar codificado. -
8:04 - 8:08Em codedgaze.com,
vocês podem relatar vieses, -
8:08 - 8:10solicitar auditorias,
participar dos testes -
8:10 - 8:13e se juntar ao debate que vem ocorrendo,
-
8:13 - 8:15#codedgaze.
-
8:16 - 8:19Convido vocês a se juntarem a mim
-
8:19 - 8:23na criação de um mundo onde a tecnologia
trabalhe em favor de todos, -
8:23 - 8:25não apenas em favor de alguns.
-
8:25 - 8:29Um mundo onde valorizemos a inclusão
e tenhamos a mudança social como foco. -
8:29 - 8:31Obrigada.
-
8:31 - 8:34(Aplausos)
-
8:41 - 8:44Mas tenho uma pergunta:
-
8:44 - 8:46Vocês vão se juntar a mim nessa luta?
-
8:46 - 8:48(Risos)
-
8:48 - 8:50(Aplausos)
- Title:
- Code4Rights: codificação em benefício de todos | Joy Buolamwini | TEDxBeaconStreet
- Description:
-
Joy Buolamwini é uma programadora brilhante, mas ela tinha um problema: algoritmos de reconhecimento facial nem sempre reconheciam seu rosto, a não ser que usasse uma máscara branca. É um exemplo das formas sutil através das quais o privilégio racial exclui a ampla participação em oportunidades de aprendizado. Então, Joy fez algo a respeito: ela começou a fazer codificar programas mais inclusivos. Ela deu início a uma revolução, e está pronta pra fazer você participar dela!
Joy Buolamwini é a fundadora da Code4Rights e pós-graduanda no grupo Civic Media, do Laboratório de Mídia do MIT. Joy é bolsita da Rhodes, da Fulbright, da Astronaut, da Google Anita Borg, consultora técnica do Carter Center reconhecida como uma voluntária notável. Como diretora executiva de tecnologia da Techturized Inc, uma companhia de tecnologias de cuidados com cabelos e da Swift Tech Solutions, uma firma de consultoria global de tecnologias em saúde, Joy ganhou experiência técnica desenvolvendo softwares para comunidades carentes dos Estados Unidos, da Etiópia, do Mali, da Nigéria e do Níger. Durante seu tempo como bolsista da Fulbright no Zâmbia, ela estudou como empoderar cidadãos engajados com habilidades para criar suas próprias tecnologias através da Zamrize Initiative.
Esta palestra foi dada em um evento TEDx, que usa o formato de conferência TED, mas é organizado de forma independente por uma comunidade local. Para saber mais visite http://ted.com/tedx
Collapse - Video Language:
- English
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 09:02
Leonardo Silva edited Portuguese, Brazilian subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Leonardo Silva approved Portuguese, Brazilian subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Angela Barbosa accepted Portuguese, Brazilian subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Angela Barbosa edited Portuguese, Brazilian subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet |