Return to Video

Code4Rights: codificação em benefício de todos | Joy Buolamwini | TEDxBeaconStreet

  • 0:14 - 0:17
    Olá, meu nome é Joy,
    sou uma "poetisa dos códigos",
  • 0:17 - 0:22
    e minha missão é deter
    uma força invisível e que tem crescido,
  • 0:22 - 0:25
    uma força que chamo
    de "olhar codificado",
  • 0:25 - 0:28
    minha forma de chamar o viés algorítmico.
  • 0:28 - 0:32
    Tal como o preconceito humano,
    ele resulta em desigualdade.
  • 0:32 - 0:35
    Porém, os algoritmos, assim como os vírus,
  • 0:35 - 0:40
    podem espalhar o viés
    em grande escala e rapidamente.
  • 0:41 - 0:45
    O viés algorítmico também
    pode levar a experiências de exclusão
  • 0:45 - 0:47
    e a práticas discriminatórias.
  • 0:47 - 0:49
    Vou mostrar o que quero dizer.
  • 0:50 - 0:52
    (Vídeo) Joy Boulamwini:
    Oi, câmera. Tenho um rosto.
  • 0:53 - 0:55
    Consegue ver meu rosto?
  • 0:55 - 0:57
    Um rosto sem óculos?
  • 0:58 - 1:00
    Você consegue ver o rosto dela...
  • 1:01 - 1:03
    E o meu?
  • 1:07 - 1:10
    Estou usando uma máscara. Consegue vê-la?
  • 1:12 - 1:14
    Joy Boulamwini: Como isso aconteceu?
  • 1:14 - 1:19
    Por que estou diante de um computador,
    usando uma máscara branca,
  • 1:19 - 1:22
    tentando ser detectada
    por uma câmera barata?
  • 1:22 - 1:25
    Bom, quando não estou lutando
    contra o olhar codificado
  • 1:25 - 1:26
    como poetisa dos códigos,
  • 1:26 - 1:30
    faço pós-graduação
    no Laboratório de Mídia do MIT,
  • 1:30 - 1:35
    onde tenho a oportunidade de trabalhar
    em diversos projetos bacanas,
  • 1:35 - 1:37
    inclusive o "Aspire Mirror",
  • 1:37 - 1:42
    projeto que criei para poder projetar
    máscaras digitais sobre meu reflexo.
  • 1:42 - 1:45
    De manhã, se eu quisesse me sentir
    poderosa, poderia usar uma de leão.
  • 1:45 - 1:49
    Se precisasse de uma inspiração,
    usaria uma citação.
  • 1:49 - 1:52
    Então, usei um software genérico
    de reconhecimento facial
  • 1:52 - 1:54
    para criar o sistema,
  • 1:54 - 1:59
    mas descobri que era bem difícil testá-lo,
    a não ser que usasse uma máscara branca.
  • 2:00 - 2:04
    Infelizmente, já tive esse problema antes.
  • 2:04 - 2:08
    Quando cursava minha graduação
    em ciência da computação na Georgia Tech,
  • 2:08 - 2:10
    eu trabalhava com robôs sociais,
  • 2:10 - 2:14
    e uma das minhas tarefas era fazer com que
    um robô brincasse de "Achou!",
  • 2:14 - 2:16
    um jogo simples de revezamento
  • 2:16 - 2:21
    em que uma pessoa cobre o rosto e depois
    o mostra à outra, dizendo: "Achou!"
  • 2:21 - 2:25
    O problema é que a brincadeira
    não dá certo se você não vê o outro,
  • 2:25 - 2:27
    e meu robô não me via.
  • 2:27 - 2:31
    Aí, peguei emprestado o rosto
    de uma amiga para fazer o projeto,
  • 2:32 - 2:33
    entreguei a tarefa
  • 2:33 - 2:36
    e pensei: "Sabe de uma coisa?
    Outra pessoa vai resolver esse problema".
  • 2:37 - 2:39
    Não muito tempo depois,
  • 2:39 - 2:43
    eu estava em Hong Kong,
    em uma competição de empreendedorismo.
  • 2:44 - 2:47
    Os organizadores decidiram
    levar os participantes
  • 2:47 - 2:49
    pra visitar "start-ups" locais.
  • 2:49 - 2:54
    Uma das start-ups tinha um robô social,
    e eles decidiram fazer uma demonstração.
  • 2:54 - 2:55
    A demonstração funcionou com todos,
  • 2:55 - 2:59
    até que chegou a minha vez
    e, como vocês já podem imaginar,
  • 2:59 - 3:02
    ele não detectou meu rosto.
  • 3:02 - 3:04
    Perguntei aos desenvolvedores por quê,
  • 3:04 - 3:10
    e descobri que usaram o mesmo software
    genérico de reconhecimento facial que eu.
  • 3:10 - 3:14
    Do outro lado do mundo,
    descobri que o viés algorítmico
  • 3:14 - 3:19
    consegue viajar tão rápido
    quanto um download da internet.
  • 3:19 - 3:23
    O que estava acontecendo?
    Por que meu rosto não era detectado?
  • 3:23 - 3:26
    Bem, precisamos analisar
    como damos "visão" às máquinas.
  • 3:26 - 3:29
    A visão de computador utiliza
    técnicas de aprendizagem automática
  • 3:29 - 3:31
    para fazer o reconhecimento facial.
  • 3:31 - 3:35
    Funciona assim: você cria uma série
    de treinamento, com alguns rostos.
  • 3:35 - 3:38
    "Isto é um rosto. Isto é um rosto.
    Isto não é um rosto."
  • 3:38 - 3:42
    Com o tempo, você ensina o computador
    a reconhecer outros rostos.
  • 3:43 - 3:47
    Porém, se as séries não forem
    diversificadas o bastante,
  • 3:47 - 3:50
    qualquer rosto que seja
    muito diferente dos demais
  • 3:50 - 3:54
    será mais difícil de detectar,
    e era isso que acontecia comigo.
  • 3:54 - 3:56
    Mas não se preocupem. Tenho boas notícias.
  • 3:56 - 3:59
    As séries de treinamento
    não surgem do nada.
  • 3:59 - 4:01
    Nós é que as criamos.
  • 4:01 - 4:05
    Então, podemos criar
    séries de amplo espectro,
  • 4:05 - 4:09
    que reflitam rostos humanos
    de forma mais diversa.
  • 4:09 - 4:11
    Vocês já viram nos exemplos que dei
  • 4:11 - 4:13
    como os robôs sociais
  • 4:13 - 4:17
    me fizeram ver a exclusão causada
    pelo viés algorítmico,
  • 4:17 - 4:22
    mas o viés algorítmico também
    pode acarretar práticas discriminatórias.
  • 4:23 - 4:25
    Em todos os Estados Unidos,
  • 4:25 - 4:29
    departamentos de polícia estão começando
    a usar softwares de reconhecimento facial
  • 4:29 - 4:31
    como parte de seu arsenal
    na luta contra o crime.
  • 4:31 - 4:33
    A Georgetown Law publicou um relatório
  • 4:33 - 4:40
    mostrando que um em cada dois adultos
    nos EUA, ou seja, 117 milhões de pessoas,
  • 4:40 - 4:44
    tiveram seus rostos incluídos
    em redes de reconhecimento facial.
  • 4:44 - 4:48
    Hoje, os departamentos de polícia podem
    usar essas redes sem qualquer regulação,
  • 4:48 - 4:53
    usando algoritmos que não tiveram
    sua precisão auditada.
  • 4:53 - 4:56
    Ainda assim, sabemos que
    o reconhecimento facial não é infalível,
  • 4:56 - 5:00
    e identificar rostos de forma consistente
    continua sendo um desafio.
  • 5:00 - 5:02
    Talvez já tenham visto isso no Facebook.
  • 5:02 - 5:05
    Eu e meus amigos rimos o tempo todo
    quando vemos outras pessoas
  • 5:05 - 5:08
    sendo marcadas incorretamente
    em nossas fotos.
  • 5:08 - 5:14
    Mas errar na identificação de um suspeito
    de crime não é nada engraçado,
  • 5:14 - 5:16
    nem violar liberdades civis.
  • 5:16 - 5:20
    A aprendizagem automática vem sendo
    usada no reconhecimento facial,
  • 5:20 - 5:24
    mas também vem se expandindo
    além da visão de computador.
  • 5:25 - 5:29
    Em seu livro "Weapons
    of Math Destruction",
  • 5:29 - 5:36
    a cientista de dados Cathy O'Neil
    fala sobre a ascensão dos novos "DMDs",
  • 5:36 - 5:40
    os algoritmos "disseminados,
    misteriosos e destrutivos",
  • 5:40 - 5:43
    que têm sido cada vez mais utilizados
    na tomada de decisões
  • 5:43 - 5:46
    que impactam mais aspectos
    das nossas vidas.
  • 5:46 - 5:48
    Quem será contratado ou demitido?
  • 5:48 - 5:50
    Vai conseguir aquele
    empréstimo, ou seguro?
  • 5:50 - 5:54
    Vai entrar na faculdade que você queria?
  • 5:54 - 5:57
    Eu e você pagamos o mesmo valor
    pelo mesmo produto
  • 5:57 - 6:00
    vendido na mesma loja?
  • 6:00 - 6:04
    A segurança pública também está começando
    a usar a aprendizagem automática
  • 6:04 - 6:06
    no policiamento preditivo.
  • 6:06 - 6:09
    Alguns juízes utilizam índices
    de risco gerados por máquinas
  • 6:09 - 6:14
    para determinar quanto tempo
    um indivíduo ficará na prisão.
  • 6:14 - 6:17
    Temos realmente que refletir
    sobre essas decisões. Será que são justas?
  • 6:17 - 6:24
    E já vimos que o viés algorítmico
    nem sempre leva a resultados justos.
  • 6:24 - 6:26
    Então, o que podemos fazer?
  • 6:26 - 6:30
    Bem, podemos começar a pensar
    em como criar codificação mais inclusiva
  • 6:30 - 6:33
    e adotar práticas
    de codificação inclusivas.
  • 6:33 - 6:35
    Tudo começa com pessoas.
  • 6:35 - 6:37
    Então, é importante saber quem codifica.
  • 6:37 - 6:42
    Estamos criando equipes diversificadas,
    com indivíduos diferentes
  • 6:42 - 6:44
    que possam verificar
    pontos cegos uns dos outros?
  • 6:44 - 6:48
    Quanto ao aspecto técnico,
    a forma como codificamos é relevante.
  • 6:48 - 6:51
    Estamos levando em conta a equidade
    no desenvolvimento de sistemas?
  • 6:51 - 6:54
    Finalmente, a razão pela qual
    codificamos é relevante.
  • 6:54 - 7:00
    Utilizamos ferramentas de criação
    computacional para gerar imensas riquezas.
  • 7:00 - 7:04
    Hoje temos a oportunidade
    de gerar igualdade ainda maior,
  • 7:04 - 7:07
    se considerarmos a mudança social
    como uma prioridade
  • 7:07 - 7:09
    e não como algo de menos importância.
  • 7:10 - 7:14
    Esses são os três princípios na criação
    do movimento pela codificação inclusiva.
  • 7:14 - 7:16
    É importante quem codifica,
  • 7:16 - 7:17
    é importante como se codifica
  • 7:17 - 7:20
    e é importante por que se codifica.
  • 7:20 - 7:23
    Então, para uma codificação inclusiva,
    podemos começar a pensar
  • 7:23 - 7:26
    na criação de plataformas
    que identifiquem o viés,
  • 7:26 - 7:29
    coletando as experiências das pessoas,
    como as que eu contei aqui,
  • 7:29 - 7:32
    mas também auditando
    softwares já existentes.
  • 7:32 - 7:36
    Também podemos começar a criar
    séries de treinamento mais inclusivas.
  • 7:36 - 7:39
    Imaginem uma campanha
    de "'Selfies' pela Inclusão",
  • 7:39 - 7:42
    em que eu e vocês possamos ajudar
    os desenvolvedores a testar
  • 7:42 - 7:44
    e criar séries de treinamento
    mais inclusivas.
  • 7:45 - 7:48
    Também podemos começar
    a pensar de forma mais consciente
  • 7:48 - 7:53
    sobre o impacto social das tecnologias
    que temos desenvolvido.
  • 7:53 - 7:56
    Para iniciarmos o movimento
    de codificação inclusiva
  • 7:56 - 7:59
    lancei a Liga da Justiça Algorítmica,
  • 7:59 - 8:04
    onde todos que se importem com a equidade
    podem lutar contra o olhar codificado.
  • 8:04 - 8:08
    Em codedgaze.com,
    vocês podem relatar vieses,
  • 8:08 - 8:10
    solicitar auditorias,
    participar dos testes
  • 8:10 - 8:13
    e se juntar ao debate que vem ocorrendo,
  • 8:13 - 8:15
    #codedgaze.
  • 8:16 - 8:19
    Convido vocês a se juntarem a mim
  • 8:19 - 8:23
    na criação de um mundo onde a tecnologia
    trabalhe em favor de todos,
  • 8:23 - 8:25
    não apenas em favor de alguns.
  • 8:25 - 8:29
    Um mundo onde valorizemos a inclusão
    e tenhamos a mudança social como foco.
  • 8:29 - 8:31
    Obrigada.
  • 8:31 - 8:34
    (Aplausos)
  • 8:41 - 8:44
    Mas tenho uma pergunta:
  • 8:44 - 8:46
    Vocês vão se juntar a mim nessa luta?
  • 8:46 - 8:48
    (Risos)
  • 8:48 - 8:50
    (Aplausos)
Title:
Code4Rights: codificação em benefício de todos | Joy Buolamwini | TEDxBeaconStreet
Description:

Joy Buolamwini é uma programadora brilhante, mas ela tinha um problema: algoritmos de reconhecimento facial nem sempre reconheciam seu rosto, a não ser que usasse uma máscara branca. É um exemplo das formas sutil através das quais o privilégio racial exclui a ampla participação em oportunidades de aprendizado. Então, Joy fez algo a respeito: ela começou a fazer codificar programas mais inclusivos. Ela deu início a uma revolução, e está pronta pra fazer você participar dela!

Joy Buolamwini é a fundadora da Code4Rights e pós-graduanda no grupo Civic Media, do Laboratório de Mídia do MIT. Joy é bolsita da Rhodes, da Fulbright, da Astronaut, da Google Anita Borg, consultora técnica do Carter Center reconhecida como uma voluntária notável. Como diretora executiva de tecnologia da Techturized Inc, uma companhia de tecnologias de cuidados com cabelos e da Swift Tech Solutions, uma firma de consultoria global de tecnologias em saúde, Joy ganhou experiência técnica desenvolvendo softwares para comunidades carentes dos Estados Unidos, da Etiópia, do Mali, da Nigéria e do Níger. Durante seu tempo como bolsista da Fulbright no Zâmbia, ela estudou como empoderar cidadãos engajados com habilidades para criar suas próprias tecnologias através da Zamrize Initiative.

Esta palestra foi dada em um evento TEDx, que usa o formato de conferência TED, mas é organizado de forma independente por uma comunidade local. Para saber mais visite http://ted.com/tedx
Collapse

more » « less
Video Language:
English
Team:
TED
Project:
TEDxTalks
Duration:
09:02

Portuguese, Brazilian subtitles

Revisions Compare revisions