Return to Video

The Social Dilemma – Bonus Clip: The Discrimination Dilemma

  • 0:01 - 0:03
    Algoritmos não são objetos.
  • 0:03 - 0:07
    IA e todas essas novas tecnologias
    estão disseminando preconceito.
  • 0:07 - 0:10
    Eles são preveem o futuro,
    eles fazem o futuro.
  • 0:14 - 0:17
    Continuando a conversa:
    O dilema da descriminação
  • 0:20 - 0:24
    Eu já gastei muito do meu tempo
    pensando sobre preconceito,
  • 0:24 - 0:26
    mas eu sou assim mesmo.
  • 0:26 - 0:29
    E também, a falta de conhecimento
  • 0:29 - 0:31
    do governo para entender esses problemas
  • 0:31 - 0:34
    resulta na falta de regulamento
    e leis que realmente ajudariam
  • 0:34 - 0:38
    a minimizar alguns dos problemas
    que já identificamos por meio da IA.
  • 0:38 - 0:41
    Algoritmos não são objetos.
  • 0:41 - 0:45
    Algoritmos são otimizados
    para alcançarem algum tipo de sucesso.
  • 0:45 - 0:49
    Utilizam de dados históricos
    para prever um futuro prospero.
  • 0:49 - 0:51
    As pessoas acreditam cegamente
  • 0:51 - 0:54
    que algoritmos são justos
    e objetivos por natureza
  • 0:54 - 0:57
    e, parcialmente, porque eles
    acreditam nessa lealdade,
  • 0:57 - 0:59
    eles não questionam o algoritmo.
  • 0:59 - 1:03
    Então quando o algoritmo acaba
    sendo racista como os dados
  • 1:03 - 1:04
    que inserimos nele,
  • 1:04 - 1:09
    ele reproduz exatamente os padrões
    que gostaríamos de poder superar.
  • 1:09 - 1:13
    Os sistemas estão inserindo toneladas
    de informações sem contexto,
  • 1:13 - 1:16
    sem a história, e até mesmo
    sem as questões políticas,
  • 1:16 - 1:17
    econômicas e sociais,
  • 1:17 - 1:22
    então você tem uma alta
    probabilidade de um sistema de IA
  • 1:22 - 1:26
    que incorpora esses preconceitos
    ou até os deixa piores.
  • 1:26 - 1:28
    Existe quatro tipos de algoritmos
  • 1:28 - 1:31
    que acredito que estejam
    sendo mal utilizados
  • 1:31 - 1:35
    e isso poderia causar
    sérios danos à sociedade.
  • 1:35 - 1:37
    As quatro categorias são:
  • 1:37 - 1:38
    Financeiro.
  • 1:38 - 1:40
    São algoritmos que decidem
  • 1:40 - 1:42
    se as pessoas irão adquirir
    seguro e por quanto...
  • 1:42 - 1:44
    um bom cartão de crédito...
  • 1:44 - 1:45
    hipotecas...
  • 1:45 - 1:46
    conseguir moradia...
  • 1:46 - 1:48
    Se você abrir um
    site de cartão de crédito,
  • 1:48 - 1:51
    você não vai obter
    informações sobre cartões de crédito.
  • 1:51 - 1:54
    Você é mensurado e avaliado,
  • 1:54 - 1:57
    e eles é quem te mostram qual é o cartão
    que eles acham que você merece.
  • 1:57 - 2:00
    A segunda categoria
    é relacionada à liberdade.
  • 2:00 - 2:02
    Como você é fiscalizado?
  • 2:02 - 2:03
    Há quanto tempo você vai à prisão?
  • 2:03 - 2:06
    Você ficou preso durante à
    espera por julgamento?
  • 2:06 - 2:08
    A terceira categoria é
    material de subsitência:
  • 2:08 - 2:09
    seu trabalho.
  • 2:09 - 2:12
    Você faz entrevista para
    o trabalho que se inscreve?
  • 2:12 - 2:13
    Consegue o vaga?
  • 2:13 - 2:14
    Você ganha aumento?
  • 2:14 - 2:16
    Em que horário você trabalha?
  • 2:17 - 2:20
    Um exemplo que chamou
    muito a atenção da mídia
  • 2:20 - 2:21
    foi um algoritmo de contratação
  • 2:21 - 2:25
    que desproporcionalmente favoreceu
    indivíduos que se chamavam Jared
  • 2:25 - 2:27
    e que jogavam lacrosse porque
  • 2:27 - 2:30
    a maioria dos indivíduos que tinha
    um bom desempenho naquela empresa
  • 2:30 - 2:33
    tinham esses dois fatos em comum.
  • 2:33 - 2:36
    E a quarta categoria é a informação em sí.
  • 2:36 - 2:37
    Como conseguimos informação?
  • 2:37 - 2:38
    No que acreditamos?
  • 2:38 - 2:40
    Informação política, principalmente.
  • 2:40 - 2:42
    Tossas essas coisas são
    algoritmos agora.
  • 2:42 - 2:44
    E frequentemente eles são injustos.
  • 2:44 - 2:46
    E frequentemente ilegais.
  • 2:46 - 2:50
    Mas não descobrimos como aplicar
    nossas leis de antidiscriminação.
  • 2:50 - 2:53
    A distopia que me preocupa é de
  • 2:53 - 2:59
    não colocarmos um freio
    no obscuro e perigoso algoritmo.
  • 2:59 - 3:01
    "Ei, nos rastreamos você
    desde o nascimento.
  • 3:01 - 3:02
    Percebemos que você...
  • 3:02 - 3:03
    teve um infância pobre,
  • 3:03 - 3:06
    em um bairro onde muitas
    pessoas não atingiram o sucesso.
  • 3:06 - 3:07
    E...
  • 3:07 - 3:10
    Vamos prever que você
    não irá alcançar o sucesso.
  • 3:10 - 3:12
    Não somente vamos prever isso,
  • 3:12 - 3:14
    vamos garantir que
    você não consiga o sucesso."
  • 3:14 - 3:16
    Você não vai para
    uma boa faculdade.
  • 3:16 - 3:17
    Nem um bom trabalho.
  • 3:17 - 3:18
    E nem um bom empréstimo.
  • 3:18 - 3:20
    Porque é isso que
    algoritmos fazem, realmente
  • 3:20 - 3:23
    Eles não preveem o futuro.
    Eles fazem o futuro.
Title:
The Social Dilemma – Bonus Clip: The Discrimination Dilemma
Description:

more » « less
Video Language:
English
Team:
Mozilla
Project:
Non-Mozilla videos
Duration:
03:37

Portuguese, Brazilian subtitles

Revisions