Return to Video

Cómo lucho contra el sesgo en los algoritmos

  • 0:01 - 0:04
    Hola, soy Joy, una poetisa del código,
  • 0:04 - 0:09
    en una misión para frenar
    una fuerza invisible que crece,
  • 0:09 - 0:12
    una fuerza que llamo "mirada codificada",
  • 0:12 - 0:15
    mi término para el sesgo algorítmico.
  • 0:15 - 0:20
    El sesgo algorítmico, como el humano,
    se traduce en injusticia.
  • 0:20 - 0:26
    Pero, los algoritmos, como los virus,
    pueden propagar sesgos a gran escala
  • 0:26 - 0:27
    a un ritmo acelerado.
  • 0:28 - 0:32
    El sesgo algorítmico puede también
    generar experiencias de exclusión
  • 0:32 - 0:34
    y prácticas discriminatorias.
  • 0:35 - 0:37
    Les mostraré lo que quiero decir.
  • 0:37 - 0:40
    (Video) Joy Buolamwini: Hola, cámara.
    Tengo una cara.
  • 0:40 - 0:42
    ¿Puedes ver mi cara?
  • 0:42 - 0:44
    ¿Sin lentes?
  • 0:44 - 0:46
    Puedes ver su cara.
  • 0:46 - 0:48
    ¿Qué tal mi cara?
  • 0:52 - 0:56
    Tengo una máscara. ¿Puedes verla?
  • 0:56 - 0:59
    Joy Buolamwini: ¿Cómo ocurrió esto?
  • 0:59 - 1:02
    ¿Por qué estoy ante una computadora
  • 1:02 - 1:03
    con una máscara blanca,
  • 1:03 - 1:07
    intentando que una cámara
    barata me detecte?
  • 1:07 - 1:09
    Cuando no lucho
    contra la mirada codificada
  • 1:09 - 1:11
    como poetisa del código,
  • 1:11 - 1:14
    soy estudiante de posgrado
    en el Laboratorio de Medios del MIT,
  • 1:14 - 1:19
    y allí puedo trabajar
    en todo tipo de proyectos caprichosos,
  • 1:19 - 1:21
    incluso el Aspire Mirror,
  • 1:21 - 1:26
    un proyecto que realicé para proyectar
    máscaras digitales en mi propio reflejo.
  • 1:26 - 1:29
    Entonces, de mañana,
    si quería sentirme poderosa,
  • 1:29 - 1:30
    podía convertirme en león.
  • 1:30 - 1:34
    Si quería inspiración,
    podía usar una cita.
  • 1:34 - 1:37
    Entonces, usé el software
    de reconocimiento facial
  • 1:37 - 1:38
    para crear el sistema,
  • 1:38 - 1:43
    pero me resultó muy difícil probarlo
    sin colocarme una máscara blanca.
  • 1:44 - 1:49
    Desafortunadamente, ya tuve
    este problema antes.
  • 1:49 - 1:53
    Cuando era estudiante de informática
    en Georgia Tech,
  • 1:53 - 1:55
    solía trabajar con robots sociales,
  • 1:55 - 1:59
    y una de mis tareas fue lograr
    que un robot jugara a esconderse,
  • 1:59 - 2:00
    un juego de turnos simple
  • 2:00 - 2:05
    donde las personas cubren sus rostros y
    luego las descubren diciendo: "Aquí está".
  • 2:05 - 2:09
    El problema es que el juego
    no funciona, si no te pueden ver
  • 2:09 - 2:12
    y el robot no me veía.
  • 2:12 - 2:16
    Pero usé el rostro de mi compañera
    para terminar el proyecto,
  • 2:16 - 2:17
    entregué la tarea,
  • 2:17 - 2:21
    y pensé que otra persona
    resolvería este problema.
  • 2:22 - 2:24
    Al poco tiempo,
  • 2:24 - 2:28
    me encontraba en Hong Kong
    en una competencia de emprendedores.
  • 2:28 - 2:31
    Los organizadores decidieron
    llevar a los participantes
  • 2:31 - 2:33
    a un recorrido
    por empresas locales emergentes.
  • 2:33 - 2:36
    Una de ellas tenía un robot social,
  • 2:36 - 2:38
    y decidieron hacer una demostración.
  • 2:38 - 2:41
    La demostración funcionó bien
    hasta que llegó mi turno,
  • 2:41 - 2:43
    y probablemente pueden adivinar.
  • 2:43 - 2:46
    No pudo detectar mi rostro.
  • 2:46 - 2:49
    Pregunté a los desarrolladores qué pasaba,
  • 2:49 - 2:54
    y resultó que habíamos usado el mismo
    software genérico de reconocimiento.
  • 2:54 - 2:56
    Al otro lado del mundo,
  • 2:56 - 3:00
    aprendí que el sesgo algorítmico
    puede viajar tan rápido
  • 3:00 - 3:03
    como el tiempo que lleva
    descargar archivos de Internet.
  • 3:04 - 3:07
    Entonces, ¿qué sucede?
    ¿Por qué no se detecta mi rostro?
  • 3:07 - 3:10
    Bueno, debemos pensar
    cómo hacemos que las máquinas vean.
  • 3:10 - 3:14
    La visión por computadora
    usa técnicas de aprendizaje de máquina
  • 3:14 - 3:16
    para el reconocimiento facial.
  • 3:16 - 3:19
    Se trabaja así, creando una serie
    de prueba con ejemplos de rostros.
  • 3:19 - 3:22
    Esto es un rostro. Esto es un rostro.
    Esto no lo es.
  • 3:22 - 3:27
    Con el tiempo, puedes enseñar
    a una computadora a reconocer rostros.
  • 3:27 - 3:31
    Sin embargo, si las series de prueba
    no son realmente diversas,
  • 3:31 - 3:34
    todo rostro que se desvíe mucho
    de la norma establecida
  • 3:34 - 3:36
    será más difícil de detectar,
  • 3:36 - 3:38
    que es lo que me sucedía a mí.
  • 3:38 - 3:40
    Pero no se preocupen,
    tengo buenas noticias.
  • 3:40 - 3:43
    Las series de prueba
    no se materializan de la nada.
  • 3:43 - 3:45
    En verdad las podemos crear.
  • 3:45 - 3:49
    Por ende, se pueden crear
    series de prueba con espectros completos
  • 3:49 - 3:53
    que reflejen de manera más exhaustiva
    un retrato de la humanidad.
  • 3:53 - 3:55
    Ya han visto en mis ejemplos
  • 3:55 - 3:57
    cómo con los robots sociales
  • 3:57 - 4:02
    me enteré de la exclusión
    por el sesgo algorítmico.
  • 4:02 - 4:06
    Además, el sesgo algorítmico
    puede generar prácticas discriminatorias.
  • 4:07 - 4:09
    En EE.UU.
  • 4:09 - 4:13
    los departamentos de policía incorporan
    software de reconocimiento facial
  • 4:13 - 4:16
    en su arsenal
    para la lucha contra el crimen.
  • 4:16 - 4:18
    Georgetown publicó un informe
  • 4:18 - 4:24
    que muestra que uno de cada dos adultos
    en EE.UU., 117 millones de personas,
  • 4:24 - 4:28
    tiene sus rostros en redes
    de reconocimiento facial.
  • 4:28 - 4:33
    Los departamentos de policía hoy
    tienen acceso a esas redes no reguladas,
  • 4:33 - 4:37
    mediante algoritmos cuya exactitud
    no ha sido testeada.
  • 4:37 - 4:41
    Sabemos que el reconocimiento facial
    no es a prueba de fallas
  • 4:41 - 4:45
    y etiquetar rostros de forma consistente
    aún es un desafío.
  • 4:45 - 4:47
    Tal vez lo han visto en Facebook.
  • 4:47 - 4:50
    Mis amigos y yo nos reímos,
    cuando vemos a otros
  • 4:50 - 4:52
    mal etiquetados en nuestras fotos.
  • 4:52 - 4:58
    Pero identificar mal a un sospechoso
    no es un tema para reírse,
  • 4:58 - 5:01
    tampoco lo es violar la libertad civil.
  • 5:01 - 5:04
    El aprendizaje automático se usa
    para el reconocimiento facial,
  • 5:04 - 5:08
    pero también se está extendiendo
    al campo de la visión por computadora.
  • 5:09 - 5:13
    En su libro, "Armas de
    destrucción matemática",
  • 5:13 - 5:20
    la científica de datos Cathy O'Neil
    habla sobre los nuevos WMDs,
  • 5:20 - 5:24
    algoritmos amplios,
    misteriosos y destructivos
  • 5:24 - 5:27
    que se usan cada vez más
    para tomar decisiones
  • 5:27 - 5:31
    que influyen sobre muchos aspectos
    de nuestras vidas.
  • 5:31 - 5:32
    ¿A quién se contrata o se despide?
  • 5:32 - 5:35
    ¿Recibes el préstamo?
    ¿Y la cobertura de seguros?
  • 5:35 - 5:38
    ¿Eres aceptado en la universidad
    a la que deseas entrar?
  • 5:38 - 5:42
    ¿Tú y yo pagamos el mismo precio
    por el mismo producto
  • 5:42 - 5:44
    comprado en la misma plataforma?
  • 5:44 - 5:48
    La aplicación de la ley también empieza
    a usar el aprendizaje de máquina
  • 5:48 - 5:50
    para la predicción de la policía.
  • 5:50 - 5:54
    Algunos jueces usan puntajes de riesgo
    generados por máquinas para determinar
  • 5:54 - 5:58
    cuánto tiempo un individuo
    permanecerá en prisión.
  • 5:58 - 6:01
    Así que hay que pensar
    sobre estas decisiones.
  • 6:01 - 6:02
    ¿Son justas?
  • 6:02 - 6:05
    Y hemos visto que el sesgo algorítmico
  • 6:05 - 6:08
    no necesariamente lleva siempre
    a resultados justos.
  • 6:08 - 6:10
    Entonces, ¿qué podemos hacer al respecto?
  • 6:10 - 6:14
    Bueno, podemos empezar a pensar en
    cómo creamos un código más inclusivo
  • 6:14 - 6:17
    y emplear prácticas
    de codificación inclusivas.
  • 6:17 - 6:19
    Realmente empieza con la gente.
  • 6:20 - 6:22
    Con los que codifican cosas.
  • 6:22 - 6:26
    ¿Estamos creando equipos de
    amplio espectro con diversidad de personas
  • 6:26 - 6:28
    que pueden comprobar
    los puntos ciegos de los demás?
  • 6:28 - 6:32
    Desde el punto de vista técnico,
    importa cómo codificamos.
  • 6:32 - 6:35
    ¿Lo gestionamos con equidad
    al desarrollar los sistemas?
  • 6:36 - 6:38
    Y finalmente, importa por qué
    codificamos.
  • 6:38 - 6:41
    Hemos usado herramientas informáticas
  • 6:41 - 6:44
    para generar una riqueza inmensa.
  • 6:44 - 6:48
    Ahora tenemos la oportunidad de generar
    una igualdad aún más grande
  • 6:48 - 6:51
    si hacemos del cambio social una prioridad
  • 6:51 - 6:53
    y no solo un pensamiento.
  • 6:54 - 6:59
    Estos son los tres principios que
    constituirán el movimiento "codificador".
  • 6:59 - 7:00
    Quién codifica importa,
  • 7:00 - 7:02
    cómo codificamos importa,
  • 7:02 - 7:04
    y por qué codificamos importa.
  • 7:04 - 7:07
    Así que, para abordar la codificación,
    podemos empezar a pensar
  • 7:07 - 7:10
    en construir plataformas
    que puedan identificar sesgos
  • 7:10 - 7:13
    reuniendo experiencias de la gente
    como las que compartí,
  • 7:13 - 7:16
    pero también auditando
    el software existente.
  • 7:16 - 7:20
    También podemos crear
    grupos de formación más inclusivos.
  • 7:20 - 7:23
    Imaginen una campaña de
    "Selfies por la inclusión"
  • 7:23 - 7:27
    donde Uds. y yo podamos ayudar
    a los desarrolladores a crear
  • 7:27 - 7:29
    grupos de formación más inclusivos.
  • 7:29 - 7:32
    Y también podemos empezar a pensar
    más concienzudamente
  • 7:32 - 7:38
    sobre el impacto social de la tecnología
    que estamos desarrollando.
  • 7:38 - 7:40
    Para iniciar el movimiento
    de codificación,
  • 7:40 - 7:43
    creé la Liga de la Justicia algorítmica,
  • 7:43 - 7:45
    donde todo el que
    se preocupa por la equidad
  • 7:45 - 7:49
    puede ayudar a combatir
    la mirada codificada.
  • 7:49 - 7:52
    En codedgaze.com
    pueden informar sesgos,
  • 7:52 - 7:55
    solicitar auditorías,
    convertirse en un betatesters
  • 7:55 - 7:57
    y unirse a la conversación en curso,
  • 7:57 - 8:00
    #codedgaze.
  • 8:01 - 8:03
    Así que los invito a que se unan a mí
  • 8:03 - 8:07
    para crear un mundo donde la tecnología
    trabaje para todos nosotros,
  • 8:07 - 8:09
    no solo para algunos de nosotros,
  • 8:09 - 8:13
    un mundo donde se valore la inclusión
    y así centrar el cambio social.
  • 8:13 - 8:15
    Gracias.
  • 8:15 - 8:19
    (Aplausos)
  • 8:21 - 8:23
    Pero tengo una pregunta:
  • 8:24 - 8:26
    ¿Se unirán a mí en mi lucha?
  • 8:26 - 8:27
    (Risas)
  • 8:27 - 8:29
    (Aplausos)
Title:
Cómo lucho contra el sesgo en los algoritmos
Speaker:
Joy Buolamwini
Description:

Como estudiante de grado en el MIT, Joy Buolamwini estaba trabajando con software de reconocimiento facial cuando se dio cuenta de un problema: el software no reconocía su rostro -- porque quienes codificaron el algoritmo no le enseñaron a identificar una amplia variedad de tonos de piel y estructuras faciales. Actualmente se encuentra en una misión para luchar contra el sesgo en el aprendizaje automático, un fenómeno que ella llama "mirada codificada". Es una charla que abre los ojos con respecto a la necesidad de responsabilidad a la hora de codificar... al tiempo que los algoritmos se apoderan cada vez de más y más aspectos de nuestras vidas.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:46

Spanish subtitles

Revisions Compare revisions