< Return to Video

¿Debemos confiar en lo que dice la IA? | Elisa Celis | TEDxProvidence

  • 0:17 - 0:20
    Les hago una pregunta:
  • 0:20 - 0:24
    ¿cuántos de Uds. han sido testigos
    de algún acto de racismo o sexismo
  • 0:24 - 0:27
    en las últimas 24 horas?
  • 0:27 - 0:30
    Les pregunto de otra forma:
  • 0:30 - 0:33
    ¿cuántos han usado Internet hoy?
  • 0:33 - 0:34
    (Risas)
  • 0:34 - 0:38
    Desafortunadamente, ambas cosas
    son en la práctica lo mismo.
  • 0:39 - 0:40
    Soy especialista en computación
  • 0:40 - 0:45
    y trabajo para diseñar tecnología de IA
    para mejorar el mundo en el que vivimos.
  • 0:45 - 0:48
    Pero mientras más trabajo con esto,
    más me doy cuenta de que
  • 0:48 - 0:52
    muchas veces esta tecnología
    se usa sin objetividad.
  • 0:53 - 0:54
    Me gusta la objetividad.
  • 0:54 - 0:59
    Estudié matemáticas y computación
    precisamente porque me gusta ese aspecto.
  • 1:00 - 1:02
    Claro que hay problemas difíciles
  • 1:02 - 1:04
    pero, al final, uno tiene una respuesta,
  • 1:04 - 1:06
    y uno sabe que esa respuesta es correcta.
  • 1:07 - 1:09
    La IA no trabaja así.
  • 1:09 - 1:13
    La IA está formada por datos
    que, a veces, no son ciertos.
  • 1:14 - 1:16
    Los datos no son la realidad.
  • 1:16 - 1:20
    La IA y los datos difieren mucho
    de la objetividad.
  • 1:21 - 1:22
    Les presento un ejemplo.
  • 1:23 - 1:25
    ¿Qué apariencia tienen
    un director ejecutivo?
  • 1:26 - 1:28
    De acuerdo con Google,
  • 1:28 - 1:30
    su apariencia se parece a esto.
  • 1:30 - 1:34
    Para Google un directivo luce así.
  • 1:35 - 1:39
    Es cierto que estas personas
    parecen directores de empresa,
  • 1:39 - 1:41
    pero también hay muchas
    otras personas
  • 1:41 - 1:45
    que no lucen así, pero que también
    son directores ejecutivos.
  • 1:45 - 1:49
    Lo que ven aquí no es realidad;
    es solo un estereotipo.
  • 1:51 - 1:53
    Un reciente estudio nos muestra
  • 1:54 - 1:59
    que, a pesar de que más del 25 %
    de mujeres son ejecutivas,
  • 1:59 - 2:03
    tan solo el 11 % de ellas se plasman
    en las imágenes de Google.
  • 2:03 - 2:06
    Pasó lo mismo en cada profesión analizada.
  • 2:06 - 2:10
    Las imágenes eran estereotipos
    de género de la realidad.
  • 2:10 - 2:15
    Y, ¿cómo puede esta supuesta IA
  • 2:16 - 2:18
    cometer errores tan básicos?
  • 2:19 - 2:23
    El problema se presenta
    a lo largo de cada etapa:
  • 2:23 - 2:27
    desde que se recolectan los datos,
    luego el diseño de nuestros algoritmos
  • 2:28 - 2:31
    y hasta cómo analizamos,
    desplegamos y usamos esos datos.
  • 2:32 - 2:35
    Cada uno de estos pasos requieren
    de decisiones de personas
  • 2:35 - 2:38
    que están determinadas
    por motivaciones humanas.
  • 2:38 - 2:43
    Muy pocas veces nos detenemos y pensamos
    ¿quién toma estas decisiones?
  • 2:44 - 2:46
    ¿Quién se beneficia de ellas?
  • 2:46 - 2:48
    Y...,¿quién queda excluido?
  • 2:50 - 2:53
    Esto pasa por todo Internet.
  • 2:53 - 2:58
    Por ejemplo, las publicidades en línea
    han mostrado repetidamente como distinguir
  • 2:58 - 3:01
    entre viviendas, préstamos y empleo.
  • 3:02 - 3:05
    Un estudio mostró que los anuncios
    de trabajos bien remunerados
  • 3:05 - 3:09
    fueron cinco veces más vistos
    por hombres que por mujeres,
  • 3:10 - 3:13
    y que los anuncios de viviendas
    prejuzga a las personas.
  • 3:13 - 3:18
    Presentaron anuncios de compra de casas
    a un público que es 75 % blanco,
  • 3:19 - 3:24
    mientras que las publicidades de casas
    de alquiler es para un público diverso.
  • 3:25 - 3:27
    Para mí, esto es personal.
  • 3:28 - 3:31
    Yo soy mujer, latina y madre.
  • 3:32 - 3:35
    Este no es el mundo
    que quiero para mí o mis hijos,
  • 3:35 - 3:38
    y, ciertamente, no es el mundo
    que deseo construir.
  • 3:39 - 3:42
    Cuando comprendí eso, supe que
    tenía que hacer algo al respecto
  • 3:42 - 3:45
    y he estado trabajando en eso
    en los últimos años
  • 3:45 - 3:49
    junto con mis colegas y con una
    increíble comunidad de investigadores
  • 3:49 - 3:51
    que han estado creando esto
    en todo el mundo.
  • 3:52 - 3:55
    Estamos definiendo y
    diseñando tecnologìa de IA
  • 3:55 - 3:59
    que no contenga estos problemas
    de discriminación y preferencia.
  • 4:00 - 4:02
    Piensen en el ejemplo del director.
  • 4:02 - 4:04
    Llamamos a eso una selección de problema.
  • 4:04 - 4:07
    Tenemos todas estas imágenes como datos
  • 4:07 - 4:08
    y tenemos que elegir solo algunas.
  • 4:08 - 4:11
    En el mundo real tenemos
    problemas similares.
  • 4:12 - 4:14
    Imaginen que necesito contratar a alguien.
  • 4:14 - 4:16
    y tengo una gran cantidad de candidatos.
  • 4:16 - 4:18
    Todos con sus CVs y entrevistas,
  • 4:18 - 4:20
    y solo puedo elegir a muy pocos.
  • 4:20 - 4:23
    Pero en el mundo real hay
    algunas protecciones.
  • 4:23 - 4:24
    Si, por ejemplo,
  • 4:24 - 4:27
    tengo 100 postulantes hombres
    y 100 que son mujeres,
  • 4:27 - 4:31
    y contrato a diez hombres.
  • 4:31 - 4:34
    Legalmente debo tener un muy buen motivo
  • 4:34 - 4:37
    para no haber contratado al menos
    ocho de esas mujeres también.
  • 4:38 - 4:42
    ¿Le podemos pedir a la IA
    que siga estas mismas reglas?
  • 4:42 - 4:45
    Cada día que pasa demostramos
    que sí podemos hacerlo.
  • 4:45 - 4:47
    Es solo cuestión de modificar el sistema.
  • 4:47 - 4:52
    Podemos construir IA que se sostenga con
    los mismos patrones que para las personas,
  • 4:52 - 4:54
    o que tenemos para las empresas.
  • 4:55 - 4:56
    ¿Recuerdan a nuestros directivos?
  • 4:57 - 4:58
    Podemos ir desde ese punto
  • 4:59 - 5:00
    a este otro.
  • 5:00 - 5:04
    Podemos viajar
    desde los esteotipos a la realidad.
  • 5:04 - 5:07
    De hecho, podemos viajar
    desde la realidad que tenemos ahora
  • 5:07 - 5:10
    hasta la realidad del mundo que deseamos.
  • 5:11 - 5:14
    Hay soluciones técnicas...
  • 5:15 - 5:19
    para esto, para los anuncios y para otros
    incontables problemas de IA.
  • 5:21 - 5:23
    Pero no quiero que piensen
    que esto es suficiente.
  • 5:25 - 5:28
    La IA está siendo utilizada en
    nuestras comunidades,
  • 5:29 - 5:33
    es los departamentos de policía
    y en las oficinas de gobierno.
  • 5:33 - 5:37
    Se utiliza para decidir
    si obtienes o no un préstamo,
  • 5:37 - 5:40
    o para analizar
    si tienen algún tipo de enfermedad
  • 5:41 - 5:45
    y para decidir si recibes o no
    esa llamada por una entrevista.
  • 5:46 - 5:49
    La IA está presente en nuestras vidas
  • 5:49 - 5:54
    y lo está haciendo libre y
    desordenadamente.
  • 5:56 - 5:58
    Les doy otro ejemplo:
  • 5:58 - 6:02
    la tecnología de reconocimiento facial
    se usa en todo EE. UU.,
  • 6:02 - 6:04
    desde el departamento de policía
    hasta en los comercios
  • 6:04 - 6:06
    para identificar a delincuentes.
  • 6:08 - 6:10
    ¿Alguna de estas caras
    les resulta familiar?
  • 6:11 - 6:14
    El ACLU, (Unión para
    las Libertados Civiles de EE. UU.)
  • 6:14 - 6:16
    mostró que todas estas personas
  • 6:16 - 6:22
    fueron identificadas por la IA de Amazon
    como criminales arrestados.
  • 6:23 - 6:29
    Falsamente arrestadas porque
    son diputados del Congreso de EE. UU.
  • 6:29 - 6:30
    (Risas)
  • 6:31 - 6:33
    La IA comete errores
  • 6:33 - 6:37
    los cuales afectan a personas,
  • 6:38 - 6:41
    desde aquellos a los que se les dijo
    que no tenían cáncer
  • 6:41 - 6:45
    para luego encontrar
    que eso había sido un error,
  • 6:45 - 6:48
    hasta aquellos que están
    en la cárcel por un largo periodo
  • 6:48 - 6:52
    debido a recomendaciones erróneas
    de la tecnología de IA.
  • 6:54 - 6:56
    Dichos errores impactan en las personas.
  • 6:57 - 6:59
    Estos errores son reales.
  • 7:01 - 7:04
    Y, una y otra vez, como vimos
    en el ejemplo anterior,
  • 7:05 - 7:09
    esos errores agravan
    las preferencias sociales existentes.
  • 7:11 - 7:13
    Entre estos diputados,
  • 7:15 - 7:18
    a pesar de que solo el 20 % del Congreso
  • 7:19 - 7:21
    son personas de color,
  • 7:21 - 7:24
    fueron doblemente señalados por el sistema
  • 7:25 - 7:27
    como delincuentes bajo arresto.
  • 7:28 - 7:32
    Esta imparcialidad de la IA debe dejar
  • 7:33 - 7:35
    de legitimar sistemas opresivos.
  • 7:38 - 7:39
    Repito nuevamente
  • 7:40 - 7:43
    que sí hay problemas técnicos
    que son muy difíciles
  • 7:43 - 7:45
    pero trabajamos en ellos
    y brindamos soluciones.
  • 7:45 - 7:47
    Me estoy asegurando de esto.
  • 7:47 - 7:51
    Pero tener esas soluciones técnicas
    no es suficiente.
  • 7:52 - 7:56
    Lo que necesitamos es pasar
    de esas soluciones técnicas
  • 7:57 - 7:58
    a los sistemas de justicia.
  • 8:00 - 8:02
    Se requiere que la IA sea responsable
  • 8:03 - 8:06
    con los mismo parámetros
    que nos contienen a todos.
  • 8:06 - 8:10
    Son personas como Uds.
    las que hacen esto posible
  • 8:11 - 8:14
    Con respecto al Gobierno,
    hace algunos meses
  • 8:14 - 8:18
    San Francisco, Oakland
    y Somerville en Massachusets
  • 8:19 - 8:23
    aprobaron leyes que impiden al Gobierno
    usar tecnología de reconocimiento facial.
  • 8:24 - 8:28
    Esto surge de un trabajo preliminar,
    de personas que se muestran,
  • 8:28 - 8:31
    que asisten a las reuniones
    y escriben peticiones, consultan dudas
  • 8:31 - 8:35
    y que no se conforman con la IA objetiva.
  • 8:36 - 8:37
    Con respecto a las empresas,
  • 8:37 - 8:41
    no se puede subestimar
    el poder de la acción conjunta.
  • 8:42 - 8:44
    Debido a la presión pública,
  • 8:44 - 8:48
    grandes corporaciones
    han reducido IA problemática.
  • 8:48 - 8:51
    Desde Watson Health que diagnosticaba
    erróneamente a sus pacientes
  • 8:52 - 8:55
    hasta la técnica de selección de Amazon
    discriminatoria hacia las mujeres,
  • 8:55 - 9:00
    grandes empresas han retrocedido
    y detenido su uso
  • 9:00 - 9:02
    cuando se protestó públicamente.
  • 9:03 - 9:08
    Juntos, podemos prevenir
    que la IA nos retenga
  • 9:08 - 9:10
    o, lo que es peor,
    que nos lleve a retroceder.
  • 9:10 - 9:12
    Si la manejamos prudentemente,
  • 9:12 - 9:16
    si la mantenemos con responsabilidad
    y la usamos juiciosamente,
  • 9:16 - 9:20
    podemos dejar que la IA nos muestre
    no solo el mundo en el que vivimos,
  • 9:21 - 9:23
    sino también el mundo que queremos.
  • 9:23 - 9:25
    El potencial es increíble
  • 9:25 - 9:28
    y está en todos nosotros
    asegurarnos que suceda.
  • 9:29 - 9:29
    Muchas gracias.
  • 9:29 - 9:31
    (Aplausos) (Ovación)
Title:
¿Debemos confiar en lo que dice la IA? | Elisa Celis | TEDxProvidence
Description:

Elisa Celis, profesora de la Universidad de Yale, desarrolla IA para mejorar el mundo pero ha encontrado que la misma tiene algunos problemas. Un problema bastante grande, de hecho. La IA que está diseñada para todos, en realidad excluye a la mayoría. Aprende por qué pasa esto, cómo se puede solucionar y si realmente es suficiente.

Elisa Celis es asistente de cátedra en la materia Estadística y Ciencia de datos en la Universidad de Yale. La investigación de Elisa se enfoca en problemas que se crean en la interfaz de computación y aprendizaje automático y sus ramificaciones en la sociedad. Específicamente, Elisa estudia la manifestación de las tendencias sociales y económicas en nuestras vidas en las redes a través de los algoritmos que los codifican y perpetúan. Su trabajo abarca múltiples áreas incluyendo computación social, colaboración masiva, ciencia de datos y diseño de algoritmo con especial foco en la legitimidad y diversidad en la inteligencia artificial y el aprendizaje automático.

Esta lección fue realizada en un evento de TEDx utilizando el formato de conferencias de TED pero organizado independientemente por una comunidad local. Aprende más en: https://www.ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
09:33

Spanish subtitles

Revisions