¿Debemos confiar en lo que dice la IA? | Elisa Celis | TEDxProvidence
-
0:17 - 0:20Les hago una pregunta:
-
0:20 - 0:24¿cuántos de Uds. han sido testigos
de algún acto de racismo o sexismo -
0:24 - 0:27en las últimas 24 horas?
-
0:27 - 0:30Les pregunto de otra forma:
-
0:30 - 0:33¿cuántos han usado Internet hoy?
-
0:33 - 0:34(Risas)
-
0:34 - 0:38Desafortunadamente, ambas cosas
son en la práctica lo mismo. -
0:39 - 0:40Soy especialista en computación
-
0:40 - 0:45y trabajo para diseñar tecnología de IA
para mejorar el mundo en el que vivimos. -
0:45 - 0:48Pero mientras más trabajo con esto,
más me doy cuenta de que -
0:48 - 0:52muchas veces esta tecnología
se usa sin objetividad. -
0:53 - 0:54Me gusta la objetividad.
-
0:54 - 0:59Estudié matemáticas y computación
precisamente porque me gusta ese aspecto. -
1:00 - 1:02Claro que hay problemas difíciles
-
1:02 - 1:04pero, al final, uno tiene una respuesta,
-
1:04 - 1:06y uno sabe que esa respuesta es correcta.
-
1:07 - 1:09La IA no trabaja así.
-
1:09 - 1:13La IA está formada por datos
que, a veces, no son ciertos. -
1:14 - 1:16Los datos no son la realidad.
-
1:16 - 1:20La IA y los datos difieren mucho
de la objetividad. -
1:21 - 1:22Les presento un ejemplo.
-
1:23 - 1:25¿Qué apariencia tienen
un director ejecutivo? -
1:26 - 1:28De acuerdo con Google,
-
1:28 - 1:30su apariencia se parece a esto.
-
1:30 - 1:34Para Google un directivo luce así.
-
1:35 - 1:39Es cierto que estas personas
parecen directores de empresa, -
1:39 - 1:41pero también hay muchas
otras personas -
1:41 - 1:45que no lucen así, pero que también
son directores ejecutivos. -
1:45 - 1:49Lo que ven aquí no es realidad;
es solo un estereotipo. -
1:51 - 1:53Un reciente estudio nos muestra
-
1:54 - 1:59que, a pesar de que más del 25 %
de mujeres son ejecutivas, -
1:59 - 2:03tan solo el 11 % de ellas se plasman
en las imágenes de Google. -
2:03 - 2:06Pasó lo mismo en cada profesión analizada.
-
2:06 - 2:10Las imágenes eran estereotipos
de género de la realidad. -
2:10 - 2:15Y, ¿cómo puede esta supuesta IA
-
2:16 - 2:18cometer errores tan básicos?
-
2:19 - 2:23El problema se presenta
a lo largo de cada etapa: -
2:23 - 2:27desde que se recolectan los datos,
luego el diseño de nuestros algoritmos -
2:28 - 2:31y hasta cómo analizamos,
desplegamos y usamos esos datos. -
2:32 - 2:35Cada uno de estos pasos requieren
de decisiones de personas -
2:35 - 2:38que están determinadas
por motivaciones humanas. -
2:38 - 2:43Muy pocas veces nos detenemos y pensamos
¿quién toma estas decisiones? -
2:44 - 2:46¿Quién se beneficia de ellas?
-
2:46 - 2:48Y...,¿quién queda excluido?
-
2:50 - 2:53Esto pasa por todo Internet.
-
2:53 - 2:58Por ejemplo, las publicidades en línea
han mostrado repetidamente como distinguir -
2:58 - 3:01entre viviendas, préstamos y empleo.
-
3:02 - 3:05Un estudio mostró que los anuncios
de trabajos bien remunerados -
3:05 - 3:09fueron cinco veces más vistos
por hombres que por mujeres, -
3:10 - 3:13y que los anuncios de viviendas
prejuzga a las personas. -
3:13 - 3:18Presentaron anuncios de compra de casas
a un público que es 75 % blanco, -
3:19 - 3:24mientras que las publicidades de casas
de alquiler es para un público diverso. -
3:25 - 3:27Para mí, esto es personal.
-
3:28 - 3:31Yo soy mujer, latina y madre.
-
3:32 - 3:35Este no es el mundo
que quiero para mí o mis hijos, -
3:35 - 3:38y, ciertamente, no es el mundo
que deseo construir. -
3:39 - 3:42Cuando comprendí eso, supe que
tenía que hacer algo al respecto -
3:42 - 3:45y he estado trabajando en eso
en los últimos años -
3:45 - 3:49junto con mis colegas y con una
increíble comunidad de investigadores -
3:49 - 3:51que han estado creando esto
en todo el mundo. -
3:52 - 3:55Estamos definiendo y
diseñando tecnologìa de IA -
3:55 - 3:59que no contenga estos problemas
de discriminación y preferencia. -
4:00 - 4:02Piensen en el ejemplo del director.
-
4:02 - 4:04Llamamos a eso una selección de problema.
-
4:04 - 4:07Tenemos todas estas imágenes como datos
-
4:07 - 4:08y tenemos que elegir solo algunas.
-
4:08 - 4:11En el mundo real tenemos
problemas similares. -
4:12 - 4:14Imaginen que necesito contratar a alguien.
-
4:14 - 4:16y tengo una gran cantidad de candidatos.
-
4:16 - 4:18Todos con sus CVs y entrevistas,
-
4:18 - 4:20y solo puedo elegir a muy pocos.
-
4:20 - 4:23Pero en el mundo real hay
algunas protecciones. -
4:23 - 4:24Si, por ejemplo,
-
4:24 - 4:27tengo 100 postulantes hombres
y 100 que son mujeres, -
4:27 - 4:31y contrato a diez hombres.
-
4:31 - 4:34Legalmente debo tener un muy buen motivo
-
4:34 - 4:37para no haber contratado al menos
ocho de esas mujeres también. -
4:38 - 4:42¿Le podemos pedir a la IA
que siga estas mismas reglas? -
4:42 - 4:45Cada día que pasa demostramos
que sí podemos hacerlo. -
4:45 - 4:47Es solo cuestión de modificar el sistema.
-
4:47 - 4:52Podemos construir IA que se sostenga con
los mismos patrones que para las personas, -
4:52 - 4:54o que tenemos para las empresas.
-
4:55 - 4:56¿Recuerdan a nuestros directivos?
-
4:57 - 4:58Podemos ir desde ese punto
-
4:59 - 5:00a este otro.
-
5:00 - 5:04Podemos viajar
desde los esteotipos a la realidad. -
5:04 - 5:07De hecho, podemos viajar
desde la realidad que tenemos ahora -
5:07 - 5:10hasta la realidad del mundo que deseamos.
-
5:11 - 5:14Hay soluciones técnicas...
-
5:15 - 5:19para esto, para los anuncios y para otros
incontables problemas de IA. -
5:21 - 5:23Pero no quiero que piensen
que esto es suficiente. -
5:25 - 5:28La IA está siendo utilizada en
nuestras comunidades, -
5:29 - 5:33es los departamentos de policía
y en las oficinas de gobierno. -
5:33 - 5:37Se utiliza para decidir
si obtienes o no un préstamo, -
5:37 - 5:40o para analizar
si tienen algún tipo de enfermedad -
5:41 - 5:45y para decidir si recibes o no
esa llamada por una entrevista. -
5:46 - 5:49La IA está presente en nuestras vidas
-
5:49 - 5:54y lo está haciendo libre y
desordenadamente. -
5:56 - 5:58Les doy otro ejemplo:
-
5:58 - 6:02la tecnología de reconocimiento facial
se usa en todo EE. UU., -
6:02 - 6:04desde el departamento de policía
hasta en los comercios -
6:04 - 6:06para identificar a delincuentes.
-
6:08 - 6:10¿Alguna de estas caras
les resulta familiar? -
6:11 - 6:14El ACLU, (Unión para
las Libertados Civiles de EE. UU.) -
6:14 - 6:16mostró que todas estas personas
-
6:16 - 6:22fueron identificadas por la IA de Amazon
como criminales arrestados. -
6:23 - 6:29Falsamente arrestadas porque
son diputados del Congreso de EE. UU. -
6:29 - 6:30(Risas)
-
6:31 - 6:33La IA comete errores
-
6:33 - 6:37los cuales afectan a personas,
-
6:38 - 6:41desde aquellos a los que se les dijo
que no tenían cáncer -
6:41 - 6:45para luego encontrar
que eso había sido un error, -
6:45 - 6:48hasta aquellos que están
en la cárcel por un largo periodo -
6:48 - 6:52debido a recomendaciones erróneas
de la tecnología de IA. -
6:54 - 6:56Dichos errores impactan en las personas.
-
6:57 - 6:59Estos errores son reales.
-
7:01 - 7:04Y, una y otra vez, como vimos
en el ejemplo anterior, -
7:05 - 7:09esos errores agravan
las preferencias sociales existentes. -
7:11 - 7:13Entre estos diputados,
-
7:15 - 7:18a pesar de que solo el 20 % del Congreso
-
7:19 - 7:21son personas de color,
-
7:21 - 7:24fueron doblemente señalados por el sistema
-
7:25 - 7:27como delincuentes bajo arresto.
-
7:28 - 7:32Esta imparcialidad de la IA debe dejar
-
7:33 - 7:35de legitimar sistemas opresivos.
-
7:38 - 7:39Repito nuevamente
-
7:40 - 7:43que sí hay problemas técnicos
que son muy difíciles -
7:43 - 7:45pero trabajamos en ellos
y brindamos soluciones. -
7:45 - 7:47Me estoy asegurando de esto.
-
7:47 - 7:51Pero tener esas soluciones técnicas
no es suficiente. -
7:52 - 7:56Lo que necesitamos es pasar
de esas soluciones técnicas -
7:57 - 7:58a los sistemas de justicia.
-
8:00 - 8:02Se requiere que la IA sea responsable
-
8:03 - 8:06con los mismo parámetros
que nos contienen a todos. -
8:06 - 8:10Son personas como Uds.
las que hacen esto posible -
8:11 - 8:14Con respecto al Gobierno,
hace algunos meses -
8:14 - 8:18San Francisco, Oakland
y Somerville en Massachusets -
8:19 - 8:23aprobaron leyes que impiden al Gobierno
usar tecnología de reconocimiento facial. -
8:24 - 8:28Esto surge de un trabajo preliminar,
de personas que se muestran, -
8:28 - 8:31que asisten a las reuniones
y escriben peticiones, consultan dudas -
8:31 - 8:35y que no se conforman con la IA objetiva.
-
8:36 - 8:37Con respecto a las empresas,
-
8:37 - 8:41no se puede subestimar
el poder de la acción conjunta. -
8:42 - 8:44Debido a la presión pública,
-
8:44 - 8:48grandes corporaciones
han reducido IA problemática. -
8:48 - 8:51Desde Watson Health que diagnosticaba
erróneamente a sus pacientes -
8:52 - 8:55hasta la técnica de selección de Amazon
discriminatoria hacia las mujeres, -
8:55 - 9:00grandes empresas han retrocedido
y detenido su uso -
9:00 - 9:02cuando se protestó públicamente.
-
9:03 - 9:08Juntos, podemos prevenir
que la IA nos retenga -
9:08 - 9:10o, lo que es peor,
que nos lleve a retroceder. -
9:10 - 9:12Si la manejamos prudentemente,
-
9:12 - 9:16si la mantenemos con responsabilidad
y la usamos juiciosamente, -
9:16 - 9:20podemos dejar que la IA nos muestre
no solo el mundo en el que vivimos, -
9:21 - 9:23sino también el mundo que queremos.
-
9:23 - 9:25El potencial es increíble
-
9:25 - 9:28y está en todos nosotros
asegurarnos que suceda. -
9:29 - 9:29Muchas gracias.
-
9:29 - 9:31(Aplausos) (Ovación)
- Title:
- ¿Debemos confiar en lo que dice la IA? | Elisa Celis | TEDxProvidence
- Description:
-
Elisa Celis, profesora de la Universidad de Yale, desarrolla IA para mejorar el mundo pero ha encontrado que la misma tiene algunos problemas. Un problema bastante grande, de hecho. La IA que está diseñada para todos, en realidad excluye a la mayoría. Aprende por qué pasa esto, cómo se puede solucionar y si realmente es suficiente.
Elisa Celis es asistente de cátedra en la materia Estadística y Ciencia de datos en la Universidad de Yale. La investigación de Elisa se enfoca en problemas que se crean en la interfaz de computación y aprendizaje automático y sus ramificaciones en la sociedad. Específicamente, Elisa estudia la manifestación de las tendencias sociales y económicas en nuestras vidas en las redes a través de los algoritmos que los codifican y perpetúan. Su trabajo abarca múltiples áreas incluyendo computación social, colaboración masiva, ciencia de datos y diseño de algoritmo con especial foco en la legitimidad y diversidad en la inteligencia artificial y el aprendizaje automático.
Esta lección fue realizada en un evento de TEDx utilizando el formato de conferencias de TED pero organizado independientemente por una comunidad local. Aprende más en: https://www.ted.com/tedx
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDxTalks
- Duration:
- 09:33
![]() |
Lidia Cámara de la Fuente approved Spanish subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Lidia Cámara de la Fuente accepted Spanish subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Lidia Cámara de la Fuente edited Spanish subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Florencia Batalla edited Spanish subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Florencia Batalla edited Spanish subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Florencia Batalla edited Spanish subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Florencia Batalla edited Spanish subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | |
![]() |
Florencia Batalla edited Spanish subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence |