Les hago una pregunta: ¿cuántos de Uds. han sido testigos de algún acto de racismo o sexismo en las últimas 24 horas? Les pregunto de otra forma: ¿cuántos han usado Internet hoy? (Risas) Desafortunadamente, ambas cosas son en la práctica lo mismo. Soy especialista en computación y trabajo para diseñar tecnología de IA para mejorar el mundo en el que vivimos. Pero mientras más trabajo con esto, más me doy cuenta de que muchas veces esta tecnología se usa sin objetividad. Me gusta la objetividad. Estudié matemáticas y computación precisamente porque me gusta ese aspecto. Claro que hay problemas difíciles pero, al final, uno tiene una respuesta, y uno sabe que esa respuesta es correcta. La IA no trabaja así. La IA está formada por datos que, a veces, no son ciertos. Los datos no son la realidad. La IA y los datos difieren mucho de la objetividad. Les presento un ejemplo. ¿Qué apariencia tienen un director ejecutivo? De acuerdo con Google, su apariencia se parece a esto. Para Google un directivo luce así. Es cierto que estas personas parecen directores de empresa, pero también hay muchas otras personas que no lucen así, pero que también son directores ejecutivos. Lo que ven aquí no es realidad; es solo un estereotipo. Un reciente estudio nos muestra que, a pesar de que más del 25 % de mujeres son ejecutivas, tan solo el 11 % de ellas se plasman en las imágenes de Google. Pasó lo mismo en cada profesión analizada. Las imágenes eran estereotipos de género de la realidad. Y, ¿cómo puede esta supuesta IA cometer errores tan básicos? El problema se presenta a lo largo de cada etapa: desde que se recolectan los datos, luego el diseño de nuestros algoritmos y hasta cómo analizamos, desplegamos y usamos esos datos. Cada uno de estos pasos requieren de decisiones de personas que están determinadas por motivaciones humanas. Muy pocas veces nos detenemos y pensamos ¿quién toma estas decisiones? ¿Quién se beneficia de ellas? Y...,¿quién queda excluido? Esto pasa por todo Internet. Por ejemplo, las publicidades en línea han mostrado repetidamente como distinguir entre viviendas, préstamos y empleo. Un estudio mostró que los anuncios de trabajos bien remunerados fueron cinco veces más vistos por hombres que por mujeres, y que los anuncios de viviendas prejuzga a las personas. Presentaron anuncios de compra de casas a un público que es 75 % blanco, mientras que las publicidades de casas de alquiler es para un público diverso. Para mí, esto es personal. Yo soy mujer, latina y madre. Este no es el mundo que quiero para mí o mis hijos, y, ciertamente, no es el mundo que deseo construir. Cuando comprendí eso, supe que tenía que hacer algo al respecto y he estado trabajando en eso en los últimos años junto con mis colegas y con una increíble comunidad de investigadores que han estado creando esto en todo el mundo. Estamos definiendo y diseñando tecnologìa de IA que no contenga estos problemas de discriminación y preferencia. Piensen en el ejemplo del director. Llamamos a eso una selección de problema. Tenemos todas estas imágenes como datos y tenemos que elegir solo algunas. En el mundo real tenemos problemas similares. Imaginen que necesito contratar a alguien. y tengo una gran cantidad de candidatos. Todos con sus CVs y entrevistas, y solo puedo elegir a muy pocos. Pero en el mundo real hay algunas protecciones. Si, por ejemplo, tengo 100 postulantes hombres y 100 que son mujeres, y contrato a diez hombres. Legalmente debo tener un muy buen motivo para no haber contratado al menos ocho de esas mujeres también. ¿Le podemos pedir a la IA que siga estas mismas reglas? Cada día que pasa demostramos que sí podemos hacerlo. Es solo cuestión de modificar el sistema. Podemos construir IA que se sostenga con los mismos patrones que para las personas, o que tenemos para las empresas. ¿Recuerdan a nuestros directivos? Podemos ir desde ese punto a este otro. Podemos viajar desde los esteotipos a la realidad. De hecho, podemos viajar desde la realidad que tenemos ahora hasta la realidad del mundo que deseamos. Hay soluciones técnicas... para esto, para los anuncios y para otros incontables problemas de IA. Pero no quiero que piensen que esto es suficiente. La IA está siendo utilizada en nuestras comunidades, es los departamentos de policía y en las oficinas de gobierno. Se utiliza para decidir si obtienes o no un préstamo, o para analizar si tienen algún tipo de enfermedad y para decidir si recibes o no esa llamada por una entrevista. La IA está presente en nuestras vidas y lo está haciendo libre y desordenadamente. Les doy otro ejemplo: la tecnología de reconocimiento facial se usa en todo EE. UU., desde el departamento de policía hasta en los comercios para identificar a delincuentes. ¿Alguna de estas caras les resulta familiar? El ACLU, (Unión para las Libertados Civiles de EE. UU.) mostró que todas estas personas fueron identificadas por la IA de Amazon como criminales arrestados. Falsamente arrestadas porque son diputados del Congreso de EE. UU. (Risas) La IA comete errores los cuales afectan a personas, desde aquellos a los que se les dijo que no tenían cáncer para luego encontrar que eso había sido un error, hasta aquellos que están en la cárcel por un largo periodo debido a recomendaciones erróneas de la tecnología de IA. Dichos errores impactan en las personas. Estos errores son reales. Y, una y otra vez, como vimos en el ejemplo anterior, esos errores agravan las preferencias sociales existentes. Entre estos diputados, a pesar de que solo el 20 % del Congreso son personas de color, fueron doblemente señalados por el sistema como delincuentes bajo arresto. Esta imparcialidad de la IA debe dejar de legitimar sistemas opresivos. Repito nuevamente que sí hay problemas técnicos que son muy difíciles pero trabajamos en ellos y brindamos soluciones. Me estoy asegurando de esto. Pero tener esas soluciones técnicas no es suficiente. Lo que necesitamos es pasar de esas soluciones técnicas a los sistemas de justicia. Se requiere que la IA sea responsable con los mismo parámetros que nos contienen a todos. Son personas como Uds. las que hacen esto posible Con respecto al Gobierno, hace algunos meses San Francisco, Oakland y Somerville en Massachusets aprobaron leyes que impiden al Gobierno usar tecnología de reconocimiento facial. Esto surge de un trabajo preliminar, de personas que se muestran, que asisten a las reuniones y escriben peticiones, consultan dudas y que no se conforman con la IA objetiva. Con respecto a las empresas, no se puede subestimar el poder de la acción conjunta. Debido a la presión pública, grandes corporaciones han reducido IA problemática. Desde Watson Health que diagnosticaba erróneamente a sus pacientes hasta la técnica de selección de Amazon discriminatoria hacia las mujeres, grandes empresas han retrocedido y detenido su uso cuando se protestó públicamente. Juntos, podemos prevenir que la IA nos retenga o, lo que es peor, que nos lleve a retroceder. Si la manejamos prudentemente, si la mantenemos con responsabilidad y la usamos juiciosamente, podemos dejar que la IA nos muestre no solo el mundo en el que vivimos, sino también el mundo que queremos. El potencial es increíble y está en todos nosotros asegurarnos que suceda. Muchas gracias. (Aplausos) (Ovación)