WEBVTT 00:00:00.684 --> 00:00:03.060 Los algoritmos no son objetivos. 00:00:03.341 --> 00:00:07.253 La IA y todas estas nuevas tecnologías están perpetuando los prejuicios. 00:00:07.253 --> 00:00:10.015 Están prediciendo el futuro, hacen el futuro. 00:00:11.325 --> 00:00:14.075 Continuando la conversación: 00:00:14.075 --> 00:00:19.736 El dilema de la discriminación 00:00:19.736 --> 00:00:24.073 He pasado gran parte de mi tiempo pensando en los prejuicios, 00:00:24.179 --> 00:00:26.046 pero es que yo soy así. 00:00:26.161 --> 00:00:28.771 Y también, la falta de conocimiento 00:00:28.771 --> 00:00:30.999 del gobierno para entender estos problemas 00:00:30.999 --> 00:00:34.396 resulta en una falta de regulación y leyes que realmente ayudarían 00:00:34.396 --> 00:00:37.915 a minimizar algunos de los problemas que ya hemos identificado a través de la IA. 00:00:38.191 --> 00:00:40.835 Los algoritmos no son objetivos. 00:00:41.185 --> 00:00:44.965 Los algoritmos están optimizados para alguna definición de éxito. 00:00:44.965 --> 00:00:49.055 Utilizan datos históricos para predecir un futuro exitoso. 00:00:49.055 --> 00:00:51.419 La gente cree ciegamente 00:00:51.419 --> 00:00:54.183 que los algoritmos son justos y objetivo por naturaleza 00:00:54.183 --> 00:00:57.173 y en parte porque creen en esta lealtad, 00:00:57.173 --> 00:00:58.575 no cuestionan el algoritmo. 00:00:58.575 --> 00:01:02.205 Así que cuando el algoritmo termina siendo racista como los datos 00:01:02.205 --> 00:01:04.015 que insertamos en él, 00:01:04.015 --> 00:01:08.632 reproduce exactamente los patrones que desearíamos que trascendieran. 00:01:09.322 --> 00:01:13.092 Los sistemas están introduciendo toneladas de información sin contexto, 00:01:13.092 --> 00:01:16.242 sin historia, e incluso sin cuestiones políticas, 00:01:16.242 --> 00:01:18.642 económicas y sociales, 00:01:18.642 --> 00:01:23.121 entonces tienes una mayor probabilidad de un sistema de IA 00:01:23.121 --> 00:01:26.241 que encarna estos prejuicios o incluso los empeora. 00:01:26.402 --> 00:01:28.402 Hay cuatro tipos de algoritmos 00:01:28.402 --> 00:01:31.279 que creo que se utilizan indebidamente 00:01:31.279 --> 00:01:35.341 y esto podría causar graves daños a la sociedad. 00:01:35.341 --> 00:01:37.051 Las cuatro categorías son: 00:01:37.051 --> 00:01:37.976 Financiero. 00:01:37.976 --> 00:01:39.772 Son algoritmos que deciden 00:01:39.772 --> 00:01:41.992 si la gente comprará un seguro y por cuánto.. 00:01:41.992 --> 00:01:43.360 si consiguen buenas tarjetas de crédito... 00:01:43.360 --> 00:01:44.660 si consiguen hipotecas... 00:01:44.660 --> 00:01:45.830 si consiguen una vivienda … 00:01:45.830 --> 00:01:48.000 Si abres el sitio web de una tarjeta de crédito, 00:01:48.000 --> 00:01:50.698 no conseguirás información de las tarjetas de crédito. 00:01:50.698 --> 00:01:53.938 Te miden y te analizan, 00:01:53.938 --> 00:01:57.448 y son ellos los que te enseñan qué tarjeta creen que te mereces. 00:01:57.448 --> 00:02:00.393 La segunda categoría está relacionado con la libertad. 00:02:00.393 --> 00:02:01.813 ¿Cómo te controlas? 00:02:01.813 --> 00:02:03.277 ¿Cuánto tiempo vas a la cárcel? 00:02:03.277 --> 00:02:05.737 ¿Fuiste encarcelado mientras esperabas por un juicio? 00:02:05.737 --> 00:02:08.151 La tercera categoría es la de los medios de subsistencia: 00:02:08.167 --> 00:02:09.401 su trabajo. 00:02:09.401 --> 00:02:11.941 ¿Obtienes una entrevista para el trabajo que solicitas? 00:02:11.941 --> 00:02:13.269 ¿Conseguiste el trabajo? 00:02:13.269 --> 00:02:14.429 ¿Recibes un aumento de sueldo? 00:02:14.429 --> 00:02:16.727 ¿Cuál es tu horario de trabajo? 00:02:16.727 --> 00:02:19.800 Un ejemplo que atrajo la atención de los medios de comunicación 00:02:19.800 --> 00:02:21.437 era un algoritmo de contratación 00:02:21.437 --> 00:02:25.460 que favoreció desproporcionadamente a individuos que se llamaban Jared 00:02:25.460 --> 00:02:26.950 y que jugaban al lacrosse porque 00:02:26.950 --> 00:02:30.470 la mayoría de los individuos que tenían un buen rendimiento en esa empresa 00:02:30.470 --> 00:02:32.590 tenían estos dos hechos en común. 00:02:33.004 --> 00:02:35.979 Y la cuarta categoría es la información en sí misma. 00:02:35.979 --> 00:02:37.421 ¿Cómo se obtiene la información? 00:02:37.421 --> 00:02:38.391 ¿En qué creemos? 00:02:38.391 --> 00:02:40.291 Información política, principalmente. 00:02:40.433 --> 00:02:42.353 Sus cosas son algoritmos ahora. 00:02:42.353 --> 00:02:44.145 Y a menudo son injustas. 00:02:44.145 --> 00:02:45.615 Y a menudo ilegales. 00:02:45.615 --> 00:02:49.916 Pero no hemos descubierto cómo aplicar nuestras leyes contra la discriminación. 00:02:49.916 --> 00:02:53.463 La distopía que me preocupa es de 00:02:53.463 --> 00:02:58.543 nosotros no frenamos a los oscuros y peligrosos algoritmo. 00:02:58.543 --> 00:03:00.693 "Oye, te hemos estado siguiendo desde tu nacimiento. 00:03:00.693 --> 00:03:02.233 Entendemos que tu... 00:03:02.233 --> 00:03:03.333 tuviste una infancia pobre, 00:03:03.333 --> 00:03:05.863 en un barrio donde mucha gente no ha alcanzado el éxito. 00:03:05.863 --> 00:03:07.291 Y... 00:03:07.291 --> 00:03:09.707 Vamos a predecir que no lograrás el éxito. 00:03:09.707 --> 00:03:11.724 No sólo vamos a predecir esto, 00:03:11.724 --> 00:03:13.822 nos aseguraremos de que no consigas el éxito". 00:03:13.822 --> 00:03:15.562 No vas a ir a una buena universidad. 00:03:15.562 --> 00:03:16.460 Ni obtendrás un buen trabajo. 00:03:16.460 --> 00:03:17.790 Y ni siquiera un buen préstamo. 00:03:17.790 --> 00:03:19.890 Porque eso es lo que los algoritmos hacen, realmente 00:03:19.890 --> 00:03:22.610 No predicen el futuro. Ellos hacen el futuro. 00:03:24.678 --> 00:03:26.897 El dilema social. 00:03:26.897 --> 00:03:30.047 Nuestro dilema social.