1 00:00:00,684 --> 00:00:03,060 Los algoritmos no son objetivos. 2 00:00:03,341 --> 00:00:07,253 La IA y todas estas nuevas tecnologías están perpetuando los prejuicios. 3 00:00:07,253 --> 00:00:10,015 Están prediciendo el futuro, hacen el futuro. 4 00:00:11,325 --> 00:00:14,075 Continuando la conversación: 5 00:00:14,075 --> 00:00:19,736 El dilema de la discriminación 6 00:00:19,736 --> 00:00:24,073 He pasado gran parte de mi tiempo pensando en los prejuicios, 7 00:00:24,179 --> 00:00:26,046 pero es que yo soy así. 8 00:00:26,161 --> 00:00:28,771 Y también, la falta de conocimiento 9 00:00:28,771 --> 00:00:30,999 del gobierno para entender estos problemas 10 00:00:30,999 --> 00:00:34,396 resulta en una falta de regulación y leyes que realmente ayudarían 11 00:00:34,396 --> 00:00:37,915 a minimizar algunos de los problemas que ya hemos identificado a través de la IA. 12 00:00:38,191 --> 00:00:40,835 Los algoritmos no son objetivos. 13 00:00:41,185 --> 00:00:44,965 Los algoritmos están optimizados para alguna definición de éxito. 14 00:00:44,965 --> 00:00:49,055 Utilizan datos históricos para predecir un futuro exitoso. 15 00:00:49,055 --> 00:00:51,419 La gente cree ciegamente 16 00:00:51,419 --> 00:00:54,183 que los algoritmos son justos y objetivo por naturaleza 17 00:00:54,183 --> 00:00:57,173 y en parte porque creen en esta lealtad, 18 00:00:57,173 --> 00:00:58,575 no cuestionan el algoritmo. 19 00:00:58,575 --> 00:01:02,205 Así que cuando el algoritmo termina siendo racista como los datos 20 00:01:02,205 --> 00:01:04,015 que insertamos en él, 21 00:01:04,015 --> 00:01:08,632 reproduce exactamente los patrones que desearíamos que trascendieran. 22 00:01:09,322 --> 00:01:13,092 Los sistemas están introduciendo toneladas de información sin contexto, 23 00:01:13,092 --> 00:01:16,242 sin historia, e incluso sin cuestiones políticas, 24 00:01:16,242 --> 00:01:18,642 económicas y sociales, 25 00:01:18,642 --> 00:01:23,121 entonces tienes una mayor probabilidad de un sistema de IA 26 00:01:23,121 --> 00:01:26,241 que encarna estos prejuicios o incluso los empeora. 27 00:01:26,402 --> 00:01:28,402 Hay cuatro tipos de algoritmos 28 00:01:28,402 --> 00:01:31,279 que creo que se utilizan indebidamente 29 00:01:31,279 --> 00:01:35,341 y esto podría causar graves daños a la sociedad. 30 00:01:35,341 --> 00:01:37,051 Las cuatro categorías son: 31 00:01:37,051 --> 00:01:37,976 Financiero. 32 00:01:37,976 --> 00:01:39,772 Son algoritmos que deciden 33 00:01:39,772 --> 00:01:41,992 si la gente comprará un seguro y por cuánto.. 34 00:01:41,992 --> 00:01:43,360 si consiguen buenas tarjetas de crédito... 35 00:01:43,360 --> 00:01:44,660 si consiguen hipotecas... 36 00:01:44,660 --> 00:01:45,830 si consiguen una vivienda … 37 00:01:45,830 --> 00:01:48,000 Si abres el sitio web de una tarjeta de crédito, 38 00:01:48,000 --> 00:01:50,698 no conseguirás información de las tarjetas de crédito. 39 00:01:50,698 --> 00:01:53,938 Te miden y te analizan, 40 00:01:53,938 --> 00:01:57,448 y son ellos los que te enseñan qué tarjeta creen que te mereces. 41 00:01:57,448 --> 00:02:00,393 La segunda categoría está relacionado con la libertad. 42 00:02:00,393 --> 00:02:01,813 ¿Cómo te controlas? 43 00:02:01,813 --> 00:02:03,277 ¿Cuánto tiempo vas a la cárcel? 44 00:02:03,277 --> 00:02:05,737 ¿Fuiste encarcelado mientras esperabas por un juicio? 45 00:02:05,737 --> 00:02:08,151 La tercera categoría es la de los medios de subsistencia: 46 00:02:08,167 --> 00:02:09,401 su trabajo. 47 00:02:09,401 --> 00:02:11,941 ¿Obtienes una entrevista para el trabajo que solicitas? 48 00:02:11,941 --> 00:02:13,269 ¿Conseguiste el trabajo? 49 00:02:13,269 --> 00:02:14,429 ¿Recibes un aumento de sueldo? 50 00:02:14,429 --> 00:02:16,727 ¿Cuál es tu horario de trabajo? 51 00:02:16,727 --> 00:02:19,800 Un ejemplo que atrajo la atención de los medios de comunicación 52 00:02:19,800 --> 00:02:21,437 era un algoritmo de contratación 53 00:02:21,437 --> 00:02:25,460 que favoreció desproporcionadamente a individuos que se llamaban Jared 54 00:02:25,460 --> 00:02:26,950 y que jugaban al lacrosse porque 55 00:02:26,950 --> 00:02:30,470 la mayoría de los individuos que tenían un buen rendimiento en esa empresa 56 00:02:30,470 --> 00:02:32,590 tenían estos dos hechos en común. 57 00:02:33,004 --> 00:02:35,979 Y la cuarta categoría es la información en sí misma. 58 00:02:35,979 --> 00:02:37,421 ¿Cómo se obtiene la información? 59 00:02:37,421 --> 00:02:38,391 ¿En qué creemos? 60 00:02:38,391 --> 00:02:40,291 Información política, principalmente. 61 00:02:40,433 --> 00:02:42,353 Sus cosas son algoritmos ahora. 62 00:02:42,353 --> 00:02:44,145 Y a menudo son injustas. 63 00:02:44,145 --> 00:02:45,615 Y a menudo ilegales. 64 00:02:45,615 --> 00:02:49,916 Pero no hemos descubierto cómo aplicar nuestras leyes contra la discriminación. 65 00:02:49,916 --> 00:02:53,463 La distopía que me preocupa es de 66 00:02:53,463 --> 00:02:58,543 nosotros no frenamos a los oscuros y peligrosos algoritmo. 67 00:02:58,543 --> 00:03:00,693 "Oye, te hemos estado siguiendo desde tu nacimiento. 68 00:03:00,693 --> 00:03:02,233 Entendemos que tu... 69 00:03:02,233 --> 00:03:03,333 tuviste una infancia pobre, 70 00:03:03,333 --> 00:03:05,863 en un barrio donde mucha gente no ha alcanzado el éxito. 71 00:03:05,863 --> 00:03:07,291 Y... 72 00:03:07,291 --> 00:03:09,707 Vamos a predecir que no lograrás el éxito. 73 00:03:09,707 --> 00:03:11,724 No sólo vamos a predecir esto, 74 00:03:11,724 --> 00:03:13,822 nos aseguraremos de que no consigas el éxito". 75 00:03:13,822 --> 00:03:15,562 No vas a ir a una buena universidad. 76 00:03:15,562 --> 00:03:16,460 Ni obtendrás un buen trabajo. 77 00:03:16,460 --> 00:03:17,790 Y ni siquiera un buen préstamo. 78 00:03:17,790 --> 00:03:19,890 Porque eso es lo que los algoritmos hacen, realmente 79 00:03:19,890 --> 00:03:22,610 No predicen el futuro. Ellos hacen el futuro. 80 00:03:24,678 --> 00:03:26,897 El dilema social. 81 00:03:26,897 --> 00:03:30,047 Nuestro dilema social.