1 00:00:04,780 --> 00:00:06,720 Buenos días. 2 00:00:07,050 --> 00:00:11,860 Yo vengo a hablaros de qué es la ética de la tecnología, 3 00:00:11,860 --> 00:00:15,930 porque creo humildemente que debería importaros. 4 00:00:15,930 --> 00:00:19,474 Y es una buena semana para hacerlo, porque seguramente 5 00:00:19,474 --> 00:00:23,040 aún tenemos grabadas en el cerebro las imágenes de Mark zuckerberg, 6 00:00:23,040 --> 00:00:26,370 el CEO de Facebook, hablando ante el congreso de EE.UU, 7 00:00:26,370 --> 00:00:30,346 justificando un poco lo injustificable, que es que básicamente Facebook 8 00:00:30,346 --> 00:00:34,650 nos ha hecho creer que teníamos unos niveles de privacidad en su plataforma 9 00:00:34,650 --> 00:00:37,240 que en realidad no tenemos. 10 00:00:37,240 --> 00:00:38,240 Pero no solo eso. 11 00:00:38,240 --> 00:00:41,530 Por suerte, hoy somos menos ingenuos en relación con la tecnología 12 00:00:41,530 --> 00:00:46,600 y ya sabemos que cuando un producto tecnológico no lo pagamos con dinero, 13 00:00:46,600 --> 00:00:48,820 en realidad es que nosotros somos el producto, 14 00:00:48,820 --> 00:00:55,135 y nuestros datos son los que están alimentando una maquinaria de anuncios, 15 00:00:55,135 --> 00:00:57,590 un modelo de negocio basado en la comercialización 16 00:00:57,590 --> 00:00:59,743 de datos personales. 17 00:00:59,743 --> 00:01:02,440 Hoy también sabemos, somos menos ingenuos, 18 00:01:02,440 --> 00:01:06,512 que todo lo "smart", todas las herramientas tecnológicas inteligentes 19 00:01:06,512 --> 00:01:07,832 nos espian. 20 00:01:07,832 --> 00:01:10,482 Y si no, os reto si tenéis una smart TV 21 00:01:10,482 --> 00:01:16,002 a que leáis el manual de instrucciones, donde veréis que os recomiendan 22 00:01:16,002 --> 00:01:20,005 no tener conversaciones privadas delante del televisor, 23 00:01:20,005 --> 00:01:24,140 si tenéis televisor en vuestra habitación igual tenéis un problema, 24 00:01:24,140 --> 00:01:29,148 porque básicamente una smart TV, como todo lo que es smart, nos espía. 25 00:01:29,148 --> 00:01:31,478 El producto somos nosotros. 26 00:01:31,478 --> 00:01:36,419 Y en tecnología creo que por suerte ya nos hemos acostumbrado a oír 27 00:01:36,419 --> 00:01:40,541 a personas que nos hablan del problema de la privacidad de los datos. 28 00:01:40,541 --> 00:01:44,982 Pero la ética de la tecnología va mucho más allá de la privacidad. 29 00:01:44,982 --> 00:01:47,768 Y permitidme que dé un paso atrás para contaros, 30 00:01:47,768 --> 00:01:49,271 para compartir con vosotros 31 00:01:49,271 --> 00:01:51,645 cómo empecé yo a darme cuenta de que en tecnología 32 00:01:51,645 --> 00:01:53,765 teníamos que mirar todo un universo de cosas 33 00:01:53,765 --> 00:01:56,505 que muy poca gente estaba mirando. 34 00:01:56,505 --> 00:01:59,705 Yo empecé a hacer mi tesis hace muchísimos años, 35 00:01:59,705 --> 00:02:02,035 mi tesis doctoral en videovigilancia. 36 00:02:02,035 --> 00:02:07,481 Quería ver cómo las cámaras impactaban sobre cómo utilizamos la ciudad 37 00:02:07,481 --> 00:02:10,527 cuáles eran las motivaciones de los diferentes actores 38 00:02:10,527 --> 00:02:14,504 para confiar a una solución tecnológica un problema social importantísimo, 39 00:02:14,504 --> 00:02:17,645 como es la percepción de inseguridad. 40 00:02:17,645 --> 00:02:21,035 Y ahí estaba yo haciendo mi tesis, descubriendo cosas interesantísimas, 41 00:02:21,035 --> 00:02:24,797 viendo métricas y como las cámaras eran capaces de capturar 42 00:02:24,797 --> 00:02:30,015 dinámicas y expectativas sociales, pero además devolvérnoslas a la sociedad 43 00:02:30,015 --> 00:02:31,775 muchas veces con diferencias. 44 00:02:31,775 --> 00:02:35,525 La cámara no era solo un actor tecnológico, o solo un cacharro. 45 00:02:35,525 --> 00:02:38,565 La cámara intervenía en cómo utilizábamos el espacio público, 46 00:02:38,565 --> 00:02:41,515 las expectativas que teníamos los unos sobre los otros, 47 00:02:41,515 --> 00:02:43,516 cómo comprendíamos la seguridad. 48 00:02:44,256 --> 00:02:47,756 Pero en todo este proceso un buen día se me ocurrió coger el libro, 49 00:02:47,756 --> 00:02:52,227 un libro de Richard Sennett, un conocido sociólogo, 50 00:02:52,227 --> 00:02:55,487 "El declive del hombre público" y en él se preguntaba, 51 00:02:55,487 --> 00:02:59,299 mucho antes de que tuviéramos drones y sensores 52 00:02:59,299 --> 00:03:01,387 y cámaras por todas partes, 53 00:03:01,387 --> 00:03:05,097 y ojos constantes que nos vigilan en nuestra deriva urbana, 54 00:03:05,097 --> 00:03:12,317 él se preguntaba en estas ciudades que estamos creando llenas de ojos, 55 00:03:12,317 --> 00:03:15,220 dónde se enamorarían Romeo y Julieta. 56 00:03:15,860 --> 00:03:20,850 Y para mí ese fue mi "Aha moment", mi momento de darme cuenta 57 00:03:20,850 --> 00:03:24,310 de que mientras yo me focalizaba en dinámicas sociales y métricas 58 00:03:24,310 --> 00:03:28,470 y expectativas, me había olvidado de una pregunta importantísima. 59 00:03:28,470 --> 00:03:31,780 Esto que estamos haciendo ¿es deseable? 60 00:03:31,780 --> 00:03:35,118 ¿Queremos que en nuestras ciudades, Romeo y Julieta, 61 00:03:35,118 --> 00:03:39,763 hijos de 2 familias enfrentadas, un amor prohibido, 62 00:03:39,763 --> 00:03:43,037 queremos crear ciudades donde los jóvenes de familias 63 00:03:43,037 --> 00:03:46,243 dispares o enfrentadas no puedan enamorarse? 64 00:03:46,243 --> 00:03:49,194 Y sobre todo pensando en la gente joven. 65 00:03:49,194 --> 00:03:51,633 Una de las cosas que más me sorprendió en mi trabajo 66 00:03:51,633 --> 00:03:57,234 es la ignorancia total que tenemos, ignorancia por decirlo suave. 67 00:03:57,234 --> 00:04:01,108 Cómo ignoramos los datos y los derechos de los jóvenes, 68 00:04:01,108 --> 00:04:03,686 los jóvenes aparecen en mi trabajo de forma sistemática 69 00:04:03,686 --> 00:04:09,236 como un colectivo constantemente maltratado por la recogida de datos. 70 00:04:09,236 --> 00:04:12,506 Los jóvenes, porque además no tienen casa propia, 71 00:04:12,506 --> 00:04:14,756 tienen una habitación en el mejor de los casos 72 00:04:14,756 --> 00:04:17,156 donde ponen candados y carteles de no entrar, 73 00:04:17,156 --> 00:04:18,446 mi zona de privacidad, etc. 74 00:04:18,446 --> 00:04:21,136 Su zona de privacidad muchas veces es el espacio público, 75 00:04:21,136 --> 00:04:22,966 y se lo estábamos quitando. 76 00:04:22,966 --> 00:04:26,446 Les estábamos y les estamos quitando a los jóvenes los espacios 77 00:04:26,446 --> 00:04:29,906 para darse el primer beso en la clandestinidad, en la privacidad, 78 00:04:29,906 --> 00:04:33,576 en la intimidad que necesitan y que merecen, 79 00:04:33,576 --> 00:04:35,006 pero no solo para los jóvenes. 80 00:04:35,006 --> 00:04:37,526 Se han preguntado dónde se enamorarían Romeo y Julieta 81 00:04:37,526 --> 00:04:38,906 y para mí la gran pregunta es 82 00:04:38,906 --> 00:04:41,006 todo esto que estamos haciendo en tecnología, 83 00:04:41,006 --> 00:04:43,496 ese dinero que estamos invirtiendo. 84 00:04:43,496 --> 00:04:46,416 ¿Es deseable lo que estamos haciendo a nuestro alrededor? 85 00:04:46,416 --> 00:04:50,096 Cosas que ocurren con la tecnología, por ejemplo, vinculado a los jóvenes 86 00:04:50,096 --> 00:04:53,946 y a los entornos urbanos, por primera vez en la historia 87 00:04:53,946 --> 00:04:58,406 y a consecuencia de la penetración de aparatos tecnológicos, 88 00:04:58,406 --> 00:05:01,486 es más caro olvidar que recordar. 89 00:05:02,136 --> 00:05:04,666 En toda la historia fue mucho más dificil recordar. 90 00:05:04,666 --> 00:05:07,703 Había que escribir pergaminos, después la imprenta. 91 00:05:07,703 --> 00:05:08,763 Eso tiene un coste. 92 00:05:08,763 --> 00:05:15,670 Ahora mismo lo difícil es poder olvidar, porque todo genera un registro digital. 93 00:05:15,670 --> 00:05:19,670 Yo siempre digo que tengo la suerte de tener más de cuarenta años, 94 00:05:19,670 --> 00:05:23,734 porque los primeros 20 años de mi vida no los grabó nadie, 95 00:05:23,734 --> 00:05:27,057 tengo alguna foto, pero nada más. 96 00:05:27,057 --> 00:05:31,070 A los jóvenes de ahora les condenamos a una vida de miedo, 97 00:05:31,070 --> 00:05:35,110 por cómo su huella digital puede impactar en su vida en el futuro. 98 00:05:35,530 --> 00:05:41,370 Esa foto de esa fiesta, ese comentario en una red social, ese momento 99 00:05:41,370 --> 00:05:46,562 que queremos olvidar, ese conflicto, incluso esa condena judicial 100 00:05:46,562 --> 00:05:49,478 o ese archivo de una causa. 101 00:05:49,478 --> 00:05:53,238 Todo eso las personas que han nacido ya en la sociedad actual, 102 00:05:53,238 --> 00:05:56,508 totalmente digitalizada, puede emerger en cualquier momento 103 00:05:56,508 --> 00:05:59,298 y arruinarte la vida, tu relación de pareja, 104 00:05:59,298 --> 00:06:03,498 la consecución de ese trabajo que tanto deseabas. 105 00:06:03,498 --> 00:06:06,628 Por lo tanto, en mi trabajo sobre videovigilancia 106 00:06:06,628 --> 00:06:09,962 me di cuenta de que había un montón de preguntas sobre tecnología 107 00:06:09,962 --> 00:06:14,522 que no estábamos haciendo, y que era importantísimo que alguien realizara. 108 00:06:15,242 --> 00:06:18,882 Desde entonces he tenido la suerte de poder dedicarme a hacer esas preguntas, 109 00:06:18,882 --> 00:06:22,262 a explorar cuáles son las preguntas que deberíamos hacer, y cómo debería 110 00:06:22,262 --> 00:06:25,092 la tecnología responder a esas preguntas, 111 00:06:25,092 --> 00:06:28,002 y entender e incorporar todas esas preocupaciones. 112 00:06:28,002 --> 00:06:30,528 Quería detallaros brevemente algunos de los proyectos 113 00:06:30,528 --> 00:06:33,461 en los que estuve involucrada, para que veáis cómo se aterriza 114 00:06:33,461 --> 00:06:35,512 este tema de la ética de la tecnología. 115 00:06:35,512 --> 00:06:37,358 He trabajado mucho tiempo, por ejemplo, 116 00:06:37,358 --> 00:06:39,731 en la automatización del paso de fronteras. 117 00:06:39,731 --> 00:06:42,231 No sé si habéis ido a algún aeropuerto recientemente, 118 00:06:42,231 --> 00:06:44,421 pero veréis que muchas veces quien nos controla 119 00:06:44,421 --> 00:06:46,985 el pasaporte ya no es un policía, sino una máquina, 120 00:06:46,985 --> 00:06:50,775 metéis vuestro pasaporte, se os hace un reconocimiento de la huella digital, 121 00:06:50,775 --> 00:06:53,341 un match biométrico con vuestro documento de identidad, 122 00:06:53,341 --> 00:06:58,301 y la máquina decide si podéis pasar o no. 123 00:06:58,301 --> 00:07:02,612 Cuando empezamos a trabajar en las "fronteras inteligentes", 124 00:07:02,612 --> 00:07:04,952 una de las primeras cosas que nos sorprendió, 125 00:07:04,952 --> 00:07:08,512 y que después hemos visto reproducida en muchos otros casos, 126 00:07:08,512 --> 00:07:10,182 es que cuando el parlamento europeo 127 00:07:10,182 --> 00:07:13,412 empezó a plantearse la automatización del cruce de fronteras, 128 00:07:15,232 --> 00:07:18,562 el debate no pasó por el parlamento europeo porque se consideró 129 00:07:18,562 --> 00:07:20,762 una enmienda técnica. 130 00:07:20,762 --> 00:07:26,272 Cambiar a policías por un proceso de datos era nada más que una enmienda técnica. 131 00:07:26,272 --> 00:07:28,935 No afectaba 132 00:07:28,935 --> 00:07:31,702 según las personas que inicialmente propusieron ese cambio, 133 00:07:31,702 --> 00:07:35,262 a la conceptualización de lo que era la frontera, 134 00:07:35,262 --> 00:07:37,972 con lo cual podía ser una enmienda técnica que no requería 135 00:07:37,972 --> 00:07:41,497 ningún tipo de control público o político. 136 00:07:41,947 --> 00:07:46,257 Para que veáis lo poco técnico que esto es, 137 00:07:46,257 --> 00:07:49,382 la incorporación de automatización del paso de fronteras ha hecho, 138 00:07:49,382 --> 00:07:51,982 por ejemplo, que la frontera desaparezca. 139 00:07:52,782 --> 00:07:59,972 Hoy en día, el cruce de la frontera, la línea en el suelo, el aeropuerto, 140 00:07:59,972 --> 00:08:01,762 no es lo importante. 141 00:08:01,762 --> 00:08:05,812 Empezamos a viajar y se nos empieza a autorizar el viaje en el momento 142 00:08:05,812 --> 00:08:10,652 en el que compramos nuestro billete o solicitamos la visa para viajar. 143 00:08:10,652 --> 00:08:13,882 Y nuestro paso de frontera no acaba cuando cruzamos la frontera 144 00:08:13,882 --> 00:08:16,092 o cuando llegamos a nuestro destino. 145 00:08:16,762 --> 00:08:19,962 Si hemos pedido una visa continúa, porque la validez de nuestra visa 146 00:08:19,962 --> 00:08:22,012 es controlada hasta que abandonamos el país, 147 00:08:22,012 --> 00:08:24,772 o si no lo abandonamos salta una alarma, 148 00:08:24,772 --> 00:08:27,752 para que la policía pueda tomar cartas en el asunto. 149 00:08:27,752 --> 00:08:33,002 Con lo cual la introducción de los datos, la automatización de todo este proceso, 150 00:08:33,002 --> 00:08:36,002 ha cambiado completamente lo que supone una frontera. 151 00:08:36,002 --> 00:08:39,270 La frontera es ahora mismo un espacio larguísimo, 152 00:08:39,270 --> 00:08:42,940 para muchas personas un espacio de control continuo. 153 00:08:44,270 --> 00:08:45,520 Han pasado otras cosas. 154 00:08:46,250 --> 00:08:49,530 con la automatización de fronteras hemos incorporado la biometría 155 00:08:49,530 --> 00:08:52,725 como herramienta para comprobar la identidad. 156 00:08:52,725 --> 00:08:55,895 ¿Qué pasaba en el pasado cuando alguien no quería 157 00:08:55,895 --> 00:08:57,929 que su identidad fuera conocida? 158 00:08:57,929 --> 00:08:59,245 Quemaba su pasaporte. 159 00:08:59,245 --> 00:09:01,485 Cuando alguien no quería ser devuelto a su país, 160 00:09:01,485 --> 00:09:07,235 porque consideraba que en ese país podía sufrir consecuencias indeseables, 161 00:09:07,235 --> 00:09:09,985 podía quemar su pasaporte y con eso aspirar a quedarse 162 00:09:09,985 --> 00:09:12,735 en un espacio y en un limbo legal y jurídico. 163 00:09:14,045 --> 00:09:18,725 Hoy, nuestro pasaporte está en nuestros dedos. 164 00:09:19,175 --> 00:09:21,745 ¿Qué están haciendo los migrantes? 165 00:09:21,745 --> 00:09:24,759 Quemarse los dedos, mutilarse, 166 00:09:25,165 --> 00:09:30,308 porque es la única forma de evitar que su cuerpo se convierta en su enemigo. 167 00:09:30,308 --> 00:09:33,925 Eso que querían pasar como enmienda técnica, está teniendo unas consecuencias 168 00:09:33,925 --> 00:09:37,265 brutales sobre los derechos fundamentales de los migrantes. 169 00:09:37,265 --> 00:09:41,495 Inicialmente, hoy ya no, alguien quería que no habláramos de eso, 170 00:09:41,495 --> 00:09:46,255 que no nos planteáramos cuáles eran las implicaciones de esa decisión. 171 00:09:46,255 --> 00:09:51,055 No solo eso, a través de mi trabajo he podido hablar con más de 1500 personas 172 00:09:51,055 --> 00:09:56,265 que han utilizado estos sistemas automáticos de control de la identidad 173 00:09:56,265 --> 00:09:57,815 en pasos de fronteras. 174 00:09:57,815 --> 00:10:01,525 Y es curioso ver como cuando les preguntas a los viajeros de terceros países, 175 00:10:01,525 --> 00:10:05,405 no europeos, no personas del espacio del entorno Schengen: 176 00:10:05,405 --> 00:10:10,015 ¿Qué prefieres, un control policial humano o un control automático? 177 00:10:10,015 --> 00:10:12,505 La mayoría te dice: "Prefiero el control automático". 178 00:10:13,515 --> 00:10:17,759 Confiamos en la tecnología, creemos que es más eficiente 179 00:10:17,759 --> 00:10:21,635 y más justa incluso que la toma de decisiones humana. 180 00:10:21,635 --> 00:10:24,175 Pero cuando les preguntábamos a estas mismas personas: 181 00:10:24,175 --> 00:10:28,655 ¿Y si la máquina se equivoca? ¿Qué crees que va a pasar? 182 00:10:28,655 --> 00:10:32,973 Todos coincidían: "Estoy perdido, no voy a poder salir". 183 00:10:33,503 --> 00:10:35,603 Cuando hay lo que llamamos un falso positivo, 184 00:10:35,603 --> 00:10:38,225 cuando la máquina se equivoca, no tenemos los mecanismos 185 00:10:38,225 --> 00:10:41,195 ni las leyes que garanticen que podemos salir del hoyo 186 00:10:41,195 --> 00:10:44,285 donde nos ha metido ese proceso de toma de decisiones automáticas. 187 00:10:45,105 --> 00:10:49,245 Esas son algunas de las cosas que hemos encontrado en el trabajo 188 00:10:49,245 --> 00:10:50,535 en el entorno de fronteras. 189 00:10:51,505 --> 00:10:55,811 Otro ejemplo: también hemos trabajado con universidades, 190 00:10:55,811 --> 00:10:58,145 para ver el impacto ético de la ciencia ciudadana. 191 00:10:58,145 --> 00:11:01,735 La ciencia ciudadana es la ciencia que se hace con la ayuda de las personas, 192 00:11:01,735 --> 00:11:06,499 gente que trabaja el movimiento de los mares o la migración de los pájaros, 193 00:11:06,499 --> 00:11:09,215 si tuvieran que desplegar a investigadores a todas partes, 194 00:11:09,215 --> 00:11:11,735 para hacer fotografías constantes de cómo está el mar, 195 00:11:11,735 --> 00:11:14,231 o cómo se mueven los pájaros esto sería muy costoso. 196 00:11:14,231 --> 00:11:17,955 Gracias a la tecnología podemos pedir a la gente que vive en espacios concretos 197 00:11:17,955 --> 00:11:21,495 que nos manden una foto del mar cada día cuando se levanten a la misma hora 198 00:11:21,495 --> 00:11:24,385 y yo proceso todos esos datos y a partir de ahí hago ciencia. 199 00:11:24,385 --> 00:11:25,705 Está muy bien, 200 00:11:25,705 --> 00:11:29,135 pero cuando empezamos a trabajar con la universidad y los investigadores, 201 00:11:29,135 --> 00:11:33,575 nos encontramos un caso paradigmático de lo que yo llamo despotismo de los datos 202 00:11:33,575 --> 00:11:37,785 que es "Todo por el pueblo, con los datos del pueblo, pero sin el pueblo". 203 00:11:37,785 --> 00:11:41,695 Los investigadores pedían a la gente que les mandaran un montón de datos personales 204 00:11:41,695 --> 00:11:45,999 donde una fotografía geolocalizada puede decir exactamente dónde vivimos, 205 00:11:45,999 --> 00:11:48,502 cómo es nuestro entorno e incluso con quién estamos. 206 00:11:48,502 --> 00:11:53,012 Pues no había ningún tipo de precaución en relación con la gestión de esos datos. 207 00:11:53,012 --> 00:11:56,012 Y lo llamábamos "ciencia ciudadana". 208 00:11:56,012 --> 00:11:57,642 Afortunadamente, hoy ya no es así, 209 00:11:57,642 --> 00:12:00,232 y hemos creado mecanismos para que la ciencia ciudadana 210 00:12:00,232 --> 00:12:03,392 sea realmente ciencia ciudadana, al servicio de las personas 211 00:12:03,392 --> 00:12:06,853 y no solo un espacio de uso y abuso de las personas voluntarias 212 00:12:06,853 --> 00:12:09,422 que se prestan para participar en esas investigaciones. 213 00:12:10,262 --> 00:12:12,592 Trabajamos también mucho en el ámbito del trabajo, 214 00:12:12,592 --> 00:12:14,782 el futuro del trabajo, inteligencia artificial, 215 00:12:14,782 --> 00:12:16,792 los robots que nos van a quitar el trabajo, 216 00:12:16,792 --> 00:12:19,236 todos esos miedos que tenemos. 217 00:12:19,752 --> 00:12:21,512 ¿Y qué nos encontramos?. 218 00:12:21,512 --> 00:12:25,272 Los directores de las empresas, los CEOs, los responsables de las empresas 219 00:12:25,272 --> 00:12:31,812 tienden a tomar malas decisiones, cuando éstas involucran la tecnología. 220 00:12:31,812 --> 00:12:37,502 Es decir, un responsable de una empresa estará mucho más dispuesto 221 00:12:37,502 --> 00:12:40,697 a gastar dinero en tecnología que en procesos no tecnológicos, 222 00:12:40,697 --> 00:12:45,062 con lo cual adquirimos tecnología sin pensar si realmente la necesitamos, 223 00:12:45,062 --> 00:12:48,199 sobre todo en entornos de trabajo. 224 00:12:48,199 --> 00:12:50,439 Estamos viendo la introducción de exoesqueletos, 225 00:12:50,439 --> 00:12:53,988 de sensores de control 24 horas en entornos de trabajo 226 00:12:53,988 --> 00:12:57,244 en los que no son necesarios para mejorar la eficacia, la eficiencia 227 00:12:57,244 --> 00:12:59,774 ni la rentabilidad de esa empresa. 228 00:12:59,774 --> 00:13:02,584 Pero, entre que la gente en las empresas no sabe que existen 229 00:13:02,584 --> 00:13:05,354 tecnologías menos lesivas, y que quien vende la tecnología 230 00:13:05,354 --> 00:13:08,450 siempre quiere venderte la máxima capacidad que puede desarrollar, 231 00:13:08,450 --> 00:13:11,514 acabamos con entornos laborales que son insufribles 232 00:13:11,514 --> 00:13:13,849 desde la perspectiva de los que trabajan. 233 00:13:13,849 --> 00:13:17,524 Tomamos malas decisiones porque la tecnología nos fascina constantemente. 234 00:13:17,524 --> 00:13:20,514 Cómo construimos los mecanismos para empoderarnos a todos 235 00:13:20,514 --> 00:13:24,274 a saber distinguir cuando una tecnología realmente nos ayuda o no nos ayuda. 236 00:13:24,274 --> 00:13:27,883 Pues a eso nos dedicamos en la ética de la tecnología. 237 00:13:28,253 --> 00:13:32,244 Un cuarto ejemplo: trabajo mucho en tecnologías de seguridad. 238 00:13:32,244 --> 00:13:35,150 La verdad es que podría dar 10 TED talks solo sobre seguridad, 239 00:13:35,150 --> 00:13:37,880 porque es un ámbito terriblemente sensible 240 00:13:37,880 --> 00:13:41,880 Un par de ejemplos: hace unos años estábamos auditando los algoritmos 241 00:13:41,880 --> 00:13:45,880 de un proyecto que quería desplegar cámaras de videovigilancia inteligentes 242 00:13:45,880 --> 00:13:49,232 en entornos sensibles; bancos y aeropuertos. 243 00:13:49,502 --> 00:13:53,387 Las cámaras de videovigilancia inteligentes son capaces de reconocer 244 00:13:53,387 --> 00:13:58,180 comportamientos potencialmente criminales de forma automática, 245 00:13:58,180 --> 00:14:01,767 no es necesario que el ojo humano esté controlando lo que ocurre, 246 00:14:01,767 --> 00:14:04,938 sino que pueden ver por la forma en que se mueve la gente, 247 00:14:04,938 --> 00:14:08,827 si su forma de moverse por un espacio es potencialmente peligrosa 248 00:14:08,827 --> 00:14:12,100 y así mandar una alarma y la intervención humana solo es necesaria 249 00:14:12,100 --> 00:14:15,252 cuando se ha identificado un comportamiento peligroso. 250 00:14:15,532 --> 00:14:16,860 ¿Qué nos encontramos? 251 00:14:16,860 --> 00:14:21,234 Que los ingenieros se habían codificado a sí mismos como la normalidad. 252 00:14:21,234 --> 00:14:25,957 Es decir, la forma de utilizar un banco es entrar y salir, 253 00:14:25,957 --> 00:14:28,267 porque tienes mucha prisa, porque tienes trabajo, 254 00:14:28,267 --> 00:14:30,713 porque eres joven y te lo puedes permitir. 255 00:14:30,713 --> 00:14:33,590 En ese algoritmo quien emergía como potencialmente sospechoso 256 00:14:33,590 --> 00:14:38,777 eran gente mayor, que tiene mucho más tiempo, claro, está lloviendo, 257 00:14:38,777 --> 00:14:41,540 vas al banco, hay un sofá, oye pues me quedo un ratín, ¿no? 258 00:14:41,540 --> 00:14:45,947 Eso no es potencialmente criminal, pero el algoritmo lo identificaba así 259 00:14:45,947 --> 00:14:49,947 porque no era cómo el ingeniero habría utilizado ese espacio. 260 00:14:49,947 --> 00:14:52,528 O las familias en aeropuertos. 261 00:14:52,528 --> 00:14:55,817 Yo que viajo mucho, voy al aeropuerto y quiero salir lo antes posible, 262 00:14:55,817 --> 00:14:58,727 pero yo no soy la mayoría, y no soy sobre todo la normalidad. 263 00:14:59,597 --> 00:15:01,977 Hay gente que viaja y coge un avión una vez al año. 264 00:15:02,267 --> 00:15:05,566 Para quien la experiencia del aeropuerto forma parte del viaje en sí, 265 00:15:05,566 --> 00:15:10,520 que van 5 horas antes y dan vueltas, comen, vuelven a comer, descansan, 266 00:15:10,520 --> 00:15:14,381 salen a la terraza, y todo eso es normal. 267 00:15:14,381 --> 00:15:17,785 Debería ser normal, y en cambio el algoritmo de la cámara inteligente 268 00:15:17,785 --> 00:15:21,400 lo había codificado como anormal, y eso pasa constantemente. 269 00:15:21,400 --> 00:15:24,780 Como los ingenieros no tienen formación en este tipo de cosas, 270 00:15:24,780 --> 00:15:29,319 no se dan cuenta de que codifican su normalidad como la de todos. 271 00:15:29,319 --> 00:15:32,228 Y eso, en el ámbito de la seguridad es problemático, 272 00:15:32,228 --> 00:15:35,740 porque todo lo que no es normal, es sospechoso. 273 00:15:35,740 --> 00:15:38,500 Y todos tenemos derecho a no ser sospechosos, 274 00:15:38,500 --> 00:15:41,060 a no ser que hagamos algo realmente sospechoso. 275 00:15:41,060 --> 00:15:44,530 Con lo cual la cámara nos acaba convirtiendo en sospechosos constantemente 276 00:15:44,530 --> 00:15:51,094 por salir fuera de esa normalidad tan pequeña definida por los tecnólogos. 277 00:15:52,274 --> 00:15:56,740 Por no hablar de los algoritmos predictivos en el ámbito de la seguridad. 278 00:15:58,050 --> 00:16:01,900 Yo no sé cómo se puede decir más alto y más claro. 279 00:16:01,900 --> 00:16:07,980 No podemos predecir el futuro. Eso es magia. Y no sabemos hacerlo. 280 00:16:07,980 --> 00:16:10,240 Lo máximo que podemos hacer con los algoritmos 281 00:16:10,240 --> 00:16:13,074 es entender lo que ha pasado hasta hoy, 282 00:16:13,074 --> 00:16:16,500 y a partir de ahí hacer que emerjan ciertos patrones, 283 00:16:16,500 --> 00:16:22,765 y decir: el pasado me lleva a pensar que es posible que en el futuro ocurra eso 284 00:16:22,765 --> 00:16:28,235 Esto es lo que podemos hacer. Llamar a eso predicción es muy arriesgado. 285 00:16:28,235 --> 00:16:32,505 Y la insistencia actual de las muchísimas fuerzas policiales de todo el mundo 286 00:16:32,505 --> 00:16:36,235 en pedir el algoritmo de la radicalización, de la prevención, 287 00:16:36,235 --> 00:16:39,515 el pre-crimen, es imposible. 288 00:16:39,515 --> 00:16:42,435 La tecnología nos puede ayudar, pero hasta cierto punto. 289 00:16:42,435 --> 00:16:45,111 Y todos tenemos derecho a la presunción de inocencia 290 00:16:45,111 --> 00:16:48,181 hasta que cometamos un acto ilícito. 291 00:16:48,181 --> 00:16:50,361 La tecnología tiende a olvidar eso 292 00:16:50,361 --> 00:16:54,515 y se siente tan poderosa y tan poco controlada por todos estos elementos 293 00:16:54,515 --> 00:16:58,385 que se atreve a prometer la capacidad de prever y de saber 294 00:16:58,385 --> 00:17:02,743 lo que vamos a hacer antes de que a nosotros se nos pase por la cabeza. 295 00:17:03,273 --> 00:17:06,955 Y finalmente un último ejemplo: el de movilidad. 296 00:17:06,955 --> 00:17:09,936 Todos habéis oído hablar de los coches autónomos ¿no? 297 00:17:09,936 --> 00:17:12,953 Teóricamente en poco tiempo todas las ciudades estarán llenas 298 00:17:12,953 --> 00:17:15,235 de coches que conducen solos. 299 00:17:15,235 --> 00:17:17,916 Pues el coche autónomo es uno de los grandes ejemplos 300 00:17:17,916 --> 00:17:23,495 de cómo la arrogancia de la ingeniería puede llevar al fracaso una buena idea. 301 00:17:23,495 --> 00:17:28,285 El coche autónomo es muchísimo más seguro que el coche no autónomo. 302 00:17:28,285 --> 00:17:29,494 Pero, ¿qué pasa? 303 00:17:30,145 --> 00:17:33,905 A las muertes de los coches no autónomos nos hemos acostumbrado, 304 00:17:33,905 --> 00:17:38,014 pero cada vez que un coche autónomo mata o hiere a alguien 305 00:17:38,014 --> 00:17:39,655 es portada en todo el mundo. 306 00:17:40,285 --> 00:17:44,485 Con lo cual la percepción social es que es mucho más inseguro 307 00:17:44,485 --> 00:17:46,912 el coche autónomo que el no autónomo. 308 00:17:46,912 --> 00:17:50,515 Y mientras los ingenieros insistan en decir tengo aquí todas estas cifras 309 00:17:50,515 --> 00:17:52,515 que demuestran que es más seguro, 310 00:17:52,515 --> 00:17:56,145 y no se preocupen de convencer a la población, 311 00:17:56,145 --> 00:17:59,068 de trabajar la aceptabilidad de esa tecnología, 312 00:17:59,068 --> 00:18:03,310 de incorporar los miedos y las preocupaciones sociales 313 00:18:03,310 --> 00:18:06,990 en la conceptualización de esa tecnología, seguramente lo que va a pasar 314 00:18:06,990 --> 00:18:10,130 es que lo que es una buena idea que podría salvar muchísimas vidas, 315 00:18:10,130 --> 00:18:13,520 tardará muchísimo más en implementarse, porque los ingenieros 316 00:18:13,520 --> 00:18:17,510 tienden a la arrogancia de los números y de la técnica. 317 00:18:17,510 --> 00:18:21,520 Para que veáis que la ética de la tecnología no es solo un tema 318 00:18:21,520 --> 00:18:26,470 de tu smartphone, de tu televisor, de los aparatos de consumo que usamos. 319 00:18:26,470 --> 00:18:30,260 Hay una infraestructura de datos que marca todo lo que hacemos, 320 00:18:30,260 --> 00:18:34,518 que requiere urgentemente de un cierto control, o como mínimo, 321 00:18:34,518 --> 00:18:36,927 de la incorporación de responsabilidad. 322 00:18:36,927 --> 00:18:41,257 Lo que he encontrado en mi trabajo, es que como hacemos tecnología actualmente 323 00:18:41,257 --> 00:18:43,957 es profundamente irresponsable. 324 00:18:44,757 --> 00:18:48,926 A ningún médico ni a ninguna empresa farmacéutica se le ocurriría 325 00:18:48,926 --> 00:18:52,747 pedirle a la sociedad poder lanzar medicamentos no testados. 326 00:18:53,287 --> 00:18:57,997 O lanzar medicamentos que dijeran: "Mira esto cura el constipado pero da cáncer". 327 00:18:57,997 --> 00:18:59,237 No lo aceptaríamos. 328 00:18:59,237 --> 00:19:00,543 No se puede vender. 329 00:19:00,543 --> 00:19:04,127 Y en cambio en ingeniería informática se pide el derecho 330 00:19:04,127 --> 00:19:07,777 a lanzar cosas a la sociedad sin testarlas de ninguna manera, 331 00:19:07,777 --> 00:19:11,727 sin tener ningún tipo de conciencia de su impacto social. 332 00:19:12,937 --> 00:19:16,117 La buena noticia es que creo que esto está empezando a cambiar. 333 00:19:16,547 --> 00:19:21,277 Que existan perfiles como el mío, con conocimientos en ciencia social, 334 00:19:21,277 --> 00:19:24,474 pero también en elementos técnicos de la matemática y de la física, 335 00:19:25,234 --> 00:19:28,240 muestra que empieza a haber interés por estas cosas. 336 00:19:28,240 --> 00:19:32,770 Cada vez hay más grupos de investigación y de trabajo en empresas, en universidades 337 00:19:32,770 --> 00:19:39,814 y en espacios público-privados que aúnan a sociólogos, filósofos, abogados, 338 00:19:39,814 --> 00:19:44,150 a físicos, matemáticos, ingenieros e informáticos para intentar entender 339 00:19:44,150 --> 00:19:48,520 cuáles son esos impactos legales, sociales y éticos de las tecnologías, 340 00:19:49,750 --> 00:19:53,157 que ayudan a dilucidar cuál es la deseabilidad 341 00:19:53,157 --> 00:19:55,772 y cómo aumentar esa deseabilidad de los productos 342 00:19:55,772 --> 00:19:58,340 que se quieren fabricar en el futuro. 343 00:19:58,340 --> 00:20:02,070 Cada vez hay más grupos que trabajan en mejorar la transparencia 344 00:20:02,070 --> 00:20:04,727 y el control de los algoritmos, por ejemplo. 345 00:20:05,767 --> 00:20:11,040 La idea de los estudios de impacto está cada vez más extendida. 346 00:20:11,510 --> 00:20:15,295 De la misma forma que no podemos construir un nuevo desarrollo 347 00:20:15,295 --> 00:20:20,150 de infraestructuras, una nueva carretera, sin justificar su impacto ambiental, 348 00:20:20,150 --> 00:20:23,625 no deberíamos poder lanzar productos tecnológicos al mercado 349 00:20:23,625 --> 00:20:27,237 sin justificar antes que nos hemos planteado en algún momento 350 00:20:27,237 --> 00:20:29,708 qué impacto va a tener eso sobre la sociedad 351 00:20:29,708 --> 00:20:32,285 y si ese impacto es deseable o no, y si no es deseable, 352 00:20:32,285 --> 00:20:38,085 qué medidas hemos tomado para aumentar la deseabilidad de ese producto. 353 00:20:38,085 --> 00:20:42,245 Ahora mismo muchísima gente estamos implicados en crear la innovación 354 00:20:42,245 --> 00:20:46,488 responsable del futuro, que creo que es muy necesaria. 355 00:20:47,085 --> 00:20:51,344 Y no obstante, se siguen oyendo voces que dicen constantemente 356 00:20:51,344 --> 00:20:57,375 que la prevención, ética y regulación van en contra de la innovación, 357 00:20:57,375 --> 00:21:00,495 que no podemos poner límites a la capacidad creadora 358 00:21:00,495 --> 00:21:03,475 de los hombres ingenieros y sus grandes ideas. 359 00:21:04,795 --> 00:21:06,545 Pues lo siento pero no es así. 360 00:21:06,545 --> 00:21:09,155 Como humanidad, llevamos toda nuestra historia 361 00:21:09,155 --> 00:21:11,252 domesticando a la tecnología. 362 00:21:11,512 --> 00:21:14,765 ¿Un coche necesita un cinturón de seguridad para circular? 363 00:21:15,505 --> 00:21:16,240 No. 364 00:21:17,230 --> 00:21:19,640 ¿Un coche necesita un límite de velocidad? 365 00:21:19,940 --> 00:21:20,660 No. 366 00:21:20,660 --> 00:21:24,466 Los coches podrían ir muchísimo más rápido de lo que van por nuestras calles. 367 00:21:25,266 --> 00:21:28,505 ¿Un coche necesita pasos de cebra, semáforos, 368 00:21:28,505 --> 00:21:30,518 control de emisiones contaminantes? 369 00:21:30,518 --> 00:21:31,260 No. 370 00:21:31,540 --> 00:21:35,750 Todas estas cosas se las hemos añadido las sociedad humana, 371 00:21:35,750 --> 00:21:39,375 para asegurar que lo que es una innovación tecnológica deseable, 372 00:21:39,375 --> 00:21:43,515 que es un motor, algo que nos lleve de A a B de forma más rápida, 373 00:21:43,515 --> 00:21:46,730 sea también deseable desde la perspectiva social. 374 00:21:47,255 --> 00:21:50,091 Hemos limitado las posibilidades de los coches, 375 00:21:50,091 --> 00:21:53,275 porque hemos entendido que queremos ir más rápido de A a B, 376 00:21:53,275 --> 00:21:57,710 pero no queremos que muera tanta gente en ese proceso. 377 00:21:58,150 --> 00:21:59,472 Eso lo hemos hecho siempre. 378 00:21:59,472 --> 00:22:02,100 Siempre hemos limitado las capacidades de la tecnología, 379 00:22:02,100 --> 00:22:04,907 porque la tecnología solo tiene sentido si mejora, 380 00:22:04,907 --> 00:22:08,215 si aborda las problemáticas sociales. 381 00:22:08,505 --> 00:22:10,265 Y que desde la ingeniería informática 382 00:22:10,265 --> 00:22:15,044 se hayan olvidado tantas veces esa lógica es claramente preocupante. 383 00:22:16,794 --> 00:22:18,695 Al final lo que hemos hecho con el coche 384 00:22:18,695 --> 00:22:20,765 es tener debates a lo largo de mucho tiempo, 385 00:22:20,765 --> 00:22:25,545 el primero no tenía cinturón de seguridad, ni había semáforos, ni pasos de cebra. 386 00:22:25,545 --> 00:22:29,749 Pero durante mucho tiempo creamos esos marcos, como sociedad, 387 00:22:29,749 --> 00:22:33,755 esos consensos sociales que nos llevan a poder utilizar hoy los vehículos 388 00:22:33,755 --> 00:22:35,235 de forma normalizada. 389 00:22:35,555 --> 00:22:38,835 Estos son los debates y consensos sociales que deben emerger alrededor 390 00:22:38,835 --> 00:22:41,025 de cualquier nueva tecnología. 391 00:22:41,025 --> 00:22:43,450 Debemos dilucidar cuando aparece un nuevo algoritmo, 392 00:22:43,450 --> 00:22:46,017 una nueva innovación tecnológica, un nuevo invento, 393 00:22:46,017 --> 00:22:48,410 debemos decidir entre todos cuáles van a ser 394 00:22:48,410 --> 00:22:51,236 los cinturones de seguridad, los límites de velocidad, 395 00:22:51,236 --> 00:22:54,816 los límites de emisiones, los pasos de cebra y los semáforos 396 00:22:54,816 --> 00:22:56,791 de esa nueva innovación. 397 00:22:56,791 --> 00:22:58,926 A eso se dedica la ética de la tecnología. 398 00:22:58,926 --> 00:23:02,736 Primero a fomentar esos debates, para que entre todos decidamos 399 00:23:02,736 --> 00:23:07,267 si es mejor un control humano, o uno mecánico para cruzar una frontera, 400 00:23:07,646 --> 00:23:10,266 para tomar entre todos responsabilidad de las decisiones 401 00:23:10,266 --> 00:23:14,239 que tomamos en relación con la tecnología, y a partir de esa deseabilidad 402 00:23:14,239 --> 00:23:17,942 lo que vemos es cómo construir valores fundamentales, cohesión social, 403 00:23:17,942 --> 00:23:23,240 confianza, no discriminación, derechos humanos en las especificaciones técnicas. 404 00:23:23,240 --> 00:23:25,635 Porque no es solo un tema de dar discursos 405 00:23:25,635 --> 00:23:28,900 Hay formas a través de las especificaciones técnicas 406 00:23:28,900 --> 00:23:31,578 para hacer que las tecnologías respondan mucho mejor 407 00:23:31,578 --> 00:23:35,061 a las expectativas y deseos de la sociedad 408 00:23:35,061 --> 00:23:39,486 De la misma forma que hemos podido construir coches que maten menos, 409 00:23:39,486 --> 00:23:42,929 podemos construir tecnologías que no solo sean menos lesivas 410 00:23:42,929 --> 00:23:47,466 sino que contribuyan de forma definitiva a mejorar el futuro de nuestras sociedades 411 00:23:47,926 --> 00:23:50,840 En definitiva, de lo que se trata la ética de la tecnología 412 00:23:50,840 --> 00:23:53,992 es de poner a las personas en el centro del desarrollo tecnológico, 413 00:23:53,992 --> 00:23:56,334 y poner la tecnología al servicio de las personas. 414 00:23:56,334 --> 00:24:01,234 Y no como estamos ahora muchísimas veces, las personas al servicio de la tecnologías 415 00:24:01,542 --> 00:24:02,492 Gracias. 416 00:24:02,492 --> 00:24:05,242 (Aplausos)