[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:04.78,0:00:06.72,Default,,0000,0000,0000,,Buenos días. Dialogue: 0,0:00:07.05,0:00:11.86,Default,,0000,0000,0000,,Yo vengo a hablaros de qué es\Nla ética de la tecnología, Dialogue: 0,0:00:11.86,0:00:15.93,Default,,0000,0000,0000,,porque creo humildemente\Nque debería importaros. Dialogue: 0,0:00:15.93,0:00:19.47,Default,,0000,0000,0000,,Y es una buena semana para hacerlo,\Nporque seguramente Dialogue: 0,0:00:19.47,0:00:23.04,Default,,0000,0000,0000,,aún tenemos grabadas en el cerebro\Nlas imágenes de Mark zuckerberg, Dialogue: 0,0:00:23.04,0:00:26.37,Default,,0000,0000,0000,,el CEO de Facebook,\Nhablando ante el congreso de EE.UU, Dialogue: 0,0:00:26.37,0:00:30.35,Default,,0000,0000,0000,,justificando un poco lo injustificable,\Nque es que básicamente Facebook Dialogue: 0,0:00:30.35,0:00:34.65,Default,,0000,0000,0000,,nos ha hecho creer que teníamos unos\Nniveles de privacidad en su plataforma Dialogue: 0,0:00:34.65,0:00:37.24,Default,,0000,0000,0000,,que en realidad no tenemos. Dialogue: 0,0:00:37.24,0:00:38.24,Default,,0000,0000,0000,,Pero no solo eso. Dialogue: 0,0:00:38.24,0:00:41.53,Default,,0000,0000,0000,,Por suerte, hoy somos menos ingenuos \Nen relación con la tecnología Dialogue: 0,0:00:41.53,0:00:46.60,Default,,0000,0000,0000,,y ya sabemos que cuando un producto\Ntecnológico no lo pagamos con dinero, Dialogue: 0,0:00:46.60,0:00:48.82,Default,,0000,0000,0000,,en realidad es que nosotros \Nsomos el producto, Dialogue: 0,0:00:48.82,0:00:55.14,Default,,0000,0000,0000,,y nuestros datos son los que están \Nalimentando una maquinaria de anuncios, Dialogue: 0,0:00:55.14,0:00:57.59,Default,,0000,0000,0000,,un modelo de negocio \Nbasado en la comercialización Dialogue: 0,0:00:57.59,0:00:59.74,Default,,0000,0000,0000,,de datos personales. Dialogue: 0,0:00:59.74,0:01:02.44,Default,,0000,0000,0000,,Hoy también sabemos,\Nsomos menos ingenuos, Dialogue: 0,0:01:02.44,0:01:06.51,Default,,0000,0000,0000,,que todo lo "smart", todas las\Nherramientas tecnológicas inteligentes Dialogue: 0,0:01:06.51,0:01:07.83,Default,,0000,0000,0000,,nos espian. Dialogue: 0,0:01:07.83,0:01:10.48,Default,,0000,0000,0000,,Y si no, os reto si tenéis una smart TV Dialogue: 0,0:01:10.48,0:01:16.00,Default,,0000,0000,0000,,a que leáis el manual de instrucciones,\Ndonde veréis que os recomiendan Dialogue: 0,0:01:16.00,0:01:20.00,Default,,0000,0000,0000,,no tener conversaciones privadas\Ndelante del televisor, Dialogue: 0,0:01:20.00,0:01:24.14,Default,,0000,0000,0000,,si tenéis televisor en vuestra habitación\Nigual tenéis un problema, Dialogue: 0,0:01:24.14,0:01:29.15,Default,,0000,0000,0000,,porque básicamente una smart TV,\Ncomo todo lo que es smart, nos espía. Dialogue: 0,0:01:29.15,0:01:31.48,Default,,0000,0000,0000,,El producto somos nosotros. Dialogue: 0,0:01:31.48,0:01:36.42,Default,,0000,0000,0000,,Y en tecnología creo que por suerte\Nya nos hemos acostumbrado a oír Dialogue: 0,0:01:36.42,0:01:40.54,Default,,0000,0000,0000,,a personas que nos hablan del problema\Nde la privacidad de los datos. Dialogue: 0,0:01:40.54,0:01:44.98,Default,,0000,0000,0000,,Pero la ética de la tecnología\Nva mucho más allá de la privacidad. Dialogue: 0,0:01:44.98,0:01:47.77,Default,,0000,0000,0000,,Y permitidme que dé un paso atrás\Npara contaros, Dialogue: 0,0:01:47.77,0:01:49.27,Default,,0000,0000,0000,,para compartir con vosotros Dialogue: 0,0:01:49.27,0:01:51.64,Default,,0000,0000,0000,,cómo empecé yo a darme cuenta\Nde que en tecnología Dialogue: 0,0:01:51.64,0:01:53.76,Default,,0000,0000,0000,,teníamos que mirar\Ntodo un universo de cosas Dialogue: 0,0:01:53.76,0:01:56.50,Default,,0000,0000,0000,,que muy poca gente estaba mirando. Dialogue: 0,0:01:56.50,0:01:59.70,Default,,0000,0000,0000,,Yo empecé a hacer mi tesis\Nhace muchísimos años, Dialogue: 0,0:01:59.70,0:02:02.04,Default,,0000,0000,0000,,mi tesis doctoral en videovigilancia. Dialogue: 0,0:02:02.04,0:02:07.48,Default,,0000,0000,0000,,Quería ver cómo las cámaras\Nimpactaban sobre cómo utilizamos la ciudad Dialogue: 0,0:02:07.48,0:02:10.53,Default,,0000,0000,0000,,cuáles eran las motivaciones\Nde los diferentes actores Dialogue: 0,0:02:10.53,0:02:14.50,Default,,0000,0000,0000,,para confiar a una solución tecnológica\Nun problema social importantísimo, Dialogue: 0,0:02:14.50,0:02:17.64,Default,,0000,0000,0000,,como es la percepción de inseguridad. Dialogue: 0,0:02:17.64,0:02:21.04,Default,,0000,0000,0000,,Y ahí estaba yo haciendo mi tesis,\Ndescubriendo cosas interesantísimas, Dialogue: 0,0:02:21.04,0:02:24.80,Default,,0000,0000,0000,,viendo métricas y como las cámaras \Neran capaces de capturar Dialogue: 0,0:02:24.80,0:02:30.02,Default,,0000,0000,0000,,dinámicas y expectativas sociales,\Npero además devolvérnoslas a la sociedad Dialogue: 0,0:02:30.02,0:02:31.78,Default,,0000,0000,0000,,muchas veces con diferencias. Dialogue: 0,0:02:31.78,0:02:35.52,Default,,0000,0000,0000,,La cámara no era solo\Nun actor tecnológico, o solo un cacharro. Dialogue: 0,0:02:35.52,0:02:38.56,Default,,0000,0000,0000,,La cámara intervenía\Nen cómo utilizábamos el espacio público, Dialogue: 0,0:02:38.56,0:02:41.52,Default,,0000,0000,0000,,las expectativas que teníamos\Nlos unos sobre los otros, Dialogue: 0,0:02:41.52,0:02:43.52,Default,,0000,0000,0000,,cómo comprendíamos la seguridad. Dialogue: 0,0:02:44.26,0:02:47.76,Default,,0000,0000,0000,,Pero en todo este proceso un buen día\Nse me ocurrió coger el libro, Dialogue: 0,0:02:47.76,0:02:52.23,Default,,0000,0000,0000,,un libro de Richard Sennett,\Nun conocido sociólogo, Dialogue: 0,0:02:52.23,0:02:55.49,Default,,0000,0000,0000,,"El declive del hombre público"\Ny en él se preguntaba, Dialogue: 0,0:02:55.49,0:02:59.30,Default,,0000,0000,0000,,mucho antes de que tuviéramos\Ndrones y sensores Dialogue: 0,0:02:59.30,0:03:01.39,Default,,0000,0000,0000,,y cámaras por todas partes, Dialogue: 0,0:03:01.39,0:03:05.10,Default,,0000,0000,0000,,y ojos constantes que nos vigilan \Nen nuestra deriva urbana, Dialogue: 0,0:03:05.10,0:03:12.32,Default,,0000,0000,0000,,él se preguntaba en estas ciudades\Nque estamos creando llenas de ojos, Dialogue: 0,0:03:12.32,0:03:15.22,Default,,0000,0000,0000,,dónde se enamorarían Romeo y Julieta. Dialogue: 0,0:03:15.86,0:03:20.85,Default,,0000,0000,0000,,Y para mí ese fue mi "Aha moment",\Nmi momento de darme cuenta Dialogue: 0,0:03:20.85,0:03:24.31,Default,,0000,0000,0000,,de que mientras yo me focalizaba\Nen dinámicas sociales y métricas Dialogue: 0,0:03:24.31,0:03:28.47,Default,,0000,0000,0000,,y expectativas, me había olvidado\Nde una pregunta importantísima. Dialogue: 0,0:03:28.47,0:03:31.78,Default,,0000,0000,0000,,Esto que estamos haciendo ¿es deseable? Dialogue: 0,0:03:31.78,0:03:35.12,Default,,0000,0000,0000,,¿Queremos que en nuestras ciudades,\NRomeo y Julieta, Dialogue: 0,0:03:35.12,0:03:39.76,Default,,0000,0000,0000,,hijos de 2 familias enfrentadas,\Nun amor prohibido, Dialogue: 0,0:03:39.76,0:03:43.04,Default,,0000,0000,0000,,queremos crear ciudades donde\Nlos jóvenes de familias Dialogue: 0,0:03:43.04,0:03:46.24,Default,,0000,0000,0000,,dispares o enfrentadas\Nno puedan enamorarse? Dialogue: 0,0:03:46.24,0:03:49.19,Default,,0000,0000,0000,,Y sobre todo pensando en la gente joven. Dialogue: 0,0:03:49.19,0:03:51.63,Default,,0000,0000,0000,,Una de las cosas que más me\Nsorprendió en mi trabajo Dialogue: 0,0:03:51.63,0:03:57.23,Default,,0000,0000,0000,,es la ignorancia total que tenemos,\Nignorancia por decirlo suave. Dialogue: 0,0:03:57.23,0:04:01.11,Default,,0000,0000,0000,,Cómo ignoramos los datos\Ny los derechos de los jóvenes, Dialogue: 0,0:04:01.11,0:04:03.69,Default,,0000,0000,0000,,los jóvenes aparecen en mi trabajo\Nde forma sistemática Dialogue: 0,0:04:03.69,0:04:09.24,Default,,0000,0000,0000,,como un colectivo constantemente\Nmaltratado por la recogida de datos. Dialogue: 0,0:04:09.24,0:04:12.51,Default,,0000,0000,0000,,Los jóvenes, porque además\Nno tienen casa propia, Dialogue: 0,0:04:12.51,0:04:14.76,Default,,0000,0000,0000,,tienen una habitación\Nen el mejor de los casos Dialogue: 0,0:04:14.76,0:04:17.16,Default,,0000,0000,0000,,donde ponen candados\Ny carteles de no entrar, Dialogue: 0,0:04:17.16,0:04:18.45,Default,,0000,0000,0000,,mi zona de privacidad, etc. Dialogue: 0,0:04:18.45,0:04:21.14,Default,,0000,0000,0000,,Su zona de privacidad\Nmuchas veces es el espacio público, Dialogue: 0,0:04:21.14,0:04:22.97,Default,,0000,0000,0000,,y se lo estábamos quitando. Dialogue: 0,0:04:22.97,0:04:26.45,Default,,0000,0000,0000,,Les estábamos y les estamos quitando\Na los jóvenes los espacios Dialogue: 0,0:04:26.45,0:04:29.91,Default,,0000,0000,0000,,para darse el primer beso\Nen la clandestinidad, en la privacidad, Dialogue: 0,0:04:29.91,0:04:33.58,Default,,0000,0000,0000,,en la intimidad\Nque necesitan y que merecen, Dialogue: 0,0:04:33.58,0:04:35.01,Default,,0000,0000,0000,,pero no solo para los jóvenes. Dialogue: 0,0:04:35.01,0:04:37.53,Default,,0000,0000,0000,,Se han preguntado\Ndónde se enamorarían Romeo y Julieta Dialogue: 0,0:04:37.53,0:04:38.91,Default,,0000,0000,0000,,y para mí la gran pregunta es Dialogue: 0,0:04:38.91,0:04:41.01,Default,,0000,0000,0000,,todo esto que estamos haciendo\Nen tecnología, Dialogue: 0,0:04:41.01,0:04:43.50,Default,,0000,0000,0000,,ese dinero que estamos invirtiendo. Dialogue: 0,0:04:43.50,0:04:46.42,Default,,0000,0000,0000,,¿Es deseable lo que estamos haciendo\Na nuestro alrededor? Dialogue: 0,0:04:46.42,0:04:50.10,Default,,0000,0000,0000,,Cosas que ocurren con la tecnología,\Npor ejemplo, vinculado a los jóvenes Dialogue: 0,0:04:50.10,0:04:53.95,Default,,0000,0000,0000,,y a los entornos urbanos,\Npor primera vez en la historia Dialogue: 0,0:04:53.95,0:04:58.41,Default,,0000,0000,0000,,y a consecuencia de la penetración\Nde aparatos tecnológicos, Dialogue: 0,0:04:58.41,0:05:01.49,Default,,0000,0000,0000,,es más caro olvidar que recordar. Dialogue: 0,0:05:02.14,0:05:04.67,Default,,0000,0000,0000,,En toda la historia\Nfue mucho más dificil recordar. Dialogue: 0,0:05:04.67,0:05:07.70,Default,,0000,0000,0000,,Había que escribir pergaminos,\Ndespués la imprenta. Dialogue: 0,0:05:07.70,0:05:08.76,Default,,0000,0000,0000,,Eso tiene un coste. Dialogue: 0,0:05:08.76,0:05:15.67,Default,,0000,0000,0000,,Ahora mismo lo difícil es poder olvidar,\Nporque todo genera un registro digital. Dialogue: 0,0:05:15.67,0:05:19.67,Default,,0000,0000,0000,,Yo siempre digo que tengo la suerte\Nde tener más de cuarenta años, Dialogue: 0,0:05:19.67,0:05:23.73,Default,,0000,0000,0000,,porque los primeros 20 años de mi vida\Nno los grabó nadie, Dialogue: 0,0:05:23.73,0:05:27.06,Default,,0000,0000,0000,,tengo alguna foto, pero nada más. Dialogue: 0,0:05:27.06,0:05:31.07,Default,,0000,0000,0000,,A los jóvenes de ahora\Nles condenamos a una vida de miedo, Dialogue: 0,0:05:31.07,0:05:35.11,Default,,0000,0000,0000,,por cómo su huella digital puede impactar\Nen su vida en el futuro. Dialogue: 0,0:05:35.53,0:05:41.37,Default,,0000,0000,0000,,Esa foto de esa fiesta, ese comentario\Nen una red social, ese momento Dialogue: 0,0:05:41.37,0:05:46.56,Default,,0000,0000,0000,,que queremos olvidar, ese conflicto,\Nincluso esa condena judicial Dialogue: 0,0:05:46.56,0:05:49.48,Default,,0000,0000,0000,,o ese archivo de una causa. Dialogue: 0,0:05:49.48,0:05:53.24,Default,,0000,0000,0000,,Todo eso las personas que han nacido\Nya en la sociedad actual, Dialogue: 0,0:05:53.24,0:05:56.51,Default,,0000,0000,0000,,totalmente digitalizada,\Npuede emerger en cualquier momento Dialogue: 0,0:05:56.51,0:05:59.30,Default,,0000,0000,0000,,y arruinarte la vida,\Ntu relación de pareja, Dialogue: 0,0:05:59.30,0:06:03.50,Default,,0000,0000,0000,,la consecución de ese trabajo\Nque tanto deseabas. Dialogue: 0,0:06:03.50,0:06:06.63,Default,,0000,0000,0000,,Por lo tanto,\Nen mi trabajo sobre videovigilancia Dialogue: 0,0:06:06.63,0:06:09.96,Default,,0000,0000,0000,,me di cuenta de que había un montón\Nde preguntas sobre tecnología Dialogue: 0,0:06:09.96,0:06:14.52,Default,,0000,0000,0000,,que no estábamos haciendo, y que era\Nimportantísimo que alguien realizara. Dialogue: 0,0:06:15.24,0:06:18.88,Default,,0000,0000,0000,,Desde entonces he tenido la suerte\Nde poder dedicarme a hacer esas preguntas, Dialogue: 0,0:06:18.88,0:06:22.26,Default,,0000,0000,0000,,a explorar cuáles son las preguntas\Nque deberíamos hacer, y cómo debería Dialogue: 0,0:06:22.26,0:06:25.09,Default,,0000,0000,0000,,la tecnología responder a esas preguntas, Dialogue: 0,0:06:25.09,0:06:28.00,Default,,0000,0000,0000,,y entender e incorporar\Ntodas esas preocupaciones. Dialogue: 0,0:06:28.00,0:06:30.53,Default,,0000,0000,0000,,Quería detallaros brevemente\Nalgunos de los proyectos Dialogue: 0,0:06:30.53,0:06:33.46,Default,,0000,0000,0000,,en los que estuve involucrada,\Npara que veáis cómo se aterriza Dialogue: 0,0:06:33.46,0:06:35.51,Default,,0000,0000,0000,,este tema de la ética de la tecnología. Dialogue: 0,0:06:35.51,0:06:37.36,Default,,0000,0000,0000,,He trabajado mucho tiempo,\Npor ejemplo, Dialogue: 0,0:06:37.36,0:06:39.73,Default,,0000,0000,0000,,en la automatización\Ndel paso de fronteras. Dialogue: 0,0:06:39.73,0:06:42.23,Default,,0000,0000,0000,,No sé si habéis ido\Na algún aeropuerto recientemente, Dialogue: 0,0:06:42.23,0:06:44.42,Default,,0000,0000,0000,,pero veréis que muchas veces\Nquien nos controla Dialogue: 0,0:06:44.42,0:06:46.98,Default,,0000,0000,0000,,el pasaporte ya no es un policía,\Nsino una máquina, Dialogue: 0,0:06:46.98,0:06:50.78,Default,,0000,0000,0000,,metéis vuestro pasaporte, se os hace\Nun reconocimiento de la huella digital, Dialogue: 0,0:06:50.78,0:06:53.34,Default,,0000,0000,0000,,un match biométrico\Ncon vuestro documento de identidad, Dialogue: 0,0:06:53.34,0:06:58.30,Default,,0000,0000,0000,,y la máquina decide si podéis pasar o no. Dialogue: 0,0:06:58.30,0:07:02.61,Default,,0000,0000,0000,,Cuando empezamos a trabajar\Nen las "fronteras inteligentes", Dialogue: 0,0:07:02.61,0:07:04.95,Default,,0000,0000,0000,,una de las primeras cosas\Nque nos sorprendió, Dialogue: 0,0:07:04.95,0:07:08.51,Default,,0000,0000,0000,,y que después hemos visto\Nreproducida en muchos otros casos, Dialogue: 0,0:07:08.51,0:07:10.18,Default,,0000,0000,0000,,es que cuando el parlamento europeo Dialogue: 0,0:07:10.18,0:07:13.41,Default,,0000,0000,0000,,empezó a plantearse la automatización\Ndel cruce de fronteras, Dialogue: 0,0:07:15.23,0:07:18.56,Default,,0000,0000,0000,,el debate no pasó por el parlamento\Neuropeo porque se consideró Dialogue: 0,0:07:18.56,0:07:20.76,Default,,0000,0000,0000,,una enmienda técnica. Dialogue: 0,0:07:20.76,0:07:26.27,Default,,0000,0000,0000,,Cambiar a policías por un proceso de datos\Nera nada más que una enmienda técnica. Dialogue: 0,0:07:26.27,0:07:28.94,Default,,0000,0000,0000,,No afectaba Dialogue: 0,0:07:28.94,0:07:31.70,Default,,0000,0000,0000,,según las personas que inicialmente\Npropusieron ese cambio, Dialogue: 0,0:07:31.70,0:07:35.26,Default,,0000,0000,0000,,a la conceptualización\Nde lo que era la frontera, Dialogue: 0,0:07:35.26,0:07:37.97,Default,,0000,0000,0000,,con lo cual podía ser una\Nenmienda técnica que no requería Dialogue: 0,0:07:37.97,0:07:41.50,Default,,0000,0000,0000,,ningún tipo de control público o político. Dialogue: 0,0:07:41.95,0:07:46.26,Default,,0000,0000,0000,,Para que veáis\Nlo poco técnico que esto es, Dialogue: 0,0:07:46.26,0:07:49.38,Default,,0000,0000,0000,,la incorporación de automatización\Ndel paso de fronteras ha hecho, Dialogue: 0,0:07:49.38,0:07:51.98,Default,,0000,0000,0000,,por ejemplo, que la frontera desaparezca. Dialogue: 0,0:07:52.78,0:07:59.97,Default,,0000,0000,0000,,Hoy en día, el cruce de la frontera,\Nla línea en el suelo, el aeropuerto, Dialogue: 0,0:07:59.97,0:08:01.76,Default,,0000,0000,0000,,no es lo importante. Dialogue: 0,0:08:01.76,0:08:05.81,Default,,0000,0000,0000,,Empezamos a viajar y se nos empieza\Na autorizar el viaje en el momento Dialogue: 0,0:08:05.81,0:08:10.65,Default,,0000,0000,0000,,en el que compramos nuestro billete\No solicitamos la visa para viajar. Dialogue: 0,0:08:10.65,0:08:13.88,Default,,0000,0000,0000,,Y nuestro paso de frontera no acaba\Ncuando cruzamos la frontera Dialogue: 0,0:08:13.88,0:08:16.09,Default,,0000,0000,0000,,o cuando llegamos a nuestro destino. Dialogue: 0,0:08:16.76,0:08:19.96,Default,,0000,0000,0000,,Si hemos pedido una visa continúa,\Nporque la validez de nuestra visa Dialogue: 0,0:08:19.96,0:08:22.01,Default,,0000,0000,0000,,es controlada hasta que\Nabandonamos el país, Dialogue: 0,0:08:22.01,0:08:24.77,Default,,0000,0000,0000,,o si no lo abandonamos salta una alarma, Dialogue: 0,0:08:24.77,0:08:27.75,Default,,0000,0000,0000,,para que la policía pueda\Ntomar cartas en el asunto. Dialogue: 0,0:08:27.75,0:08:33.00,Default,,0000,0000,0000,,Con lo cual la introducción de los datos,\Nla automatización de todo este proceso, Dialogue: 0,0:08:33.00,0:08:36.00,Default,,0000,0000,0000,,ha cambiado completamente\Nlo que supone una frontera. Dialogue: 0,0:08:36.00,0:08:39.27,Default,,0000,0000,0000,,La frontera es ahora mismo\Nun espacio larguísimo, Dialogue: 0,0:08:39.27,0:08:42.94,Default,,0000,0000,0000,,para muchas personas\Nun espacio de control continuo. Dialogue: 0,0:08:44.27,0:08:45.52,Default,,0000,0000,0000,,Han pasado otras cosas. Dialogue: 0,0:08:46.25,0:08:49.53,Default,,0000,0000,0000,,con la automatización de fronteras\Nhemos incorporado la biometría Dialogue: 0,0:08:49.53,0:08:52.72,Default,,0000,0000,0000,,como herramienta\Npara comprobar la identidad. Dialogue: 0,0:08:52.72,0:08:55.90,Default,,0000,0000,0000,,¿Qué pasaba en el pasado\Ncuando alguien no quería Dialogue: 0,0:08:55.90,0:08:57.93,Default,,0000,0000,0000,,que su identidad fuera conocida? Dialogue: 0,0:08:57.93,0:08:59.24,Default,,0000,0000,0000,,Quemaba su pasaporte. Dialogue: 0,0:08:59.24,0:09:01.48,Default,,0000,0000,0000,,Cuando alguien no quería\Nser devuelto a su país, Dialogue: 0,0:09:01.48,0:09:07.24,Default,,0000,0000,0000,,porque consideraba que en ese país\Npodía sufrir consecuencias indeseables, Dialogue: 0,0:09:07.24,0:09:09.98,Default,,0000,0000,0000,,podía quemar su pasaporte\Ny con eso aspirar a quedarse Dialogue: 0,0:09:09.98,0:09:12.74,Default,,0000,0000,0000,,en un espacio\Ny en un limbo legal y jurídico. Dialogue: 0,0:09:14.04,0:09:18.72,Default,,0000,0000,0000,,Hoy, nuestro pasaporte\Nestá en nuestros dedos. Dialogue: 0,0:09:19.18,0:09:21.74,Default,,0000,0000,0000,,¿Qué están haciendo los migrantes? Dialogue: 0,0:09:21.74,0:09:24.76,Default,,0000,0000,0000,,Quemarse los dedos, mutilarse, Dialogue: 0,0:09:25.16,0:09:30.31,Default,,0000,0000,0000,,porque es la única forma de evitar\Nque su cuerpo se convierta en su enemigo. Dialogue: 0,0:09:30.31,0:09:33.92,Default,,0000,0000,0000,,Eso que querían pasar como enmienda\Ntécnica, está teniendo unas consecuencias Dialogue: 0,0:09:33.92,0:09:37.26,Default,,0000,0000,0000,,brutales sobre los derechos\Nfundamentales de los migrantes. Dialogue: 0,0:09:37.26,0:09:41.50,Default,,0000,0000,0000,,Inicialmente, hoy ya no, alguien quería\Nque no habláramos de eso, Dialogue: 0,0:09:41.50,0:09:46.26,Default,,0000,0000,0000,,que no nos planteáramos cuáles eran\Nlas implicaciones de esa decisión. Dialogue: 0,0:09:46.26,0:09:51.06,Default,,0000,0000,0000,,No solo eso, a través de mi trabajo\Nhe podido hablar con más de 1500 personas Dialogue: 0,0:09:51.06,0:09:56.26,Default,,0000,0000,0000,,que han utilizado estos sistemas\Nautomáticos de control de la identidad Dialogue: 0,0:09:56.26,0:09:57.82,Default,,0000,0000,0000,,en pasos de fronteras. Dialogue: 0,0:09:57.82,0:10:01.52,Default,,0000,0000,0000,,Y es curioso ver como cuando les preguntas\Na los viajeros de terceros países, Dialogue: 0,0:10:01.52,0:10:05.40,Default,,0000,0000,0000,,no europeos, no personas del espacio\Ndel entorno Schengen: Dialogue: 0,0:10:05.40,0:10:10.02,Default,,0000,0000,0000,,¿Qué prefieres, un control policial humano\No un control automático? Dialogue: 0,0:10:10.02,0:10:12.50,Default,,0000,0000,0000,,La mayoría te dice:\N"Prefiero el control automático". Dialogue: 0,0:10:13.52,0:10:17.76,Default,,0000,0000,0000,,Confiamos en la tecnología,\Ncreemos que es más eficiente Dialogue: 0,0:10:17.76,0:10:21.64,Default,,0000,0000,0000,,y más justa incluso\Nque la toma de decisiones humana. Dialogue: 0,0:10:21.64,0:10:24.18,Default,,0000,0000,0000,,Pero cuando les preguntábamos\Na estas mismas personas: Dialogue: 0,0:10:24.18,0:10:28.66,Default,,0000,0000,0000,,¿Y si la máquina se equivoca?\N¿Qué crees que va a pasar? Dialogue: 0,0:10:28.66,0:10:32.97,Default,,0000,0000,0000,,Todos coincidían:\N"Estoy perdido, no voy a poder salir". Dialogue: 0,0:10:33.50,0:10:35.60,Default,,0000,0000,0000,,Cuando hay lo que llamamos\Nun falso positivo, Dialogue: 0,0:10:35.60,0:10:38.22,Default,,0000,0000,0000,,cuando la máquina se equivoca,\Nno tenemos los mecanismos Dialogue: 0,0:10:38.22,0:10:41.20,Default,,0000,0000,0000,,ni las leyes que garanticen\Nque podemos salir del hoyo Dialogue: 0,0:10:41.20,0:10:44.28,Default,,0000,0000,0000,,donde nos ha metido ese proceso\Nde toma de decisiones automáticas. Dialogue: 0,0:10:45.10,0:10:49.24,Default,,0000,0000,0000,,Esas son algunas de las cosas\Nque hemos encontrado en el trabajo Dialogue: 0,0:10:49.24,0:10:50.54,Default,,0000,0000,0000,,en el entorno de fronteras. Dialogue: 0,0:10:51.50,0:10:55.81,Default,,0000,0000,0000,,Otro ejemplo: también hemos trabajado\Ncon universidades, Dialogue: 0,0:10:55.81,0:10:58.14,Default,,0000,0000,0000,,para ver el impacto ético\Nde la ciencia ciudadana. Dialogue: 0,0:10:58.14,0:11:01.74,Default,,0000,0000,0000,,La ciencia ciudadana es la ciencia\Nque se hace con la ayuda de las personas, Dialogue: 0,0:11:01.74,0:11:06.50,Default,,0000,0000,0000,,gente que trabaja el movimiento de\Nlos mares o la migración de los pájaros, Dialogue: 0,0:11:06.50,0:11:09.22,Default,,0000,0000,0000,,si tuvieran que desplegar\Na investigadores a todas partes, Dialogue: 0,0:11:09.22,0:11:11.74,Default,,0000,0000,0000,,para hacer fotografías constantes\Nde cómo está el mar, Dialogue: 0,0:11:11.74,0:11:14.23,Default,,0000,0000,0000,,o cómo se mueven los pájaros\Nesto sería muy costoso. Dialogue: 0,0:11:14.23,0:11:17.96,Default,,0000,0000,0000,,Gracias a la tecnología podemos pedir\Na la gente que vive en espacios concretos Dialogue: 0,0:11:17.96,0:11:21.50,Default,,0000,0000,0000,,que nos manden una foto del mar cada día\Ncuando se levanten a la misma hora Dialogue: 0,0:11:21.50,0:11:24.38,Default,,0000,0000,0000,,y yo proceso todos esos datos\Ny a partir de ahí hago ciencia. Dialogue: 0,0:11:24.38,0:11:25.70,Default,,0000,0000,0000,,Está muy bien, Dialogue: 0,0:11:25.70,0:11:29.14,Default,,0000,0000,0000,,pero cuando empezamos a trabajar\Ncon la universidad y los investigadores, Dialogue: 0,0:11:29.14,0:11:33.58,Default,,0000,0000,0000,,nos encontramos un caso paradigmático\Nde lo que yo llamo despotismo de los datos Dialogue: 0,0:11:33.58,0:11:37.78,Default,,0000,0000,0000,,que es "Todo por el pueblo, con los datos\Ndel pueblo, pero sin el pueblo". Dialogue: 0,0:11:37.78,0:11:41.70,Default,,0000,0000,0000,,Los investigadores pedían a la gente que\Nles mandaran un montón de datos personales Dialogue: 0,0:11:41.70,0:11:45.100,Default,,0000,0000,0000,,donde una fotografía geolocalizada\Npuede decir exactamente dónde vivimos, Dialogue: 0,0:11:45.100,0:11:48.50,Default,,0000,0000,0000,,cómo es nuestro entorno\Ne incluso con quién estamos. Dialogue: 0,0:11:48.50,0:11:53.01,Default,,0000,0000,0000,,Pues no había ningún tipo de precaución\Nen relación con la gestión de esos datos. Dialogue: 0,0:11:53.01,0:11:56.01,Default,,0000,0000,0000,,Y lo llamábamos "ciencia ciudadana". Dialogue: 0,0:11:56.01,0:11:57.64,Default,,0000,0000,0000,,Afortunadamente, hoy ya no es así, Dialogue: 0,0:11:57.64,0:12:00.23,Default,,0000,0000,0000,,y hemos creado mecanismos\Npara que la ciencia ciudadana Dialogue: 0,0:12:00.23,0:12:03.39,Default,,0000,0000,0000,,sea realmente ciencia ciudadana,\Nal servicio de las personas Dialogue: 0,0:12:03.39,0:12:06.85,Default,,0000,0000,0000,,y no solo un espacio de uso y abuso\Nde las personas voluntarias Dialogue: 0,0:12:06.85,0:12:09.42,Default,,0000,0000,0000,,que se prestan para participar\Nen esas investigaciones. Dialogue: 0,0:12:10.26,0:12:12.59,Default,,0000,0000,0000,,Trabajamos también mucho\Nen el ámbito del trabajo, Dialogue: 0,0:12:12.59,0:12:14.78,Default,,0000,0000,0000,,el futuro del trabajo,\Ninteligencia artificial, Dialogue: 0,0:12:14.78,0:12:16.79,Default,,0000,0000,0000,,los robots que nos van\Na quitar el trabajo, Dialogue: 0,0:12:16.79,0:12:19.24,Default,,0000,0000,0000,,todos esos miedos que tenemos. Dialogue: 0,0:12:19.75,0:12:21.51,Default,,0000,0000,0000,,¿Y qué nos encontramos?. Dialogue: 0,0:12:21.51,0:12:25.27,Default,,0000,0000,0000,,Los directores de las empresas, los CEOs,\Nlos responsables de las empresas Dialogue: 0,0:12:25.27,0:12:31.81,Default,,0000,0000,0000,,tienden a tomar malas decisiones,\Ncuando éstas involucran la tecnología. Dialogue: 0,0:12:31.81,0:12:37.50,Default,,0000,0000,0000,,Es decir, un responsable de una empresa\Nestará mucho más dispuesto Dialogue: 0,0:12:37.50,0:12:40.70,Default,,0000,0000,0000,,a gastar dinero en tecnología\Nque en procesos no tecnológicos, Dialogue: 0,0:12:40.70,0:12:45.06,Default,,0000,0000,0000,,con lo cual adquirimos tecnología\Nsin pensar si realmente la necesitamos, Dialogue: 0,0:12:45.06,0:12:48.20,Default,,0000,0000,0000,,sobre todo en entornos de trabajo. Dialogue: 0,0:12:48.20,0:12:50.44,Default,,0000,0000,0000,,Estamos viendo la introducción\Nde exoesqueletos, Dialogue: 0,0:12:50.44,0:12:53.99,Default,,0000,0000,0000,,de sensores de control 24 horas\Nen entornos de trabajo Dialogue: 0,0:12:53.99,0:12:57.24,Default,,0000,0000,0000,,en los que no son necesarios\Npara mejorar la eficacia, la eficiencia Dialogue: 0,0:12:57.24,0:12:59.77,Default,,0000,0000,0000,,ni la rentabilidad de esa empresa. Dialogue: 0,0:12:59.77,0:13:02.58,Default,,0000,0000,0000,,Pero, entre que la gente en las empresas\Nno sabe que existen Dialogue: 0,0:13:02.58,0:13:05.35,Default,,0000,0000,0000,,tecnologías menos lesivas,\Ny que quien vende la tecnología Dialogue: 0,0:13:05.35,0:13:08.45,Default,,0000,0000,0000,,siempre quiere venderte la máxima\Ncapacidad que puede desarrollar, Dialogue: 0,0:13:08.45,0:13:11.51,Default,,0000,0000,0000,,acabamos con entornos laborales\Nque son insufribles Dialogue: 0,0:13:11.51,0:13:13.85,Default,,0000,0000,0000,,desde la perspectiva de los que trabajan. Dialogue: 0,0:13:13.85,0:13:17.52,Default,,0000,0000,0000,,Tomamos malas decisiones porque\Nla tecnología nos fascina constantemente. Dialogue: 0,0:13:17.52,0:13:20.51,Default,,0000,0000,0000,,Cómo construimos los mecanismos\Npara empoderarnos a todos Dialogue: 0,0:13:20.51,0:13:24.27,Default,,0000,0000,0000,,a saber distinguir cuando una tecnología\Nrealmente nos ayuda o no nos ayuda. Dialogue: 0,0:13:24.27,0:13:27.88,Default,,0000,0000,0000,,Pues a eso nos dedicamos\Nen la ética de la tecnología. Dialogue: 0,0:13:28.25,0:13:32.24,Default,,0000,0000,0000,,Un cuarto ejemplo: trabajo mucho\Nen tecnologías de seguridad. Dialogue: 0,0:13:32.24,0:13:35.15,Default,,0000,0000,0000,,La verdad es que podría dar 10 TED talks\Nsolo sobre seguridad, Dialogue: 0,0:13:35.15,0:13:37.88,Default,,0000,0000,0000,,porque es un ámbito terriblemente sensible Dialogue: 0,0:13:37.88,0:13:41.88,Default,,0000,0000,0000,,Un par de ejemplos: hace unos años\Nestábamos auditando los algoritmos Dialogue: 0,0:13:41.88,0:13:45.88,Default,,0000,0000,0000,,de un proyecto que quería desplegar\Ncámaras de videovigilancia inteligentes Dialogue: 0,0:13:45.88,0:13:49.23,Default,,0000,0000,0000,,en entornos sensibles;\Nbancos y aeropuertos. Dialogue: 0,0:13:49.50,0:13:53.39,Default,,0000,0000,0000,,Las cámaras de videovigilancia\Ninteligentes son capaces de reconocer Dialogue: 0,0:13:53.39,0:13:58.18,Default,,0000,0000,0000,,comportamientos potencialmente criminales\Nde forma automática, Dialogue: 0,0:13:58.18,0:14:01.77,Default,,0000,0000,0000,,no es necesario que el ojo humano\Nesté controlando lo que ocurre, Dialogue: 0,0:14:01.77,0:14:04.94,Default,,0000,0000,0000,,sino que pueden ver\Npor la forma en que se mueve la gente, Dialogue: 0,0:14:04.94,0:14:08.83,Default,,0000,0000,0000,,si su forma de moverse por un espacio\Nes potencialmente peligrosa Dialogue: 0,0:14:08.83,0:14:12.10,Default,,0000,0000,0000,,y así mandar una alarma\Ny la intervención humana solo es necesaria Dialogue: 0,0:14:12.10,0:14:15.25,Default,,0000,0000,0000,,cuando se ha identificado\Nun comportamiento peligroso. Dialogue: 0,0:14:15.53,0:14:16.86,Default,,0000,0000,0000,,¿Qué nos encontramos? Dialogue: 0,0:14:16.86,0:14:21.23,Default,,0000,0000,0000,,Que los ingenieros se habían codificado\Na sí mismos como la normalidad. Dialogue: 0,0:14:21.23,0:14:25.96,Default,,0000,0000,0000,,Es decir, la forma de utilizar\Nun banco es entrar y salir, Dialogue: 0,0:14:25.96,0:14:28.27,Default,,0000,0000,0000,,porque tienes mucha prisa,\Nporque tienes trabajo, Dialogue: 0,0:14:28.27,0:14:30.71,Default,,0000,0000,0000,,porque eres joven y te lo puedes permitir. Dialogue: 0,0:14:30.71,0:14:33.59,Default,,0000,0000,0000,,En ese algoritmo quien emergía\Ncomo potencialmente sospechoso Dialogue: 0,0:14:33.59,0:14:38.78,Default,,0000,0000,0000,,eran gente mayor, que tiene\Nmucho más tiempo, claro, está lloviendo, Dialogue: 0,0:14:38.78,0:14:41.54,Default,,0000,0000,0000,,vas al banco, hay un sofá, oye pues\Nme quedo un ratín, ¿no? Dialogue: 0,0:14:41.54,0:14:45.95,Default,,0000,0000,0000,,Eso no es potencialmente criminal,\Npero el algoritmo lo identificaba así Dialogue: 0,0:14:45.95,0:14:49.95,Default,,0000,0000,0000,,porque no era cómo el ingeniero\Nhabría utilizado ese espacio. Dialogue: 0,0:14:49.95,0:14:52.53,Default,,0000,0000,0000,,O las familias en aeropuertos. Dialogue: 0,0:14:52.53,0:14:55.82,Default,,0000,0000,0000,,Yo que viajo mucho, voy al aeropuerto\Ny quiero salir lo antes posible, Dialogue: 0,0:14:55.82,0:14:58.73,Default,,0000,0000,0000,,pero yo no soy la mayoría,\Ny no soy sobre todo la normalidad. Dialogue: 0,0:14:59.60,0:15:01.98,Default,,0000,0000,0000,,Hay gente que viaja\Ny coge un avión una vez al año. Dialogue: 0,0:15:02.27,0:15:05.57,Default,,0000,0000,0000,,Para quien la experiencia del aeropuerto\Nforma parte del viaje en sí, Dialogue: 0,0:15:05.57,0:15:10.52,Default,,0000,0000,0000,,que van 5 horas antes y dan vueltas,\Ncomen, vuelven a comer, descansan, Dialogue: 0,0:15:10.52,0:15:14.38,Default,,0000,0000,0000,,salen a la terraza, y todo eso es normal. Dialogue: 0,0:15:14.38,0:15:17.78,Default,,0000,0000,0000,,Debería ser normal, y en cambio\Nel algoritmo de la cámara inteligente Dialogue: 0,0:15:17.78,0:15:21.40,Default,,0000,0000,0000,,lo había codificado como anormal,\Ny eso pasa constantemente. Dialogue: 0,0:15:21.40,0:15:24.78,Default,,0000,0000,0000,,Como los ingenieros no tienen formación\Nen este tipo de cosas, Dialogue: 0,0:15:24.78,0:15:29.32,Default,,0000,0000,0000,,no se dan cuenta de que codifican\Nsu normalidad como la de todos. Dialogue: 0,0:15:29.32,0:15:32.23,Default,,0000,0000,0000,,Y eso, en el ámbito de la seguridad\Nes problemático, Dialogue: 0,0:15:32.23,0:15:35.74,Default,,0000,0000,0000,,porque todo lo que no es normal,\Nes sospechoso. Dialogue: 0,0:15:35.74,0:15:38.50,Default,,0000,0000,0000,,Y todos tenemos derecho\Na no ser sospechosos, Dialogue: 0,0:15:38.50,0:15:41.06,Default,,0000,0000,0000,,a no ser que hagamos algo\Nrealmente sospechoso. Dialogue: 0,0:15:41.06,0:15:44.53,Default,,0000,0000,0000,,Con lo cual la cámara nos acaba\Nconvirtiendo en sospechosos constantemente Dialogue: 0,0:15:44.53,0:15:51.09,Default,,0000,0000,0000,,por salir fuera de esa normalidad\Ntan pequeña definida por los tecnólogos. Dialogue: 0,0:15:52.27,0:15:56.74,Default,,0000,0000,0000,,Por no hablar de los algoritmos\Npredictivos en el ámbito de la seguridad. Dialogue: 0,0:15:58.05,0:16:01.90,Default,,0000,0000,0000,,Yo no sé cómo se puede decir\Nmás alto y más claro. Dialogue: 0,0:16:01.90,0:16:07.98,Default,,0000,0000,0000,,No podemos predecir el futuro.\NEso es magia. Y no sabemos hacerlo. Dialogue: 0,0:16:07.98,0:16:10.24,Default,,0000,0000,0000,,Lo máximo que podemos hacer\Ncon los algoritmos Dialogue: 0,0:16:10.24,0:16:13.07,Default,,0000,0000,0000,,es entender lo que ha pasado hasta hoy, Dialogue: 0,0:16:13.07,0:16:16.50,Default,,0000,0000,0000,,y a partir de ahí hacer\Nque emerjan ciertos patrones, Dialogue: 0,0:16:16.50,0:16:22.76,Default,,0000,0000,0000,,y decir: el pasado me lleva a pensar\Nque es posible que en el futuro ocurra eso Dialogue: 0,0:16:22.76,0:16:28.24,Default,,0000,0000,0000,,Esto es lo que podemos hacer.\NLlamar a eso predicción es muy arriesgado. Dialogue: 0,0:16:28.24,0:16:32.50,Default,,0000,0000,0000,,Y la insistencia actual de las muchísimas\Nfuerzas policiales de todo el mundo Dialogue: 0,0:16:32.50,0:16:36.24,Default,,0000,0000,0000,,en pedir el algoritmo\Nde la radicalización, de la prevención, Dialogue: 0,0:16:36.24,0:16:39.52,Default,,0000,0000,0000,,el pre-crimen, es imposible. Dialogue: 0,0:16:39.52,0:16:42.44,Default,,0000,0000,0000,,La tecnología nos puede ayudar,\Npero hasta cierto punto. Dialogue: 0,0:16:42.44,0:16:45.11,Default,,0000,0000,0000,,Y todos tenemos derecho\Na la presunción de inocencia Dialogue: 0,0:16:45.11,0:16:48.18,Default,,0000,0000,0000,,hasta que cometamos un acto ilícito. Dialogue: 0,0:16:48.18,0:16:50.36,Default,,0000,0000,0000,,La tecnología tiende a olvidar eso Dialogue: 0,0:16:50.36,0:16:54.52,Default,,0000,0000,0000,,y se siente tan poderosa y tan poco\Ncontrolada por todos estos elementos Dialogue: 0,0:16:54.52,0:16:58.38,Default,,0000,0000,0000,,que se atreve a prometer\Nla capacidad de prever y de saber Dialogue: 0,0:16:58.38,0:17:02.74,Default,,0000,0000,0000,,lo que vamos a hacer antes de que\Na nosotros se nos pase por la cabeza. Dialogue: 0,0:17:03.27,0:17:06.96,Default,,0000,0000,0000,,Y finalmente un último ejemplo:\Nel de movilidad. Dialogue: 0,0:17:06.96,0:17:09.94,Default,,0000,0000,0000,,Todos habéis oído hablar\Nde los coches autónomos ¿no? Dialogue: 0,0:17:09.94,0:17:12.95,Default,,0000,0000,0000,,Teóricamente en poco tiempo\Ntodas las ciudades estarán llenas Dialogue: 0,0:17:12.95,0:17:15.24,Default,,0000,0000,0000,,de coches que conducen solos. Dialogue: 0,0:17:15.24,0:17:17.92,Default,,0000,0000,0000,,Pues el coche autónomo\Nes uno de los grandes ejemplos Dialogue: 0,0:17:17.92,0:17:23.50,Default,,0000,0000,0000,,de cómo la arrogancia de la ingeniería\Npuede llevar al fracaso una buena idea. Dialogue: 0,0:17:23.50,0:17:28.28,Default,,0000,0000,0000,,El coche autónomo es muchísimo más seguro\Nque el coche no autónomo. Dialogue: 0,0:17:28.28,0:17:29.49,Default,,0000,0000,0000,,Pero, ¿qué pasa? Dialogue: 0,0:17:30.14,0:17:33.90,Default,,0000,0000,0000,,A las muertes de los coches no autónomos\Nnos hemos acostumbrado, Dialogue: 0,0:17:33.90,0:17:38.01,Default,,0000,0000,0000,,pero cada vez que un coche autónomo \Nmata o hiere a alguien Dialogue: 0,0:17:38.01,0:17:39.66,Default,,0000,0000,0000,,es portada en todo el mundo. Dialogue: 0,0:17:40.28,0:17:44.48,Default,,0000,0000,0000,,Con lo cual la percepción social\Nes que es mucho más inseguro Dialogue: 0,0:17:44.48,0:17:46.91,Default,,0000,0000,0000,,el coche autónomo que el no autónomo. Dialogue: 0,0:17:46.91,0:17:50.52,Default,,0000,0000,0000,,Y mientras los ingenieros insistan\Nen decir tengo aquí todas estas cifras Dialogue: 0,0:17:50.52,0:17:52.52,Default,,0000,0000,0000,,que demuestran que es más seguro, Dialogue: 0,0:17:52.52,0:17:56.14,Default,,0000,0000,0000,,y no se preocupen\Nde convencer a la población, Dialogue: 0,0:17:56.14,0:17:59.07,Default,,0000,0000,0000,,de trabajar la aceptabilidad\Nde esa tecnología, Dialogue: 0,0:17:59.07,0:18:03.31,Default,,0000,0000,0000,,de incorporar los miedos\Ny las preocupaciones sociales Dialogue: 0,0:18:03.31,0:18:06.99,Default,,0000,0000,0000,,en la conceptualización de esa tecnología,\Nseguramente lo que va a pasar Dialogue: 0,0:18:06.99,0:18:10.13,Default,,0000,0000,0000,,es que lo que es una buena idea\Nque podría salvar muchísimas vidas, Dialogue: 0,0:18:10.13,0:18:13.52,Default,,0000,0000,0000,,tardará muchísimo más en implementarse,\Nporque los ingenieros Dialogue: 0,0:18:13.52,0:18:17.51,Default,,0000,0000,0000,,tienden a la arrogancia\Nde los números y de la técnica. Dialogue: 0,0:18:17.51,0:18:21.52,Default,,0000,0000,0000,,Para que veáis que la ética\Nde la tecnología no es solo un tema Dialogue: 0,0:18:21.52,0:18:26.47,Default,,0000,0000,0000,,de tu smartphone, de tu televisor,\Nde los aparatos de consumo que usamos. Dialogue: 0,0:18:26.47,0:18:30.26,Default,,0000,0000,0000,,Hay una infraestructura de datos\Nque marca todo lo que hacemos, Dialogue: 0,0:18:30.26,0:18:34.52,Default,,0000,0000,0000,,que requiere urgentemente\Nde un cierto control, o como mínimo, Dialogue: 0,0:18:34.52,0:18:36.93,Default,,0000,0000,0000,,de la incorporación de responsabilidad. Dialogue: 0,0:18:36.93,0:18:41.26,Default,,0000,0000,0000,,Lo que he encontrado en mi trabajo,\Nes que como hacemos tecnología actualmente Dialogue: 0,0:18:41.26,0:18:43.96,Default,,0000,0000,0000,,es profundamente irresponsable. Dialogue: 0,0:18:44.76,0:18:48.93,Default,,0000,0000,0000,,A ningún médico ni a ninguna\Nempresa farmacéutica se le ocurriría Dialogue: 0,0:18:48.93,0:18:52.75,Default,,0000,0000,0000,,pedirle a la sociedad poder lanzar\Nmedicamentos no testados. Dialogue: 0,0:18:53.29,0:18:57.100,Default,,0000,0000,0000,,O lanzar medicamentos que dijeran: "Mira\Nesto cura el constipado pero da cáncer". Dialogue: 0,0:18:57.100,0:18:59.24,Default,,0000,0000,0000,,No lo aceptaríamos. Dialogue: 0,0:18:59.24,0:19:00.54,Default,,0000,0000,0000,,No se puede vender. Dialogue: 0,0:19:00.54,0:19:04.13,Default,,0000,0000,0000,,Y en cambio en ingeniería informática\Nse pide el derecho Dialogue: 0,0:19:04.13,0:19:07.78,Default,,0000,0000,0000,,a lanzar cosas a la sociedad\Nsin testarlas de ninguna manera, Dialogue: 0,0:19:07.78,0:19:11.73,Default,,0000,0000,0000,,sin tener ningún tipo de conciencia\Nde su impacto social. Dialogue: 0,0:19:12.94,0:19:16.12,Default,,0000,0000,0000,,La buena noticia es que creo\Nque esto está empezando a cambiar. Dialogue: 0,0:19:16.55,0:19:21.28,Default,,0000,0000,0000,,Que existan perfiles como el mío,\Ncon conocimientos en ciencia social, Dialogue: 0,0:19:21.28,0:19:24.47,Default,,0000,0000,0000,,pero también en elementos técnicos\Nde la matemática y de la física, Dialogue: 0,0:19:25.23,0:19:28.24,Default,,0000,0000,0000,,muestra que empieza a haber\Ninterés por estas cosas. Dialogue: 0,0:19:28.24,0:19:32.77,Default,,0000,0000,0000,,Cada vez hay más grupos de investigación\Ny de trabajo en empresas, en universidades Dialogue: 0,0:19:32.77,0:19:39.81,Default,,0000,0000,0000,,y en espacios público-privados que aúnan\Na sociólogos, filósofos, abogados, Dialogue: 0,0:19:39.81,0:19:44.15,Default,,0000,0000,0000,,a físicos, matemáticos, ingenieros\Ne informáticos para intentar entender Dialogue: 0,0:19:44.15,0:19:48.52,Default,,0000,0000,0000,,cuáles son esos impactos legales,\Nsociales y éticos de las tecnologías, Dialogue: 0,0:19:49.75,0:19:53.16,Default,,0000,0000,0000,,que ayudan a dilucidar\Ncuál es la deseabilidad Dialogue: 0,0:19:53.16,0:19:55.77,Default,,0000,0000,0000,,y cómo aumentar esa deseabilidad\Nde los productos Dialogue: 0,0:19:55.77,0:19:58.34,Default,,0000,0000,0000,,que se quieren fabricar en el futuro. Dialogue: 0,0:19:58.34,0:20:02.07,Default,,0000,0000,0000,,Cada vez hay más grupos que trabajan\Nen mejorar la transparencia Dialogue: 0,0:20:02.07,0:20:04.73,Default,,0000,0000,0000,,y el control de los algoritmos,\Npor ejemplo. Dialogue: 0,0:20:05.77,0:20:11.04,Default,,0000,0000,0000,,La idea de los estudios de impacto\Nestá cada vez más extendida. Dialogue: 0,0:20:11.51,0:20:15.30,Default,,0000,0000,0000,,De la misma forma que no podemos\Nconstruir un nuevo desarrollo Dialogue: 0,0:20:15.30,0:20:20.15,Default,,0000,0000,0000,,de infraestructuras, una nueva carretera,\Nsin justificar su impacto ambiental, Dialogue: 0,0:20:20.15,0:20:23.62,Default,,0000,0000,0000,,no deberíamos poder lanzar\Nproductos tecnológicos al mercado Dialogue: 0,0:20:23.62,0:20:27.24,Default,,0000,0000,0000,,sin justificar antes que nos hemos\Nplanteado en algún momento Dialogue: 0,0:20:27.24,0:20:29.71,Default,,0000,0000,0000,,qué impacto va a tener eso\Nsobre la sociedad Dialogue: 0,0:20:29.71,0:20:32.28,Default,,0000,0000,0000,,y si ese impacto es deseable o no,\Ny si no es deseable, Dialogue: 0,0:20:32.28,0:20:38.08,Default,,0000,0000,0000,,qué medidas hemos tomado para\Naumentar la deseabilidad de ese producto. Dialogue: 0,0:20:38.08,0:20:42.24,Default,,0000,0000,0000,,Ahora mismo muchísima gente\Nestamos implicados en crear la innovación Dialogue: 0,0:20:42.24,0:20:46.49,Default,,0000,0000,0000,,responsable del futuro,\Nque creo que es muy necesaria. Dialogue: 0,0:20:47.08,0:20:51.34,Default,,0000,0000,0000,,Y no obstante, se siguen oyendo voces\Nque dicen constantemente Dialogue: 0,0:20:51.34,0:20:57.38,Default,,0000,0000,0000,,que la prevención, ética y regulación\Nvan en contra de la innovación, Dialogue: 0,0:20:57.38,0:21:00.50,Default,,0000,0000,0000,,que no podemos poner límites\Na la capacidad creadora Dialogue: 0,0:21:00.50,0:21:03.48,Default,,0000,0000,0000,,de los hombres ingenieros\Ny sus grandes ideas. Dialogue: 0,0:21:04.80,0:21:06.54,Default,,0000,0000,0000,,Pues lo siento pero no es así. Dialogue: 0,0:21:06.54,0:21:09.16,Default,,0000,0000,0000,,Como humanidad,\Nllevamos toda nuestra historia Dialogue: 0,0:21:09.16,0:21:11.25,Default,,0000,0000,0000,,domesticando a la tecnología. Dialogue: 0,0:21:11.51,0:21:14.76,Default,,0000,0000,0000,,¿Un coche necesita un cinturón\Nde seguridad para circular? Dialogue: 0,0:21:15.50,0:21:16.24,Default,,0000,0000,0000,,No. Dialogue: 0,0:21:17.23,0:21:19.64,Default,,0000,0000,0000,,¿Un coche necesita un límite de velocidad? Dialogue: 0,0:21:19.94,0:21:20.66,Default,,0000,0000,0000,,No. Dialogue: 0,0:21:20.66,0:21:24.47,Default,,0000,0000,0000,,Los coches podrían ir muchísimo más rápido\Nde lo que van por nuestras calles. Dialogue: 0,0:21:25.27,0:21:28.50,Default,,0000,0000,0000,,¿Un coche necesita pasos de cebra,\Nsemáforos, Dialogue: 0,0:21:28.50,0:21:30.52,Default,,0000,0000,0000,,control de emisiones contaminantes? Dialogue: 0,0:21:30.52,0:21:31.26,Default,,0000,0000,0000,,No. Dialogue: 0,0:21:31.54,0:21:35.75,Default,,0000,0000,0000,,Todas estas cosas se las hemos añadido\Nlas sociedad humana, Dialogue: 0,0:21:35.75,0:21:39.38,Default,,0000,0000,0000,,para asegurar que lo que es\Nuna innovación tecnológica deseable, Dialogue: 0,0:21:39.38,0:21:43.52,Default,,0000,0000,0000,,que es un motor, algo que nos lleve\Nde A a B de forma más rápida, Dialogue: 0,0:21:43.52,0:21:46.73,Default,,0000,0000,0000,,sea también deseable\Ndesde la perspectiva social. Dialogue: 0,0:21:47.26,0:21:50.09,Default,,0000,0000,0000,,Hemos limitado las posibilidades\Nde los coches, Dialogue: 0,0:21:50.09,0:21:53.28,Default,,0000,0000,0000,,porque hemos entendido\Nque queremos ir más rápido de A a B, Dialogue: 0,0:21:53.28,0:21:57.71,Default,,0000,0000,0000,,pero no queremos que muera \Ntanta gente en ese proceso. Dialogue: 0,0:21:58.15,0:21:59.47,Default,,0000,0000,0000,,Eso lo hemos hecho siempre. Dialogue: 0,0:21:59.47,0:22:02.10,Default,,0000,0000,0000,,Siempre hemos limitado\Nlas capacidades de la tecnología, Dialogue: 0,0:22:02.10,0:22:04.91,Default,,0000,0000,0000,,porque la tecnología\Nsolo tiene sentido si mejora, Dialogue: 0,0:22:04.91,0:22:08.22,Default,,0000,0000,0000,,si aborda las problemáticas sociales. Dialogue: 0,0:22:08.50,0:22:10.26,Default,,0000,0000,0000,,Y que desde la ingeniería informática Dialogue: 0,0:22:10.26,0:22:15.04,Default,,0000,0000,0000,,se hayan olvidado tantas veces esa lógica\Nes claramente preocupante. Dialogue: 0,0:22:16.79,0:22:18.70,Default,,0000,0000,0000,,Al final lo que hemos hecho con el coche Dialogue: 0,0:22:18.70,0:22:20.76,Default,,0000,0000,0000,,es tener debates\Na lo largo de mucho tiempo, Dialogue: 0,0:22:20.76,0:22:25.54,Default,,0000,0000,0000,,el primero no tenía cinturón de seguridad,\Nni había semáforos, ni pasos de cebra. Dialogue: 0,0:22:25.54,0:22:29.75,Default,,0000,0000,0000,,Pero durante mucho tiempo\Ncreamos esos marcos, como sociedad, Dialogue: 0,0:22:29.75,0:22:33.76,Default,,0000,0000,0000,,esos consensos sociales que nos llevan\Na poder utilizar hoy los vehículos Dialogue: 0,0:22:33.76,0:22:35.24,Default,,0000,0000,0000,,de forma normalizada. Dialogue: 0,0:22:35.56,0:22:38.84,Default,,0000,0000,0000,,Estos son los debates y consensos sociales\Nque deben emerger alrededor Dialogue: 0,0:22:38.84,0:22:41.02,Default,,0000,0000,0000,,de cualquier nueva tecnología. Dialogue: 0,0:22:41.02,0:22:43.45,Default,,0000,0000,0000,,Debemos dilucidar cuando aparece\Nun nuevo algoritmo, Dialogue: 0,0:22:43.45,0:22:46.02,Default,,0000,0000,0000,,una nueva innovación tecnológica,\Nun nuevo invento, Dialogue: 0,0:22:46.02,0:22:48.41,Default,,0000,0000,0000,,debemos decidir entre todos\Ncuáles van a ser Dialogue: 0,0:22:48.41,0:22:51.24,Default,,0000,0000,0000,,los cinturones de seguridad,\Nlos límites de velocidad, Dialogue: 0,0:22:51.24,0:22:54.82,Default,,0000,0000,0000,,los límites de emisiones,\Nlos pasos de cebra y los semáforos Dialogue: 0,0:22:54.82,0:22:56.79,Default,,0000,0000,0000,,de esa nueva innovación. Dialogue: 0,0:22:56.79,0:22:58.93,Default,,0000,0000,0000,,A eso se dedica la ética de la tecnología. Dialogue: 0,0:22:58.93,0:23:02.74,Default,,0000,0000,0000,,Primero a fomentar esos debates,\Npara que entre todos decidamos Dialogue: 0,0:23:02.74,0:23:07.27,Default,,0000,0000,0000,,si es mejor un control humano,\No uno mecánico para cruzar una frontera, Dialogue: 0,0:23:07.65,0:23:10.27,Default,,0000,0000,0000,,para tomar entre todos\Nresponsabilidad de las decisiones Dialogue: 0,0:23:10.27,0:23:14.24,Default,,0000,0000,0000,,que tomamos en relación con la tecnología,\Ny a partir de esa deseabilidad Dialogue: 0,0:23:14.24,0:23:17.94,Default,,0000,0000,0000,,lo que vemos es cómo construir\Nvalores fundamentales, cohesión social, Dialogue: 0,0:23:17.94,0:23:23.24,Default,,0000,0000,0000,,confianza, no discriminación, derechos\Nhumanos en las especificaciones técnicas. Dialogue: 0,0:23:23.24,0:23:25.64,Default,,0000,0000,0000,,Porque no es solo un tema de dar discursos Dialogue: 0,0:23:25.64,0:23:28.90,Default,,0000,0000,0000,,Hay formas a través\Nde las especificaciones técnicas Dialogue: 0,0:23:28.90,0:23:31.58,Default,,0000,0000,0000,,para hacer que las tecnologías\Nrespondan mucho mejor Dialogue: 0,0:23:31.58,0:23:35.06,Default,,0000,0000,0000,,a las expectativas y deseos de la sociedad Dialogue: 0,0:23:35.06,0:23:39.49,Default,,0000,0000,0000,,De la misma forma que hemos podido\Nconstruir coches que maten menos, Dialogue: 0,0:23:39.49,0:23:42.93,Default,,0000,0000,0000,,podemos construir tecnologías\Nque no solo sean menos lesivas Dialogue: 0,0:23:42.93,0:23:47.47,Default,,0000,0000,0000,,sino que contribuyan de forma definitiva\Na mejorar el futuro de nuestras sociedades Dialogue: 0,0:23:47.93,0:23:50.84,Default,,0000,0000,0000,,En definitiva, de lo que se trata\Nla ética de la tecnología Dialogue: 0,0:23:50.84,0:23:53.99,Default,,0000,0000,0000,,es de poner a las personas\Nen el centro del desarrollo tecnológico, Dialogue: 0,0:23:53.99,0:23:56.33,Default,,0000,0000,0000,,y poner la tecnología\Nal servicio de las personas. Dialogue: 0,0:23:56.33,0:24:01.23,Default,,0000,0000,0000,,Y no como estamos ahora muchísimas veces,\Nlas personas al servicio de la tecnologías Dialogue: 0,0:24:01.54,0:24:02.49,Default,,0000,0000,0000,,Gracias. Dialogue: 0,0:24:02.49,0:24:05.24,Default,,0000,0000,0000,,(Aplausos)