Return to Video

El desconocido potencial de los datos abiertos | Fredi Vivas | TEDxRosario

  • 0:18 - 0:20
    Era el fin de 2016.
  • 0:20 - 0:23
    No sé qué estaban haciendo Uds.,
    pero yo estaba pendiente de esto.
  • 0:23 - 0:26
    Este peliculón, si no lo vieron,
    Dr. Strange, mírenla.
  • 0:26 - 0:28
    Pero la realidad es que
    la mayoría de la gente en el mundo
  • 0:28 - 0:30
    estaba pendiente de lo que pasaba
    en EE.UU.
  • 0:31 - 0:33
    EE.UU. estaba viviendo
    un proceso de elecciones,
  • 0:33 - 0:39
    y lo que pasaba antes de eso
    era que se veían estos números:
  • 0:39 - 0:43
    El 71 % para Hilary Clinton
    por sobre Donald Trump.
  • 0:43 - 0:45
    Parecía que ganaba pero, en realidad,
  • 0:45 - 0:46
    terminó pasando esto.
  • 0:46 - 0:48
    Todos sabemos la historia, ganó Trump.
  • 0:48 - 0:51
    Pero, la vida siguió;
    era abril de este año
  • 0:52 - 0:55
    y yo estaba pendiente
    de una noticia que pasaba.
  • 0:55 - 0:58
    La NASA estaba trabajando
    en este proyecto bastante raro,
  • 0:58 - 1:01
    un avión que atraviese
    la barrera del sonido sin hacer ruido.
  • 1:01 - 1:03
    Bueno, y de repente me dicen:
  • 1:03 - 1:07
    "Sabes que Mark Zuckerberg
    está siendo llamado al Senado a declarar,
  • 1:07 - 1:10
    aparentemente hubo filtración de datos,
  • 1:10 - 1:13
    y eso favoreció a Trump
    para que fuera presidente.
  • 1:13 - 1:16
    Bueno, parecía raro,
    pero esto estaba pasando.
  • 1:18 - 1:21
    Este personaje de Star Trek
    se llama Data, no sé si...
  • 1:23 - 1:27
    Facebook es una empresa gigante,
    y el poder que tiene sobre los datos,
  • 1:27 - 1:29
    sobre nuestro comportamiento,
    es increíblemente grande.
  • 1:29 - 1:34
    Puso encima de un debate
    sobre la privacidad de la información
  • 1:34 - 1:38
    en todas las mesas de Mirtha Legrand
    del mundo se hablaba de esto;
  • 1:39 - 1:41
    la primera vez que pasaba una cosa así.
  • 1:41 - 1:44
    Entonces la gente empezó a pensar:
    "¿Qué pasó con esto, qué hicieron?"
  • 1:44 - 1:48
    Bueno, los psicólogos dicen
    que la personalidad es una mezcla
  • 1:48 - 1:52
    entre lo que pensamos, lo que sentimos
    y lo que hacemos.
  • 1:52 - 1:56
    Y con cada clic que damos en Facebook
    ellos nos conocen más y más.
  • 1:57 - 2:01
    Pero es ilegal que nos envíen anuncios
    en función a esa personalidad.
  • 2:01 - 2:05
    Lo que aún no es ilegal es que
    nos envíen anuncios
  • 2:05 - 2:07
    en función a nuestros intereses.
  • 2:07 - 2:10
    Por ejemplo, si le damos "me gusta"
    a una película, o seguimos un artista.
  • 2:11 - 2:15
    Entonces, imagínense si hubiera
    otra forma de generar esos avisos.
  • 2:15 - 2:18
    Hay una empresa
    que se llama Cambridge Analytica,
  • 2:18 - 2:20
    que es especializada en análisis de datos
  • 2:20 - 2:23
    para campañas políticas,
    que lo que hicieron fue
  • 2:23 - 2:26
    crear un algoritmo
    que cree una personalidad
  • 2:26 - 2:28
    basada en los datos de Facebook.
  • 2:28 - 2:31
    Y parece que esto, según los expertos,
    funciona muy bien.
  • 2:31 - 2:34
    De hecho, con 10 "me gusta"
    que uno da en Facebook,
  • 2:34 - 2:37
    Facebook nos conoce mejor que
    nuestros compañeros de trabajo,
  • 2:38 - 2:41
    Con 150 nos conoce mejor
    que nuestros padres,
  • 2:41 - 2:44
    y con 300 mejor que nuestra pareja.
  • 2:44 - 2:47
    Ahora, Facebook tomó realmente
    una muy mala decisión
  • 2:47 - 2:50
    con la forma en que manejaron
    nuestros datos,
  • 2:50 - 2:52
    porque lo que hicieron fue,
    de alguna manera,
  • 2:52 - 2:56
    utilizarlos para un fin que
    no estábamos planeando, ¿no?
  • 2:56 - 2:59
    Nos imaginábamos algunos usos posibles,
  • 2:59 - 3:02
    pero, creo que no nos imaginábamos
    lo que terminó pasando.
  • 3:03 - 3:05
    Entonces, nos da un poco de miedo,
  • 3:05 - 3:08
    porque usaron nuestras emociones
    más íntimas,
  • 3:08 - 3:12
    para generar un provecho que no era
    el que se suponía que podía pasar.
  • 3:13 - 3:16
    Y con todo esto,
    para dar un caso práctico,
  • 3:17 - 3:22
    Donald Trump utilizó fuertemente
    en su campaña el apoyo a las armas, ¿no?
  • 3:22 - 3:23
    a la portación de armas.
  • 3:23 - 3:26
    Entonces, imagínense que con esta prueba
    que hicieron, que se llama
  • 3:26 - 3:30
    "La prueba de los 5 grandes",
    basada en la psicología,
  • 3:30 - 3:33
    determinen algunos rasgos que dicen,
    por ejemplo, que si somos
  • 3:33 - 3:38
    amigos del cambio, si somos extrovertidos,
    si somos tímidos, si somos amables,
  • 3:38 - 3:40
    si somos de enojarnos fácilmente.
  • 3:40 - 3:43
    Con estas pruebas de "los 5 grandes"
    que le llaman
  • 3:43 - 3:47
    crearon publicidades, crearon anuncios
    que nos envían en forma dirigida
  • 3:47 - 3:48
    a nosotros.
  • 3:48 - 3:51
    Entonces, por ejemplo,
    sí tenemos una personalidad
  • 3:51 - 3:52
    abierta al cambio,
  • 3:52 - 3:56
    y por ejemplo, podemos sentir
    que nos pueden atacar desde afuera
  • 3:56 - 4:00
    pueden generar este tipo de anuncios,
    no tan obvios como este,
  • 4:00 - 4:03
    pero sí que, inconscientemente,
    nos trabajaran la cabeza.
  • 4:03 - 4:07
    Otro, por ejemplo, este anuncio
    si sos una personalidad protectora
  • 4:07 - 4:10
    y tenés miedo a que le pueda pasar
    algo a tu familia y al futuro,
  • 4:10 - 4:12
    una publicidad como esta otra.
  • 4:13 - 4:17
    Ahora, en esa época
    había como dos grupos, ¿no?
  • 4:17 - 4:21
    O sea, había un grupo que decía,
    bueno, yo le di a Facebook,
  • 4:22 - 4:26
    le di a Facebook todo lo que soy,
    le di mi intimidad más preciada, ¿no?
  • 4:26 - 4:30
    le conté todo lo que hacía,
    y las cosas más importantes.
  • 4:31 - 4:33
    Y otro grupo que estaba
    del otro lado, y decía:
  • 4:33 - 4:35
    "Yo, bueno, era obvio
    que iba a pasar esto,
  • 4:35 - 4:39
    Facebook es el Gran Hermano, Skynet,
    y tienen toda la data, y bueno.
  • 4:39 - 4:42
    Creo que hay un punto medio
    entre esas dos cosas.
  • 4:42 - 4:45
    Si puede ser que era obvio
    que había muchos datos que tenían
  • 4:45 - 4:48
    y había unos usos comerciales
    que se esperaban;
  • 4:48 - 4:51
    pero no era obvio que se usara
    para lo que se terminó usando.
  • 4:52 - 4:56
    Ahora, con todo esto, ¿podemos decir
    que los datos ganaron una elección?
  • 4:56 - 4:59
    Bueno, Cambridge Analytica dice que sí,
  • 4:59 - 5:02
    pero a ciencia cierta no sabemos
    quién voto a quién
  • 5:02 - 5:05
    en función a los anuncios que vio.
  • 5:05 - 5:09
    Lo que si estamos seguros es que
    esta campaña fue poco transparente
  • 5:09 - 5:12
    y que nos hizo replantearnos
    las cosas que publicamos
  • 5:12 - 5:13
    en las redes sociales.
  • 5:13 - 5:15
    Seguramente a Uds. también les pasó.
  • 5:16 - 5:18
    Cuando hablamos de datos
    les tengo que decir que
  • 5:18 - 5:21
    no siempre los datos que usamos
    y los que compartimos
  • 5:21 - 5:22
    está mal hacerlo, ¿no?
  • 5:22 - 5:26
    Por ejemplo, este caso, en Londres
    se viene trabajando hace muchos años
  • 5:26 - 5:28
    con la apertura de datos,
    generar datos abiertos
  • 5:28 - 5:31
    para que miles de personas hagan casos;
  • 5:31 - 5:33
    casos como este, que les voy a contar,
  • 5:33 - 5:36
    donde el Gobierno, bueno,
    cuando llega tarde un tren
  • 5:36 - 5:37
    que no debe pasar muy seguido,
  • 5:37 - 5:40
    le devuelve el valor del boleto
    a las personas.
  • 5:40 - 5:42
    Nadie reclamaba, la plata quedaba ahí
  • 5:42 - 5:45
    y hubo un emprendedor, que
    se le prendió la lamparita, y dijo:
  • 5:45 - 5:47
    "¿Por qué no hacemos algo con esto?"
  • 5:47 - 5:49
    El tipo agarró y creó una plataforma
  • 5:49 - 5:52
    donde los usuarios se registran
    con sus datos de la tarjeta,
  • 5:53 - 5:55
    la SUBE de Londres, digamos.
  • 5:56 - 5:58
    Cargan sus datos,
    y cuando el tren llega tarde,
  • 5:58 - 6:02
    y ellos tienen el registro de la hora
    que debería haber llegado,
  • 6:02 - 6:04
    lo comparan con la hora
    que se subió esa persona,
  • 6:04 - 6:07
    y si hay una devolución,
    se la envían directamente.
  • 6:07 - 6:09
    O sea, que cobrás solamente
    porque llegó tarde el tren.
  • 6:10 - 6:13
    De esta forma, el emprendedor
    hizo unas libras, ¿no?
  • 6:13 - 6:15
    Se quedó con unos billetes en la mano,
  • 6:15 - 6:18
    porque se puede hacer plata
    y hacer el bien al mismo tiempo
  • 6:18 - 6:19
    por supuesto.
  • 6:19 - 6:23
    El tren está feliz porque
    está auditado por este sistema,
  • 6:23 - 6:25
    o sea, funciona cada vez mejor
  • 6:25 - 6:28
    gracias a que la gente
    hace este tipo de controles.
  • 6:28 - 6:31
    Y las personas que los usan están felices,
  • 6:31 - 6:34
    se benefician con el dinero
    del boleto reintegrado
  • 6:34 - 6:36
    y encima, con un servicio cada vez mejor.
  • 6:37 - 6:40
    Ahora, no hace falta ser
    un capo emprendedor
  • 6:40 - 6:41
    como este muchacho.
  • 6:41 - 6:45
    No hace falta querer ser presidente
    o ser dueño de una corporación
  • 6:46 - 6:48
    para usar datos y para tomar decisiones.
  • 6:49 - 6:50
    A mí me pasó un montón de veces, ¿no?
  • 6:50 - 6:53
    Por ejemplo, a los 12 años
    estaba viendo esta película,
  • 6:53 - 6:55
    no sé si la vieron,
    "Juegos de Guerra".
  • 6:55 - 6:56
    Uds. son muy jóvenes todos.
  • 6:56 - 6:59
    "Juegos de Guerra" era un chico
    que estaba en la casa
  • 6:59 - 7:00
    y le había ido mal en una materia,
  • 7:00 - 7:03
    se metió a hackear con esa tecnología
  • 7:04 - 7:06
    y terminó metiéndose en el pentágono, ¿no?
  • 7:06 - 7:08
    Yo estaba viendo esa película
    a los 12 años;
  • 7:08 - 7:10
    a esa edad también bailaba folclore.
  • 7:11 - 7:14
    Les tengo que confesar,
    no le cuenten a nadie
  • 7:14 - 7:16
    pero aparentemente
    no era muy bueno bailando, ¿no?
  • 7:17 - 7:19
    y un día estaba en mi casa,
    viendo la película
  • 7:19 - 7:20
    y viene mi vieja y me dice:
  • 7:20 - 7:23
    "Fredi, mira, yo te quiero mucho,
    te quiero decir algo,
  • 7:24 - 7:26
    pero no sos bueno bailando folclore.
  • 7:26 - 7:31
    Y lo bueno es que esos ARS 100
    que usamos en esas clases
  • 7:31 - 7:33
    te las podemos dar
    para que hagas lo que quieras".
  • 7:33 - 7:36
    Bueno, yo dije,
    primero me sequé las lágrimas,
  • 7:36 - 7:39
    me recompuse, y dije:
  • 7:39 - 7:44
    "Bueno, me gusta mucho la computación,
    quiero ser un hacker como este muchacho,
  • 7:45 - 7:46
    quiero ser como él".
  • 7:46 - 7:48
    Me metí a los institutos de computación,
  • 7:48 - 7:53
    y ahí aprendí este apasionante e increíble
    mundo de la tecnología de los 90, ¿no?
  • 7:55 - 7:58
    Yo me volvía loco con esto,
    pasaba horas jugando.
  • 7:59 - 8:02
    Y después de eso me dediqué
    toda la vida a la tecnología,
  • 8:03 - 8:05
    a aprender, a enseñar
    a trabajar con la tecnología.
  • 8:06 - 8:07
    Y desde ese momento lo hago.
  • 8:07 - 8:11
    También intento buscar la manera
    de usar la tecnología
  • 8:11 - 8:13
    con un uso diferente,
    hackearla digamos, ¿no?
  • 8:13 - 8:16
    Tradicionalmente uno piensa
    que algo se crea para una cosa,
  • 8:16 - 8:18
    pero se puede dar un uso distinto.
  • 8:18 - 8:20
    Y una vez estaba
    en una actividad de voluntariado,
  • 8:20 - 8:23
    no sé si algunos habrán hecho,
    están buenísimos.
  • 8:23 - 8:27
    estábamos pintando un colegio,
    y estaba con dos compañeros de trabajo,
  • 8:27 - 8:29
    un físico, un ingeniero, dos cracks,
  • 8:29 - 8:30
    un talento terrible.
  • 8:31 - 8:34
    Estaban pintando una reja,
    y lo hacía terriblemente mal, ¿no?
  • 8:34 - 8:37
    No sabían pintar,
    la pintaban dos veces igual,
  • 8:37 - 8:38
    se peleaban por los colores.
  • 8:38 - 8:40
    Le ponían onda, pero eran malísimos.
  • 8:40 - 8:41
    Entonces, yo pensé:
  • 8:42 - 8:46
    "Por qué le damos todo nuestro talento
    a las empresas a las que trabajamos,
  • 8:46 - 8:48
    y cuando le estamos dando
    algo a la sociedad,
  • 8:48 - 8:50
    le damos lo que peor hacemos.
  • 8:50 - 8:53
    Y con esa reflexión, profunda, ¿no?
  • 8:54 - 8:56
    hicimos uno de los proyectos este año,
  • 8:56 - 8:59
    apalancados en esta iniciativa global
    que se llama Data for Good.
  • 8:59 - 9:04
    Data for Good es una iniciativa
    que busca usar ciencia y datos,
  • 9:04 - 9:08
    el poder de los datos, para impactar
    positivamente las vidas de las personas.
  • 9:08 - 9:11
    Hicimos un proyecto que impactó
    más de 3 millones de personas,
  • 9:11 - 9:15
    porque en todo el país
    hay unos 240 000 barrios populares
  • 9:15 - 9:17
    que son los barrios donde vive gente
  • 9:17 - 9:21
    que no tienen un certificado que
    habilita ese domicilio como válido.
  • 9:21 - 9:25
    Entonces, no pueden pedir un servicio,
    o no pueden anotar sus hijos al colegio.
  • 9:25 - 9:27
    Eso pasa en todo el país.
  • 9:27 - 9:31
    Hay un montón de organizaciones
    trabajando hace dos años más o menos,
  • 9:31 - 9:35
    se tardaron casi dos años en relevar
    casa por casa
  • 9:35 - 9:37
    en toda la geografía vasta
    que tiene nuestro país.
  • 9:38 - 9:42
    E hicieron un relevamiento increíble
    para poder hacer puntos de entrega
  • 9:42 - 9:43
    de estos certificados.
  • 9:43 - 9:45
    Para que se junte la gente
    con el certificado
  • 9:45 - 9:48
    y que puedan tener ese domicilio válido.
  • 9:48 - 9:51
    Eso es bastante complejo, ¿no?
    porque el país es muy grande.
  • 9:51 - 9:54
    Entonces, nos pidieron
    cómo podemos mejorar el proceso de eso.
  • 9:54 - 9:57
    Creamos un algoritmo
    usando técnicas de ciencia de datos
  • 9:58 - 10:02
    para optimizar esos puntos de entrega,
    que en cada barrio se haga uno,
  • 10:02 - 10:05
    y que las familias tengan
    que caminar lo menos posible
  • 10:06 - 10:10
    Esta es la primera familia que obtuvo
    el certificado de vivienda en Bariloche,
  • 10:10 - 10:13
    el primero de país:
    con eso pudo conectar la luz en su casa.
  • 10:16 - 10:17
    Gracias.
  • 10:17 - 10:20
    (Aplausos)
  • 10:24 - 10:29
    Con esto buscamos
    que estas organizaciones argentinas
  • 10:29 - 10:33
    tengan el mismo poder de decisión
    que tienen,
  • 10:33 - 10:36
    gracias a las herramientas
    de análisis de datos,
  • 10:36 - 10:39
    que tienen las empresas de Silicon Valley,
    es realmente el mismo.
  • 10:39 - 10:42
    Para que puedan hacer mejor
    lo que hacen mejor.
  • 10:43 - 10:46
    Nosotros visualizamos un futuro
    donde estas organizaciones,
  • 10:46 - 10:48
    que enfrentan estos problemas,
  • 10:48 - 10:51
    tengan el mismo nivel de acceso
    al análisis avanzado de datos
  • 10:51 - 10:53
    que tienen las grandes corporaciones.
  • 10:54 - 10:58
    Los datos, la tecnología,
    la información está ahí para la usemos.
  • 10:59 - 11:02
    Cualquiera de Uds.
    puede cambiar su vida,
  • 11:02 - 11:04
    pueden emprender
    y hacer un cambio en la realidad,
  • 11:04 - 11:07
    y las grandes corporaciones
    pueden cambiar el mundo.
  • 11:07 - 11:09
    ¿Uds. que van a hacer
    con los datos que tienen,
  • 11:09 - 11:11
    que decisiones van a tomar?
  • 11:11 - 11:12
    Muchas gracias.
  • 11:12 - 11:16
    (Aplausos)
Title:
El desconocido potencial de los datos abiertos | Fredi Vivas | TEDxRosario
Description:

Esta charla es de un evento TEDx, organizado de manera independiente de las conferencias TED. Más información en: http://ted.com/tedx

Desde Cambridge Analytica, pasando por el sistema de transporte público de Londres, hasta una iniciativa local para agilizar la burocracia, Fredi nos ilumina sobre el potencial -tanto bueno como malo- de los datos abiertos, y nos incita a amigarnos con la transparencia digital, con el fin de cambiar el mundo que nos rodea… para bien. Ingeniero en Sistemas de Información, especializado en Big Data. Profesor en Disciplinas Industriales y Alumni del Global Solutions Program de Singularity University (NASA+Google) en Silicon Valley.

A los 10 años leyendo la revista “Muy Interesante” se enganchó con la Ciencia y la Tecnología. Aunque nunca fue lo que se considera un genio de las Ciencias Exactas, encontró en la Informática una herramienta para superarse y conseguir impacto positivo en la sociedad.

Disfruta tanto de enseñar como de tocar la batería y escuchar música.

Actualmente es profesor en Universidades y CEO de RockingData, una startup dedicada a brindar servicios de Data Science y Big Data.

more » « less
Video Language:
Spanish
Team:
closed TED
Project:
TEDxTalks
Duration:
11:30

Spanish subtitles

Revisions