1 00:00:17,714 --> 00:00:19,548 Era el fin de 2016. 2 00:00:19,718 --> 00:00:22,534 No sé qué estaban haciendo Uds., pero yo estaba pendiente de esto. 3 00:00:22,534 --> 00:00:25,611 Este peliculón, si no lo vieron, Dr. Strange, mírenla. 4 00:00:25,972 --> 00:00:27,983 Pero la realidad es que la mayoría de la gente en el mundo 5 00:00:27,983 --> 00:00:30,197 estaba pendiente de lo que pasaba en EE.UU. 6 00:00:30,694 --> 00:00:33,299 EE.UU. estaba viviendo un proceso de elecciones, 7 00:00:33,395 --> 00:00:39,352 y lo que pasaba antes de eso era que se veían estos números: 8 00:00:39,411 --> 00:00:42,913 El 71 % para Hilary Clinton por sobre Donald Trump. 9 00:00:42,913 --> 00:00:44,686 Parecía que ganaba pero, en realidad, 10 00:00:44,686 --> 00:00:46,027 terminó pasando esto. 11 00:00:46,306 --> 00:00:48,183 Todos sabemos la historia, ganó Trump. 12 00:00:48,183 --> 00:00:51,097 Pero, la vida siguió; era abril de este año 13 00:00:51,539 --> 00:00:54,570 y yo estaba pendiente de una noticia que pasaba. 14 00:00:55,009 --> 00:00:57,619 La NASA estaba trabajando en este proyecto bastante raro, 15 00:00:57,619 --> 00:01:00,676 un avión que atraviese la barrera del sonido sin hacer ruido. 16 00:01:01,215 --> 00:01:02,807 Bueno, y de repente me dicen: 17 00:01:02,807 --> 00:01:06,781 "Sabes que Mark Zuckerberg está siendo llamado al Senado a declarar, 18 00:01:06,781 --> 00:01:09,809 aparentemente hubo filtración de datos, 19 00:01:09,832 --> 00:01:13,184 y eso favoreció a Trump para que fuera presidente. 20 00:01:13,384 --> 00:01:16,278 Bueno, parecía raro, pero esto estaba pasando. 21 00:01:17,899 --> 00:01:20,756 Este personaje de Star Trek se llama Data, no sé si... 22 00:01:23,005 --> 00:01:26,692 Facebook es una empresa gigante, y el poder que tiene sobre los datos, 23 00:01:26,728 --> 00:01:29,320 sobre nuestro comportamiento, es increíblemente grande. 24 00:01:29,320 --> 00:01:34,257 Puso encima de un debate sobre la privacidad de la información 25 00:01:34,341 --> 00:01:37,537 en todas las mesas de Mirtha Legrand del mundo se hablaba de esto; 26 00:01:39,058 --> 00:01:40,955 la primera vez que pasaba una cosa así. 27 00:01:40,966 --> 00:01:44,465 Entonces la gente empezó a pensar: "¿Qué pasó con esto, qué hicieron?" 28 00:01:44,465 --> 00:01:48,308 Bueno, los psicólogos dicen que la personalidad es una mezcla 29 00:01:48,308 --> 00:01:51,907 entre lo que pensamos, lo que sentimos y lo que hacemos. 30 00:01:51,907 --> 00:01:56,307 Y con cada clic que damos en Facebook ellos nos conocen más y más. 31 00:01:56,646 --> 00:02:00,726 Pero es ilegal que nos envíen anuncios en función a esa personalidad. 32 00:02:01,066 --> 00:02:04,662 Lo que aún no es ilegal es que nos envíen anuncios 33 00:02:04,662 --> 00:02:06,607 en función a nuestros intereses. 34 00:02:06,690 --> 00:02:10,380 Por ejemplo, si le damos "me gusta" a una película, o seguimos un artista. 35 00:02:11,068 --> 00:02:14,977 Entonces, imagínense si hubiera otra forma de generar esos avisos. 36 00:02:15,316 --> 00:02:17,676 Hay una empresa que se llama Cambridge Analytica, 37 00:02:17,692 --> 00:02:20,289 que es especializada en análisis de datos 38 00:02:20,289 --> 00:02:22,897 para campañas políticas, que lo que hicieron fue 39 00:02:22,897 --> 00:02:25,902 crear un algoritmo que cree una personalidad 40 00:02:25,902 --> 00:02:27,762 basada en los datos de Facebook. 41 00:02:28,055 --> 00:02:31,352 Y parece que esto, según los expertos, funciona muy bien. 42 00:02:31,352 --> 00:02:34,183 De hecho, con 10 "me gusta" que uno da en Facebook, 43 00:02:34,236 --> 00:02:37,347 Facebook nos conoce mejor que nuestros compañeros de trabajo, 44 00:02:37,747 --> 00:02:40,793 Con 150 nos conoce mejor que nuestros padres, 45 00:02:40,816 --> 00:02:43,517 y con 300 mejor que nuestra pareja. 46 00:02:43,721 --> 00:02:47,472 Ahora, Facebook tomó realmente una muy mala decisión 47 00:02:47,472 --> 00:02:49,883 con la forma en que manejaron nuestros datos, 48 00:02:49,883 --> 00:02:52,494 porque lo que hicieron fue, de alguna manera, 49 00:02:52,494 --> 00:02:55,942 utilizarlos para un fin que no estábamos planeando, ¿no? 50 00:02:55,942 --> 00:02:59,459 Nos imaginábamos algunos usos posibles, 51 00:02:59,459 --> 00:03:02,348 pero, creo que no nos imaginábamos lo que terminó pasando. 52 00:03:02,801 --> 00:03:05,051 Entonces, nos da un poco de miedo, 53 00:03:05,051 --> 00:03:07,553 porque usaron nuestras emociones más íntimas, 54 00:03:07,553 --> 00:03:12,303 para generar un provecho que no era el que se suponía que podía pasar. 55 00:03:12,780 --> 00:03:16,244 Y con todo esto, para dar un caso práctico, 56 00:03:16,771 --> 00:03:21,769 Donald Trump utilizó fuertemente en su campaña el apoyo a las armas, ¿no? 57 00:03:21,769 --> 00:03:22,942 a la portación de armas. 58 00:03:22,942 --> 00:03:26,155 Entonces, imagínense que con esta prueba que hicieron, que se llama 59 00:03:26,155 --> 00:03:30,029 "La prueba de los 5 grandes", basada en la psicología, 60 00:03:30,075 --> 00:03:33,002 determinen algunos rasgos que dicen, por ejemplo, que si somos 61 00:03:33,002 --> 00:03:37,586 amigos del cambio, si somos extrovertidos, si somos tímidos, si somos amables, 62 00:03:37,596 --> 00:03:39,698 si somos de enojarnos fácilmente. 63 00:03:39,698 --> 00:03:43,071 Con estas pruebas de "los 5 grandes" que le llaman 64 00:03:43,071 --> 00:03:47,038 crearon publicidades, crearon anuncios que nos envían en forma dirigida 65 00:03:47,038 --> 00:03:48,005 a nosotros. 66 00:03:48,063 --> 00:03:50,671 Entonces, por ejemplo, sí tenemos una personalidad 67 00:03:50,671 --> 00:03:52,006 abierta al cambio, 68 00:03:52,006 --> 00:03:56,418 y por ejemplo, podemos sentir que nos pueden atacar desde afuera 69 00:03:56,418 --> 00:03:59,623 pueden generar este tipo de anuncios, no tan obvios como este, 70 00:03:59,623 --> 00:04:02,918 pero sí que, inconscientemente, nos trabajaran la cabeza. 71 00:04:02,918 --> 00:04:06,816 Otro, por ejemplo, este anuncio si sos una personalidad protectora 72 00:04:06,816 --> 00:04:10,083 y tenés miedo a que le pueda pasar algo a tu familia y al futuro, 73 00:04:10,083 --> 00:04:11,807 una publicidad como esta otra. 74 00:04:13,101 --> 00:04:17,301 Ahora, en esa época había como dos grupos, ¿no? 75 00:04:17,310 --> 00:04:21,399 O sea, había un grupo que decía, bueno, yo le di a Facebook, 76 00:04:21,570 --> 00:04:26,191 le di a Facebook todo lo que soy, le di mi intimidad más preciada, ¿no? 77 00:04:26,191 --> 00:04:29,721 le conté todo lo que hacía, y las cosas más importantes. 78 00:04:30,626 --> 00:04:32,841 Y otro grupo que estaba del otro lado, y decía: 79 00:04:32,841 --> 00:04:35,483 "Yo, bueno, era obvio que iba a pasar esto, 80 00:04:35,483 --> 00:04:38,898 Facebook es el Gran Hermano, Skynet, y tienen toda la data, y bueno. 81 00:04:38,898 --> 00:04:41,663 Creo que hay un punto medio entre esas dos cosas. 82 00:04:41,769 --> 00:04:44,891 Si puede ser que era obvio que había muchos datos que tenían 83 00:04:44,960 --> 00:04:48,060 y había unos usos comerciales que se esperaban; 84 00:04:48,070 --> 00:04:50,890 pero no era obvio que se usara para lo que se terminó usando. 85 00:04:51,521 --> 00:04:56,258 Ahora, con todo esto, ¿podemos decir que los datos ganaron una elección? 86 00:04:56,258 --> 00:04:58,686 Bueno, Cambridge Analytica dice que sí, 87 00:04:58,686 --> 00:05:02,184 pero a ciencia cierta no sabemos quién voto a quién 88 00:05:02,184 --> 00:05:04,578 en función a los anuncios que vio. 89 00:05:04,871 --> 00:05:08,938 Lo que si estamos seguros es que esta campaña fue poco transparente 90 00:05:08,938 --> 00:05:11,693 y que nos hizo replantearnos las cosas que publicamos 91 00:05:11,693 --> 00:05:12,984 en las redes sociales. 92 00:05:13,004 --> 00:05:14,918 Seguramente a Uds. también les pasó. 93 00:05:15,603 --> 00:05:18,061 Cuando hablamos de datos les tengo que decir que 94 00:05:18,061 --> 00:05:21,088 no siempre los datos que usamos y los que compartimos 95 00:05:21,166 --> 00:05:22,470 está mal hacerlo, ¿no? 96 00:05:22,470 --> 00:05:25,895 Por ejemplo, este caso, en Londres se viene trabajando hace muchos años 97 00:05:25,895 --> 00:05:28,454 con la apertura de datos, generar datos abiertos 98 00:05:28,454 --> 00:05:30,575 para que miles de personas hagan casos; 99 00:05:30,575 --> 00:05:32,650 casos como este, que les voy a contar, 100 00:05:32,650 --> 00:05:35,796 donde el Gobierno, bueno, cuando llega tarde un tren 101 00:05:35,796 --> 00:05:37,494 que no debe pasar muy seguido, 102 00:05:37,494 --> 00:05:40,200 le devuelve el valor del boleto a las personas. 103 00:05:40,200 --> 00:05:42,402 Nadie reclamaba, la plata quedaba ahí 104 00:05:42,402 --> 00:05:45,453 y hubo un emprendedor, que se le prendió la lamparita, y dijo: 105 00:05:45,453 --> 00:05:47,272 "¿Por qué no hacemos algo con esto?" 106 00:05:47,272 --> 00:05:49,276 El tipo agarró y creó una plataforma 107 00:05:49,438 --> 00:05:52,463 donde los usuarios se registran con sus datos de la tarjeta, 108 00:05:52,821 --> 00:05:54,702 la SUBE de Londres, digamos. 109 00:05:55,540 --> 00:05:58,095 Cargan sus datos, y cuando el tren llega tarde, 110 00:05:58,095 --> 00:06:01,535 y ellos tienen el registro de la hora que debería haber llegado, 111 00:06:01,535 --> 00:06:03,988 lo comparan con la hora que se subió esa persona, 112 00:06:03,988 --> 00:06:06,583 y si hay una devolución, se la envían directamente. 113 00:06:06,583 --> 00:06:09,442 O sea, que cobrás solamente porque llegó tarde el tren. 114 00:06:10,232 --> 00:06:13,310 De esta forma, el emprendedor hizo unas libras, ¿no? 115 00:06:13,310 --> 00:06:15,198 Se quedó con unos billetes en la mano, 116 00:06:15,198 --> 00:06:18,158 porque se puede hacer plata y hacer el bien al mismo tiempo 117 00:06:18,158 --> 00:06:19,089 por supuesto. 118 00:06:19,343 --> 00:06:23,485 El tren está feliz porque está auditado por este sistema, 119 00:06:23,485 --> 00:06:25,080 o sea, funciona cada vez mejor 120 00:06:25,080 --> 00:06:27,780 gracias a que la gente hace este tipo de controles. 121 00:06:28,393 --> 00:06:30,602 Y las personas que los usan están felices, 122 00:06:30,602 --> 00:06:33,526 se benefician con el dinero del boleto reintegrado 123 00:06:33,526 --> 00:06:35,572 y encima, con un servicio cada vez mejor. 124 00:06:36,577 --> 00:06:39,651 Ahora, no hace falta ser un capo emprendedor 125 00:06:39,651 --> 00:06:40,764 como este muchacho. 126 00:06:40,764 --> 00:06:45,055 No hace falta querer ser presidente o ser dueño de una corporación 127 00:06:45,621 --> 00:06:48,415 para usar datos y para tomar decisiones. 128 00:06:48,589 --> 00:06:50,446 A mí me pasó un montón de veces, ¿no? 129 00:06:50,446 --> 00:06:53,020 Por ejemplo, a los 12 años estaba viendo esta película, 130 00:06:53,020 --> 00:06:54,719 no sé si la vieron, "Juegos de Guerra". 131 00:06:54,719 --> 00:06:56,347 Uds. son muy jóvenes todos. 132 00:06:56,347 --> 00:06:58,583 "Juegos de Guerra" era un chico que estaba en la casa 133 00:06:58,583 --> 00:07:00,432 y le había ido mal en una materia, 134 00:07:00,432 --> 00:07:02,980 se metió a hackear con esa tecnología 135 00:07:04,184 --> 00:07:06,477 y terminó metiéndose en el pentágono, ¿no? 136 00:07:06,477 --> 00:07:08,114 Yo estaba viendo esa película a los 12 años; 137 00:07:08,114 --> 00:07:09,930 a esa edad también bailaba folclore. 138 00:07:11,215 --> 00:07:13,580 Les tengo que confesar, no le cuenten a nadie 139 00:07:13,676 --> 00:07:16,300 pero aparentemente no era muy bueno bailando, ¿no? 140 00:07:17,119 --> 00:07:19,130 y un día estaba en mi casa, viendo la película 141 00:07:19,130 --> 00:07:20,247 y viene mi vieja y me dice: 142 00:07:20,247 --> 00:07:23,283 "Fredi, mira, yo te quiero mucho, te quiero decir algo, 143 00:07:23,967 --> 00:07:26,239 pero no sos bueno bailando folclore. 144 00:07:26,239 --> 00:07:31,377 Y lo bueno es que esos ARS 100 que usamos en esas clases 145 00:07:31,377 --> 00:07:33,358 te las podemos dar para que hagas lo que quieras". 146 00:07:33,358 --> 00:07:36,345 Bueno, yo dije, primero me sequé las lágrimas, 147 00:07:36,423 --> 00:07:39,454 me recompuse, y dije: 148 00:07:39,454 --> 00:07:43,605 "Bueno, me gusta mucho la computación, quiero ser un hacker como este muchacho, 149 00:07:44,630 --> 00:07:45,670 quiero ser como él". 150 00:07:45,670 --> 00:07:48,059 Me metí a los institutos de computación, 151 00:07:48,059 --> 00:07:53,040 y ahí aprendí este apasionante e increíble mundo de la tecnología de los 90, ¿no? 152 00:07:55,370 --> 00:07:58,181 Yo me volvía loco con esto, pasaba horas jugando. 153 00:07:58,750 --> 00:08:01,823 Y después de eso me dediqué toda la vida a la tecnología, 154 00:08:02,835 --> 00:08:05,232 a aprender, a enseñar a trabajar con la tecnología. 155 00:08:05,758 --> 00:08:07,377 Y desde ese momento lo hago. 156 00:08:07,377 --> 00:08:10,984 También intento buscar la manera de usar la tecnología 157 00:08:10,984 --> 00:08:13,248 con un uso diferente, hackearla digamos, ¿no? 158 00:08:13,397 --> 00:08:16,060 Tradicionalmente uno piensa que algo se crea para una cosa, 159 00:08:16,060 --> 00:08:18,150 pero se puede dar un uso distinto. 160 00:08:18,150 --> 00:08:20,451 Y una vez estaba en una actividad de voluntariado, 161 00:08:20,461 --> 00:08:23,487 no sé si algunos habrán hecho, están buenísimos. 162 00:08:23,487 --> 00:08:27,039 estábamos pintando un colegio, y estaba con dos compañeros de trabajo, 163 00:08:27,049 --> 00:08:29,256 un físico, un ingeniero, dos cracks, 164 00:08:29,256 --> 00:08:30,384 un talento terrible. 165 00:08:30,646 --> 00:08:33,966 Estaban pintando una reja, y lo hacía terriblemente mal, ¿no? 166 00:08:34,446 --> 00:08:36,590 No sabían pintar, la pintaban dos veces igual, 167 00:08:36,620 --> 00:08:38,028 se peleaban por los colores. 168 00:08:38,028 --> 00:08:39,804 Le ponían onda, pero eran malísimos. 169 00:08:39,804 --> 00:08:40,852 Entonces, yo pensé: 170 00:08:41,761 --> 00:08:45,557 "Por qué le damos todo nuestro talento a las empresas a las que trabajamos, 171 00:08:45,557 --> 00:08:47,717 y cuando le estamos dando algo a la sociedad, 172 00:08:47,717 --> 00:08:49,527 le damos lo que peor hacemos. 173 00:08:50,057 --> 00:08:52,649 Y con esa reflexión, profunda, ¿no? 174 00:08:53,883 --> 00:08:55,730 hicimos uno de los proyectos este año, 175 00:08:55,730 --> 00:08:58,774 apalancados en esta iniciativa global que se llama Data for Good. 176 00:08:58,774 --> 00:09:03,686 Data for Good es una iniciativa que busca usar ciencia y datos, 177 00:09:03,686 --> 00:09:07,837 el poder de los datos, para impactar positivamente las vidas de las personas. 178 00:09:07,837 --> 00:09:10,769 Hicimos un proyecto que impactó más de 3 millones de personas, 179 00:09:11,071 --> 00:09:15,134 porque en todo el país hay unos 240 000 barrios populares 180 00:09:15,134 --> 00:09:17,020 que son los barrios donde vive gente 181 00:09:17,020 --> 00:09:21,005 que no tienen un certificado que habilita ese domicilio como válido. 182 00:09:21,011 --> 00:09:25,148 Entonces, no pueden pedir un servicio, o no pueden anotar sus hijos al colegio. 183 00:09:25,148 --> 00:09:26,787 Eso pasa en todo el país. 184 00:09:27,172 --> 00:09:31,124 Hay un montón de organizaciones trabajando hace dos años más o menos, 185 00:09:31,367 --> 00:09:34,757 se tardaron casi dos años en relevar casa por casa 186 00:09:34,757 --> 00:09:37,118 en toda la geografía vasta que tiene nuestro país. 187 00:09:38,170 --> 00:09:41,955 E hicieron un relevamiento increíble para poder hacer puntos de entrega 188 00:09:41,955 --> 00:09:43,051 de estos certificados. 189 00:09:43,051 --> 00:09:45,230 Para que se junte la gente con el certificado 190 00:09:45,319 --> 00:09:47,807 y que puedan tener ese domicilio válido. 191 00:09:47,807 --> 00:09:50,652 Eso es bastante complejo, ¿no? porque el país es muy grande. 192 00:09:50,652 --> 00:09:53,718 Entonces, nos pidieron cómo podemos mejorar el proceso de eso. 193 00:09:53,718 --> 00:09:57,432 Creamos un algoritmo usando técnicas de ciencia de datos 194 00:09:57,823 --> 00:10:02,193 para optimizar esos puntos de entrega, que en cada barrio se haga uno, 195 00:10:02,202 --> 00:10:04,938 y que las familias tengan que caminar lo menos posible 196 00:10:06,012 --> 00:10:09,709 Esta es la primera familia que obtuvo el certificado de vivienda en Bariloche, 197 00:10:09,709 --> 00:10:13,299 el primero de país: con eso pudo conectar la luz en su casa. 198 00:10:15,635 --> 00:10:16,893 Gracias. 199 00:10:16,903 --> 00:10:19,533 (Aplausos) 200 00:10:24,173 --> 00:10:29,163 Con esto buscamos que estas organizaciones argentinas 201 00:10:29,479 --> 00:10:33,282 tengan el mismo poder de decisión que tienen, 202 00:10:33,282 --> 00:10:35,555 gracias a las herramientas de análisis de datos, 203 00:10:35,555 --> 00:10:38,660 que tienen las empresas de Silicon Valley, es realmente el mismo. 204 00:10:39,191 --> 00:10:41,526 Para que puedan hacer mejor lo que hacen mejor. 205 00:10:42,866 --> 00:10:45,957 Nosotros visualizamos un futuro donde estas organizaciones, 206 00:10:45,957 --> 00:10:48,151 que enfrentan estos problemas, 207 00:10:48,213 --> 00:10:51,317 tengan el mismo nivel de acceso al análisis avanzado de datos 208 00:10:51,317 --> 00:10:53,149 que tienen las grandes corporaciones. 209 00:10:53,918 --> 00:10:58,253 Los datos, la tecnología, la información está ahí para la usemos. 210 00:10:59,446 --> 00:11:01,566 Cualquiera de Uds. puede cambiar su vida, 211 00:11:01,586 --> 00:11:04,168 pueden emprender y hacer un cambio en la realidad, 212 00:11:04,256 --> 00:11:06,720 y las grandes corporaciones pueden cambiar el mundo. 213 00:11:07,447 --> 00:11:09,446 ¿Uds. que van a hacer con los datos que tienen, 214 00:11:09,446 --> 00:11:10,764 que decisiones van a tomar? 215 00:11:10,764 --> 00:11:11,843 Muchas gracias. 216 00:11:11,897 --> 00:11:15,747 (Aplausos)