0:00:01.167,0:00:02.500 Hola a todos. 0:00:03.722,0:00:07.332 Me gustaría empezar haciendo[br]una pregunta sencilla, 0:00:07.332,0:00:08.211 y esa es: 0:00:08.211,0:00:12.536 ¿Quién quiere crear un proyecto[br]igual de cautivante e interesante 0:00:12.561,0:00:14.494 que, digamos, Facebook o Twitter? 0:00:14.641,0:00:17.307 Si eso es lo que piensan, [br]por favor levanten la mano. 0:00:17.513,0:00:20.339 Algo que sea tan cautivante [br]e interesante como Twitter. 0:00:20.355,0:00:22.088 Por favor, mantengan su mano arriba. 0:00:22.625,0:00:24.609 Ahora, de Uds. que levantaron la mano, 0:00:24.609,0:00:26.870 por favor déjenla arriba si sienten que 0:00:26.870,0:00:29.997 están pasando[br]más tiempo del que deberían 0:00:30.030,0:00:32.910 en sitios como Facebook o Twitter, 0:00:32.934,0:00:34.997 tiempo que sería mejor pasar 0:00:35.038,0:00:38.624 con amigos o parejas o haciendo [br]cosas que en verdad aman. 0:00:39.720,0:00:42.085 De acuerdo. Aquellos que todavía[br]levantan la mano, 0:00:42.133,0:00:44.200 por favor hablen después del descanso. 0:00:44.220,0:00:46.077 (Risas) 0:00:46.125,0:00:48.066 ¿Por qué estoy haciendo esta pregunta? 0:00:48.474,0:00:49.529 Hago esta pregunta 0:00:49.591,0:00:52.442 porque hoy hablaremos acerca [br]de la persuasión moral. 0:00:52.501,0:00:56.327 ¿Qué es moral e inmoral al tratar[br]de cambiar el comportamiento de la gente 0:00:56.327,0:00:58.960 usando la tecnología y el diseño? 0:00:58.984,0:01:00.550 Y no sé lo que Uds. esperen 0:01:00.550,0:01:02.577 pero cuando estaba pensando en esto 0:01:02.577,0:01:04.283 me di cuenta muy temprano de que 0:01:04.283,0:01:07.283 lo que no soy capaz de darles[br]son respuestas. 0:01:07.283,0:01:10.214 No soy capaz de decirles [br]qué es moral o inmoral, 0:01:10.238,0:01:12.785 porque vivimos en una sociedad pluralista. 0:01:12.809,0:01:16.915 Mis valores pueden ser [br]completamente distintos a los suyos, 0:01:16.915,0:01:20.252 eso significa que lo que yo[br]considero moral o inmoral 0:01:20.276,0:01:23.888 no es necesariamente [br]moral o inmoral para Uds. 0:01:24.129,0:01:27.327 También me di cuenta de que hay[br]una cosa que sí puedo darles, 0:01:27.327,0:01:30.040 y es lo que el hombre [br]atrás de mí le dio al mundo... 0:01:30.064,0:01:30.948 Sócrates. 0:01:30.948,0:01:32.633 Y son preguntas. 0:01:32.657,0:01:35.290 Lo que puedo y lo que [br]me gustaría hacer con Uds. 0:01:35.314,0:01:37.259 es darles esa pregunta inicial 0:01:37.283,0:01:41.914 un grupo de preguntas para trabajar [br]y descubrir por sí mismos 0:01:42.017,0:01:45.658 capa por capa, [br]como si pelaran una cebolla, 0:01:45.682,0:01:51.062 llegando a la esencia de lo que creen [br]que es la persuasión moral o inmoral. 0:01:51.099,0:01:54.287 Y me gustaría hacer eso[br]con un par de ejemplos 0:01:54.446,0:01:57.646 así como lo había dicho, [br]un par de ejemplos de tecnologías 0:01:57.664,0:01:59.881 donde la gente ha usado elementos [br]de juegos 0:01:59.881,0:02:03.511 para hacer que las personas hagan cosas. 0:02:03.511,0:02:04.941 Este es el primer ejemplo que 0:02:04.941,0:02:06.565 nos lleva nuestra primer pregunta, 0:02:06.565,0:02:08.835 uno de mis ejemplos favoritos[br]de ludificación: 0:02:08.835,0:02:10.324 "Health Month" de Buster Benson. 0:02:10.324,0:02:14.090 Es una aplicación sencilla en donde[br]uno establece reglas de salud 0:02:14.090,0:02:15.975 para un mes. 0:02:16.103,0:02:16.933 Reglas como: 0:02:16.933,0:02:18.958 "Quiero ejercitarme[br]seis veces a la semana". 0:02:18.958,0:02:20.528 O "No quiero beber alcohol". 0:02:20.568,0:02:23.697 Y cada mañana recibes [br]un correo electrónico que pregunta: 0:02:23.713,0:02:25.256 ¿Seguiste tus reglas o no? 0:02:25.256,0:02:27.329 Y uno responde "sí" o "no"[br]a esas preguntas. 0:02:27.329,0:02:30.863 Y después en la plataforma puede[br]ver qué tan bien lo hizo, 0:02:30.865,0:02:33.582 puede ganar puntos, [br]puede ganar medallas por eso. 0:02:33.582,0:02:35.998 Esa información se comparte[br]con los compañeros, 0:02:35.998,0:02:38.542 y si uno no sigue su regla [br]pierde un punto de salud 0:02:38.542,0:02:41.175 pero los amigos pueden entrar y curarnos. 0:02:41.244,0:02:42.544 Un hermoso ejemplo 0:02:42.544,0:02:45.074 y creo que muchos[br]estarán de acuerdo conmigo 0:02:45.084,0:02:47.839 en que esto suena a[br]persuasión ética, ¿no? 0:02:47.839,0:02:50.772 Suena a algo que es bueno hacer. 0:02:50.775,0:02:52.505 Aquí hay otro ejemplo. 0:02:52.865,0:02:55.634 Muy similar en la forma de pensar, 0:02:55.634,0:02:57.634 ejemplos muy diferentes, "Lockers". 0:02:57.634,0:03:01.118 Es una plataforma social [br]en donde la gente crea perfiles 0:03:01.118,0:03:04.444 y en ellos, se colocan [br]imágenes de productos, 0:03:04.444,0:03:06.694 descripciones de productos que les gustan 0:03:06.694,0:03:09.072 y después ligan sus perfiles[br]con los de sus amigos 0:03:09.072,0:03:12.315 y cada vez que yo doy clic [br]en uno de los productos en tu página, 0:03:12.315,0:03:13.310 tu ganas puntos, 0:03:13.310,0:03:16.536 y cada vez que tú das clic[br]en un producto en mi página, 0:03:16.856,0:03:17.819 yo gano puntos; 0:03:17.819,0:03:20.107 y si tú compras algo,[br]yo gano muchos puntos 0:03:20.107,0:03:22.267 y ambos podemos intercambiar esos puntos 0:03:22.267,0:03:26.031 por descuentos en productos. 0:03:26.534,0:03:28.156 Ahora, no sé cómo se sientan pero, 0:03:28.156,0:03:30.640 personalmente,[br]pienso que "Health Month" 0:03:30.640,0:03:33.103 es algo que me parece más bondadoso 0:03:33.103,0:03:36.904 y es un caso de moral en tecnología. 0:03:36.904,0:03:38.714 Mientas que hay algo en "Lockers" 0:03:38.804,0:03:40.977 que me hace sentir un poco intranquilo. 0:03:41.467,0:03:44.608 Pensar ¿qué es exactamente [br]eso que me hace sentir incómodo 0:03:44.608,0:03:46.456 en este caso comparado contra el otro? 0:03:46.456,0:03:48.580 Fue una respuesta fácil y es 0:03:48.580,0:03:50.667 la intención subyacente, ¿no? 0:03:50.667,0:03:54.837 En el primer caso, la intención es que[br]el sitio quiere que esté más saludable 0:03:54.837,0:03:57.336 y, en el otro, el sitio[br]quiere que compre más. 0:03:57.661,0:04:00.723 Así que primero hay una pregunta[br]sencilla y muy evidente 0:04:00.731,0:04:01.921 que quiero hacerles: 0:04:01.961,0:04:04.641 ¿Cuáles son sus intenciones[br]si están diseñando algo? 0:04:04.941,0:04:08.061 Y, claramente,[br]las intenciones no son lo único 0:04:08.575,0:04:12.222 así que aquí hay otro ejemplo[br]de una de estas aplicaciones. 0:04:12.252,0:04:15.345 Hay un par de esos[br]"Eco tableros" el día de hoy. 0:04:15.355,0:04:17.329 Tableros en los automóviles que tratan 0:04:17.329,0:04:19.797 de motivarnos a manejar[br]sin consumir tanto combustible 0:04:19.797,0:04:21.226 Este es "MyLeaf" de Nissan 0:04:21.320,0:04:24.821 en donde tu comportamiento al manejar[br]es comparado contra 0:04:24.821,0:04:26.854 el comportamiento de otras personas, 0:04:26.854,0:04:29.847 y uno compite para ser el que maneje [br]sin consumir tanto combustible. 0:04:29.847,0:04:32.298 Estas cosas son muy efectivas, de hecho. 0:04:32.298,0:04:36.445 Son tan efectivas que motivan a las [br]personas a tener comportamientos inseguros 0:04:36.445,0:04:39.542 como el no detenerse en la luz roja[br]porque de esa forma tienes que 0:04:39.542,0:04:41.308 detener y volver a arrancar el motor 0:04:41.308,0:04:44.119 y eso haría usar más combustible,[br]¿cierto? 0:04:44.859,0:04:49.174 Así que, a pesar de ser una aplicación[br]con buenas intenciones 0:04:49.174,0:04:51.637 claramente hay un efecto secundario. 0:04:51.637,0:04:54.056 Aquí hay otros efectos [br]de esos efectos secundarios 0:04:54.056,0:04:59.031 "Commendable", un sitio que le permite [br]a los padres darles a sus hijos medallas 0:04:59.031,0:05:01.419 por hacer las cosas que[br]ellos quisieran que hagan 0:05:01.419,0:05:03.003 como atarse los zapatos. 0:05:03.146,0:05:06.324 Al principio suena muy bien,[br]muy inofensivo, 0:05:06.324,0:05:07.630 con buenas intenciones. 0:05:07.630,0:05:11.774 Pero resulta que, según investigaciones[br]sobre la forma de pensar de la gente 0:05:11.774,0:05:13.604 el preocuparse por los resultados, 0:05:13.604,0:05:15.633 preocuparse por el reconocimiento público, 0:05:15.633,0:05:19.125 preocuparse por este tipo de premios 0:05:19.125,0:05:21.168 no son necesariamente de mucha ayuda 0:05:21.168,0:05:23.349 para tu bienestar psicológico[br]a largo plazo. 0:05:23.389,0:05:25.993 Es mejor si te preocupas [br]por aprender algo. 0:05:25.993,0:05:28.030 Es mejor cuando te preocupas por ti mismo 0:05:28.030,0:05:31.036 en lugar de por la manera en [br]la que luces frente a los demás. 0:05:31.036,0:05:33.461 Así que, ese tipo de[br]herramienta motivacional 0:05:33.461,0:05:36.081 que se usa, en y para sí misma, 0:05:36.081,0:05:38.085 tiene un efecto secundario a largo plazo 0:05:38.085,0:05:40.366 en el sentido de que cada vez [br]que usamos tecnología 0:05:40.366,0:05:43.064 que usa algo de reconocimiento [br]público o estatus 0:05:43.064,0:05:45.474 estamos, en realidad,[br]reforzando positivamente esto 0:05:45.474,0:05:48.758 como algo bueno y normal [br]para preocuparse. 0:05:48.758,0:05:51.934 De esta manera, posiblemente [br]tenga un efecto de deterioro 0:05:51.934,0:05:55.544 en nuestro bienestar psicológico [br]a largo plazo como cultura. 0:05:55.774,0:05:58.318 Y esa es una segunda pregunta,[br]muy evidente: 0:05:58.318,0:06:00.863 ¿Cuáles son los efectos[br]de lo que estás haciendo? 0:06:00.863,0:06:04.887 Los efectos que obtienes con el [br]dispositivo como usar menos combustible, 0:06:05.143,0:06:07.774 así como los efectos de [br]las herramientas que usas 0:06:07.774,0:06:10.838 para que la gente haga cosas;[br]el reconocimiento público. 0:06:11.042,0:06:14.117 ¿Y eso es todo? ¿Intención? ¿Efecto? 0:06:14.117,0:06:17.151 Bueno, hay algunas tecnologías [br]que claramente combinan ambos. 0:06:17.181,0:06:20.272 Los buenos efectos, a largo y corto plazo 0:06:20.272,0:06:24.443 y una intención positiva como[br]"Freedom" de Fred Stutzman 0:06:24.443,0:06:26.697 en donde el objetivo [br]de la aplicación es... 0:06:26.727,0:06:30.464 Bueno, como estamos recibiendo solicitudes[br]de otras personas constantemente, 0:06:30.464,0:06:32.255 con este dispositivo podemos apagar 0:06:32.255,0:06:35.142 la conexión a Internet de[br]la computadora de tu elección 0:06:35.142,0:06:36.617 por un tiempo determinado 0:06:36.637,0:06:38.577 para poder realizar nuestro trabajo. 0:06:39.297,0:06:41.293 Y yo creo que, muchos estaremos de acuerdo 0:06:41.293,0:06:43.073 bueno, es algo con buenas intenciones 0:06:43.073,0:06:44.801 y también con buenas consecuencias. 0:06:45.155,0:06:46.596 En palabras de Michel Foucault 0:06:46.596,0:06:48.537 es la "tecnología del ser", 0:06:48.537,0:06:51.467 es una tecnología que [br]empodera al individuo 0:06:51.467,0:06:53.513 para determinar el curso [br]de su propia vida, 0:06:53.513,0:06:55.193 para moldearse a sí mismo. 0:06:55.789,0:06:57.696 Pero el problema es, 0:06:57.696,0:06:59.200 así como lo menciona Foucault, 0:06:59.200,0:07:00.995 que cada "tecnología del ser" 0:07:00.995,0:07:04.374 tiene una "tecnología de dominación"[br]como contraparte. 0:07:04.570,0:07:08.704 Así como se ve en las democracias [br]liberales modernas, 0:07:09.180,0:07:13.695 la sociedad, el Estado no solo [br]nos permite determinar nuestro ser, 0:07:13.695,0:07:15.070 moldear nuestro ser, 0:07:15.070,0:07:17.123 también nos lo exige. 0:07:17.123,0:07:19.326 Nos exige que nos optimicemos, 0:07:19.326,0:07:20.837 que nos controlemos, 0:07:20.837,0:07:23.528 que nos "autoadministremos" constantemente 0:07:23.878,0:07:27.239 porque es la única manera en la que[br]la sociedad liberal trabaja. 0:07:27.283,0:07:28.603 De cierta forma, 0:07:28.643,0:07:32.024 el tipo de dispositivos como[br]"Freedom" de Fred Stutzman 0:07:32.024,0:07:35.557 o "Health Month" de Buster Benson,[br]son "tecnologías de dominación" 0:07:35.557,0:07:37.313 porque quieren que seamos: 0:07:37.653,0:07:40.857 (Voz robótica) Más delgados, [br]más felices, más productivos, 0:07:40.857,0:07:43.835 cómodos, no beber demasiado, 0:07:43.835,0:07:47.578 ejercicio constante en el gimnasio[br]tres días a la semana, 0:07:47.578,0:07:51.272 llevarse mejor con socios,[br]empleados y contemporáneos. 0:07:51.568,0:07:53.422 A gusto. Comer bien. 0:07:53.422,0:07:56.674 No más comida de microondas[br]o grasas saturadas. 0:07:56.901,0:07:59.955 Ser mejor conductor y más paciente,[br]tener un auto más seguro. 0:08:00.225,0:08:02.028 Sonreír en el asiento trasero. 0:08:02.198,0:08:04.466 Dormir bien, no tener malos sueños. 0:08:06.320,0:08:08.768 SD: Estas tecnologías quieren que 0:08:08.768,0:08:10.604 nos mantengamos en el juego 0:08:10.604,0:08:13.090 que la sociedad ha ideado para nosotros. 0:08:13.337,0:08:15.733 Quieren que encajemos aún mejor. 0:08:15.733,0:08:18.082 Quieren que nos optimicemos para encajar. 0:08:19.362,0:08:22.670 No digo que sea necesariamente algo malo. 0:08:22.830,0:08:27.103 Solo pienso que, este ejemplo [br]nos muestra algo general 0:08:27.103,0:08:30.990 y ese es que no importa qué tecnología[br]o diseño uno observe, 0:08:30.990,0:08:34.178 incluso algo que consideramos [br]"bien intencionado" 0:08:34.178,0:08:38.986 y con "buenos resultados" [br]como "Freedom" de Stutzman, 0:08:38.986,0:08:41.934 viene con ciertos valores ya incluidos. 0:08:41.934,0:08:43.788 Y podemos cuestionar estos valores. 0:08:43.788,0:08:46.049 Podemos preguntar: ¿Es bueno que 0:08:46.049,0:08:49.126 todos nos optimicemos continuamente 0:08:49.148,0:08:51.165 para encajar mejor en esa sociedad? 0:08:51.165,0:08:52.952 O para darles otro ejemplo, 0:08:52.952,0:08:55.866 ese de la presentación inicial. 0:08:55.866,0:08:58.090 ¿Qué dirían de una tecnología persuasiva 0:08:58.090,0:09:01.531 que convenciera a las mujeres musulmanas[br]a usar su velo? 0:09:01.531,0:09:03.873 ¿Es una tecnología buena o mala, 0:09:03.873,0:09:06.648 por sus intenciones o sus efectos? 0:09:07.021,0:09:09.697 Bueno, eso dependerá básicamente [br]del tipo de valores 0:09:09.697,0:09:13.058 en juego al dar este tipo de opiniones. 0:09:13.768,0:09:15.190 Y esa es la tercera pregunta: 0:09:15.190,0:09:16.993 ¿Qué valores empleamos para juzgar? 0:09:16.993,0:09:18.539 Y hablando de valores, 0:09:18.539,0:09:21.359 he notado que al hablar [br]de persuasión moral, 0:09:21.359,0:09:23.407 ya sea en línea o cuando[br]hablo con la gente, 0:09:24.149,0:09:26.897 en general, existe un prejuicio extraño. 0:09:27.447,0:09:30.447 Y ese prejuicio se debe a que[br]nos preguntamos: 0:09:30.447,0:09:33.273 ¿"Sigue siendo" ético eso o lo otro? 0:09:33.273,0:09:35.723 ¿"Sigue estando" permitido? 0:09:37.093,0:09:38.210 Hacemos preguntas como: 0:09:38.210,0:09:40.746 Este formato de donación de Oxfam, 0:09:40.746,0:09:43.629 en donde se coloca una[br]donación mensual predeterminada 0:09:43.629,0:09:48.209 y la gente, tal vez sin intención [br]o siendo alentados o empujados 0:09:48.209,0:09:51.457 a dar una donación sigue en lugar[br]de una donación única: 0:09:51.457,0:09:52.875 ¿"Sigue estando" permitido? 0:09:52.875,0:09:54.334 ¿"Sigue siendo" ético? 0:09:54.334,0:09:56.485 Es un tema delicado. 0:09:56.553,0:09:58.752 De hecho, la pregunta [br]"¿Sigue siendo 'ético'?" 0:09:58.752,0:10:00.785 es solo una manera de ver a la ética 0:10:00.785,0:10:03.168 porque si vemos los inicios de la ética 0:10:03.688,0:10:07.890 en la cultura occidental,[br]veremos una idea muy diferente 0:10:07.890,0:10:09.849 de lo que la ética podría ser también. 0:10:09.909,0:10:13.563 Para Aristóteles, la ética[br]no tenía que ver con la pregunta: 0:10:13.563,0:10:16.174 "¿Sigue siendo algo bueno o es algo malo?" 0:10:16.174,0:10:19.416 La ética tenía que ver con la pregunta[br]¿Cómo vivir una vida plena? 0:10:19.916,0:10:22.298 Y lo representa en la palabra "arête" 0:10:22.298,0:10:24.605 que traducimos del griego antiguo [br]como "virtud" 0:10:24.605,0:10:26.467 pero en realidad significa "excelencia"; 0:10:26.467,0:10:32.045 significa vivir al máximo potencial[br]como ser humano. 0:10:33.245,0:10:36.165 Y esa es una idea que, yo pienso [br]que Paul Richard Buchanan 0:10:36.165,0:10:38.660 tuvo a bien señalar en un ensayo [br]reciente donde dice: 0:10:38.660,0:10:40.430 "Los productos son argumentos vívidos 0:10:40.430,0:10:42.621 sobre cómo deberíamos[br]vivir nuestras vidas". 0:10:43.092,0:10:45.568 Nuestros diseños no son éticos o no 0:10:45.568,0:10:49.784 solo por usar medios éticos o no[br]para persuadirnos. 0:10:50.556,0:10:52.079 Tienen componentes morales 0:10:52.079,0:10:56.092 únicamente en el tipo de visión [br]y las aspiraciones de la vida plena 0:10:56.092,0:10:57.709 que nos presentan. 0:10:58.349,0:11:01.759 Y si miran al ambiente diseñado [br]a nuestro alrededor 0:11:01.759,0:11:03.519 con ese tipo de lente, preguntando: 0:11:03.519,0:11:05.376 "¿Cuál es la visión de 'vida plena' 0:11:05.376,0:11:08.044 que nuestros productos, [br]nuestro diseño, nos presentan?" 0:11:08.135,0:11:10.398 Entonces, continuamente,[br]tendrían escalofríos, 0:11:10.398,0:11:12.970 debido a lo poco que[br]esperamos de cada uno, 0:11:12.970,0:11:16.743 o de lo poco que parece que[br]esperamos de nuestra vida 0:11:16.743,0:11:18.841 y de cómo se ve una 'vida plena'. 0:11:20.001,0:11:23.267 Así que esa es la cuarta pregunta[br]que quiero dejarles: 0:11:23.267,0:11:27.785 ¿Qué visión de 'vida plena' [br]transmiten sus diseños? 0:11:28.300,0:11:29.750 Y hablando de diseño, 0:11:29.750,0:11:33.724 habrán notado que ya hablé mucho del tema 0:11:33.824,0:11:38.537 porque no estamos hablando solamente [br]de tecnología persuasiva 0:11:38.537,0:11:41.989 sino de cualquier diseño [br]que saquemos al mundo. 0:11:42.379,0:11:43.991 No sé si conocen al gran 0:11:43.991,0:11:47.111 investigador de la comunicación,[br]Paul Watzlawick, que en los años 60 0:11:47.111,0:11:49.275 argumentó que "No podemos no comunicar". 0:11:49.275,0:11:52.622 Incluso cuando elegimos no decir algo, 0:11:52.622,0:11:55.452 estamos comunicando algo al callar. 0:11:55.582,0:11:58.357 Y de la misma forma que no podemos[br]"no comunicar", 0:11:58.357,0:12:00.008 no podemos "no persuadir". 0:12:00.008,0:12:02.169 Sea lo que fuere que hagamos[br]o dejemos de hacer, 0:12:02.169,0:12:05.679 lo que sea que coloquemos[br]como diseño en el mundo 0:12:06.249,0:12:08.444 tiene un componente persuasivo. 0:12:08.444,0:12:10.295 Trata de afectar a las personas. 0:12:10.431,0:12:14.132 Coloca cierta visión de la 'vida plena'[br]allá afuera frente a nosotros, 0:12:14.722,0:12:16.567 que es lo que dice Peter-Paul Verbeek, 0:12:17.387,0:12:19.574 el filósofo holandés de la tecnología. 0:12:19.574,0:12:24.039 No importa si como diseñadores[br]lo pretendemos o no, 0:12:24.039,0:12:26.286 materializamos la moralidad. 0:12:26.286,0:12:29.131 Hacemos ciertas cosas más difíciles[br]y más fáciles de hacer. 0:12:29.131,0:12:31.197 Organizamos la existencia de la gente. 0:12:31.377,0:12:32.445 Colocamos cierta visión 0:12:32.445,0:12:35.947 de lo que es bueno o malo o normal o común 0:12:35.947,0:12:37.600 frente a las personas, a través de 0:12:37.600,0:12:39.621 todo lo que colocamos en el mundo. 0:12:39.621,0:12:43.272 Incluso algo tan inofensivo como[br]el orden de las sillas en la escuela 0:12:43.272,0:12:47.486 o como las sillas en las que [br]están sentados frente a mí 0:12:47.486,0:12:49.877 es una tecnología persuasiva, 0:12:49.919,0:12:54.459 porque presenta y materializa[br]cierta visión de la 'vida plena'. 0:12:54.979,0:12:57.895 Una vida plena en la que [br]enseñar y aprender y escuchar 0:12:57.895,0:13:00.911 se trata de una persona [br]que enseñan y otros que escuchan; 0:13:00.911,0:13:04.858 en la que "se aprende bien[br]mientras se está sentado"; 0:13:04.858,0:13:06.868 en la que uno aprende para sí mismo, 0:13:06.868,0:13:08.995 en la que no debe cambiar estas reglas 0:13:08.995,0:13:11.455 porque las sillas están fijadas al suelo. 0:13:12.695,0:13:15.728 E incluso algo tan inofensivo [br]como el simple diseño de una silla 0:13:15.728,0:13:17.203 como esta de Arne Jacobsen, 0:13:17.203,0:13:18.993 es tecnología persuasiva 0:13:18.993,0:13:22.050 porque, otra vez, comunica [br]la idea de 'vida plena'. 0:13:22.400,0:13:27.871 Una vida plena que uno como diseñador[br]acepta al decir: 0:13:27.871,0:13:31.533 "En una vida plena, los bienes [br]son producidos tan sustentables o no 0:13:31.533,0:13:32.749 como esta silla. 0:13:33.329,0:13:35.569 Los trabajadores son tratados[br]tan bien o tan mal 0:13:35.569,0:13:38.012 como los trabajadores [br]que construyeron esa silla" 0:13:38.028,0:13:40.625 La vida plena es una vida donde[br]el diseño es importante 0:13:40.625,0:13:43.436 porque alguien se tomó el tiempo[br]y gastó dinero 0:13:43.436,0:13:45.681 para ese tipo de silla bien diseñada; 0:13:45.681,0:13:47.453 en donde la tradición es importante, 0:13:47.453,0:13:50.554 porque esta es clásica tradicional [br]y alguien se preocupó por ella; 0:13:50.554,0:13:52.335 y en donde hay un consumo ostentoso, 0:13:52.335,0:13:55.505 en donde está bien y es normal [br]gastar enormes sumas de dinero 0:13:55.505,0:14:00.459 en esa silla para demostrarle a los demás[br]cuál es tu estatus social. 0:14:02.055,0:14:05.165 Estos son los tipos de capas,[br]los tipos de preguntas 0:14:05.165,0:14:07.211 por las cuales quería guiarlos hoy 0:14:07.211,0:14:10.391 a preguntarnos: ¿Cuáles son[br]las intenciones que tienen 0:14:10.391,0:14:11.734 cuando diseñan algo? 0:14:11.734,0:14:14.941 ¿Cuáles son los efectos, intencionales[br]o no, que dejamos? 0:14:14.941,0:14:17.731 ¿Cuáles son los valores[br]empleados para juzgarlos? 0:14:18.015,0:14:20.039 ¿Cuáles son las virtudes, las aspiraciones 0:14:20.039,0:14:22.289 que realmente expresamos? 0:14:22.439,0:14:24.431 Y ¿cómo aplica eso 0:14:24.431,0:14:26.332 no solamente a la tecnología persuasiva, 0:14:26.332,0:14:28.775 sino a todo lo que diseñan? 0:14:29.365,0:14:30.643 ¿Nos detenemos ahí? 0:14:31.203,0:14:32.480 Yo no lo creo. 0:14:32.480,0:14:37.036 Pienso que todas estas cosas,[br]con el tiempo, son informadas 0:14:37.036,0:14:38.581 por la esencia de todo esto 0:14:38.581,0:14:41.682 y esto no es nada más que la vida misma. 0:14:42.082,0:14:44.929 Cuando la pregunta sobre[br]lo que es la vida plena 0:14:44.929,0:14:47.157 informa todo lo que diseñamos, 0:14:47.157,0:14:49.920 deberíamos detenernos y preguntarnos: 0:14:49.920,0:14:52.241 ¿Cómo aplica esto a nuestra propia vida? 0:14:52.241,0:14:55.058 "¿Por qué la lámpara o la casa[br]debería ser un objeto de arte 0:14:55.058,0:14:56.247 pero no nuestras vidas?", 0:14:56.247,0:14:58.227 así como lo dice Michel Foucault. 0:14:58.227,0:15:01.567 Solo para dar un ejemplo práctico[br]de Buster Benson, 0:15:01.567,0:15:03.529 a quien mencioné al principio. 0:15:03.847,0:15:06.683 Este es Buster ensamblando[br]una máquina de ejercicios 0:15:06.683,0:15:09.156 en la oficina de su nueva empresa,[br]"Habit Labs" 0:15:09.156,0:15:12.274 en donde intentan construir [br]otra aplicación como "Health Month" 0:15:12.274,0:15:13.140 para las personas. 0:15:13.242,0:15:15.459 ¿Y por qué está construyendo[br]algo como eso? 0:15:15.459,0:15:20.481 Bueno, este es el grupo de axiomas [br]que "Habit Labs", 0:15:20.481,0:15:21.586 la empresa de Buster, 0:15:21.586,0:15:25.564 creó de acuerdo a cómo querían [br]trabajar juntos como equipo 0:15:25.564,0:15:27.426 cuando construyen estas aplicaciones. 0:15:27.426,0:15:30.159 Un grupo de principios morales[br]que ellos mismos se fijaron 0:15:30.159,0:15:31.283 para trabajar juntos. 0:15:31.283,0:15:32.393 Uno de ellos es: 0:15:32.393,0:15:36.008 "Cuidamos de nuestra propia salud [br]y administramos nuestro propio desgaste". 0:15:36.008,0:15:40.327 Porque en el fondo,[br]¿Cómo pueden preguntarse 0:15:40.497,0:15:42.886 y cómo pueden encontrar la respuesta 0:15:42.886,0:15:47.427 a qué visión de la vida plena quieren[br]transmitir y crear con sus diseños 0:15:47.544,0:15:49.322 sin preguntarse 0:15:49.322,0:15:53.239 qué visión de la vida plena[br]uno mismo quiere vivir? 0:15:53.889,0:15:54.949 Y con esto, 0:15:55.729,0:15:56.719 yo les agradezco. 0:15:57.289,0:15:58.968 (Aplausos)