1 00:00:00,392 --> 00:00:03,043 Hoje estamos falando sobre persuasão moral. 2 00:00:03,043 --> 00:00:04,592 O que é moral e imoral 3 00:00:04,592 --> 00:00:07,008 ao tentarmos alterar os comportamentos das pessoas 4 00:00:07,008 --> 00:00:09,359 usando tecnologia e design? 5 00:00:09,359 --> 00:00:11,211 Não sei o que vocês esperam, 6 00:00:11,211 --> 00:00:13,259 mas, enquanto pensava nesse assunto, 7 00:00:13,259 --> 00:00:14,492 logo percebi que 8 00:00:14,492 --> 00:00:17,826 o que não sou capaz de dar a vocês são respostas. 9 00:00:17,826 --> 00:00:20,142 Não sou capaz de lhes dizer o que é moral ou imoral 10 00:00:20,142 --> 00:00:23,058 porque estamos vivendo em uma sociedade pluralista. 11 00:00:23,058 --> 00:00:25,691 Meus valores podem ser radicalmente diferentes 12 00:00:25,691 --> 00:00:27,575 dos seus. 13 00:00:27,575 --> 00:00:30,994 O que significa que o que considero moral ou imoral, baseado neles, 14 00:00:30,994 --> 00:00:34,725 pode não ser necessariamente aquilo que vocês consideram moral ou imoral. 15 00:00:34,725 --> 00:00:37,591 Mas também percebi que há uma coisa que eu poderia dar a vocês. 16 00:00:37,591 --> 00:00:40,650 E isso é o que esse sujeito atrás de mim deu para o mundo -- 17 00:00:40,650 --> 00:00:41,561 Sócrates. 18 00:00:41,561 --> 00:00:43,008 São perguntas. 19 00:00:43,008 --> 00:00:45,633 O que posso fazer e o que gostaria de fazer 20 00:00:45,633 --> 00:00:47,653 é dar-lhes, como a pergunta inicial, 21 00:00:47,653 --> 00:00:48,968 um conjunto de questionamentos 22 00:00:48,968 --> 00:00:51,001 para que descubram por si mesmos, 23 00:00:51,001 --> 00:00:52,435 camada por camada, 24 00:00:52,435 --> 00:00:54,652 como ao descascarem uma cebola, 25 00:00:54,652 --> 00:00:56,868 até chegar à essência daquilo que vocês acreditam 26 00:00:56,868 --> 00:01:00,200 seja persuasão moral ou imoral. 27 00:01:00,200 --> 00:01:03,068 E gostaria de fazer isso com alguns exemplos 28 00:01:03,068 --> 00:01:06,051 de tecnologias nas quais usaram elementos lúdicos 29 00:01:06,051 --> 00:01:09,368 para levar as pessoas a fazer determinadas coisas. 30 00:01:09,368 --> 00:01:12,834 Portanto, a primeira pergunta muito simples, muito óbvia 31 00:01:12,834 --> 00:01:14,367 que gostaria de lhes fazer: 32 00:01:14,367 --> 00:01:17,185 quais são suas intenções quando estão projetando algo? 33 00:01:17,185 --> 00:01:20,418 E, obviamente, intenções não são a única coisa, 34 00:01:20,418 --> 00:01:23,801 então, aqui está um outro exemplo para um desses aplicativos. 35 00:01:23,801 --> 00:01:26,700 Existem alguns tipos de eco-painéis agora -- 36 00:01:26,700 --> 00:01:28,601 dessa forma, os painéis dos carros 37 00:01:28,601 --> 00:01:31,334 tentam motivá-lo a dirigir usando o combustível com maior eficiência. 38 00:01:31,334 --> 00:01:32,951 Este aqui é o 'My Leaf', da Nissan, 39 00:01:32,951 --> 00:01:35,248 no qual seu comportamento ao dirigir é comparado 40 00:01:35,248 --> 00:01:36,967 ao comportamento de outras pessoas, 41 00:01:36,967 --> 00:01:38,920 de modo que você possa competir com quem dirige 42 00:01:38,920 --> 00:01:40,318 usando combustível com maior eficiência. 43 00:01:40,318 --> 00:01:42,584 E ocorre que essas coisas são muito eficientes, 44 00:01:42,584 --> 00:01:45,201 tão eficientes que motivam as pessoas 45 00:01:45,201 --> 00:01:47,283 a adotar comportamentos perigosos ao volante -- 46 00:01:47,283 --> 00:01:49,025 como não parar no sinal vermelho. 47 00:01:49,025 --> 00:01:51,246 Porque dessa forma você tem que parar e reiniciar o motor 48 00:01:51,246 --> 00:01:55,166 e isso consumiria mais combustível, não é? 49 00:01:55,166 --> 00:01:59,511 Assim, ainda que este seja um aplicativo muito bem intencionado, 50 00:01:59,511 --> 00:02:02,091 obviamente havia um efeito colateral. 51 00:02:02,091 --> 00:02:04,240 E aqui está um outro exemplo para esses efeitos colaterais. 52 00:02:04,240 --> 00:02:05,641 'Commendable': 53 00:02:05,641 --> 00:02:09,290 um 'site' que permite aos pais dar pequenos distintivos às crianças 54 00:02:09,290 --> 00:02:11,490 por fazerem coisas que os pais querem que elas façam -- 55 00:02:11,490 --> 00:02:12,825 como amarrar os sapatos. 56 00:02:12,825 --> 00:02:15,179 E, de imediato, isso parece muito legal, 57 00:02:15,179 --> 00:02:17,140 muito benéfico, bem intencionado. 58 00:02:17,140 --> 00:02:21,024 Mas, acontece que, se você analisar pesquisas sobre as atitudes das pessoas, 59 00:02:21,024 --> 00:02:23,059 esse preocupar-se com resultados, 60 00:02:23,059 --> 00:02:24,856 preocupar-se com reconhecimento público, 61 00:02:24,856 --> 00:02:28,241 preocupar-se com esses tipos de símbolos de reconhecimento público 62 00:02:28,241 --> 00:02:30,759 não é necessariamente muito útil 63 00:02:30,759 --> 00:02:32,956 para o seu bem-estar psicológico de longo prazo. 64 00:02:32,956 --> 00:02:35,790 É melhor quando você se preocupa em aprender algo. 65 00:02:35,790 --> 00:02:37,623 É melhor quando você se preocupa consigo mesmo 66 00:02:37,623 --> 00:02:40,609 do que como você se apresenta diante de outras pessoas. 67 00:02:40,609 --> 00:02:43,790 Assim, esse tipo de ferramenta motivacional que é usada 68 00:02:43,790 --> 00:02:45,574 realmente em si mesma 69 00:02:45,574 --> 00:02:47,758 tem um efeito colateral de longo prazo 70 00:02:47,758 --> 00:02:49,475 toda vez que usamos uma tecnologia 71 00:02:49,475 --> 00:02:52,790 que emprega algo como reconhecimento público ou status, 72 00:02:52,790 --> 00:02:55,190 estamos, na verdade, reforçando isso positivamente 73 00:02:55,190 --> 00:02:58,624 como uma coisa boa e normal com a qual se preocupar -- 74 00:02:58,624 --> 00:03:01,309 tendo, dessa forma, possivelmente um efeito negativo 75 00:03:01,309 --> 00:03:05,391 no bem-estar psicológico de nós mesmos como cultura. 76 00:03:05,391 --> 00:03:07,859 Então, esta é a segunda pergunta, muito óbvia: 77 00:03:07,859 --> 00:03:10,491 quais são os efeitos daquilo que você está fazendo? 78 00:03:10,491 --> 00:03:12,596 Os resultados que você obtém com o dispositivo, 79 00:03:12,596 --> 00:03:14,013 como menos combustível, 80 00:03:14,013 --> 00:03:16,796 e também os resultados das ferramentas reais que está usando 81 00:03:16,796 --> 00:03:18,828 para levar pessoas a fazer coisas -- 82 00:03:18,828 --> 00:03:20,411 reconhecimento público. 83 00:03:20,411 --> 00:03:23,361 E isso é tudo -- intenção, resultado? 84 00:03:23,361 --> 00:03:24,881 Bem, há algumas tecnologias 85 00:03:24,881 --> 00:03:26,615 que evidentemente combinam ambos. 86 00:03:26,615 --> 00:03:28,980 Resultados de longo prazo e resultados de curto prazo 87 00:03:28,980 --> 00:03:32,032 e uma intenção positiva, como o 'Freedom', de Fred Stutzman, 88 00:03:32,032 --> 00:03:33,591 no qual o propósito do aplicativo 89 00:03:33,591 --> 00:03:36,862 é, bem, normalmente somos tão bombardeados 90 00:03:36,862 --> 00:03:38,063 com chamadas e pedidos de outras pessoas, 91 00:03:38,063 --> 00:03:40,679 com esse dispositivo você pode desligar a conexão com a Internet 92 00:03:40,679 --> 00:03:44,063 do PC de sua escolha por um espaço de tempo predeterminado 93 00:03:44,063 --> 00:03:46,263 para conseguir realmente executar algum trabalho. 94 00:03:46,263 --> 00:03:47,596 E acho que a maioria de nós concordará, 95 00:03:47,596 --> 00:03:49,045 bem, isso é algo bem intencionado 96 00:03:49,045 --> 00:03:51,162 e também tem boas consequências. 97 00:03:51,162 --> 00:03:53,279 Nas palavras de Michel Foucault, 98 00:03:53,279 --> 00:03:55,496 "É uma tecnologia do eu." 99 00:03:55,496 --> 00:03:57,847 É uma tecnologia que habilita o indivíduo 100 00:03:57,847 --> 00:04:00,195 a determinar seu próprio curso de vida, 101 00:04:00,195 --> 00:04:02,079 a modelar-se. 102 00:04:02,079 --> 00:04:03,195 Mas o problema é, 103 00:04:03,195 --> 00:04:04,996 como Foucault aponta, 104 00:04:04,996 --> 00:04:06,795 que toda tecnologia do eu 105 00:04:06,795 --> 00:04:09,962 tem uma tecnologia de dominação como seu reverso. 106 00:04:09,962 --> 00:04:14,296 Como você pode ver nas modernas democracias liberais de hoje, 107 00:04:14,296 --> 00:04:16,415 a sociedade, o estado, 108 00:04:16,415 --> 00:04:20,794 não só nos permite determinar nosso eu, modelar nosso eu 109 00:04:20,794 --> 00:04:22,612 mas também exige isso de nós. 110 00:04:22,612 --> 00:04:24,946 Exige que otimizemos a nós mesmos, 111 00:04:24,946 --> 00:04:26,496 que nos controlemos, 112 00:04:26,496 --> 00:04:28,945 que nos auto-administremos continuamente 113 00:04:28,945 --> 00:04:30,746 porque essa é a única forma 114 00:04:30,746 --> 00:04:33,461 na qual tal sociedade liberal funciona. 115 00:04:33,461 --> 00:04:37,754 Essas tecnologias querem que fiquemos no jogo 116 00:04:37,754 --> 00:04:40,396 que a sociedade desenvolveu para nós. 117 00:04:40,396 --> 00:04:42,861 Querem que nos ajustemos cada vez mais. 118 00:04:42,861 --> 00:04:45,720 Querem-nos otimizados para que nos encaixemos. 119 00:04:45,720 --> 00:04:49,250 Bem, não digo que isso é necessariamente uma coisa ruim. 120 00:04:49,250 --> 00:04:51,883 Apenas penso que este exemplo 121 00:04:51,883 --> 00:04:54,199 nos leva a uma compreensão geral, 122 00:04:54,199 --> 00:04:57,918 e não importa para qual tecnologia ou design você olha, 123 00:04:57,918 --> 00:05:02,984 mesmo algo que consideramos bem intencionado e bom em seus efeitos -- 124 00:05:02,984 --> 00:05:04,217 como o 'Freedom' de Stutzman -- 125 00:05:04,217 --> 00:05:06,917 vem com certos valores embutidos. 126 00:05:06,917 --> 00:05:08,600 E podemos questionar esses valores. 127 00:05:08,600 --> 00:05:10,531 Podemos indagar: é uma coisa boa 128 00:05:10,531 --> 00:05:14,414 que todos nós continuamente nos otimizemos 129 00:05:14,414 --> 00:05:16,316 para nos encaixar melhor nessa sociedade? 130 00:05:16,316 --> 00:05:17,815 Ou, para dar-lhes um outro exemplo, 131 00:05:17,815 --> 00:05:19,699 que tal um pouco de tecnologia persuasiva 132 00:05:19,699 --> 00:05:23,399 que convence mulheres muçulmanas a usar lenços na cabeça? 133 00:05:23,399 --> 00:05:25,683 Essa é uma tecnologia boa ou ruim 134 00:05:25,683 --> 00:05:28,199 em suas intenções ou efeitos? 135 00:05:28,199 --> 00:05:29,599 Bem, isso depende basicamente 136 00:05:29,599 --> 00:05:32,283 do tipo de valores que você traz com você 137 00:05:32,283 --> 00:05:34,399 para fazer esses tipos de julgamentos. 138 00:05:34,399 --> 00:05:36,433 Portanto, essa é uma terceira pergunta: 139 00:05:36,433 --> 00:05:37,985 que valores você usa para julgar? 140 00:05:37,985 --> 00:05:39,834 E, falando de valores, 141 00:05:39,834 --> 00:05:43,120 percebi que na discussão 'online' sobre persuasão moral, 142 00:05:43,120 --> 00:05:44,918 e quando estou conversando com as pessoas, 143 00:05:44,918 --> 00:05:47,707 muito frequentemente há uma estranha tendenciosidade. 144 00:05:47,707 --> 00:05:50,967 E essa tendenciosidade é que estamos perguntando: 145 00:05:50,967 --> 00:05:54,084 isso ou aquilo "ainda" é ético? 146 00:05:54,084 --> 00:05:56,418 Isso "ainda" é permitido? 147 00:05:56,418 --> 00:05:57,686 Estamos perguntando coisas assim. 148 00:05:57,686 --> 00:05:59,952 Este formulário de doação da Oxfam -- 149 00:05:59,952 --> 00:06:02,968 no qual a doação mensal regular é o padrão predeterminado 150 00:06:02,968 --> 00:06:05,052 e as pessoas, talvez sem ter essa intenção, 151 00:06:05,052 --> 00:06:07,867 são, desta maneira, encorajadas ou impelidas 152 00:06:07,867 --> 00:06:10,264 a fazer uma doação regular ao invés de uma única doação -- 153 00:06:10,264 --> 00:06:11,630 isso ainda é admissível? 154 00:06:11,630 --> 00:06:13,016 Isso ainda é ético? 155 00:06:13,016 --> 00:06:14,700 Estamos pescando no raso. 156 00:06:14,700 --> 00:06:16,577 Mas, de fato, esta questão 157 00:06:16,577 --> 00:06:17,487 "Ainda é ético?" 158 00:06:17,487 --> 00:06:19,817 é apenas uma forma de olhar para a ética. 159 00:06:19,817 --> 00:06:22,408 Porque se você olha para o início da ética 160 00:06:22,408 --> 00:06:24,633 na cultura ocidental, 161 00:06:24,633 --> 00:06:26,798 você vê uma ideia muito diferente 162 00:06:26,798 --> 00:06:28,334 do que a ética também poderia ser. 163 00:06:28,334 --> 00:06:32,432 Para Aristóteles, a ética não era sobre a questão: 164 00:06:32,432 --> 00:06:34,917 isso ainda é bom ou ruim? 165 00:06:34,917 --> 00:06:38,367 A ética era sobre a questão de como viver bem a vida. 166 00:06:38,367 --> 00:06:40,529 E ele colocou isso na palavra "arete", 167 00:06:40,529 --> 00:06:43,450 que nós, a partir do Latim, traduzimos como "virtude". 168 00:06:43,450 --> 00:06:45,075 Mas, na verdade, ela significa excelência. 169 00:06:45,075 --> 00:06:49,074 Significa viver de acordo com todo o seu potencial 170 00:06:49,074 --> 00:06:51,302 como um ser humano. 171 00:06:51,302 --> 00:06:52,486 E essa é uma ideia, 172 00:06:52,486 --> 00:06:55,992 acho eu, que Paul Richard Buchanan bem colocou em um ensaio recente 173 00:06:55,992 --> 00:06:58,443 quando disse: "Produtos são argumentos vívidos 174 00:06:58,443 --> 00:07:00,541 sobre como deveríamos viver nossas vidas." 175 00:07:00,541 --> 00:07:03,427 Nossos designs não são éticos ou não éticos 176 00:07:03,427 --> 00:07:08,041 no sentido de que estão usando meios éticos ou não éticos de nos persuadir. 177 00:07:08,041 --> 00:07:09,608 Eles têm um componente moral 178 00:07:09,608 --> 00:07:13,697 apenas no tipo de visão e aspiração da vida boa 179 00:07:13,697 --> 00:07:16,393 que eles nos apresentam. 180 00:07:16,393 --> 00:07:19,708 E se você analisa o ambiente projetado ao nosso redor 181 00:07:19,708 --> 00:07:20,904 com esse tipo de lentes, 182 00:07:20,904 --> 00:07:23,125 perguntando "Qual é a visão de vida boa 183 00:07:23,125 --> 00:07:26,143 que nossos produtos, nosso design, nos apresentam?", 184 00:07:26,143 --> 00:07:28,443 então você tem calafrios frequentes, 185 00:07:28,443 --> 00:07:30,795 em razão de como esperamos tão pouco um do outro, 186 00:07:30,795 --> 00:07:33,513 de como na verdade parecemos esperar tão pouco 187 00:07:33,513 --> 00:07:37,096 de nossa vida e de como seria uma vida boa. 188 00:07:37,096 --> 00:07:40,897 Portanto, esta é a quarta questão que gostaria de deixar com vocês: 189 00:07:40,897 --> 00:07:42,380 que visão de vida boa 190 00:07:42,380 --> 00:07:46,045 seus designs transmitem? 191 00:07:46,045 --> 00:07:47,147 E falando de design, 192 00:07:47,147 --> 00:07:50,879 vocês notaram que eu já ampliei a discussão. 193 00:07:50,879 --> 00:07:55,614 Porque não é apenas de tecnologia persuasiva que estamos falando aqui, 194 00:07:55,614 --> 00:07:59,814 é de qualquer peça de design que lançamos aqui no mundo. 195 00:07:59,814 --> 00:08:01,196 Não sei se conhecem 196 00:08:01,196 --> 00:08:02,864 o grande pesquisador de comunicação, Paul Watzlawick, 197 00:08:02,864 --> 00:08:04,712 que, lá pelos anos 60, argumentou 198 00:08:04,712 --> 00:08:06,047 que não conseguimos não comunicar. 199 00:08:06,047 --> 00:08:08,580 Mesmo se escolhêssemos ficar em silêncio, 200 00:08:08,580 --> 00:08:12,977 nós escolhemos ficar em silêncio. Estamos comunicando algo ao escolher ficar em silêncio. 201 00:08:12,977 --> 00:08:15,581 E, da mesma forma que não conseguimos não comunicar, 202 00:08:15,581 --> 00:08:17,098 não conseguimos não persuadir. 203 00:08:17,098 --> 00:08:19,397 O que quer que façamos ou evitemos fazer, 204 00:08:19,397 --> 00:08:22,263 o que quer que lancemos como uma peça de design 205 00:08:22,263 --> 00:08:23,530 no mundo 206 00:08:23,530 --> 00:08:25,814 tem um componente persuasivo. 207 00:08:25,814 --> 00:08:27,930 Ele tenta afetar as pessoas. 208 00:08:27,930 --> 00:08:30,114 Ele coloca uma certa visão de vida boa 209 00:08:30,114 --> 00:08:31,451 lá, diante de nós. 210 00:08:31,451 --> 00:08:33,437 Que é aquilo que Peter-Paul Verbeek, 211 00:08:33,437 --> 00:08:35,583 o filósofo holandês da tecnologia, diz. 212 00:08:35,583 --> 00:08:40,149 Não importa se nós, como designers, tivemos a intenção ou não, 213 00:08:40,149 --> 00:08:41,913 nós materializamos a moralidade. 214 00:08:41,913 --> 00:08:44,964 Nós tornamos certas coisas mais difíceis ou mais fáceis de fazer. 215 00:08:44,964 --> 00:08:46,914 Nós organizamos a existência das pessoas. 216 00:08:46,914 --> 00:08:49,664 Nós colocamos uma determinada visão do que é bom ou ruim, 217 00:08:49,664 --> 00:08:53,032 normal ou comum diante das pessoas 218 00:08:53,032 --> 00:08:55,581 em tudo aquilo que lançamos lá no mundo. 219 00:08:55,581 --> 00:08:59,097 Até mesmo algo tão inofensivo como um conjunto de cadeiras escolares 220 00:08:59,097 --> 00:09:00,531 é uma tecnologia persuasiva. 221 00:09:00,531 --> 00:09:03,347 Porque apresenta e materializa 222 00:09:03,347 --> 00:09:05,281 uma determinada visão de vida boa -- 223 00:09:05,281 --> 00:09:08,763 a vida boa na qual ensinar, aprender e ouvir 224 00:09:08,763 --> 00:09:11,698 é sobre uma pessoa ensinando, as outras ouvindo, 225 00:09:11,698 --> 00:09:15,450 na qual o ato de aprender se faz sentado, 226 00:09:15,450 --> 00:09:17,680 na qual você aprende para você mesmo, 227 00:09:17,680 --> 00:09:19,930 na qual não é para você mudar essas regras 228 00:09:19,930 --> 00:09:23,180 porque as cadeiras estão fixadas no chão. 229 00:09:23,180 --> 00:09:26,563 E até mesmo algo tão inofensivo como o design de uma única cadeira -- 230 00:09:26,563 --> 00:09:27,864 como esta de Arne Jacobsen -- 231 00:09:27,864 --> 00:09:29,565 é uma tecnologia persuasiva. 232 00:09:29,565 --> 00:09:32,980 Porque, novamente, comunica uma ideia de vida boa. 233 00:09:32,980 --> 00:09:34,479 Uma vida boa -- 234 00:09:34,479 --> 00:09:36,680 uma vida com a qual você, como designer, consente 235 00:09:36,680 --> 00:09:38,767 ao dizer: "Numa vida boa, 236 00:09:38,767 --> 00:09:42,781 os bens são produzidos como sustentáveis ou não sustentáveis, como esta cadeira. 237 00:09:42,781 --> 00:09:45,403 Os trabalhadores são tratados, tão bem ou tão mal, 238 00:09:45,403 --> 00:09:48,047 como foram tratados os trabalhadores que construíram essa cadeira." 239 00:09:48,047 --> 00:09:50,380 A vida boa é uma vida na qual o design é importante 240 00:09:50,380 --> 00:09:53,114 porque alguém, obviamente, despendeu tempo e dinheiro 241 00:09:53,114 --> 00:09:54,978 para aquele tipo de cadeira bem desenhada, 242 00:09:54,978 --> 00:09:56,397 na qual a tradição é importante 243 00:09:56,397 --> 00:09:58,198 porque esta é uma clássica tradicional 244 00:09:58,198 --> 00:09:59,710 e alguém se importou com isso, 245 00:09:59,710 --> 00:10:01,662 e na qual há algo como consumo evidente, 246 00:10:01,662 --> 00:10:03,230 na qual é normal e comum 247 00:10:03,230 --> 00:10:06,249 gastar uma enorme quantia de dinheiro numa cadeira assim 248 00:10:06,249 --> 00:10:09,664 para demonstrar a outras pessoas qual é seu status social. 249 00:10:09,664 --> 00:10:12,831 Assim, estes são os tipos de camadas, os tipos de questionamentos 250 00:10:12,831 --> 00:10:14,584 através dos quais eu queria conduzi-los hoje -- 251 00:10:14,584 --> 00:10:16,732 a questão de: Quais são as intenções 252 00:10:16,732 --> 00:10:19,198 que você propõe quando desenha algo? 253 00:10:19,198 --> 00:10:22,698 Quais são os efeitos, intencionais ou não intencionais, que você está obtendo? 254 00:10:22,698 --> 00:10:24,263 Quais são os valores que você está usando 255 00:10:24,263 --> 00:10:25,615 para julgá-los? 256 00:10:25,615 --> 00:10:27,082 Quais são as virtudes, as aspirações 257 00:10:27,082 --> 00:10:29,801 que você realmente está expressando nisso? 258 00:10:29,801 --> 00:10:31,896 E como isso se aplica, 259 00:10:31,896 --> 00:10:33,888 não apenas à tecnologia persuasiva, 260 00:10:33,888 --> 00:10:36,222 mas a tudo que você projeta? 261 00:10:36,222 --> 00:10:38,124 Paramos aíi? 262 00:10:38,124 --> 00:10:39,757 Acho que não. 263 00:10:39,757 --> 00:10:44,222 Penso que todas essas coisas são finalmente informadas 264 00:10:44,222 --> 00:10:45,940 pela essência de tudo isso -- 265 00:10:45,940 --> 00:10:49,055 e isso nada mais é do que a própria vida. 266 00:10:49,055 --> 00:10:51,955 Por que, quando a questão de o que é a vida boa 267 00:10:51,955 --> 00:10:54,306 impregna tudo que projetamos, 268 00:10:54,306 --> 00:10:56,889 deveríamos parar com a projeção e não perguntar a nós mesmos, 269 00:10:56,889 --> 00:10:59,622 como isso se aplica a nossa própria vida? 270 00:10:59,622 --> 00:11:02,357 "Por que a lâmpada ou a casa deveriam ser um objeto de arte 271 00:11:02,357 --> 00:11:03,588 mas não nossa vida?", 272 00:11:03,588 --> 00:11:05,204 como coloca MIchel Foucault. 273 00:11:05,204 --> 00:11:08,755 Apenas para dar-lhes um exemplo prático de Buster Benson. 274 00:11:08,755 --> 00:11:11,270 Este é Buster instalando um aparelho para flexões 275 00:11:11,270 --> 00:11:13,723 no escritório de sua nova empresa Habit Labs, 276 00:11:13,723 --> 00:11:15,740 onde eles estão tentando projetar outros aplicativos 277 00:11:15,740 --> 00:11:17,722 como 'Health Month' para as pessoas. 278 00:11:17,722 --> 00:11:20,302 E por que ele está fazendo uma coisa dessas? 279 00:11:20,302 --> 00:11:22,307 Bem, aqui está o conjunto de proposições 280 00:11:22,307 --> 00:11:25,510 que a Habit Labs, a empresa de Buster, elaborou para eles mesmos 281 00:11:25,510 --> 00:11:28,631 de como queriam trabalhar juntos, como uma equipe, 282 00:11:28,631 --> 00:11:30,455 enquanto estão projetando esses aplicativos -- 283 00:11:30,455 --> 00:11:32,507 um conjunto de princípios morais que eles mesmos definiram 284 00:11:32,507 --> 00:11:34,255 para trabalhar juntos -- 285 00:11:34,255 --> 00:11:35,653 e um deles é: 286 00:11:35,653 --> 00:11:38,735 "Nós cuidamos de nossa própria saúde e administramos nossos exercícios físicos." 287 00:11:38,735 --> 00:11:42,485 Porque, em última análise, como podem perguntar a si mesmos 288 00:11:42,485 --> 00:11:43,952 e como podem encontrar uma resposta 289 00:11:43,952 --> 00:11:46,252 sobre qual visão de vida boa 290 00:11:46,252 --> 00:11:49,353 querem transmitir e criar com seus designs 291 00:11:49,353 --> 00:11:51,035 sem fazer o questionamento 292 00:11:51,035 --> 00:11:52,519 de qual visão de vida boa 293 00:11:52,519 --> 00:11:55,419 vocês mesmos querem viver? 294 00:11:55,419 --> 00:11:59,669 E com isto, agradeço a vocês. 295 00:11:59,669 --> 00:12:02,632 (Aplausos)