1 00:00:01,167 --> 00:00:02,810 Olá a todos. 2 00:00:03,722 --> 00:00:07,439 Vou começar por fazer uma pergunta muito simples. 3 00:00:07,452 --> 00:00:08,744 É a seguinte: 4 00:00:08,744 --> 00:00:12,536 Quem quer criar um produto que seja cativante e envolvente 5 00:00:12,561 --> 00:00:14,724 como, por exemplo, o Facebook ou o Twitter? 6 00:00:14,724 --> 00:00:17,307 Quem quiser, levante a mão. 7 00:00:17,513 --> 00:00:20,339 Uma coisa tão cativante e envolvente como o Twitter. 8 00:00:20,355 --> 00:00:22,238 Mantenham as mãos no ar. 9 00:00:22,625 --> 00:00:25,108 Quem mantém a mão no ar, 10 00:00:25,108 --> 00:00:26,902 continue com a mão no ar 11 00:00:26,950 --> 00:00:29,997 se sente que gasta mais tempo do que devia 12 00:00:30,030 --> 00:00:32,910 em "sites" como o Facebook ou o Twitter, 13 00:00:32,934 --> 00:00:34,997 um tempo que seria mais bem gasto 14 00:00:35,038 --> 00:00:38,624 com amigos ou com os cônjuges ou a fazer coisas de que gostam. 15 00:00:39,720 --> 00:00:42,085 Ok. Os que ainda têm a mão no ar, 16 00:00:42,133 --> 00:00:44,200 conversem depois do intervalo. 17 00:00:44,420 --> 00:00:46,077 (Risos) 18 00:00:46,365 --> 00:00:48,486 Porque é que eu estou a fazer esta pergunta? 19 00:00:48,486 --> 00:00:52,659 Estou a fazê-la, porque hoje fala-se de persuasão moral, 20 00:00:52,659 --> 00:00:56,531 do que é moral e imoral em tentar alterar os comportamentos das pessoas 21 00:00:56,531 --> 00:00:58,960 usando a tecnologia e usando o "design". 22 00:00:58,984 --> 00:01:00,866 Não sei do que é que estão à espera 23 00:01:00,866 --> 00:01:03,163 mas, quando me pus a pensar neste problema, 24 00:01:03,163 --> 00:01:06,986 depressa percebi que não consigo dar-vos respostas. 25 00:01:07,443 --> 00:01:10,214 Não vos consigo dizer o que é moral ou imoral, 26 00:01:10,238 --> 00:01:12,785 porque vivemos numa sociedade pluralista. 27 00:01:12,809 --> 00:01:17,051 Os meus valores podem ser radicalmente diferentes dos vossos, 28 00:01:17,075 --> 00:01:20,592 o que significa que aquilo que considero moral ou imoral, com base neles, 29 00:01:20,592 --> 00:01:24,208 não será necessariamente aquilo que vocês considerarão moral ou imoral. 30 00:01:24,269 --> 00:01:27,483 Mas também percebi que há uma coisa que vos posso dar: 31 00:01:27,507 --> 00:01:30,120 aquilo que este sujeito aqui atrás, deu ao mundo... 32 00:01:30,180 --> 00:01:31,364 Sócrates. 33 00:01:31,364 --> 00:01:32,783 Ou seja, perguntas. 34 00:01:32,783 --> 00:01:35,310 O que eu posso fazer e gostaria de fazer convosco 35 00:01:35,314 --> 00:01:37,749 é dar-vos, tal como aquela pergunta inicial, 36 00:01:37,749 --> 00:01:41,914 um conjunto de perguntas para vocês imaginarem, 37 00:01:42,017 --> 00:01:45,658 camada a camada, como quem descasca uma cebola, 38 00:01:45,682 --> 00:01:50,962 chegarem ao âmago daquilo que acreditam ser persuasão moral ou imoral. 39 00:01:51,099 --> 00:01:54,287 Vou fazer isso com alguns exemplos, 40 00:01:54,446 --> 00:01:57,817 como disse, alguns exemplos de tecnologias 41 00:01:57,817 --> 00:02:02,824 em que as pessoas usaram elementos para levarem as pessoas a fazer coisas. 42 00:02:03,561 --> 00:02:06,545 Este é o primeiro exemplo que nos leva à primeira pergunta. 43 00:02:06,585 --> 00:02:09,118 É um dos meus exemplos preferidos de ludificação. 44 00:02:09,143 --> 00:02:10,888 O "Health Month" de Buster Benson. 45 00:02:10,888 --> 00:02:14,553 É uma aplicação simples em que nós estabelecemos normas de saúde 46 00:02:14,562 --> 00:02:16,032 para um mês. 47 00:02:16,188 --> 00:02:19,047 Normas como, "quero fazer exercício seis vezes por semana". 48 00:02:19,047 --> 00:02:20,856 Ou "não quero beber álcool". 49 00:02:20,856 --> 00:02:23,767 Todas as manhãs, recebemos um "email" que nos pergunta: 50 00:02:23,853 --> 00:02:25,713 "Cumpriste as tuas normas, ou não?" 51 00:02:25,713 --> 00:02:27,894 Respondemos sim ou não, às várias perguntas. 52 00:02:27,907 --> 00:02:30,943 Depois, na plataforma, vemos como nos comportámos. 53 00:02:30,958 --> 00:02:33,805 Podemos ganhar pontos e emblemas por isso. 54 00:02:33,805 --> 00:02:36,388 Essas informações são partilhadas com os nossos amigos 55 00:02:36,388 --> 00:02:39,210 e, se não cumprimos uma norma, perdemos um ponto de saúde, 56 00:02:39,210 --> 00:02:41,570 mas os amigos podem participar e curar-nos. 57 00:02:41,879 --> 00:02:45,472 Um belo exemplo, e creio que a maioria concordará comigo 58 00:02:45,490 --> 00:02:48,490 que tem o ar de ser uma persuasão ética, não é? 59 00:02:48,561 --> 00:02:50,910 Tem o ar de uma coisa que será bom fazer. 60 00:02:50,918 --> 00:02:52,592 Este é outro exemplo. 61 00:02:52,768 --> 00:02:55,663 Muito parecido, quanto ao tipo de pensamento por detrás dele, 62 00:02:55,663 --> 00:02:57,935 mas um exemplo muito diferente — Lockers. 63 00:02:57,935 --> 00:03:01,339 É uma plataforma social em que as pessoas criam um perfil. 64 00:03:01,339 --> 00:03:04,608 Nesse perfil, o principal é colocar imagens de produtos, 65 00:03:04,608 --> 00:03:06,565 imagens de produtos de que gostamos. 66 00:03:06,617 --> 00:03:09,161 Interligamos os perfis com os dos amigos. 67 00:03:09,161 --> 00:03:12,339 Sempre que eu clicar num desses produtos na vossa página, 68 00:03:12,371 --> 00:03:13,924 vocês recebem pontos. 69 00:03:13,924 --> 00:03:16,815 Sempre que vocês clicarem num produto da minha página, 70 00:03:16,815 --> 00:03:18,125 eu recebo pontos. 71 00:03:18,157 --> 00:03:20,841 Se comprarem qualquer coisa, eu recebo montes de pontos. 72 00:03:20,841 --> 00:03:23,490 Depois, podemos trocar esses pontos 73 00:03:23,831 --> 00:03:26,165 em percentagens desses produtos. 74 00:03:26,538 --> 00:03:28,321 Não sei o que vocês pensam, 75 00:03:28,321 --> 00:03:30,879 mas, pessoalmente, sinto que o Health Month 76 00:03:30,895 --> 00:03:33,698 é uma coisa que me parece muito benévola 77 00:03:33,704 --> 00:03:37,205 uma boa peça, uma peça moral de tecnologia, 78 00:03:37,205 --> 00:03:40,842 enquanto há qualquer coisa no Locker que me faz sentir um pouco enjoado. 79 00:03:41,514 --> 00:03:44,918 Ao pensar porque é que isso me faz sentir enjoado, 80 00:03:44,943 --> 00:03:46,620 neste caso, e não no outro, 81 00:03:46,620 --> 00:03:48,750 obtive uma resposta muito simples. 82 00:03:48,750 --> 00:03:50,845 É a intenção por detrás disso. 83 00:03:51,355 --> 00:03:55,167 Num caso, a intenção é: "Este 'site' quer que eu seja mais saudável, 84 00:03:55,167 --> 00:03:57,613 "e o outro 'site' quer que eu compre mais". 85 00:03:57,613 --> 00:04:00,723 Portanto, a princípio, há uma pergunta muito simples, muito óbvia, 86 00:04:00,747 --> 00:04:02,313 que eu vos queria fazer: 87 00:04:02,313 --> 00:04:05,384 Quais são as nossas intenções quando concebemos qualquer coisa? 88 00:04:05,384 --> 00:04:08,381 Obviamente, as intenções não são tudo, 89 00:04:08,705 --> 00:04:12,310 por isso, eis outro exemplo de uma destas aplicações. 90 00:04:12,310 --> 00:04:15,424 Neste momento, há uns quantos destes painéis de instrumentos Eco, 91 00:04:15,424 --> 00:04:17,298 painéis de instrumentos de automóveis, 92 00:04:17,298 --> 00:04:20,223 que nos motivam a obtermos o melhor rendimento de combustível. 93 00:04:20,223 --> 00:04:21,831 Este é o MyLeaf da Nissan, 94 00:04:21,831 --> 00:04:25,548 em que o nosso comportamento de condutor é comparado com o comportamento 95 00:04:25,548 --> 00:04:26,914 de outras pessoas. 96 00:04:26,914 --> 00:04:30,155 Competimos com quem conduz com o melhor rendimento de combustível 97 00:04:30,155 --> 00:04:33,426 Estas coisas são muito eficazes, mas são tão eficazes, 98 00:04:33,426 --> 00:04:36,459 que motivam as pessoas a ter uma condução pouco segura, 99 00:04:36,483 --> 00:04:38,269 como não parar num sinal vermelho, 100 00:04:38,269 --> 00:04:41,464 porque, dessa forma, terão que desligar e voltar a ligar o motor, 101 00:04:41,464 --> 00:04:44,151 e isso consumirá algum combustível. 102 00:04:44,978 --> 00:04:49,417 Apesar de ser uma aplicação com muito boas intenções, 103 00:04:49,417 --> 00:04:51,786 obviamente tinha um efeito lateral. 104 00:04:51,810 --> 00:04:54,358 Este é outro exemplo para um desses efeitos laterais. 105 00:04:54,382 --> 00:04:58,920 Commendable: um "site" que permite que os pais deem emblemas aos filhos 106 00:04:58,920 --> 00:05:01,888 por fazerem as coisas que os pais querem que os filhos façam, 107 00:05:01,888 --> 00:05:03,328 como atar os sapatos. 108 00:05:03,328 --> 00:05:05,456 A princípio, isto soa bem, 109 00:05:05,480 --> 00:05:07,740 muito benévolo, cheio de boas intenções. 110 00:05:07,740 --> 00:05:11,923 Mas acontece que, se investigarmos o quadro mental das pessoas, 111 00:05:11,948 --> 00:05:13,435 preocupadas com os resultados, 112 00:05:13,459 --> 00:05:15,542 preocupadas com o reconhecimento público, 113 00:05:15,542 --> 00:05:19,117 preocupadas com este tipo de prémios de reconhecimento 114 00:05:19,141 --> 00:05:21,205 não será propriamente grande ajuda 115 00:05:21,205 --> 00:05:23,466 para o bem-estar psicológico a longo-prazo. 116 00:05:23,490 --> 00:05:26,166 É melhor preocuparmo-nos em aprender qualquer coisa. 117 00:05:26,190 --> 00:05:28,095 É melhor quando nos preocupamos connosco 118 00:05:28,109 --> 00:05:31,013 do que como nos apresentamos diante de outras pessoas. 119 00:05:31,161 --> 00:05:35,076 Este tipo de instrumento de motivação que é usado, 120 00:05:35,076 --> 00:05:37,988 por si só, tem um efeito lateral a longo-prazo, 121 00:05:37,988 --> 00:05:40,378 porque, sempre que utilizamos uma tecnologia, 122 00:05:40,378 --> 00:05:43,346 que usa qualquer coisa como reconhecimento ou estatuto público, 123 00:05:43,346 --> 00:05:45,706 estamos possivelmente a interiorizar isso 124 00:05:45,706 --> 00:05:49,000 como uma coisa boa e normal com que nos preocuparmos. 125 00:05:49,024 --> 00:05:51,888 Dessa forma, poderá ter um efeito prejudicial 126 00:05:51,912 --> 00:05:55,767 no bem-estar psicológico a longo-prazo de nós mesmos, enquanto cultura. 127 00:05:55,791 --> 00:05:58,435 Assim, há uma segunda pergunta, muito óbvia. 128 00:05:58,459 --> 00:06:00,770 Quais são os efeitos do que fazemos, 129 00:06:00,794 --> 00:06:04,918 os efeitos que vamos sentindo, com o dispositivo, como menos combustível, 130 00:06:04,942 --> 00:06:07,647 assim como os efeitos das ferramentas que estamos a usar 131 00:06:07,671 --> 00:06:09,575 para levar as pessoas a fazer coisas? 132 00:06:09,575 --> 00:06:11,330 Reconhecimento público? 133 00:06:11,330 --> 00:06:14,185 É só isso... um efeito de intenções? 134 00:06:14,209 --> 00:06:17,343 Há algumas tecnologias que, obviamente, combinam as duas coisas. 135 00:06:17,367 --> 00:06:20,154 Os bons efeitos a longo-prazo e a curto-prazo 136 00:06:20,178 --> 00:06:24,609 e uma intenção positiva, como o "Freedom" de Fred Stutzman, 137 00:06:24,611 --> 00:06:26,818 em que o objetivo da aplicação é... 138 00:06:26,842 --> 00:06:30,567 Habitualmente, somos tão bombardeados com pedidos constantes de outras pessoas 139 00:06:30,591 --> 00:06:32,047 com este dispositivo, 140 00:06:32,047 --> 00:06:35,251 que fechamos a ligação à Internet no nosso PC 141 00:06:35,275 --> 00:06:37,093 durante um certo tempo pré-definido, 142 00:06:37,093 --> 00:06:39,248 para conseguirmos trabalhar um pouco. 143 00:06:39,742 --> 00:06:42,893 Penso que a maioria concordará que é uma coisa com boas intenções 144 00:06:42,917 --> 00:06:45,137 e também tem boas consequências. 145 00:06:45,161 --> 00:06:46,807 Nas palavras de Michel Foucault, 146 00:06:46,831 --> 00:06:48,771 é uma "tecnologia do ego". 147 00:06:48,795 --> 00:06:51,632 É uma tecnologia que dá poder ao indivíduo 148 00:06:51,656 --> 00:06:53,751 para determinar o curso da sua vida, 149 00:06:53,751 --> 00:06:55,414 para se modelar. 150 00:06:55,850 --> 00:06:59,324 Mas o problema, conforme Foucault faz notar, 151 00:06:59,358 --> 00:07:01,333 é que toda a tecnologia do ego 152 00:07:01,333 --> 00:07:04,612 tem uma tecnologia de domínio no seu lado negativo. 153 00:07:04,636 --> 00:07:08,943 Como vemos hoje, nas modernas democracias liberais, 154 00:07:08,943 --> 00:07:13,946 a sociedade, o estado, não só nos permite determinarmo-nos a nós mesmos, 155 00:07:13,970 --> 00:07:15,401 a modelarmo-nos, 156 00:07:15,401 --> 00:07:17,136 como assim o exige. 157 00:07:17,380 --> 00:07:19,391 Exige que nos otimizemos, 158 00:07:19,391 --> 00:07:21,205 que nos controlemos, 159 00:07:21,205 --> 00:07:23,860 que estejamos sempre a autogerirmo-nos, 160 00:07:23,860 --> 00:07:27,517 porque é a única forma de uma sociedade liberal funcionar. 161 00:07:27,517 --> 00:07:29,030 De certa forma, 162 00:07:29,030 --> 00:07:32,359 o tipo de dispositivos como o "Freedom" de Fred Stutzman, 163 00:07:32,359 --> 00:07:35,593 ou o "Health Month" de Buster Benson, são tecnologias de domínio, 164 00:07:35,601 --> 00:07:37,664 porque querem que nós sejamos 165 00:07:37,854 --> 00:07:41,065 (Voz de robô) mais adaptados, mais felizes, mais produtivos, 166 00:07:41,065 --> 00:07:44,022 mais confortáveis, que não bebamos demais, 167 00:07:44,069 --> 00:07:47,803 que façamos exercício no ginásio três vezes por semana, 168 00:07:47,803 --> 00:07:51,521 que nos demos melhor com os nossos sócios ou empregados da altura. 169 00:07:51,546 --> 00:07:53,744 À vontade. Comendo bem. 170 00:07:53,744 --> 00:07:57,048 Sem jantares de micro-ondas e saturados de gorduras. 171 00:07:57,048 --> 00:08:02,088 Um condutor paciente, melhor condutor, um carro mais seguro. 172 00:08:02,368 --> 00:08:05,137 que durma bem, sem pesadelos. 173 00:08:06,261 --> 00:08:10,529 SD: Estas tecnologias querem que nós continuemos no jogo 174 00:08:10,553 --> 00:08:13,326 que a sociedade concebeu para nós. 175 00:08:13,350 --> 00:08:15,857 Querem que nos encaixemos cada vez melhor. 176 00:08:15,857 --> 00:08:18,699 Querem que nós nos otimizemos para nos encaixarmos. 177 00:08:19,168 --> 00:08:22,477 Não estou a dizer que é propriamente uma coisa má. 178 00:08:22,833 --> 00:08:27,161 Mas penso que este exemplo aponta-nos uma perceção geral 179 00:08:27,185 --> 00:08:30,988 que é: qualquer que seja a tecnologia ou "design" para que olhemos, 180 00:08:31,012 --> 00:08:34,573 mesmo uma coisa que consideramos bem-intencionada, 181 00:08:35,857 --> 00:08:38,994 e tão boa nos seus efeitos como o "Freedom" de Stutzman, 182 00:08:39,246 --> 00:08:41,953 tem sempre incorporados determinados valores. 183 00:08:41,977 --> 00:08:43,974 Podemos pôr em causa esses valores. 184 00:08:43,974 --> 00:08:45,496 Podemos perguntar: 185 00:08:45,496 --> 00:08:49,264 Será uma coisa boa que estejamos sempre a otimizarmo-nos, 186 00:08:49,264 --> 00:08:51,425 para nos encaixarmos melhor nesta sociedade? 187 00:08:51,449 --> 00:08:53,111 Ou, para vos dar outro exemplo, 188 00:08:53,111 --> 00:08:56,031 aquele que apresentei inicialmente: 189 00:08:56,065 --> 00:08:58,465 Que tal um pedaço de tecnologia persuasiva 190 00:08:58,465 --> 00:09:01,756 que convença as muçulmanas a usar os seus véus? 191 00:09:01,780 --> 00:09:03,832 Será uma tecnologia boa ou má 192 00:09:03,856 --> 00:09:06,769 nas suas intenções ou nos seus efeitos? 193 00:09:07,143 --> 00:09:11,397 Basicamente, isso depende do tipo de valores que tivermos 194 00:09:11,421 --> 00:09:13,658 para fazer este tipo de julgamento. 195 00:09:13,682 --> 00:09:15,430 Então, uma terceira pergunta: 196 00:09:15,430 --> 00:09:17,302 Que valores pensamos que usamos? 197 00:09:17,388 --> 00:09:18,999 E, por falar de valores, 198 00:09:18,999 --> 00:09:22,319 reparei que, na análise da persuasão moral "online" 199 00:09:22,319 --> 00:09:24,260 e quando falo com pessoas, 200 00:09:24,394 --> 00:09:27,391 mais frequentemente do que não, há um preconceito estranho. 201 00:09:27,603 --> 00:09:30,499 Esse preconceito é que perguntamos: 202 00:09:30,523 --> 00:09:33,516 Isto ou aquilo "ainda" é ético? 203 00:09:33,516 --> 00:09:36,130 "Ainda" é aceitável? 204 00:09:37,084 --> 00:09:38,582 Perguntamos coisas como: 205 00:09:38,582 --> 00:09:41,085 "Ainda" é aceitável aquele formulário Oxfam de doação 206 00:09:41,085 --> 00:09:43,797 em que, por defeito, se estabelece uma doação mensal, 207 00:09:43,797 --> 00:09:46,090 e as pessoas, talvez sem terem essa intenção, 208 00:09:46,090 --> 00:09:50,455 são encorajadas ou empurradas para fazer uma doação regular 209 00:09:50,480 --> 00:09:52,149 em vez de uma doação única, 210 00:09:52,149 --> 00:09:54,716 isso "ainda" é aceitável, "ainda" é ético? 211 00:09:54,747 --> 00:09:56,846 Andamos a pescar em águas turvas. 212 00:09:56,846 --> 00:09:59,293 Com efeito, esta pergunta, " 'Ainda' é ético?" 213 00:09:59,317 --> 00:10:01,498 é apenas uma das formas de olhar para a ética. 214 00:10:01,498 --> 00:10:06,204 Porque, se olharmos para o início da ética na cultura ocidental, 215 00:10:06,204 --> 00:10:09,910 vemos uma ideia muito diferente do que a ética também pode ser. 216 00:10:09,920 --> 00:10:13,907 Para Aristóteles, por exemplo, não se tratava da pergunta 217 00:10:13,931 --> 00:10:16,203 "Isto ainda é bom, ou é mau?" 218 00:10:16,227 --> 00:10:19,785 A ética tratava da questão de como viver bem a vida. 219 00:10:20,156 --> 00:10:22,427 Ele colocou isso na palavra "arête", 220 00:10:22,427 --> 00:10:25,206 que nós traduzimos do latim por "virtude", 221 00:10:25,206 --> 00:10:27,430 mas que, na realidade, significa "excelência". 222 00:10:27,430 --> 00:10:32,685 Significa viver com o potencial total de um ser humano. 223 00:10:33,377 --> 00:10:35,033 Penso que esta é uma ideia 224 00:10:35,057 --> 00:10:38,563 que Paul Richard Buchanan transmitiu brilhantemente num ensaio recente, 225 00:10:38,563 --> 00:10:40,831 em que disse: "Os produtos são argumentos vivos 226 00:10:40,831 --> 00:10:43,078 "sobre como devemos viver a nossa vida". 227 00:10:43,126 --> 00:10:45,813 Os nossos "designs" não são éticos nem deixam de o ser, 228 00:10:45,813 --> 00:10:49,827 lá por usarem meios de persuasão éticos ou pouco éticos. 229 00:10:50,701 --> 00:10:52,401 Têm um componente moral 230 00:10:52,401 --> 00:10:56,522 no tipo de visão e na aspiração de uma vida boa 231 00:10:56,546 --> 00:10:58,064 que nos apresentam. 232 00:10:58,381 --> 00:11:01,468 Se olharmos para o ambiente concebido, à nossa volta, 233 00:11:01,468 --> 00:11:03,520 com este tipo de lentes e perguntarmos: 234 00:11:03,520 --> 00:11:05,647 "Qual é a visão de uma vida boa 235 00:11:05,647 --> 00:11:08,519 "que os nossos produtos, o nosso 'design' nos apresentam?" 236 00:11:08,519 --> 00:11:10,619 sentiremos calafrios, 237 00:11:10,643 --> 00:11:13,081 por causa de quão pouco esperamos uns dos outros, 238 00:11:13,081 --> 00:11:17,125 de quão pouco esperamos da nossa vida 239 00:11:17,125 --> 00:11:19,293 e de como parece uma vida boa. 240 00:11:20,050 --> 00:11:23,233 Há uma quarta pergunta com que vos queria deixar: 241 00:11:23,397 --> 00:11:27,739 Que visão de uma vida boa transmitem os nossos "designs"? 242 00:11:28,489 --> 00:11:30,201 Por falar de "design", 243 00:11:30,201 --> 00:11:34,075 hão de reparar que já alarguei a discussão 244 00:11:34,099 --> 00:11:38,543 porque já não é só de tecnologia persuasiva que estamos a falar 245 00:11:38,567 --> 00:11:42,524 é de qualquer peça de "design" que pomos no mundo. 246 00:11:42,668 --> 00:11:44,068 Não sei se vocês sabem, 247 00:11:44,092 --> 00:11:47,531 o grande investigador e comunicador Paul Watzlawick que, nos anos 60, 248 00:11:47,531 --> 00:11:50,046 afirmou que não podemos deixar de comunicar. 249 00:11:50,046 --> 00:11:53,077 Mesmo que optemos por estar calados, que escolhamos o silêncio, 250 00:11:53,077 --> 00:11:55,787 comunicamos qualquer coisa ao escolhermos estar calados. 251 00:11:55,811 --> 00:11:58,546 Do mesmo modo que não podemos não comunicar, 252 00:11:58,570 --> 00:12:00,231 não podemos deixar de persuadir, 253 00:12:00,231 --> 00:12:02,716 façamos o que façamos ou nos abstenhamos de fazer, 254 00:12:02,716 --> 00:12:06,525 tudo o que pusermos no mundo, cada peça de "design", 255 00:12:06,549 --> 00:12:08,596 tem um componente persuasivo. 256 00:12:08,770 --> 00:12:10,663 Tenta afetar as pessoas. 257 00:12:10,663 --> 00:12:14,394 Coloca uma certa visão de uma vida boa em frente de nós. 258 00:12:14,888 --> 00:12:19,613 É o que diz Peter-Paul Verbeek, o filósofo holandês da tecnologia: 259 00:12:20,277 --> 00:12:24,225 "Quer nós, os "designers" tencionemos ou não, 260 00:12:24,249 --> 00:12:26,245 "materializamos a moral". 261 00:12:26,245 --> 00:12:29,378 Tornamos determinadas coisas mais difíceis e mais fáceis de fazer. 262 00:12:29,378 --> 00:12:31,453 Organizamos a existência das pessoas. 263 00:12:31,477 --> 00:12:33,028 Colocamos uma determinada visão 264 00:12:33,028 --> 00:12:36,086 do que é bom ou mau ou normal ou habitual 265 00:12:36,086 --> 00:12:37,601 em frente das pessoas, 266 00:12:37,601 --> 00:12:39,875 com tudo o que pomos cá fora no mundo. 267 00:12:40,087 --> 00:12:43,403 Mesmo uma coisa tão inócua como um conjunto de cadeiras escolares 268 00:12:43,403 --> 00:12:45,987 como o conjunto de cadeiras em que estão sentados 269 00:12:45,987 --> 00:12:48,297 e eu estou sentado à vossa frente, 270 00:12:48,297 --> 00:12:50,344 é uma tecnologia persuasiva, 271 00:12:50,368 --> 00:12:54,848 porque apresenta e materializa uma certa visão de uma vida boa. 272 00:12:55,082 --> 00:12:58,069 Uma vida boa em que ensinar, aprender e escutar 273 00:12:58,069 --> 00:13:01,062 significa uma pessoa a ensinar e as outras a escutar; 274 00:13:01,086 --> 00:13:04,833 significa que a aprendizagem se faz sentados, 275 00:13:04,833 --> 00:13:06,988 significa que aprendemos por nós mesmos, 276 00:13:06,988 --> 00:13:09,392 significa que não devemos alterar estas regras, 277 00:13:09,392 --> 00:13:12,023 porque as cadeiras estão presas ao chão. 278 00:13:12,828 --> 00:13:15,849 E mesmo uma coisa tão inócua com uma cadeira de "design" simples 279 00:13:15,849 --> 00:13:17,335 como esta de Arne Jacobsen, 280 00:13:17,359 --> 00:13:19,365 é uma tecnologia persuasiva, 281 00:13:19,365 --> 00:13:22,472 porque, de novo, comunica uma ideia de uma vida boa, 282 00:13:22,675 --> 00:13:28,087 uma vida boa que nós, enquanto "designers", aceitamos, dizendo: 283 00:13:28,124 --> 00:13:31,931 "Numa vida boa, os bens são produzidos de forma sustentável ou insustentável 284 00:13:31,931 --> 00:13:33,456 "como esta cadeira. 285 00:13:33,456 --> 00:13:35,747 "Os trabalhadores são tratados tão bem ou tão mal 286 00:13:35,747 --> 00:13:38,393 "como foram tratados os que construíram esta cadeira". 287 00:13:38,393 --> 00:13:40,923 Uma vida boa é uma vida em que o "design" é importante 288 00:13:40,923 --> 00:13:43,168 porque alguém despendeu tempo e dinheiro, 289 00:13:43,168 --> 00:13:45,170 por este tipo de cadeira bem concebida, 290 00:13:45,170 --> 00:13:46,684 em que a tradição é importante; 291 00:13:46,708 --> 00:13:49,874 porque é um clássico tradicional e alguém se preocupou com isso; 292 00:13:49,898 --> 00:13:52,588 e em que há qualquer coisa como um consumo conspícuo, 293 00:13:52,612 --> 00:13:55,888 em que é correto e normal gastar uma soma extravagante de dinheiro 294 00:13:55,888 --> 00:13:57,642 nesta cadeira, 295 00:13:57,667 --> 00:14:00,940 para indicar às outras pessoas qual é o nosso estatuto social. 296 00:14:02,164 --> 00:14:05,481 São estes tipos de camadas, os tipos de perguntas 297 00:14:05,505 --> 00:14:07,475 que eu queria fazer-vos hoje: 298 00:14:07,499 --> 00:14:10,237 Quais são as intenções que vocês transportam 299 00:14:10,237 --> 00:14:12,267 quando estão a conceber qualquer coisa? 300 00:14:12,267 --> 00:14:15,393 Quais são os efeitos, intencionais ou não, que estão a ter? 301 00:14:15,417 --> 00:14:18,218 Quais são os valores que utilizam para os avaliar? 302 00:14:18,242 --> 00:14:22,065 Quais são as virtudes, as aspirações que estão a exprimir nisso? 303 00:14:22,640 --> 00:14:24,497 Como é que isso se aplica, 304 00:14:24,521 --> 00:14:26,507 não apenas à tecnologia persuasiva, 305 00:14:26,531 --> 00:14:28,929 mas a tudo o que concebem? 306 00:14:29,452 --> 00:14:31,033 Ficamos por aí? 307 00:14:31,355 --> 00:14:32,712 Penso que não. 308 00:14:32,831 --> 00:14:37,269 Penso que todas essas coisas acabam por refletir 309 00:14:37,293 --> 00:14:39,036 o âmago de tudo isto 310 00:14:39,036 --> 00:14:41,831 e isto não é mais do que a própria vida. 311 00:14:42,134 --> 00:14:44,851 Se a pergunta sobre o que é uma vida boa 312 00:14:44,875 --> 00:14:47,214 reflete tudo aquilo que concebemos, 313 00:14:47,238 --> 00:14:50,032 porque é que não suspendemos o "design" e nos interrogamos: 314 00:14:50,056 --> 00:14:52,276 "Como é que isso se aplica na nossa vida?" 315 00:14:52,331 --> 00:14:54,273 "Porque é que o candeeiro, ou a casa 316 00:14:54,273 --> 00:14:56,653 "devem ser um objeto de arte e a nossa vida não?" 317 00:14:56,653 --> 00:14:58,190 como Michel Foucault disse. 318 00:14:58,236 --> 00:15:01,764 Só para vos dar um exemplo prático de Buster Benson, 319 00:15:01,789 --> 00:15:03,765 que referi no início. 320 00:15:03,871 --> 00:15:06,728 Este é Buster a montar uma máquina de flexões 321 00:15:06,753 --> 00:15:09,415 no gabinete da sua nova "startup" Habit Labs, 322 00:15:09,415 --> 00:15:12,604 onde estão a tentar criar outras aplicações como o "Health Month" 323 00:15:12,628 --> 00:15:13,876 para as pessoas. 324 00:15:13,876 --> 00:15:16,262 Porque é que ele está a construir uma coisa destas? 325 00:15:16,262 --> 00:15:17,989 Este é o conjunto de axiomas 326 00:15:17,989 --> 00:15:22,897 que a Habit Labs, a "startup" de Buster, adotou 327 00:15:22,975 --> 00:15:25,680 sobre como queriam trabalhar juntos, enquanto equipa, 328 00:15:25,704 --> 00:15:27,793 quando estivessem a criar estas aplicações. 329 00:15:27,793 --> 00:15:30,206 Um conjunto de princípios morais que estabeleceram 330 00:15:30,206 --> 00:15:31,871 para trabalharem em conjunto. 331 00:15:31,871 --> 00:15:33,183 Um deles é: 332 00:15:33,183 --> 00:15:36,034 "Cuidamos da nossa saúde e gerimos o nosso cansaço". 333 00:15:36,061 --> 00:15:40,901 Porque, em última análise, como poderemos interrogar-nos 334 00:15:40,985 --> 00:15:44,915 e como poderemos encontrar resposta sobre qual a visão de uma vida boa 335 00:15:44,939 --> 00:15:48,108 queremos transmitir e criar com os nossos "designs" 336 00:15:48,132 --> 00:15:49,862 sem fazer esta pergunta: 337 00:15:49,886 --> 00:15:53,548 "Que visão de uma vida boa queremos viver?" 338 00:15:53,885 --> 00:15:55,379 E com isso, 339 00:15:55,827 --> 00:15:57,239 Obrigado. 340 00:15:57,494 --> 00:16:00,500 (Aplausos)