0:00:01.167,0:00:02.810 Olá a todos. 0:00:03.722,0:00:07.439 Vou começar por fazer[br]uma pergunta muito simples. 0:00:07.452,0:00:08.744 É a seguinte: 0:00:08.744,0:00:12.536 Quem quer criar um produto[br]que seja cativante e envolvente 0:00:12.561,0:00:14.724 como, por exemplo,[br]o Facebook ou o Twitter? 0:00:14.724,0:00:17.307 Quem quiser, levante a mão. 0:00:17.513,0:00:20.339 Uma coisa tão cativante[br]e envolvente como o Twitter. 0:00:20.355,0:00:22.238 Mantenham as mãos no ar. 0:00:22.625,0:00:25.108 Quem mantém a mão no ar, 0:00:25.108,0:00:26.902 continue com a mão no ar 0:00:26.950,0:00:29.997 se sente que gasta mais tempo[br]do que devia 0:00:30.030,0:00:32.910 em "sites" como o Facebook ou o Twitter, 0:00:32.934,0:00:34.997 um tempo que seria mais bem gasto 0:00:35.038,0:00:38.624 com amigos ou com os cônjuges[br]ou a fazer coisas de que gostam. 0:00:39.720,0:00:42.085 Ok. Os que ainda têm a mão no ar, 0:00:42.133,0:00:44.200 conversem depois do intervalo. 0:00:44.420,0:00:46.077 (Risos) 0:00:46.365,0:00:48.486 Porque é que eu estou[br]a fazer esta pergunta? 0:00:48.486,0:00:52.659 Estou a fazê-la, porque hoje[br]fala-se de persuasão moral, 0:00:52.659,0:00:56.531 do que é moral e imoral em tentar[br]alterar os comportamentos das pessoas 0:00:56.531,0:00:58.960 usando a tecnologia[br]e usando o "design". 0:00:58.984,0:01:00.866 Não sei do que é que estão à espera 0:01:00.866,0:01:03.163 mas, quando me pus a pensar[br]neste problema, 0:01:03.163,0:01:06.986 depressa percebi que não consigo[br]dar-vos respostas. 0:01:07.443,0:01:10.214 Não vos consigo dizer[br]o que é moral ou imoral, 0:01:10.238,0:01:12.785 porque vivemos numa sociedade pluralista. 0:01:12.809,0:01:17.051 Os meus valores podem ser[br]radicalmente diferentes dos vossos, 0:01:17.075,0:01:20.592 o que significa que aquilo que considero[br]moral ou imoral, com base neles, 0:01:20.592,0:01:24.208 não será necessariamente aquilo[br]que vocês considerarão moral ou imoral. 0:01:24.269,0:01:27.483 Mas também percebi[br]que há uma coisa que vos posso dar: 0:01:27.507,0:01:30.120 aquilo que este sujeito[br]aqui atrás, deu ao mundo... 0:01:30.180,0:01:31.364 Sócrates. 0:01:31.364,0:01:32.783 Ou seja, perguntas. 0:01:32.783,0:01:35.310 O que eu posso fazer[br]e gostaria de fazer convosco 0:01:35.314,0:01:37.749 é dar-vos, tal como[br]aquela pergunta inicial, 0:01:37.749,0:01:41.914 um conjunto de perguntas[br]para vocês imaginarem, 0:01:42.017,0:01:45.658 camada a camada,[br]como quem descasca uma cebola, 0:01:45.682,0:01:50.962 chegarem ao âmago daquilo que acreditam[br]ser persuasão moral ou imoral. 0:01:51.099,0:01:54.287 Vou fazer isso com alguns exemplos, 0:01:54.446,0:01:57.817 como disse, alguns exemplos[br]de tecnologias 0:01:57.817,0:02:02.824 em que as pessoas usaram elementos[br]para levarem as pessoas a fazer coisas. 0:02:03.561,0:02:06.545 Este é o primeiro exemplo[br]que nos leva à primeira pergunta. 0:02:06.585,0:02:09.118 É um dos meus exemplos preferidos[br]de ludificação. 0:02:09.143,0:02:10.888 O "Health Month" de Buster Benson. 0:02:10.888,0:02:14.553 É uma aplicação simples[br]em que nós estabelecemos normas de saúde 0:02:14.562,0:02:16.032 para um mês. 0:02:16.188,0:02:19.047 Normas como, "quero fazer exercício[br]seis vezes por semana". 0:02:19.047,0:02:20.856 Ou "não quero beber álcool". 0:02:20.856,0:02:23.767 Todas as manhãs, recebemos um "email"[br]que nos pergunta: 0:02:23.853,0:02:25.713 "Cumpriste as tuas normas, ou não?" 0:02:25.713,0:02:27.894 Respondemos sim ou não,[br]às várias perguntas.[br] 0:02:27.907,0:02:30.943 Depois, na plataforma,[br]vemos como nos comportámos. 0:02:30.958,0:02:33.805 Podemos ganhar pontos e emblemas por isso. 0:02:33.805,0:02:36.388 Essas informações são partilhadas[br]com os nossos amigos 0:02:36.388,0:02:39.210 e, se não cumprimos uma norma,[br]perdemos um ponto de saúde, 0:02:39.210,0:02:41.570 mas os amigos podem participar[br]e curar-nos. 0:02:41.879,0:02:45.472 Um belo exemplo, e creio[br]que a maioria concordará comigo 0:02:45.490,0:02:48.490 que tem o ar de ser[br]uma persuasão ética, não é? 0:02:48.561,0:02:50.910 Tem o ar de uma coisa[br]que será bom fazer. 0:02:50.918,0:02:52.592 Este é outro exemplo. 0:02:52.768,0:02:55.663 Muito parecido, quanto ao tipo[br]de pensamento por detrás dele, 0:02:55.663,0:02:57.935 mas um exemplo muito diferente[br]— Lockers. 0:02:57.935,0:03:01.339 É uma plataforma social[br]em que as pessoas criam um perfil. 0:03:01.339,0:03:04.608 Nesse perfil, o principal é colocar[br]imagens de produtos, 0:03:04.608,0:03:06.565 imagens de produtos de que gostamos. 0:03:06.617,0:03:09.161 Interligamos os perfis com os dos amigos. 0:03:09.161,0:03:12.339 Sempre que eu clicar[br]num desses produtos na vossa página, 0:03:12.371,0:03:13.924 vocês recebem pontos. 0:03:13.924,0:03:16.815 Sempre que vocês clicarem[br]num produto da minha página, 0:03:16.815,0:03:18.125 eu recebo pontos. 0:03:18.157,0:03:20.841 Se comprarem qualquer coisa,[br]eu recebo montes de pontos. 0:03:20.841,0:03:23.490 Depois, podemos trocar esses pontos 0:03:23.831,0:03:26.165 em percentagens desses produtos. 0:03:26.538,0:03:28.321 Não sei o que vocês pensam, 0:03:28.321,0:03:30.879 mas, pessoalmente,[br]sinto que o Health Month 0:03:30.895,0:03:33.698 é uma coisa que me parece[br]muito benévola 0:03:33.704,0:03:37.205 uma boa peça, uma peça moral[br]de tecnologia, 0:03:37.205,0:03:40.842 enquanto há qualquer coisa no Locker[br]que me faz sentir um pouco enjoado. 0:03:41.514,0:03:44.918 Ao pensar porque é que[br]isso me faz sentir enjoado, 0:03:44.943,0:03:46.620 neste caso, e não no outro, 0:03:46.620,0:03:48.750 obtive uma resposta muito simples. 0:03:48.750,0:03:50.845 É a intenção por detrás disso. 0:03:51.355,0:03:55.167 Num caso, a intenção é: "Este 'site'[br]quer que eu seja mais saudável, 0:03:55.167,0:03:57.613 "e o outro 'site'[br]quer que eu compre mais". 0:03:57.613,0:04:00.723 Portanto, a princípio, há uma pergunta[br]muito simples, muito óbvia, 0:04:00.747,0:04:02.313 que eu vos queria fazer: 0:04:02.313,0:04:05.384 Quais são as nossas intenções[br]quando concebemos qualquer coisa? 0:04:05.384,0:04:08.381 Obviamente, as intenções não são tudo, 0:04:08.705,0:04:12.310 por isso, eis outro exemplo[br]de uma destas aplicações. 0:04:12.310,0:04:15.424 Neste momento, há uns quantos[br]destes painéis de instrumentos Eco, 0:04:15.424,0:04:17.298 painéis de instrumentos de automóveis, 0:04:17.298,0:04:20.223 que nos motivam a obtermos[br]o melhor rendimento de combustível. 0:04:20.223,0:04:21.831 Este é o MyLeaf da Nissan, 0:04:21.831,0:04:25.548 em que o nosso comportamento de condutor[br]é comparado com o comportamento 0:04:25.548,0:04:26.914 de outras pessoas. 0:04:26.914,0:04:30.155 Competimos com quem conduz[br]com o melhor rendimento de combustível 0:04:30.155,0:04:33.426 Estas coisas são muito eficazes,[br]mas são tão eficazes, 0:04:33.426,0:04:36.459 que motivam as pessoas[br]a ter uma condução pouco segura, 0:04:36.483,0:04:38.269 como não parar num sinal vermelho, 0:04:38.269,0:04:41.464 porque, dessa forma, terão que desligar[br]e voltar a ligar o motor, 0:04:41.464,0:04:44.151 e isso consumirá algum combustível. 0:04:44.978,0:04:49.417 Apesar de ser uma aplicação[br]com muito boas intenções, 0:04:49.417,0:04:51.786 obviamente tinha um efeito lateral. 0:04:51.810,0:04:54.358 Este é outro exemplo[br]para um desses efeitos laterais. 0:04:54.382,0:04:58.920 Commendable: um "site" que permite[br]que os pais deem emblemas aos filhos 0:04:58.920,0:05:01.888 por fazerem as coisas[br]que os pais querem que os filhos façam, 0:05:01.888,0:05:03.328 como atar os sapatos. 0:05:03.328,0:05:05.456 A princípio, isto soa bem, 0:05:05.480,0:05:07.740 muito benévolo, cheio de boas intenções. 0:05:07.740,0:05:11.923 Mas acontece que, se investigarmos[br]o quadro mental das pessoas, 0:05:11.948,0:05:13.435 preocupadas com os resultados, 0:05:13.459,0:05:15.542 preocupadas com o reconhecimento público, 0:05:15.542,0:05:19.117 preocupadas com este tipo[br]de prémios de reconhecimento 0:05:19.141,0:05:21.205 não será propriamente grande ajuda 0:05:21.205,0:05:23.466 para o bem-estar psicológico[br]a longo-prazo. 0:05:23.490,0:05:26.166 É melhor preocuparmo-nos[br]em aprender qualquer coisa. 0:05:26.190,0:05:28.095 É melhor quando nos preocupamos connosco 0:05:28.109,0:05:31.013 do que como nos apresentamos[br]diante de outras pessoas. 0:05:31.161,0:05:35.076 Este tipo de instrumento de motivação[br]que é usado, 0:05:35.076,0:05:37.988 por si só, tem um efeito lateral[br]a longo-prazo, 0:05:37.988,0:05:40.378 porque, sempre que utilizamos[br]uma tecnologia, 0:05:40.378,0:05:43.346 que usa qualquer coisa[br]como reconhecimento ou estatuto público, 0:05:43.346,0:05:45.706 estamos possivelmente [br]a interiorizar isso 0:05:45.706,0:05:49.000 como uma coisa boa e normal[br]com que nos preocuparmos. 0:05:49.024,0:05:51.888 Dessa forma, poderá ter[br]um efeito prejudicial 0:05:51.912,0:05:55.767 no bem-estar psicológico a longo-prazo[br]de nós mesmos, enquanto cultura. 0:05:55.791,0:05:58.435 Assim, há uma segunda pergunta,[br]muito óbvia. 0:05:58.459,0:06:00.770 Quais são os efeitos do que fazemos, 0:06:00.794,0:06:04.918 os efeitos que vamos sentindo,[br]com o dispositivo, como menos combustível, 0:06:04.942,0:06:07.647 assim como os efeitos[br]das ferramentas que estamos a usar 0:06:07.671,0:06:09.575 para levar as pessoas a fazer coisas? 0:06:09.575,0:06:11.330 Reconhecimento público? 0:06:11.330,0:06:14.185 É só isso... um efeito de intenções? 0:06:14.209,0:06:17.343 Há algumas tecnologias[br]que, obviamente, combinam as duas coisas. 0:06:17.367,0:06:20.154 Os bons efeitos a longo-prazo[br]e a curto-prazo 0:06:20.178,0:06:24.609 e uma intenção positiva,[br]como o "Freedom" de Fred Stutzman, 0:06:24.611,0:06:26.818 em que o objetivo da aplicação é... 0:06:26.842,0:06:30.567 Habitualmente, somos tão bombardeados[br]com pedidos constantes de outras pessoas 0:06:30.591,0:06:32.047 com este dispositivo, 0:06:32.047,0:06:35.251 que fechamos a ligação à Internet[br]no nosso PC 0:06:35.275,0:06:37.093 durante um certo tempo pré-definido, 0:06:37.093,0:06:39.248 para conseguirmos trabalhar um pouco. 0:06:39.742,0:06:42.893 Penso que a maioria concordará[br]que é uma coisa com boas intenções 0:06:42.917,0:06:45.137 e também tem boas consequências. 0:06:45.161,0:06:46.807 Nas palavras de Michel Foucault, 0:06:46.831,0:06:48.771 é uma "tecnologia do ego". 0:06:48.795,0:06:51.632 É uma tecnologia que dá poder ao indivíduo 0:06:51.656,0:06:53.751 para determinar o curso da sua vida, 0:06:53.751,0:06:55.414 para se modelar. 0:06:55.850,0:06:59.324 Mas o problema,[br]conforme Foucault faz notar, 0:06:59.358,0:07:01.333 é que toda a tecnologia do ego 0:07:01.333,0:07:04.612 tem uma tecnologia de domínio[br]no seu lado negativo. 0:07:04.636,0:07:08.943 Como vemos hoje,[br]nas modernas democracias liberais, 0:07:08.943,0:07:13.946 a sociedade, o estado, não só nos permite[br]determinarmo-nos a nós mesmos, 0:07:13.970,0:07:15.401 a modelarmo-nos, 0:07:15.401,0:07:17.136 como assim o exige. 0:07:17.380,0:07:19.391 Exige que nos otimizemos, 0:07:19.391,0:07:21.205 que nos controlemos, 0:07:21.205,0:07:23.860 que estejamos sempre[br]a autogerirmo-nos, 0:07:23.860,0:07:27.517 porque é a única forma[br]de uma sociedade liberal funcionar. 0:07:27.517,0:07:29.030 De certa forma, 0:07:29.030,0:07:32.359 o tipo de dispositivos[br]como o "Freedom" de Fred Stutzman, 0:07:32.359,0:07:35.593 ou o "Health Month" de Buster Benson,[br]são tecnologias de domínio, 0:07:35.601,0:07:37.664 porque querem que nós sejamos 0:07:37.854,0:07:41.065 (Voz de robô) mais adaptados,[br]mais felizes, mais produtivos, 0:07:41.065,0:07:44.022 mais confortáveis, que não bebamos demais, 0:07:44.069,0:07:47.803 que façamos exercício no ginásio[br]três vezes por semana, 0:07:47.803,0:07:51.521 que nos demos melhor com os nossos[br]sócios ou empregados da altura. 0:07:51.546,0:07:53.744 À vontade.[br]Comendo bem. 0:07:53.744,0:07:57.048 Sem jantares de micro-ondas[br]e saturados de gorduras. 0:07:57.048,0:08:02.088 Um condutor paciente,[br]melhor condutor, um carro mais seguro. 0:08:02.368,0:08:05.137 que durma bem, sem pesadelos. 0:08:06.261,0:08:10.529 SD: Estas tecnologias querem [br]que nós continuemos no jogo 0:08:10.553,0:08:13.326 que a sociedade concebeu para nós. 0:08:13.350,0:08:15.857 Querem que nos encaixemos[br]cada vez melhor. 0:08:15.857,0:08:18.699 Querem que nós nos otimizemos[br]para nos encaixarmos. 0:08:19.168,0:08:22.477 Não estou a dizer que é[br]propriamente uma coisa má. 0:08:22.833,0:08:27.161 Mas penso que este exemplo[br]aponta-nos uma perceção geral 0:08:27.185,0:08:30.988 que é: qualquer que seja a tecnologia[br]ou "design" para que olhemos, 0:08:31.012,0:08:34.573 mesmo uma coisa que consideramos[br]bem-intencionada, 0:08:35.857,0:08:38.994 e tão boa nos seus efeitos[br]como o "Freedom" de Stutzman, 0:08:39.246,0:08:41.953 tem sempre incorporados[br]determinados valores. 0:08:41.977,0:08:43.974 Podemos pôr em causa esses valores. 0:08:43.974,0:08:45.496 Podemos perguntar: 0:08:45.496,0:08:49.264 Será uma coisa boa que estejamos sempre[br]a otimizarmo-nos, 0:08:49.264,0:08:51.425 para nos encaixarmos melhor[br]nesta sociedade? 0:08:51.449,0:08:53.111 Ou, para vos dar outro exemplo, 0:08:53.111,0:08:56.031 aquele que apresentei inicialmente: 0:08:56.065,0:08:58.465 Que tal um pedaço[br]de tecnologia persuasiva 0:08:58.465,0:09:01.756 que convença as muçulmanas[br]a usar os seus véus? 0:09:01.780,0:09:03.832 Será uma tecnologia boa ou má 0:09:03.856,0:09:06.769 nas suas intenções ou nos seus efeitos? 0:09:07.143,0:09:11.397 Basicamente, isso depende[br]do tipo de valores que tivermos 0:09:11.421,0:09:13.658 para fazer este tipo de julgamento. 0:09:13.682,0:09:15.430 Então, uma terceira pergunta: 0:09:15.430,0:09:17.302 Que valores pensamos que usamos? 0:09:17.388,0:09:18.999 E, por falar de valores, 0:09:18.999,0:09:22.319 reparei que, na análise[br]da persuasão moral "online" 0:09:22.319,0:09:24.260 e quando falo com pessoas, 0:09:24.394,0:09:27.391 mais frequentemente do que não,[br]há um preconceito estranho. 0:09:27.603,0:09:30.499 Esse preconceito é que perguntamos: 0:09:30.523,0:09:33.516 Isto ou aquilo "ainda" é ético? 0:09:33.516,0:09:36.130 "Ainda" é aceitável? 0:09:37.084,0:09:38.582 Perguntamos coisas como: 0:09:38.582,0:09:41.085 "Ainda" é aceitável[br]aquele formulário Oxfam de doação 0:09:41.085,0:09:43.797 em que, por defeito, se estabelece[br]uma doação mensal, 0:09:43.797,0:09:46.090 e as pessoas,[br]talvez sem terem essa intenção, 0:09:46.090,0:09:50.455 são encorajadas ou empurradas[br]para fazer uma doação regular 0:09:50.480,0:09:52.149 em vez de uma doação única, 0:09:52.149,0:09:54.716 isso "ainda" é aceitável, "ainda" é ético? 0:09:54.747,0:09:56.846 Andamos a pescar em águas turvas. 0:09:56.846,0:09:59.293 Com efeito, esta pergunta,[br]" 'Ainda' é ético?" 0:09:59.317,0:10:01.498 é apenas uma das formas[br]de olhar para a ética. 0:10:01.498,0:10:06.204 Porque, se olharmos para o início[br]da ética na cultura ocidental, 0:10:06.204,0:10:09.910 vemos uma ideia muito diferente[br]do que a ética também pode ser. 0:10:09.920,0:10:13.907 Para Aristóteles, por exemplo,[br]não se tratava da pergunta 0:10:13.931,0:10:16.203 "Isto ainda é bom, ou é mau?" 0:10:16.227,0:10:19.785 A ética tratava da questão[br]de como viver bem a vida. 0:10:20.156,0:10:22.427 Ele colocou isso na palavra "arête", 0:10:22.427,0:10:25.206 que nós traduzimos do latim por "virtude", 0:10:25.206,0:10:27.430 mas que, na realidade,[br]significa "excelência". 0:10:27.430,0:10:32.685 Significa viver com o potencial total[br]de um ser humano. 0:10:33.377,0:10:35.033 Penso que esta é uma ideia 0:10:35.057,0:10:38.563 que Paul Richard Buchanan transmitiu[br]brilhantemente num ensaio recente, 0:10:38.563,0:10:40.831 em que disse:[br]"Os produtos são argumentos vivos 0:10:40.831,0:10:43.078 "sobre como devemos viver a nossa vida". 0:10:43.126,0:10:45.813 Os nossos "designs" não são éticos[br]nem deixam de o ser, 0:10:45.813,0:10:49.827 lá por usarem meios de persuasão[br]éticos ou pouco éticos. 0:10:50.701,0:10:52.401 Têm um componente moral 0:10:52.401,0:10:56.522 no tipo de visão[br]e na aspiração de uma vida boa 0:10:56.546,0:10:58.064 que nos apresentam. 0:10:58.381,0:11:01.468 Se olharmos para o ambiente[br]concebido, à nossa volta, 0:11:01.468,0:11:03.520 com este tipo de lentes[br]e perguntarmos: 0:11:03.520,0:11:05.647 "Qual é a visão de uma vida boa 0:11:05.647,0:11:08.519 "que os nossos produtos, o nosso 'design'[br]nos apresentam?" 0:11:08.519,0:11:10.619 sentiremos calafrios, 0:11:10.643,0:11:13.081 por causa de quão pouco[br]esperamos uns dos outros, 0:11:13.081,0:11:17.125 de quão pouco esperamos[br]da nossa vida 0:11:17.125,0:11:19.293 e de como parece uma vida boa. 0:11:20.050,0:11:23.233 Há uma quarta pergunta[br]com que vos queria deixar: 0:11:23.397,0:11:27.739 Que visão de uma vida boa[br]transmitem os nossos "designs"? 0:11:28.489,0:11:30.201 Por falar de "design", 0:11:30.201,0:11:34.075 hão de reparar que já alarguei a discussão 0:11:34.099,0:11:38.543 porque já não é só de tecnologia[br]persuasiva que estamos a falar 0:11:38.567,0:11:42.524 é de qualquer peça de "design"[br]que pomos no mundo. 0:11:42.668,0:11:44.068 Não sei se vocês sabem, 0:11:44.092,0:11:47.531 o grande investigador e comunicador[br]Paul Watzlawick que, nos anos 60, 0:11:47.531,0:11:50.046 afirmou que não podemos[br]deixar de comunicar. 0:11:50.046,0:11:53.077 Mesmo que optemos por estar calados,[br]que escolhamos o silêncio, 0:11:53.077,0:11:55.787 comunicamos qualquer coisa[br]ao escolhermos estar calados. 0:11:55.811,0:11:58.546 Do mesmo modo[br]que não podemos não comunicar, 0:11:58.570,0:12:00.231 não podemos deixar de persuadir, 0:12:00.231,0:12:02.716 façamos o que façamos[br]ou nos abstenhamos de fazer, 0:12:02.716,0:12:06.525 tudo o que pusermos no mundo,[br]cada peça de "design", 0:12:06.549,0:12:08.596 tem um componente persuasivo. 0:12:08.770,0:12:10.663 Tenta afetar as pessoas. 0:12:10.663,0:12:14.394 Coloca uma certa visão de uma vida boa[br]em frente de nós. 0:12:14.888,0:12:19.613 É o que diz Peter-Paul Verbeek,[br]o filósofo holandês da tecnologia: 0:12:20.277,0:12:24.225 "Quer nós, os "designers"[br]tencionemos ou não, 0:12:24.249,0:12:26.245 "materializamos a moral". 0:12:26.245,0:12:29.378 Tornamos determinadas coisas[br]mais difíceis e mais fáceis de fazer. 0:12:29.378,0:12:31.453 Organizamos a existência das pessoas. 0:12:31.477,0:12:33.028 Colocamos uma determinada visão 0:12:33.028,0:12:36.086 do que é bom ou mau ou normal ou habitual 0:12:36.086,0:12:37.601 em frente das pessoas, 0:12:37.601,0:12:39.875 com tudo o que pomos[br]cá fora no mundo. 0:12:40.087,0:12:43.403 Mesmo uma coisa tão inócua[br]como um conjunto de cadeiras escolares 0:12:43.403,0:12:45.987 como o conjunto de cadeiras[br]em que estão sentados 0:12:45.987,0:12:48.297 e eu estou sentado à vossa frente, 0:12:48.297,0:12:50.344 é uma tecnologia persuasiva, 0:12:50.368,0:12:54.848 porque apresenta e materializa[br]uma certa visão de uma vida boa. 0:12:55.082,0:12:58.069 Uma vida boa em que ensinar,[br]aprender e escutar 0:12:58.069,0:13:01.062 significa uma pessoa a ensinar[br]e as outras a escutar; 0:13:01.086,0:13:04.833 significa que a aprendizagem[br]se faz sentados, 0:13:04.833,0:13:06.988 significa que aprendemos por nós mesmos, 0:13:06.988,0:13:09.392 significa que não devemos[br]alterar estas regras, 0:13:09.392,0:13:12.023 porque as cadeiras estão presas ao chão. 0:13:12.828,0:13:15.849 E mesmo uma coisa tão inócua[br]com uma cadeira de "design" simples 0:13:15.849,0:13:17.335 como esta de Arne Jacobsen, 0:13:17.359,0:13:19.365 é uma tecnologia persuasiva, 0:13:19.365,0:13:22.472 porque, de novo, comunica[br]uma ideia de uma vida boa, 0:13:22.675,0:13:28.087 uma vida boa que nós,[br]enquanto "designers", aceitamos, dizendo: 0:13:28.124,0:13:31.931 "Numa vida boa, os bens são produzidos[br]de forma sustentável ou insustentável 0:13:31.931,0:13:33.456 "como esta cadeira. 0:13:33.456,0:13:35.747 "Os trabalhadores são tratados[br]tão bem ou tão mal 0:13:35.747,0:13:38.393 "como foram tratados[br]os que construíram esta cadeira". 0:13:38.393,0:13:40.923 Uma vida boa é uma vida[br]em que o "design" é importante 0:13:40.923,0:13:43.168 porque alguém despendeu [br]tempo e dinheiro, 0:13:43.168,0:13:45.170 por este tipo de cadeira[br]bem concebida, 0:13:45.170,0:13:46.684 em que a tradição é importante; 0:13:46.708,0:13:49.874 porque é um clássico tradicional[br]e alguém se preocupou com isso; 0:13:49.898,0:13:52.588 e em que há qualquer coisa[br]como um consumo conspícuo, 0:13:52.612,0:13:55.888 em que é correto e normal[br]gastar uma soma extravagante de dinheiro 0:13:55.888,0:13:57.642 nesta cadeira, 0:13:57.667,0:14:00.940 para indicar às outras pessoas[br]qual é o nosso estatuto social. 0:14:02.164,0:14:05.481 São estes tipos de camadas,[br]os tipos de perguntas 0:14:05.505,0:14:07.475 que eu queria fazer-vos hoje: 0:14:07.499,0:14:10.237 Quais são as intenções [br]que vocês transportam 0:14:10.237,0:14:12.267 quando estão a conceber qualquer coisa? 0:14:12.267,0:14:15.393 Quais são os efeitos, intencionais ou não,[br]que estão a ter? 0:14:15.417,0:14:18.218 Quais são os valores[br]que utilizam para os avaliar? 0:14:18.242,0:14:22.065 Quais são as virtudes, as aspirações[br]que estão a exprimir nisso? 0:14:22.640,0:14:24.497 Como é que isso se aplica, 0:14:24.521,0:14:26.507 não apenas à tecnologia persuasiva, 0:14:26.531,0:14:28.929 mas a tudo o que concebem? 0:14:29.452,0:14:31.033 Ficamos por aí? 0:14:31.355,0:14:32.712 Penso que não. 0:14:32.831,0:14:37.269 Penso que todas essas coisas[br]acabam por refletir 0:14:37.293,0:14:39.036 o âmago de tudo isto 0:14:39.036,0:14:41.831 e isto não é mais do que a própria vida. 0:14:42.134,0:14:44.851 Se a pergunta sobre[br]o que é uma vida boa 0:14:44.875,0:14:47.214 reflete tudo aquilo que concebemos, 0:14:47.238,0:14:50.032 porque é que não suspendemos o "design"[br]e nos interrogamos: 0:14:50.056,0:14:52.276 "Como é que isso se aplica na nossa vida?" 0:14:52.331,0:14:54.273 "Porque é que o candeeiro, ou a casa 0:14:54.273,0:14:56.653 "devem ser um objeto de arte[br]e a nossa vida não?" 0:14:56.653,0:14:58.190 como Michel Foucault disse. 0:14:58.236,0:15:01.764 Só para vos dar um exemplo[br]prático de Buster Benson, 0:15:01.789,0:15:03.765 que referi no início. 0:15:03.871,0:15:06.728 Este é Buster a montar[br]uma máquina de flexões 0:15:06.753,0:15:09.415 no gabinete da sua nova "startup"[br]Habit Labs, 0:15:09.415,0:15:12.604 onde estão a tentar criar[br]outras aplicações como o "Health Month" 0:15:12.628,0:15:13.876 para as pessoas. 0:15:13.876,0:15:16.262 Porque é que ele está[br]a construir uma coisa destas? 0:15:16.262,0:15:17.989 Este é o conjunto de axiomas 0:15:17.989,0:15:22.897 que a Habit Labs,[br]a "startup" de Buster, adotou 0:15:22.975,0:15:25.680 sobre como queriam trabalhar[br]juntos, enquanto equipa, 0:15:25.704,0:15:27.793 quando estivessem a criar[br]estas aplicações. 0:15:27.793,0:15:30.206 Um conjunto de princípios morais[br]que estabeleceram 0:15:30.206,0:15:31.871 para trabalharem em conjunto. 0:15:31.871,0:15:33.183 Um deles é: 0:15:33.183,0:15:36.034 "Cuidamos da nossa saúde[br]e gerimos o nosso cansaço". 0:15:36.061,0:15:40.901 Porque, em última análise,[br]como poderemos interrogar-nos 0:15:40.985,0:15:44.915 e como poderemos encontrar resposta[br]sobre qual a visão de uma vida boa 0:15:44.939,0:15:48.108 queremos transmitir e criar[br]com os nossos "designs" 0:15:48.132,0:15:49.862 sem fazer esta pergunta: 0:15:49.886,0:15:53.548 "Que visão de uma vida boa[br]queremos viver?" 0:15:53.885,0:15:55.379 E com isso, 0:15:55.827,0:15:57.239 Obrigado. 0:15:57.494,0:16:00.500 (Aplausos)