1 00:00:00,392 --> 00:00:03,043 Oggi parliamo di persuasione morale. 2 00:00:03,043 --> 00:00:04,592 Cosa c'è di morale e di immorale 3 00:00:04,592 --> 00:00:07,008 nel cercare di cambiare il comportamento delle persone 4 00:00:07,008 --> 00:00:09,359 usando la tecnologia e il design? 5 00:00:09,359 --> 00:00:11,211 Non so cosa vi aspettiate, 6 00:00:11,211 --> 00:00:13,259 ma pensando a questo problema 7 00:00:13,259 --> 00:00:14,492 mi sono subito reso conto 8 00:00:14,492 --> 00:00:17,826 che quello che non sono in grado di darvi sono risposte. 9 00:00:17,826 --> 00:00:20,142 Non sono in grado di dirvi cosa sia morale e immorale 10 00:00:20,142 --> 00:00:23,058 perché viviamo in una società pluralista. 11 00:00:23,058 --> 00:00:25,691 I miei valori possono essere radicalmente diversi 12 00:00:25,691 --> 00:00:27,575 dai vostri valori. 13 00:00:27,575 --> 00:00:30,994 Questo significa che quello che io considero morale o immorale 14 00:00:30,994 --> 00:00:34,725 non necessariamente corrisponde a quello che voi considerate morale o immorale. 15 00:00:34,725 --> 00:00:37,591 Ma mi sono anche reso conto che c'è una cosa che vi posso dare. 16 00:00:37,591 --> 00:00:40,650 Ed è quello che quest'uomo dietro di me ha dato al mondo -- 17 00:00:40,650 --> 00:00:41,561 Socrate. 18 00:00:41,561 --> 00:00:43,008 Sono le domande. 19 00:00:43,008 --> 00:00:45,633 Quello che posso fare e quello che vorrei fare con voi 20 00:00:45,633 --> 00:00:47,653 è sottoporvi, come quella domanda iniziale, 21 00:00:47,653 --> 00:00:48,968 una serie di domande 22 00:00:48,968 --> 00:00:51,001 perché scopriate da soli, 23 00:00:51,001 --> 00:00:52,435 strato dopo strato, 24 00:00:52,435 --> 00:00:54,652 come pelare una cipolla, 25 00:00:54,652 --> 00:00:56,868 arrivando al cuore di ciò che ritenete 26 00:00:56,868 --> 00:01:00,200 sia persuasione morale o immorale. 27 00:01:00,200 --> 00:01:03,068 Vorrei farlo con un paio di esempi 28 00:01:03,068 --> 00:01:06,051 di tecnologie dove la gente ha usato elementi di gioco 29 00:01:06,051 --> 00:01:09,368 per portare le persone ad agire. 30 00:01:09,368 --> 00:01:12,834 È molto semplice, una domanda ovvia 31 00:01:12,834 --> 00:01:14,367 che vorrei proporvi: 32 00:01:14,367 --> 00:01:17,185 Quali sono le vostre intenzioni nel concepire qualcosa? 33 00:01:17,185 --> 00:01:20,418 E le intenzioni ovvie non sono l'unica cosa, 34 00:01:20,418 --> 00:01:23,801 quindi, ecco un altro esempio per una di queste applicazioni. 35 00:01:23,801 --> 00:01:26,700 Oggi ci sono un paio di questi cruscotti ecologici 36 00:01:26,700 --> 00:01:28,601 cruscotti di auto 37 00:01:28,601 --> 00:01:31,334 che vi stimolano a guidare risparmiando carburante. 38 00:01:31,334 --> 00:01:32,951 Questa è la Nissan Leaf, 39 00:01:32,951 --> 00:01:35,248 dove il vostro comportamento alla guida viene confrontato 40 00:01:35,248 --> 00:01:36,967 con il comportamento alla guida di altre persone, 41 00:01:36,967 --> 00:01:38,920 e potete quindi competere con chi guida 42 00:01:38,920 --> 00:01:40,318 in maniera più efficiente. 43 00:01:40,318 --> 00:01:42,584 Si è scoperto che queste cose sono molto efficaci, 44 00:01:42,584 --> 00:01:45,201 così efficaci che incoraggiano le persone 45 00:01:45,201 --> 00:01:47,283 ad assumere comportamenti di guida poco sicuri -- 46 00:01:47,283 --> 00:01:49,025 come non fermarsi a un semaforo rosso. 47 00:01:49,025 --> 00:01:51,246 Perché in quel modo bisogna fermarsi e fare ripartire il motore, 48 00:01:51,246 --> 00:01:55,166 e comporterebbe l'utilizzo di parecchio carburante, vero? 49 00:01:55,166 --> 00:01:59,511 Pur essendo questa un'applicazione ben concepita, 50 00:01:59,511 --> 00:02:02,091 ovviamente ha avuto un effetto collaterale. 51 00:02:02,091 --> 00:02:04,240 Ed ecco un altro esempio di uno di questi effetti collaterali. 52 00:02:04,240 --> 00:02:05,641 Commendable [Lodevole]: 53 00:02:05,641 --> 00:02:09,290 un sito che permette ai genitori di dare ai figli dei piccoli distintivi 54 00:02:09,290 --> 00:02:11,490 a fronte di cose vogliono far fare loro, 55 00:02:11,490 --> 00:02:12,825 come allacciarsi le scarpe. 56 00:02:12,825 --> 00:02:15,179 E all'inizio non sembra male, 57 00:02:15,179 --> 00:02:17,140 innocuo, ben concepito. 58 00:02:17,140 --> 00:02:21,024 Invece alla fine, se guardate le ricerche sulla mentalità della gente, 59 00:02:21,024 --> 00:02:23,059 questa attenzione ai risultati, 60 00:02:23,059 --> 00:02:24,856 questa attenzione al riconoscimento pubblico, 61 00:02:24,856 --> 00:02:28,241 l'attenzione per questi gettoni di riconoscimento pubblico 62 00:02:28,241 --> 00:02:30,759 non è necessariamente utile 63 00:02:30,759 --> 00:02:32,956 per il vostro benessere psicologico nel lungo termine. 64 00:02:32,956 --> 00:02:35,790 È meglio impegnarsi ad imparare qualcosa. 65 00:02:35,790 --> 00:02:37,623 È meglio preoccuparsi di se stessi 66 00:02:37,623 --> 00:02:40,609 piuttosto che del come si appare di fronte agli altri. 67 00:02:40,609 --> 00:02:43,790 Quel tipo di strumento motivazionale che viene usato, 68 00:02:43,790 --> 00:02:45,574 di per se stesso 69 00:02:45,574 --> 00:02:47,758 ha un effetto collaterale a lungo termine 70 00:02:47,758 --> 00:02:49,475 nell'esatto momento in cui usiamo una tecnologia 71 00:02:49,475 --> 00:02:52,790 che si serve di qualcosa come il riconoscimento pubblico o lo status. 72 00:02:52,790 --> 00:02:55,190 Di fatto lo stiamo appoggiando, 73 00:02:55,190 --> 00:02:58,624 come se fosse una cosa normale di cui preoccuparsi, 74 00:02:58,624 --> 00:03:01,309 mentre probabilmente, in quel modo, ha un effetto nocivo 75 00:03:01,309 --> 00:03:05,391 sul benessere psicologico a lungo termine del nostro sviluppo culturale. 76 00:03:05,391 --> 00:03:07,859 Questa è una seconda domanda ovvia: 77 00:03:07,859 --> 00:03:10,491 Quali sono gli effetti di quello che state facendo? 78 00:03:10,491 --> 00:03:12,596 Gli effetti causati dal dispositivo, 79 00:03:12,596 --> 00:03:14,013 come il minor utilizzo di carburante 80 00:03:14,013 --> 00:03:16,796 così come gli effetti dello strumento che usate 81 00:03:16,796 --> 00:03:18,828 per spingere la gente a fare qualcosa -- 82 00:03:18,828 --> 00:03:20,411 riconoscimento pubblico. 83 00:03:20,411 --> 00:03:23,361 Questo è tutto? -- Intenzione, effetto? 84 00:03:23,361 --> 00:03:24,881 Ci sono delle tecnologie 85 00:03:24,881 --> 00:03:26,615 che ovviamente combinano entrambi: 86 00:03:26,615 --> 00:03:28,980 sia gli effetti a lungo termine che quelli a breve termine. 87 00:03:28,980 --> 00:03:32,032 Un'intenzione positiva come il software Freedom di Fred Stutzman, 88 00:03:32,032 --> 00:03:33,591 dove il punto di quella applicazione è -- 89 00:03:33,591 --> 00:03:36,862 essendo noi normalmente bombardati 90 00:03:36,862 --> 00:03:38,063 da chiamate e richieste di altri -- 91 00:03:38,063 --> 00:03:40,679 con questo apparecchio si può spegnere la connessione a internet 92 00:03:40,679 --> 00:03:44,063 di un vostro PC a scelta per un tempo determinato 93 00:03:44,063 --> 00:03:46,263 per poter finire di lavorare. 94 00:03:46,263 --> 00:03:47,596 E credo che molti di voi saranno d'accordo, 95 00:03:47,596 --> 00:03:49,045 è una cosa ben progettata 96 00:03:49,045 --> 00:03:51,162 e con conseguenze positive. 97 00:03:51,162 --> 00:03:53,279 Usando le parole di Michel Foucault, 98 00:03:53,279 --> 00:03:55,496 "È la tecnologia del sé" 99 00:03:55,496 --> 00:03:57,847 È una tecnologia che dà il potere all'individuo 100 00:03:57,847 --> 00:04:00,195 di decidere del corso della propria vita, 101 00:04:00,195 --> 00:04:02,079 di darle forma. 102 00:04:02,079 --> 00:04:03,195 Ma il problema è, 103 00:04:03,195 --> 00:04:04,996 come sottolinea Foucault, 104 00:04:04,996 --> 00:04:06,795 quella stessa tecnologia del sé 105 00:04:06,795 --> 00:04:09,962 ha come altro lato della medaglia la tecnologia del dominio. 106 00:04:09,962 --> 00:04:14,296 Come vedete nelle democrazie liberali moderne di oggi, 107 00:04:14,296 --> 00:04:16,415 la società, lo stato, 108 00:04:16,415 --> 00:04:20,794 non solo ci permette di determinare il sé, di dare forma al sé, 109 00:04:20,794 --> 00:04:22,612 ma è anche esigente nei nostri confronti. 110 00:04:22,612 --> 00:04:24,946 Ci chiede di ottimizzarci, 111 00:04:24,946 --> 00:04:26,496 di controllare noi stessi, 112 00:04:26,496 --> 00:04:28,945 di autogestirci continuamente 113 00:04:28,945 --> 00:04:30,746 perché è l'unico modo 114 00:04:30,746 --> 00:04:33,461 in cui una società liberale può funzionare. 115 00:04:33,461 --> 00:04:37,754 Queste tecnologie vogliono farci partecipare al gioco 116 00:04:37,754 --> 00:04:40,396 che la società ha ideato per noi. 117 00:04:40,396 --> 00:04:42,861 Vogliono che ci adattiamo ancora meglio. 118 00:04:42,861 --> 00:04:45,720 Vogliono che ci ottimizziamo per adattarci. 119 00:04:45,720 --> 00:04:49,250 Non dico che sia necessariamente negativo. 120 00:04:49,250 --> 00:04:51,883 Credo solo che questo esempio 121 00:04:51,883 --> 00:04:54,199 ci indirizzi alla consapevolezza generale, 122 00:04:54,199 --> 00:04:57,918 e non importa quale tecnologia o progetto guardiate, 123 00:04:57,918 --> 00:05:02,984 anche cose che consideriamo ben concepite e positive nei loro effetti -- 124 00:05:02,984 --> 00:05:04,217 come Freedom di Stutzman -- 125 00:05:04,217 --> 00:05:06,917 portano con sé alcuni valori. 126 00:05:06,917 --> 00:05:08,600 E possiamo mettere in discussione questi valori. 127 00:05:08,600 --> 00:05:10,531 Possiamo mettere in discussione: e' positivo 128 00:05:10,531 --> 00:05:14,414 che tutti noi continuamente ci auto-ottimizziamo 129 00:05:14,414 --> 00:05:16,316 per adattarci meglio alla società? 130 00:05:16,316 --> 00:05:17,815 Per farvi un altro esempio, 131 00:05:17,815 --> 00:05:19,699 cosa ne dite di una tecnologia persuasiva 132 00:05:19,699 --> 00:05:23,399 che convince le donne musulmane a portare il foulard? 133 00:05:23,399 --> 00:05:25,683 È una buona o una cattiva tecnologia 134 00:05:25,683 --> 00:05:28,199 nelle intenzioni e negli effetti? 135 00:05:28,199 --> 00:05:29,599 Questo sostanzialmente dipende 136 00:05:29,599 --> 00:05:32,283 dal tipo di valori a cui date importanza 137 00:05:32,283 --> 00:05:34,399 per dare questo tipo di giudizi. 138 00:05:34,399 --> 00:05:36,433 Ecco quindi una terza domanda: 139 00:05:36,433 --> 00:05:37,985 Che valori usate per giudicare? 140 00:05:37,985 --> 00:05:39,834 E parlando di valori, 141 00:05:39,834 --> 00:05:43,120 ho notato che nella discussione sulla persuasione morale online, 142 00:05:43,120 --> 00:05:44,918 e quando parlo con le persone, 143 00:05:44,918 --> 00:05:47,707 molto spesso c'è uno strano pregiudizio. 144 00:05:47,707 --> 00:05:50,967 E questo pregiudizio è che ci chiediamo, 145 00:05:50,967 --> 00:05:54,084 se questo o quello sia "ancora" etico. 146 00:05:54,084 --> 00:05:56,418 Se sia "ancora" accettabile. 147 00:05:56,418 --> 00:05:57,686 Ci chiediamo cose come questa. 148 00:05:57,686 --> 00:05:59,952 Questo modulo di donazione per l'Oxfam -- 149 00:05:59,952 --> 00:06:02,968 dove la donazione mensile regolare è preimpostata 150 00:06:02,968 --> 00:06:05,052 e la gente, forse senza volerlo, 151 00:06:05,052 --> 00:06:07,867 viene incoraggiata o spinta 152 00:06:07,867 --> 00:06:10,264 a fare donazioni regolari invece di donazioni occasionali -- 153 00:06:10,264 --> 00:06:11,630 è ancora accettabile? 154 00:06:11,630 --> 00:06:13,016 È ancora etico? 155 00:06:13,016 --> 00:06:14,700 Stiamo pescando nella fascia bassa. 156 00:06:14,700 --> 00:06:16,577 Ma in realtà quella domanda 157 00:06:16,577 --> 00:06:17,487 "È ancora etico?" 158 00:06:17,487 --> 00:06:19,817 è solo un modo di vedere l'etica. 159 00:06:19,817 --> 00:06:22,408 Perché se guardate gli inizi dell'etica 160 00:06:22,408 --> 00:06:24,633 nella cultura occidentale, 161 00:06:24,633 --> 00:06:26,798 vedrete un'idea molto diversa 162 00:06:26,798 --> 00:06:28,334 di quello che potrebbe essere l'etica. 163 00:06:28,334 --> 00:06:32,432 Secondo Aristotele, l'etica non riguardava la questione, 164 00:06:32,432 --> 00:06:34,917 se una cosa fosse buona o cattiva. 165 00:06:34,917 --> 00:06:38,367 L'etica riguardava la questione di come vivere bene la vita. 166 00:06:38,367 --> 00:06:40,529 E lo ha messo nella parola "areté", 167 00:06:40,529 --> 00:06:43,450 che noi, dal latino, abbiamo tradotto in virtù". 168 00:06:43,450 --> 00:06:45,075 Ma in realtà significa eccellenza. 169 00:06:45,075 --> 00:06:49,074 Significa vivere al massimo del proprio potenziale 170 00:06:49,074 --> 00:06:51,302 in quanto essere umano. 171 00:06:51,302 --> 00:06:52,486 Ed è un'idea 172 00:06:52,486 --> 00:06:55,992 che credo Paul Richard Buchanan abbia reso bene in un recente saggio 173 00:06:55,992 --> 00:06:58,443 dove ha detto: "I prodotti sono vivaci discussioni 174 00:06:58,443 --> 00:07:00,541 su come dovremmo vivere le nostre vite". 175 00:07:00,541 --> 00:07:03,427 Le nostre concezioni non sono morali o immorali 176 00:07:03,427 --> 00:07:08,041 a seconda che utilizzino strumenti morali o immorali per persuaderci. 177 00:07:08,041 --> 00:07:09,608 Hanno una componente morale 178 00:07:09,608 --> 00:07:13,697 solo in quanto visione e aspirazione a una vita giusta 179 00:07:13,697 --> 00:07:16,393 che ci presentano. 180 00:07:16,393 --> 00:07:19,708 E se guardate l'ambiente progettato intorno a noi 181 00:07:19,708 --> 00:07:20,904 con quel tipo di lente, 182 00:07:20,904 --> 00:07:23,125 chiedendovi: "Qual è la visione di una vita corretta 183 00:07:23,125 --> 00:07:26,143 che i nostri prodotti, i nostri progetti, ci presentano?" 184 00:07:26,143 --> 00:07:28,443 spesso vi vengono i brividi, 185 00:07:28,443 --> 00:07:30,795 per colpa di quanto poco ci aspettiamo l'uno dall'altro, 186 00:07:30,795 --> 00:07:33,513 di quanto poco ci aspettiamo 187 00:07:33,513 --> 00:07:37,096 dalla nostra vita e da quello che dovrebbe essere una vita corretta. 188 00:07:37,096 --> 00:07:40,897 Questa è la quarta domanda che vi voglio lasciare: 189 00:07:40,897 --> 00:07:42,380 Che visione di una vita giusta 190 00:07:42,380 --> 00:07:46,045 trasmettono le vostre concezioni? 191 00:07:46,045 --> 00:07:47,147 E parlando di concezione, 192 00:07:47,147 --> 00:07:50,879 avrete notato che ho già allargato la discussione. 193 00:07:50,879 --> 00:07:55,614 Perché non parliamo più solo di tecnologie di persuasione, 194 00:07:55,614 --> 00:07:59,814 ma di qualunque concezione che mettiamo al mondo. 195 00:07:59,814 --> 00:08:01,196 Non so se conoscete 196 00:08:01,196 --> 00:08:02,864 il grande ricercatore della comunicazione Paul Watzlawick 197 00:08:02,864 --> 00:08:04,712 che negli anni '60 sosteneva 198 00:08:04,712 --> 00:08:06,047 che non possiamo non comunicare. 199 00:08:06,047 --> 00:08:08,580 Anche se scegliamo di stare in silenzio, 200 00:08:08,580 --> 00:08:12,977 scegliamo di stare in silenzio. Stiamo comunicando qualcosa scegliendo di stare in silenzio. 201 00:08:12,977 --> 00:08:15,581 E nello stesso modo in cui non possiamo non comunicare, 202 00:08:15,581 --> 00:08:17,098 non possiamo non convincere. 203 00:08:17,098 --> 00:08:19,397 Che si tratti di fare o trattenersi dal fare, 204 00:08:19,397 --> 00:08:22,263 qualunque cosa proponiamo al mondo 205 00:08:22,263 --> 00:08:23,530 come concezione 206 00:08:23,530 --> 00:08:25,814 ha una componente di persuasione 207 00:08:25,814 --> 00:08:27,930 che tenta di influenzare le persone. 208 00:08:27,930 --> 00:08:30,114 Propone una certa visione di vita giusta 209 00:08:30,114 --> 00:08:31,451 di fronte a noi. 210 00:08:31,451 --> 00:08:33,437 Che è quello che dice Peter-Paul Verbeek, 211 00:08:33,437 --> 00:08:35,583 il filosofo olandese della tecnologia. 212 00:08:35,583 --> 00:08:40,149 Che sia volontario o meno, noi in quanto designer, 213 00:08:40,149 --> 00:08:41,913 materializziamo la moralità. 214 00:08:41,913 --> 00:08:44,964 Rendiamo alcune cose più difficili o più facili da fare. 215 00:08:44,964 --> 00:08:46,914 Organizziamo l'esistenza delle persone. 216 00:08:46,914 --> 00:08:49,664 Proponiamo alla gente una certa visione 217 00:08:49,664 --> 00:08:53,032 di quello che è bene o male, o normale o consueto 218 00:08:53,032 --> 00:08:55,581 con tutto quello che trasmettiamo al mondo. 219 00:08:55,581 --> 00:08:59,097 Anche cose innocue come una serie di sedie per la scuola 220 00:08:59,097 --> 00:09:00,531 sono una tecnologia di persuasione. 221 00:09:00,531 --> 00:09:03,347 Perché presenta e materializza 222 00:09:03,347 --> 00:09:05,281 una certa visione di vita corretta -- 223 00:09:05,281 --> 00:09:08,763 la vita corretta in cui insegnare e imparare e ascoltare 224 00:09:08,763 --> 00:09:11,698 significa che c'è una persona che insegna mentre altri ascoltano, 225 00:09:11,698 --> 00:09:15,450 in cui si impara stando seduti, 226 00:09:15,450 --> 00:09:17,680 in cui si impara per conto proprio, 227 00:09:17,680 --> 00:09:19,930 in cui non è previsto che si cambino queste regole 228 00:09:19,930 --> 00:09:23,180 perché le sedie sono fissate al suolo. 229 00:09:23,180 --> 00:09:26,563 E anche una cosa innocua come il design di una sedia -- 230 00:09:26,563 --> 00:09:27,864 come questa di Arne Jacobsen -- 231 00:09:27,864 --> 00:09:29,565 è una tecnologia di persuasione. 232 00:09:29,565 --> 00:09:32,980 Perché, ancora una volta, comunica un'idea di vita giusta. 233 00:09:32,980 --> 00:09:34,479 Una vita giusta -- 234 00:09:34,479 --> 00:09:36,680 una vita che voi in quanto designer approvate 235 00:09:36,680 --> 00:09:38,767 dicendo: "Nella vita giusta, 236 00:09:38,767 --> 00:09:42,781 le cose che produciamo sono sostenibili o non sostenibili come questa sedia. 237 00:09:42,781 --> 00:09:45,403 I lavoratori vengono trattati bene o male 238 00:09:45,403 --> 00:09:48,047 come sono trattati i lavoratori che hanno costruito quella sedia". 239 00:09:48,047 --> 00:09:50,380 La vita giusta è una vita dove il design è importante 240 00:09:50,380 --> 00:09:53,114 perché qualcuno ovviamente ci ha messo il proprio tempo e ha speso dei soldi 241 00:09:53,114 --> 00:09:54,978 per quel tipo di sedia così ben concepita, 242 00:09:54,978 --> 00:09:56,397 dove la tradizione è importante 243 00:09:56,397 --> 00:09:58,198 perché è un classico tradizionale 244 00:09:58,198 --> 00:09:59,710 e a qualcuno importava, 245 00:09:59,710 --> 00:10:01,662 e dove una cosa come il consumo cospicuo esiste 246 00:10:01,662 --> 00:10:03,230 dove va bene ed è normale 247 00:10:03,230 --> 00:10:06,249 spendere somme stratosferiche per una sedia come questa 248 00:10:06,249 --> 00:10:09,664 per segnalare agli altri il proprio status sociale. 249 00:10:09,664 --> 00:10:12,831 Questi sono quindi gli strati, il tipo di domande 250 00:10:12,831 --> 00:10:14,584 a cui volevo portarvi oggi -- 251 00:10:14,584 --> 00:10:16,732 ossia la domanda,:"Quali sono le intenzioni 252 00:10:16,732 --> 00:10:19,198 che volete trasmettere nella concezione di qualcosa? 253 00:10:19,198 --> 00:10:22,698 Quali sono gli effetti, voluti e non voluti, che ottenete? 254 00:10:22,698 --> 00:10:24,263 Quali sono i valori che utilizzate 255 00:10:24,263 --> 00:10:25,615 per giudicarle? 256 00:10:25,615 --> 00:10:27,082 Quali sono le virtù, le aspirazioni 257 00:10:27,082 --> 00:10:29,801 che state veramente esprimendo con questo? 258 00:10:29,801 --> 00:10:31,896 E come si applica, 259 00:10:31,896 --> 00:10:33,888 non solo nella tecnologia di persuasione, 260 00:10:33,888 --> 00:10:36,222 ma in tutto quello che concepite? 261 00:10:36,222 --> 00:10:38,124 Ci fermiamo qui? 262 00:10:38,124 --> 00:10:39,757 Non credo. 263 00:10:39,757 --> 00:10:44,222 Credo che tutte queste cose finiscano per essere pervase 264 00:10:44,222 --> 00:10:45,940 dal cuore di tutto questo -- 265 00:10:45,940 --> 00:10:49,055 e questo non è nient'altro che la vita stessa. 266 00:10:49,055 --> 00:10:51,955 Quando la domanda su quale sia la vita giusta 267 00:10:51,955 --> 00:10:54,306 permea tutto quello che concepiamo, 268 00:10:54,306 --> 00:10:56,889 perché dovremmo smettere di concepire le cose e smettere di chiederci 269 00:10:56,889 --> 00:10:59,622 come si applica alla nostra vita? 270 00:10:59,622 --> 00:11:02,357 "Perché la lampada o la casa dovrebbe essere un oggetto d'arte, 271 00:11:02,357 --> 00:11:03,588 e non dovrebbe esserlo la nostra vita?" 272 00:11:03,588 --> 00:11:05,204 come dice Michel Foucault. 273 00:11:05,204 --> 00:11:08,755 Solo per darvi un esempio pratico di Buster Benson. 274 00:11:08,755 --> 00:11:11,270 Questo è Buster mentre installa una macchina per le trazioni 275 00:11:11,270 --> 00:11:13,723 negli uffici dei suoi nuovi startup Habits Labs, 276 00:11:13,723 --> 00:11:15,740 dove stanno cercando di costruire nuove applicazioni 277 00:11:15,740 --> 00:11:17,722 come "Health Month" [Mese della Salute] per la gente. 278 00:11:17,722 --> 00:11:20,302 E perché costruisce una cosa simile? 279 00:11:20,302 --> 00:11:22,307 Ecco gli assiomi 280 00:11:22,307 --> 00:11:25,510 che Habit Labs, la startup di Buster, ha buttato giù 281 00:11:25,510 --> 00:11:28,631 su come volevano lavorare insieme in quanto squadra 282 00:11:28,631 --> 00:11:30,455 costruendo queste applicazioni -- 283 00:11:30,455 --> 00:11:32,507 una serie di principi morali fissati per loro stessi 284 00:11:32,507 --> 00:11:34,255 per lavorare insieme -- 285 00:11:34,255 --> 00:11:35,653 uno di questi era: 286 00:11:35,653 --> 00:11:38,735 "Ci prendiamo cura della nostra salute e gestiamo il sovraffaticamento". 287 00:11:38,735 --> 00:11:42,485 Perché in fin dei conti come potete chiedere a voi stessi 288 00:11:42,485 --> 00:11:43,952 e come potete trovare una risposta 289 00:11:43,952 --> 00:11:46,252 a quale visione della vita corretta 290 00:11:46,252 --> 00:11:49,353 volete trasmettere e creare con le vostre creazioni 291 00:11:49,353 --> 00:11:51,035 senza porvi la domanda: 292 00:11:51,035 --> 00:11:52,519 quale visione di vita corretta 293 00:11:52,519 --> 00:11:55,419 volete vivere? 294 00:11:55,419 --> 00:11:59,669 E con questo vi ringrazio. 295 00:11:59,669 --> 00:12:02,632 (Applausi)