0:00:01.243,0:00:03.041 Sono solo io, 0:00:03.041,0:00:05.327 o c'è qualcun altro, qui, 0:00:05.327,0:00:07.651 che è un po' deluso dalla democrazia? 0:00:08.816,0:00:11.172 (Applausi) 0:00:11.951,0:00:13.932 Diamo un'occhiata a qualche numero. 0:00:14.744,0:00:17.057 In tutto il mondo, 0:00:17.057,0:00:20.937 l'affluenza media[br]alle elezioni presidenziali, 0:00:20.937,0:00:22.572 negli ultimi 30 anni, 0:00:22.572,0:00:25.344 è stata del solo 67%. 0:00:26.159,0:00:28.212 Se ci spostiamo in Europa, 0:00:28.212,0:00:32.708 e consideriamo quanti hanno votato [br]alle elezioni parlamentari europee, 0:00:32.708,0:00:36.583 l'affluenza media è stata del 42% appena. 0:00:37.995,0:00:39.748 Ora spostiamoci invece a New York, 0:00:39.748,0:00:44.433 e vediamo quanti hanno votato[br]nelle ultime elezioni per il sindaco. 0:00:44.433,0:00:48.340 Soltanto il 24% si è presentato alle urne. 0:00:48.933,0:00:52.072 Questo significa che,[br]se trasmettessero ancora "Friends", 0:00:52.072,0:00:55.354 solo Joey, e forse Phoebe,[br]si sarebbero presentati a votare. 0:00:55.354,0:00:56.794 (Risate) 0:00:57.364,0:01:01.804 Ma non possiamo biasimare le persone,[br]perché sono stanche dei politici 0:01:01.804,0:01:03.865 e sono stanche di quelle aziende 0:01:03.865,0:01:07.437 che sfruttano i loro dati, generati[br]per comunicare con amici e familiari, 0:01:07.437,0:01:09.841 per bersagliarli con propaganda[br]politica su misura. 0:01:10.401,0:01:13.161 Ma il fatto è che questa non è una novità. 0:01:13.161,0:01:16.656 Oggi le aziende usano i "Mi piace"[br]per bersagliarci con propaganda mirata; 0:01:16.656,0:01:19.773 ma prima usavano il nostro CAP,[br]il nostro genere o la nostra età. 0:01:19.773,0:01:23.307 Perché l'idea di bersagliare le persone[br]con propaganda a fini politici 0:01:23.307,0:01:25.423 è vecchia come la politica. 0:01:25.423,0:01:27.802 E il motivo per cui quest'idea esiste 0:01:27.802,0:01:31.007 è che la democrazia[br]ha una vulnerabilità di fondo: 0:01:31.604,0:01:33.549 l'idea di un rappresentante. 0:01:33.549,0:01:34.759 In teoria, 0:01:34.759,0:01:37.867 la democrazia è la capacità[br]dei cittadini di esercitare il potere; 0:01:37.867,0:01:41.709 ma in pratica dobbiamo delegare[br]questo potere a un rappresentante, 0:01:41.709,0:01:44.184 che possa esercitare[br]questo potere al posto nostro. 0:01:44.184,0:01:46.410 Questo rappresentante[br]è un collo di bottiglia, 0:01:46.410,0:01:47.787 o un punto debole. 0:01:47.787,0:01:51.634 E chi vuole attaccare la democrazia[br]deve intervenire proprio qui: 0:01:51.634,0:01:53.295 si attacca la democrazia, infatti, 0:01:53.295,0:01:57.015 o impadronendosi del rappresentante,[br]o del modo in cui si sceglie. 0:01:57.721,0:02:00.771 La domanda, quindi, è: [br]la storia finisce qui? 0:02:01.732,0:02:04.590 Non possiamo fare niente di meglio, 0:02:05.890,0:02:08.333 o ci sono delle alternative? 0:02:09.893,0:02:12.250 Alcune persone hanno pensato[br]a delle alternative, 0:02:12.250,0:02:15.524 e una delle idee è quella[br]della democrazia diretta. 0:02:16.544,0:02:19.100 In altre parole, scavalcare[br]completamente i politici 0:02:19.100,0:02:21.603 e far votare la gente[br]direttamente sulle questioni, 0:02:21.603,0:02:23.890 direttamente sulle leggi. 0:02:24.441,0:02:25.651 Ma è un'idea ingenua, 0:02:25.651,0:02:28.270 perché ci sono troppe materie[br]su cui deliberare. 0:02:29.050,0:02:31.630 Se guardate al 114esimo[br]Congresso degli Stati Uniti, 0:02:31.630,0:02:33.766 vedrete che la Camera dei Rappresentanti 0:02:33.766,0:02:36.557 ha esaminato oltre 6.000[br]progetti di legge. 0:02:37.177,0:02:39.460 Il Senato ne ha esaminati più di 3.000. 0:02:39.800,0:02:42.200 E sono state approvate più di 300 leggi. 0:02:42.200,0:02:43.942 Sarebbero molte le decisioni 0:02:43.942,0:02:46.405 che ognuno di noi[br]dovrebbe prendere ogni settimana 0:02:46.405,0:02:48.998 su questioni di cui sa poco o niente. 0:02:48.998,0:02:51.630 C'è quindi un problema[br]di "larghezza di banda cognitiva" 0:02:51.630,0:02:55.136 se valutiamo la democrazia diretta[br]come possibile alternativa. 0:02:56.115,0:03:00.544 Alcuni considerano l'idea[br]della democrazia "liquida", o fluida, 0:03:00.544,0:03:04.174 ovvero l'idea di passare[br]il proprio potere politico a qualcun altro 0:03:04.174,0:03:06.244 che può a sua volta[br]passarlo a qualcun altro 0:03:06.244,0:03:08.669 e creare così un'ampia rete di seguaci 0:03:08.669,0:03:11.821 nella quale, alla fine,[br]poche persone prendono le decisioni 0:03:11.821,0:03:14.984 a nome di tutti i loro seguaci[br]e dei seguaci dei loro seguaci. 0:03:16.196,0:03:19.937 Ma nemmeno questo risolve[br]il problema della banda cognitiva, 0:03:19.937,0:03:24.147 e onestamente assomiglia molto[br]all'idea di avere un rappresentante. 0:03:24.537,0:03:29.036 Quello che voglio fare oggi, quindi,[br]è lanciarvi una provocazione, e chiedervi: 0:03:30.547,0:03:36.267 e se invece di cercare[br]di scavalcare i politici 0:03:37.147,0:03:39.527 provassimo ad automatizzarli? 0:03:45.771,0:03:48.701 L'idea dell'automazione non è nuova. 0:03:48.701,0:03:50.755 Risale a più di 300 anni fa, 0:03:50.755,0:03:54.013 quando i tessitori francesi[br]decisero di automatizzare il telaio. 0:03:54.710,0:03:59.094 Il vincitore di questa guerra industriale[br]fu Joseph-Marie Jacquard. 0:03:59.094,0:04:00.949 Era un tessitore e un mercante francese 0:04:00.949,0:04:04.737 che combinò il telaio e il motore a vapore[br]per creare dei telai autonomi. 0:04:05.577,0:04:07.934 E con questi telai autonomi[br]acquisì il controllo. 0:04:08.374,0:04:12.209 A quel punto avrebbe potuto creare[br]tessuti più complessi, e più sofisticati, 0:04:12.209,0:04:14.461 rispetto a quelli fatti a mano. 0:04:15.101,0:04:18.899 E vincendo questa guerra industriale,[br]inoltre, gettò anche le basi 0:04:18.899,0:04:22.085 di quello che sarebbe diventato[br]il modello di ogni automazione. 0:04:22.085,0:04:25.965 Negli ultimi 300 anni, l'automazione[br]ha seguito sempre lo stesso schema: 0:04:26.951,0:04:29.459 prima individuiamo un'esigenza, 0:04:29.459,0:04:32.657 poi creiamo uno strumento[br]che soddisfi tale esigenza, 0:04:32.657,0:04:34.751 come il telaio in questo caso; 0:04:34.751,0:04:37.322 e infine analizziamo il modo[br]in cui le persone lo usano 0:04:37.322,0:04:39.091 per automatizzare l'utilizzatore. 0:04:39.091,0:04:43.037 È così che siamo passati[br]dal telaio meccanico al telaio autonomo. 0:04:44.167,0:04:46.291 E ci sono voluti mille anni. 0:04:46.291,0:04:48.286 Oggi, in soli cento anni, 0:04:48.286,0:04:51.587 abbiamo ripetuto lo stesso "copione"[br]nell'automazione dell'automobile. 0:04:53.106,0:04:57.422 Il fatto è che questa volta[br]l'automazione è "reale". 0:04:57.815,0:05:01.140 Questo è un video che ha condiviso con me[br]un mio collega di Toshiba 0:05:01.140,0:05:04.413 che mostra la fabbrica[br]che produce memorie a stato solido. 0:05:04.413,0:05:06.455 L'intera fabbrica è robotizzata. 0:05:06.455,0:05:08.900 Non ci sono umani in questa fabbrica. 0:05:08.900,0:05:11.154 E i robot lasceranno presto le fabbriche[br] 0:05:11.154,0:05:15.126 e diventeranno parte del nostro mondo,[br]parte della nostra forza lavoro. 0:05:15.126,0:05:18.400 Nel mio lavoro, quindi,[br]mi occupo di creare strumenti 0:05:18.400,0:05:20.876 che integrano dati per intere nazioni 0:05:20.876,0:05:24.386 per riuscire a disporre[br]delle basi necessarie 0:05:24.386,0:05:27.623 per un futuro in cui sarà necessario[br]gestire anche queste macchine. 0:05:29.115,0:05:32.045 Ma oggi non sono qui[br]per parlarvi di questi strumenti 0:05:32.045,0:05:34.369 che integrano dati per le nazioni. 0:05:34.369,0:05:37.029 Sono qui per parlarvi di un'altra idea 0:05:37.029,0:05:41.063 che potrebbe aiutarci a infondere[br]l'IA nella democrazia. 0:05:41.813,0:05:44.053 Perché gli strumenti che creo 0:05:44.053,0:05:46.693 sono progettati per prendere [br]decisioni esecutive. 0:05:46.693,0:05:50.521 Queste decisioni possono essere prese[br]con un certo grado di oggettività, 0:05:50.521,0:05:52.746 come le decisioni[br]sugli investimenti pubblici. 0:05:52.746,0:05:55.440 Ma ci sono decisioni[br]che sono di carattere legislativo, 0:05:55.440,0:05:57.281 e le decisioni legislative[br] 0:05:57.281,0:06:00.895 richiedono comunicazione tra persone[br]con punti di vista diversi, 0:06:00.895,0:06:03.542 richiedono partecipazione,[br]richiedono dibattiti, 0:06:03.542,0:06:05.320 richiedono delibere. 0:06:06.141,0:06:07.729 E per molto tempo abbiamo pensato 0:06:07.729,0:06:12.303 che per migliorare la democrazia[br]servisse maggiore comunicazione. 0:06:12.303,0:06:15.754 E così, tutte le tecnologie sviluppate[br]nel contesto della democrazia, 0:06:15.754,0:06:18.574 che fossero i giornali o i social media, 0:06:18.574,0:06:21.950 hanno cercato di offrirci[br]una maggiore comunicazione. 0:06:21.950,0:06:23.319 Ma ci siamo già passati, 0:06:23.319,0:06:25.861 e sappiamo che questo[br]non risolverà il problema, 0:06:25.861,0:06:30.261 perché non è un problema di comunicazione,[br]ma di "larghezza di banda" cognitiva. 0:06:30.263,0:06:33.054 E se il problema è[br]di larghezza di banda cognitiva, 0:06:33.054,0:06:38.152 aggiungere ulteriore comunicazione[br]non risolverà il problema. 0:06:38.152,0:06:41.299 Quello di cui avremo bisogno, invece,[br]sono altre tecnologie 0:06:41.299,0:06:44.329 che ci aiutino a gestire[br]alcune di quelle comunicazioni 0:06:44.329,0:06:46.635 di cui siamo sovraccaricati. 0:06:46.635,0:06:49.764 Pensate, ad esempio, a un piccolo avatar,[br]a un agente software, 0:06:49.764,0:06:51.683 a un Grillo Parlante digitale 0:06:51.683,0:06:52.935 (Risate) 0:06:52.935,0:06:56.827 che sia in grado di rispondere[br]alle domande per conto nostro. 0:06:57.687,0:06:59.480 Se disponessimo di questa tecnologia, 0:06:59.480,0:07:01.968 potremmo riuscire a liberarci[br]di alcune comunicazioni 0:07:01.968,0:07:04.400 e magari aiutarci[br]a prendere decisioni migliori, 0:07:04.400,0:07:06.373 o su scala più vasta. 0:07:06.813,0:07:10.523 E il punto è che anche l'idea[br]degli agenti software non è nuova. 0:07:10.533,0:07:13.146 Li usiamo già tutti i giorni. 0:07:13.146,0:07:14.661 Usiamo gli agenti software 0:07:14.661,0:07:18.106 per scegliere quale percorso prendere[br]per arrivare a destinazione, 0:07:19.020,0:07:21.171 la musica che ascolteremo, 0:07:21.648,0:07:24.619 oppure per ricevere suggerimenti[br]sui prossimi libri da leggere. 0:07:25.904,0:07:28.482 C'è un'idea, nel XXI secolo, 0:07:28.482,0:07:31.094 che è tanto ovvia quanto l'idea 0:07:31.104,0:07:36.894 di combinare, ai tempi di Jacquard,[br]un motore a vapore e un telaio. 0:07:37.464,0:07:41.884 E quest'idea è combinare[br]democrazia diretta e agenti software. 0:07:42.794,0:07:44.814 Immaginate per un attimo un mondo 0:07:44.814,0:07:46.984 in cui, anziché avere un rappresentante, 0:07:46.984,0:07:49.648 che rappresenta voi[br]e milioni di altre persone, 0:07:49.648,0:07:52.538 potete avere un rappresentante[br]che rappresenti soltanto voi. 0:07:53.428,0:07:55.692 Con le vostre sfaccettate[br]visioni politiche, 0:07:55.692,0:07:58.900 quella strana combinazione[br]di libertarismo e di liberalismo, 0:07:58.900,0:08:01.022 un po' di conservatorismo[br]su alcune questioni 0:08:01.022,0:08:02.868 e grande progressismo su altre. 0:08:03.608,0:08:06.909 I politici di oggi sono "pacchetti"[br]e sono pieni di compromessi; 0:08:06.909,0:08:10.527 ma potreste avere qualcuno[br]che rappresenti soltanto voi, 0:08:10.527,0:08:15.129 se siete disposti a rinunciare all'idea[br]che questo rappresentante sia umano. 0:08:15.129,0:08:17.489 Se questo rappresentante[br]fosse un agente software, 0:08:17.489,0:08:21.157 potremmo avere un Senato composto[br]da un senatore per cittadino. 0:08:21.157,0:08:24.437 E questi senatori saranno in grado[br]di leggere ogni progetto di legge, 0:08:24.437,0:08:26.180 e potranno votare ognuno di essi. 0:08:27.675,0:08:30.418 C'è un'idea ovvia, quindi,[br]che potremmo voler considerare. 0:08:30.418,0:08:33.082 Ma capisco che, oggi come oggi, 0:08:33.082,0:08:35.297 quest'idea possa risultare[br]un po' inquietante. 0:08:36.301,0:08:39.765 Infatti, pensare a un robot[br]che viene dal futuro, 0:08:39.765,0:08:41.512 per aiutarci a governare, 0:08:41.512,0:08:43.183 sembra terrificante. 0:08:44.163,0:08:45.558 Ma è già successo, in realtà. 0:08:45.558,0:08:47.135 (Risate) 0:08:47.135,0:08:49.473 Ed era davvero un tipo a posto. 0:08:49.473,0:08:51.583 (Risate) 0:08:53.267,0:08:57.547 Come sarebbe la versione[br]del telaio di Jacquard di quest'idea? 0:08:58.035,0:08:59.810 Sarebbe un sistema molto semplice. 0:08:59.810,0:09:02.122 Immaginate un sistema[br]nel quale potete loggarvi, 0:09:02.122,0:09:05.292 creare il vostro avatar[br]e iniziare ad istruirlo. 0:09:05.292,0:09:08.618 Potete fornire al vostro avatar[br]le vostre abitudini di lettura, 0:09:08.618,0:09:10.439 o connetterlo ai vostri social media; 0:09:10.439,0:09:12.875 oppure potete connetterlo ad altri dati, 0:09:12.875,0:09:15.231 per esempio sottoponendovi[br]a dei test psicologici. 0:09:15.231,0:09:18.143 E il bello è che non c'è nessun inganno. 0:09:18.143,0:09:21.416 Non state fornendo dati per comunicare[br]con i vostri amici e familiari 0:09:21.416,0:09:24.791 che verranno poi utilizzati[br]in un sistema politico. 0:09:24.791,0:09:28.449 State fornendo dati a un sistema[br]progettato per essere utilizzato 0:09:28.449,0:09:31.204 per prendere decisioni politiche[br]per conto vostro. 0:09:31.204,0:09:35.178 Poi, prendete questi dati[br]e scegliete un algoritmo d'istruzione, 0:09:35.178,0:09:36.475 perché è un mercato aperto 0:09:36.475,0:09:39.515 in cui persone differenti[br]possono inviare algoritmi differenti 0:09:39.515,0:09:44.003 per prevedere come voterete[br]sulla base dei dati che avete fornito. 0:09:44.003,0:09:47.388 E il sistema è aperto,[br]nessuno controlla gli algoritmi; 0:09:47.388,0:09:50.648 alcuni algoritmi diventano popolari,[br]mentre altri perdono popolarità. 0:09:50.648,0:09:52.481 Infine, potete revisionare l'avatar. 0:09:52.481,0:09:54.117 Potete osservarlo all'opera, 0:09:54.117,0:09:56.573 e se vi piace lasciarlo[br]col pilota automatico. 0:09:56.573,0:09:58.377 Se invece volete più controllo, 0:09:58.377,0:10:01.516 potete decidere che vi interpelli[br]prima di qualsiasi decisione; 0:10:01.516,0:10:04.048 oppure potete optare[br]per una qualunque via di mezzo. 0:10:04.528,0:10:07.794 Uno dei motivi per cui ricorriamo[br]così poco alla democrazia, forse, 0:10:07.794,0:10:10.771 è la sua interfaccia utente,[br]che è davvero pessima. 0:10:11.112,0:10:15.459 E se la migliorassimo,[br]potremmo utilizzarla più spesso. 0:10:16.458,0:10:19.492 Naturalmente, ci sono[br]tante domande che potreste porvi. 0:10:20.452,0:10:22.718 Come istruiamo questi avatar? 0:10:22.718,0:10:24.516 Come manteniamo i dati al sicuro? 0:10:24.542,0:10:27.807 Come facciamo a mantenere diffusi,[br]e revisionabili, questi sistemi? 0:10:27.807,0:10:31.221 Come può accedervi mia nonna ottantenne,[br]che non sa usare Internet? 0:10:32.244,0:10:34.313 Fidatevi, le ho sentite tutte. 0:10:35.383,0:10:39.187 Quando si pensa a un'idea come questa[br]bisogna stare attenti ai pessimisti, 0:10:39.187,0:10:43.197 perché trovano sempre[br]un problema per ogni soluzione. 0:10:43.197,0:10:45.289 (Risate) 0:10:45.289,0:10:48.323 Perciò voglio invitarvi[br]a riflettere sulle idee più grandi. 0:10:48.323,0:10:51.557 Le domande che vi ho appena elencato[br]sono idee piccole, 0:10:52.124,0:10:54.934 perché sono domande su quello[br]che potrebbe non funzionare. 0:10:55.634,0:10:57.401 Le idee grandi sono incentrate 0:10:57.401,0:11:00.988 sulle altre cose che potremmo fare[br]se funzionasse davvero. 0:11:01.742,0:11:04.996 Una di queste idee è: [br]beh, chi scrive le leggi? 0:11:05.706,0:11:09.830 Inizialmente, potremmo permettere[br]agli avatar che abbiamo già 0:11:09.830,0:11:14.725 di votare le leggi scritte dai senatori[br]o dai politici che abbiamo già. 0:11:15.547,0:11:17.373 Ma se funzionasse, 0:11:17.753,0:11:20.107 potremmo scrivere un algoritmo 0:11:20.107,0:11:22.084 che potrebbe provare a scrivere una legge[br] 0:11:22.084,0:11:25.062 che otterrebbe una certa[br]percentuale di approvazione. 0:11:25.062,0:11:26.872 E così il processo si invertirebbe. 0:11:26.872,0:11:30.022 Potreste ridicolizzare quest'idea,[br]e pensare di opporvi; 0:11:30.022,0:11:32.676 ma non potete negare[br]che sia un'idea fattibile 0:11:32.676,0:11:35.891 solo in un mondo in cui la democrazia[br]diretta e gli agenti software 0:11:35.891,0:11:38.897 sono una possibile[br]forma di partecipazione. 0:11:40.516,0:11:43.509 Come diamo inizio a questa rivoluzione? 0:11:44.189,0:11:47.412 Non possiamo avviare questa rivoluzione[br]con picchetti o proteste, 0:11:47.412,0:11:51.686 o chiedendo ai nostri politici attuali[br]di trasformarsi in robot, 0:11:51.686,0:11:53.259 perché non funzionerebbe. 0:11:53.259,0:11:54.945 La mia idea è molto più semplice, 0:11:54.945,0:11:56.098 molto più lenta 0:11:56.098,0:11:57.512 e molto più modesta di così,. 0:11:57.512,0:12:00.959 Diamo inizio a questa rivoluzione[br]creando sistemi semplici come questo 0:12:00.959,0:12:03.987 nelle scuole di specializzazione,[br]nelle biblioteche e nelle ONG. 0:12:03.987,0:12:05.401 E cercando di individuare[br] 0:12:05.401,0:12:09.396 tutte quelle piccole domande,[br]e tutti quei piccoli problemi da risolvere 0:12:09.396,0:12:13.875 per rendere quest'idea[br]praticabile e degna di fiducia. 0:12:14.086,0:12:15.585 E mentre creiamo questi sistemi 0:12:15.585,0:12:19.025 che permetteranno a centinaia, migliaia,[br]centinaia di migliaia di persone 0:12:19.025,0:12:21.681 di votare in modi[br]non politicamente vincolanti, 0:12:21.681,0:12:23.765 acquisiremo fiducia in quest'idea, 0:12:23.765,0:12:25.238 il mondo cambierà 0:12:25.238,0:12:28.283 e quelli che ora sono piccoli,[br]come mia figlia adesso, 0:12:28.283,0:12:29.469 cresceranno. 0:12:30.526,0:12:32.913 E quando mia figlia avrà la mia età, 0:12:32.913,0:12:37.323 forse quest'idea, che a noi oggi[br]sembra così assurda, 0:12:37.323,0:12:41.087 non sarà poi così assurda[br]per lei e per i suoi amici. 0:12:41.957,0:12:45.833 E a quel punto, noi saremo[br]alla fine della nostra storia. 0:12:46.364,0:12:49.556 Ma loro saranno all'inizio della loro. 0:12:49.556,0:12:50.683 Grazie. 0:12:50.683,0:12:53.245 (Applausi)