0:00:01.373,0:00:03.117 Ligt het aan mij 0:00:03.141,0:00:05.473 of zijn er hier nog anderen 0:00:05.497,0:00:08.021 die een beetje teleurgesteld zijn [br]in de democratie? 0:00:08.986,0:00:11.322 (Applaus) 0:00:12.141,0:00:14.212 Laten we eens kijken naar wat cijfers. 0:00:14.934,0:00:17.107 Als we over de hele wereld kijken, 0:00:17.131,0:00:21.023 dan was de gemiddelde opkomst [br]bij presidentsverkiezingen 0:00:21.047,0:00:22.698 in de afgelopen 30 jaar 0:00:22.722,0:00:25.344 slechts 67 procent. 0:00:26.329,0:00:28.302 Als we in Europa kijken 0:00:28.326,0:00:32.754 naar de mensen die deelnamen [br]aan de parlementsverkiezingen van de EU, 0:00:32.778,0:00:35.219 dan was de gemiddelde opkomst [br]bij deze verkiezingen 0:00:35.219,0:00:36.977 slechts 42 procent. 0:00:38.125,0:00:39.794 Laten we nu eens naar New York gaan 0:00:39.818,0:00:41.803 en kijken hoeveel mensen stemden 0:00:41.803,0:00:44.523 voor de laatste verkiezingen [br]voor een burgemeester. 0:00:44.523,0:00:48.340 We zien dat slechts 24% van de mensen [br]kwamen opdagen om te stemmen. 0:00:49.063,0:00:52.158 Dat zou betekenen[br]dat als ‘Friends’ nog zou lopen, 0:00:52.182,0:00:55.530 Joey en misschien Phoebe [br]zouden zijn gaan stemmen. 0:00:55.554,0:00:56.844 (Gelach) 0:00:57.434,0:01:01.839 Je kunt het ze niet kwalijk nemen,[br]want de mensen zijn politici beu. 0:01:01.839,0:01:03.171 En de mensen zijn het beu 0:01:03.171,0:01:07.453 dat hun communicatie met vrienden[br]en familie door anderen gebruikt wordt 0:01:07.453,0:01:10.147 om politieke propaganda [br]naar hen te versturen. 0:01:10.519,0:01:12.956 Maar dat is geenszins nieuw. 0:01:12.956,0:01:16.706 Tegenwoordig gebruiken ze nog eerder[br]‘likes’ om propaganda naar je te versturen 0:01:16.706,0:01:19.893 dan dat ze gebruik maken [br]van je postcode, geslacht of leeftijd, 0:01:19.917,0:01:23.487 omdat het idee om naar mensen propaganda[br]voor politieke doeleinden te sturen 0:01:23.511,0:01:25.103 zo oud is als de politiek zelf. 0:01:25.530,0:01:27.808 En dat komt 0:01:27.832,0:01:31.304 omdat de democratie [br]een fundamentele kwetsbaarheid heeft. 0:01:31.710,0:01:33.742 Dat is het idee van de vertegenwoordiger. 0:01:34.049,0:01:37.993 In principe is democratie het vermogen [br]van mensen om macht uit te oefenen. 0:01:38.017,0:01:41.835 Maar in de praktijk delegeren we [br]die macht aan een vertegenwoordiger 0:01:41.859,0:01:44.114 die die macht uitoefent voor ons. 0:01:44.561,0:01:46.386 Die vertegenwoordiger is een pijnpunt, 0:01:46.410,0:01:47.707 een zwakke plek. 0:01:47.731,0:01:51.680 Daarop richt je je als je [br]de democratie wil aanvallen, 0:01:51.704,0:01:55.193 want democratie kan je controleren [br]ofwel via deze vertegenwoordiger, 0:01:55.217,0:01:57.365 ofwel door de manier [br]waarop mensen kiezen. 0:01:58.065,0:01:59.481 Dus is de grote vraag: 0:01:59.505,0:02:01.319 Is dit het einde van de geschiedenis? 0:02:01.989,0:02:05.092 Is dit het beste dat we kunnen 0:02:05.878,0:02:08.945 of zijn er nog alternatieven? 0:02:10.130,0:02:12.484 Sommige dachten na over alternatieven 0:02:12.508,0:02:16.187 en een van de ideeën [br]is die van directe democratie: 0:02:16.790,0:02:19.269 het idee om politici te passeren 0:02:19.293,0:02:21.696 en mensen direct [br]te laten stemmen over kwesties, 0:02:21.720,0:02:24.275 om mensen rechtstreeks [br]over wetten te laten stemmen. 0:02:24.415,0:02:25.751 Maar dit idee is naïef, 0:02:25.775,0:02:28.946 omdat we over te veel dingen [br]zouden moeten stemmen. 0:02:28.970,0:02:31.752 Als je kijkt naar [br]het 114e Amerikaanse Congres, 0:02:31.776,0:02:34.263 zie je dat het Huis van Afgevaardigden 0:02:34.287,0:02:36.840 meer dan 6.000 0:02:36.840,0:02:39.856 en de Senaat meer dan 3.000 [br]wetsvoorstellen moest bekijken, 0:02:39.880,0:02:42.688 en meer dan 300 wetten goedkeurde. 0:02:42.712,0:02:44.291 Dat zouden veel beslissingen zijn 0:02:44.315,0:02:46.502 waar iedereen tijd in zou moeten steken 0:02:46.526,0:02:48.668 inzake kwesties waar ze weinig over weten. 0:02:49.069,0:02:51.700 Dus is er een groot probleem[br]van cognitieve bandbreedte 0:02:51.700,0:02:55.526 als we nadenken over directe democratie [br]als levensvatbaar alternatief. 0:02:56.205,0:02:57.614 Daarom denken sommigen na 0:02:57.614,0:03:00.664 over het idee van vloeibare democratie, [br]of vloeistofdemocratie, 0:03:00.664,0:03:03.834 waarbij je je politieke macht [br]aan iemand doorgeeft, 0:03:03.834,0:03:06.164 die ze dan weer [br]aan iemand anders doorgeeft, 0:03:06.188,0:03:08.729 en je uiteindelijk [br]een groot volgersnetwerk creëert 0:03:08.753,0:03:12.047 waarbij aan het einde enkele mensen [br]de beslissingen nemen 0:03:12.071,0:03:15.214 namens al hun volgelingen, [br]en hún volgelingen. 0:03:16.326,0:03:20.169 Maar dit idee lost ook niet het probleem [br]van de cognitieve bandbreedte op 0:03:20.169,0:03:21.573 en, om eerlijk te zijn, 0:03:21.573,0:03:24.795 lijkt het ook behoorlijk veel[br]op het idee van een vertegenwoordiger. 0:03:24.795,0:03:28.263 Daarom ga ik vandaag een beetje provoceren 0:03:28.277,0:03:29.924 en jullie vragen: 0:03:30.601,0:03:36.492 wat als we nu eens in plaats [br]van politici te omzeilen, 0:03:37.187,0:03:39.387 we ze proberen te automatiseren? 0:03:45.871,0:03:48.797 Het idee van automatisering is niet nieuw. 0:03:48.821,0:03:50.901 Het ontstond meer dan 300 jaar geleden 0:03:50.925,0:03:53.993 toen Franse wevers besloten [br]om het weefgetouw te automatiseren. 0:03:54.820,0:03:59.180 De winnaar van die industriële oorlog [br]was Joseph-Marie Jacquard. 0:03:59.204,0:04:00.995 Hij was een Franse wever en handelaar 0:04:00.995,0:04:03.419 die het weefgetouw combineerde [br]met de stoommachine 0:04:03.443,0:04:05.633 om autonome weefgetouwen te creëren. 0:04:05.657,0:04:08.410 En die autonome weefgetouwen [br]kon hij controleren. 0:04:08.434,0:04:12.319 Hij kon nu complexere [br]en geavanceerdere stoffen maken 0:04:12.343,0:04:14.471 dan degenen die dat manueel deden. 0:04:15.193,0:04:17.825 Maar door het winnen [br]van die industriële oorlog 0:04:17.849,0:04:21.373 legde hij ook de grondslagen [br]van de automatisering. 0:04:22.135,0:04:25.065 De manier waarop we [br]de laatste 300 jaar dingen automatiseren, 0:04:25.065,0:04:26.411 is altijd dezelfde gebleven: 0:04:27.006,0:04:29.515 eerst een behoefte identificeren, 0:04:29.539,0:04:32.723 dan een werktuig creëren [br]om aan die behoefte te voldoen, 0:04:32.747,0:04:34.787 zoals in dit geval het weefgetouw, 0:04:34.811,0:04:37.262 en dan onderzoeken[br]hoe mensen dat werktuig gebruiken 0:04:37.262,0:04:39.121 om die gebruiker te automatiseren. 0:04:39.242,0:04:42.303 Zo ontstond het mechanische weefgetouw, 0:04:42.327,0:04:44.223 het autonome weefgetouw. 0:04:44.247,0:04:46.367 Dat kostte ons zowat duizend jaar. 0:04:46.391,0:04:48.462 Het kostte ons slechts honderd jaar 0:04:48.486,0:04:51.697 om op dezelfde manier [br]de auto te automatiseren. 0:04:53.286,0:04:57.470 Maar dit keer is het wel[br]echt automatiseren. 0:04:57.915,0:05:01.236 Dit is een video van een collega [br]van me bij Toshiba, 0:05:01.260,0:05:04.519 over een fabriek [br]die solid state drives produceert. 0:05:04.543,0:05:06.561 De gehele fabriek is een robot. 0:05:06.585,0:05:08.510 Er zijn geen mensen in die fabriek. 0:05:08.933,0:05:11.344 En de robots zullen al snel [br]de fabrieken verlaten, 0:05:11.344,0:05:13.300 deel gaan uitmaken van onze wereld 0:05:13.324,0:05:15.159 en medewerkers worden. 0:05:15.183,0:05:16.956 Het is mijn werk 0:05:16.980,0:05:20.972 tools te creëren die gegevens [br]voor hele landen integreren, 0:05:20.996,0:05:24.462 zodat we eindelijk de fundamenten [br]krijgen die we nodig hebben 0:05:24.486,0:05:28.173 voor een toekomst waarin we [br]ook die machines moeten beheren. 0:05:29.195,0:05:32.101 Maar vandaag ga ik [br]het niet hebben over tools 0:05:32.125,0:05:33.949 die gegevens integreren voor landen. 0:05:34.463,0:05:37.085 Ik kom hier praten over een ander idee: 0:05:37.109,0:05:41.974 hoe we kunstmatige intelligentie [br]kunnen gebruiken in de democratie. 0:05:41.998,0:05:46.731 Omdat de tools die ik maak, [br]ontworpen zijn voor uitvoeringsbesluiten. 0:05:46.755,0:05:50.431 Dit zijn beslissingen [br]met een zekere vorm van objectiviteit -- 0:05:50.431,0:05:52.366 beslissingen over publieke investering. 0:05:52.885,0:05:55.516 Maar er zijn beslissingen [br]die wetgevend zijn 0:05:55.540,0:05:59.327 en die wetgevende besluiten [br]vereisen communicatie tussen mensen 0:05:59.351,0:06:01.051 met verschillende perspectieven, 0:06:01.075,0:06:03.688 vereisen participatie, vereisen debat, 0:06:03.712,0:06:05.190 vereisen overleg. 0:06:06.241,0:06:08.038 Lange tijd dachten we 0:06:08.038,0:06:12.529 dat we om de democratie te verbeteren[br]gewoon meer communicatie nodig hebben. 0:06:12.553,0:06:15.902 Dus alle hulpmiddelen die belangrijk[br]zijn geworden voor de democratie, 0:06:15.902,0:06:18.709 of het nu kranten of sociale media zijn, 0:06:18.709,0:06:21.470 zijn ons méér communicatie[br]gaan verstrekken. 0:06:22.013,0:06:24.225 Maar van dat vaatje hadden we al getapt 0:06:24.225,0:06:26.697 en we weten dat dat [br]ons probleem niet gaat oplossen. 0:06:26.721,0:06:28.601 Omdat het geen communicatieprobleem is, 0:06:28.601,0:06:30.489 maar een van cognitieve bandbreedte. 0:06:30.513,0:06:33.179 Als het probleem er een is [br]van cognitieve bandbreedte, 0:06:33.179,0:06:35.490 dan gaat méér communicatie met mensen 0:06:35.514,0:06:38.258 het niet oplossen. 0:06:38.282,0:06:41.395 In plaats daarvan gaan we [br]andere technologieën nodig hebben 0:06:41.419,0:06:44.465 om ons te helpen omgaan 0:06:44.489,0:06:46.731 met een teveel aan communicatie. 0:06:46.755,0:06:48.724 Denk bijvoorbeeld aan een kleine avatar, 0:06:48.724,0:06:49.817 een software-agent, 0:06:49.841,0:06:51.719 een digitale Japie Krekel -- 0:06:51.743,0:06:52.981 (Gelach) 0:06:53.005,0:06:57.017 die in principe in jouw plaats [br]antwoorden kan geven. 0:06:57.759,0:06:59.546 En als we die technologie hadden, 0:06:59.570,0:07:02.048 konden we een deel [br]van de communicatie delegeren 0:07:02.072,0:07:06.219 en misschien betere beslissingen [br]of grotere beslissingen nemen. 0:07:06.860,0:07:10.579 Dat idee van software-agenten [br]is niet eens nieuw. 0:07:10.603,0:07:12.712 We gebruiken ze al de hele tijd. 0:07:13.216,0:07:15.147 We gebruiken software-agenten 0:07:15.147,0:07:18.436 om ergens naartoe te rijden, 0:07:19.070,0:07:21.171 om muziek uit te kiezen 0:07:21.758,0:07:24.779 of om suggesties voor boeken te krijgen. 0:07:25.994,0:07:28.371 Dus het is voor de 21e eeuw[br]vanzelfsprekend idee, 0:07:28.371,0:07:30.137 net zo vanzelfsprekend 0:07:30.137,0:07:35.298 als het idee van het combineren[br]van stoommachine en weefgetouw was 0:07:35.298,0:07:37.538 in de tijd van van Jacquard. 0:07:37.538,0:07:39.279 Dat idee is het combineren 0:07:39.279,0:07:42.849 van directe democratie [br]met software-agenten. 0:07:42.849,0:07:44.734 Stel je even een wereld voor 0:07:44.734,0:07:47.554 waarbij in plaats van het hebben [br]van een vertegenwoordiger 0:07:47.554,0:07:49.758 die jou en miljoenen [br]anderen vertegenwoordigt, 0:07:49.782,0:07:52.818 je er een kan hebben [br]die alleen jou vertegenwoordigt, 0:07:53.244,0:07:55.758 met je eigen genuanceerde [br]politieke opvattingen -- 0:07:55.782,0:07:58.790 die rare combinatie [br]van libertair en liberaal 0:07:58.790,0:08:01.542 en misschien een beetje [br]conservatief op sommige punten, 0:08:01.566,0:08:03.674 en op andere misschien [br]zeer vooruitstrevend. 0:08:03.698,0:08:06.965 Politici zijn tegenwoordig [br]pakketten vol compromissen. 0:08:06.989,0:08:10.623 Maar iemand zou alleen jou [br]kunnen vertegenwoordigen, 0:08:10.647,0:08:12.549 als je bereid bent het idee op te geven 0:08:12.549,0:08:14.772 dat die vertegenwoordiger een mens is. 0:08:15.229,0:08:17.631 Als die vertegenwoordiger [br]een software-agent is, 0:08:17.631,0:08:19.569 kunnen we een senaat hebben 0:08:19.569,0:08:21.529 met evenveel senatoren als burgers. 0:08:21.529,0:08:24.387 En die senatoren konden [br]elk wetsvoorstel lezen 0:08:24.411,0:08:27.158 en over elk ervan stemmen. 0:08:27.822,0:08:31.238 Dus een voor de hand liggend idee [br]dat we misschien willen overwegen. 0:08:31.238,0:08:33.224 Maar ik begrijp dat op dit moment 0:08:33.248,0:08:35.407 dit idee wel heel erg eng kan overkomen. 0:08:36.391,0:08:39.831 Denken aan een robot uit de toekomst 0:08:39.855,0:08:41.528 om ons te helpen regeren 0:08:41.552,0:08:43.183 klinkt nogal angstaanjagend. 0:08:44.223,0:08:45.874 Maar dat hebben we al gehad. 0:08:45.898,0:08:47.171 (Gelach) 0:08:47.195,0:08:49.690 En eigenlijk was hij[br]een heel aardige vent. 0:08:51.677,0:08:58.111 Hoe zou de 'Jacquards weefgetouw'-versie [br]van dit idee eruitzien? 0:08:58.135,0:09:00.036 Het zou een zeer eenvoudig systeem zijn. 0:09:00.060,0:09:03.518 Stel je een systeem voor waarop je [br]je aanmeldt en je avatar creëert, 0:09:03.542,0:09:06.058 waarna je begint je avatar te trainen. 0:09:06.058,0:09:08.704 Je kan je avatar vertrouwd maken[br]met jouw leesgedrag, 0:09:08.728,0:09:10.719 of hem aansluiten op jouw sociale media, 0:09:10.719,0:09:13.021 of hem voorzien van andere gegevens, 0:09:13.045,0:09:15.627 bijvoorbeeld door het nemen [br]van psychologische tests. 0:09:15.627,0:09:18.083 En het leuke is dat er geen misleiding is. 0:09:18.086,0:09:21.490 Je zit geen gegevens te verstrekken[br]aan je vrienden en familie 0:09:21.490,0:09:24.847 die vervolgens gebruikt worden [br]in een politiek systeem. 0:09:24.871,0:09:27.888 Je verstrekt gegevens [br]aan een systeem dat is ontworpen 0:09:27.888,0:09:30.835 om politieke beslissingen[br]namens jou te nemen. 0:09:31.264,0:09:35.128 Dan kies je vanuit die gegevens [br]voor een opleidingsalgoritme, 0:09:35.128,0:09:36.385 want het is een open markt 0:09:36.385,0:09:39.641 waarin verschillende mensen [br]verschillende algoritmen kunnen indienen 0:09:39.665,0:09:41.553 om te voorspellen hoe jij gaat stemmen 0:09:41.553,0:09:44.083 op basis van de gegevens [br]die jij hebt verstrekt. 0:09:44.083,0:09:47.342 Het systeem is open, [br]zodat niemand de algoritmen beheert. 0:09:47.342,0:09:49.528 Sommige algoritmen [br]worden steeds populairder, 0:09:49.528,0:09:51.421 terwijl andere minder populair worden. 0:09:51.445,0:09:53.342 Uiteindelijk controleer jij het systeem 0:09:53.342,0:09:54.781 en zie je hoe je avatar werkt. 0:09:54.781,0:09:57.333 Bevalt hij je, dan kan hij [br]op de automatische piloot. 0:09:57.357,0:09:59.419 Wil je wat meer controle, 0:09:59.443,0:10:01.731 dan kun je ervoor kiezen[br]dat ze je raadplegen 0:10:01.731,0:10:03.623 wanneer ze een beslissing gaan nemen -- 0:10:03.623,0:10:05.036 of ergens daartussenin. 0:10:05.036,0:10:07.871 Dat we de democratie zo weinig gebruiken 0:10:07.871,0:10:11.183 kan komen door de zeer slechte [br]gebruikersinterface van de democratie. 0:10:11.207,0:10:14.120 Als we de gebruikersinterface [br]van de democratie verbeteren, 0:10:14.120,0:10:15.841 gaan we ze misschien meer gebruiken. 0:10:16.452,0:10:19.659 Natuurlijk kan je hier [br]een hoop vragen bij hebben. 0:10:20.473,0:10:22.634 Hoe train je die avatars? 0:10:22.658,0:10:24.552 Hoe beveilig je de data? 0:10:24.576,0:10:27.824 Hoe houd je de systemen [br]gedeeld en controleerbaar? 0:10:27.848,0:10:29.816 Hoe moet het met mijn grootmoeder van 80, 0:10:29.816,0:10:32.016 die niet weet hoe [br]het internet te gebruiken? 0:10:32.262,0:10:34.483 Geloof me, ik heb ze allemaal gehoord. 0:10:34.507,0:10:39.067 Als je denkt aan een idee als dit, [br]moet je oppassen voor pessimisten, 0:10:39.091,0:10:43.410 omdat ze voor elke oplossing [br]wel een probleem hebben. 0:10:43.434,0:10:45.259 (Gelach) 0:10:45.283,0:10:48.833 Ik wil jullie graag uitnodigen [br]om na te denken over de grotere ideeën. 0:10:48.833,0:10:51.973 De vragen die ik net liet zien,[br]zijn kleine ideeën, 0:10:51.997,0:10:54.899 omdat het vragen zijn [br]over hoe dit niet zou werken. 0:10:55.502,0:10:57.483 De grote ideeën zijn ideeën over: 0:10:57.507,0:10:59.314 wat kan je hiermee 0:10:59.338,0:11:01.227 als het zou blijken te werken? 0:11:01.774,0:11:05.219 En een van die ideeën is: [br]wie gaat de wetten schrijven? 0:11:05.854,0:11:10.077 In het begin zouden de avatars [br]die we al hebben, 0:11:10.101,0:11:13.598 kunnen stemmen over wetten [br]van de hand van de senatoren en politici 0:11:13.622,0:11:14.973 die we al hebben. 0:11:15.491,0:11:17.205 Maar als dit zou werken, 0:11:17.902,0:11:20.066 kon je een algoritme schrijven 0:11:20.066,0:11:22.390 dat zou kunnen proberen [br]om een wet te schrijven 0:11:22.390,0:11:24.871 die een bepaald percentage [br]goedkeuring zou krijgen, 0:11:24.895,0:11:26.677 en kon je het proces omkeren. 0:11:26.701,0:11:30.217 Nu kan je dit idee belachelijk vinden[br]waar we maar beter niet aan beginnen, 0:11:30.217,0:11:33.023 maar je kunt niet ontkennen [br]dat het alleen maar mogelijk is 0:11:33.047,0:11:36.067 in een wereld waar directe democratie[br]en software-agenten 0:11:36.091,0:11:38.747 een levensvatbare vorm [br]van participatie zijn. 0:11:40.596,0:11:43.349 Hoe beginnen we met de revolutie? 0:11:44.238,0:11:47.548 We starten deze revolutie niet [br]met hekken of protesten 0:11:47.572,0:11:51.762 of door te eisen dat onze huidige politici[br]veranderd worden in robots. 0:11:51.786,0:11:53.335 Dat gaat niet werken. 0:11:53.359,0:11:54.971 Dit is veel eenvoudiger, 0:11:54.995,0:11:56.154 veel trager 0:11:56.178,0:11:57.296 en veel bescheidener. 0:11:57.296,0:12:01.965 We beginnen met simpele systemen,[br]zoals in mastersopleidingen, 0:12:01.989,0:12:04.083 in bibliotheken, [br]in non-profitorganisaties. 0:12:04.107,0:12:05.975 We proberen om al die kleine vragen 0:12:05.975,0:12:08.006 en die kleine problemen te vinden 0:12:08.030,0:12:11.931 om uit te vissen hoe [br]dit idee levensvatbaar te krijgen, 0:12:11.955,0:12:14.306 om van dit idee [br]iets betrouwbaars te maken. 0:12:14.330,0:12:15.984 En als we systemen creëren 0:12:15.984,0:12:18.965 met honderd, duizend,[br]honderdduizend mensen 0:12:18.965,0:12:21.643 die stemmen zonder[br]politiek bindend te zijn, 0:12:21.643,0:12:23.971 gaan we vertrouwen krijgen in dit idee. 0:12:23.971,0:12:25.344 De wereld gaat veranderen 0:12:25.368,0:12:28.243 en wie zo jong is als mijn dochter nu 0:12:28.267,0:12:29.604 gaat ermee opgroeien. 0:12:30.580,0:12:33.129 Tegen de tijd dat mijn dochter [br]zo oud is als ik nu, 0:12:33.129,0:12:37.409 zal dit idee, dat vandaag heel gek klinkt, 0:12:37.433,0:12:41.567 misschien niet zo gek klinken [br]voor haar en aan haar vrienden. 0:12:41.956,0:12:43.793 Op dat punt 0:12:43.817,0:12:46.420 komen we aan het einde [br]van onze geschiedenis, 0:12:46.444,0:12:49.265 maar begint die van hen. 0:12:49.646,0:12:50.829 Dank je. 0:12:50.853,0:12:53.895 (Applaus)