WEBVTT 00:00:01.373 --> 00:00:03.117 Ligt het aan mij 00:00:03.141 --> 00:00:05.473 of zijn er hier nog anderen 00:00:05.497 --> 00:00:08.021 die een beetje teleurgesteld zijn in de democratie? NOTE Paragraph 00:00:08.986 --> 00:00:11.322 (Applaus) NOTE Paragraph 00:00:12.141 --> 00:00:14.212 Laten we eens kijken naar wat cijfers. 00:00:14.934 --> 00:00:17.107 Als we over de hele wereld kijken, 00:00:17.131 --> 00:00:21.023 dan was de gemiddelde opkomst bij presidentsverkiezingen 00:00:21.047 --> 00:00:22.698 in de afgelopen 30 jaar 00:00:22.722 --> 00:00:25.344 slechts 67 procent. 00:00:26.329 --> 00:00:28.302 Als we in Europa kijken 00:00:28.326 --> 00:00:32.754 naar de mensen die deelnamen aan de parlementsverkiezingen van de EU, 00:00:32.778 --> 00:00:35.219 dan was de gemiddelde opkomst bij deze verkiezingen 00:00:35.219 --> 00:00:36.977 slechts 42 procent. 00:00:38.125 --> 00:00:39.794 Laten we nu eens naar New York gaan 00:00:39.818 --> 00:00:41.803 en kijken hoeveel mensen stemden 00:00:41.803 --> 00:00:44.523 voor de laatste verkiezingen voor een burgemeester. 00:00:44.523 --> 00:00:48.340 We zien dat slechts 24% van de mensen kwamen opdagen om te stemmen. 00:00:49.063 --> 00:00:52.158 Dat zou betekenen dat als ‘Friends’ nog zou lopen, 00:00:52.182 --> 00:00:55.530 Joey en misschien Phoebe zouden zijn gaan stemmen. NOTE Paragraph 00:00:55.554 --> 00:00:56.844 (Gelach) NOTE Paragraph 00:00:57.434 --> 00:01:01.839 Je kunt het ze niet kwalijk nemen, want de mensen zijn politici beu. 00:01:01.839 --> 00:01:03.171 En de mensen zijn het beu 00:01:03.171 --> 00:01:07.453 dat hun communicatie met vrienden en familie door anderen gebruikt wordt 00:01:07.453 --> 00:01:10.147 om politieke propaganda naar hen te versturen. 00:01:10.519 --> 00:01:12.956 Maar dat is geenszins nieuw. 00:01:12.956 --> 00:01:16.706 Tegenwoordig gebruiken ze nog eerder ‘likes’ om propaganda naar je te versturen 00:01:16.706 --> 00:01:19.893 dan dat ze gebruik maken van je postcode, geslacht of leeftijd, 00:01:19.917 --> 00:01:23.487 omdat het idee om naar mensen propaganda voor politieke doeleinden te sturen 00:01:23.511 --> 00:01:25.103 zo oud is als de politiek zelf. 00:01:25.530 --> 00:01:27.808 En dat komt 00:01:27.832 --> 00:01:31.304 omdat de democratie een fundamentele kwetsbaarheid heeft. 00:01:31.710 --> 00:01:33.742 Dat is het idee van de vertegenwoordiger. NOTE Paragraph 00:01:34.049 --> 00:01:37.993 In principe is democratie het vermogen van mensen om macht uit te oefenen. 00:01:38.017 --> 00:01:41.835 Maar in de praktijk delegeren we die macht aan een vertegenwoordiger 00:01:41.859 --> 00:01:44.114 die die macht uitoefent voor ons. 00:01:44.561 --> 00:01:46.386 Die vertegenwoordiger is een pijnpunt, 00:01:46.410 --> 00:01:47.707 een zwakke plek. 00:01:47.731 --> 00:01:51.680 Daarop richt je je als je de democratie wil aanvallen, 00:01:51.704 --> 00:01:55.193 want democratie kan je controleren ofwel via deze vertegenwoordiger, 00:01:55.217 --> 00:01:57.365 ofwel door de manier waarop mensen kiezen. 00:01:58.065 --> 00:01:59.481 Dus is de grote vraag: 00:01:59.505 --> 00:02:01.319 Is dit het einde van de geschiedenis? 00:02:01.989 --> 00:02:05.092 Is dit het beste dat we kunnen 00:02:05.878 --> 00:02:08.945 of zijn er nog alternatieven? NOTE Paragraph 00:02:10.130 --> 00:02:12.484 Sommige dachten na over alternatieven 00:02:12.508 --> 00:02:16.187 en een van de ideeën is die van directe democratie: 00:02:16.790 --> 00:02:19.269 het idee om politici te passeren 00:02:19.293 --> 00:02:21.696 en mensen direct te laten stemmen over kwesties, 00:02:21.720 --> 00:02:24.275 om mensen rechtstreeks over wetten te laten stemmen. 00:02:24.415 --> 00:02:25.751 Maar dit idee is naïef, 00:02:25.775 --> 00:02:28.946 omdat we over te veel dingen zouden moeten stemmen. 00:02:28.970 --> 00:02:31.752 Als je kijkt naar het 114e Amerikaanse Congres, 00:02:31.776 --> 00:02:34.263 zie je dat het Huis van Afgevaardigden 00:02:34.287 --> 00:02:36.840 meer dan 6.000 00:02:36.840 --> 00:02:39.856 en de Senaat meer dan 3.000 wetsvoorstellen moest bekijken, 00:02:39.880 --> 00:02:42.688 en meer dan 300 wetten goedkeurde. 00:02:42.712 --> 00:02:44.291 Dat zouden veel beslissingen zijn 00:02:44.315 --> 00:02:46.502 waar iedereen tijd in zou moeten steken 00:02:46.526 --> 00:02:48.668 inzake kwesties waar ze weinig over weten. 00:02:49.069 --> 00:02:51.700 Dus is er een groot probleem van cognitieve bandbreedte 00:02:51.700 --> 00:02:55.526 als we nadenken over directe democratie als levensvatbaar alternatief. NOTE Paragraph 00:02:56.205 --> 00:02:57.614 Daarom denken sommigen na 00:02:57.614 --> 00:03:00.664 over het idee van vloeibare democratie, of vloeistofdemocratie, 00:03:00.664 --> 00:03:03.834 waarbij je je politieke macht aan iemand doorgeeft, 00:03:03.834 --> 00:03:06.164 die ze dan weer aan iemand anders doorgeeft, 00:03:06.188 --> 00:03:08.729 en je uiteindelijk een groot volgersnetwerk creëert 00:03:08.753 --> 00:03:12.047 waarbij aan het einde enkele mensen de beslissingen nemen 00:03:12.071 --> 00:03:15.214 namens al hun volgelingen, en hún volgelingen. 00:03:16.326 --> 00:03:20.169 Maar dit idee lost ook niet het probleem van de cognitieve bandbreedte op 00:03:20.169 --> 00:03:21.573 en, om eerlijk te zijn, 00:03:21.573 --> 00:03:24.795 lijkt het ook behoorlijk veel op het idee van een vertegenwoordiger. 00:03:24.795 --> 00:03:28.263 Daarom ga ik vandaag een beetje provoceren 00:03:28.277 --> 00:03:29.924 en jullie vragen: 00:03:30.601 --> 00:03:36.492 wat als we nu eens in plaats van politici te omzeilen, 00:03:37.187 --> 00:03:39.387 we ze proberen te automatiseren? NOTE Paragraph 00:03:45.871 --> 00:03:48.797 Het idee van automatisering is niet nieuw. 00:03:48.821 --> 00:03:50.901 Het ontstond meer dan 300 jaar geleden 00:03:50.925 --> 00:03:53.993 toen Franse wevers besloten om het weefgetouw te automatiseren. 00:03:54.820 --> 00:03:59.180 De winnaar van die industriële oorlog was Joseph-Marie Jacquard. 00:03:59.204 --> 00:04:00.995 Hij was een Franse wever en handelaar 00:04:00.995 --> 00:04:03.419 die het weefgetouw combineerde met de stoommachine 00:04:03.443 --> 00:04:05.633 om autonome weefgetouwen te creëren. 00:04:05.657 --> 00:04:08.410 En die autonome weefgetouwen kon hij controleren. 00:04:08.434 --> 00:04:12.319 Hij kon nu complexere en geavanceerdere stoffen maken 00:04:12.343 --> 00:04:14.471 dan degenen die dat manueel deden. 00:04:15.193 --> 00:04:17.825 Maar door het winnen van die industriële oorlog 00:04:17.849 --> 00:04:21.373 legde hij ook de grondslagen van de automatisering. NOTE Paragraph 00:04:22.135 --> 00:04:25.065 De manier waarop we de laatste 300 jaar dingen automatiseren, 00:04:25.065 --> 00:04:26.411 is altijd dezelfde gebleven: 00:04:27.006 --> 00:04:29.515 eerst een behoefte identificeren, 00:04:29.539 --> 00:04:32.723 dan een werktuig creëren om aan die behoefte te voldoen, 00:04:32.747 --> 00:04:34.787 zoals in dit geval het weefgetouw, 00:04:34.811 --> 00:04:37.262 en dan onderzoeken hoe mensen dat werktuig gebruiken 00:04:37.262 --> 00:04:39.121 om die gebruiker te automatiseren. 00:04:39.242 --> 00:04:42.303 Zo ontstond het mechanische weefgetouw, 00:04:42.327 --> 00:04:44.223 het autonome weefgetouw. 00:04:44.247 --> 00:04:46.367 Dat kostte ons zowat duizend jaar. 00:04:46.391 --> 00:04:48.462 Het kostte ons slechts honderd jaar 00:04:48.486 --> 00:04:51.697 om op dezelfde manier de auto te automatiseren. 00:04:53.286 --> 00:04:57.470 Maar dit keer is het wel echt automatiseren. NOTE Paragraph 00:04:57.915 --> 00:05:01.236 Dit is een video van een collega van me bij Toshiba, 00:05:01.260 --> 00:05:04.519 over een fabriek die solid state drives produceert. 00:05:04.543 --> 00:05:06.561 De gehele fabriek is een robot. 00:05:06.585 --> 00:05:08.510 Er zijn geen mensen in die fabriek. 00:05:08.933 --> 00:05:11.344 En de robots zullen al snel de fabrieken verlaten, 00:05:11.344 --> 00:05:13.300 deel gaan uitmaken van onze wereld 00:05:13.324 --> 00:05:15.159 en medewerkers worden. 00:05:15.183 --> 00:05:16.956 Het is mijn werk 00:05:16.980 --> 00:05:20.972 tools te creëren die gegevens voor hele landen integreren, 00:05:20.996 --> 00:05:24.462 zodat we eindelijk de fundamenten krijgen die we nodig hebben 00:05:24.486 --> 00:05:28.173 voor een toekomst waarin we ook die machines moeten beheren. NOTE Paragraph 00:05:29.195 --> 00:05:32.101 Maar vandaag ga ik het niet hebben over tools 00:05:32.125 --> 00:05:33.949 die gegevens integreren voor landen. 00:05:34.463 --> 00:05:37.085 Ik kom hier praten over een ander idee: 00:05:37.109 --> 00:05:41.974 hoe we kunstmatige intelligentie kunnen gebruiken in de democratie. 00:05:41.998 --> 00:05:46.731 Omdat de tools die ik maak, ontworpen zijn voor uitvoeringsbesluiten. 00:05:46.755 --> 00:05:50.431 Dit zijn beslissingen met een zekere vorm van objectiviteit -- 00:05:50.431 --> 00:05:52.366 beslissingen over publieke investering. 00:05:52.885 --> 00:05:55.516 Maar er zijn beslissingen die wetgevend zijn 00:05:55.540 --> 00:05:59.327 en die wetgevende besluiten vereisen communicatie tussen mensen 00:05:59.351 --> 00:06:01.051 met verschillende perspectieven, 00:06:01.075 --> 00:06:03.688 vereisen participatie, vereisen debat, 00:06:03.712 --> 00:06:05.190 vereisen overleg. 00:06:06.241 --> 00:06:08.038 Lange tijd dachten we 00:06:08.038 --> 00:06:12.529 dat we om de democratie te verbeteren gewoon meer communicatie nodig hebben. 00:06:12.553 --> 00:06:15.902 Dus alle hulpmiddelen die belangrijk zijn geworden voor de democratie, 00:06:15.902 --> 00:06:18.709 of het nu kranten of sociale media zijn, 00:06:18.709 --> 00:06:21.470 zijn ons méér communicatie gaan verstrekken. 00:06:22.013 --> 00:06:24.225 Maar van dat vaatje hadden we al getapt 00:06:24.225 --> 00:06:26.697 en we weten dat dat ons probleem niet gaat oplossen. 00:06:26.721 --> 00:06:28.601 Omdat het geen communicatieprobleem is, 00:06:28.601 --> 00:06:30.489 maar een van cognitieve bandbreedte. 00:06:30.513 --> 00:06:33.179 Als het probleem er een is van cognitieve bandbreedte, 00:06:33.179 --> 00:06:35.490 dan gaat méér communicatie met mensen 00:06:35.514 --> 00:06:38.258 het niet oplossen. 00:06:38.282 --> 00:06:41.395 In plaats daarvan gaan we andere technologieën nodig hebben 00:06:41.419 --> 00:06:44.465 om ons te helpen omgaan 00:06:44.489 --> 00:06:46.731 met een teveel aan communicatie. 00:06:46.755 --> 00:06:48.724 Denk bijvoorbeeld aan een kleine avatar, 00:06:48.724 --> 00:06:49.817 een software-agent, 00:06:49.841 --> 00:06:51.719 een digitale Japie Krekel -- NOTE Paragraph 00:06:51.743 --> 00:06:52.981 (Gelach) NOTE Paragraph 00:06:53.005 --> 00:06:57.017 die in principe in jouw plaats antwoorden kan geven. 00:06:57.759 --> 00:06:59.546 En als we die technologie hadden, 00:06:59.570 --> 00:07:02.048 konden we een deel van de communicatie delegeren 00:07:02.072 --> 00:07:06.219 en misschien betere beslissingen of grotere beslissingen nemen. 00:07:06.860 --> 00:07:10.579 Dat idee van software-agenten is niet eens nieuw. 00:07:10.603 --> 00:07:12.712 We gebruiken ze al de hele tijd. 00:07:13.216 --> 00:07:15.147 We gebruiken software-agenten 00:07:15.147 --> 00:07:18.436 om ergens naartoe te rijden, 00:07:19.070 --> 00:07:21.171 om muziek uit te kiezen 00:07:21.758 --> 00:07:24.779 of om suggesties voor boeken te krijgen. NOTE Paragraph 00:07:25.994 --> 00:07:28.371 Dus het is voor de 21e eeuw vanzelfsprekend idee, 00:07:28.371 --> 00:07:30.137 net zo vanzelfsprekend 00:07:30.137 --> 00:07:35.298 als het idee van het combineren van stoommachine en weefgetouw was 00:07:35.298 --> 00:07:37.538 in de tijd van van Jacquard. 00:07:37.538 --> 00:07:39.279 Dat idee is het combineren 00:07:39.279 --> 00:07:42.849 van directe democratie met software-agenten. 00:07:42.849 --> 00:07:44.734 Stel je even een wereld voor 00:07:44.734 --> 00:07:47.554 waarbij in plaats van het hebben van een vertegenwoordiger 00:07:47.554 --> 00:07:49.758 die jou en miljoenen anderen vertegenwoordigt, 00:07:49.782 --> 00:07:52.818 je er een kan hebben die alleen jou vertegenwoordigt, 00:07:53.244 --> 00:07:55.758 met je eigen genuanceerde politieke opvattingen -- 00:07:55.782 --> 00:07:58.790 die rare combinatie van libertair en liberaal 00:07:58.790 --> 00:08:01.542 en misschien een beetje conservatief op sommige punten, 00:08:01.566 --> 00:08:03.674 en op andere misschien zeer vooruitstrevend. 00:08:03.698 --> 00:08:06.965 Politici zijn tegenwoordig pakketten vol compromissen. 00:08:06.989 --> 00:08:10.623 Maar iemand zou alleen jou kunnen vertegenwoordigen, 00:08:10.647 --> 00:08:12.549 als je bereid bent het idee op te geven 00:08:12.549 --> 00:08:14.772 dat die vertegenwoordiger een mens is. 00:08:15.229 --> 00:08:17.631 Als die vertegenwoordiger een software-agent is, 00:08:17.631 --> 00:08:19.569 kunnen we een senaat hebben 00:08:19.569 --> 00:08:21.529 met evenveel senatoren als burgers. 00:08:21.529 --> 00:08:24.387 En die senatoren konden elk wetsvoorstel lezen 00:08:24.411 --> 00:08:27.158 en over elk ervan stemmen. NOTE Paragraph 00:08:27.822 --> 00:08:31.238 Dus een voor de hand liggend idee dat we misschien willen overwegen. 00:08:31.238 --> 00:08:33.224 Maar ik begrijp dat op dit moment 00:08:33.248 --> 00:08:35.407 dit idee wel heel erg eng kan overkomen. 00:08:36.391 --> 00:08:39.831 Denken aan een robot uit de toekomst 00:08:39.855 --> 00:08:41.528 om ons te helpen regeren 00:08:41.552 --> 00:08:43.183 klinkt nogal angstaanjagend. 00:08:44.223 --> 00:08:45.874 Maar dat hebben we al gehad. NOTE Paragraph 00:08:45.898 --> 00:08:47.171 (Gelach) NOTE Paragraph 00:08:47.195 --> 00:08:49.690 En eigenlijk was hij een heel aardige vent. NOTE Paragraph 00:08:51.677 --> 00:08:58.111 Hoe zou de 'Jacquards weefgetouw'-versie van dit idee eruitzien? 00:08:58.135 --> 00:09:00.036 Het zou een zeer eenvoudig systeem zijn. 00:09:00.060 --> 00:09:03.518 Stel je een systeem voor waarop je je aanmeldt en je avatar creëert, 00:09:03.542 --> 00:09:06.058 waarna je begint je avatar te trainen. 00:09:06.058 --> 00:09:08.704 Je kan je avatar vertrouwd maken met jouw leesgedrag, 00:09:08.728 --> 00:09:10.719 of hem aansluiten op jouw sociale media, 00:09:10.719 --> 00:09:13.021 of hem voorzien van andere gegevens, 00:09:13.045 --> 00:09:15.627 bijvoorbeeld door het nemen van psychologische tests. 00:09:15.627 --> 00:09:18.083 En het leuke is dat er geen misleiding is. 00:09:18.086 --> 00:09:21.490 Je zit geen gegevens te verstrekken aan je vrienden en familie 00:09:21.490 --> 00:09:24.847 die vervolgens gebruikt worden in een politiek systeem. 00:09:24.871 --> 00:09:27.888 Je verstrekt gegevens aan een systeem dat is ontworpen 00:09:27.888 --> 00:09:30.835 om politieke beslissingen namens jou te nemen. 00:09:31.264 --> 00:09:35.128 Dan kies je vanuit die gegevens voor een opleidingsalgoritme, 00:09:35.128 --> 00:09:36.385 want het is een open markt 00:09:36.385 --> 00:09:39.641 waarin verschillende mensen verschillende algoritmen kunnen indienen 00:09:39.665 --> 00:09:41.553 om te voorspellen hoe jij gaat stemmen 00:09:41.553 --> 00:09:44.083 op basis van de gegevens die jij hebt verstrekt. 00:09:44.083 --> 00:09:47.342 Het systeem is open, zodat niemand de algoritmen beheert. 00:09:47.342 --> 00:09:49.528 Sommige algoritmen worden steeds populairder, 00:09:49.528 --> 00:09:51.421 terwijl andere minder populair worden. 00:09:51.445 --> 00:09:53.342 Uiteindelijk controleer jij het systeem 00:09:53.342 --> 00:09:54.781 en zie je hoe je avatar werkt. 00:09:54.781 --> 00:09:57.333 Bevalt hij je, dan kan hij op de automatische piloot. 00:09:57.357 --> 00:09:59.419 Wil je wat meer controle, 00:09:59.443 --> 00:10:01.731 dan kun je ervoor kiezen dat ze je raadplegen 00:10:01.731 --> 00:10:03.623 wanneer ze een beslissing gaan nemen -- 00:10:03.623 --> 00:10:05.036 of ergens daartussenin. 00:10:05.036 --> 00:10:07.871 Dat we de democratie zo weinig gebruiken 00:10:07.871 --> 00:10:11.183 kan komen door de zeer slechte gebruikersinterface van de democratie. 00:10:11.207 --> 00:10:14.120 Als we de gebruikersinterface van de democratie verbeteren, 00:10:14.120 --> 00:10:15.841 gaan we ze misschien meer gebruiken. NOTE Paragraph 00:10:16.452 --> 00:10:19.659 Natuurlijk kan je hier een hoop vragen bij hebben. 00:10:20.473 --> 00:10:22.634 Hoe train je die avatars? 00:10:22.658 --> 00:10:24.552 Hoe beveilig je de data? 00:10:24.576 --> 00:10:27.824 Hoe houd je de systemen gedeeld en controleerbaar? 00:10:27.848 --> 00:10:29.816 Hoe moet het met mijn grootmoeder van 80, 00:10:29.816 --> 00:10:32.016 die niet weet hoe het internet te gebruiken? 00:10:32.262 --> 00:10:34.483 Geloof me, ik heb ze allemaal gehoord. 00:10:34.507 --> 00:10:39.067 Als je denkt aan een idee als dit, moet je oppassen voor pessimisten, 00:10:39.091 --> 00:10:43.410 omdat ze voor elke oplossing wel een probleem hebben. NOTE Paragraph 00:10:43.434 --> 00:10:45.259 (Gelach) NOTE Paragraph 00:10:45.283 --> 00:10:48.833 Ik wil jullie graag uitnodigen om na te denken over de grotere ideeën. 00:10:48.833 --> 00:10:51.973 De vragen die ik net liet zien, zijn kleine ideeën, 00:10:51.997 --> 00:10:54.899 omdat het vragen zijn over hoe dit niet zou werken. 00:10:55.502 --> 00:10:57.483 De grote ideeën zijn ideeën over: 00:10:57.507 --> 00:10:59.314 wat kan je hiermee 00:10:59.338 --> 00:11:01.227 als het zou blijken te werken? 00:11:01.774 --> 00:11:05.219 En een van die ideeën is: wie gaat de wetten schrijven? 00:11:05.854 --> 00:11:10.077 In het begin zouden de avatars die we al hebben, 00:11:10.101 --> 00:11:13.598 kunnen stemmen over wetten van de hand van de senatoren en politici 00:11:13.622 --> 00:11:14.973 die we al hebben. 00:11:15.491 --> 00:11:17.205 Maar als dit zou werken, 00:11:17.902 --> 00:11:20.066 kon je een algoritme schrijven 00:11:20.066 --> 00:11:22.390 dat zou kunnen proberen om een wet te schrijven 00:11:22.390 --> 00:11:24.871 die een bepaald percentage goedkeuring zou krijgen, 00:11:24.895 --> 00:11:26.677 en kon je het proces omkeren. 00:11:26.701 --> 00:11:30.217 Nu kan je dit idee belachelijk vinden waar we maar beter niet aan beginnen, 00:11:30.217 --> 00:11:33.023 maar je kunt niet ontkennen dat het alleen maar mogelijk is 00:11:33.047 --> 00:11:36.067 in een wereld waar directe democratie en software-agenten 00:11:36.091 --> 00:11:38.747 een levensvatbare vorm van participatie zijn. NOTE Paragraph 00:11:40.596 --> 00:11:43.349 Hoe beginnen we met de revolutie? 00:11:44.238 --> 00:11:47.548 We starten deze revolutie niet met hekken of protesten 00:11:47.572 --> 00:11:51.762 of door te eisen dat onze huidige politici veranderd worden in robots. 00:11:51.786 --> 00:11:53.335 Dat gaat niet werken. 00:11:53.359 --> 00:11:54.971 Dit is veel eenvoudiger, 00:11:54.995 --> 00:11:56.154 veel trager 00:11:56.178 --> 00:11:57.296 en veel bescheidener. 00:11:57.296 --> 00:12:01.965 We beginnen met simpele systemen, zoals in mastersopleidingen, 00:12:01.989 --> 00:12:04.083 in bibliotheken, in non-profitorganisaties. 00:12:04.107 --> 00:12:05.975 We proberen om al die kleine vragen 00:12:05.975 --> 00:12:08.006 en die kleine problemen te vinden 00:12:08.030 --> 00:12:11.931 om uit te vissen hoe dit idee levensvatbaar te krijgen, 00:12:11.955 --> 00:12:14.306 om van dit idee iets betrouwbaars te maken. 00:12:14.330 --> 00:12:15.984 En als we systemen creëren 00:12:15.984 --> 00:12:18.965 met honderd, duizend, honderdduizend mensen 00:12:18.965 --> 00:12:21.643 die stemmen zonder politiek bindend te zijn, 00:12:21.643 --> 00:12:23.971 gaan we vertrouwen krijgen in dit idee. 00:12:23.971 --> 00:12:25.344 De wereld gaat veranderen 00:12:25.368 --> 00:12:28.243 en wie zo jong is als mijn dochter nu 00:12:28.267 --> 00:12:29.604 gaat ermee opgroeien. 00:12:30.580 --> 00:12:33.129 Tegen de tijd dat mijn dochter zo oud is als ik nu, 00:12:33.129 --> 00:12:37.409 zal dit idee, dat vandaag heel gek klinkt, 00:12:37.433 --> 00:12:41.567 misschien niet zo gek klinken voor haar en aan haar vrienden. 00:12:41.956 --> 00:12:43.793 Op dat punt 00:12:43.817 --> 00:12:46.420 komen we aan het einde van onze geschiedenis, 00:12:46.444 --> 00:12:49.265 maar begint die van hen. NOTE Paragraph 00:12:49.646 --> 00:12:50.829 Dank je. NOTE Paragraph 00:12:50.853 --> 00:12:53.895 (Applaus)