0:00:00.461,0:00:03.872 Bryn Freedman: Je zei dat in de 20e eeuw 0:00:03.872,0:00:06.717 de wereldmacht [br]in handen van de overheid lag. 0:00:06.717,0:00:09.210 Aan het begin van deze digitale eeuw 0:00:09.210,0:00:10.971 is die overgegaan naar ondernemingen 0:00:11.019,0:00:14.924 en in de toekomst[br]zou die in mensenhanden komen. 0:00:14.924,0:00:16.734 Ik heb veel mensen geïnterviewd 0:00:16.734,0:00:18.610 en die ontkennen wat je zegt. 0:00:18.610,0:00:20.753 Zij denken dat bedrijven gaan winnen. 0:00:20.777,0:00:22.436 Waarom heb jij gelijk 0:00:22.460,0:00:25.264 en denk je dat mensen zullen winnen? 0:00:25.419,0:00:27.968 Fadi Chehadé: Omdat bedrijven [br]gericht zijn op mensen 0:00:27.968,0:00:30.025 en wij als burgers 0:00:30.025,0:00:34.540 moeten begrijpen hoe groot onze rol is 0:00:34.540,0:00:37.600 in het vormgeven van de wereld [br]met oog op de toekomst. 0:00:37.624,0:00:41.891 Inderdaad, de strijd[br]vindt nu plaats tussen overheden, 0:00:41.915,0:00:44.985 die een groot deel van hun macht [br]aan bedrijven zijn kwijtgeraakt 0:00:45.009,0:00:49.267 omdat internet niet is gebouwd [br]op een systeem van natiestaten 0:00:49.267,0:00:51.331 waarbij overheden de macht hebben. 0:00:51.355,0:00:53.212 Internet is transnationaal. 0:00:53.212,0:00:56.275 Het is niet internationaal[br]en ook niet nationaal 0:00:56.275,0:00:59.652 en daardoor zijn de bedrijven [br]zeer machtig geworden. 0:01:00.028,0:01:01.902 Ze vormen onze economie. 0:01:01.902,0:01:03.918 Ze vormen onze samenleving. 0:01:03.918,0:01:05.609 Overheden kunnen het niet oplossen. 0:01:05.609,0:01:07.625 Ze kunnen nu alleen toekijken. 0:01:07.649,0:01:10.943 Ik ben bang dat als wij burgers -- 0:01:10.943,0:01:15.715 en burgers zijn hier [br]de belangrijkste steunpilaar -- 0:01:15.715,0:01:17.261 het niet naar ons toetrekken, 0:01:17.261,0:01:18.502 dat je dan gelijk krijgt - 0:01:18.502,0:01:23.263 dan krijgen degenen die zeggen[br]dat ondernemingen zullen winnen gelijk. 0:01:23.263,0:01:24.438 Dan gebeurt dat. 0:01:24.438,0:01:28.174 BF: Geloof je dat mensen [br]bedrijven zullen dwingen 0:01:28.174,0:01:31.030 of dat ze gedwongen worden[br]zich meer open te stellen, 0:01:31.030,0:01:34.223 of is men bang dat ze dat zullen weigeren? 0:01:34.247,0:01:35.619 FC: Ik vermoed van wel. 0:01:35.643,0:01:37.493 Twee weken geleden bijvoorbeeld, 0:01:37.517,0:01:41.929 kreeg een klein bedrijf, Skip, [br]in plaats van Uber en Lyft en anderen, 0:01:41.929,0:01:47.193 de vergunning voor [br]een scooterbedrijf in San Francisco. 0:01:47.193,0:01:49.398 En als je leest waarom ze wonnen, 0:01:49.422,0:01:52.318 dan blijkt dat Skip [br]naar de mensen heeft geluisterd, 0:01:52.318,0:01:55.191 die klaagden over scooters [br]die overal werden neergegooid. 0:01:55.215,0:01:57.889 Ze stapten naar de gemeente en zeiden: 0:01:57.913,0:02:00.079 "Wij zullen deze dienst aanbieden, 0:02:00.103,0:02:03.159 maar betrekken daar ook[br]de wensen uit de omgeving bij 0:02:03.159,0:02:06.253 en vertalen die in een aantal regels." 0:02:06.253,0:02:09.643 Door zelf hun gedrag te reguleren,[br]kregen zij het contract 0:02:09.667,0:02:11.707 ten kostte van zeer machtige bedrijven. 0:02:11.731,0:02:15.297 BF: Over richtlijnen [br]en zelfregulatie gesproken, 0:02:15.297,0:02:19.342 jouw leven staat in het teken[br]van het creëren van richtlijnen en regels 0:02:19.366,0:02:21.064 voor internet. 0:02:21.088,0:02:22.827 Zijn die tijden voorbij? 0:02:22.827,0:02:25.573 Wie wijst ons de weg,[br]wie krijgt het voor het zeggen 0:02:25.573,0:02:27.788 en wie bepaalt straks de regels? 0:02:27.812,0:02:33.172 FC: De technische regels [br]die internet besturen, 0:02:33.196,0:02:35.879 zijn inmiddels doorgevoerd, 0:02:35.879,0:02:39.355 en ik ben jarenlang bezig geweest[br]om de regels op te stellen 0:02:39.355,0:02:43.496 voor dat deel van internet[br]wat het tot één groot netwerk maakt. 0:02:43.520,0:02:46.005 Het domeinnamensysteem, de IP-nummers, 0:02:46.029,0:02:47.745 alles is geregeld. 0:02:47.769,0:02:52.103 Maar nu we de bovenste lagen [br]van internet bereiken, 0:02:52.103,0:02:54.977 blijkt dat voor belangrijke dingen [br]in ons dagelijks leven -- 0:02:54.977,0:02:57.779 zoals privacy, veiligheid, etc. -- 0:02:57.803,0:03:04.803 het systeem om dat te reguleren[br]nog niet aanwezig is. 0:03:05.109,0:03:06.713 Dit is een probleem. 0:03:06.713,0:03:10.387 Een methode voor samenwerking en regulatie 0:03:10.411,0:03:13.245 moet zo snel mogelijk ingevoerd worden, 0:03:13.269,0:03:17.960 zodat bedrijven, overheden en burgers [br]samen kunnen bepalen 0:03:17.960,0:03:20.530 hoe de nieuwe digitale wereld [br]zich verder ontwikkelt. 0:03:20.530,0:03:23.572 BF: Wat kan een stimulans zijn [br]voor een digitale onderneming? 0:03:23.596,0:03:25.621 Als we kijken naar Facebook, 0:03:25.645,0:03:28.590 zij zeggen dat hun gebruikers [br]op de eerste plaats komen, 0:03:28.614,0:03:31.153 maar veel mensen[br]zijn het daar niet mee eens. 0:03:31.177,0:03:37.085 FC: Het is moeilijk om te zien [br]hoe techbedrijven omgaan 0:03:37.085,0:03:40.518 met de reacties van burgers [br]op hun technologie. 0:03:40.751,0:03:44.475 Een aantal jaren geleden[br]werd dit door velen totaal genegeerd. 0:03:44.475,0:03:49.864 In directiekamers hoorde je vaak: [br]"Wij zijn maar een technologieplatform. 0:03:49.864,0:03:52.776 Het is niet mijn probleem [br]als door mijn technologieplatform 0:03:52.776,0:03:55.635 families hun dochters [br]vermoorden in Pakistan. 0:03:55.635,0:03:57.922 Dat is niet mijn probleem, [br]maar hun probleem. 0:03:57.922,0:03:59.915 Dit is maar een technologieplatform." 0:03:59.939,0:04:03.154 Het moment is aangebroken 0:04:03.154,0:04:08.489 dat bedrijven zich gaan realiseren [br]dat dit niet langer houdbaar is, 0:04:08.489,0:04:10.679 en ze zien steeds vaker verzet 0:04:10.679,0:04:13.838 van mensen, gebruikers, burgers, 0:04:13.838,0:04:16.476 maar ook overheden die roepen: 0:04:16.500,0:04:18.063 "Dit kan zo niet." 0:04:18.063,0:04:23.516 Je ziet dat ze steeds [br]meer verantwoording nemen, 0:04:23.516,0:04:26.014 vooral in Silicon Valley, 0:04:26.038,0:04:30.561 waar mensen roepen: [br]"Wij spelen hier ook een rol in." 0:04:30.585,0:04:33.141 Als ik met deze leiders spreek en zeg: 0:04:33.165,0:04:37.018 "U kan directeur zijn [br]van een succesvol bedrijf, 0:04:37.018,0:04:39.473 of u wordt beheerder." 0:04:39.669,0:04:41.132 En dat is het sleutelwoord. 0:04:41.132,0:04:44.458 "Je kan de macht die je hebt beheren 0:04:44.482,0:04:48.924 en zo de levens en de economieën [br]van miljarden mensen vormgeven. 0:04:48.924,0:04:50.551 Waar kiest u voor?" 0:04:51.218,0:04:54.201 Het antwoord is dat het [br]niet het een of het ander is. 0:04:54.568,0:04:57.049 Dat inzicht ontbreekt nog. 0:04:57.049,0:05:01.101 Dus toen oudgediende Brad Smith, [br]de baas van Microsoft, 0:05:01.101,0:05:02.613 een paar maanden terug zei: 0:05:02.613,0:05:05.557 "Er zijn nieuwe Geneefse Conventies nodig 0:05:05.557,0:05:08.270 om te zorgen voor veiligheid [br]in de digitale ruimte", 0:05:08.550,0:05:15.326 spraken veel vooraanstaande leiders [br]uit Silicon Valley dit tegen. 0:05:15.326,0:05:16.752 "Hoezo Geneefse Conventies? 0:05:16.752,0:05:20.133 Die zijn helemaal niet nodig. [br]Wij reguleren onszelf." 0:05:20.133,0:05:22.265 Maar die houding is aan het veranderen 0:05:22.289,0:05:25.495 en leiders hoor je steeds vaker zeggen: 0:05:25.519,0:05:26.814 "Help ons." 0:05:27.201,0:05:29.614 Maar dat is precies het dilemma. 0:05:29.909,0:05:32.822 Wie gaat deze leiders helpen [br]de juiste keus te maken? 0:05:32.846,0:05:35.425 BF: Wie o wie gaat hen daarbij helpen? 0:05:35.425,0:05:39.585 Ik zou wel een uur met je willen praten,[br]maar onze tijd zit er bijna op, 0:05:39.609,0:05:44.838 dus: wat is je grootste angst[br]en waar hoop je het meest op 0:05:44.838,0:05:47.343 als uitkomst in deze kwestie? 0:05:48.981,0:05:55.720 FC: Waar ik het meeste op hoop is [br]dat wij allemaal beheerders worden 0:05:55.744,0:05:57.334 van de digitale wereld. 0:05:57.334,0:05:58.833 Dat zie ik het liefst gebeuren, 0:05:58.833,0:06:03.787 want we geven te vaak anderen de schuld. 0:06:03.787,0:06:06.212 "Die directeuren hebben dat veroorzaakt." 0:06:06.236,0:06:07.926 "De overheid doet te weinig." 0:06:07.926,0:06:09.924 Maar wat doen wij zelf? 0:06:09.924,0:06:15.020 Nemen wij wel genoeg verantwoordelijkheid 0:06:15.044,0:06:17.273 over de digitale ruimte waarin we leven? 0:06:17.273,0:06:21.068 Waar ik vaak op aandring [br]bij voorzitters van universiteiten, 0:06:21.068,0:06:24.884 is dat iedere student techniek, [br]bètawetenschappen of informatica 0:06:24.908,0:06:27.363 die een regel code willen schrijven 0:06:27.363,0:06:29.776 of het nieuwste IoT-apparaat willen maken, 0:06:29.776,0:06:34.627 is dat ze zich verantwoordelijk voelen 0:06:34.627,0:06:36.160 voor wat ze produceren. 0:06:36.184,0:06:38.580 Mijn voorstel was [br]een nieuwe eed op te stellen, 0:06:38.604,0:06:40.263 zoals de Hippocratische eed, 0:06:40.287,0:06:43.215 zodat iedere student[br]die aan een ingenieursopleiding begint 0:06:43.239,0:06:46.840 een technocratische eed [br]of een eed van wijsheid aflegt, 0:06:46.864,0:06:49.777 om zich in te zetten [br]voor het algemeen belang. 0:06:49.777,0:06:52.501 Dat zou ik graag zien: [br]dat we de uitdaging aangaan. 0:06:52.501,0:06:57.414 Want regeringen en bedrijven blijven [br]in een machtsstrijd verwikkeld, 0:06:57.414,0:06:58.972 maar waar blijven wij dan? 0:06:58.996,0:07:03.448 Als wij ons niet mengen in de strijd, 0:07:03.472,0:07:06.371 vrees ik dat het verkeerd afloopt. 0:07:06.371,0:07:08.238 Mijn grootste angst? 0:07:09.392,0:07:12.256 Mijn grootste angst, [br]en dan blijf ik tactisch, 0:07:12.280,0:07:14.519 waar ik van wakker lig, 0:07:14.519,0:07:20.856 is de huidige oorlog[br]tussen het Westen, de liberale wereld, 0:07:21.304,0:07:22.813 en China 0:07:22.813,0:07:25.114 op het gebied van[br]kunstmatige intelligentie. 0:07:25.114,0:07:27.384 Daar speelt zich een ware oorlog af 0:07:27.408,0:07:32.399 en voor de mensen die de nucleaire [br]non-proliferatie periode hebben meegemaakt 0:07:32.399,0:07:34.787 en hebben gezien hoe men akkoord ging 0:07:34.811,0:07:38.221 een aantal gevaarlijke zaken[br]buiten het verdrag te houden, 0:07:38.787,0:07:42.297 daar heeft de Carnegie Endowment [br]net onderzoek naar gedaan. 0:07:42.490,0:07:45.221 Daarvoor spraken ze [br]met alle nucleaire naties 0:07:45.221,0:07:47.022 en stelden de vraag: 0:07:47.046,0:07:52.805 "Welk digitaal 'wapen'[br]bent u bereid op te offeren 0:07:52.829,0:07:55.423 voor de scholen en ziekenhuizen [br]van iemand anders?" 0:07:55.828,0:08:01.247 Elke nucleaire machthebber antwoordde: 0:08:01.447,0:08:02.827 "Niets." 0:08:03.693,0:08:05.926 Daar maak ik me zorgen over. 0:08:06.161,0:08:09.081 De bewapening van de digitale ruimte 0:08:09.081,0:08:10.717 en de strijd om de eerste te zijn. 0:08:10.741,0:08:13.536 BF: Kortom, je moet [br]nog veel werk verrichten 0:08:13.560,0:08:15.131 en wij ook. 0:08:15.155,0:08:17.841 Fadi, bedankt.[br]Ik waardeer het enorm. 0:08:17.841,0:08:18.746 FC: Graag gedaan. 0:08:18.746,0:08:21.579 (Applaus)