1 00:00:01,325 --> 00:00:05,221 Ik groeide op in de late jaren 70 in landelijk China, 2 00:00:05,221 --> 00:00:09,810 tijdens de laatste jaren van het streven van mijn land naar absolute gelijkheid 3 00:00:09,810 --> 00:00:12,402 ten koste van de vrijheid. 4 00:00:12,780 --> 00:00:15,194 Iedereen had toen werk, 5 00:00:15,194 --> 00:00:17,288 maar iedereen had het moeilijk. 6 00:00:17,288 --> 00:00:20,188 In de vroege jaren 80 was mijn vader elektricien 7 00:00:20,188 --> 00:00:23,364 en mijn moeder werkte twee shifts in het plaatselijke hospitaal. 8 00:00:23,650 --> 00:00:26,730 Maar toch hadden we niet genoeg te eten 9 00:00:26,730 --> 00:00:29,071 en onze levensomstandigheden waren deplorabel. 10 00:00:29,071 --> 00:00:31,086 We waren zeer zeker gelijk -- 11 00:00:31,086 --> 00:00:32,625 gelijk arm dan. 12 00:00:33,114 --> 00:00:35,122 De staat bezat alles. 13 00:00:35,122 --> 00:00:36,578 Wij bezaten niets. 14 00:00:37,309 --> 00:00:40,981 Het verhaal dat ik jullie ga vertellen gaat over mijn strijd 15 00:00:40,981 --> 00:00:43,205 om tegenslag te overwinnen 16 00:00:43,205 --> 00:00:48,243 met mijn weerbaarheid, moed en pure vastberadenheid. 17 00:00:49,031 --> 00:00:51,349 Nee, grapje, dat ga ik jullie niet aandoen. 18 00:00:51,349 --> 00:00:54,070 (Gelach) 19 00:00:54,070 --> 00:00:58,044 Daarentegen ga ik jullie vertellen 20 00:00:58,044 --> 00:01:02,214 over een nieuwe vorm van collectieve armoede, 21 00:01:02,214 --> 00:01:04,167 een die velen van ons niet herkennen 22 00:01:04,167 --> 00:01:06,321 en die we dringend moeten gaan begrijpen. 23 00:01:06,622 --> 00:01:07,836 Jullie hebben wel gemerkt 24 00:01:07,836 --> 00:01:11,080 dat de voorbije twintig jaar het bezit is toegenomen. 25 00:01:11,080 --> 00:01:14,562 Weelde werd gecreëerd met een adembenemende snelheid. 26 00:01:14,562 --> 00:01:18,639 Als instrument bracht het bedrijven diepe inzichten in klanten, 27 00:01:18,639 --> 00:01:20,277 operationele efficiëntie 28 00:01:20,277 --> 00:01:22,469 en enorme inkomsten. 29 00:01:23,018 --> 00:01:26,251 Maar voor sommigen werd het ook een middel 30 00:01:26,251 --> 00:01:29,467 om democratische verkiezingen te kunnen manipuleren 31 00:01:29,467 --> 00:01:34,636 of om te waken voor winst of politieke doeleinden. 32 00:01:35,207 --> 00:01:37,250 En wat is deze miraculeuze verworvenheid? 33 00:01:37,250 --> 00:01:39,246 Jullie hebben het geraden: data. 34 00:01:40,308 --> 00:01:44,874 Zeven op de tien rijkste bedrijven ter wereld zijn tech-bedrijven 35 00:01:44,874 --> 00:01:47,865 die ofwel rechtstreeks winst maken uit data 36 00:01:47,865 --> 00:01:50,297 of hun macht halen uit de kern van de data. 37 00:01:51,112 --> 00:01:52,617 Meerdere onderzoeken tonen aan 38 00:01:52,617 --> 00:01:55,127 dat de grote meerderheid van zakelijke besluitnemers 39 00:01:55,127 --> 00:01:58,522 data als een essentieel bestanddeel van succes beschouwen. 40 00:01:58,522 --> 00:02:00,024 We hebben allemaal ondervonden 41 00:02:00,024 --> 00:02:04,484 hoe data het paradigma ingrijpend verschuiven 42 00:02:04,484 --> 00:02:08,369 aangaande onze persoonlijke, economische en politieke levens. 43 00:02:08,674 --> 00:02:11,115 Wie de data bezit, bezit de toekomst. 44 00:02:11,553 --> 00:02:13,278 Maar wie produceert de data? 45 00:02:13,944 --> 00:02:16,968 Ik veronderstel dat iedereen hier een smartphone heeft, 46 00:02:16,968 --> 00:02:18,484 meerdere media accounts 47 00:02:18,484 --> 00:02:21,434 en de voorbije week een paar keer gegoogeld heeft. 48 00:02:21,966 --> 00:02:24,281 We maken inderdaad allemaal data aan. 49 00:02:24,948 --> 00:02:27,230 Men schat dat tegen 2030, 50 00:02:27,230 --> 00:02:28,380 tien jaar na nu, 51 00:02:28,380 --> 00:02:32,579 er op de wereld ongeveer 125 miljard verbonden apparaten zullen bestaan. 52 00:02:32,579 --> 00:02:37,003 Dat zijn gemiddeld vijftien apparaten per persoon. 53 00:02:37,421 --> 00:02:39,538 We maken al elke dag data aan. 54 00:02:39,538 --> 00:02:42,696 We zullen exponentieel meer gaan aanmaken. 55 00:02:43,529 --> 00:02:47,540 Google, Facebook en Tencents gecombineerde inkomsten in 2018 56 00:02:47,540 --> 00:02:50,848 bedroegen 236 miljard Amerikaanse dollars. 57 00:02:50,848 --> 00:02:54,903 Wie van jullie is betaald voor de data die jullie voor hen hebben aangemaakt? 58 00:02:54,903 --> 00:02:56,126 Niemand, toch? 59 00:02:56,440 --> 00:03:00,531 Data hebben een immense waarde, maar zijn in centraal beheer en bezit. 60 00:03:00,531 --> 00:03:03,402 Jullie zijn allemaal rondwandelende grondstoffen 61 00:03:03,402 --> 00:03:05,442 voor die grote databedrijven, 62 00:03:05,442 --> 00:03:07,047 maar jullie worden niet betaald. 63 00:03:07,613 --> 00:03:08,694 Daar komt bij 64 00:03:08,694 --> 00:03:13,330 dat ze jullie niet eens zien als onderdeel in dit verdienplaatje. 65 00:03:13,651 --> 00:03:15,344 Nogmaals, 66 00:03:15,344 --> 00:03:17,105 we zijn ongetwijfeld gelijk: 67 00:03:17,105 --> 00:03:18,568 we zijn net zo arm. 68 00:03:19,004 --> 00:03:22,043 Iemand anders bezit alles en wij bezitten niets. 69 00:03:22,043 --> 00:03:23,596 Klinkt bekend, toch? 70 00:03:24,637 --> 00:03:26,050 Wat moeten we dan doen? 71 00:03:26,050 --> 00:03:27,105 Er kunnen hints zitten 72 00:03:27,105 --> 00:03:29,933 in hoe mijn leven na die moeilijke start verliep. 73 00:03:29,933 --> 00:03:32,352 Mijn familie kreeg het beter in de jaren 80. 74 00:03:32,352 --> 00:03:33,831 Het systeem evolueerde 75 00:03:33,831 --> 00:03:37,563 en mensen mochten wat houden van wat ze creëerden. 76 00:03:38,118 --> 00:03:39,756 'Mensen die in de oceaan duiken', 77 00:03:39,756 --> 00:03:40,528 'xia hai' -- 78 00:03:40,528 --> 00:03:45,531 deze Chinese term beschrijft degenen die de staatsbedrijven verlieten 79 00:03:45,531 --> 00:03:47,306 om voor zichzelf te beginnen. 80 00:03:47,814 --> 00:03:49,801 Op privaat bezit van een zaak 81 00:03:49,801 --> 00:03:52,905 volgde privaat bezit van auto's, 82 00:03:52,905 --> 00:03:56,112 eigendom, voedsel, kleren en dingen. 83 00:03:56,300 --> 00:03:59,261 De economische machine begon te draaien 84 00:03:59,261 --> 00:04:01,485 en het leven van mensen begon te verbeteren. 85 00:04:01,485 --> 00:04:05,149 Voor het eerst was rijk worden eervol. 86 00:04:05,349 --> 00:04:10,472 Toen ik in de jaren 90 ging studeren in Chengdu, in West-China, 87 00:04:10,472 --> 00:04:12,124 konden vele jongeren zoals ikzelf 88 00:04:12,124 --> 00:04:14,927 voordeel halen uit het nieuwe systeem. 89 00:04:15,330 --> 00:04:17,978 Na mijn afstuderen 90 00:04:17,978 --> 00:04:19,902 stichtte ik met anderen mijn eerste zaak 91 00:04:19,902 --> 00:04:21,166 en verhuisde naar Shenzen, 92 00:04:21,166 --> 00:04:23,505 het splinternieuwe economische centrum, 93 00:04:23,505 --> 00:04:25,338 dat tevoren een vissersdorp was. 94 00:04:25,698 --> 00:04:29,229 In de afgelopen twintig jaar is Shenzen gegroeid ... 95 00:04:29,229 --> 00:04:31,486 tot een mondiaal kenniscentrum van vernieuwing. 96 00:04:32,667 --> 00:04:36,745 Privaat eigendom was een vrijheidsvorm die we daarvoor nog niet hadden. 97 00:04:37,196 --> 00:04:42,199 Het creëerde ongekende kansen voor onze generatie 98 00:04:42,199 --> 00:04:43,097 en motiveerde ons 99 00:04:43,097 --> 00:04:45,907 om ongelooflijk hard te werken en te studeren. 100 00:04:46,317 --> 00:04:51,913 Meer dan 850 miljoen mensen rezen daardoor uit de armoede op. 101 00:04:52,227 --> 00:04:54,164 Volgens de Wereldbank 102 00:04:54,164 --> 00:05:00,110 bedroeg de extreme armoede in China in 1981, in mijn kindertijd, 88%. 103 00:05:00,544 --> 00:05:04,031 In 2015 was dat 0,7%. 104 00:05:04,752 --> 00:05:06,576 Ik ben een product van dat succes 105 00:05:06,576 --> 00:05:10,692 en ik ben blij jullie te kunnen vertellen dat ik nu mijn eigen AI-bedrijf heb 106 00:05:10,692 --> 00:05:13,414 en een zeer werelds en dynamisch leven leid -- 107 00:05:13,414 --> 00:05:17,459 dat was totaal ondenkbaar toen ik nog een kind was in West-China. 108 00:05:18,252 --> 00:05:22,096 Natuurlijk ging deze welvaart ten koste van iets, 109 00:05:22,096 --> 00:05:25,992 namelijk van gelijkheid, milieu en vrijheid. 110 00:05:26,352 --> 00:05:27,990 Ik kom hier zeer zeker niet zeggen 111 00:05:27,990 --> 00:05:30,267 dat China het al helemaal heeft uitgeknobbeld. 112 00:05:30,267 --> 00:05:31,473 Helemaal niet. 113 00:05:31,473 --> 00:05:35,704 Noch dat data helemaal vergelijkbaar zijn met fysieke bezittingen. 114 00:05:35,704 --> 00:05:36,996 Dat zijn ze niet. 115 00:05:37,726 --> 00:05:42,709 Maar mijn levenservaring toonde me wat in het volle licht verborgen bleef. 116 00:05:42,709 --> 00:05:48,383 Vandaag is het publieke debat zo gefocust op het regelgevende en het private 117 00:05:48,383 --> 00:05:50,114 als het om eigendom van data gaat. 118 00:05:50,114 --> 00:05:51,712 Maar ik wil vragen: 119 00:05:51,712 --> 00:05:55,515 Wat als we eens op een heel andere manier naar eigendom van data kijken? 120 00:05:55,515 --> 00:05:57,900 Wat als data-eigendom in feite 121 00:05:57,900 --> 00:06:02,598 een persoonlijke, individuele en economische zaak zou zijn? 122 00:06:03,183 --> 00:06:08,641 Wat als we in de nieuwe digitale economie een stuk van wat we creëren mogen bezitten 123 00:06:08,641 --> 00:06:12,781 en we mensen de vrijheid geven om zelf over hun privédata te beslissen. 124 00:06:14,111 --> 00:06:18,230 Het legale begrip eigenaarschap betekent dat je je eigen data kan bezitten, 125 00:06:18,230 --> 00:06:19,538 gebruiken, 126 00:06:19,538 --> 00:06:20,538 cadeau geven, 127 00:06:20,538 --> 00:06:21,508 doorgeven, 128 00:06:21,508 --> 00:06:22,648 vernietigen 129 00:06:22,648 --> 00:06:24,566 of verhandelen 130 00:06:24,566 --> 00:06:26,609 of verkopen 131 00:06:26,609 --> 00:06:28,621 voor een door jou zelf bepaalde prijs. 132 00:06:29,266 --> 00:06:33,569 Wat als we dezelfde definitie nu eens aan iemands privédata toekennen, 133 00:06:33,569 --> 00:06:37,027 zodat we onze data kunnen gebruiken, vernietigen 134 00:06:37,027 --> 00:06:39,507 of verkopen voor door ons gekozen prijzen? 135 00:06:39,793 --> 00:06:41,418 Sommigen van jullie zullen zeggen: 136 00:06:41,418 --> 00:06:45,139 'Ik zou mijn data nooit of te nimmer, voor welk geld dan ook, verkopen.' 137 00:06:45,139 --> 00:06:48,448 Maar laat me je vertellen dat dat precies is wat je nu doet, 138 00:06:48,448 --> 00:06:50,886 behalve dan dat je deze nu gratis weggeeft. 139 00:06:51,576 --> 00:06:55,618 Daarbij komt dat privacy zeer persoonlijk en genuanceerd is. 140 00:06:55,618 --> 00:07:00,009 Je zou het privilege kunnen hebben dat jij je privacy laat primeren op geld, 141 00:07:00,009 --> 00:07:02,840 maar voor miljoenen eigenaars van kleine zaken in China, 142 00:07:02,840 --> 00:07:05,382 die niet zo gemakkelijk aan bankleningen geraken, 143 00:07:05,382 --> 00:07:06,576 is het gebruiken van data 144 00:07:06,576 --> 00:07:10,252 om snel goedkeuring te krijgen van AI-gebruikende geldschieters 145 00:07:10,252 --> 00:07:12,541 een antwoord op dringendere behoeften. 146 00:07:12,867 --> 00:07:14,271 Wat voor jou privé is, 147 00:07:14,271 --> 00:07:17,027 is anders dan wat privé voor anderen is. 148 00:07:17,027 --> 00:07:19,492 Wat nu voor jou privé is, 149 00:07:19,492 --> 00:07:23,041 is wat anders dan wat privé was toen je nog studeerde. 150 00:07:23,041 --> 00:07:24,439 Dat hoop ik tenminste. 151 00:07:24,439 --> 00:07:26,356 (Gelach) 152 00:07:26,356 --> 00:07:31,837 We maken altijd, alhoewel vaak onbewust, dergelijke afwegingen, 153 00:07:31,837 --> 00:07:36,096 gebaseerd op persoonlijke overtuigingen en voorkeuren in het leven. 154 00:07:36,096 --> 00:07:41,715 Daarom zou data-eigendom onvolledig zijn als we er geen prijs aan kunnen hechten. 155 00:07:42,480 --> 00:07:45,293 Door individuen het recht te geven om een prijs te bepalen, 156 00:07:45,293 --> 00:07:46,603 verwerven we een instrument 157 00:07:46,603 --> 00:07:49,590 om onze persoonlijke en genuanceerde voorkeuren te tonen. 158 00:07:49,590 --> 00:07:53,029 Je zou er bijvoorbeeld voor kunnen kiezen om je data gratis weg te geven 159 00:07:53,029 --> 00:07:58,504 als een bijdrage aan een medisch onderzoek voor jou zeer betekenisvol zou zijn. 160 00:07:58,969 --> 00:08:00,685 Of als we de mogelijk hadden 161 00:08:00,685 --> 00:08:03,133 om aan onze gedragsgegevens een prijs toe te kennen 162 00:08:03,133 --> 00:08:05,172 van bijvoorbeeld $100.000. 163 00:08:05,172 --> 00:08:06,740 Ik denk dat geen politieke groep 164 00:08:06,740 --> 00:08:10,073 je stem zou kunnen beïnvloeden of manipuleren. 165 00:08:10,073 --> 00:08:11,222 Jij controleert. 166 00:08:11,222 --> 00:08:12,483 Jij beslist. 167 00:08:13,323 --> 00:08:15,950 Ik weet wel dat dit nogal onwaarschijnlijk klinkt, 168 00:08:15,950 --> 00:08:17,424 maar de trends wijzen al op 169 00:08:17,424 --> 00:08:22,339 een groeiend en erg krachtig individueel streven naar data-eigendom. 170 00:08:22,339 --> 00:08:27,361 Om te beginnen creëren start-ups al tools om ons wat controle terug te geven. 171 00:08:27,361 --> 00:08:32,604 De nieuwe browser Brave sterkt gebruikers met 'Brave Shields' -- 172 00:08:32,604 --> 00:08:33,970 zo noemen ze het echt -- 173 00:08:33,970 --> 00:08:38,995 door data-graaiende reclame en trackers agressief te blokkeren 174 00:08:38,995 --> 00:08:41,503 en te voorkomen dat data vanuit de browser weglekt. 175 00:08:41,503 --> 00:08:46,494 Andersom kunnen gebruikers terug onderhandelen en prijzen. 176 00:08:46,494 --> 00:08:49,704 Als gebruikers ervoor kiezen reclame toe te laten, 177 00:08:49,704 --> 00:08:53,105 dan beloont Brave hen met 'Basic Attention Tokens', 178 00:08:53,105 --> 00:08:57,350 waarmee ze inhoud achter betaalmuren kunnen kopen van uitgevers. 179 00:08:58,596 --> 00:09:00,403 Ik gebruik Brave nu al enkele maanden. 180 00:09:00,403 --> 00:09:04,715 Het heeft al meer dan 200.000 ads en trackers tegengehouden 181 00:09:04,715 --> 00:09:07,196 en me uren tijd uitgespaard. 182 00:09:07,616 --> 00:09:10,385 Nu interageren sommigen onder jullie meer met hun browser 183 00:09:10,385 --> 00:09:12,560 dan met hun partners, dus ... 184 00:09:12,560 --> 00:09:13,274 (Gelach) 185 00:09:13,274 --> 00:09:15,358 zou je er tenminste eentje moeten vinden 186 00:09:15,358 --> 00:09:18,325 die je tijd niet verprutst en ook wat minder achterbaks is. 187 00:09:18,325 --> 00:09:19,943 (Gelach) 188 00:09:22,000 --> 00:09:24,700 Denk je dat Google onmisbaar is? 189 00:09:25,191 --> 00:09:26,607 Denk nog eens. 190 00:09:26,607 --> 00:09:29,560 Een zoekmachine is onmisbaar. 191 00:09:29,560 --> 00:09:31,378 Google heeft slechts het monopolie ... 192 00:09:31,378 --> 00:09:32,334 nu nog. 193 00:09:32,334 --> 00:09:36,574 De zoekmachine DuckDuckGo slaat je persoonlijke informatie niet op, 194 00:09:36,574 --> 00:09:38,102 achtervolgt je niet met reclame, 195 00:09:38,102 --> 00:09:40,960 noch houdt ze je zoekgeschiedenis bij. 196 00:09:40,960 --> 00:09:43,796 Daarentegen geeft ze alle bezoekers dezelfde resultaten 197 00:09:43,796 --> 00:09:47,691 in plaats van resultaten gebaseerd op hun zoekgeschiedenis. 198 00:09:48,565 --> 00:09:54,225 In Londen biedt het bedrijf digi.me een app voor je smartphone aan, 199 00:09:54,225 --> 00:09:54,993 welke je helpt 200 00:09:54,993 --> 00:09:59,007 om de door jou gegenereerde data te importeren en te consolideren 201 00:09:59,007 --> 00:10:02,812 vanuit Fitbit, Spotify, socialmedia-accounts ... 202 00:10:03,405 --> 00:10:05,695 Je kiest zelf waar je die data opslaat 203 00:10:05,695 --> 00:10:10,717 en digi.me helpt je om die data voor jou te laten werken 204 00:10:10,717 --> 00:10:12,115 door inzichten te verschaffen 205 00:10:12,115 --> 00:10:15,645 die vroeger alleen maar beschikbaar waren voor grote maatschappijen. 206 00:10:16,584 --> 00:10:21,505 Een nieuw initiatief in D.C. genaamd UBDI, 207 00:10:21,505 --> 00:10:23,922 Universal Basic Data Income, 208 00:10:23,922 --> 00:10:25,935 helpt mensen om geld te verdienen 209 00:10:25,935 --> 00:10:29,978 door aan de hand van data anonieme inzichten te delen, 210 00:10:29,978 --> 00:10:33,033 welke maatschappijen voor marktonderzoek kunnen gebruiken. 211 00:10:33,507 --> 00:10:36,357 Als een maatschappij een studie koopt, 212 00:10:36,357 --> 00:10:40,469 worden gebruikers betaald in cash en UBDI-punten -- 213 00:10:40,469 --> 00:10:45,879 volgens hun inschatting tot wel 1.000 Amerikaanse dollar per jaar 214 00:10:47,360 --> 00:10:51,329 UBDI zou een reëel pad kunnen zijn op weg naar een universeel basisinkomen 215 00:10:51,329 --> 00:10:52,793 in de AI-economie. 216 00:10:53,642 --> 00:11:01,424 Ook neemt het individueel bewustzijn over privacy en data-eigendom snel toe, 217 00:11:01,424 --> 00:11:03,771 nu iedereen zich bewust wordt van dit monster 218 00:11:03,771 --> 00:11:06,684 dat we in onze zakken hebben losgelaten. 219 00:11:06,684 --> 00:11:09,150 Ik ben moeder van twee jonge dochters, 220 00:11:09,150 --> 00:11:10,769 en geloof me, 221 00:11:10,769 --> 00:11:15,988 de voornaamste bron van zorg en angst voor een ouder, 222 00:11:15,988 --> 00:11:16,942 voor mij, 223 00:11:16,942 --> 00:11:19,752 is de verhouding die mijn kinderen met technologie hebben. 224 00:11:21,061 --> 00:11:25,000 Dit contract van drie pagina's hebben mijn man en ik hen laten tekenen 225 00:11:25,000 --> 00:11:26,929 voor ze hun eerste [smartphone] kregen. 226 00:11:26,929 --> 00:11:28,969 (Gelach) 227 00:11:29,619 --> 00:11:35,796 We willen hen helpen om digitale burgers worden, 228 00:11:35,796 --> 00:11:41,489 maar alleen als ze slimme en verantwoordelijke burgers worden. 229 00:11:41,489 --> 00:11:43,340 Ik help hen om ze te laten begrijpen 230 00:11:43,340 --> 00:11:45,750 welk soort data ze nooit zouden mogen delen. 231 00:11:46,931 --> 00:11:48,500 Als je me dus googelt, 232 00:11:48,500 --> 00:11:51,989 of liever -- sorry -- me DuckDuckGoot, 233 00:11:51,989 --> 00:11:55,293 vind je misschien wel een hoop over mij en mijn werk, 234 00:11:55,293 --> 00:11:58,710 maar je zult allicht geen informatie over mijn dochters vinden. 235 00:11:58,710 --> 00:11:59,655 Als ze ouder zijn 236 00:11:59,655 --> 00:12:01,471 en ze zich er dan willen laten zien, 237 00:12:01,471 --> 00:12:03,211 is dat hun keuze, niet de mijne, 238 00:12:03,211 --> 00:12:04,786 ondanks dat ik erop sta 239 00:12:04,786 --> 00:12:08,563 dat ze 's werelds mooiste, verstandigste en buitengewoonste kinderen zijn -- 240 00:12:08,563 --> 00:12:09,563 vanzelfsprekend. 241 00:12:11,474 --> 00:12:14,217 En ik ken veel mensen die hetzelfde vertellen 242 00:12:14,217 --> 00:12:16,014 en gelijkaardige beslissingen nemen. 243 00:12:16,014 --> 00:12:17,307 Dat geeft me hoop 244 00:12:17,307 --> 00:12:20,430 op een echt slimme, data-rijke toekomst. 245 00:12:21,492 --> 00:12:24,896 Maar ik wil de nadruk leggen op punt 6 van deze overeenkomst. 246 00:12:24,896 --> 00:12:28,634 Er staat: "ik zal nooit of nooit online informatie delen 247 00:12:28,634 --> 00:12:32,121 waarvoor ik beschaamd zou zijn, mocht oma Dawnie ze te zien krijgen." 248 00:12:32,121 --> 00:12:32,879 (Gelach) 249 00:12:32,879 --> 00:12:33,596 Probeer het. 250 00:12:33,596 --> 00:12:35,126 Het helpt echt. 251 00:12:35,126 --> 00:12:37,588 (Gelach) 252 00:12:37,588 --> 00:12:39,549 Doorheen de geschiedenis 253 00:12:39,549 --> 00:12:45,588 is er altijd een afwegen geweest tussen vrijheid en gelijkheid 254 00:12:45,588 --> 00:12:48,174 bij het streven naar welzijn. 255 00:12:48,657 --> 00:12:55,023 De wereld volgde steeds de cirkel van opstapeling van weelde 256 00:12:55,023 --> 00:12:56,970 naar herverdeling van weelde. 257 00:12:57,439 --> 00:13:00,673 Nu de spanning tussen zij die hebben en zij die niet hebben 258 00:13:00,673 --> 00:13:02,892 in zo vele landen oploopt, 259 00:13:02,892 --> 00:13:05,303 is het in ieders belang, 260 00:13:05,303 --> 00:13:07,803 ook dat van de grote data-bedrijven, 261 00:13:07,803 --> 00:13:11,101 om deze nieuwe vorm van ongelijkheid tegen te gaan. 262 00:13:11,949 --> 00:13:17,105 Natuurlijk is individueel bezit van data het perfecte noch het volledige antwoord 263 00:13:17,105 --> 00:13:19,746 op deze diep complexe vraag 264 00:13:19,746 --> 00:13:23,768 van wat een goede digitale maatschappij uitmaakt. 265 00:13:24,991 --> 00:13:28,321 Maar volgens McKinsey 266 00:13:28,321 --> 00:13:32,892 zal AI 13 biljoen Amerikaanse dollar aan economische opbrengst genereren 267 00:13:32,892 --> 00:13:34,383 in de komende tien jaar. 268 00:13:34,883 --> 00:13:38,096 Door personen gegenereerde data zullen zonder twijfel bijdragen 269 00:13:38,096 --> 00:13:40,531 aan deze enorme economische groei. 270 00:13:41,636 --> 00:13:44,662 Moeten we niet tenminste een economisch model overwegen 271 00:13:44,662 --> 00:13:46,532 dat de mensen macht geeft. 272 00:13:46,975 --> 00:13:53,650 Als privébezit meer dan 850 miljoen mensen uit de armoede heeft kunnen optillen, 273 00:13:53,650 --> 00:13:55,727 is het onze plicht, 274 00:13:55,727 --> 00:13:58,795 en dat zijn we schuldig aan de komende generaties, 275 00:13:58,795 --> 00:14:02,335 om een meer inclusieve AI-economie te creëren 276 00:14:02,335 --> 00:14:06,782 die zowel de mensen als de zaken helpt. 277 00:14:06,782 --> 00:14:07,880 Dank jullie. 278 00:14:07,880 --> 00:14:10,874 (Applaus)