1 00:00:01,325 --> 00:00:05,221 A hetvenes évek végén nőttem fel a vidéki Kínában, 2 00:00:05,245 --> 00:00:06,445 az utolsó években, 3 00:00:06,445 --> 00:00:12,402 amikor országom a szabadság árán az abszolút egyenlőségre törekedett. 4 00:00:12,870 --> 00:00:15,194 Abban az időben mindenkinek volt munkája, 5 00:00:15,218 --> 00:00:17,288 de mindenki küszködött. 6 00:00:17,312 --> 00:00:20,188 A nyolcvanas évek elején apám villanyszerelő volt, 7 00:00:20,212 --> 00:00:23,084 anyám pedig két műszakban dolgozott a helyi kórházban. 8 00:00:23,790 --> 00:00:26,730 De mégsem jutott elegendő étel, 9 00:00:26,754 --> 00:00:29,071 és életkörülményeink lehangolóak voltak. 10 00:00:29,095 --> 00:00:31,086 Kétségtelenül egyenlőek voltunk – 11 00:00:31,110 --> 00:00:32,649 ugyanolyan szegények. 12 00:00:33,114 --> 00:00:35,122 Minden az államé volt. 13 00:00:35,146 --> 00:00:36,602 Nem volt semmink. 14 00:00:37,309 --> 00:00:40,981 A történet, amelyet megosztok önökkel, a küzdelmeimről szól, 15 00:00:41,005 --> 00:00:43,518 a hátrányok leküzdéséről, 16 00:00:43,518 --> 00:00:48,267 melyhez elég ellenálló, makacs és állhatatosan eltökélt voltam. 17 00:00:49,151 --> 00:00:51,507 Nem, csak viccelek, nem fogom ezt művelni önökkel. 18 00:00:51,507 --> 00:00:54,070 (Nevetés) 19 00:00:54,094 --> 00:00:58,044 Ehelyett elmondom, 20 00:00:58,068 --> 00:01:02,214 hogy a mai témám a kollektív szegénység új formája, 21 00:01:02,238 --> 00:01:04,167 melyet sokan nem ismernek fel, 22 00:01:04,191 --> 00:01:06,345 és amit sürgősen meg kéne érteni. 23 00:01:06,822 --> 00:01:07,930 Tudom, észrevették, 24 00:01:07,930 --> 00:01:11,080 hogy az elmúlt húsz évben megjelent egy vagyoni eszköz. 25 00:01:11,104 --> 00:01:14,562 Nyaktörő tempóban hozza a gazdagságot. 26 00:01:14,586 --> 00:01:18,663 Eszközként lehetővé tette a vállalkozások számára a vásárlók alapos megismerését, 27 00:01:18,687 --> 00:01:20,325 a hatékony működést, 28 00:01:20,349 --> 00:01:22,541 és a hatalmas felső vonalbeli növekedést, 29 00:01:23,018 --> 00:01:24,646 másoknak pedig eszközt biztosított 30 00:01:24,670 --> 00:01:29,467 a demokratikus választások manipulálásához, 31 00:01:29,491 --> 00:01:34,660 megfigyelési lehetőséget biztosított profitszerzési vagy politikai célból. 32 00:01:35,287 --> 00:01:37,333 Mi ez a csodálatos vagyoni érték? 33 00:01:37,357 --> 00:01:39,270 Kitalálták: az adatok. 34 00:01:40,308 --> 00:01:44,874 A világ tíz legértékesebb cége közül hét techcég, 35 00:01:44,898 --> 00:01:47,865 amelyek vagy közvetlenül termelnek nyereséget az adatokból, 36 00:01:47,889 --> 00:01:50,684 vagy megerősödnek a számukra fontos adatok segítségével. 37 00:01:51,352 --> 00:01:52,617 Számos felmérés mutatja, 38 00:01:52,641 --> 00:01:55,127 hogy az üzleti döntéshozók túlnyomó többsége 39 00:01:55,151 --> 00:01:58,522 az adatokat a siker eszközének tekinti. 40 00:01:58,546 --> 00:02:04,484 Mind tapasztaltuk már, hogyan segítik elő az adatok ezt a jelentős szemléletváltást 41 00:02:04,508 --> 00:02:08,393 személyes, gazdasági és politikai életünkben. 42 00:02:08,764 --> 00:02:11,115 Akié az adat, azé a jövő is. 43 00:02:11,553 --> 00:02:13,278 De ki adja az adatokat? 44 00:02:13,964 --> 00:02:16,992 Feltételezem, mindenkinek van okostelefonja ebben a teremben, 45 00:02:16,992 --> 00:02:18,484 pár közösségi médiafiókja, 46 00:02:18,508 --> 00:02:21,458 és végzett egy-két Google keresést is az elmúlt héten. 47 00:02:21,966 --> 00:02:24,281 Mindannyian állítunk elő adatokat. Igen. 48 00:02:24,948 --> 00:02:28,356 A becslések szerint tíz év múlva, 2030-ra 49 00:02:28,380 --> 00:02:32,579 körülbelül 125 milliárd hálózati eszköz lesz a világon. 50 00:02:32,603 --> 00:02:37,027 Átlagosan kb. 15 eszköz személyenként. 51 00:02:37,511 --> 00:02:39,538 Már mindennap állítunk elő adatokat. 52 00:02:39,562 --> 00:02:42,720 Exponenciálisan többet fogunk termelni. 53 00:02:43,529 --> 00:02:47,540 A Google, a Facebook és a Tencent együttes bevétele 2018-ban 54 00:02:47,564 --> 00:02:50,848 236 milliárd dollár volt. 55 00:02:50,848 --> 00:02:52,939 Nos, hányan kaptak önök közül fizetést tőlük 56 00:02:52,939 --> 00:02:54,991 az önök által előállított adatokért? 57 00:02:54,991 --> 00:02:56,546 Senki, ugye? 58 00:02:56,570 --> 00:03:00,531 Az adatoknak hatalmas értékük van, de központilag kezelik s birtokolják őket. 59 00:03:00,555 --> 00:03:05,418 Mindannyian sétáló nyersanyagok vagyunk a nagy adattársaságok számára, 60 00:03:05,442 --> 00:03:06,877 de egyikünknek sem fizetnek. 61 00:03:07,703 --> 00:03:09,699 Ezen felül arra sem gondolnak, 62 00:03:09,699 --> 00:03:13,270 hogy a jövedelemből részesüljünk. 63 00:03:13,651 --> 00:03:15,344 Tehát még egyszer; 64 00:03:15,368 --> 00:03:17,105 kétségkívül egyenlőek vagyunk – 65 00:03:17,129 --> 00:03:18,592 ugyanolyan szegények. 66 00:03:19,004 --> 00:03:22,043 Valaki más tulajdonában van minden, nekünk pedig nincs semmink. 67 00:03:22,067 --> 00:03:23,620 Ismerősen hangzik, ugye? 68 00:03:24,747 --> 00:03:26,134 Szóval, mit kéne tennünk? 69 00:03:26,134 --> 00:03:27,608 Talán útmutatásra lelünk abban, 70 00:03:27,608 --> 00:03:29,903 ahogy az én életem változott a nehéz kezdés után. 71 00:03:29,903 --> 00:03:32,390 A nyolcvanas években a családom helyzete javult. 72 00:03:32,390 --> 00:03:34,845 A rendszer fejlődött, és kezdték hagyni, 73 00:03:34,845 --> 00:03:38,015 hogy az emberek megtartsanak valamit abból, amit létrehoztak. 74 00:03:38,118 --> 00:03:39,836 "Az emberek az óceánba merülnek", 75 00:03:39,860 --> 00:03:42,208 vagy a "xia hai" kínai kifejezés írta le azokat, 76 00:03:42,232 --> 00:03:45,531 akik otthagyták az állami tulajdonú vállalati munkahelyeket, 77 00:03:45,555 --> 00:03:47,330 és saját vállalkozást indítottak. 78 00:03:47,814 --> 00:03:49,801 Az üzleti tulajdonból 79 00:03:49,825 --> 00:03:51,407 magántulajdon lett, 80 00:03:51,407 --> 00:03:56,366 autók, javak, ételek, ruhák és egyebek. 81 00:03:56,390 --> 00:03:59,261 A gazdasági gépezet beindult, 82 00:03:59,285 --> 00:04:01,485 és az emberek élete javulni kezdett. 83 00:04:01,509 --> 00:04:02,753 Először vált dicsőséggé 84 00:04:02,777 --> 00:04:05,385 a meggazdagodás. 85 00:04:05,409 --> 00:04:10,472 Tehát a kilencvenes években, amikor tanulni mentem Csengduba, Nyugat-Kínába, 86 00:04:10,476 --> 00:04:12,938 sok hozzám hasonló fiatal tudott úgy elhelyezkedni, 87 00:04:12,938 --> 00:04:15,249 hogy kihasználhatta az új rendszer előnyeit. 88 00:04:15,330 --> 00:04:18,034 Miután befejeztem az egyetemet, 89 00:04:18,058 --> 00:04:21,241 megalapítottam az első üzletemet, és Shenzhenbe költöztem, 90 00:04:21,265 --> 00:04:25,744 a vadonatúj különleges gazdasági övezetbe, amely korábban halászfalu volt. 91 00:04:25,768 --> 00:04:26,937 Húsz évvel később 92 00:04:26,961 --> 00:04:31,366 Shenzhen globális innovációs erőművé vált. 93 00:04:32,667 --> 00:04:36,745 A magántulajdon a szabadság egyik, addig nem létező formája lett. 94 00:04:37,276 --> 00:04:42,199 Példátlan lehetőségeket teremtett nemzedékeink számára, 95 00:04:42,223 --> 00:04:45,851 ösztönzött bennünket a munkára és a hihetetlenül kemény tanulásra. 96 00:04:46,317 --> 00:04:52,203 Az eredmény, hogy több mint 850 millió ember emelkedett ki a szegénységből. 97 00:04:52,227 --> 00:04:56,012 A Világbank szerint Kína szélsőséges szegénységi rátája 98 00:04:56,302 --> 00:05:00,580 1981-ben, amikor kicsi voltam, 88% volt. 99 00:05:00,604 --> 00:05:04,031 2015-re 0,7 százalékra csökkent. 100 00:05:04,832 --> 00:05:06,576 E siker eredménye vagyok, 101 00:05:06,600 --> 00:05:10,692 és örömmel mondhatom: saját MI-vállalkozásom van, 102 00:05:10,716 --> 00:05:13,414 és nagyon világi és dinamikus életvitelem van, 103 00:05:13,438 --> 00:05:17,483 egy olyan út, amely elképzelhetetlen volt gyermekkorom Nyugat-Kínájában. 104 00:05:18,252 --> 00:05:22,096 Persze a jólét miatt kompromisszumot kellett kötnünk az egyenlőséggel, 105 00:05:22,120 --> 00:05:26,510 a környezettel és a szabadsággal. 106 00:05:26,534 --> 00:05:30,267 És nyilván nem azért vagyok itt, hogy azt mondjam, Kína mindent megoldott. 107 00:05:30,291 --> 00:05:31,497 Még nem. 108 00:05:31,521 --> 00:05:35,707 Azt sem, hogy az adat egy az egyben összehasonlítható a fizikai eszközökkel. 109 00:05:35,731 --> 00:05:36,996 Nem az. 110 00:05:37,726 --> 00:05:42,709 De élettapasztalatom lehetővé tette, hogy lássam, mi rejlik a kulisszák mögött. 111 00:05:42,733 --> 00:05:44,328 Jelenleg a nyilvános viták 112 00:05:44,352 --> 00:05:48,359 főképp a szabályozási és az adatvédelmi kérdésekre összpontosítanak, 113 00:05:48,359 --> 00:05:50,138 mikor az adattulajdonról esik szó. 114 00:05:50,138 --> 00:05:51,813 De megkérdezem: 115 00:05:51,837 --> 00:05:55,053 Mi lenne, ha az adatok tulajdonjogát egész másképp vizsgálnánk? 116 00:05:55,561 --> 00:05:58,216 Mi van, ha az adattulajdon 117 00:05:58,240 --> 00:06:02,568 valójában személyes, egyéni és gazdasági kérdés? 118 00:06:03,183 --> 00:06:06,295 Mi lenne, ha az új digitális gazdaságban megengednék nekünk, 119 00:06:06,295 --> 00:06:08,681 hogy a miénk legyen valami abból, amit létrehozunk, 120 00:06:08,681 --> 00:06:12,781 és megadnák az embereknek a magánadatok tulajdonjogának szabadságát? 121 00:06:14,111 --> 00:06:18,155 A tulajdon jogi fogalma, amikor egy dolgot birtokolhatunk, 122 00:06:18,155 --> 00:06:22,648 felhasználhatunk, elajándékozhatunk, továbbadhatunk, megsemmisíthetünk 123 00:06:22,672 --> 00:06:24,745 vagy kereskedhetünk vele, 124 00:06:24,745 --> 00:06:28,621 eladhatjuk az általunk elfogadott áron. 125 00:06:29,446 --> 00:06:33,545 Mi lenne, ha ugyanezt a meghatározást kiterjesztenénk a magánadatokra, 126 00:06:33,569 --> 00:06:37,027 azért, hogy felhasználhassuk vagy megsemmisíthessük az adatainkat, 127 00:06:37,051 --> 00:06:39,954 vagy az általunk választott áron kereskedhessünk vele? 128 00:06:39,954 --> 00:06:41,687 Nos, tudom, páran talán azt mondják: 129 00:06:41,711 --> 00:06:45,139 "Soha, soha nem cserélném el az adataimat semennyiért sem." 130 00:06:45,163 --> 00:06:48,448 De hadd emlékeztessem önöket, hogy most pontosan ezt teszik, 131 00:06:48,472 --> 00:06:50,910 kivéve, hogy most ingyen adják oda az adataikat. 132 00:06:51,576 --> 00:06:55,618 Ráadásul a magánélet nagyon személyes és árnyalt kérdés. 133 00:06:55,642 --> 00:07:00,033 Önöknek talán megvan a lehetősége, az adatvédelmet választani a pénz helyett, 134 00:07:00,057 --> 00:07:03,078 de Kína több millió kisvállalkozója számára, 135 00:07:03,102 --> 00:07:05,441 akik nem tudnak könnyen hitelhez jutni, 136 00:07:05,441 --> 00:07:10,252 adataik felhasználásával gyors hitelt szerezni MI-alapú hitelezők jóváhagyásával 137 00:07:10,252 --> 00:07:12,391 megfelelhet a legfontosabb igényeiknek. 138 00:07:12,827 --> 00:07:14,295 Amit önök privátnak tartanak, 139 00:07:14,295 --> 00:07:17,027 eltér attól, ami mások számára az. 140 00:07:17,051 --> 00:07:19,492 Ami most privát az önök számára, 141 00:07:19,516 --> 00:07:23,041 különbözik attól, ami az volt a főiskolán. 142 00:07:23,065 --> 00:07:24,463 Vagy legalábbis remélem. 143 00:07:24,487 --> 00:07:26,404 (Nevetés) 144 00:07:26,428 --> 00:07:30,459 Mi mindig, bár többnyire nem tudatosan, 145 00:07:30,459 --> 00:07:32,021 ilyen kompromisszumokat kötünk 146 00:07:32,021 --> 00:07:36,072 különféle személyes hiedelmek és életprioritásaink alapján. 147 00:07:36,096 --> 00:07:40,017 Ez az, amiért az adatok tulajdonjoga 148 00:07:40,041 --> 00:07:41,800 hiányos lenne árképzési erő nélkül. 149 00:07:42,665 --> 00:07:45,335 Az érték meghatározásának az egyénekre való átruházásával 150 00:07:45,359 --> 00:07:49,590 egy olyan eszközhöz jutunk, amellyel részletekbe menően dönthetünk. 151 00:07:49,614 --> 00:07:53,053 Tehát pl. megtehetjük, hogy adatainkat ingyen bocsátjuk rendelkezésre, 152 00:07:53,077 --> 00:07:56,722 ha a hozzájárulást fontosnak érezzük 153 00:07:56,746 --> 00:07:58,532 egy adott orvosi kutatáshoz. 154 00:07:59,068 --> 00:08:02,006 Vagy ha lennének eszközeink arra, hogy viselkedési adatainkat 155 00:08:02,030 --> 00:08:05,313 mondjuk 100 000 dollárra árazzuk be, 156 00:08:05,313 --> 00:08:07,791 kétlem, hogy bármely politikai csoport megcélozhatná 157 00:08:07,791 --> 00:08:09,663 vagy manipulálhatná a szavazatunkat. 158 00:08:10,131 --> 00:08:12,490 Mi irányítunk. Mi döntünk. 159 00:08:13,403 --> 00:08:15,950 Nos, tudom, hogy ez valószerűtlennek hangzik, 160 00:08:15,974 --> 00:08:18,308 de a trendek már egyre növekvő 161 00:08:18,308 --> 00:08:21,604 és nagyon erős egyéni adattulajdon-mozgást mutatnak. 162 00:08:21,604 --> 00:08:25,011 Először is, start-up vállalkozások már fejlesztenek olyan eszközöket, 163 00:08:25,011 --> 00:08:27,411 melyekkel részben visszaszerezhetjük az irányítást. 164 00:08:27,411 --> 00:08:32,567 Egy Brave nevű új böngésző "bátor pajzsokkal" látja el a felhasználókat – 165 00:08:32,567 --> 00:08:33,970 szó szerint így hívják –, 166 00:08:33,994 --> 00:08:38,995 agresszíven blokkolják az adathalász hirdetéseket és nyomkövetőket, 167 00:08:38,995 --> 00:08:41,527 elkerülve az adatok kiszivárgását, mint más böngészők. 168 00:08:41,527 --> 00:08:46,470 Cserébe a felhasználók alkupozícióba jutnak. 169 00:08:46,494 --> 00:08:49,704 Amikor a felhasználók a hirdetések fogadása mellett döntenek, 170 00:08:49,728 --> 00:08:53,105 A Brave "általános figyelemzsetonokkal" jutalmazza a felhasználókat, 171 00:08:53,129 --> 00:08:57,350 amelyekkel a kibocsátók fizetési fala mögött lévő tartalmakért fizethetnek. 172 00:08:58,686 --> 00:09:00,739 Néhány hónapja a Brave-et használom. 173 00:09:00,763 --> 00:09:04,715 Már több mint 200 000 hirdetést és nyomkövetőt blokkolt, 174 00:09:04,739 --> 00:09:07,366 és órákat takarított meg számomra. 175 00:09:07,575 --> 00:09:10,394 Tudom, hogy páran többet foglalkoznak a böngészőjükkel, 176 00:09:10,394 --> 00:09:12,460 mint a partnerükkel, tehát – 177 00:09:12,460 --> 00:09:13,494 (Nevetés) 178 00:09:13,494 --> 00:09:18,301 legalább olyat kéne találniuk, ami nem időpazarló és nem vacak. 179 00:09:18,325 --> 00:09:19,943 (Nevetés) 180 00:09:22,110 --> 00:09:24,700 Azt hiszik, a Google pótolhatatlan? 181 00:09:25,351 --> 00:09:26,607 Gondolják át újra. 182 00:09:26,631 --> 00:09:29,650 Egy keresőmotor az, ami nélkülözhetetlen. 183 00:09:29,650 --> 00:09:31,367 A Google csupán monopóliumot élvez – 184 00:09:31,367 --> 00:09:32,520 egyelőre. 185 00:09:32,544 --> 00:09:36,734 A DuckDuckGo nevű keresőmotor nem tárolja személyes adataikat, 186 00:09:36,758 --> 00:09:38,301 nem küldözget hirdetéseket, 187 00:09:38,301 --> 00:09:40,960 és nem őrzi meg személyes böngészési előzményeiket. 188 00:09:40,960 --> 00:09:43,820 Ehelyett minden felhasználónál ugyanaz a keresési eredmény, 189 00:09:43,820 --> 00:09:47,715 és nem alapoz rögzített személyes böngészésekre. 190 00:09:48,565 --> 00:09:51,339 Londonban a digi.me nevű társaság 191 00:09:51,363 --> 00:09:54,241 okostelefonra letölthető alkalmazást kínál, 192 00:09:54,265 --> 00:09:59,007 amely segít az általunk előállított adatok importálásban és egységesítésében 193 00:09:59,031 --> 00:10:01,212 a Fitbitből, a Spotifyból, 194 00:10:01,236 --> 00:10:03,405 a közösségi média stb. felhasználói fiókokból. 195 00:10:03,405 --> 00:10:06,325 Továbbá választhatunk, hol tároljuk adatainkat, 196 00:10:06,325 --> 00:10:10,782 és a digi.me segít abban, hogy hasznunkra legyenek az adatok, 197 00:10:10,806 --> 00:10:13,967 melyek korábban kizárólag a nagy adatszolgáltatók számára 198 00:10:13,991 --> 00:10:15,645 voltak hozzáférhetők. 199 00:10:16,584 --> 00:10:21,481 A DC-ben UBDI, U-B-D-I néven egy új kezdeményezés, 200 00:10:21,505 --> 00:10:23,922 az univerzális alapadat-jövedelem, 201 00:10:23,946 --> 00:10:25,935 segít az embereknek pénzt keresni 202 00:10:25,959 --> 00:10:29,978 az adataikhoz való anonim hozzáféréssel 203 00:10:30,002 --> 00:10:32,677 a piackutató cégek számára. 204 00:10:33,562 --> 00:10:36,357 És amikor egy cég tanulmányt vásárol, 205 00:10:36,381 --> 00:10:40,469 a felhasználók készpénzt és UBDI-pontokat kapnak közreműködésükért, 206 00:10:40,493 --> 00:10:43,639 akár évi 1000 dollárt is, 207 00:10:43,663 --> 00:10:45,928 becslésük szerint. 208 00:10:47,420 --> 00:10:51,305 Az UBDI jól megvalósítható út lehet az általános alapjövedelemhez 209 00:10:51,305 --> 00:10:53,273 a mesterséges intelligencia gazdaságában. 210 00:10:53,642 --> 00:10:59,379 Továbbá a magánélet és adattulajdon egyéni tudatosodása 211 00:10:59,403 --> 00:11:00,911 gyorsan terjed, 212 00:11:01,424 --> 00:11:05,938 ahogy mind megismerjük ezt a szörnyet, aminek zöld utat adtunk a zsebünkben. 213 00:11:06,684 --> 00:11:09,150 Két kiskamasz lányom van, 214 00:11:09,174 --> 00:11:10,769 és higgyék el, 215 00:11:10,793 --> 00:11:16,495 az első számú stresszforrásom és aggodalmam szülőként 216 00:11:16,495 --> 00:11:20,129 gyermekeim kapcsolata a technológiával. 217 00:11:21,161 --> 00:11:25,000 Ez egy háromoldalas megállapodás, amelyet a férjem és én írattunk alá velük, 218 00:11:25,024 --> 00:11:27,301 mielőtt megkapnák az elsőt [mobiltelefon]. 219 00:11:27,325 --> 00:11:28,993 (Nevetés) 220 00:11:29,619 --> 00:11:31,937 Segíteni akarunk abban, 221 00:11:33,191 --> 00:11:35,772 hogy digitális polgárokká váljanak, de csak akkor, 222 00:11:35,796 --> 00:11:41,489 ha el tudjuk érni, hogy okossá és felelősségteljessé váljanak. 223 00:11:41,513 --> 00:11:45,654 Segítek, hogy megértsék, mely adatokat nem kellene sohasem megosztani. 224 00:11:46,931 --> 00:11:49,016 Tehát ha rám gugliznak, valójában – 225 00:11:49,016 --> 00:11:51,989 igazán sajnálom – ha DuckDuckGo-znak engem, 226 00:11:52,013 --> 00:11:55,293 talán sok mindent találnak majd rólam és a munkámról, 227 00:11:55,317 --> 00:11:58,022 de lehet, hogy nem lesz semmi információ a lányaimról. 228 00:11:58,710 --> 00:11:59,865 Amikor felnőnek, 229 00:11:59,889 --> 00:12:03,187 ha meg akarják mutatni magukat, az ő választásuk lesz, nem az enyém, 230 00:12:03,211 --> 00:12:05,786 annak ellenére, hogy természetesen ragaszkodom hozzá, 231 00:12:05,810 --> 00:12:09,761 hogy ők a legszebb, legokosabb és legkülönlegesebb gyerekek a világon. 232 00:12:11,474 --> 00:12:14,217 És tudom, hogy sokan hasonló beszélgetéseket folytatnak 233 00:12:14,241 --> 00:12:16,014 és hasonló döntéseket hoznak, 234 00:12:16,014 --> 00:12:17,355 ami reménnyel tölt el, 235 00:12:17,355 --> 00:12:20,478 hogy valóban okos, adatgazdag jövő elé nézünk. 236 00:12:21,592 --> 00:12:24,976 De szeretném kiemelni e megállapodás 6. cikkelyét. 237 00:12:25,000 --> 00:12:28,634 Azt mondja: "Soha nem fogok olyan online információt keresni, 238 00:12:28,658 --> 00:12:32,121 amitől zavarban lennék, ha Dawnie nagymama látná." 239 00:12:32,145 --> 00:12:33,183 (Nevetés) 240 00:12:33,183 --> 00:12:35,102 Próbálják ki! Nagyon hatékony. 241 00:12:35,126 --> 00:12:36,501 (Nevetés) 242 00:12:37,588 --> 00:12:39,549 A történelem során 243 00:12:39,573 --> 00:12:45,588 mindig volt kompromisszum szabadság és egyenlőség között 244 00:12:45,612 --> 00:12:48,198 a jólét elérésért. 245 00:12:48,657 --> 00:12:52,641 A világ folyamatos körforgásban van 246 00:12:52,641 --> 00:12:57,118 a vagyonfelhalmozáson át a vagyon újraelosztása felé. 247 00:12:57,555 --> 00:13:00,673 Mivel a rászorulók és a vagyonnal rendelkezők között 248 00:13:00,697 --> 00:13:02,892 olyan sok országban keletkezik feszültség, 249 00:13:02,916 --> 00:13:05,327 mindenkinek az az érdeke, 250 00:13:05,351 --> 00:13:07,851 a nagy adatszolgáltató cégekkel egyetemben, 251 00:13:07,875 --> 00:13:11,173 hogy megakadályozzuk ezt az új formáját az egyenlőtlenségnek. 252 00:13:11,997 --> 00:13:17,301 Természetesen az egyéni adattulajdon nem tökéletes, nem is teljes válasz 253 00:13:17,325 --> 00:13:19,746 arra a mélyen összetett kérdésre, 254 00:13:19,770 --> 00:13:23,792 hogy mitől válunk jó digitális társadalommá. 255 00:13:24,991 --> 00:13:27,201 De McKinsey szerint a mesterséges intelligencia 256 00:13:28,321 --> 00:13:34,383 13 billió dollárral több növekedést hoz a gazdasági termelés következő tíz évében. 257 00:13:34,883 --> 00:13:38,096 Az egyének által produkált adatok kétségtelenül hozzá fognak járulni 258 00:13:38,120 --> 00:13:40,555 ehhez a hatalmas növekedéshez. 259 00:13:41,686 --> 00:13:44,682 Nem kéne legalább fontolóra vennünk egy olyan gazdasági modellt, 260 00:13:44,686 --> 00:13:47,018 amely az emberek kezébe adja a rendelkezés jogát? 261 00:13:47,055 --> 00:13:49,624 És ha a magánadat-tulajdon segítene 262 00:13:49,624 --> 00:13:53,730 több mint 850 millió embert kiemelni a szegénységből, 263 00:13:53,730 --> 00:13:55,727 kötelességünk, 264 00:13:55,727 --> 00:13:58,819 és tartozunk azzal a jövő nemzedékeinek, 265 00:13:58,819 --> 00:14:02,335 hogy a mesterséges intelligencia befogadóbb gazdaságát hozzuk létre, 266 00:14:02,359 --> 00:14:06,782 amely a vállalkozások mellett az embereknek is jogosultságokat ad. 267 00:14:06,806 --> 00:14:07,984 Köszönöm. 268 00:14:08,008 --> 00:14:10,792 (Taps)