Podržati inovativnost i zaštiti privatni život, mit ili stvarnost? | Rand Hindi | TEDxSaclay
-
0:07 - 0:10Danas želim da vam pričam
o inovativnosti i privatnom životu -
0:10 - 0:15zato što ove dve stvari ne vezujemo
često jednu za drugu. -
0:15 - 0:17Za mene je to od suštinske važnosti.
-
0:17 - 0:19Imam jedno pitanje za vas.
-
0:19 - 0:21Da li ovde ima osoba
koje su već sebi rekle: -
0:21 - 0:23„Briga me za moj privatni život i podatke
-
0:23 - 0:25zato što nemam šta da krijem”?
-
0:26 - 0:27Da.
-
0:27 - 0:31Ko smatra da je dobar i pošten u životu?
-
0:31 - 0:34Eto! Dakle, očigledno,
nema šta da se krije. -
0:34 - 0:36jer, na kraju krajeva,
šta će ljudi otkriti? -
0:36 - 0:38Da sam neko normalan,
-
0:38 - 0:41da u mom životu nema
ničeg naročito zanimljivog. -
0:41 - 0:43Obavićemo jedan mali eksperiment,
šta kažete, može? -
0:44 - 0:49Uzmite svoje telefone i otvorite
svoju poslednju konverzaciju. -
0:49 - 0:51Nemojte da je birate, nije bitno.
-
0:51 - 0:53Koja god aplikacija za poruke
da je u pitanju, -
0:53 - 0:56otvorite poslednju konverzaciju.
-
0:57 - 0:59Jeste li?
-
1:00 - 1:03Sada prosledite telefon osobi do vas.
-
1:08 - 1:09U redu.
-
1:11 - 1:12Dobro!
-
1:14 - 1:16(Smeje se) Dobro, dobro!
-
1:18 - 1:22Koliko ovde prisutnih osoba,
-
1:22 - 1:26koliko je osoba pogledalo konverzaciju
-
1:26 - 1:28sa telefona koji im je prosleđen?
-
1:29 - 1:32Da li sam vam rekao da je pogledate?
-
1:32 - 1:34(Smeh)
-
1:34 - 1:35Eto!
-
1:35 - 1:38Koliko je vas osetilo tremu
-
1:38 - 1:40kada ste dali telefon osobi pored?
-
1:40 - 1:41(Smeh)
-
1:41 - 1:42Eto.
-
1:43 - 1:46Pritom, tu osobu pored vas vi poznajete.
-
1:46 - 1:48Možete da vidite da li radi
-
1:48 - 1:51sa vašim porukama nešto što ne bi trebalo.
-
1:51 - 1:53Sada recite sebi nešto.
-
1:53 - 1:55Svaki put kada kažete „u redu”
nekoj kompaniji -
1:55 - 1:58za pristup vašim podacima,
radite upravo to isto, -
1:58 - 2:00ali sa ljudima koje ne poznajete,
-
2:00 - 2:02čije prave motive ne poznajete,
-
2:02 - 2:05i protiv kojih nemate nikakvo sredstvo.
-
2:05 - 2:08E, za mene je to pravo pitanje današnjice.
-
2:09 - 2:14Poptuno smo isključili realan uticaj
-
2:14 - 2:17preteranog prisustva privatnog života
u upotrebi tehnologije. -
2:19 - 2:24Osim što, u stvari, devedesetih godina,
u vreme kada nismo bili povezani, -
2:24 - 2:27pitanje ličnih podataka nije ni postojalo,
-
2:27 - 2:28zato što je podataka bilo malo.
-
2:28 - 2:31Većinu života provodili smo oflajn.
-
2:31 - 2:33Dakle, niko nije znao šta se događalo.
-
2:33 - 2:36Osim što, svaki put kada bismo probali
da povežemo neki predmet -
2:36 - 2:38sa sve više i više tehnologije,
-
2:38 - 2:40počeli bismo da digitalizujemo
više aspekata našeg života. -
2:40 - 2:43Rezultat je taj da danas
dolazimo do tačke promene -
2:44 - 2:47u kojoj otkrivamo toliko ličnih podataka
-
2:47 - 2:50koje tako malo kompanija centralizuje,
-
2:50 - 2:55da zaista počinjemo
da eksponiramo celi svoj život. -
2:55 - 2:57I baš to je prava opasnost.
-
2:57 - 2:58Pre 20 godina, mogli ste da kažete
-
2:58 - 3:01da su pitanja privatnog života
bila sekundarna -
3:01 - 3:04ali danas, svet se promenio,
podaci su svuda. -
3:05 - 3:08I plaši me kada počnem da gledam stvari
-
3:08 - 3:10kao što je broj krađa podataka.
-
3:11 - 3:16Da, i to je samo jedan deo,
to nije sve što je ukradeno. -
3:17 - 3:19Prema tome, možete još jednom sebi reći:
-
3:19 - 3:22ako se desilo toliko krađa podataka,
koliko ima ljudi na planeti, -
3:22 - 3:25kako to da ja nisam imao taj problem?
-
3:25 - 3:28Pa, sve više ljudi ima ono
što nazivamo „ransomwares” -
3:28 - 3:32odnosno hakeri koji vam
sa tim ukradenim podacima -
3:32 - 3:35šalju sledeću poruku:
„Pošaljite mi bitkoine, -
3:35 - 3:38ili ću svima otkriti
-
3:38 - 3:40slike koje ne želite da drugi vide.
-
3:41 - 3:43Dakle, kada date svoje podatke kompaniji,
-
3:43 - 3:46potencijalno ih dajete hakeru,
-
3:46 - 3:50i to vas može koštati mnogo novca,
a ako odbijete da platite, -
3:50 - 3:53mogu da garantujem da će pustiti
te informacije u javnost. -
3:53 - 3:57Nemojte misliti da vam se to,
ako se nije desilo danas, -
3:57 - 3:58neće desiti u budućnosti.
-
3:58 - 4:02Za mene, pitanje privatnog života
je pitanje bezbednosti. -
4:02 - 4:06Treba da bude moguće
da se osećamo bezbedno na internetu. -
4:06 - 4:10Ne treba da se konstantno bojimo
krađe naših podataka. -
4:12 - 4:15Zatim, treba da shvatimo
da te firme, malo po malo, -
4:15 - 4:18na kraju stvore detaljan profil
vaše ličnosti -
4:18 - 4:22da znaju o vama ono
što ne možete ni da zamislite. -
4:22 - 4:26Pre neki dan, pričao sam sa nekim
o knjizi koju sam hteo da kupim. -
4:26 - 4:30Još uvek je nisam kupio
a dobio sam reklamu za tu knjigu. -
4:30 - 4:32A niko me nije čuo kada sam to rekao.
-
4:32 - 4:36U stvari, ono što smo moji prijatelji i ja
tražili na internetu -
4:36 - 4:38omogućilo je da stvore
tako precizan profil -
4:38 - 4:41da su razumeli šta me zanima,
nešto kao slagalica. -
4:41 - 4:45Kada počinjete, ne znate šta ima unutra,
-
4:45 - 4:48i svaki put kad dodate jos jedan deo,
to postaje jasnije. -
4:48 - 4:51To se dešava sa vašim profilom
i vašim privatnim podacima. -
4:51 - 4:55Dobro je imati personalizaciju,
targeting, u okviru zdravtsva. -
4:55 - 4:57Bitno je da imamo
personalizovano zdravlje. -
4:57 - 5:01Ali većinu vremena, to se zloupotrebljava.
-
5:01 - 5:05Koristi se kako bi vas zarobili
na različitim platformama. -
5:05 - 5:09Znate onaj osećaj, kada na Instagramu
konstantno skrolujete -
5:09 - 5:13i ne razumete zašto to i dalje radite,
kao da ste zavisni od toga. -
5:13 - 5:16Zapravo, toliko ste dobro profilisani,
-
5:16 - 5:19da je sadržaj koji vam je prikazan
toliko zanimljiv -
5:19 - 5:22da vam, jednostavno, nikada ne dosadi.
-
5:22 - 5:24Nažalost, tu nije kraj.
-
5:24 - 5:28Koriste i razne „nudge” tehnike,
kako bi vam gurali razne reklame, -
5:28 - 5:33sa samo jednim ciljem, koji nije
zadovoljenje vaših potreba, -
5:33 - 5:35već zarada novca na drugi način.
-
5:35 - 5:38Vaši podaci se koriste
za targeting u reklamiranju -
5:38 - 5:40koji im omogućava zaradu.
-
5:40 - 5:42Samo što su to u većini slučajeva
-
5:42 - 5:45proizvodi koji vam možda i ne trebaju,
-
5:45 - 5:49koje prodaju kompanije sa kojima
ne želite uvek da imate posla, -
5:50 - 5:53i nažalost, veoma često,
sa novcem koji vi nemate. -
5:53 - 5:56Dakle, danas, za mene, problem targetinga
-
5:56 - 6:00je, zapravo, problem manipulacije.
-
6:00 - 6:02Videli smo ga i u okviru kompanije
Cambridge Analytica, -
6:02 - 6:05kada su to koristili za manipulisanje
političkim mišljenjem. -
6:05 - 6:08Ako znam šta volite,
tačno znam i šta da vam pokažem, -
6:08 - 6:11da bih vas naveo da mislite ovo ili ono.
-
6:11 - 6:13To se radi u ogromnim razmerama.
-
6:13 - 6:18Dakle, problem privatnog života
je problem zavisnosti, manipulacije, -
6:18 - 6:22a osigurati svoj privatni život znači
osigurati jedan oblik slobode mišljenja. -
6:23 - 6:25Ali i dalje to nije
ono najgore u ovoj priči. -
6:25 - 6:28Mene lično najviše plaši to što shvatamo
-
6:28 - 6:31da što osoba više koristi
neku društvenu mrežu, -
6:31 - 6:35manje ima raznolikosti
u sadržaju koji vidi. -
6:36 - 6:38To znači da,
-
6:38 - 6:41kako dajete podatke
nekoj društvenoj mreži ili kompaniji, -
6:41 - 6:43tako će vas ona poznavati
sve bolje i bolje, -
6:43 - 6:46te će vas na kraju zatvoriti
u vaš sopstveni mehur -
6:47 - 6:49To je zanimljivo,
jer kad ste u svom mehuru -
6:49 - 6:52sve je prijatno, osećate se dobro.
-
6:52 - 6:55To se najviše vidi tokom izbora.
-
6:55 - 6:57Kao slučajno,
svi moji drugovi glasaju kao ja. -
6:57 - 6:59Gde su ostali?
-
6:59 - 7:02U stvari, algoritam zna
šta ja želim da vidim, -
7:02 - 7:05i umesto da rizikuje da me izgubi
sa nečim što mi se ne sviđa, -
7:05 - 7:07biću meta.
-
7:07 - 7:11A opasno je kada počnemo
da gubimo na raznolikosti, -
7:12 - 7:15zato što se, zapravo, zna
i da inovativnost potiče od raznolikosti. -
7:15 - 7:18Studije su pokazale
da su najinovativnije kompanije -
7:18 - 7:21one koje su i najraznolikije.
-
7:21 - 7:25Stoga, hajde da sada uradimo
jedan mali misaoni eksperiment. -
7:25 - 7:28Zamislite da crvena boja
predstavlja domen tehnologije. -
7:29 - 7:32Vi ste neko koga zanima tehnologija.
-
7:32 - 7:37Ako ste svaki put izloženi
tehnološkom sadržaju, -
7:37 - 7:40šta će se desiti u nekom momentu?
-
7:40 - 7:43Jednostavno ćete postati bolji tehnolog,
-
7:43 - 7:45što nije loše, postati veći stručnjak.
-
7:45 - 7:48Ojačali ste, u stvari,
vaša postojeća znanja. -
7:49 - 7:51Ali, niste izmislili ništa novo.
-
7:51 - 7:54Samo ste produbili znanje
koje ste već imali. -
7:54 - 7:56Hajde da sada uzmemo drugi primer.
-
7:56 - 7:58Zamislimo, ovaj put,
-
7:58 - 8:01da imate tri neka sadržaja
vezana za tehnologiju -
8:01 - 8:04ali da počinjete da gledate
stvari vezane za umetnost. -
8:04 - 8:08Kao što je glina, mešanjem crvene
i zelene boje dobija se žuta. -
8:08 - 8:09Imamo nešto novo,
-
8:09 - 8:13što nije ni umetnost, ni tehnologija,
nego neka vrsta preplitanja. -
8:13 - 8:15Dodajte trgovinu, i odjednom,
-
8:15 - 8:20imate toliku raznolikost informacija,
možete da vidite čitav spektar. -
8:20 - 8:23Niste više zatvoreni u domenu
koji već poznajete, -
8:23 - 8:26sada ste sposobni da vidite šta se dešava
-
8:26 - 8:29pri preplitanju tih različitih domena.
-
8:29 - 8:32To je konačno ono
što zaista nazivamo inovativnošću. -
8:32 - 8:34Dakle, kada ste zatvoreni u svom mehuru,
-
8:34 - 8:36gubite sposobnost inovacije
-
8:36 - 8:40zato što gubite sposobnost da vidite
kompletan spektar mogućnosti, -
8:40 - 8:43i način na koji su te različite stvari
međusobno povezane. -
8:44 - 8:46Prema tome, za mene su
pitanja privatnog života -
8:46 - 8:48u osnovi pitanja inovativnosti.
-
8:48 - 8:50Veoma je važno
-
8:50 - 8:53da uspemo da sačuvamo
našu sposobnost inovacije. -
8:53 - 8:56Kako onda da osiguramo privatni život?
-
8:57 - 8:59Ima dosta tehnologija koje postoje.
-
8:59 - 9:02Najpre, treba razumeti
koncept „privacy by design”. -
9:02 - 9:06To je zaista ta ideja
da se osigura privatni život, -
9:06 - 9:09ali ne tražeći od drugih da nam veruju,
-
9:09 - 9:14nego osiguravajući na tehnološkom,
proizvodnom, poslovnom nivou, -
9:14 - 9:16tako da niko nikada ne može
da zloupotrebi te podatke. -
9:17 - 9:21Znači, na primer, homomorfno šifrovanje,
veoma je jednostavno. -
9:21 - 9:25Hoću da koristim neku uslugu
a da ne otkrijem neki podatak. -
9:25 - 9:28Zamislimo da želite da vidite
preporuke restorana, -
9:28 - 9:31ali ne želite da vas osoba
sa druge strane lokalizuje. -
9:31 - 9:34E, pa, šifrovaćete lokaciju na telefonu.
-
9:34 - 9:38Poslaćete je osobi
koja će vam dati preporuke. -
9:38 - 9:41On ne zna gde ste vi,
pošto nema ključ za šifrovane podatke. -
9:41 - 9:44On će da izvuče neki rezultat
i poslaće ga šifrovanog, -
9:44 - 9:46dakle, ne znajući šta su vam preporučili.
-
9:46 - 9:49I vi to dešifrujete na telefonu.
-
9:49 - 9:51Dakle, tu ste u mogućnosti
da dobijete uslugu -
9:51 - 9:53preporuke restorana
koja je personalizovana, -
9:53 - 9:55a da pritom ne otkrijete gde ste.
-
9:55 - 9:58Ova vrsta tehnologije
donedavno nije dobro funkcionisala -
9:58 - 10:01ali sada je to to,
treba nam samo par godina -
10:01 - 10:05da se pobrinemo da ona funkcioniše za sve,
čak i za veštačku inteligenciju. -
10:05 - 10:08Zatim, imamo pitanje centralizacije.
-
10:08 - 10:12Nikako ne želimo da samo jedna
kompanija ima monopol nad našim podacima -
10:12 - 10:15jer bi to značilo da ta kompanija odlučuje
-
10:15 - 10:18o načinu na koji,
ljudi koji koriste usluge, -
10:18 - 10:20potencijalno treba da razmišljaju.
-
10:20 - 10:23Sada, takođe, mnogi rade,
naročito zahvaljujući blokchain-u, -
10:23 - 10:27na decentralizaciji moći
nad ličnim podacima. -
10:28 - 10:33A tu je, najzad, i GDPR, to je 50-50.
Ko ovde smatra da je GDPR dobar? -
10:34 - 10:36O, fino!
-
10:36 - 10:39U Sjedinjenim Američkim Državama
ljudi ga ne vole. -
10:39 - 10:41Dobar je zbog tri stvari.
-
10:42 - 10:45Prvo, to nam omogućava da nas zaborave.
-
10:45 - 10:48Ako nismo zadovoljni,
možemo da odemo i bićemo zaboravljeni. -
10:48 - 10:51Drugo, to omogućava da se podaci skupe
i pošalju na drugo mesto. -
10:51 - 10:54Ako smatrate da kompanija A
ne deli vaše moralne vrednosti, -
10:54 - 10:57i da neka druga kompanija
nudi istu uslugu, -
10:57 - 11:00možete da prosledite podatke
a da se ne vratite na nulu. -
11:00 - 11:02U nekim slučajevima, postoji čak
i pravo na neprofilisanje, -
11:02 - 11:06ako su, na primer,
posledice ozbiljne po vaš život. -
11:06 - 11:09Odredbe koje danas stupaju na snagu
-
11:09 - 11:13omogućavaju prekid tog začaranog kruga
vezanog za lične podatke, -
11:13 - 11:16koji doprinosi jačanju našeg mehura,
-
11:16 - 11:19bez ikakvih sredstava iza nas.
-
11:19 - 11:21Prema tome, kriptografija, blockchain,
-
11:21 - 11:23odredbe vezane za lične podatke,
-
11:23 - 11:27sve su to sredstva koja nam trebaju
da zaštitimo svoj privatni život. -
11:27 - 11:29Zašto vam pričam sve ovo?
-
11:29 - 11:34Pričam vam ovo zato što, danas,
imamo dva izbora za budućnost. -
11:34 - 11:35Imamo ovaj.
-
11:37 - 11:41A to je da nastavimo kao što smo do sada.
-
11:41 - 11:43Praktično idemo pravo u zid.
-
11:44 - 11:47Ako nastavimo da se zatvaramo
u svoj sopstveni mehur, -
11:47 - 11:50kako ćemo stvarno promeniti nešto?
-
11:50 - 11:51Svi dobro vidimo, svi se slažemo,
-
11:51 - 11:54stvari ne idu u dobrom smeru.
-
11:54 - 11:58Treba u nekom trenutku da shvatimo,
da ako izgubimo sposobnost inovacije, -
11:58 - 12:02nikada nećemo uspeti
da sprečimo takvu katastrofu. -
12:02 - 12:06Želite li da živite na Marsu?
Ima i onih koji predlažu to kao rešenje. -
12:06 - 12:08Ne! Niko ne želi da živi na Marsu.
-
12:08 - 12:10Ja sam srećan što živim na Zemlji.
-
12:10 - 12:13Lepa je to planeta, sa lepim plažama,
a obožavam i Pariz. -
12:13 - 12:16Dakle, pokušavam da predložim nešto novo.
-
12:16 - 12:22Ja predlažem da se potrudimo
da stvorimo pozitivnu budućnost, -
12:22 - 12:25budućnost u kojoj bismo uspeli
da rešimo sve probleme. -
12:25 - 12:29Ali, da bismo uspeli, moraćemo
da umnožimo našu inovativnost, -
12:29 - 12:32zahvaljujući tehnologiji,
umesto da se zatvorimo u mehur -
12:32 - 12:35koji će nas odvesti pravo u katastrofu.
-
12:35 - 12:40I zbog toga bi svi trebalo
da se bore da zaštite privatni život, -
12:41 - 12:44i da prekinu začarani krug
u kome smo već 30 godina. -
12:44 - 12:46Hvala.
-
12:46 - 12:49(Aplauz)
- Title:
- Podržati inovativnost i zaštiti privatni život, mit ili stvarnost? | Rand Hindi | TEDxSaclay
- Description:
-
Kada mislimo na naše lične podatke, mislimo najpre na to ko može doći do njih. Bilo da se radi o društvenim mrežama ili povezanim predmetima, mnoštvo podataka koje ostavljamo za sobom, trenutno, nije uvek bezbedno. Ali prava opasnost je gubitak naše sposobnosti da inoviramo, jer što više toga kompanije znaju o nama, više nas zatvaraju u naš sopstveni mehur...
Rand Hindi je naučnik u oblasti podataka i preduzetnik. Izvršni je direktor Snips-a, jednog startapa koji je specijalizovan za veštačku inteligenciju. Počeo je da kodira sa deset godina, osnovao je jednu društvenu mrežu sa četrnaest godina, agenciju za veb razvoj sa petnaest godina, pre nego što se upustio u mašinsko učenje sa osamnaest, i konačno započeo doktorat u dvadeset prvoj. Završio je master iz oblasti informacijskih nauka i doktorat u bioinformatici na Londonskom univerzitetskom koledžu (UCL). Diplomirao je i na Singularity univerzitetu u Silikonskoj dolini i na THNK-u u Amsterdamu. Magazin MIT Technology Review proglasio ga je za inovatora godine do 35 godina, a Forbs ga je imenovao za jednog od trideset inovatora do 30 godina. Kao člana Nacionalnog digitalnog saveta, francuska vlada mu je dodelila da vodi deo „uticaj veštačke inteligencije na ekonomiju i zaposlenost” u globalnoj strategiji Francuske za veštačku inteligenciju. Drži predavanja u oblasti Veštačka inteligencija u trgovini na masteru političkih nauka u Parizu.
Ovaj govor je održan na TEDx događaju koji koristi format TED konferencije, ali ga nezavisno organizuje lokalna zajednica. Saznajte više na http://ted.com/tedx
- Video Language:
- French
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 12:57