Return to Video

Podržati inovativnost i zaštiti privatni život, mit ili stvarnost? | Rand Hindi | TEDxSaclay

  • 0:07 - 0:10
    Danas želim da vam pričam
    o inovativnosti i privatnom životu
  • 0:10 - 0:15
    zato što ove dve stvari ne vezujemo
    često jednu za drugu.
  • 0:15 - 0:17
    Za mene je to od suštinske važnosti.
  • 0:17 - 0:19
    Imam jedno pitanje za vas.
  • 0:19 - 0:21
    Da li ovde ima osoba
    koje su već sebi rekle:
  • 0:21 - 0:23
    „Briga me za moj privatni život i podatke
  • 0:23 - 0:25
    zato što nemam šta da krijem”?
  • 0:26 - 0:27
    Da.
  • 0:27 - 0:31
    Ko smatra da je dobar i pošten u životu?
  • 0:31 - 0:34
    Eto! Dakle, očigledno,
    nema šta da se krije.
  • 0:34 - 0:36
    jer, na kraju krajeva,
    šta će ljudi otkriti?
  • 0:36 - 0:38
    Da sam neko normalan,
  • 0:38 - 0:41
    da u mom životu nema
    ničeg naročito zanimljivog.
  • 0:41 - 0:43
    Obavićemo jedan mali eksperiment,
    šta kažete, može?
  • 0:44 - 0:49
    Uzmite svoje telefone i otvorite
    svoju poslednju konverzaciju.
  • 0:49 - 0:51
    Nemojte da je birate, nije bitno.
  • 0:51 - 0:53
    Koja god aplikacija za poruke
    da je u pitanju,
  • 0:53 - 0:56
    otvorite poslednju konverzaciju.
  • 0:57 - 0:59
    Jeste li?
  • 1:00 - 1:03
    Sada prosledite telefon osobi do vas.
  • 1:08 - 1:09
    U redu.
  • 1:11 - 1:12
    Dobro!
  • 1:14 - 1:16
    (Smeje se) Dobro, dobro!
  • 1:18 - 1:22
    Koliko ovde prisutnih osoba,
  • 1:22 - 1:26
    koliko je osoba pogledalo konverzaciju
  • 1:26 - 1:28
    sa telefona koji im je prosleđen?
  • 1:29 - 1:32
    Da li sam vam rekao da je pogledate?
  • 1:32 - 1:34
    (Smeh)
  • 1:34 - 1:35
    Eto!
  • 1:35 - 1:38
    Koliko je vas osetilo tremu
  • 1:38 - 1:40
    kada ste dali telefon osobi pored?
  • 1:40 - 1:41
    (Smeh)
  • 1:41 - 1:42
    Eto.
  • 1:43 - 1:46
    Pritom, tu osobu pored vas vi poznajete.
  • 1:46 - 1:48
    Možete da vidite da li radi
  • 1:48 - 1:51
    sa vašim porukama nešto što ne bi trebalo.
  • 1:51 - 1:53
    Sada recite sebi nešto.
  • 1:53 - 1:55
    Svaki put kada kažete „u redu”
    nekoj kompaniji
  • 1:55 - 1:58
    za pristup vašim podacima,
    radite upravo to isto,
  • 1:58 - 2:00
    ali sa ljudima koje ne poznajete,
  • 2:00 - 2:02
    čije prave motive ne poznajete,
  • 2:02 - 2:05
    i protiv kojih nemate nikakvo sredstvo.
  • 2:05 - 2:08
    E, za mene je to pravo pitanje današnjice.
  • 2:09 - 2:14
    Poptuno smo isključili realan uticaj
  • 2:14 - 2:17
    preteranog prisustva privatnog života
    u upotrebi tehnologije.
  • 2:19 - 2:24
    Osim što, u stvari, devedesetih godina,
    u vreme kada nismo bili povezani,
  • 2:24 - 2:27
    pitanje ličnih podataka nije ni postojalo,
  • 2:27 - 2:28
    zato što je podataka bilo malo.
  • 2:28 - 2:31
    Većinu života provodili smo oflajn.
  • 2:31 - 2:33
    Dakle, niko nije znao šta se događalo.
  • 2:33 - 2:36
    Osim što, svaki put kada bismo probali
    da povežemo neki predmet
  • 2:36 - 2:38
    sa sve više i više tehnologije,
  • 2:38 - 2:40
    počeli bismo da digitalizujemo
    više aspekata našeg života.
  • 2:40 - 2:43
    Rezultat je taj da danas
    dolazimo do tačke promene
  • 2:44 - 2:47
    u kojoj otkrivamo toliko ličnih podataka
  • 2:47 - 2:50
    koje tako malo kompanija centralizuje,
  • 2:50 - 2:55
    da zaista počinjemo
    da eksponiramo celi svoj život.
  • 2:55 - 2:57
    I baš to je prava opasnost.
  • 2:57 - 2:58
    Pre 20 godina, mogli ste da kažete
  • 2:58 - 3:01
    da su pitanja privatnog života
    bila sekundarna
  • 3:01 - 3:04
    ali danas, svet se promenio,
    podaci su svuda.
  • 3:05 - 3:08
    I plaši me kada počnem da gledam stvari
  • 3:08 - 3:10
    kao što je broj krađa podataka.
  • 3:11 - 3:16
    Da, i to je samo jedan deo,
    to nije sve što je ukradeno.
  • 3:17 - 3:19
    Prema tome, možete još jednom sebi reći:
  • 3:19 - 3:22
    ako se desilo toliko krađa podataka,
    koliko ima ljudi na planeti,
  • 3:22 - 3:25
    kako to da ja nisam imao taj problem?
  • 3:25 - 3:28
    Pa, sve više ljudi ima ono
    što nazivamo „ransomwares”
  • 3:28 - 3:32
    odnosno hakeri koji vam
    sa tim ukradenim podacima
  • 3:32 - 3:35
    šalju sledeću poruku:
    „Pošaljite mi bitkoine,
  • 3:35 - 3:38
    ili ću svima otkriti
  • 3:38 - 3:40
    slike koje ne želite da drugi vide.
  • 3:41 - 3:43
    Dakle, kada date svoje podatke kompaniji,
  • 3:43 - 3:46
    potencijalno ih dajete hakeru,
  • 3:46 - 3:50
    i to vas može koštati mnogo novca,
    a ako odbijete da platite,
  • 3:50 - 3:53
    mogu da garantujem da će pustiti
    te informacije u javnost.
  • 3:53 - 3:57
    Nemojte misliti da vam se to,
    ako se nije desilo danas,
  • 3:57 - 3:58
    neće desiti u budućnosti.
  • 3:58 - 4:02
    Za mene, pitanje privatnog života
    je pitanje bezbednosti.
  • 4:02 - 4:06
    Treba da bude moguće
    da se osećamo bezbedno na internetu.
  • 4:06 - 4:10
    Ne treba da se konstantno bojimo
    krađe naših podataka.
  • 4:12 - 4:15
    Zatim, treba da shvatimo
    da te firme, malo po malo,
  • 4:15 - 4:18
    na kraju stvore detaljan profil
    vaše ličnosti
  • 4:18 - 4:22
    da znaju o vama ono
    što ne možete ni da zamislite.
  • 4:22 - 4:26
    Pre neki dan, pričao sam sa nekim
    o knjizi koju sam hteo da kupim.
  • 4:26 - 4:30
    Još uvek je nisam kupio
    a dobio sam reklamu za tu knjigu.
  • 4:30 - 4:32
    A niko me nije čuo kada sam to rekao.
  • 4:32 - 4:36
    U stvari, ono što smo moji prijatelji i ja
    tražili na internetu
  • 4:36 - 4:38
    omogućilo je da stvore
    tako precizan profil
  • 4:38 - 4:41
    da su razumeli šta me zanima,
    nešto kao slagalica.
  • 4:41 - 4:45
    Kada počinjete, ne znate šta ima unutra,
  • 4:45 - 4:48
    i svaki put kad dodate jos jedan deo,
    to postaje jasnije.
  • 4:48 - 4:51
    To se dešava sa vašim profilom
    i vašim privatnim podacima.
  • 4:51 - 4:55
    Dobro je imati personalizaciju,
    targeting, u okviru zdravtsva.
  • 4:55 - 4:57
    Bitno je da imamo
    personalizovano zdravlje.
  • 4:57 - 5:01
    Ali većinu vremena, to se zloupotrebljava.
  • 5:01 - 5:05
    Koristi se kako bi vas zarobili
    na različitim platformama.
  • 5:05 - 5:09
    Znate onaj osećaj, kada na Instagramu
    konstantno skrolujete
  • 5:09 - 5:13
    i ne razumete zašto to i dalje radite,
    kao da ste zavisni od toga.
  • 5:13 - 5:16
    Zapravo, toliko ste dobro profilisani,
  • 5:16 - 5:19
    da je sadržaj koji vam je prikazan
    toliko zanimljiv
  • 5:19 - 5:22
    da vam, jednostavno, nikada ne dosadi.
  • 5:22 - 5:24
    Nažalost, tu nije kraj.
  • 5:24 - 5:28
    Koriste i razne „nudge” tehnike,
    kako bi vam gurali razne reklame,
  • 5:28 - 5:33
    sa samo jednim ciljem, koji nije
    zadovoljenje vaših potreba,
  • 5:33 - 5:35
    već zarada novca na drugi način.
  • 5:35 - 5:38
    Vaši podaci se koriste
    za targeting u reklamiranju
  • 5:38 - 5:40
    koji im omogućava zaradu.
  • 5:40 - 5:42
    Samo što su to u većini slučajeva
  • 5:42 - 5:45
    proizvodi koji vam možda i ne trebaju,
  • 5:45 - 5:49
    koje prodaju kompanije sa kojima
    ne želite uvek da imate posla,
  • 5:50 - 5:53
    i nažalost, veoma često,
    sa novcem koji vi nemate.
  • 5:53 - 5:56
    Dakle, danas, za mene, problem targetinga
  • 5:56 - 6:00
    je, zapravo, problem manipulacije.
  • 6:00 - 6:02
    Videli smo ga i u okviru kompanije
    Cambridge Analytica,
  • 6:02 - 6:05
    kada su to koristili za manipulisanje
    političkim mišljenjem.
  • 6:05 - 6:08
    Ako znam šta volite,
    tačno znam i šta da vam pokažem,
  • 6:08 - 6:11
    da bih vas naveo da mislite ovo ili ono.
  • 6:11 - 6:13
    To se radi u ogromnim razmerama.
  • 6:13 - 6:18
    Dakle, problem privatnog života
    je problem zavisnosti, manipulacije,
  • 6:18 - 6:22
    a osigurati svoj privatni život znači
    osigurati jedan oblik slobode mišljenja.
  • 6:23 - 6:25
    Ali i dalje to nije
    ono najgore u ovoj priči.
  • 6:25 - 6:28
    Mene lično najviše plaši to što shvatamo
  • 6:28 - 6:31
    da što osoba više koristi
    neku društvenu mrežu,
  • 6:31 - 6:35
    manje ima raznolikosti
    u sadržaju koji vidi.
  • 6:36 - 6:38
    To znači da,
  • 6:38 - 6:41
    kako dajete podatke
    nekoj društvenoj mreži ili kompaniji,
  • 6:41 - 6:43
    tako će vas ona poznavati
    sve bolje i bolje,
  • 6:43 - 6:46
    te će vas na kraju zatvoriti
    u vaš sopstveni mehur
  • 6:47 - 6:49
    To je zanimljivo,
    jer kad ste u svom mehuru
  • 6:49 - 6:52
    sve je prijatno, osećate se dobro.
  • 6:52 - 6:55
    To se najviše vidi tokom izbora.
  • 6:55 - 6:57
    Kao slučajno,
    svi moji drugovi glasaju kao ja.
  • 6:57 - 6:59
    Gde su ostali?
  • 6:59 - 7:02
    U stvari, algoritam zna
    šta ja želim da vidim,
  • 7:02 - 7:05
    i umesto da rizikuje da me izgubi
    sa nečim što mi se ne sviđa,
  • 7:05 - 7:07
    biću meta.
  • 7:07 - 7:11
    A opasno je kada počnemo
    da gubimo na raznolikosti,
  • 7:12 - 7:15
    zato što se, zapravo, zna
    i da inovativnost potiče od raznolikosti.
  • 7:15 - 7:18
    Studije su pokazale
    da su najinovativnije kompanije
  • 7:18 - 7:21
    one koje su i najraznolikije.
  • 7:21 - 7:25
    Stoga, hajde da sada uradimo
    jedan mali misaoni eksperiment.
  • 7:25 - 7:28
    Zamislite da crvena boja
    predstavlja domen tehnologije.
  • 7:29 - 7:32
    Vi ste neko koga zanima tehnologija.
  • 7:32 - 7:37
    Ako ste svaki put izloženi
    tehnološkom sadržaju,
  • 7:37 - 7:40
    šta će se desiti u nekom momentu?
  • 7:40 - 7:43
    Jednostavno ćete postati bolji tehnolog,
  • 7:43 - 7:45
    što nije loše, postati veći stručnjak.
  • 7:45 - 7:48
    Ojačali ste, u stvari,
    vaša postojeća znanja.
  • 7:49 - 7:51
    Ali, niste izmislili ništa novo.
  • 7:51 - 7:54
    Samo ste produbili znanje
    koje ste već imali.
  • 7:54 - 7:56
    Hajde da sada uzmemo drugi primer.
  • 7:56 - 7:58
    Zamislimo, ovaj put,
  • 7:58 - 8:01
    da imate tri neka sadržaja
    vezana za tehnologiju
  • 8:01 - 8:04
    ali da počinjete da gledate
    stvari vezane za umetnost.
  • 8:04 - 8:08
    Kao što je glina, mešanjem crvene
    i zelene boje dobija se žuta.
  • 8:08 - 8:09
    Imamo nešto novo,
  • 8:09 - 8:13
    što nije ni umetnost, ni tehnologija,
    nego neka vrsta preplitanja.
  • 8:13 - 8:15
    Dodajte trgovinu, i odjednom,
  • 8:15 - 8:20
    imate toliku raznolikost informacija,
    možete da vidite čitav spektar.
  • 8:20 - 8:23
    Niste više zatvoreni u domenu
    koji već poznajete,
  • 8:23 - 8:26
    sada ste sposobni da vidite šta se dešava
  • 8:26 - 8:29
    pri preplitanju tih različitih domena.
  • 8:29 - 8:32
    To je konačno ono
    što zaista nazivamo inovativnošću.
  • 8:32 - 8:34
    Dakle, kada ste zatvoreni u svom mehuru,
  • 8:34 - 8:36
    gubite sposobnost inovacije
  • 8:36 - 8:40
    zato što gubite sposobnost da vidite
    kompletan spektar mogućnosti,
  • 8:40 - 8:43
    i način na koji su te različite stvari
    međusobno povezane.
  • 8:44 - 8:46
    Prema tome, za mene su
    pitanja privatnog života
  • 8:46 - 8:48
    u osnovi pitanja inovativnosti.
  • 8:48 - 8:50
    Veoma je važno
  • 8:50 - 8:53
    da uspemo da sačuvamo
    našu sposobnost inovacije.
  • 8:53 - 8:56
    Kako onda da osiguramo privatni život?
  • 8:57 - 8:59
    Ima dosta tehnologija koje postoje.
  • 8:59 - 9:02
    Najpre, treba razumeti
    koncept „privacy by design”.
  • 9:02 - 9:06
    To je zaista ta ideja
    da se osigura privatni život,
  • 9:06 - 9:09
    ali ne tražeći od drugih da nam veruju,
  • 9:09 - 9:14
    nego osiguravajući na tehnološkom,
    proizvodnom, poslovnom nivou,
  • 9:14 - 9:16
    tako da niko nikada ne može
    da zloupotrebi te podatke.
  • 9:17 - 9:21
    Znači, na primer, homomorfno šifrovanje,
    veoma je jednostavno.
  • 9:21 - 9:25
    Hoću da koristim neku uslugu
    a da ne otkrijem neki podatak.
  • 9:25 - 9:28
    Zamislimo da želite da vidite
    preporuke restorana,
  • 9:28 - 9:31
    ali ne želite da vas osoba
    sa druge strane lokalizuje.
  • 9:31 - 9:34
    E, pa, šifrovaćete lokaciju na telefonu.
  • 9:34 - 9:38
    Poslaćete je osobi
    koja će vam dati preporuke.
  • 9:38 - 9:41
    On ne zna gde ste vi,
    pošto nema ključ za šifrovane podatke.
  • 9:41 - 9:44
    On će da izvuče neki rezultat
    i poslaće ga šifrovanog,
  • 9:44 - 9:46
    dakle, ne znajući šta su vam preporučili.
  • 9:46 - 9:49
    I vi to dešifrujete na telefonu.
  • 9:49 - 9:51
    Dakle, tu ste u mogućnosti
    da dobijete uslugu
  • 9:51 - 9:53
    preporuke restorana
    koja je personalizovana,
  • 9:53 - 9:55
    a da pritom ne otkrijete gde ste.
  • 9:55 - 9:58
    Ova vrsta tehnologije
    donedavno nije dobro funkcionisala
  • 9:58 - 10:01
    ali sada je to to,
    treba nam samo par godina
  • 10:01 - 10:05
    da se pobrinemo da ona funkcioniše za sve,
    čak i za veštačku inteligenciju.
  • 10:05 - 10:08
    Zatim, imamo pitanje centralizacije.
  • 10:08 - 10:12
    Nikako ne želimo da samo jedna
    kompanija ima monopol nad našim podacima
  • 10:12 - 10:15
    jer bi to značilo da ta kompanija odlučuje
  • 10:15 - 10:18
    o načinu na koji,
    ljudi koji koriste usluge,
  • 10:18 - 10:20
    potencijalno treba da razmišljaju.
  • 10:20 - 10:23
    Sada, takođe, mnogi rade,
    naročito zahvaljujući blokchain-u,
  • 10:23 - 10:27
    na decentralizaciji moći
    nad ličnim podacima.
  • 10:28 - 10:33
    A tu je, najzad, i GDPR, to je 50-50.
    Ko ovde smatra da je GDPR dobar?
  • 10:34 - 10:36
    O, fino!
  • 10:36 - 10:39
    U Sjedinjenim Američkim Državama
    ljudi ga ne vole.
  • 10:39 - 10:41
    Dobar je zbog tri stvari.
  • 10:42 - 10:45
    Prvo, to nam omogućava da nas zaborave.
  • 10:45 - 10:48
    Ako nismo zadovoljni,
    možemo da odemo i bićemo zaboravljeni.
  • 10:48 - 10:51
    Drugo, to omogućava da se podaci skupe
    i pošalju na drugo mesto.
  • 10:51 - 10:54
    Ako smatrate da kompanija A
    ne deli vaše moralne vrednosti,
  • 10:54 - 10:57
    i da neka druga kompanija
    nudi istu uslugu,
  • 10:57 - 11:00
    možete da prosledite podatke
    a da se ne vratite na nulu.
  • 11:00 - 11:02
    U nekim slučajevima, postoji čak
    i pravo na neprofilisanje,
  • 11:02 - 11:06
    ako su, na primer,
    posledice ozbiljne po vaš život.
  • 11:06 - 11:09
    Odredbe koje danas stupaju na snagu
  • 11:09 - 11:13
    omogućavaju prekid tog začaranog kruga
    vezanog za lične podatke,
  • 11:13 - 11:16
    koji doprinosi jačanju našeg mehura,
  • 11:16 - 11:19
    bez ikakvih sredstava iza nas.
  • 11:19 - 11:21
    Prema tome, kriptografija, blockchain,
  • 11:21 - 11:23
    odredbe vezane za lične podatke,
  • 11:23 - 11:27
    sve su to sredstva koja nam trebaju
    da zaštitimo svoj privatni život.
  • 11:27 - 11:29
    Zašto vam pričam sve ovo?
  • 11:29 - 11:34
    Pričam vam ovo zato što, danas,
    imamo dva izbora za budućnost.
  • 11:34 - 11:35
    Imamo ovaj.
  • 11:37 - 11:41
    A to je da nastavimo kao što smo do sada.
  • 11:41 - 11:43
    Praktično idemo pravo u zid.
  • 11:44 - 11:47
    Ako nastavimo da se zatvaramo
    u svoj sopstveni mehur,
  • 11:47 - 11:50
    kako ćemo stvarno promeniti nešto?
  • 11:50 - 11:51
    Svi dobro vidimo, svi se slažemo,
  • 11:51 - 11:54
    stvari ne idu u dobrom smeru.
  • 11:54 - 11:58
    Treba u nekom trenutku da shvatimo,
    da ako izgubimo sposobnost inovacije,
  • 11:58 - 12:02
    nikada nećemo uspeti
    da sprečimo takvu katastrofu.
  • 12:02 - 12:06
    Želite li da živite na Marsu?
    Ima i onih koji predlažu to kao rešenje.
  • 12:06 - 12:08
    Ne! Niko ne želi da živi na Marsu.
  • 12:08 - 12:10
    Ja sam srećan što živim na Zemlji.
  • 12:10 - 12:13
    Lepa je to planeta, sa lepim plažama,
    a obožavam i Pariz.
  • 12:13 - 12:16
    Dakle, pokušavam da predložim nešto novo.
  • 12:16 - 12:22
    Ja predlažem da se potrudimo
    da stvorimo pozitivnu budućnost,
  • 12:22 - 12:25
    budućnost u kojoj bismo uspeli
    da rešimo sve probleme.
  • 12:25 - 12:29
    Ali, da bismo uspeli, moraćemo
    da umnožimo našu inovativnost,
  • 12:29 - 12:32
    zahvaljujući tehnologiji,
    umesto da se zatvorimo u mehur
  • 12:32 - 12:35
    koji će nas odvesti pravo u katastrofu.
  • 12:35 - 12:40
    I zbog toga bi svi trebalo
    da se bore da zaštite privatni život,
  • 12:41 - 12:44
    i da prekinu začarani krug
    u kome smo već 30 godina.
  • 12:44 - 12:46
    Hvala.
  • 12:46 - 12:49
    (Aplauz)
Title:
Podržati inovativnost i zaštiti privatni život, mit ili stvarnost? | Rand Hindi | TEDxSaclay
Description:

Kada mislimo na naše lične podatke, mislimo najpre na to ko može doći do njih. Bilo da se radi o društvenim mrežama ili povezanim predmetima, mnoštvo podataka koje ostavljamo za sobom, trenutno, nije uvek bezbedno. Ali prava opasnost je gubitak naše sposobnosti da inoviramo, jer što više toga kompanije znaju o nama, više nas zatvaraju u naš sopstveni mehur...

Rand Hindi je naučnik u oblasti podataka i preduzetnik. Izvršni je direktor Snips-a, jednog startapa koji je specijalizovan za veštačku inteligenciju. Počeo je da kodira sa deset godina, osnovao je jednu društvenu mrežu sa četrnaest godina, agenciju za veb razvoj sa petnaest godina, pre nego što se upustio u mašinsko učenje sa osamnaest, i konačno započeo doktorat u dvadeset prvoj. Završio je master iz oblasti informacijskih nauka i doktorat u bioinformatici na Londonskom univerzitetskom koledžu (UCL). Diplomirao je i na Singularity univerzitetu u Silikonskoj dolini i na THNK-u u Amsterdamu. Magazin MIT Technology Review proglasio ga je za inovatora godine do 35 godina, a Forbs ga je imenovao za jednog od trideset inovatora do 30 godina. Kao člana Nacionalnog digitalnog saveta, francuska vlada mu je dodelila da vodi deo „uticaj veštačke inteligencije na ekonomiju i zaposlenost” u globalnoj strategiji Francuske za veštačku inteligenciju. Drži predavanja u oblasti Veštačka inteligencija u trgovini na masteru političkih nauka u Parizu.

Ovaj govor je održan na TEDx događaju koji koristi format TED konferencije, ali ga nezavisno organizuje lokalna zajednica. Saznajte više na http://ted.com/tedx

more » « less
Video Language:
French
Team:
closed TED
Project:
TEDxTalks
Duration:
12:57

Serbian subtitles

Revisions