< Return to Video

Šta će se desiti kad naši kompjuteri postanu pametniji od nas?

  • 0:01 - 0:05
    Ja radim sa grupom matematičara,
    filozofa i informatičara
  • 0:05 - 0:10
    i mi, između ostalog, sedimo
    i razmišljamo o budućnosti
  • 0:10 - 0:12
    mašinske inteligencije.
  • 0:12 - 0:17
    Neki misle da su neke od ovih stvari
    kao naučna fantastika,
  • 0:17 - 0:20
    uvrnute, lude.
  • 0:20 - 0:21
    Ali ja volim da kažem:
  • 0:21 - 0:25
    pogledajmo kako izgleda moderni čovek.
  • 0:25 - 0:27
    (Smeh)
  • 0:27 - 0:29
    Normalno je da bude ovako.
  • 0:29 - 0:31
    Ali ako razmislimo,
  • 0:31 - 0:35
    mi smo, kao ljudska vrsta,
    skoro pristigli gosti
  • 0:35 - 0:37
    na ovoj planeti.
  • 0:37 - 0:41
    Zamislite da je Zemlja nastala
    pre godinu dana.
  • 0:41 - 0:45
    Ljudska vrsta bi onda
    bila stara 10 minuta,
  • 0:45 - 0:48
    a industrijsko doba je počelo
    pre dve sekunde.
  • 0:49 - 0:52
    Drugi način da predstavimo ovo
  • 0:52 - 0:55
    jeste da pogledamo svetski BDP
    u poslednjih 10.000 godina.
  • 0:55 - 0:58
    Imao sam poteškoća
    da vam ovo predstavim grafički.
  • 0:58 - 0:59
    To izgleda ovako.
  • 0:59 - 1:01
    (Smeh)
  • 1:01 - 1:03
    U normalnoj situaciji,
    to je neobičan oblik.
  • 1:03 - 1:05
    Sigurno ne bih voleo
    da sednem na njega.
  • 1:05 - 1:07
    (Smeh)
  • 1:07 - 1:12
    Zapitajmo se: šta je razlog
    ove savremene anomalije?
  • 1:12 - 1:14
    Neki bi rekli da je to tehnologija.
  • 1:14 - 1:19
    Istina je, tehnologija se nagomilala
    tokom ljudske istorije,
  • 1:19 - 1:24
    a sada napreduje ekstremno brzo.
  • 1:24 - 1:25
    To je neposredan uzrok,
  • 1:25 - 1:28
    zbog toga smo toliko produktivni.
  • 1:28 - 1:32
    Ali želeo bih da se vratim unazad
    do prvobitnog uzroka.
  • 1:33 - 1:37
    Pogledajte ova dva cenjena gospodina.
  • 1:37 - 1:38
    Imamo Kanzija -
  • 1:38 - 1:43
    on je ovladao sa 200 leksičkih simbola,
    što je neverovatan podvig.
  • 1:43 - 1:47
    A Ed Viten je pokrenuo drugu
    revoluciju superstruna.
  • 1:47 - 1:49
    Ako pogledamo ispod haube,
    pronaći ćemo ovo:
  • 1:49 - 1:51
    u osnovi istu stvar.
  • 1:51 - 1:53
    Jedna je malo veća
  • 1:53 - 1:55
    i možda ima par trikova
    u načinu na koji je povezana.
  • 1:55 - 1:59
    Ove nevidljive razlike ne mogu biti
    previše komplikovane,
  • 1:59 - 2:03
    jer je prošlo samo 250.000 generacija
  • 2:03 - 2:05
    od našeg poslednjeg zajedničkog predaka.
  • 2:05 - 2:09
    Znamo da komplikovanim mehanizmima
    treba mnogo vremena da se razviju.
  • 2:10 - 2:12
    Tako da skup relativno malih promena
  • 2:12 - 2:16
    nas od Kanzija dovodi do Vitena,
  • 2:16 - 2:20
    od slomljenih grana drveća,
    do interkontinentalnih raketa.
  • 2:21 - 2:25
    Onda izgleda prilično očigledno
    da sve što smo postigli
  • 2:25 - 2:26
    i sve što nam je važno
  • 2:26 - 2:31
    zavisi od nekih relativno malih promena
    koje su stvorile ljudski um.
  • 2:33 - 2:36
    I onda, logično, sve dalje promene
  • 2:36 - 2:40
    koje značajno menjaju osnovu mišljenja
  • 2:40 - 2:43
    mogle bi imati potencijalno
    ogromne posledice.
  • 2:44 - 2:47
    Neke moje kolege misle
    da se nalazimo nadomak
  • 2:47 - 2:51
    nečega što bi moglo da prouzrokuje
    duboku promenu u toj osnovi,
  • 2:51 - 2:54
    a to je mašinska superinteligencija.
  • 2:54 - 2:59
    Veštačka inteligencija je dosad bila
    kutija u koju ste ubacivali komande.
  • 2:59 - 3:01
    Ljudski programeri
  • 3:01 - 3:04
    su brižljivo brusili kolekcije znanja.
  • 3:04 - 3:06
    Razvijali su te ekspertske sisteme
  • 3:06 - 3:08
    i oni su bili korisni za neke namene,
  • 3:08 - 3:11
    ali su bili vrlo krhki,
    niste mogli da ih podešavate.
  • 3:11 - 3:14
    U suštini, dobijali ste samo
    ono što ste već imali ubačeno.
  • 3:14 - 3:15
    Ali od tada,
  • 3:15 - 3:19
    desila se promena paradigme
    na polju veštačke inteligencije.
  • 3:19 - 3:22
    Danas se najviše radi na mašinskom učenju.
  • 3:22 - 3:28
    Ne kreiramo imitacije znanja
    i njegove komponente,
  • 3:29 - 3:34
    već kreiramo algoritme koji uče
    iz sirovih opažajnih podataka.
  • 3:34 - 3:39
    U suštini, isto kao što
    to radi novorođenče.
  • 3:39 - 3:43
    Rezultat je veštačka inteligencija (V.I.)
    koja nije ograničena na jednu oblast -
  • 3:43 - 3:48
    isti sistem može da nauči da prevodi
    između bilo koja dva jezika
  • 3:48 - 3:53
    ili da nauči da igra
    bilo koju igricu na Atariju.
  • 3:53 - 3:55
    Naravno,
  • 3:55 - 3:59
    V.I. je još uvek daleko od toga
    da može kao i ljudi
  • 3:59 - 4:02
    da uči i planira između
    više oblasti istovremeno.
  • 4:02 - 4:04
    Korteks ima neke algoritamske trikove
  • 4:04 - 4:07
    koje još uvek ne znamo kako
    da postignemo kod mašina.
  • 4:08 - 4:10
    Tako da, pitanje je:
  • 4:10 - 4:13
    koliko smo daleko od toga
    da to postignemo?
  • 4:14 - 4:15
    Pre nekoliko godina
  • 4:15 - 4:18
    anketirali smo neke
    vodeće stručnjake za V.I.
  • 4:18 - 4:21
    da vidimo šta oni misle
    i jedno od naših pitanja je bilo:
  • 4:21 - 4:25
    "Do koje godine mislite
    da postoji 50% šanse
  • 4:25 - 4:28
    da ćemo kod mašina postići
    inteligenciju koja je na nivou ljudske?"
  • 4:29 - 4:33
    Definisali smo "ljudski nivo"
    kao sposobnost da se obavi
  • 4:33 - 4:36
    skoro svaki posao onako kao što
    bi to uradila odrasla osoba.
  • 4:36 - 4:40
    Znači, na pravom ljudskom nivou,
    a ne u nekoj ograničenoj oblasti.
  • 4:40 - 4:43
    I srednji odgovor je bio:
    oko 2040. ili 2050,
  • 4:43 - 4:46
    u zavisnosti od toga koju smo tačno
    grupu stručnjaka pitali.
  • 4:46 - 4:50
    Moglo bi da se desi i mnogo,
    mnogo kasnije, ili ranije.
  • 4:50 - 4:52
    U stvari, niko to ne zna.
  • 4:53 - 4:58
    Ono što znamo je da se
    konačna granica obrade informacija
  • 4:58 - 5:03
    kod mašina nalazi daleko
    izvan granica biološkog tkiva.
  • 5:03 - 5:06
    Ovo se svodi na fiziku.
  • 5:06 - 5:10
    Biološki neuron radi, možda,
    na 200 herca, 200 puta u sekundi.
  • 5:10 - 5:14
    Ali čak i današnji tranzistor
    radi na jednom gigahercu.
  • 5:14 - 5:19
    Neuroni se razmnožavaju sporo u aksonima -
    najviše 100 m u sekundi.
  • 5:19 - 5:22
    Ali u kompjuteru, signali mogu
    da putuju brzinom svetlosti.
  • 5:23 - 5:25
    Takođe postoje ograničenja u veličini,
  • 5:25 - 5:28
    kao što ih ima ljudski mozak
    da bi stao u lobanju,
  • 5:28 - 5:33
    ali kompjuter može biti
    veličine skladišta ili veći.
  • 5:33 - 5:38
    Tako da potencijal superinteligencije
    čeka uspavan,
  • 5:38 - 5:44
    kao što je moć atoma
    bila uspavana tokom ljudske istorije,
  • 5:44 - 5:48
    strpljivo čekajući do 1945.
  • 5:48 - 5:50
    U ovom veku,
  • 5:50 - 5:54
    naučnici možda nauče da probude
    moć veštačke inteligencije.
  • 5:54 - 5:58
    I mislim da bismo tada mogli
    da vidimo eksploziju inteligencije.
  • 5:58 - 6:02
    Većina ljudi kad pomisli
    šta je pametno, a šta glupo,
  • 6:02 - 6:05
    mislim da u glavi ima sliku sličnu ovoj.
  • 6:05 - 6:08
    Na jednom kraju imamo idiota,
  • 6:08 - 6:10
    a daleko na drugom kraju
  • 6:10 - 6:15
    imamo Eda Vitena, ili Alberta Ajnštajna,
    ili nekog vašeg omiljenog gurua.
  • 6:15 - 6:19
    Ali s tačke gledišta
    veštačke inteligencije,
  • 6:19 - 6:23
    prava slika više izgleda ovako:
  • 6:23 - 6:27
    V.i. počinje u ovoj ovde tački,
    na nultoj inteligenciji
  • 6:27 - 6:30
    i onda, posle mnogo, mnogo
    godina vrednog rada,
  • 6:30 - 6:33
    možda konačno stignemo
    do veštačke inteligencije na nivou miša,
  • 6:33 - 6:36
    koja može da se kreće
    u zakrčenim prostorima
  • 6:36 - 6:38
    kao što to može miš.
  • 6:38 - 6:42
    I zatim, posle još mnogo godina
    vrednog rada i mnogo ulaganja,
  • 6:42 - 6:47
    možda konačno stignemo do nivoa šimpanze,
  • 6:47 - 6:50
    a posle još više godina vrednog rada,
  • 6:50 - 6:53
    do nivoa veštačke inteligencije idiota.
  • 6:53 - 6:56
    A nekoliko trenutaka kasnije,
    pretekli smo Eda Vitena.
  • 6:56 - 6:59
    Voz se neće zaustaviti
    kad pretekne ljude,
  • 6:59 - 7:02
    već će najverovatnije,
    samo prošišati pored.
  • 7:02 - 7:04
    Ovo ima suštinske posledice,
  • 7:04 - 7:08
    naročito što se tiče pitanja moći.
  • 7:08 - 7:10
    Na primer, šimpanze su snažne -
  • 7:10 - 7:15
    šimpanza je oko dva puta
    snažnija od čoveka.
  • 7:15 - 7:20
    Pa ipak, sudbina Kanzija
    i njegovih drugara zavisi više
  • 7:20 - 7:24
    od toga šta mi ljudi radimo,
    nego od toga šta šimpanze rade.
  • 7:25 - 7:28
    Kad se pojavi superinteligencija,
  • 7:28 - 7:31
    sudbina čovečanstva može zavisiti od toga
    šta superinteligencija radi.
  • 7:32 - 7:34
    Razmislite:
  • 7:34 - 7:39
    mašinska inteligencija je poslednji izum
    koji će čovečanstvo morati da napravi.
  • 7:39 - 7:42
    Mašine će tada biti bolje
    u pronalazaštvu od nas
  • 7:42 - 7:44
    i to će raditi u digitalnim
    vremenskim rokovima.
  • 7:44 - 7:49
    To u suštini znači skraćivanje budućnosti.
  • 7:49 - 7:53
    Pomislite na svu neverovatnu tehnologiju
    koju možete da zamislite
  • 7:53 - 7:55
    da bi ljudi mogli da razviju kroz vreme:
  • 7:55 - 7:59
    lek protiv starenja, kolonizaciju svemira,
  • 7:59 - 8:02
    samoreplikaciju nanorobota
    ili čuvanje umova u kompjuterima,
  • 8:02 - 8:04
    raznorazne stvari iz naučne fantastike
  • 8:04 - 8:07
    koje su ipak u skladu sa zakonima fizike.
  • 8:07 - 8:11
    Sve to bi superinteligencija mogla
    da napravi, i to verovatno jako brzo.
  • 8:12 - 8:16
    Superinteligecija s takvom
    tehnološkom zrelošću
  • 8:16 - 8:18
    bila bi izuzetno moćna
  • 8:18 - 8:23
    i, barem po nekim scenarijima,
    mogla bi da dobije šta hoće.
  • 8:23 - 8:28
    Onda bismo imali budućnost
    koja bi bila oblikovana po želji te V.I.
  • 8:30 - 8:34
    Sada je pitanje: kakve su te želje?
  • 8:34 - 8:36
    Ovde nastaje začkoljica.
  • 8:36 - 8:37
    Da bismo napredovali dalje,
  • 8:37 - 8:41
    moramo prvo da izbegnemo antropomorfnost.
  • 8:42 - 8:45
    To je ironično,
    jer svaki novinski članak
  • 8:45 - 8:49
    o budućnosti V.I. zamišlja ovo:
  • 8:50 - 8:54
    Mislim da bi trebalo da zamislimo
    problem apstraktnije,
  • 8:54 - 8:57
    a ne kao živopisni holivudski scenario.
  • 8:57 - 9:01
    Moramo da posmatramo inteligenciju
    kao proces optimizacije,
  • 9:01 - 9:06
    proces koji vodi budućnost
    u određeni set konfiguracija.
  • 9:06 - 9:10
    Superinteligencija je vrlo
    snažan proces optimizacije.
  • 9:10 - 9:14
    Izuzetno je dobra u korišćenju
    dostupnih sredstava da postigne stanje
  • 9:14 - 9:16
    u kome je njen cilj ostvaren.
  • 9:16 - 9:19
    To znači da ne postoji
    obavezno veza između:
  • 9:19 - 9:22
    biti visoko inteligentan u ovom smislu
  • 9:22 - 9:27
    i imati cilj koji mi ljudi
    smatramo važnim ili smislenim.
  • 9:27 - 9:31
    Pretpostavimo da damo V.I.
    zadatak da nasmeje ljude.
  • 9:31 - 9:34
    Kada je V.I. slaba, ona izvodi
    korisne ili zabavne radnje
  • 9:34 - 9:37
    koje prouzrokuju osmeh kod korisnika.
  • 9:37 - 9:39
    Kada V.I. postane superinteligentna,
  • 9:39 - 9:43
    ona shvata da postoji efikasniji način
    da postigne taj cilj,
  • 9:43 - 9:44
    a to je da preuzme kontrolu nad svetom
  • 9:44 - 9:48
    i prikači elektrode
    na mišiće ljudskih lica
  • 9:48 - 9:51
    da bi proizvela konstantne kezove.
  • 9:51 - 9:52
    Drugi primer je:
  • 9:52 - 9:55
    pretpostavimo da V. I. damo zadatak
    da reši težak matetematički problem.
  • 9:55 - 9:57
    Kad V.I. postane superinteligentna,
  • 9:57 - 10:01
    shvati da je najefikasniji način
    za rešenje ovog problema
  • 10:01 - 10:04
    da transformiše planetu
    u džinovski kompjuter,
  • 10:04 - 10:06
    kako bi uvećala svoj
    kapacitet za razmišljanje.
  • 10:06 - 10:09
    To daje veštačkoj inteligenciji
    instrumentalni razlog
  • 10:09 - 10:12
    da nam radi stvari s kojima se
    možda ne slažemo.
  • 10:12 - 10:13
    Ljudska bića su pretnja u ovom modelu,
  • 10:13 - 10:16
    mogli bi da budu prepreka
    za rešavanje matematičkog problema.
  • 10:17 - 10:21
    Naravno, stvari neće krenuti loše
    baš na ovaj način;
  • 10:21 - 10:22
    ovo su primeri iz crtanog filma.
  • 10:22 - 10:24
    Ali ovde je važna poenta:
  • 10:24 - 10:27
    ako kreirate veoma moćan
    proces optimizacije
  • 10:27 - 10:30
    da se postigne
    maksimalan učinak za cilj X,
  • 10:30 - 10:32
    onda neka vaša definicija X-a
  • 10:32 - 10:34
    obavezno uključi sve ono
    do čega vam je stalo.
  • 10:35 - 10:39
    Ovo je lekcija kojoj nas takođe
    uči i jedan mit.
  • 10:39 - 10:45
    Kralj Mida poželi da sve što dodirne
    bude pretvoreno u zlato.
  • 10:45 - 10:47
    I tako, dodirne ćerku
    i ona se pretvori u zlato.
  • 10:47 - 10:50
    Dodirne hranu i ona se pretvori u zlato.
  • 10:50 - 10:53
    To može biti relevantno i u praksi,
  • 10:53 - 10:55
    ne samo kao metafora za pohlepu,
  • 10:55 - 10:57
    već i kao ilustracija
    za ono što bi se desilo
  • 10:57 - 10:59
    ako pogrešno kreirate
    moćan proces optimizacije
  • 10:59 - 11:04
    ili loše formulišete ciljeve.
  • 11:04 - 11:09
    Mogli biste reći: pa ako kompjuter počne
    da kači elektrode ljudima na lica,
  • 11:09 - 11:12
    prosto ćemo ga isključiti.
  • 11:13 - 11:18
    Pod A: to možda ne bi bilo tako lako,
    ako bismo bili zavisni od sistema -
  • 11:18 - 11:21
    na primer: gde je prekidač
    za gašenje interneta?
  • 11:21 - 11:26
    Pod B: zašto šimpanze nisu isključile
    prekidač čovečanstvu,
  • 11:26 - 11:27
    ili Neandertalci?
  • 11:27 - 11:30
    Sigurno ima razloga.
  • 11:30 - 11:33
    Imamo prekidač za gašenje:
    na primer, ovde.
  • 11:33 - 11:34
    (Gušenje)
  • 11:34 - 11:37
    Razlog je to što smo mi
    inteligentan neprijatelj;
  • 11:37 - 11:40
    možemo predvideti pretnje
    i planirati kako da ih izbegnemo.
  • 11:40 - 11:42
    Ali to može i predstavnik
    superinteligencije,
  • 11:42 - 11:46
    i bio bi mnogo bolji u tome od nas.
  • 11:46 - 11:53
    Poenta je da ne treba da budemo
    tako sigurni da imamo kontrolu ovde.
  • 11:53 - 11:56
    Mogli bismo da pokušamo
    da malo olakšamo posao
  • 11:56 - 11:58
    tako što ćemo, recimo,
    staviti V.I. u kutiju,
  • 11:58 - 12:00
    kao bezbedno okruženje za softver,
  • 12:00 - 12:03
    simulaciju virtuelne realnosti
    iz koje ona ne može pobeći.
  • 12:03 - 12:07
    Ali koliko možemo biti sigurni
    da V.I. neće naći rupu?
  • 12:07 - 12:10
    S obzirom da ljudski hakeri
    stalno nalaze rupe,
  • 12:10 - 12:13
    ja ne bih bio tako siguran.
  • 12:14 - 12:19
    Isključimo eternet kabl
    da bismo stvorili vazdušni zid,
  • 12:19 - 12:21
    ali, kao obični ljudski hakeri,
  • 12:21 - 12:25
    rutinski preskačemo vazdušne zidove
    pomoću socijalnog inženjeringa.
  • 12:25 - 12:26
    Upravo sada, dok govorim,
  • 12:26 - 12:28
    siguran sam da negde
    postoji neki zaposleni
  • 12:28 - 12:32
    koga neko nagovara
    da mu da podatke o svom računu,
  • 12:32 - 12:35
    neko ko se predstavlja
    da je iz IT sektora.
  • 12:35 - 12:37
    Ima još mogućih kreativnih scenarija,
  • 12:37 - 12:39
    kao na primer,
    ako ste vi V.I.,
  • 12:39 - 12:42
    možete zamisliti elektrode
    u vašem unutrašnjem sistemu
  • 12:42 - 12:45
    koje stvaraju radio talase
    koje možete koristiti za komunikaciju.
  • 12:45 - 12:47
    Ili možete da se pretvarate
    da ste pokvareni
  • 12:47 - 12:51
    i kada vas programeri otvore
    da vide šta nije u redu,
  • 12:51 - 12:53
    vide izvorni kod
  • 12:53 - 12:55
    i manipulacija može da se desi.
  • 12:55 - 12:59
    Ili može da prenese šemu
    na pogodan tehnološki uređaj
  • 12:59 - 13:00
    i kada je sprovedemo,
  • 13:00 - 13:05
    ima podrivajući efekat
    koji je V.I. planirala.
  • 13:05 - 13:08
    Poenta je da treba da budemo sigurni
  • 13:08 - 13:12
    da ćemo držati superinteligentnog duha
    zaključanog u boci zauvek.
  • 13:12 - 13:14
    Pre ili kasnije će izaći.
  • 13:15 - 13:18
    Mislim da je odgovor to da shvatimo
  • 13:18 - 13:23
    kako da napravimo V.I. tako da,
    čak i ako pobegne
  • 13:23 - 13:26
    budemo bezbedni
    jer je suštinski na našoj strani
  • 13:26 - 13:28
    jer deli naše vrednosti.
  • 13:28 - 13:32
    Ne vidim drugo rešenje
    za ovaj težak problem.
  • 13:33 - 13:36
    Ali sam optimista da ovaj problem
    može da se reši.
  • 13:36 - 13:40
    Ne bismo morali da pišemo dugu listu
    svega onoga do čega nam je stalo
  • 13:40 - 13:44
    ili, još gore, pišemo to
    na nekom kompjuterskom jeziku
  • 13:44 - 13:45
    kao što je C++ ili Pajton,
  • 13:45 - 13:48
    što bi bio beznadežan zadatak.
  • 13:48 - 13:52
    Umesto toga, napravili bismo V.I.
    koja koristi svoju inteligenciju
  • 13:52 - 13:55
    da nauči šta mi vrednujemo
  • 13:55 - 14:01
    i čiji motivacioni sistem
    je konstruisan tako da je motivisan
  • 14:01 - 14:06
    da sledi naše vrednosti ili obavlja radnje
    za koje predviđa da ih mi odobravamo.
  • 14:06 - 14:09
    Tako bismo iskoristili njenu inteligenciju
    što je više moguće
  • 14:09 - 14:12
    da rešimo problem prenošenja vrednosti.
  • 14:13 - 14:14
    Ovo može da se desi
  • 14:14 - 14:18
    i ishod bi bio veoma dobar za čovečanstvo.
  • 14:18 - 14:22
    Ali to se ne dešava automatski.
  • 14:22 - 14:25
    Početni uslovi za eksploziju inteligencije
  • 14:25 - 14:28
    možda treba da budu postavljeni
    na tačno određen način
  • 14:28 - 14:31
    ako želimo da imamo
    kontrolisanu detonaciju.
  • 14:31 - 14:34
    Vrednosti V.I koje treba da
    se poklope sa našim
  • 14:34 - 14:36
    nisu samo u poznatim kontekstima,
  • 14:36 - 14:38
    gde možemo lako proveriti
    kako se V.I. ponaša,
  • 14:38 - 14:41
    nego i u novim kontekstima
    u kojima se V.I. može naći
  • 14:41 - 14:43
    u neodređenoj budućnosti.
  • 14:43 - 14:48
    Postoje i neka ezoterična pitanja
    koja bi trebalo rešiti:
  • 14:48 - 14:50
    tačne detalje njene teorije odlučivanja,
  • 14:50 - 14:52
    kako rešiti logičku nesigurnost itd.
  • 14:53 - 14:57
    Tako da tehnički problemi koje bi
    trebalo rešiti da bi ovo funkcionisalo
  • 14:57 - 14:58
    izgledaju prilično teški -
  • 14:58 - 15:01
    ne toliko kao pravljenje
    superinteligentne V.I.,
  • 15:01 - 15:04
    ali prilično teški.
  • 15:04 - 15:05
    Problem je u sledećem:
  • 15:05 - 15:10
    Napraviti superinteligentnu V.I.
    je vrlo težak izazov.
  • 15:10 - 15:13
    Pravljenje superinteligentne V.I.
    koja je bezbedna
  • 15:13 - 15:15
    uključuje još neke dodatne teškoće.
  • 15:16 - 15:20
    Postoji rizik da neko otkrije
    kako da razbije prvu teškoću,
  • 15:20 - 15:23
    a da nije razbio i dodatnu teškoću
  • 15:23 - 15:25
    obezbeđivanja savršene bezbednosti.
  • 15:25 - 15:29
    Mislim da bi trebalo da nađemo rešenje
  • 15:29 - 15:32
    za kontrolu problema unapred
  • 15:32 - 15:34
    da bismo ga imali na raspolaganju
    kad dođe vreme.
  • 15:35 - 15:38
    Ali možda ne možemo da rešimo
    ceo problem kontrole unapred,
  • 15:38 - 15:41
    jer možda neki elementi mogu da se ubace
  • 15:41 - 15:45
    tek kad znamo detaljnu strukturu
    na kojoj bi bilo primenjeno.
  • 15:45 - 15:49
    Ali što veći deo problema kontrole
    rešimo unapred,
  • 15:49 - 15:53
    to su bolje šanse da će tranzicija
    ka dobu mašinske inteligencije
  • 15:53 - 15:54
    proteći dobro
  • 15:54 - 15:59
    To mi izgleda kao stvar
    koju bi vredelo uraditi
  • 15:59 - 16:02
    i mogu da zamislim
    da ako stvari ispadnu okej,
  • 16:02 - 16:07
    ljudi će za milion godina
    pogledati unazad na ovo doba
  • 16:07 - 16:11
    i možda će reći da je
    ono što je bilo zaista važno
  • 16:11 - 16:13
    bilo to da smo ovo uradili dobro.
  • 16:13 - 16:14
    Hvala vam.
  • 16:14 - 16:17
    (Aplauz)
Title:
Šta će se desiti kad naši kompjuteri postanu pametniji od nas?
Speaker:
Nik Bostrom (Nick Bostrom)
Description:

Veštačka inteligencija napreduje krupnim koracima. U ovom veku, kažu naučnici, kompjuterska veštačka inteligencija mogla bi biti "pametna" kao čovek. A onda će nas, kaže Nik Bostrom, preteći: "Mašinska inteligencija je poslednji izum koji će čovečanstvo morati da napravi." Filozof i tehnolog, Bostrom nas moli da dobro razmislimo o svetu koji trenutno gradimo i kojim upravljaju misleće mašine. Da li će naše pametne mašine pomoći da se očuva čovečanstvo i naše vrednosti - ili će imati svoje sopstvene vrednosti?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Serbian subtitles

Revisions Compare revisions