< Return to Video

Nova jednačina za inteligenciju

  • 0:01 - 0:05
    Inteligencija - šta je to?
  • 0:05 - 0:07
    Ako pogledamo unazad kroz istoriju
  • 0:07 - 0:09
    kako su videli inteligenciju,
  • 0:09 - 0:13
    jedan važan primer je bio
  • 0:13 - 0:17
    poznati citat Edsgara Dajkstre:
  • 0:17 - 0:20
    "Pitanje da li mašina može da misli
  • 0:20 - 0:21
    je isto tako zanimljivo
  • 0:21 - 0:24
    kao i pitanje da li podmornica
  • 0:24 - 0:26
    može da pliva."
  • 0:26 - 0:30
    Kad je Edsgar Dajkstra napisao ovo,
  • 0:30 - 0:32
    nameravao je da to bude kritika
  • 0:32 - 0:35
    pionira u kompjuterskoj nauci
  • 0:35 - 0:36
    kao što je Alan Tjuring.
  • 0:36 - 0:39
    Međutim, ako pogledate u prošlost
  • 0:39 - 0:41
    i razmislite koje su bile
  • 0:41 - 0:43
    najvažnije inovacije
  • 0:43 - 0:45
    koje su nam omogućile da pravimo
  • 0:45 - 0:47
    veštačke mašine koje plivaju
  • 0:47 - 0:50
    i veštačke mašine koje lete,
  • 0:50 - 0:53
    otkrićete da smo samo
    pomoću razumevanja
  • 0:53 - 0:56
    fizičkih mehanizama koji čine osnovu
  • 0:56 - 0:58
    plivanja i letenja
  • 0:58 - 1:02
    mogli da napravimo ove mašine.
  • 1:02 - 1:04
    I tako, pre nekoliko godina,
  • 1:04 - 1:07
    sproveo sam program
    da bih pokušao da razumem
  • 1:07 - 1:10
    fizičke mehanizme
  • 1:10 - 1:13
    koji čine osnovu inteligencije.
  • 1:13 - 1:14
    Hajde da se vratimo korak unazad.
  • 1:14 - 1:18
    Da počnemo prvo sa
    misaonim eksperimentom.
  • 1:18 - 1:20
    Zamislite da ste vanzemaljska rasa
  • 1:20 - 1:23
    koja ne zna ništa o biologiji Zemlje
  • 1:23 - 1:27
    ili o neuronauci Zemlje
    ili o Zemljinoj inteligenciji,
  • 1:27 - 1:29
    ali imate neverovatne teleskope
  • 1:29 - 1:31
    i možete da posmatrate Zemlju
  • 1:31 - 1:33
    i imate neverovatno duge živote,
  • 1:33 - 1:35
    tako da možete da posmatrate Zemlju
  • 1:35 - 1:38
    milonima ili čak milijardama godina.
  • 1:38 - 1:41
    I primećujete veoma čudan efekat.
  • 1:41 - 1:46
    Primećujete da je tokom milenijuma
  • 1:46 - 1:50
    Zemlja konstantno
    bombardovana asteroidima
  • 1:50 - 1:52
    sve do jednog momenta
  • 1:52 - 1:54
    i da u jednom momentu
  • 1:54 - 1:58
    koji odgovara, po gruboj proceni,
    našoj 2000. godini,
  • 1:58 - 2:00
    asteroidi koji su na putu
  • 2:00 - 2:01
    da se sudare sa Zemljom,
  • 2:01 - 2:03
    koji bi inače udarili,
  • 2:03 - 2:06
    misteriozno bivaju skrenuti
  • 2:06 - 2:09
    ili eksplodiraju pre
    nego što udare u Zemlju.
  • 2:09 - 2:11
    Naravno, kao Zemljani
  • 2:11 - 2:13
    znamo da je razlog to
  • 2:13 - 2:14
    što pokušavamo da se spasemo.
  • 2:14 - 2:17
    Pokušavamo da sprečimo udarac.
  • 2:17 - 2:19
    Ali ako ste vanzemaljska rasa
  • 2:19 - 2:20
    koja ne zna ništa od ovoga,
  • 2:20 - 2:23
    nema nikakvu ideju
    o inteligenciji na Zemlji,
  • 2:23 - 2:25
    bili biste prisiljeni da smislite
  • 2:25 - 2:27
    fizičku teoriju koja objašnjava kako
  • 2:27 - 2:30
    do određenog trenutka u vremenu
  • 2:30 - 2:34
    asteroidi koji bi
    uništili površinu planete
  • 2:34 - 2:38
    misteriozno ne učine to.
  • 2:38 - 2:42
    Tvrdim da je ovo isto pitanje
  • 2:42 - 2:46
    kao i razumevanje
    fizičke prirode inteligencije.
  • 2:46 - 2:50
    U ovom programu koji sam
    sproveo pre nekoliko godina
  • 2:50 - 2:52
    video sam raznovrsne tragove
  • 2:52 - 2:56
    u nauci, u raznovrsnim disciplinama
  • 2:56 - 2:58
    koji su ukazivali, ja mislim,
  • 2:58 - 3:00
    na jedan mehanizam
    koji je u osnovi
  • 3:00 - 3:02
    inteligencije.
  • 3:02 - 3:04
    U kosmologiji, na primer,
  • 3:04 - 3:07
    bilo je mnoštvo različitih
    tragova dokaza
  • 3:07 - 3:10
    da je naš svemir, izgleda,
    lepo naštimovan
  • 3:10 - 3:13
    za razvoj inteligencije
  • 3:13 - 3:15
    i posebno, za razvoj
  • 3:15 - 3:17
    univerzalnih stanja
  • 3:17 - 3:21
    koja maksimiziraju raznolikost
    mogućih budućnosti.
  • 3:21 - 3:23
    U igrama na primer, u igri Go -
  • 3:23 - 3:26
    svi se sećaju kada je 1997.
  • 3:26 - 3:30
    IBM-ov "Dip blu" pobedio
    Garija Kasparova u šahu -
  • 3:30 - 3:32
    manje ljudi je svesno činjenice
  • 3:32 - 3:34
    da je u poslednjih 10 godina,
  • 3:34 - 3:35
    igra Go,
  • 3:35 - 3:37
    možda mnogo izazovnija igra od šaha
  • 3:37 - 3:39
    jer ima mnogo veći faktor grananja,
  • 3:39 - 3:41
    takođe počela da se predaje
  • 3:41 - 3:43
    pred igračima kompjuterskih igara
  • 3:43 - 3:44
    iz istog razloga:
  • 3:44 - 3:47
    trenutno, najbolje tehnike
    za kompjutere koji igraju Go
  • 3:47 - 3:51
    su tehnike koje pokušavaju
    da maksimiziraju buduće opcije
  • 3:51 - 3:53
    tokom igre.
  • 3:53 - 3:57
    Na kraju, u planiranju
    robotskih pokreta
  • 3:57 - 3:59
    postoji mnoštvo novih tehnika
  • 3:59 - 4:01
    koje pokušavaju da iskoriste
  • 4:01 - 4:04
    mogućnosti robota da maksimiziraju
  • 4:04 - 4:05
    buduću slobodu delovanja
  • 4:05 - 4:08
    da bi obavili složene zadatke.
  • 4:08 - 4:11
    I tako, ako uzmemo sve
    ove različite tragove
  • 4:11 - 4:12
    i sastavimo ih,
  • 4:12 - 4:15
    počeo sam da pitam
    pre nekoliko godina,
  • 4:15 - 4:18
    da li postoji mehanizam
    u osnovi inteligencije
  • 4:18 - 4:20
    koji možemo da izdvojimo
  • 4:20 - 4:21
    od svih ovih različitih tragova?
  • 4:21 - 4:26
    Da li postoji jedna jednačina
    za inteligenciju?
  • 4:26 - 4:29
    I odgovor je, ja mislim, da.
    ["F = T ∇ Sτ"]
  • 4:29 - 4:31
    Ono što vidite je verovatno
  • 4:31 - 4:34
    najbliži ekvivalent E = mc²
  • 4:34 - 4:37
    za inteligenciju koji sam video.
  • 4:37 - 4:39
    Ono što vidite ovde
  • 4:39 - 4:42
    je iskaz odnosa
  • 4:42 - 4:46
    gde je inteligencija sila, F,
  • 4:46 - 4:51
    koja se ponaša tako da maksimizira
    buduću slobodu delovanja.
  • 4:51 - 4:53
    Ponaša se tako da maksimizira
    buduću slobodu delovanja
  • 4:53 - 4:55
    ili drži opcije otvorene,
  • 4:55 - 4:57
    sa nekom snagom T,
  • 4:57 - 5:02
    sa raznolikošću mogućih
    dostupnih budućnosti, S,
  • 5:02 - 5:04
    do nekog budućeg
    vremenskog horizonta, tau.
  • 5:04 - 5:08
    Ukratko, inteligencija ne voli
    da bude zarobljena.
  • 5:08 - 5:11
    Ona pokušava da maksimizira
    buduću slobodu delovanja
  • 5:11 - 5:13
    i da drži opcije otvorene.
  • 5:13 - 5:16
    I tako, kad imate ovu jednačinu,
  • 5:16 - 5:18
    prirodno je pitati
    šta možete da uradite s njom?
  • 5:18 - 5:20
    Kolika joj je mogućnost predviđanja?
  • 5:20 - 5:22
    Da li predviđa inteligenciju
    ljudskog nivoa?
  • 5:22 - 5:25
    Da li predviđa veštačku inteligenciju?
  • 5:25 - 5:27
    Sada ću vam pokazati video
  • 5:27 - 5:30
    koji će, ja mislim, demonstrirati
  • 5:30 - 5:32
    neke od neverovatnih primena
  • 5:32 - 5:35
    samo ove jedne jednačine.
  • 5:35 - 5:37
    (Video) Narator: Skorija
    istraživanja u kosmologiji
  • 5:37 - 5:39
    su ukazala da univerzumi
    koji proizvode
  • 5:39 - 5:42
    više nereda ili "entropije"
    tokom svog postojanja
  • 5:42 - 5:45
    bi trebalo da pokazuju tendenciju
    da imaju povoljnije uslove
  • 5:45 - 5:48
    za postojanje inteligentnih bića
    kao što smo mi.
  • 5:48 - 5:50
    Ali šta ako ta provizorna
    kosmološka povezanost
  • 5:50 - 5:52
    između entropije i inteligencije
  • 5:52 - 5:54
    nagoveštava dublji odnos?
  • 5:54 - 5:56
    Šta ako inteligentno ponašanje
    nije samo u uzajamnoj vezi
  • 5:56 - 5:58
    sa proizvodnjom dugoročne entropije,
  • 5:58 - 6:01
    već, u stvari, direktno nastaje od nje?
  • 6:01 - 6:03
    Da bismo to saznali,
    razvili smo softver
  • 6:03 - 6:05
    zvani Entropika,
    napravljen da maksimizira
  • 6:05 - 6:07
    proizvodnju dugoročne entropije
  • 6:07 - 6:10
    bilo kog sistema u kome se nađe.
  • 6:10 - 6:12
    Entropika je, neverovatno,
    uspela da prođe
  • 6:12 - 6:15
    višestruke testove životinjske
    inteligencije, da igra ljudske igre
  • 6:15 - 6:18
    i čak da zarađuje novac
    trgujući deonicama,
  • 6:18 - 6:20
    a da joj to nije bilo naloženo.
  • 6:20 - 6:22
    Evo nekih primera Entropike u akciji.
  • 6:22 - 6:25
    Baš kao što čovek stoji uspravno,
    a da ne padne,
  • 6:25 - 6:27
    ovde vidimo Entropiku
  • 6:27 - 6:29
    koja automatski balansira
    na gredi koristeći kolica.
  • 6:29 - 6:31
    Ovo ponašanje je vredno pažnje
  • 6:31 - 6:34
    delom zato što uopšte nismo
    zadali cilj Entropici.
  • 6:34 - 6:37
    Jednostavno je sama odlučila
    da balansira na gredi.
  • 6:37 - 6:39
    Ova sposobnost balansiranja
    će imati primenu
  • 6:39 - 6:41
    u humanoidnoj robotici
  • 6:41 - 6:43
    i u tehnologiji za pomoć ljudima.
  • 6:43 - 6:45
    Baš kao što neke životinje mogu
    da koriste predmete
  • 6:45 - 6:46
    u svojoj okolini kao alatke
  • 6:46 - 6:48
    da bi dohvatili nešto
    kroz uzak prostor,
  • 6:48 - 6:50
    ovde vidimo Entropiku koja,
  • 6:50 - 6:52
    ponovo na sopstvenu inicijativu,
  • 6:52 - 6:55
    uspeva da pomeri veliki disk
    koji predstavlja životinju
  • 6:55 - 6:57
    da bi mali disk
  • 6:57 - 7:00
    koji predstavlja alatku
    stigao u zatvoreni prostor
  • 7:00 - 7:02
    u kome je treći disk
  • 7:02 - 7:05
    i izbacuje treći disk
    sa njegove početne pozicije.
  • 7:05 - 7:07
    Ova upotreba sposobnosti alatke
    će imati primene
  • 7:07 - 7:09
    u "pametnoj" proizvodnji
    i poljoprivredi.
  • 7:09 - 7:11
    Osim toga, baš kao što su
    neke druge životinje
  • 7:11 - 7:14
    sposobne da sarađuju tako što
    vuku suprotne krajeve konopca
  • 7:14 - 7:16
    u isto vreme, da bi oslobodile hranu,
  • 7:16 - 7:18
    ovde vidimo da je Entropika
    sposobna da postigne
  • 7:18 - 7:20
    verziju tog zadatka pomoću modela.
  • 7:20 - 7:23
    Ova sposobnost kooperacije
    ima zanimljive implikacije
  • 7:23 - 7:26
    na ekonomsko planiranje
    i mnoštvo drugih oblasti.
  • 7:26 - 7:28
    Entropika ima široku primenu
  • 7:28 - 7:30
    na niz domena.
  • 7:30 - 7:33
    Na primer, ovde vidimo
    kako uspešno igra
  • 7:33 - 7:35
    igru pong, sama protiv sebe,
  • 7:35 - 7:38
    ilustrujući svoj potencijal za igre.
  • 7:38 - 7:39
    Ovde vidimo Entropiku kako pravi
  • 7:39 - 7:41
    nove veze na društvenoj mreži
  • 7:41 - 7:44
    gde prijatelji konstantno gube kontakt
  • 7:44 - 7:47
    i uspešno drži mrežu dobro povezanom.
  • 7:47 - 7:49
    Ova sposobnost organizovanja mreže
  • 7:49 - 7:52
    takođe ima primenu u zdravstvu,
  • 7:52 - 7:55
    energetici i inteligenciji.
  • 7:55 - 7:57
    Ovde vidimo Entropiku
    kako usmerava puteve
  • 7:57 - 7:58
    flote brodova,
  • 7:58 - 8:02
    tako što uspešno otkriva
    i koristi Panamski kanal
  • 8:02 - 8:04
    da bi ih sprovela od Atlantika
  • 8:04 - 8:06
    do Pacifika.
  • 8:06 - 8:07
    Pored toga, Entropika ima
  • 8:07 - 8:09
    široku primenu na probleme
  • 8:09 - 8:14
    autonomne odbrane, logistike i prevoza.
  • 8:14 - 8:16
    Na kraju, ovde vidimo Entropiku
  • 8:16 - 8:19
    kako spontano otkriva i izvršava
  • 8:19 - 8:21
    strategiju "kupi jeftino, prodaj skupo"
  • 8:21 - 8:23
    na simulaciji promena na berzi,
  • 8:23 - 8:26
    uspešno uvećavajući dobit
    pod svojim vođstvom
  • 8:26 - 8:27
    eksponencijalno.
  • 8:27 - 8:28
    Ova sposobnost
    menadžmenta sa rizikom
  • 8:28 - 8:31
    imaće široke primene u finansijama
  • 8:31 - 8:34
    i osiguranju.
  • 8:34 - 8:36
    Aleks Visner-Gros: Ono
    što ste upravo videli
  • 8:36 - 8:41
    je niz originalno ljudskih
    inteligentnih
  • 8:41 - 8:42
    kognitivnih ponašanja
  • 8:42 - 8:45
    kao što su korišćenje alata
    i uspravan hod
  • 8:45 - 8:47
    i društvena saradnja
  • 8:47 - 8:50
    koji proizilaze iz jedne jednačine
  • 8:50 - 8:52
    koja pokreće sistem
  • 8:52 - 8:56
    da bi maksimizirala
    buduću slobodu delovanja.
  • 8:56 - 8:59
    U ovome ima duboke ironije.
  • 8:59 - 9:01
    Ako se vratimo na početak
  • 9:01 - 9:04
    korišćenja izraza "robot",
  • 9:04 - 9:07
    dramski komad "R.U.R";
  • 9:07 - 9:09
    uvek je postojala ideja
  • 9:09 - 9:13
    da ako bismo stvorili
    mašinsku inteligenciju,
  • 9:13 - 9:16
    desila bi se kibernetska pobuna.
  • 9:16 - 9:19
    Mašine bi se pobunile protiv nas.
  • 9:19 - 9:22
    Jedna velika posledica
    ovog rada je ta
  • 9:22 - 9:24
    da smo možda svih ovih decenija
  • 9:24 - 9:27
    imali obrnut princip kibernetske
  • 9:27 - 9:29
    pobune.
  • 9:29 - 9:33
    Nije se desilo da su mašine
    prvo postale inteligentne
  • 9:33 - 9:35
    pa onda megalomanijačne
  • 9:35 - 9:37
    i pokušale da preuzmu svet.
  • 9:37 - 9:38
    Potpuno je suprotno.
  • 9:38 - 9:41
    Poriv da se preuzme kontrola
  • 9:41 - 9:43
    svih mogućih budućnosti
  • 9:43 - 9:46
    je osnovniji princip
  • 9:46 - 9:47
    od inteligencije.
  • 9:47 - 9:51
    Opšta inteligencija
    može, u stvari, da nastane
  • 9:51 - 9:54
    direktno od ovakvog
    grabljenja kontrole,
  • 9:54 - 9:58
    pre nego obrnuto.
  • 9:58 - 10:02
    Još jedna važna posledica je
    traženje cilja.
  • 10:02 - 10:06
    Često me pitaju kako
    sposobnost za traženje ciljeva
  • 10:06 - 10:08
    proizilazi iz ovakve strukture?
  • 10:08 - 10:11
    I odgovor je da će
    sposobnost za traženje ciljeva
  • 10:11 - 10:13
    proizaći direktno iz ovoga,
  • 10:13 - 10:15
    u sledećem smislu:
  • 10:15 - 10:18
    baš kao što biste putovali kroz tunel,
  • 10:18 - 10:20
    uskim prolazom u prostoru
    vašeg budućeg puta,
  • 10:20 - 10:22
    da biste postigli mnoge druge
  • 10:22 - 10:24
    različite ciljeve kasnije
  • 10:24 - 10:26
    ili kao kad biste uložili
  • 10:26 - 10:28
    u finansijsku sigurnost,
  • 10:28 - 10:30
    smanjujući svoju kratkoročnu
    platežnu moć
  • 10:30 - 10:33
    da biste uvećali svoje bogatstvo
    tokom dužeg perioda,
  • 10:33 - 10:35
    traženje ciljeva direktno nastaje
  • 10:35 - 10:37
    od dugoročnog poriva
  • 10:37 - 10:41
    da se uveća buduća
    sloboda delovanja.
  • 10:41 - 10:45
    Na kraju, Ričard Fajnmen,
    čuveni fizičar,
  • 10:45 - 10:48
    jednom je napisao da kad bi
    ljudska civilizacija bila uništena
  • 10:48 - 10:50
    i kad biste mogli da
    prenesete samo jednu ideju
  • 10:50 - 10:51
    našim potomcima
  • 10:51 - 10:54
    da im pomognete da ponovo
    izgrade civilizaciju,
  • 10:54 - 10:55
    ta ideja bi trebala da bude
  • 10:55 - 10:57
    da se sva materija oko nas
  • 10:57 - 11:00
    sastoji od sićušnih elemenata
  • 11:00 - 11:02
    koji se privlače međusobno
    kad su razdvojeni,
  • 11:02 - 11:05
    ali se međusobno odbijaju
    kad su blizu.
  • 11:05 - 11:07
    Moj ekvivalent ovoj izjavi
  • 11:07 - 11:09
    za prenošenje potomcima
  • 11:09 - 11:11
    da bismo im pomogli
    da prave veštačke inteligencije
  • 11:11 - 11:14
    ili da razumeju ljudsku inteligenciju,
  • 11:14 - 11:15
    je sledeći:
  • 11:15 - 11:17
    inteligenciju bi trebalo posmatrati
  • 11:17 - 11:19
    kao fizički proces
  • 11:19 - 11:22
    koji pokušava da maksimizira
    buduću slobodu delovanja
  • 11:22 - 11:25
    i izbegne ograničenja
    u svojoj budućnosti.
  • 11:25 - 11:27
    Hvala vam mnogo.
  • 11:27 - 11:31
    (Aplauz)
Title:
Nova jednačina za inteligenciju
Speaker:
Aleks Visner-Gros (Alex Wissner-Gross)
Description:

Da li postoji jednačina za inteligenciju? Da. To je F = T ∇ Sτ. U fascinantnom i informativnom govoru, fizičar i kompjuterski naučnik Aleks Visner-Gros objašnjava šta to, dođavola, znači. (Snimljeno na TEDxBeaconStreet.)

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:48

Serbian subtitles

Revisions