< Return to Video

Kakve bi moralne odluke automobili bez vozača trebali donositi?

  • 0:01 - 0:05
    Danas ću govoriti o tehnologiji i društvu.
  • 0:07 - 0:11
    Odjel za transport je procijenio
    da je prošle godine
  • 0:11 - 0:15
    35,000 ljudi umrlo
    u prometnim nesrećama samo u SAD-u.
  • 0:16 - 0:21
    Diljem svijeta, 1,2 milijuna ljudi umre
    svake godine u prometnim nesrećama.
  • 0:22 - 0:26
    Kad bi postojao način na koji bismo mogli
    eliminirati 90 posto tih nesreća,
  • 0:26 - 0:27
    biste li ga podržali?
  • 0:28 - 0:29
    Naravno da biste.
  • 0:29 - 0:33
    Upravo ovo obećava postići
    tehnologija automobila bez vozača
  • 0:33 - 0:36
    eliminirajući glavni uzrok nesreća --
  • 0:36 - 0:37
    ljudsku pogrešku.
  • 0:38 - 0:43
    Sada zamislite sebe u automobilu
    bez vozača u 2030. godini,
  • 0:43 - 0:47
    kako sjedite otraga i gledate ovaj
    zastarjeli TEDxCambridge video.
  • 0:47 - 0:49
    (Smijeh)
  • 0:50 - 0:51
    Odjednom,
  • 0:51 - 0:54
    automobilu se dogodio mehanički kvar
    i ne može se zaustaviti.
  • 0:55 - 0:57
    Ako automobil nastavi voziti,
  • 0:58 - 1:02
    sudarit će se s hrpom pješaka
    koji prelaze ulicu,
  • 1:03 - 1:05
    ali automobil može i skrenuti,
  • 1:05 - 1:07
    udarajući nekoga tko stoji sa strane,
  • 1:07 - 1:09
    usmrćujući ga kako bi spasio pješake.
  • 1:10 - 1:13
    Što automobil treba učiniti
    i tko o tome treba odlučiti?
  • 1:14 - 1:17
    Što ako bi, umjesto toga,
    automobil mogao skrenuti u zid,
  • 1:17 - 1:20
    sudarajući se i ubijajući tebe, putnika,
  • 1:20 - 1:23
    kako bi spasio te pješake?
  • 1:23 - 1:26
    Ovaj scenarij je inspiriran
    problemom trolejbusa,
  • 1:27 - 1:31
    kojeg su se dosjetili filozofi
    prije nekoliko desetljeća,
  • 1:31 - 1:32
    da bi promišljali o etici.
  • 1:34 - 1:37
    Zato je važan način
    na koji razmišljamo o ovom problemu.
  • 1:37 - 1:39
    Možemo, na primjer,
    uopće ne razmišljati o njemu.
  • 1:39 - 1:43
    Možemo reći kako je taj scenarij nerealan,
  • 1:43 - 1:45
    iznimno nevjerojatan
    ili jednostavno blesav.
  • 1:46 - 1:48
    Ali, ja smatram da takva osuda
    promašuje poantu
  • 1:49 - 1:51
    jer shvaća taj scenarij previše doslovno.
  • 1:52 - 1:55
    Naravno da nijedna nesreća
    neće izgledati ovako;
  • 1:55 - 1:58
    nijedna nesreća nema dvije ili tri opcije
  • 1:58 - 2:00
    u kojima svi nekako stradaju.
  • 2:01 - 2:04
    Umjesto toga, automobil
    će izračunati nešto
  • 2:04 - 2:09
    poput vjerojatnosti udaranja
    u određenu skupinu ljudi,
  • 2:09 - 2:12
    ako skrenete u jednom smjeru
    naspram drugog smjera,
  • 2:12 - 2:16
    mogli biste neznatno povećati rizik
    za putnike ili druge vozače
  • 2:16 - 2:17
    naspram pješaka.
  • 2:17 - 2:20
    To će biti složenija kalkulacija,
  • 2:20 - 2:23
    ali će i dalje uključivati kompromise,
  • 2:24 - 2:27
    a za kompromis je često potrebna
    moralna prosudba.
  • 2:28 - 2:31
    Možemo onda reći
    „Pa, nemojmo se brinuti oko toga.
  • 2:31 - 2:35
    Pričekajmo dok tehnologija ne bude
    potpuno spremna i 100 posto sigurna.“
  • 2:37 - 2:40
    Pretpostavimo da zaista možemo uspjeti
    eliminirati 90 posto tih nesreća,
  • 2:41 - 2:44
    ili čak 99 posto u idućih 10 godina.
  • 2:45 - 2:48
    Što ako uklanjanje tog zadnjeg
    postotka nesreća
  • 2:48 - 2:51
    zahtijeva još dodatnih
    50 godina istraživanja?
  • 2:52 - 2:54
    Zar ne trebamo usvojiti tehnologiju?
  • 2:55 - 2:59
    To je 60 milijuna ljudi poginulih
    u automobilskim nesrećama,
  • 3:00 - 3:01
    ako zadržimo trenutnu stopu.
  • 3:03 - 3:04
    Stoga poanta je da,
  • 3:04 - 3:08
    čekanje potpune sigurnosti
    je također izbor
  • 3:08 - 3:10
    i isto uključuje kompromise.
  • 3:12 - 3:16
    Ljudi prisutni na društvenim mrežama
    pronalaze svakakve načine
  • 3:16 - 3:18
    kako ne misliti o ovom problemu.
  • 3:18 - 3:21
    Jedna je osoba predložila da
    automobil samo skrene nekako
  • 3:21 - 3:23
    između putnika --
  • 3:23 - 3:24
    (Smijeh)
  • 3:24 - 3:26
    i promatrača.
  • 3:26 - 3:29
    Naravno, ako to automobil može učiniti,
    onda to i treba učiniti.
  • 3:30 - 3:33
    Nas zanimaju scenariji
    u kojima ovo nije moguće.
  • 3:33 - 3:39
    I moj osobni favorit bio je
    prijedlog blogera
  • 3:39 - 3:42
    da u automobilu imamo
    gumb za izbacivanje koji pritisnemo --
  • 3:42 - 3:43
    (Smijeh)
  • 3:43 - 3:45
    netom prije no što se
    automobil sam uništi.
  • 3:45 - 3:46
    (Smijeh)
  • 3:48 - 3:53
    Dakle, ako priznamo da će automobili
    morati raditi kompromise na cesti,
  • 3:54 - 3:56
    kako ćemo razmišljati o tim kompromisima
  • 3:57 - 3:59
    i kako ćemo donijeti odluku?
  • 3:59 - 4:02
    Pa, možda bismo trebali provesti anketu
    da saznamo što društvo želi,
  • 4:02 - 4:04
    jer naposljetku,
  • 4:04 - 4:08
    regulacije i zakon su odraz
    društvenih vrijednosti.
  • 4:08 - 4:09
    Stoga smo učinili ovo.
  • 4:10 - 4:11
    S mojim suradnicima,
  • 4:12 - 4:14
    Jean-Françoisem Bonnefonom i
    Azimom Shariffom,
  • 4:14 - 4:15
    proveli smo istraživanje
  • 4:16 - 4:18
    u kojem smo predstavili ljudima
    ove vrste scenarija.
  • 4:18 - 4:22
    Dali smo im dvije mogućnosti
    inspirirane dvama filozofima:
  • 4:22 - 4:25
    Jeremyem Benthamom i Immanuelom Kantom.
  • 4:26 - 4:29
    Bentham kaže da automobil
    treba pratiti utilitarnu etiku:
  • 4:29 - 4:32
    treba poduzeti akciju koja će
    minimalizirati totalnu štetu --
  • 4:32 - 4:35
    čak i ako će ta akcija ubiti promatrača
  • 4:35 - 4:37
    te čak i ako će ta akcija ubiti putnika.
  • 4:38 - 4:43
    Immanuel Kant kaže da automobil
    treba pratiti moralna načela,
  • 4:43 - 4:45
    poput „Ne ubij.“
  • 4:45 - 4:50
    Zato ne bismo trebali poduzeti akciju
    koja eksplicitno šteti ljudskom biću
  • 4:50 - 4:52
    i trebali bismo pustiti
    da automobil ide svojim putem,
  • 4:52 - 4:54
    čak i ako će to ozlijediti više ljudi.
  • 4:56 - 4:57
    Što vi mislite?
  • 4:57 - 4:59
    Bentham ili Kant?
  • 5:00 - 5:01
    Evo što smo mi pronašli.
  • 5:01 - 5:03
    Većina ljudi je stala na stranu Benthama.
  • 5:04 - 5:08
    Stoga se čini kako većina želi
    da automobili budu korisni,
  • 5:08 - 5:09
    da smanje totalnu štetu
  • 5:09 - 5:11
    i to bismo svi trebali činiti.
  • 5:11 - 5:12
    Riješen problem.
  • 5:13 - 5:15
    Ali, postoji mala kvaka.
  • 5:16 - 5:20
    Kad smo pitali ljude bi li kupili
    takve automobile,
  • 5:20 - 5:21
    odgovorili su: „ Apsolutno ne.“
  • 5:21 - 5:24
    (Smijeh)
  • 5:24 - 5:28
    Oni bi htjeli kupiti automobile
    koji njih štite pod svaku cijenu,
  • 5:28 - 5:31
    ali žele da svi ostali kupe automobile
    koji minimaliziraju štetu.
  • 5:31 - 5:34
    (Smijeh)
  • 5:35 - 5:37
    Već prije smo se sreli s ovim problemom.
  • 5:37 - 5:38
    Zove se društvena dilema.
  • 5:39 - 5:41
    I da bismo razumjeli društvena dilemu,
  • 5:41 - 5:43
    moramo se vratiti malo u prošlost.
  • 5:44 - 5:47
    U 1800-ima,
  • 5:47 - 5:50
    engleski ekonomist William Forster Lloyd
    objavio je pamflet
  • 5:50 - 5:53
    koji opisuje idući scenarij.
  • 5:53 - 5:54
    Imate grupu farmera,
  • 5:54 - 5:56
    engleskih farmera,
  • 5:56 - 5:58
    koji dijele zajedničko zemljište
    za ispašu njihovih ovaca.
  • 6:00 - 6:02
    Sada, ako svaki farmer dovodi
    određeni broj ovaca --
  • 6:02 - 6:04
    recimo tri ovce --
  • 6:04 - 6:06
    zemljište će biti pomlađeno,
  • 6:06 - 6:07
    farmeri sretni,
  • 6:07 - 6:09
    ovce sretne,
  • 6:09 - 6:10
    sve je dobro.
  • 6:10 - 6:13
    Sada, ako jedan farmer dovede
    jednu ovcu više,
  • 6:14 - 6:19
    tom će farmeru ići malo bolje
    i nitko drugi neće biti oštećen.
  • 6:19 - 6:23
    Međutim, ako svaki farmer donese
    tu individualno racionalnu odluku,
  • 6:24 - 6:27
    zemljište će postati pretrpano
    i bit će istrošeno
  • 6:27 - 6:30
    na štetu svih farmera
  • 6:30 - 6:32
    i naravno, na štetu ovaca.
  • 6:33 - 6:36
    Možemo vidjeti ovaj problem
    u raznim područjima:
  • 6:37 - 6:40
    u poteškoćama u vođenju
    pretjeranog ribolova
  • 6:40 - 6:45
    ili u smanjenju emisija ugljika
    za ublažavanje klimatskih promjena.
  • 6:47 - 6:50
    Kada je u pitanju regulacija
    automobila bez vozača,
  • 6:51 - 6:55
    zajedničko je, zapravo, javna sigurnost --
  • 6:55 - 6:57
    to je opće dobro --
  • 6:57 - 6:59
    a farmeri su putnici
  • 6:59 - 7:03
    ili vlasnici automobila koji odabiru
    voziti se u tim automobilima.
  • 7:05 - 7:08
    I odabirući individualno racionalni odabir
  • 7:08 - 7:10
    davanja prioriteta vlastitoj sigurnosti,
  • 7:10 - 7:14
    oni bi kolektivno mogli
    umanjiti opće dobro,
  • 7:14 - 7:16
    koje je smanjene totalne štete.
  • 7:18 - 7:20
    To se naziva tragedija zajedništva,
  • 7:20 - 7:22
    tradicionalno,
  • 7:22 - 7:25
    ali ja mislim da u slučaju
    automobila bez vozača,
  • 7:25 - 7:28
    problem je možda malo više podmukao
  • 7:28 - 7:31
    jer ne postoji nužno
    individualno ljudsko biće
  • 7:31 - 7:33
    koje donosi te odluke.
  • 7:33 - 7:36
    Proizvođači automobila mogu jednostavno
    programirati automobile
  • 7:36 - 7:39
    tako da maksimalno povećaju
    sigurnost svojih klijenata
  • 7:40 - 7:43
    te bi takvi automobili mogli
    automatski samostalno naučiti
  • 7:43 - 7:47
    da to zahtijeva povećanje
    rizika za pješake.
  • 7:47 - 7:49
    Da upotrijebim metaforu s ovcom,
  • 7:49 - 7:53
    to je kao da sada imamo
    električnu ovcu s vlastitim umom.
  • 7:53 - 7:54
    (Smijeh)
  • 7:54 - 7:57
    I one mogu otići i jesti bez da uopće
    njihov farmer to zna.
  • 7:59 - 8:03
    Dakle, ovo bismo mogli nazvati
    tragedijom zajedničkog algoritma
  • 8:03 - 8:05
    te nam ona nudi nove vrste izazova.
  • 8:11 - 8:12
    Obično, tradicionalno,
  • 8:12 - 8:16
    ove vrste društvenih dilema
    rješavamo koristeći propise,
  • 8:16 - 8:19
    stoga se sastanu ili vlade ili zajednice
  • 8:19 - 8:22
    i kolektivno odluče kakav ishod žele
  • 8:22 - 8:25
    i kakva ograničenja
    individualnog ponašanja
  • 8:25 - 8:26
    trebaju provoditi.
  • 8:28 - 8:30
    Te tada, koristeći praćenje i provedbu,
  • 8:30 - 8:33
    mogu osigurati očuvanje javne sigurnosti.
  • 8:33 - 8:35
    Stoga, zašto mi ne bismo samo,
  • 8:35 - 8:37
    kao regulatori,
  • 8:37 - 8:39
    zahtijevali da svi automobili
    potpuno smanje štetu?
  • 8:39 - 8:42
    Uostalom, to je ono
    što ljudi kažu da žele.
  • 8:43 - 8:45
    I još važnije,
  • 8:45 - 8:48
    mogu biti siguran da kao pojedinac,
  • 8:48 - 8:52
    ukoliko kupim automobil koji bi me mogao
    žrtvovati u vrlo rijetkom slučaju,
  • 8:52 - 8:53
    nisam jedina naivčina čineći to
  • 8:53 - 8:56
    dok svi ostali uživaju bezuvjetnu zaštitu.
  • 8:57 - 9:00
    U našoj anketi, pitali smo ljude
    bi li podržali propise
  • 9:00 - 9:02
    i evo što smo saznali.
  • 9:02 - 9:06
    Prvo, ljudi su rekli ne propisima;
  • 9:07 - 9:09
    i drugo, rekli su:
  • 9:09 - 9:12
    „Pa, ako regulirate automobile da to čine
    i da potpuno smanje štetu,
  • 9:13 - 9:14
    ja neću kupiti te automobile.“
  • 9:15 - 9:17
    Dakle, ironično,
  • 9:17 - 9:20
    regulirajući automobile u svrhu
    potpunog smanjenja štete,
  • 9:20 - 9:22
    možemo zapravo završiti s više štete
  • 9:23 - 9:27
    jer se možda ljudi neće odlučiti
    za sigurniju tehnologiju,
  • 9:27 - 9:29
    čak i ako je puno sigurnija
    od ljudskih vozača.
  • 9:30 - 9:34
    Nemam konačan odgovor na ovu zagonetku,
  • 9:34 - 9:35
    ali mislim da, za početak,
  • 9:35 - 9:39
    trebamo društvo da se zajedno okupi
  • 9:39 - 9:41
    kako bismo odlučili
    s kojim kompromisima se slažemo
  • 9:42 - 9:46
    i kako bismo osmislili
    načine donošenja tih kompromisa.
  • 9:47 - 9:49
    Za početak, moji sjajni studenti,
  • 9:49 - 9:52
    Edmond Awad i Sohan Dsouza,
  • 9:52 - 9:54
    napravili su internetsku stranicu
    Moral Machine,
  • 9:54 - 9:57
    koja vam postavlja nasumične događaje --
  • 9:58 - 10:01
    obično gomilu nasumičnih dilema u nizu,
  • 10:01 - 10:04
    gdje vi trebate odlučiti što bi automobil
    trebao napraviti u određenoj situaciji.
  • 10:05 - 10:10
    U ponudi imamo žrtve raznih dobi i vrsta.
  • 10:11 - 10:15
    Dosad smo prikupili
    više od pet milijuna odluka
  • 10:15 - 10:17
    od preko milijun ljudi diljem svijeta
  • 10:18 - 10:20
    putem te internetske stranice.
  • 10:20 - 10:23
    Ovo nam od početka pomaže u razumijevanju
  • 10:23 - 10:25
    s kakvim kompromisima se ljudi slažu
  • 10:25 - 10:27
    te što je njima važno --
  • 10:27 - 10:29
    čak i u različitim kulturama.
  • 10:30 - 10:32
    No, važnije od toga,
  • 10:32 - 10:35
    ljudima se time pomaže u shvaćanju
  • 10:35 - 10:38
    težine donošenja tih odluka
  • 10:38 - 10:42
    te da su oni koji donose odluke
    zaduženi za nemoguće izbore.
  • 10:43 - 10:47
    I možda će upravo ovo pomoći nama
    kao društvu u razumijevanju kompromisa
  • 10:47 - 10:50
    koji će biti ostvareni u konačnici
    pri donošenju propisa.
  • 10:50 - 10:52
    I zaista, bio sam sretan saznajući
  • 10:52 - 10:54
    da je prvi skup propisa
  • 10:54 - 10:56
    iz Odjela za transport --
  • 10:56 - 10:57
    objavljen prošli tjedan --
  • 10:57 - 11:04
    obuhvaćao kontrolni popis of 15 točaka
    za sve proizvođače automobila
  • 11:04 - 11:07
    te da je broj 14 uzimao u obzir etiku --
  • 11:07 - 11:09
    kako ćete se vi nositi s tim.
  • 11:12 - 11:15
    Također, potičemo ljude da promišljaju
    o vlastitim odlukama
  • 11:15 - 11:17
    tako što im dajemo sažetak
    njihovih odabira.
  • 11:18 - 11:20
    Dat ću vam jedan primjer --
  • 11:20 - 11:24
    samo ću vas upozoriti
    da ovo nije tipičan primjer,
  • 11:24 - 11:25
    tipičan korisnik.
  • 11:25 - 11:29
    Ovo je najviše žrtvovan
    i najviše spašen lik za ovu osobu.
  • 11:29 - 11:34
    (Smijeh)
  • 11:35 - 11:37
    Neki od vas bi se mogli složiti s njim,
  • 11:37 - 11:38
    ili s njom, ne znamo.
  • 11:40 - 11:47
    No također, čini se da ova osoba ipak malo
    više preferira putnike nego pješake
  • 11:47 - 11:49
    u svojim odlukama
  • 11:49 - 11:52
    te da vrlo rado kažnjava neoprezno
    prelaženje ulice.
  • 11:52 - 11:55
    (Smijeh)
  • 11:57 - 11:58
    Dakle, zaključimo.
  • 11:58 - 12:02
    Započeli smo pitanjem --
    nazovimo to moralnom dilemom --
  • 12:02 - 12:05
    kako bi automobil trebao postupiti
    u određenoj situaciji:
  • 12:05 - 12:06
    skrenuti ili ostati?
  • 12:07 - 12:10
    Ali onda smo shvatili da je problem
    bio u nečem drugom.
  • 12:10 - 12:15
    U tome kako pridobiti društvo da donese
    zajedničku odluku i provede
  • 12:15 - 12:16
    kompromise s kojim se slaže.
  • 12:17 - 12:18
    To je društvena dilema.
  • 12:18 - 12:23
    1940., Isaac Asimov je napisao svoje
    slavne zakone robotike --
  • 12:23 - 12:24
    tri zakona robotike.
  • 12:25 - 12:28
    Robot nikada ne smije
    naškoditi ljudskom biću,
  • 12:28 - 12:30
    robot nikada ne smije
    ne poslušati ljudsko biće
  • 12:30 - 12:34
    i robot nikada ne smije
    dopustiti sebi štetu --
  • 12:34 - 12:36
    tim redoslijedom važnosti.
  • 12:36 - 12:38
    No, nakon otprilike 40 godina
  • 12:39 - 12:42
    i nakon toliko slučajeva koji guraju
    ove zakone do krajnjih granica,
  • 12:42 - 12:46
    Asimov je predstavio nulti zakon,
  • 12:46 - 12:48
    koji ima prednost
    spram svih ostalih zakona
  • 12:48 - 12:52
    i glasi da robot nikada ne smije
    naškoditi čovječnosti u cijelosti.
  • 12:52 - 12:57
    Ne znam što ovo znači u kontekstu
    automobila bez vozača
  • 12:57 - 13:00
    ili u bilo kojoj specifičnoj situaciji,
  • 13:00 - 13:02
    i ne znam kako bismo to mogli primijeniti,
  • 13:02 - 13:03
    ali smatram da prepoznavanjem
  • 13:03 - 13:10
    kako regulacija automobila bez vozača
    nije samo problem tehnologije
  • 13:10 - 13:13
    već i čitavog društva i njegove suradnje,
  • 13:14 - 13:17
    nadam se, možemo barem početi
    postavljati prava pitanja.
  • 13:17 - 13:18
    Hvala vam.
  • 13:18 - 13:21
    (Pljesak)
Title:
Kakve bi moralne odluke automobili bez vozača trebali donositi?
Speaker:
Iyad Rahwan
Description:

Treba li vaš automobil bez vozača usmrtiti vas, ako će tako spasiti pet pješaka? U ovim počecima socijalnih dilema automobila bez vozača, Iyad Rahwan istražuje kako će tehnologija propitivati našu moralnost i objašnjava svoj rad u prikupljanju podataka od pravih ljudi na temu etičkih kompromisa koje smo spremni (ili nismo spremni) napraviti.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:35

Croatian subtitles

Revisions