Kakve bi moralne odluke automobili bez vozača trebali donositi?
-
0:01 - 0:05Danas ću govoriti o tehnologiji i društvu.
-
0:07 - 0:11Odjel za transport je procijenio
da je prošle godine -
0:11 - 0:1535,000 ljudi umrlo
u prometnim nesrećama samo u SAD-u. -
0:16 - 0:21Diljem svijeta, 1,2 milijuna ljudi umre
svake godine u prometnim nesrećama. -
0:22 - 0:26Kad bi postojao način na koji bismo mogli
eliminirati 90 posto tih nesreća, -
0:26 - 0:27biste li ga podržali?
-
0:28 - 0:29Naravno da biste.
-
0:29 - 0:33Upravo ovo obećava postići
tehnologija automobila bez vozača -
0:33 - 0:36eliminirajući glavni uzrok nesreća --
-
0:36 - 0:37ljudsku pogrešku.
-
0:38 - 0:43Sada zamislite sebe u automobilu
bez vozača u 2030. godini, -
0:43 - 0:47kako sjedite otraga i gledate ovaj
zastarjeli TEDxCambridge video. -
0:47 - 0:49(Smijeh)
-
0:50 - 0:51Odjednom,
-
0:51 - 0:54automobilu se dogodio mehanički kvar
i ne može se zaustaviti. -
0:55 - 0:57Ako automobil nastavi voziti,
-
0:58 - 1:02sudarit će se s hrpom pješaka
koji prelaze ulicu, -
1:03 - 1:05ali automobil može i skrenuti,
-
1:05 - 1:07udarajući nekoga tko stoji sa strane,
-
1:07 - 1:09usmrćujući ga kako bi spasio pješake.
-
1:10 - 1:13Što automobil treba učiniti
i tko o tome treba odlučiti? -
1:14 - 1:17Što ako bi, umjesto toga,
automobil mogao skrenuti u zid, -
1:17 - 1:20sudarajući se i ubijajući tebe, putnika,
-
1:20 - 1:23kako bi spasio te pješake?
-
1:23 - 1:26Ovaj scenarij je inspiriran
problemom trolejbusa, -
1:27 - 1:31kojeg su se dosjetili filozofi
prije nekoliko desetljeća, -
1:31 - 1:32da bi promišljali o etici.
-
1:34 - 1:37Zato je važan način
na koji razmišljamo o ovom problemu. -
1:37 - 1:39Možemo, na primjer,
uopće ne razmišljati o njemu. -
1:39 - 1:43Možemo reći kako je taj scenarij nerealan,
-
1:43 - 1:45iznimno nevjerojatan
ili jednostavno blesav. -
1:46 - 1:48Ali, ja smatram da takva osuda
promašuje poantu -
1:49 - 1:51jer shvaća taj scenarij previše doslovno.
-
1:52 - 1:55Naravno da nijedna nesreća
neće izgledati ovako; -
1:55 - 1:58nijedna nesreća nema dvije ili tri opcije
-
1:58 - 2:00u kojima svi nekako stradaju.
-
2:01 - 2:04Umjesto toga, automobil
će izračunati nešto -
2:04 - 2:09poput vjerojatnosti udaranja
u određenu skupinu ljudi, -
2:09 - 2:12ako skrenete u jednom smjeru
naspram drugog smjera, -
2:12 - 2:16mogli biste neznatno povećati rizik
za putnike ili druge vozače -
2:16 - 2:17naspram pješaka.
-
2:17 - 2:20To će biti složenija kalkulacija,
-
2:20 - 2:23ali će i dalje uključivati kompromise,
-
2:24 - 2:27a za kompromis je često potrebna
moralna prosudba. -
2:28 - 2:31Možemo onda reći
„Pa, nemojmo se brinuti oko toga. -
2:31 - 2:35Pričekajmo dok tehnologija ne bude
potpuno spremna i 100 posto sigurna.“ -
2:37 - 2:40Pretpostavimo da zaista možemo uspjeti
eliminirati 90 posto tih nesreća, -
2:41 - 2:44ili čak 99 posto u idućih 10 godina.
-
2:45 - 2:48Što ako uklanjanje tog zadnjeg
postotka nesreća -
2:48 - 2:51zahtijeva još dodatnih
50 godina istraživanja? -
2:52 - 2:54Zar ne trebamo usvojiti tehnologiju?
-
2:55 - 2:59To je 60 milijuna ljudi poginulih
u automobilskim nesrećama, -
3:00 - 3:01ako zadržimo trenutnu stopu.
-
3:03 - 3:04Stoga poanta je da,
-
3:04 - 3:08čekanje potpune sigurnosti
je također izbor -
3:08 - 3:10i isto uključuje kompromise.
-
3:12 - 3:16Ljudi prisutni na društvenim mrežama
pronalaze svakakve načine -
3:16 - 3:18kako ne misliti o ovom problemu.
-
3:18 - 3:21Jedna je osoba predložila da
automobil samo skrene nekako -
3:21 - 3:23između putnika --
-
3:23 - 3:24(Smijeh)
-
3:24 - 3:26i promatrača.
-
3:26 - 3:29Naravno, ako to automobil može učiniti,
onda to i treba učiniti. -
3:30 - 3:33Nas zanimaju scenariji
u kojima ovo nije moguće. -
3:33 - 3:39I moj osobni favorit bio je
prijedlog blogera -
3:39 - 3:42da u automobilu imamo
gumb za izbacivanje koji pritisnemo -- -
3:42 - 3:43(Smijeh)
-
3:43 - 3:45netom prije no što se
automobil sam uništi. -
3:45 - 3:46(Smijeh)
-
3:48 - 3:53Dakle, ako priznamo da će automobili
morati raditi kompromise na cesti, -
3:54 - 3:56kako ćemo razmišljati o tim kompromisima
-
3:57 - 3:59i kako ćemo donijeti odluku?
-
3:59 - 4:02Pa, možda bismo trebali provesti anketu
da saznamo što društvo želi, -
4:02 - 4:04jer naposljetku,
-
4:04 - 4:08regulacije i zakon su odraz
društvenih vrijednosti. -
4:08 - 4:09Stoga smo učinili ovo.
-
4:10 - 4:11S mojim suradnicima,
-
4:12 - 4:14Jean-Françoisem Bonnefonom i
Azimom Shariffom, -
4:14 - 4:15proveli smo istraživanje
-
4:16 - 4:18u kojem smo predstavili ljudima
ove vrste scenarija. -
4:18 - 4:22Dali smo im dvije mogućnosti
inspirirane dvama filozofima: -
4:22 - 4:25Jeremyem Benthamom i Immanuelom Kantom.
-
4:26 - 4:29Bentham kaže da automobil
treba pratiti utilitarnu etiku: -
4:29 - 4:32treba poduzeti akciju koja će
minimalizirati totalnu štetu -- -
4:32 - 4:35čak i ako će ta akcija ubiti promatrača
-
4:35 - 4:37te čak i ako će ta akcija ubiti putnika.
-
4:38 - 4:43Immanuel Kant kaže da automobil
treba pratiti moralna načela, -
4:43 - 4:45poput „Ne ubij.“
-
4:45 - 4:50Zato ne bismo trebali poduzeti akciju
koja eksplicitno šteti ljudskom biću -
4:50 - 4:52i trebali bismo pustiti
da automobil ide svojim putem, -
4:52 - 4:54čak i ako će to ozlijediti više ljudi.
-
4:56 - 4:57Što vi mislite?
-
4:57 - 4:59Bentham ili Kant?
-
5:00 - 5:01Evo što smo mi pronašli.
-
5:01 - 5:03Većina ljudi je stala na stranu Benthama.
-
5:04 - 5:08Stoga se čini kako većina želi
da automobili budu korisni, -
5:08 - 5:09da smanje totalnu štetu
-
5:09 - 5:11i to bismo svi trebali činiti.
-
5:11 - 5:12Riješen problem.
-
5:13 - 5:15Ali, postoji mala kvaka.
-
5:16 - 5:20Kad smo pitali ljude bi li kupili
takve automobile, -
5:20 - 5:21odgovorili su: „ Apsolutno ne.“
-
5:21 - 5:24(Smijeh)
-
5:24 - 5:28Oni bi htjeli kupiti automobile
koji njih štite pod svaku cijenu, -
5:28 - 5:31ali žele da svi ostali kupe automobile
koji minimaliziraju štetu. -
5:31 - 5:34(Smijeh)
-
5:35 - 5:37Već prije smo se sreli s ovim problemom.
-
5:37 - 5:38Zove se društvena dilema.
-
5:39 - 5:41I da bismo razumjeli društvena dilemu,
-
5:41 - 5:43moramo se vratiti malo u prošlost.
-
5:44 - 5:47U 1800-ima,
-
5:47 - 5:50engleski ekonomist William Forster Lloyd
objavio je pamflet -
5:50 - 5:53koji opisuje idući scenarij.
-
5:53 - 5:54Imate grupu farmera,
-
5:54 - 5:56engleskih farmera,
-
5:56 - 5:58koji dijele zajedničko zemljište
za ispašu njihovih ovaca. -
6:00 - 6:02Sada, ako svaki farmer dovodi
određeni broj ovaca -- -
6:02 - 6:04recimo tri ovce --
-
6:04 - 6:06zemljište će biti pomlađeno,
-
6:06 - 6:07farmeri sretni,
-
6:07 - 6:09ovce sretne,
-
6:09 - 6:10sve je dobro.
-
6:10 - 6:13Sada, ako jedan farmer dovede
jednu ovcu više, -
6:14 - 6:19tom će farmeru ići malo bolje
i nitko drugi neće biti oštećen. -
6:19 - 6:23Međutim, ako svaki farmer donese
tu individualno racionalnu odluku, -
6:24 - 6:27zemljište će postati pretrpano
i bit će istrošeno -
6:27 - 6:30na štetu svih farmera
-
6:30 - 6:32i naravno, na štetu ovaca.
-
6:33 - 6:36Možemo vidjeti ovaj problem
u raznim područjima: -
6:37 - 6:40u poteškoćama u vođenju
pretjeranog ribolova -
6:40 - 6:45ili u smanjenju emisija ugljika
za ublažavanje klimatskih promjena. -
6:47 - 6:50Kada je u pitanju regulacija
automobila bez vozača, -
6:51 - 6:55zajedničko je, zapravo, javna sigurnost --
-
6:55 - 6:57to je opće dobro --
-
6:57 - 6:59a farmeri su putnici
-
6:59 - 7:03ili vlasnici automobila koji odabiru
voziti se u tim automobilima. -
7:05 - 7:08I odabirući individualno racionalni odabir
-
7:08 - 7:10davanja prioriteta vlastitoj sigurnosti,
-
7:10 - 7:14oni bi kolektivno mogli
umanjiti opće dobro, -
7:14 - 7:16koje je smanjene totalne štete.
-
7:18 - 7:20To se naziva tragedija zajedništva,
-
7:20 - 7:22tradicionalno,
-
7:22 - 7:25ali ja mislim da u slučaju
automobila bez vozača, -
7:25 - 7:28problem je možda malo više podmukao
-
7:28 - 7:31jer ne postoji nužno
individualno ljudsko biće -
7:31 - 7:33koje donosi te odluke.
-
7:33 - 7:36Proizvođači automobila mogu jednostavno
programirati automobile -
7:36 - 7:39tako da maksimalno povećaju
sigurnost svojih klijenata -
7:40 - 7:43te bi takvi automobili mogli
automatski samostalno naučiti -
7:43 - 7:47da to zahtijeva povećanje
rizika za pješake. -
7:47 - 7:49Da upotrijebim metaforu s ovcom,
-
7:49 - 7:53to je kao da sada imamo
električnu ovcu s vlastitim umom. -
7:53 - 7:54(Smijeh)
-
7:54 - 7:57I one mogu otići i jesti bez da uopće
njihov farmer to zna. -
7:59 - 8:03Dakle, ovo bismo mogli nazvati
tragedijom zajedničkog algoritma -
8:03 - 8:05te nam ona nudi nove vrste izazova.
-
8:11 - 8:12Obično, tradicionalno,
-
8:12 - 8:16ove vrste društvenih dilema
rješavamo koristeći propise, -
8:16 - 8:19stoga se sastanu ili vlade ili zajednice
-
8:19 - 8:22i kolektivno odluče kakav ishod žele
-
8:22 - 8:25i kakva ograničenja
individualnog ponašanja -
8:25 - 8:26trebaju provoditi.
-
8:28 - 8:30Te tada, koristeći praćenje i provedbu,
-
8:30 - 8:33mogu osigurati očuvanje javne sigurnosti.
-
8:33 - 8:35Stoga, zašto mi ne bismo samo,
-
8:35 - 8:37kao regulatori,
-
8:37 - 8:39zahtijevali da svi automobili
potpuno smanje štetu? -
8:39 - 8:42Uostalom, to je ono
što ljudi kažu da žele. -
8:43 - 8:45I još važnije,
-
8:45 - 8:48mogu biti siguran da kao pojedinac,
-
8:48 - 8:52ukoliko kupim automobil koji bi me mogao
žrtvovati u vrlo rijetkom slučaju, -
8:52 - 8:53nisam jedina naivčina čineći to
-
8:53 - 8:56dok svi ostali uživaju bezuvjetnu zaštitu.
-
8:57 - 9:00U našoj anketi, pitali smo ljude
bi li podržali propise -
9:00 - 9:02i evo što smo saznali.
-
9:02 - 9:06Prvo, ljudi su rekli ne propisima;
-
9:07 - 9:09i drugo, rekli su:
-
9:09 - 9:12„Pa, ako regulirate automobile da to čine
i da potpuno smanje štetu, -
9:13 - 9:14ja neću kupiti te automobile.“
-
9:15 - 9:17Dakle, ironično,
-
9:17 - 9:20regulirajući automobile u svrhu
potpunog smanjenja štete, -
9:20 - 9:22možemo zapravo završiti s više štete
-
9:23 - 9:27jer se možda ljudi neće odlučiti
za sigurniju tehnologiju, -
9:27 - 9:29čak i ako je puno sigurnija
od ljudskih vozača. -
9:30 - 9:34Nemam konačan odgovor na ovu zagonetku,
-
9:34 - 9:35ali mislim da, za početak,
-
9:35 - 9:39trebamo društvo da se zajedno okupi
-
9:39 - 9:41kako bismo odlučili
s kojim kompromisima se slažemo -
9:42 - 9:46i kako bismo osmislili
načine donošenja tih kompromisa. -
9:47 - 9:49Za početak, moji sjajni studenti,
-
9:49 - 9:52Edmond Awad i Sohan Dsouza,
-
9:52 - 9:54napravili su internetsku stranicu
Moral Machine, -
9:54 - 9:57koja vam postavlja nasumične događaje --
-
9:58 - 10:01obično gomilu nasumičnih dilema u nizu,
-
10:01 - 10:04gdje vi trebate odlučiti što bi automobil
trebao napraviti u određenoj situaciji. -
10:05 - 10:10U ponudi imamo žrtve raznih dobi i vrsta.
-
10:11 - 10:15Dosad smo prikupili
više od pet milijuna odluka -
10:15 - 10:17od preko milijun ljudi diljem svijeta
-
10:18 - 10:20putem te internetske stranice.
-
10:20 - 10:23Ovo nam od početka pomaže u razumijevanju
-
10:23 - 10:25s kakvim kompromisima se ljudi slažu
-
10:25 - 10:27te što je njima važno --
-
10:27 - 10:29čak i u različitim kulturama.
-
10:30 - 10:32No, važnije od toga,
-
10:32 - 10:35ljudima se time pomaže u shvaćanju
-
10:35 - 10:38težine donošenja tih odluka
-
10:38 - 10:42te da su oni koji donose odluke
zaduženi za nemoguće izbore. -
10:43 - 10:47I možda će upravo ovo pomoći nama
kao društvu u razumijevanju kompromisa -
10:47 - 10:50koji će biti ostvareni u konačnici
pri donošenju propisa. -
10:50 - 10:52I zaista, bio sam sretan saznajući
-
10:52 - 10:54da je prvi skup propisa
-
10:54 - 10:56iz Odjela za transport --
-
10:56 - 10:57objavljen prošli tjedan --
-
10:57 - 11:04obuhvaćao kontrolni popis of 15 točaka
za sve proizvođače automobila -
11:04 - 11:07te da je broj 14 uzimao u obzir etiku --
-
11:07 - 11:09kako ćete se vi nositi s tim.
-
11:12 - 11:15Također, potičemo ljude da promišljaju
o vlastitim odlukama -
11:15 - 11:17tako što im dajemo sažetak
njihovih odabira. -
11:18 - 11:20Dat ću vam jedan primjer --
-
11:20 - 11:24samo ću vas upozoriti
da ovo nije tipičan primjer, -
11:24 - 11:25tipičan korisnik.
-
11:25 - 11:29Ovo je najviše žrtvovan
i najviše spašen lik za ovu osobu. -
11:29 - 11:34(Smijeh)
-
11:35 - 11:37Neki od vas bi se mogli složiti s njim,
-
11:37 - 11:38ili s njom, ne znamo.
-
11:40 - 11:47No također, čini se da ova osoba ipak malo
više preferira putnike nego pješake -
11:47 - 11:49u svojim odlukama
-
11:49 - 11:52te da vrlo rado kažnjava neoprezno
prelaženje ulice. -
11:52 - 11:55(Smijeh)
-
11:57 - 11:58Dakle, zaključimo.
-
11:58 - 12:02Započeli smo pitanjem --
nazovimo to moralnom dilemom -- -
12:02 - 12:05kako bi automobil trebao postupiti
u određenoj situaciji: -
12:05 - 12:06skrenuti ili ostati?
-
12:07 - 12:10Ali onda smo shvatili da je problem
bio u nečem drugom. -
12:10 - 12:15U tome kako pridobiti društvo da donese
zajedničku odluku i provede -
12:15 - 12:16kompromise s kojim se slaže.
-
12:17 - 12:18To je društvena dilema.
-
12:18 - 12:231940., Isaac Asimov je napisao svoje
slavne zakone robotike -- -
12:23 - 12:24tri zakona robotike.
-
12:25 - 12:28Robot nikada ne smije
naškoditi ljudskom biću, -
12:28 - 12:30robot nikada ne smije
ne poslušati ljudsko biće -
12:30 - 12:34i robot nikada ne smije
dopustiti sebi štetu -- -
12:34 - 12:36tim redoslijedom važnosti.
-
12:36 - 12:38No, nakon otprilike 40 godina
-
12:39 - 12:42i nakon toliko slučajeva koji guraju
ove zakone do krajnjih granica, -
12:42 - 12:46Asimov je predstavio nulti zakon,
-
12:46 - 12:48koji ima prednost
spram svih ostalih zakona -
12:48 - 12:52i glasi da robot nikada ne smije
naškoditi čovječnosti u cijelosti. -
12:52 - 12:57Ne znam što ovo znači u kontekstu
automobila bez vozača -
12:57 - 13:00ili u bilo kojoj specifičnoj situaciji,
-
13:00 - 13:02i ne znam kako bismo to mogli primijeniti,
-
13:02 - 13:03ali smatram da prepoznavanjem
-
13:03 - 13:10kako regulacija automobila bez vozača
nije samo problem tehnologije -
13:10 - 13:13već i čitavog društva i njegove suradnje,
-
13:14 - 13:17nadam se, možemo barem početi
postavljati prava pitanja. -
13:17 - 13:18Hvala vam.
-
13:18 - 13:21(Pljesak)
- Title:
- Kakve bi moralne odluke automobili bez vozača trebali donositi?
- Speaker:
- Iyad Rahwan
- Description:
-
Treba li vaš automobil bez vozača usmrtiti vas, ako će tako spasiti pet pješaka? U ovim počecima socijalnih dilema automobila bez vozača, Iyad Rahwan istražuje kako će tehnologija propitivati našu moralnost i objašnjava svoj rad u prikupljanju podataka od pravih ljudi na temu etičkih kompromisa koje smo spremni (ili nismo spremni) napraviti.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 13:35
![]() |
Retired user approved Croatian subtitles for What moral decisions should driverless cars make? | |
![]() |
Sanda L accepted Croatian subtitles for What moral decisions should driverless cars make? | |
![]() |
Sanda L edited Croatian subtitles for What moral decisions should driverless cars make? | |
![]() |
Sanda L edited Croatian subtitles for What moral decisions should driverless cars make? | |
![]() |
Senzos Osijek edited Croatian subtitles for What moral decisions should driverless cars make? | |
![]() |
Senzos Osijek edited Croatian subtitles for What moral decisions should driverless cars make? | |
![]() |
Senzos Osijek edited Croatian subtitles for What moral decisions should driverless cars make? |