Etička dilema dizajniranja beba
-
0:01 - 0:03Šta kad bih mogao da vam napravim
-
0:03 - 0:05dizajniranu bebu?
-
0:06 - 0:08Šta kad bi ste vi kao budući roditelj,
-
0:08 - 0:12i ja kao naučnik, odlučili
da zajedno krenemo tim putem? -
0:14 - 0:15Šta ako ne bismo?
-
0:15 - 0:18Šta ako bismo mislili: "To je loša ideja",
-
0:18 - 0:21ali mnogi iz naše porodice,
naši prijatelji i kolege -
0:22 - 0:23su doneli tu odluku?
-
0:24 - 0:28Premotajmo samo 15 godina unapred.
-
0:28 - 0:31Pretvarajmo se da je 2030. godina
-
0:31 - 0:32i vi ste roditelj.
-
0:33 - 0:36Vaša kćerka Marijana je pored vas,
-
0:36 - 0:39a 2030. ona je ono što bismo
nazvali prirodnim -
0:39 - 0:42jer nema genetske modifikacije.
-
0:43 - 0:47A zato što ste vi i vaš partner
svesno doneli tu odluku, -
0:47 - 0:51mnogi iz vašeg društvenog kruga
vas gledaju s nipodaštavanjem. -
0:51 - 0:54Smatraju vas luditom ili tehnofobom.
-
0:56 - 0:58Marijanina najbolja prijateljica Džena,
koja živi u komšiluku, -
0:59 - 1:00je potpuno druga priča.
-
1:01 - 1:07Rođena je kao genetski modifikovana
dizajnerska beba s brojnim unapređenjima. -
1:09 - 1:10Da. Unapređenjima.
-
1:11 - 1:14A ova poboljšanja su uvedena
-
1:14 - 1:16upotrebom nove tehnologije
za genetske modifikacije -
1:16 - 1:19koja ima zabavno ime CRISPR,
-
1:19 - 1:21znate kao nešto "crisp" [sveže],
-
1:21 - 1:22ovo je CRISPR [svežije].
-
1:24 - 1:27Naučnici, koje su Dženini roditelji
unajmili da ovo urade -
1:27 - 1:29za nekoliko miliona dolara,
-
1:30 - 1:33uveli su CRISPR
u čitav niz ljudskih embriona. -
1:34 - 1:36I koristili su genetska testiranja
-
1:36 - 1:40i predvideli da će taj sićušni embrion,
Dženin embrion, -
1:40 - 1:42biti najbolji iz gomile.
-
1:43 - 1:47I sada, Džena je stvarna, prava osoba.
-
1:47 - 1:50Sedi na tepihu u vašem dnevnom boravku
-
1:50 - 1:52i igra se sa vašom kćerkom Marijanom.
-
1:53 - 1:56Vaše porodice se poznaju godinama,
-
1:56 - 1:59i prilično vam je jasno
-
1:59 - 2:01da je Džena izvanredna.
-
2:01 - 2:03Veoma je inteligentna.
-
2:03 - 2:06Ako ćete da budete iskreni prema sebi,
pametnija je od vas, -
2:07 - 2:08a pet joj je godina.
-
2:09 - 2:13Lepa je, visoka, atletske građe
-
2:13 - 2:15i spisak je sve duži.
-
2:16 - 2:19I zapravo imamo čitavu novu generaciju
-
2:19 - 2:21GM dece poput Džene.
-
2:22 - 2:24I zasad se čini
-
2:24 - 2:26da su zdraviji
od generacije njihovih roditelja, -
2:26 - 2:28od vaše generacije.
-
2:28 - 2:30I imaju niže zdravstvene troškove.
-
2:32 - 2:35Imuni su na veliki broj
zdravstevnih stanja, -
2:35 - 2:38uključujući HIV/AIDS i genetske bolesti.
-
2:39 - 2:41Sve to zvuči sjajno,
-
2:41 - 2:44ali ne možete a da ne osećate nespokoj,
-
2:45 - 2:50instinktivno osećanje da nešto
prosto nije kako treba kod Džene -
2:50 - 2:54i imali ste isti osećaj
o drugoj GM deci koju ste upoznali. -
2:55 - 2:58Takođe ste čitali u novinama
ranije ove nedelje -
2:59 - 3:02da istraživanje ove dece,
koja su rođena kao dizajnirane bebe, -
3:02 - 3:04nagoveštava da imaju neke probleme,
-
3:04 - 3:08poput naglašene agresivnosti
i narcisoidnosti. -
3:10 - 3:11Ali svežije su vam u mislima
-
3:11 - 3:15neke vesti koje ste upravo
čuli od Dženine porodice. -
3:15 - 3:17Toliko je pametna
-
3:17 - 3:20da će sada pohađati specijalnu školu,
-
3:20 - 3:22različitu školu nego vaša kćerka Marijana,
-
3:22 - 3:26i to na neki način izbacuje
vašu porodicu iz ravnoteže. -
3:26 - 3:27Marijana plače,
-
3:27 - 3:31a sinoć kad ste je uspavljivali
i ljubili za laku noć, -
3:31 - 3:35pitala je: "Tata, hoće li
mi Džena uopšte više biti prijateljica?" -
3:36 - 3:40Sad, kako sam vam pričao
ovu zamišljenu priču iz 2030, -
3:40 - 3:43imam osećaj da sam neke od vas smestio
-
3:43 - 3:45u naučnofantastični okvir. Je li tako?
-
3:45 - 3:48Mislite da čitate
naučnofantastičnu knjigu. -
3:48 - 3:51Ili, pak, razmišljate
u smeru Noći veštica. -
3:51 - 3:53Ali ovo je zaista naša moguća stvarnost,
-
3:53 - 3:55svega 15 godina od sad.
-
3:55 - 3:58Ja sam istraživač
matičnih ćelija i genetike -
3:58 - 4:01i razumem novu CRISPR tehnologiju
-
4:01 - 4:03i njen potencijalni uticaj.
-
4:04 - 4:07I možemo se zateći u toj stvarnosti
-
4:07 - 4:10i mnogo će zavisiti od toga
šta odlučimo danas. -
4:12 - 4:14A ako i dalje razmišljate
u naučnofantastičnom smeru, -
4:14 - 4:19razmotrite da je svet nauke
poprilično zatečen ranije ove godine, -
4:19 - 4:22a javnost uglavnom pojma nema o tome.
-
4:22 - 4:25Istraživači iz Kine,
pre svega nekoliko meseci, -
4:25 - 4:29izvestili su da su stvorili
genetski modifikovane ljudske embrione. -
4:29 - 4:32Ovo se desilo prvi put u istoriji.
-
4:32 - 4:35A postigli su to upotrebom
nove CRISPR tehnologije. -
4:36 - 4:37Nije savršeno funkcionisalo,
-
4:37 - 4:41ali i dalje smatram
da su time odškrinuli vrata -
4:41 - 4:43Pandorine kutije.
-
4:44 - 4:47I mislim da će se neki ljudi
voditi ovom tehnologijom -
4:47 - 4:49i pokušaće da dizajniraju bebe.
-
4:50 - 4:53Sad, pre nego što nastavim, neki od vas
će da podignu ruke i kažu: -
4:53 - 4:56"Stani, Pol, čekaj malo.
-
4:56 - 4:57Zar to ne bi bilo nezakonito?
-
4:57 - 5:01Ne možeš prosto da se zaputiš
i stvoriš dizajniranu bebu." -
5:02 - 5:04I zapravo ste donekle u pravu.
-
5:04 - 5:06U nekim državama to ne možete da uradite.
-
5:07 - 5:10Ali u mnogim drugim državama,
uključujući moju državu, SAD, -
5:10 - 5:14zapravo ne postoji zakon o ovome,
pa u teoriji, mogli biste to da uradite. -
5:15 - 5:19A desio se još jedan razvoj ove godine
koji se odrazio na ovu oblast, -
5:19 - 5:22a to se desilo nedaleko odavde,
u Ujedinjenom Kraljevstvu. -
5:22 - 5:26A Ujedinjeno Kraljevstvo je tradicionalno
bila najstroža država -
5:26 - 5:28kada se radi
o genetskim modifikacijama ljudi. -
5:28 - 5:30Tamo je to bilo nezakonito,
-
5:30 - 5:32ali pre samo nekoliko meseci,
-
5:32 - 5:34napravili su izuzetak tom pravilu.
-
5:34 - 5:36Usvojili su novi zakon,
-
5:36 - 5:39koji dozvoljava stvaranje
genetski modifikovanih ljudi -
5:40 - 5:44s plemenitim ciljem pokušaja da se spreče
retki oblici genetskih bolesti. -
5:44 - 5:48Ali i dalje smatram da nas kombinacija
ovih događaja pomera -
5:48 - 5:51sve bliže ka prihvatanju
-
5:51 - 5:53ljudskih genetskih modifikacija.
-
5:54 - 5:57Dakle, govorio sam
o toj tehnologiji CRISPR. -
5:57 - 5:59Šta je zapravo CRISPR?
-
5:59 - 6:03Pa, ako razmišljate o GMO
koji nam je svima poznatiji, -
6:03 - 6:06poput GMO paradajza i pšenice
-
6:06 - 6:08i sličnih stvari,
-
6:08 - 6:11ova tehnologija je slična tehnologijama
-
6:11 - 6:12koje koristimo da njih napravimo,
-
6:12 - 6:15ali je drastično bolja,
-
6:15 - 6:17jeftinija i brža.
-
6:18 - 6:20Pa, šta je to?
-
6:20 - 6:22To je poput genetskog
švajcarskog vojničkog noža. -
6:22 - 6:24Možemo da se pretvaramo
da je to švajcarski nož -
6:24 - 6:26koji sadrži različite alate,
-
6:26 - 6:29a jedan od tih alata je nalik lupi
-
6:29 - 6:31ili GPS za naš DNK,
-
6:32 - 6:34dakle, može da se smesti
u određenoj tački. -
6:34 - 6:36A sledeći alat je poput makaza
-
6:36 - 6:39koje mogu da seku DNK baš u toj tački.
-
6:39 - 6:41I naposletku imamo olovku
-
6:41 - 6:46kojom bukvalno možemo da nanovo ispišemo
genetski kôd na toj lokaciji. -
6:46 - 6:47Zaista je tako jednostavno.
-
6:48 - 6:51A ova tehnologija, koja se pojavila
pre samo tri godine, -
6:51 - 6:53iznenadila je nauku.
-
6:54 - 6:58Toliko brzo se razvija,
i tako je prokleto uzbudljiva naučnicima, -
6:58 - 7:02i ja priznajem da me fascinira
i koristimo je u našoj laboratoriji, -
7:03 - 7:07da mislim kako će neko da ode korak dalje
-
7:07 - 7:09i da nastavi rad na genetskoj modifikaciji
ljudskog embriona -
7:09 - 7:12i možda će da naprave dizajnirane bebe.
-
7:13 - 7:15Trenutno je to toliko sveprisutno.
-
7:15 - 7:17Tek se pojavilo pre tri godine.
-
7:17 - 7:22Trenutno hiljade laboratorija
ovo bukvalno imaju pri ruci -
7:22 - 7:24i bave se važnim istraživanjem.
-
7:24 - 7:27Većinu njih ne interesuje
dizajniranje beba. -
7:27 - 7:29Izučavaju ljudske bolesti
-
7:29 - 7:32i druge važne elemente nauke.
-
7:32 - 7:34Dakle, mnogo se važnog istraživanja
sprovodi CRIPR-om. -
7:35 - 7:38A činjenica da trenutno možemo
da radimo genetske modifikacije, -
7:38 - 7:42koje su nekad trajale godinama
i koštale milione dolara, -
7:42 - 7:45za nekoliko nedelja
za nekoliko hiljada dolara, -
7:45 - 7:47meni kao naučniku je fantastična,
-
7:47 - 7:50ali opet, istovremeno,
-
7:50 - 7:53otvara prostor ljudima da odu predaleko.
-
7:53 - 7:55I mislim da se neki ljudi
-
7:55 - 7:58neće usredsređivati toliko na nauku.
-
7:58 - 8:00Neće ih nauka pokretati.
-
8:00 - 8:03Pokretaće ih ideologija
ili jurenje za novcem. -
8:04 - 8:07I posegnuće za dizajniranjem beba.
-
8:08 - 8:12Pa, zašto bi trebalo da budemo
zabrinuti zbog ovoga? -
8:12 - 8:15Znamo od Darvina,
ako se vratimo dva veka unazad, -
8:15 - 8:19da su evolucija i genetika
istinski uticali na čovečanstvo, -
8:20 - 8:22na to ko smo danas.
-
8:22 - 8:26A neki smatraju da se dešava nešto
poput društvenog darvinizma u našem svetu, -
8:26 - 8:28a možda čak i eugenika.
-
8:29 - 8:32Zamislite te trendove, te sile,
-
8:32 - 8:35sa raketnim pogonom ove CRISPR tehnologije
-
8:35 - 8:38koja je toliko moćna i sveprisutna.
-
8:39 - 8:43I zapravo, dovoljno je da se vratimo
jedan vek u prošli vek -
8:43 - 8:46kako bismo videli moć eugenike.
-
8:47 - 8:49Moj otac, Piter Nofler,
-
8:49 - 8:52je rođen baš ovde u Beču.
-
8:52 - 8:57Bio je Bečlija i rođen je ovde 1929.
-
8:57 - 9:00A kada su moji baka i deka
dobili malenu bebu Pitera, -
9:01 - 9:02svet je bio drugačiji. Je li tako?
-
9:02 - 9:04Bio je to neki drugi Beč.
-
9:04 - 9:05SAD su bile drugačije.
-
9:05 - 9:06Svet je bio drugačiji.
-
9:06 - 9:09Eugenika je bila u usponu
-
9:09 - 9:11i moji baka i deka su shvatili,
-
9:11 - 9:13verujem veoma brzo,
-
9:13 - 9:16da su na pogrešnoj strani
eugeničke jednačine. -
9:17 - 9:19I uprkos tome što je ovo bio njihov dom
-
9:19 - 9:21i dom njihove čitave šire porodice,
-
9:21 - 9:26a ova oblast je generacijama
bila dom njihovoj porodici, -
9:26 - 9:29odlučili su da zbog eugenike
-
9:29 - 9:30moraju da odu.
-
9:31 - 9:33I preživeli su, ali slomljenog srca
-
9:33 - 9:37i nisam siguran da je moj otac
ikad prežalio odlazak iz Beča. -
9:37 - 9:39Otišao je kad mu je bilo tek osam godina
-
9:39 - 9:411938.
-
9:43 - 9:46Stoga danas vidim novu eugeniku
-
9:46 - 9:48kako izranja na površinu.
-
9:48 - 9:53Trebalo bi da bude plemenitija,
nežnija, pozitivna eugenika, -
9:53 - 9:55drugačija od svega toga iz prošlosti.
-
9:56 - 10:01Ali smatram da iako je usredsređena
na pokušavanje da poboljša ljude, -
10:01 - 10:03mogla bi da ima negativne posledice
-
10:03 - 10:05i zaista me brine
-
10:05 - 10:07što neki od najvećih zagovornika
ove nove eugenike -
10:07 - 10:11smatraju da je CRISPR
karta za njeno ostvarivanje. -
10:12 - 10:14Pa, moram da priznam, znate,
-
10:14 - 10:17eugenika, govorimo o unapređenju ljudi.
-
10:17 - 10:19To je teško pitanje.
-
10:19 - 10:22Šta je bolje kad govorimo
o ljudskim bićima? -
10:22 - 10:25Ali priznajem da smatram
da možda mnogi od nas -
10:25 - 10:28bi mogli da se slože da bi ljudskim bićima
-
10:28 - 10:30godilo malo poboljšanja.
-
10:30 - 10:32Pogledajte naše političare
-
10:32 - 10:34ovde, znate, tamo u SAD-u -
-
10:34 - 10:38Ne daj bože da sad pođemo tamo.
-
10:38 - 10:40Možda ako samo pogledamo u ogledalo,
-
10:40 - 10:43moguće da bismo otkrili
vidove da se popravimo. -
10:43 - 10:47Možda bih poželeo, iskreno,
da imam više kose ovde, umesto ćelavosti. -
10:47 - 10:50Neki ljudi bi poželeli da su viši,
-
10:50 - 10:53da imaju drugačiju težinu, drugačije lice.
-
10:54 - 10:57Ako bismo mogli to da uradimo,
ako bismo mogli sve to da ostvarimo -
10:57 - 11:00ili bismo to mogli da ostvarimo
kod naše dece, -
11:00 - 11:01to bi bilo primamljivo.
-
11:02 - 11:05A ipak, uz to bi išli sledeći rizici.
-
11:05 - 11:07Govorio sam o eugenici,
-
11:07 - 11:10ali postojali bi rizici i po pojedince.
-
11:10 - 11:12Dakle, ako bismo zaboravili
na unapređivanje ljudi -
11:12 - 11:17i samo pokušali da ih napravimo zdravijim
upotrebom genetskih modifikacija, -
11:17 - 11:19ova tehnologija je toliko nova
-
11:19 - 11:21i toliko moćna
-
11:21 - 11:24da bismo slučajno mogli
da ih napravimo bolesnijima. -
11:25 - 11:27To bi lako moglo da se desi.
-
11:27 - 11:28A tu je i drugi rizik,
-
11:28 - 11:33a to je da sve legitimno, važno
istraživanje genetskih modifikacija -
11:33 - 11:34se dešava samo u laboratoriji -
-
11:34 - 11:37opet, bez zainteresovanosti
za dizajniranje beba - -
11:37 - 11:40ako bi nekoliko ljudi krenulo
putem dizajniranja beba, -
11:40 - 11:42a stvari bi krenule po zlu,
-
11:42 - 11:45čitava oblast bi ispaštala.
-
11:45 - 11:48Takođe smatram da nije nemoguće
-
11:48 - 11:52da bi vlade mogle početi da se interesuju
za genetske modifikacije. -
11:53 - 11:58Pa, na primer,
naše zamišljeno GM dete, Džena, -
11:58 - 11:59koje je zdravije,
-
11:59 - 12:03ako postoji generacija za koju se čini
da ima niže troškove zdravstvene nege, -
12:03 - 12:07moguće je da vlade
mogu da počnu da sile svoje građane -
12:07 - 12:09da krenu GM putem.
-
12:09 - 12:11Pogledajte politiku jednog deteta u Kini.
-
12:11 - 12:17Smatra se da je sprečila
rođenje 400 miliona ljudskih bića. -
12:18 - 12:21Stoga nije u sferi nemogućeg
-
12:21 - 12:25da bi genetske modifikacije
mogle da budu nešto što vlade guraju. -
12:25 - 12:29A ako dizajnirane bebe postanu popularne,
-
12:29 - 12:31u našem digitalnom dobu -
-
12:31 - 12:33popularnih snimaka, društvenih mreža -
-
12:33 - 12:36šta ako bi se smatralo
da su dizajnirane bebe moderne, -
12:36 - 12:38i one postanu neka vrsta novog glamura,
-
12:38 - 12:40novi Kardašijanovi ili slično?
-
12:40 - 12:41(Smeh)
-
12:41 - 12:45Znate, jesu li to trendovi
koje bi zaista mogli da kontrolišemo? -
12:45 - 12:48Nisam ubeđen da jesu.
-
12:49 - 12:52Dakle, opet, danas je Noć veštica
-
12:52 - 12:54i kada govorimo
o genetskim modifikacijama, -
12:54 - 12:57pstoji jedan lik u vezi sa Noći veštica
-
12:57 - 13:00o kom se govori i koji se priziva
više od bilo čega drugog, -
13:00 - 13:02a to je Frankenštajn.
-
13:03 - 13:07Najčešće je to bila frankenhrana
i razne druge stvari. -
13:07 - 13:12Ali ako razmislimo danas o tome
i razmislimo o tome u ljudskom kontekstu -
13:12 - 13:13na dan poput Noći veštica,
-
13:13 - 13:18ako roditelji u suštini mogu
da genetski kostimiraju svoju decu, -
13:18 - 13:23da li ćemo da govorimo
o nekoj vrsti situacije Frankenštajn 2.0? -
13:24 - 13:27Ne verujem. Ne verujem
da će ići toliko daleko. -
13:27 - 13:31Ali kada se bavimo cepkanjem
ljudskog kôda, -
13:31 - 13:35mislim da sve opklade otpadaju,
u smislu šta bi moglo proizaći iz toga. -
13:35 - 13:36I dalje bi postojala opasnost.
-
13:38 - 13:39Možemo da pogledamo u prošlost
-
13:39 - 13:42druge elemente preobražajne nauke
-
13:42 - 13:46i da vidimo kako su se
u suštini otrgli kontroli -
13:46 - 13:47i kako su proželi društvo.
-
13:48 - 13:51Daću vam samo jedan primer,
a to je vantelesna oplodnja. -
13:52 - 13:56Pre skoro tačno 40 godina,
-
13:56 - 14:00rođena je prva beba iz tube, Luiza Braun,
-
14:00 - 14:01a to je sjajna stvar,
-
14:01 - 14:07i mislim da je od tada pet miliona beba
rođeno vantelesnom oplodnjom, -
14:07 - 14:08donele su bezmernu radost.
-
14:08 - 14:11Mnogi roditelji sad mogu da vole tu decu.
-
14:12 - 14:14Ali ako razmislite o tome,
za četiri decenije, -
14:14 - 14:17pet miliona beba rođenih
zahvaljujući novoj tehnologiji -
14:18 - 14:19je prilično izvanredno,
-
14:19 - 14:22a isto bi moglo da se desi
-
14:22 - 14:25s genetskim modifikacijama ljudi
i dizajniranjem beba. -
14:25 - 14:28Pa, u zavisnosti od odluka
koje donesemo u narednih nekoliko meseci, -
14:28 - 14:30u narednih godinu dana,
-
14:30 - 14:33ako se rodi prva dizajnirana beba
-
14:33 - 14:34u narednih par decenija,
-
14:34 - 14:38moglo bi da dođe do miliona
genetski modifikovanih ljudi. -
14:38 - 14:42A tu imamo i razliku,
jer ako mi, vi u publici ili ja, -
14:42 - 14:45ako odlučimo da imamo dizajniranu bebu,
-
14:45 - 14:49onda će i njihova deca
da budu genetski modifikovana itd. -
14:49 - 14:51jer je to nasledno.
-
14:51 - 14:52Dakle, to je velika razlika.
-
14:54 - 14:55Pa, imajući sve ovo na umu,
-
14:56 - 14:57šta da radimo?
-
14:58 - 15:00Zapravo će da dođe do sastanka
-
15:00 - 15:03za mesec dana od sutra u Vašingtonu,
-
15:03 - 15:05od strane Nacionalne akademija nauke SAD-a
-
15:05 - 15:07kako bi se bavili tim pitanjem.
-
15:07 - 15:11Koji je pravi put napred po pitanju
ljudskih genetskih modifikacija? -
15:12 - 15:14Verujem da nam trenutno
-
15:14 - 15:16treba moratorijum.
-
15:16 - 15:17Moramo to da zabranimo.
-
15:17 - 15:21Ne bi trebalo da dozvolimo
stvaranje genetski modifikovanih ljudi -
15:21 - 15:24jer je prosto suviše opasno
i suviše nepredvidivo. -
15:25 - 15:27Ali ima mnogo ljudi -
-
15:27 - 15:28(Aplauz)
-
15:28 - 15:29Havala.
-
15:29 - 15:33(Aplauz)
-
15:36 - 15:38I dozvolite da kažem, prosto kao naučnik,
-
15:38 - 15:41malčice je zastrašujuće da to javno kažem
-
15:41 - 15:46jer nauka uopšteno ne voli
samoregulaciju i slične stvari. -
15:47 - 15:50Zato smatram da moramo da odložimo ovo,
-
15:50 - 15:53no postoje mnogi ljudi
koji ne samo da se ne slažu sa mnom, -
15:53 - 15:55već osećaju baš suprotno.
-
15:55 - 15:58Oni su potpuno nagazili gas,
idu punom brzinom napred, -
15:58 - 16:00napravimo dizajnirane bebe.
-
16:00 - 16:03Pa će na sastanku u decembru
-
16:03 - 16:06i na drugim sastancima koji će verovatno
uslediti u narednih nekoliko meseci, -
16:06 - 16:09veoma je moguće da neće biti moratorijuma.
-
16:09 - 16:12A mislim da je deo našeg problema
-
16:12 - 16:14to što je čitav ovaj trend,
-
16:14 - 16:19ova revolucija u genetskoj modifikaciji
koja je primenjiva na ljude, -
16:19 - 16:20javnost nije znala za to.
-
16:20 - 16:22Niko nije govorio,
-
16:22 - 16:26pogledajte, ovo je velika stvar,
ovo je revolucija -
16:26 - 16:28i moglo bi da utiče na vas
na veoma lične načine. -
16:28 - 16:31Te je moj cilj delimično
da to zapravo promenim -
16:31 - 16:34i da obrazujem i angažujem javnost
-
16:34 - 16:37i da vi ljudi pričate o ovome.
-
16:38 - 16:41Pa se nadam da će na ovim sastancima
biti mesta za javnost -
16:41 - 16:44da doprinese svojim glasom.
-
16:46 - 16:50Pa, ako se vratimo nazad,
opet na 2030, na tu zamišljenu priču, -
16:51 - 16:54i u zavisnosti od odluka
koje, opet, donesemo danas - -
16:54 - 16:56bukvalno nemamo mnogo vremena -
-
16:56 - 16:58u narednih nekoliko meseci,
sledećih godinu, -
16:58 - 17:01jer se ova tehnologija širi poput požara.
-
17:02 - 17:04Pretvarajmo se da smo ponovo
u toj stvarnosti. -
17:05 - 17:06Nalazimo se u parku
-
17:06 - 17:10i naše dete se ljulja na ljuljašci.
-
17:11 - 17:13Da li je to dete obično staro dete
-
17:13 - 17:17ili smo odlučili
da imamo dizajniranu bebu? -
17:17 - 17:20I recimo da smo krenuli
nekom vrstom tradicionalnog puta, -
17:20 - 17:23i naše dete se ljulja na ljuljašci,
-
17:23 - 17:26i iskreno, ono je nered.
-
17:26 - 17:28Kosa mu je zamršena poput moje.
-
17:28 - 17:30Zapušen mu je nos.
-
17:31 - 17:33Nije najbolji đak na svetu.
-
17:33 - 17:35Ljupko je, volite ga,
-
17:35 - 17:37ali na ljuljašci do njegove,
-
17:37 - 17:40njegov najbolji prijatelj je GM dete,
-
17:40 - 17:43i njih dvoje se tako ljuljaju,
-
17:43 - 17:45a vi ne možete
a da ih ne poredite, zar ne? -
17:45 - 17:47A GM dete se ljulja više,
-
17:47 - 17:50izgleda bolje, bolji je đak,
-
17:50 - 17:53nema zapušen nos koji morate da brišete.
-
17:53 - 17:55Kako ćete se zbog toga osećati
-
17:55 - 17:58i kakvu odluku ćete sledeći put doneti?
-
17:59 - 18:00Hvala vam.
-
18:00 - 18:05(Aplauz)
- Title:
- Etička dilema dizajniranja beba
- Speaker:
- Pol Nofler (Paul Knoepfler)
- Description:
-
Stvaranje genetski modifikovanih ljudi više nije naučnofantastična fantazija; to je izgledan budući scenario. Biolog Pol Nofler procenjuje da bi za petnaest godina naučnici mogli da koriste tehnologiju redigovanja gena CRISPR kako bi napravili izvesna "unapređenja" na ljudskom embrionu - od izmene fizičkog izgleda do eliminacije rzika od autoimunih bolesti. U ovom govoru, koji izaziva na razmišljanje, Nofler nas priprema za predstojeću revoluciju dizajniranih beba i njene veoma lične i nepredvidljive posledice.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 18:19
Mile Živković approved Serbian subtitles for The ethical dilemma of designer babies | ||
Mile Živković edited Serbian subtitles for The ethical dilemma of designer babies | ||
Mile Živković accepted Serbian subtitles for The ethical dilemma of designer babies | ||
Mile Živković edited Serbian subtitles for The ethical dilemma of designer babies | ||
Mile Živković edited Serbian subtitles for The ethical dilemma of designer babies | ||
Milenka Okuka edited Serbian subtitles for The ethical dilemma of designer babies | ||
Milenka Okuka edited Serbian subtitles for The ethical dilemma of designer babies | ||
Milenka Okuka edited Serbian subtitles for The ethical dilemma of designer babies |