Return to Video

Etička dilema dizajniranja beba

  • 0:01 - 0:03
    Šta kad bih mogao da vam napravim
  • 0:03 - 0:05
    dizajniranu bebu?
  • 0:06 - 0:08
    Šta kad bi ste vi kao budući roditelj,
  • 0:08 - 0:12
    i ja kao naučnik, odlučili
    da zajedno krenemo tim putem?
  • 0:14 - 0:15
    Šta ako ne bismo?
  • 0:15 - 0:18
    Šta ako bismo mislili: "To je loša ideja",
  • 0:18 - 0:21
    ali mnogi iz naše porodice,
    naši prijatelji i kolege
  • 0:22 - 0:23
    su doneli tu odluku?
  • 0:24 - 0:28
    Premotajmo samo 15 godina unapred.
  • 0:28 - 0:31
    Pretvarajmo se da je 2030. godina
  • 0:31 - 0:32
    i vi ste roditelj.
  • 0:33 - 0:36
    Vaša kćerka Marijana je pored vas,
  • 0:36 - 0:39
    a 2030. ona je ono što bismo
    nazvali prirodnim
  • 0:39 - 0:42
    jer nema genetske modifikacije.
  • 0:43 - 0:47
    A zato što ste vi i vaš partner
    svesno doneli tu odluku,
  • 0:47 - 0:51
    mnogi iz vašeg društvenog kruga
    vas gledaju s nipodaštavanjem.
  • 0:51 - 0:54
    Smatraju vas luditom ili tehnofobom.
  • 0:56 - 0:58
    Marijanina najbolja prijateljica Džena,
    koja živi u komšiluku,
  • 0:59 - 1:00
    je potpuno druga priča.
  • 1:01 - 1:07
    Rođena je kao genetski modifikovana
    dizajnerska beba s brojnim unapređenjima.
  • 1:09 - 1:10
    Da. Unapređenjima.
  • 1:11 - 1:14
    A ova poboljšanja su uvedena
  • 1:14 - 1:16
    upotrebom nove tehnologije
    za genetske modifikacije
  • 1:16 - 1:19
    koja ima zabavno ime CRISPR,
  • 1:19 - 1:21
    znate kao nešto "crisp" [sveže],
  • 1:21 - 1:22
    ovo je CRISPR [svežije].
  • 1:24 - 1:27
    Naučnici, koje su Dženini roditelji
    unajmili da ovo urade
  • 1:27 - 1:29
    za nekoliko miliona dolara,
  • 1:30 - 1:33
    uveli su CRISPR
    u čitav niz ljudskih embriona.
  • 1:34 - 1:36
    I koristili su genetska testiranja
  • 1:36 - 1:40
    i predvideli da će taj sićušni embrion,
    Dženin embrion,
  • 1:40 - 1:42
    biti najbolji iz gomile.
  • 1:43 - 1:47
    I sada, Džena je stvarna, prava osoba.
  • 1:47 - 1:50
    Sedi na tepihu u vašem dnevnom boravku
  • 1:50 - 1:52
    i igra se sa vašom kćerkom Marijanom.
  • 1:53 - 1:56
    Vaše porodice se poznaju godinama,
  • 1:56 - 1:59
    i prilično vam je jasno
  • 1:59 - 2:01
    da je Džena izvanredna.
  • 2:01 - 2:03
    Veoma je inteligentna.
  • 2:03 - 2:06
    Ako ćete da budete iskreni prema sebi,
    pametnija je od vas,
  • 2:07 - 2:08
    a pet joj je godina.
  • 2:09 - 2:13
    Lepa je, visoka, atletske građe
  • 2:13 - 2:15
    i spisak je sve duži.
  • 2:16 - 2:19
    I zapravo imamo čitavu novu generaciju
  • 2:19 - 2:21
    GM dece poput Džene.
  • 2:22 - 2:24
    I zasad se čini
  • 2:24 - 2:26
    da su zdraviji
    od generacije njihovih roditelja,
  • 2:26 - 2:28
    od vaše generacije.
  • 2:28 - 2:30
    I imaju niže zdravstvene troškove.
  • 2:32 - 2:35
    Imuni su na veliki broj
    zdravstevnih stanja,
  • 2:35 - 2:38
    uključujući HIV/AIDS i genetske bolesti.
  • 2:39 - 2:41
    Sve to zvuči sjajno,
  • 2:41 - 2:44
    ali ne možete a da ne osećate nespokoj,
  • 2:45 - 2:50
    instinktivno osećanje da nešto
    prosto nije kako treba kod Džene
  • 2:50 - 2:54
    i imali ste isti osećaj
    o drugoj GM deci koju ste upoznali.
  • 2:55 - 2:58
    Takođe ste čitali u novinama
    ranije ove nedelje
  • 2:59 - 3:02
    da istraživanje ove dece,
    koja su rođena kao dizajnirane bebe,
  • 3:02 - 3:04
    nagoveštava da imaju neke probleme,
  • 3:04 - 3:08
    poput naglašene agresivnosti
    i narcisoidnosti.
  • 3:10 - 3:11
    Ali svežije su vam u mislima
  • 3:11 - 3:15
    neke vesti koje ste upravo
    čuli od Dženine porodice.
  • 3:15 - 3:17
    Toliko je pametna
  • 3:17 - 3:20
    da će sada pohađati specijalnu školu,
  • 3:20 - 3:22
    različitu školu nego vaša kćerka Marijana,
  • 3:22 - 3:26
    i to na neki način izbacuje
    vašu porodicu iz ravnoteže.
  • 3:26 - 3:27
    Marijana plače,
  • 3:27 - 3:31
    a sinoć kad ste je uspavljivali
    i ljubili za laku noć,
  • 3:31 - 3:35
    pitala je: "Tata, hoće li
    mi Džena uopšte više biti prijateljica?"
  • 3:36 - 3:40
    Sad, kako sam vam pričao
    ovu zamišljenu priču iz 2030,
  • 3:40 - 3:43
    imam osećaj da sam neke od vas smestio
  • 3:43 - 3:45
    u naučnofantastični okvir. Je li tako?
  • 3:45 - 3:48
    Mislite da čitate
    naučnofantastičnu knjigu.
  • 3:48 - 3:51
    Ili, pak, razmišljate
    u smeru Noći veštica.
  • 3:51 - 3:53
    Ali ovo je zaista naša moguća stvarnost,
  • 3:53 - 3:55
    svega 15 godina od sad.
  • 3:55 - 3:58
    Ja sam istraživač
    matičnih ćelija i genetike
  • 3:58 - 4:01
    i razumem novu CRISPR tehnologiju
  • 4:01 - 4:03
    i njen potencijalni uticaj.
  • 4:04 - 4:07
    I možemo se zateći u toj stvarnosti
  • 4:07 - 4:10
    i mnogo će zavisiti od toga
    šta odlučimo danas.
  • 4:12 - 4:14
    A ako i dalje razmišljate
    u naučnofantastičnom smeru,
  • 4:14 - 4:19
    razmotrite da je svet nauke
    poprilično zatečen ranije ove godine,
  • 4:19 - 4:22
    a javnost uglavnom pojma nema o tome.
  • 4:22 - 4:25
    Istraživači iz Kine,
    pre svega nekoliko meseci,
  • 4:25 - 4:29
    izvestili su da su stvorili
    genetski modifikovane ljudske embrione.
  • 4:29 - 4:32
    Ovo se desilo prvi put u istoriji.
  • 4:32 - 4:35
    A postigli su to upotrebom
    nove CRISPR tehnologije.
  • 4:36 - 4:37
    Nije savršeno funkcionisalo,
  • 4:37 - 4:41
    ali i dalje smatram
    da su time odškrinuli vrata
  • 4:41 - 4:43
    Pandorine kutije.
  • 4:44 - 4:47
    I mislim da će se neki ljudi
    voditi ovom tehnologijom
  • 4:47 - 4:49
    i pokušaće da dizajniraju bebe.
  • 4:50 - 4:53
    Sad, pre nego što nastavim, neki od vas
    će da podignu ruke i kažu:
  • 4:53 - 4:56
    "Stani, Pol, čekaj malo.
  • 4:56 - 4:57
    Zar to ne bi bilo nezakonito?
  • 4:57 - 5:01
    Ne možeš prosto da se zaputiš
    i stvoriš dizajniranu bebu."
  • 5:02 - 5:04
    I zapravo ste donekle u pravu.
  • 5:04 - 5:06
    U nekim državama to ne možete da uradite.
  • 5:07 - 5:10
    Ali u mnogim drugim državama,
    uključujući moju državu, SAD,
  • 5:10 - 5:14
    zapravo ne postoji zakon o ovome,
    pa u teoriji, mogli biste to da uradite.
  • 5:15 - 5:19
    A desio se još jedan razvoj ove godine
    koji se odrazio na ovu oblast,
  • 5:19 - 5:22
    a to se desilo nedaleko odavde,
    u Ujedinjenom Kraljevstvu.
  • 5:22 - 5:26
    A Ujedinjeno Kraljevstvo je tradicionalno
    bila najstroža država
  • 5:26 - 5:28
    kada se radi
    o genetskim modifikacijama ljudi.
  • 5:28 - 5:30
    Tamo je to bilo nezakonito,
  • 5:30 - 5:32
    ali pre samo nekoliko meseci,
  • 5:32 - 5:34
    napravili su izuzetak tom pravilu.
  • 5:34 - 5:36
    Usvojili su novi zakon,
  • 5:36 - 5:39
    koji dozvoljava stvaranje
    genetski modifikovanih ljudi
  • 5:40 - 5:44
    s plemenitim ciljem pokušaja da se spreče
    retki oblici genetskih bolesti.
  • 5:44 - 5:48
    Ali i dalje smatram da nas kombinacija
    ovih događaja pomera
  • 5:48 - 5:51
    sve bliže ka prihvatanju
  • 5:51 - 5:53
    ljudskih genetskih modifikacija.
  • 5:54 - 5:57
    Dakle, govorio sam
    o toj tehnologiji CRISPR.
  • 5:57 - 5:59
    Šta je zapravo CRISPR?
  • 5:59 - 6:03
    Pa, ako razmišljate o GMO
    koji nam je svima poznatiji,
  • 6:03 - 6:06
    poput GMO paradajza i pšenice
  • 6:06 - 6:08
    i sličnih stvari,
  • 6:08 - 6:11
    ova tehnologija je slična tehnologijama
  • 6:11 - 6:12
    koje koristimo da njih napravimo,
  • 6:12 - 6:15
    ali je drastično bolja,
  • 6:15 - 6:17
    jeftinija i brža.
  • 6:18 - 6:20
    Pa, šta je to?
  • 6:20 - 6:22
    To je poput genetskog
    švajcarskog vojničkog noža.
  • 6:22 - 6:24
    Možemo da se pretvaramo
    da je to švajcarski nož
  • 6:24 - 6:26
    koji sadrži različite alate,
  • 6:26 - 6:29
    a jedan od tih alata je nalik lupi
  • 6:29 - 6:31
    ili GPS za naš DNK,
  • 6:32 - 6:34
    dakle, može da se smesti
    u određenoj tački.
  • 6:34 - 6:36
    A sledeći alat je poput makaza
  • 6:36 - 6:39
    koje mogu da seku DNK baš u toj tački.
  • 6:39 - 6:41
    I naposletku imamo olovku
  • 6:41 - 6:46
    kojom bukvalno možemo da nanovo ispišemo
    genetski kôd na toj lokaciji.
  • 6:46 - 6:47
    Zaista je tako jednostavno.
  • 6:48 - 6:51
    A ova tehnologija, koja se pojavila
    pre samo tri godine,
  • 6:51 - 6:53
    iznenadila je nauku.
  • 6:54 - 6:58
    Toliko brzo se razvija,
    i tako je prokleto uzbudljiva naučnicima,
  • 6:58 - 7:02
    i ja priznajem da me fascinira
    i koristimo je u našoj laboratoriji,
  • 7:03 - 7:07
    da mislim kako će neko da ode korak dalje
  • 7:07 - 7:09
    i da nastavi rad na genetskoj modifikaciji
    ljudskog embriona
  • 7:09 - 7:12
    i možda će da naprave dizajnirane bebe.
  • 7:13 - 7:15
    Trenutno je to toliko sveprisutno.
  • 7:15 - 7:17
    Tek se pojavilo pre tri godine.
  • 7:17 - 7:22
    Trenutno hiljade laboratorija
    ovo bukvalno imaju pri ruci
  • 7:22 - 7:24
    i bave se važnim istraživanjem.
  • 7:24 - 7:27
    Većinu njih ne interesuje
    dizajniranje beba.
  • 7:27 - 7:29
    Izučavaju ljudske bolesti
  • 7:29 - 7:32
    i druge važne elemente nauke.
  • 7:32 - 7:34
    Dakle, mnogo se važnog istraživanja
    sprovodi CRIPR-om.
  • 7:35 - 7:38
    A činjenica da trenutno možemo
    da radimo genetske modifikacije,
  • 7:38 - 7:42
    koje su nekad trajale godinama
    i koštale milione dolara,
  • 7:42 - 7:45
    za nekoliko nedelja
    za nekoliko hiljada dolara,
  • 7:45 - 7:47
    meni kao naučniku je fantastična,
  • 7:47 - 7:50
    ali opet, istovremeno,
  • 7:50 - 7:53
    otvara prostor ljudima da odu predaleko.
  • 7:53 - 7:55
    I mislim da se neki ljudi
  • 7:55 - 7:58
    neće usredsređivati toliko na nauku.
  • 7:58 - 8:00
    Neće ih nauka pokretati.
  • 8:00 - 8:03
    Pokretaće ih ideologija
    ili jurenje za novcem.
  • 8:04 - 8:07
    I posegnuće za dizajniranjem beba.
  • 8:08 - 8:12
    Pa, zašto bi trebalo da budemo
    zabrinuti zbog ovoga?
  • 8:12 - 8:15
    Znamo od Darvina,
    ako se vratimo dva veka unazad,
  • 8:15 - 8:19
    da su evolucija i genetika
    istinski uticali na čovečanstvo,
  • 8:20 - 8:22
    na to ko smo danas.
  • 8:22 - 8:26
    A neki smatraju da se dešava nešto
    poput društvenog darvinizma u našem svetu,
  • 8:26 - 8:28
    a možda čak i eugenika.
  • 8:29 - 8:32
    Zamislite te trendove, te sile,
  • 8:32 - 8:35
    sa raketnim pogonom ove CRISPR tehnologije
  • 8:35 - 8:38
    koja je toliko moćna i sveprisutna.
  • 8:39 - 8:43
    I zapravo, dovoljno je da se vratimo
    jedan vek u prošli vek
  • 8:43 - 8:46
    kako bismo videli moć eugenike.
  • 8:47 - 8:49
    Moj otac, Piter Nofler,
  • 8:49 - 8:52
    je rođen baš ovde u Beču.
  • 8:52 - 8:57
    Bio je Bečlija i rođen je ovde 1929.
  • 8:57 - 9:00
    A kada su moji baka i deka
    dobili malenu bebu Pitera,
  • 9:01 - 9:02
    svet je bio drugačiji. Je li tako?
  • 9:02 - 9:04
    Bio je to neki drugi Beč.
  • 9:04 - 9:05
    SAD su bile drugačije.
  • 9:05 - 9:06
    Svet je bio drugačiji.
  • 9:06 - 9:09
    Eugenika je bila u usponu
  • 9:09 - 9:11
    i moji baka i deka su shvatili,
  • 9:11 - 9:13
    verujem veoma brzo,
  • 9:13 - 9:16
    da su na pogrešnoj strani
    eugeničke jednačine.
  • 9:17 - 9:19
    I uprkos tome što je ovo bio njihov dom
  • 9:19 - 9:21
    i dom njihove čitave šire porodice,
  • 9:21 - 9:26
    a ova oblast je generacijama
    bila dom njihovoj porodici,
  • 9:26 - 9:29
    odlučili su da zbog eugenike
  • 9:29 - 9:30
    moraju da odu.
  • 9:31 - 9:33
    I preživeli su, ali slomljenog srca
  • 9:33 - 9:37
    i nisam siguran da je moj otac
    ikad prežalio odlazak iz Beča.
  • 9:37 - 9:39
    Otišao je kad mu je bilo tek osam godina
  • 9:39 - 9:41
    1938.
  • 9:43 - 9:46
    Stoga danas vidim novu eugeniku
  • 9:46 - 9:48
    kako izranja na površinu.
  • 9:48 - 9:53
    Trebalo bi da bude plemenitija,
    nežnija, pozitivna eugenika,
  • 9:53 - 9:55
    drugačija od svega toga iz prošlosti.
  • 9:56 - 10:01
    Ali smatram da iako je usredsređena
    na pokušavanje da poboljša ljude,
  • 10:01 - 10:03
    mogla bi da ima negativne posledice
  • 10:03 - 10:05
    i zaista me brine
  • 10:05 - 10:07
    što neki od najvećih zagovornika
    ove nove eugenike
  • 10:07 - 10:11
    smatraju da je CRISPR
    karta za njeno ostvarivanje.
  • 10:12 - 10:14
    Pa, moram da priznam, znate,
  • 10:14 - 10:17
    eugenika, govorimo o unapređenju ljudi.
  • 10:17 - 10:19
    To je teško pitanje.
  • 10:19 - 10:22
    Šta je bolje kad govorimo
    o ljudskim bićima?
  • 10:22 - 10:25
    Ali priznajem da smatram
    da možda mnogi od nas
  • 10:25 - 10:28
    bi mogli da se slože da bi ljudskim bićima
  • 10:28 - 10:30
    godilo malo poboljšanja.
  • 10:30 - 10:32
    Pogledajte naše političare
  • 10:32 - 10:34
    ovde, znate, tamo u SAD-u -
  • 10:34 - 10:38
    Ne daj bože da sad pođemo tamo.
  • 10:38 - 10:40
    Možda ako samo pogledamo u ogledalo,
  • 10:40 - 10:43
    moguće da bismo otkrili
    vidove da se popravimo.
  • 10:43 - 10:47
    Možda bih poželeo, iskreno,
    da imam više kose ovde, umesto ćelavosti.
  • 10:47 - 10:50
    Neki ljudi bi poželeli da su viši,
  • 10:50 - 10:53
    da imaju drugačiju težinu, drugačije lice.
  • 10:54 - 10:57
    Ako bismo mogli to da uradimo,
    ako bismo mogli sve to da ostvarimo
  • 10:57 - 11:00
    ili bismo to mogli da ostvarimo
    kod naše dece,
  • 11:00 - 11:01
    to bi bilo primamljivo.
  • 11:02 - 11:05
    A ipak, uz to bi išli sledeći rizici.
  • 11:05 - 11:07
    Govorio sam o eugenici,
  • 11:07 - 11:10
    ali postojali bi rizici i po pojedince.
  • 11:10 - 11:12
    Dakle, ako bismo zaboravili
    na unapređivanje ljudi
  • 11:12 - 11:17
    i samo pokušali da ih napravimo zdravijim
    upotrebom genetskih modifikacija,
  • 11:17 - 11:19
    ova tehnologija je toliko nova
  • 11:19 - 11:21
    i toliko moćna
  • 11:21 - 11:24
    da bismo slučajno mogli
    da ih napravimo bolesnijima.
  • 11:25 - 11:27
    To bi lako moglo da se desi.
  • 11:27 - 11:28
    A tu je i drugi rizik,
  • 11:28 - 11:33
    a to je da sve legitimno, važno
    istraživanje genetskih modifikacija
  • 11:33 - 11:34
    se dešava samo u laboratoriji -
  • 11:34 - 11:37
    opet, bez zainteresovanosti
    za dizajniranje beba -
  • 11:37 - 11:40
    ako bi nekoliko ljudi krenulo
    putem dizajniranja beba,
  • 11:40 - 11:42
    a stvari bi krenule po zlu,
  • 11:42 - 11:45
    čitava oblast bi ispaštala.
  • 11:45 - 11:48
    Takođe smatram da nije nemoguće
  • 11:48 - 11:52
    da bi vlade mogle početi da se interesuju
    za genetske modifikacije.
  • 11:53 - 11:58
    Pa, na primer,
    naše zamišljeno GM dete, Džena,
  • 11:58 - 11:59
    koje je zdravije,
  • 11:59 - 12:03
    ako postoji generacija za koju se čini
    da ima niže troškove zdravstvene nege,
  • 12:03 - 12:07
    moguće je da vlade
    mogu da počnu da sile svoje građane
  • 12:07 - 12:09
    da krenu GM putem.
  • 12:09 - 12:11
    Pogledajte politiku jednog deteta u Kini.
  • 12:11 - 12:17
    Smatra se da je sprečila
    rođenje 400 miliona ljudskih bića.
  • 12:18 - 12:21
    Stoga nije u sferi nemogućeg
  • 12:21 - 12:25
    da bi genetske modifikacije
    mogle da budu nešto što vlade guraju.
  • 12:25 - 12:29
    A ako dizajnirane bebe postanu popularne,
  • 12:29 - 12:31
    u našem digitalnom dobu -
  • 12:31 - 12:33
    popularnih snimaka, društvenih mreža -
  • 12:33 - 12:36
    šta ako bi se smatralo
    da su dizajnirane bebe moderne,
  • 12:36 - 12:38
    i one postanu neka vrsta novog glamura,
  • 12:38 - 12:40
    novi Kardašijanovi ili slično?
  • 12:40 - 12:41
    (Smeh)
  • 12:41 - 12:45
    Znate, jesu li to trendovi
    koje bi zaista mogli da kontrolišemo?
  • 12:45 - 12:48
    Nisam ubeđen da jesu.
  • 12:49 - 12:52
    Dakle, opet, danas je Noć veštica
  • 12:52 - 12:54
    i kada govorimo
    o genetskim modifikacijama,
  • 12:54 - 12:57
    pstoji jedan lik u vezi sa Noći veštica
  • 12:57 - 13:00
    o kom se govori i koji se priziva
    više od bilo čega drugog,
  • 13:00 - 13:02
    a to je Frankenštajn.
  • 13:03 - 13:07
    Najčešće je to bila frankenhrana
    i razne druge stvari.
  • 13:07 - 13:12
    Ali ako razmislimo danas o tome
    i razmislimo o tome u ljudskom kontekstu
  • 13:12 - 13:13
    na dan poput Noći veštica,
  • 13:13 - 13:18
    ako roditelji u suštini mogu
    da genetski kostimiraju svoju decu,
  • 13:18 - 13:23
    da li ćemo da govorimo
    o nekoj vrsti situacije Frankenštajn 2.0?
  • 13:24 - 13:27
    Ne verujem. Ne verujem
    da će ići toliko daleko.
  • 13:27 - 13:31
    Ali kada se bavimo cepkanjem
    ljudskog kôda,
  • 13:31 - 13:35
    mislim da sve opklade otpadaju,
    u smislu šta bi moglo proizaći iz toga.
  • 13:35 - 13:36
    I dalje bi postojala opasnost.
  • 13:38 - 13:39
    Možemo da pogledamo u prošlost
  • 13:39 - 13:42
    druge elemente preobražajne nauke
  • 13:42 - 13:46
    i da vidimo kako su se
    u suštini otrgli kontroli
  • 13:46 - 13:47
    i kako su proželi društvo.
  • 13:48 - 13:51
    Daću vam samo jedan primer,
    a to je vantelesna oplodnja.
  • 13:52 - 13:56
    Pre skoro tačno 40 godina,
  • 13:56 - 14:00
    rođena je prva beba iz tube, Luiza Braun,
  • 14:00 - 14:01
    a to je sjajna stvar,
  • 14:01 - 14:07
    i mislim da je od tada pet miliona beba
    rođeno vantelesnom oplodnjom,
  • 14:07 - 14:08
    donele su bezmernu radost.
  • 14:08 - 14:11
    Mnogi roditelji sad mogu da vole tu decu.
  • 14:12 - 14:14
    Ali ako razmislite o tome,
    za četiri decenije,
  • 14:14 - 14:17
    pet miliona beba rođenih
    zahvaljujući novoj tehnologiji
  • 14:18 - 14:19
    je prilično izvanredno,
  • 14:19 - 14:22
    a isto bi moglo da se desi
  • 14:22 - 14:25
    s genetskim modifikacijama ljudi
    i dizajniranjem beba.
  • 14:25 - 14:28
    Pa, u zavisnosti od odluka
    koje donesemo u narednih nekoliko meseci,
  • 14:28 - 14:30
    u narednih godinu dana,
  • 14:30 - 14:33
    ako se rodi prva dizajnirana beba
  • 14:33 - 14:34
    u narednih par decenija,
  • 14:34 - 14:38
    moglo bi da dođe do miliona
    genetski modifikovanih ljudi.
  • 14:38 - 14:42
    A tu imamo i razliku,
    jer ako mi, vi u publici ili ja,
  • 14:42 - 14:45
    ako odlučimo da imamo dizajniranu bebu,
  • 14:45 - 14:49
    onda će i njihova deca
    da budu genetski modifikovana itd.
  • 14:49 - 14:51
    jer je to nasledno.
  • 14:51 - 14:52
    Dakle, to je velika razlika.
  • 14:54 - 14:55
    Pa, imajući sve ovo na umu,
  • 14:56 - 14:57
    šta da radimo?
  • 14:58 - 15:00
    Zapravo će da dođe do sastanka
  • 15:00 - 15:03
    za mesec dana od sutra u Vašingtonu,
  • 15:03 - 15:05
    od strane Nacionalne akademija nauke SAD-a
  • 15:05 - 15:07
    kako bi se bavili tim pitanjem.
  • 15:07 - 15:11
    Koji je pravi put napred po pitanju
    ljudskih genetskih modifikacija?
  • 15:12 - 15:14
    Verujem da nam trenutno
  • 15:14 - 15:16
    treba moratorijum.
  • 15:16 - 15:17
    Moramo to da zabranimo.
  • 15:17 - 15:21
    Ne bi trebalo da dozvolimo
    stvaranje genetski modifikovanih ljudi
  • 15:21 - 15:24
    jer je prosto suviše opasno
    i suviše nepredvidivo.
  • 15:25 - 15:27
    Ali ima mnogo ljudi -
  • 15:27 - 15:28
    (Aplauz)
  • 15:28 - 15:29
    Havala.
  • 15:29 - 15:33
    (Aplauz)
  • 15:36 - 15:38
    I dozvolite da kažem, prosto kao naučnik,
  • 15:38 - 15:41
    malčice je zastrašujuće da to javno kažem
  • 15:41 - 15:46
    jer nauka uopšteno ne voli
    samoregulaciju i slične stvari.
  • 15:47 - 15:50
    Zato smatram da moramo da odložimo ovo,
  • 15:50 - 15:53
    no postoje mnogi ljudi
    koji ne samo da se ne slažu sa mnom,
  • 15:53 - 15:55
    već osećaju baš suprotno.
  • 15:55 - 15:58
    Oni su potpuno nagazili gas,
    idu punom brzinom napred,
  • 15:58 - 16:00
    napravimo dizajnirane bebe.
  • 16:00 - 16:03
    Pa će na sastanku u decembru
  • 16:03 - 16:06
    i na drugim sastancima koji će verovatno
    uslediti u narednih nekoliko meseci,
  • 16:06 - 16:09
    veoma je moguće da neće biti moratorijuma.
  • 16:09 - 16:12
    A mislim da je deo našeg problema
  • 16:12 - 16:14
    to što je čitav ovaj trend,
  • 16:14 - 16:19
    ova revolucija u genetskoj modifikaciji
    koja je primenjiva na ljude,
  • 16:19 - 16:20
    javnost nije znala za to.
  • 16:20 - 16:22
    Niko nije govorio,
  • 16:22 - 16:26
    pogledajte, ovo je velika stvar,
    ovo je revolucija
  • 16:26 - 16:28
    i moglo bi da utiče na vas
    na veoma lične načine.
  • 16:28 - 16:31
    Te je moj cilj delimično
    da to zapravo promenim
  • 16:31 - 16:34
    i da obrazujem i angažujem javnost
  • 16:34 - 16:37
    i da vi ljudi pričate o ovome.
  • 16:38 - 16:41
    Pa se nadam da će na ovim sastancima
    biti mesta za javnost
  • 16:41 - 16:44
    da doprinese svojim glasom.
  • 16:46 - 16:50
    Pa, ako se vratimo nazad,
    opet na 2030, na tu zamišljenu priču,
  • 16:51 - 16:54
    i u zavisnosti od odluka
    koje, opet, donesemo danas -
  • 16:54 - 16:56
    bukvalno nemamo mnogo vremena -
  • 16:56 - 16:58
    u narednih nekoliko meseci,
    sledećih godinu,
  • 16:58 - 17:01
    jer se ova tehnologija širi poput požara.
  • 17:02 - 17:04
    Pretvarajmo se da smo ponovo
    u toj stvarnosti.
  • 17:05 - 17:06
    Nalazimo se u parku
  • 17:06 - 17:10
    i naše dete se ljulja na ljuljašci.
  • 17:11 - 17:13
    Da li je to dete obično staro dete
  • 17:13 - 17:17
    ili smo odlučili
    da imamo dizajniranu bebu?
  • 17:17 - 17:20
    I recimo da smo krenuli
    nekom vrstom tradicionalnog puta,
  • 17:20 - 17:23
    i naše dete se ljulja na ljuljašci,
  • 17:23 - 17:26
    i iskreno, ono je nered.
  • 17:26 - 17:28
    Kosa mu je zamršena poput moje.
  • 17:28 - 17:30
    Zapušen mu je nos.
  • 17:31 - 17:33
    Nije najbolji đak na svetu.
  • 17:33 - 17:35
    Ljupko je, volite ga,
  • 17:35 - 17:37
    ali na ljuljašci do njegove,
  • 17:37 - 17:40
    njegov najbolji prijatelj je GM dete,
  • 17:40 - 17:43
    i njih dvoje se tako ljuljaju,
  • 17:43 - 17:45
    a vi ne možete
    a da ih ne poredite, zar ne?
  • 17:45 - 17:47
    A GM dete se ljulja više,
  • 17:47 - 17:50
    izgleda bolje, bolji je đak,
  • 17:50 - 17:53
    nema zapušen nos koji morate da brišete.
  • 17:53 - 17:55
    Kako ćete se zbog toga osećati
  • 17:55 - 17:58
    i kakvu odluku ćete sledeći put doneti?
  • 17:59 - 18:00
    Hvala vam.
  • 18:00 - 18:05
    (Aplauz)
Title:
Etička dilema dizajniranja beba
Speaker:
Pol Nofler (Paul Knoepfler)
Description:

Stvaranje genetski modifikovanih ljudi više nije naučnofantastična fantazija; to je izgledan budući scenario. Biolog Pol Nofler procenjuje da bi za petnaest godina naučnici mogli da koriste tehnologiju redigovanja gena CRISPR kako bi napravili izvesna "unapređenja" na ljudskom embrionu - od izmene fizičkog izgleda do eliminacije rzika od autoimunih bolesti. U ovom govoru, koji izaziva na razmišljanje, Nofler nas priprema za predstojeću revoluciju dizajniranih beba i njene veoma lične i nepredvidljive posledice.

more » « less
Video Language:
English
Team:
TED
Project:
TEDTalks
Duration:
18:19

Serbian subtitles

Revisions