Return to Video

Így pusztíthatja el a civilizáció önmagát – és négy mód, ahogy ezt megelőzhetjük

  • 0:01 - 0:03
    Chris Anderson: Nick Bostrom.
  • 0:03 - 0:07
    Annyi őrült ötlettel rukkoltál már elő.
  • 0:07 - 0:09
    Néhány évtizeddel ezelőtt azzal,
  • 0:09 - 0:12
    hogy talán mind egy szimulációban élünk,
  • 0:12 - 0:13
    vagy talán valószínűleg éltünk.
  • 0:13 - 0:15
    Nemrégiben
  • 0:15 - 0:17
    élénk képet festettél arról,
  • 0:17 - 0:21
    hogyan sülhet el balul
    az általános mesterséges intelligencia.
  • 0:22 - 0:23
    Idén pedig
  • 0:23 - 0:25
    egy tanulmányt készülsz kiadni,
  • 0:25 - 0:29
    mely a sebezhető világ
    hipotézisét boncolgatja.
  • 0:29 - 0:34
    Ma este az a dolgunk,
    hogy ehhez képes útmutatót nyújtsunk.
  • 0:34 - 0:36
    Tegyünk hát így.
  • 0:37 - 0:39
    Miről szól a hipotézis?
  • 0:40 - 0:42
    Nick Bostrom: A jelen emberi lét
  • 0:42 - 0:46
    egyfajta strukturális
    jellemzőjét boncolgatja.
  • 0:47 - 0:49
    Kedveled az urnametaforát,
  • 0:50 - 0:51
    így azt használom magyarázatképp.
  • 0:52 - 0:56
    Képzelj el egy nagy, golyókkal teli urnát,
  • 0:56 - 1:00
    ahol a golyók ötletek, módszerek,
    lehetséges technológiák.
  • 1:01 - 1:05
    Az emberi kreativitás
    történelmét felfoghatjuk úgy is,
  • 1:05 - 1:08
    mint annak folyamatát, ahogyan az urnából
    egyik golyót a másik után húzzuk ki,
  • 1:08 - 1:12
    és a végeredmény eddig
    elég hasznos volt, ugye?
  • 1:12 - 1:14
    Nagy számban húztunk elő fehér golyókat,
  • 1:14 - 1:17
    néhány szürkés árnyalatút,
    vegyes eredménnyel.
  • 1:18 - 1:21
    A fekete golyót még nem húztuk ki –
  • 1:22 - 1:28
    a technológiát, amely végérvényesen
    lerombolja az azt felfedező civilizációt.
  • 1:28 - 1:31
    A tanulmány azt elemzi,
    milyen is lehet az a fekete golyó.
  • 1:31 - 1:33
    CA: Tehát a golyót úgy jellemzed,
  • 1:33 - 1:37
    mint amelyik elkerülhetetlenül
    lerombolja a civilizációt.
  • 1:37 - 1:42
    NB: Kivéve, ha kilépünk abból, amit én
    félanarchikus alapállapotnak hívok.
  • 1:42 - 1:43
    Egyfajta alapválasztásként.
  • 1:44 - 1:48
    CA: Úgy teszed meggyőzővé ezt a modellt,
  • 1:48 - 1:50
    hogy mutatsz néhány ellenpéldát,
  • 1:50 - 1:53
    ahol valójában eddig szerencsések voltunk,
  • 1:53 - 1:56
    hiszen akár ki is húzhattuk
    volna azt a halálgolyót,
  • 1:56 - 1:57
    még csak nem is sejtve.
  • 1:57 - 2:00
    Itt ez az idézet, miről szól?
  • 2:01 - 2:03
    NB: Gondolom, illusztrálni akarja,
  • 2:03 - 2:05
    milyen nehéz előre megjósolni,
  • 2:05 - 2:08
    hová vezetnek alapfelfedezések.
  • 2:08 - 2:11
    Képtelenek vagyunk megjósolni.
  • 2:11 - 2:15
    Abban elég jók vagyunk,
    hogy kihúzzuk a golyókat,
  • 2:15 - 2:18
    de visszatenni nem igazán tudjuk őket.
  • 2:18 - 2:21
    Felfedezni tudunk, visszacsinálni nem.
  • 2:22 - 2:24
    Ilyenképp a stratégiánk az,
  • 2:24 - 2:27
    hogy reméljük, az urnában
    nincs fekete golyó.
  • 2:27 - 2:31
    CA: Ha tehát egyszer kihúzzák,
    kint van, nem lehet visszatenni,
  • 2:31 - 2:33
    és szerinted eddig csak szerencsénk volt.
  • 2:33 - 2:35
    Mutass be nekünk
    párat ezen példák közül.
  • 2:35 - 2:38
    Különböző típusú
    sebezhetőségekről beszélsz.
  • 2:38 - 2:39
    NB: A legegyszerűbb ezt
  • 2:39 - 2:42
    egy olyan technológia
    segítségével megérteni,
  • 2:42 - 2:46
    amellyel könnyű
    nagy pusztítást véghezvinni.
  • 2:47 - 2:51
    A szintetikus biológia termékeny
    talaj lehet egy ilyen golyónak,
  • 2:51 - 2:54
    ám számtalan más dolog is szóba jöhet
  • 2:54 - 2:56
    – mondjuk a geomérnökség,
    igazán nagyszerű, nem?
  • 2:56 - 2:58
    Legyőzhetnénk a globális felmelegedést,
  • 2:58 - 3:01
    viszont ne legyen túl könnyű,
  • 3:01 - 3:03
    nem akarjuk, hogy egy random valaki
    a nagymamájával
  • 3:03 - 3:06
    képes legyen megváltoztatni
    a Föld klímáját.
  • 3:06 - 3:10
    Vagy ott vannak a halált okozó
    önvezető drónok,
  • 3:10 - 3:13
    szériagyártású, szúnyogméretű,
    gyilkos robotrajok.
  • 3:14 - 3:17
    Nanotechnológia, mesterséges
    általános intelligencia.
  • 3:17 - 3:19
    CA: A tanulmányban úgy érvelsz,
  • 3:19 - 3:21
    csak a szerencse kérdése volt,
  • 3:22 - 3:25
    hogy amikor felfedeztük
    az atomenergiában rejlő bombát,
  • 3:25 - 3:26
    az erőforrások nem voltak
  • 3:26 - 3:28
    sokkal könnyebben elérhetőek,
  • 3:28 - 3:31
    mindenki számára hozzáférhetőek
    a bombakészítéshez.
  • 3:32 - 3:35
    NB: Igen, visszagondolva
    az 1930-as évekre,
  • 3:35 - 3:40
    amikor először értünk el
    áttörést az atomfizikában,
  • 3:40 - 3:44
    egy zseni rájön, hogy nukleáris
    láncreakció hozható létre,
  • 3:44 - 3:47
    amely elvezethet a bombához.
  • 3:47 - 3:49
    Kicsit tovább dolgozunk rajta,
  • 3:49 - 3:52
    és kiderül, hogy az atombombához
  • 3:52 - 3:54
    magasan dúsított urán
    vagy plutónium szükséges,
  • 3:54 - 3:56
    mely anyagokhoz nehéz hozzájutni.
  • 3:56 - 3:58
    Ultracentrifugákra, reaktorokra,
  • 3:58 - 4:02
    meg nagy mennyiségű energiára
    van szükség.
  • 4:02 - 4:04
    Tegyük fel, ehelyett úgy alakul,
  • 4:04 - 4:08
    hogy van könnyebb mód
    az atomenergia felszabadítására.
  • 4:08 - 4:11
    Például azzal, hogy homokot
    sütünk a mikrohullámúban
  • 4:11 - 4:12
    vagy valami ilyesmi,
  • 4:12 - 4:14
    atomrobbanást idézhetünk elő.
  • 4:14 - 4:16
    Tudjuk, hogy ez fizikai képtelenség.
  • 4:16 - 4:18
    Ám a kellő fizika nélkül
  • 4:18 - 4:20
    honnan tudtuk volna, mi fog történni?
  • 4:21 - 4:22
    CA: Bár nem tagadhatod,
  • 4:22 - 4:24
    hogy mivel a földi élet kialakulása
  • 4:24 - 4:27
    egyfajta stabil környezetet igényelt,
  • 4:27 - 4:32
    amennyiben könnyedén lehetne
    masszív magreakciót létrehozni,
  • 4:32 - 4:33
    akkor a Föld sosem lett volna stabil,
  • 4:33 - 4:35
    sőt egyáltalán nem is létezne.
  • 4:35 - 4:38
    NB: Igen, kivéve, ha bizonyos dolgokat
    szándékosan könnyű megvalósítani,
  • 4:38 - 4:41
    ám véletlenszerűen nem alakulnak ki.
  • 4:41 - 4:43
    Például könnyen megtehetjük,
  • 4:43 - 4:45
    hogy egymásra halmozunk 10 farönköt,
  • 4:45 - 4:48
    de a természetben nem fogunk
    egy 10 rönkből álló farakást találni.
  • 4:48 - 4:50
    CA: Oké, valószínűleg ez az,
  • 4:50 - 4:52
    ami sokunkat a legjobban aggaszt,
  • 4:52 - 4:55
    és igen, a szintetikus biológia
    talán a leggyorsabb út,
  • 4:55 - 4:58
    amely a közeljövőben
    feltehetően odajuttat bennünket.
  • 4:58 - 5:01
    NB: Igen, gondoljuk csak el,
    mivel járhatott volna,
  • 5:01 - 5:04
    ha bárki képes lenne
    lerombolni egy várost,
  • 5:04 - 5:07
    mondjuk miközben délután
    a konyhájában tevékenykedik.
  • 5:07 - 5:10
    Nehéz felfogni, hogyan élhette volna
    túl ezt a modern civilizáció
  • 5:10 - 5:12
    abban a formájában, ahogy ismerjük.
  • 5:12 - 5:14
    Ugyanis egymillió emberből
  • 5:14 - 5:17
    mindig lesz néhány
    – bármi legyen is az oka –,
  • 5:17 - 5:19
    aki használni akarja azt a pusztító erőt.
  • 5:20 - 5:23
    És ha ezek az apokaliptikus szereplők,
  • 5:23 - 5:25
    egy várost akarnának lerombolni,
  • 5:25 - 5:26
    tényleg városok pusztulnának el.
  • 5:26 - 5:29
    CA: Nézzük a sebezhetőség
    egy másik típusát.
  • 5:29 - 5:31
    Beszéljünk erről.
  • 5:31 - 5:35
    NB: Az egyértelmű fekete golyók mellett,
  • 5:35 - 5:37
    melyek szimplán lehetővé teszik
    csomó minden felrobbantását,
  • 5:37 - 5:42
    mások úgy fejtenék ki hatásukat,
    hogy negatív ösztönzőként
  • 5:42 - 5:44
    az embereket rossz
    cselekedetekre sarkallnák.
  • 5:44 - 5:48
    A 2a típus alatt, nevezhetjük így,
  • 5:48 - 5:53
    elképzelhetünk valami olyan technológiát,
    amely a nagyhatalmakat arra ösztönzi,
  • 5:53 - 5:57
    hogy hatalmas erőiket mozgósítva
    vigyenek végbe pusztítást.
  • 5:57 - 6:00
    Az atomfegyverek eléggé
    a képbe illenek, ugye?
  • 6:02 - 6:05
    Több mint 10 billió dollárt költöttünk
  • 6:05 - 6:08
    70 000 atomtöltet megépítésére,
  • 6:08 - 6:10
    és kilövésre kész állapotban tartjuk őket.
  • 6:10 - 6:12
    A Hidegháború alatt bizony párszor
  • 6:12 - 6:14
    majdnem felrobbantottuk egymást.
  • 6:14 - 6:17
    Nem azért, mert bárki is úgy érezte,
  • 6:17 - 6:20
    jó ötlet 10 billió dollárt költeni
    magunk felrobbantására,
  • 6:20 - 6:23
    hanem a körülmények
    erre ösztönöztek bennünket –
  • 6:23 - 6:24
    rosszabb is lehetett volna.
  • 6:24 - 6:26
    Képzeljünk el egy megelőző csapást.
  • 6:26 - 6:29
    Azt követően, krízishelyzetben,
  • 6:29 - 6:30
    nehéz lett volna megállni
  • 6:30 - 6:33
    az összes atomrakéta kilövését.
  • 6:33 - 6:36
    Ha másért nem, legalább attól való
    félelmünkben, hogy a másik megteszi.
  • 6:36 - 6:39
    CA: A kölcsönösen biztosított
    megsemmisítés
  • 6:39 - 6:41
    viszonylag stabilizálta a Hidegháborút,
  • 6:41 - 6:42
    enélkül lehet nem lennénk itt.
  • 6:42 - 6:44
    NB: Instabilabb is lehetett
    volna a helyzet.
  • 6:44 - 6:47
    A technológia más jellemzői miatt is.
  • 6:47 - 6:50
    Nehezebben kötöttünk volna
    fegyverkezési egyezményeket,
  • 6:50 - 6:51
    ha atomfegyverek helyett
  • 6:51 - 6:54
    kisebb vagy kevésbé
    feltűnő dolgokról lett volna szó.
  • 6:54 - 6:57
    CA: Nemcsak a nagyhatalmak
    negatív motivációja,
  • 6:57 - 7:00
    hanem mindannyiunké aggaszt,
    ahogy a 2b pont is mutatja.
  • 7:00 - 7:05
    NB: Igen, vegyük például
    a globális felmelegedést.
  • 7:07 - 7:09
    Elkényelmesedettségünk okán
  • 7:09 - 7:11
    olyan dolgokat teszünk,
  • 7:11 - 7:14
    amelyeknek külön-külön nincs
    ugyebár jelentős hatása.
  • 7:14 - 7:16
    Ám ha emberek milliárdja tesz így,
  • 7:16 - 7:18
    összesítve már romboló hatással bírnak.
  • 7:18 - 7:21
    A globális felmelegedés most
    sokkal rosszabb is lehetne.
  • 7:21 - 7:24
    Vegyük a klímaérzékenységi paramétert.
  • 7:24 - 7:28
    Ez mutatja meg, mennyivel lesz melegebb,
  • 7:28 - 7:30
    ha bizonyos mennyiségű
    üvegházhatású gázt bocsájtunk ki.
  • 7:30 - 7:33
    Ám tegyük fel,
  • 7:33 - 7:35
    hogy a kibocsájtott üvegházhatású gázzal
  • 7:35 - 7:39
    2100-ra mondjuk nem 3,5-4 fokkal,
  • 7:39 - 7:41
    hanem 15 vagy 20 fokkal
  • 7:41 - 7:44
    emeljük a hőmérsékletet.
  • 7:44 - 7:47
    Akkor lennénk igazán rossz helyzetben.
  • 7:47 - 7:50
    Vagy tegyük fel, nehezebb lenne
    megújuló energiát előállítani.
  • 7:50 - 7:53
    Vagy több lenne a földben
    rejlő fosszilis üzemanyag.
  • 7:53 - 7:55
    CA: Nem tagadhatod,
    hogy ebben az esetben –
  • 7:55 - 7:57
    hogy ha az, amit ma teszünk,
  • 7:57 - 8:02
    tíz fok különbséget eredményezett volna
    egy általunk is belátható időszakon belül,
  • 8:02 - 8:05
    az emberiség keményen dolgozott
    volna valamilyen megoldáson.
  • 8:06 - 8:08
    Hülyék vagyunk, de talán mégsem annyira.
  • 8:08 - 8:10
    Vagy talán mégis.
  • 8:10 - 8:11
    NB: Nem fogadnék rá.
  • 8:11 - 8:13
    (Nevetés)
  • 8:13 - 8:15
    Más jellemzőket is elképzelhetnek.
  • 8:15 - 8:20
    Jelenleg kicsit nehézkes a megújulókra
    és hasonlókra való átállás,
  • 8:20 - 8:22
    de meg lehet csinálni.
  • 8:22 - 8:25
    Lehetséges lenne kissé másfajta fizikával,
  • 8:25 - 8:27
    viszont sokkal többe került
    volna megtenni ezeket.
  • 8:28 - 8:30
    CA: Mit gondolsz, Nick?
  • 8:30 - 8:32
    Ha ezeket a lehetőségeket összerakjuk:
  • 8:32 - 8:37
    ez a Föld, ez az emberiség,
  • 8:37 - 8:38
    sebezhető világnak számít?
  • 8:38 - 8:41
    Tartogat a jövőnk egy halálgolyót?
  • 8:44 - 8:45
    NB: Nehéz megmondani.
  • 8:45 - 8:50
    Szerintem szép számmal akadnak
    az urnában különböző fekete golyók,
  • 8:50 - 8:52
    ez a helyzet.
  • 8:52 - 8:54
    Talán akadnak ott aranygolyók is,
  • 8:54 - 8:58
    amelyek segítenek a feketék
    elleni védekezésben.
  • 8:58 - 9:01
    Fogalmam sincs, milyen
    sorrendben kerülnek elő.
  • 9:01 - 9:04
    CA: Egy lehetséges elméleti
    kritikája ennek a gondolatnak,
  • 9:04 - 9:10
    hogy e nézet szerint a jövőnk
    alapvetően eldöntetett.
  • 9:10 - 9:13
    Vagy van golyó, vagy nincs.
  • 9:13 - 9:16
    Bizonyos tekintetben
  • 9:16 - 9:18
    ez nem az a jövő, amiben hinni szeretnék.
  • 9:18 - 9:21
    Azt akarom hinni,
    hogy a jövőnk nincs elrendelve,
  • 9:21 - 9:23
    hogy a ma döntései határozzák meg,
  • 9:23 - 9:25
    milyen golyót húzunk ki az urnából.
  • 9:26 - 9:30
    NB: Úgy vélem, ha a felfedezéseket
    tovább folytatjuk,
  • 9:30 - 9:32
    végül ki fogjuk húzni az összes golyót.
  • 9:33 - 9:36
    Szerintem van egyfajta enyhe
    technológiai elrendeltség,
  • 9:36 - 9:38
    mert elég valószínű,
  • 9:38 - 9:40
    hogy nem találunk olyan társadalmat,
  • 9:40 - 9:43
    amely pattintott kőbaltát és
    sugárhajtású repülőt használ.
  • 9:44 - 9:48
    A technológiát szinte úgy is felfoghatjuk,
    mint egy adag "megengedést".
  • 9:48 - 9:51
    A technológia számtalan dolgot
    tesz számunkra lehetővé,
  • 9:51 - 9:53
    és különbözőképp hat a világra.
  • 9:53 - 9:56
    Hogy ezt hogyan használjuk,
    az emberi választáson múlik.
  • 9:56 - 9:59
    Ha a sebezhetőség
    e három típusára gondolunk,
  • 9:59 - 10:02
    elég valószínű, hogyan döntenénk
    a használatukat illetően.
  • 10:02 - 10:06
    Egy 1-es típusú sebezhetőség
    – ez a nagy pusztítóerő – kapcsán
  • 10:06 - 10:07
    eléggé valószínű feltételezés,
  • 10:07 - 10:10
    hogy egy millió emberből
  • 10:10 - 10:13
    néhány felhasználná rombolás céljából.
  • 10:13 - 10:15
    CA: Számomra az egyetlen zavaró érv,
  • 10:15 - 10:20
    hogy tulajdonképp van egyfajta
    elképzelésünk az urna tartalmáról,
  • 10:20 - 10:23
    ami valószínűsíti, hogy a sorsunk
    megpecsételődött.
  • 10:23 - 10:28
    Tudniillik, ha hisznek a gyorsító erőben,
  • 10:28 - 10:30
    hogy a technológia eredendően felgyorsul,
  • 10:30 - 10:33
    hogy eszközöket építünk,
    melyek erősebbé tesznek,
  • 10:33 - 10:35
    hogy egy ponton eljutnak arra a szintre,
  • 10:35 - 10:38
    ahol az egyén képes lesz
    mindannyiunkat elpusztítani,
  • 10:38 - 10:41
    és az végzetesnek tűnik ránk nézve.
  • 10:41 - 10:44
    Nem aggasztó ez az érvelés?
  • 10:44 - 10:46
    NB: Dehogynem.
  • 10:47 - 10:48
    (Nevetés)
  • 10:48 - 10:49
    Szerintem...
  • 10:51 - 10:52
    Egyre erősebbek leszünk
  • 10:52 - 10:56
    és egyre könnyebben használjuk az erőket,
  • 10:56 - 11:00
    ám feltalálhatunk olyan technológiákat is,
    melyek kontrollálni képesek,
  • 11:00 - 11:02
    ahogy az emberek használják az erőket.
  • 11:02 - 11:05
    CA: Beszéljünk erről,
    a lehetséges reakcióról.
  • 11:05 - 11:07
    Feltételezve, hogy a jelenleg már létező
  • 11:07 - 11:09
    lehetőségek kapcsán úgy gondolkodunk
  • 11:09 - 11:13
    – nemcsak a szintetikus biológiáról,
    hanem pl. a kiberháborúról,
  • 11:13 - 11:17
    a mesterséges intelligenciáról stb. –,
  • 11:17 - 11:21
    hogy a jövőben pusztulás várhat ránk.
  • 11:21 - 11:23
    Mik a lehetséges reakciók?
  • 11:23 - 11:28
    Négy lehetőséget említesz válaszként.
  • 11:28 - 11:31
    NB: A technológiai fejlődést korlátozni
    nem tűnik ígéretes megoldásnak,
  • 11:31 - 11:35
    ha általában véve meg akarnánk
    állítani a technológiai fejlődést.
  • 11:35 - 11:36
    Nem megvalósítható,
  • 11:36 - 11:38
    és nem is kívánatos út,
    még ha meg is tehetnénk.
  • 11:38 - 11:41
    Úgy hiszem, igen kevés terület az,
  • 11:41 - 11:44
    ahol le akarnánk lassítani
    a technológiai fejlődést.
  • 11:44 - 11:47
    Gondolom, nem akarnak gyorsabb
    fejlődést biológiai fegyverek esetében,
  • 11:47 - 11:49
    vagy mondjuk az izotópok
    szétválasztásában,
  • 11:49 - 11:52
    mellyel könnyebb lenne
    atomfegyvereket gyártani.
  • 11:53 - 11:56
    CA: Régebben egyetértettem ezzel.
  • 11:56 - 11:59
    Ám szeretnék most ellenvetéssel élni,
  • 11:59 - 12:01
    mindenekelőtt,
  • 12:01 - 12:03
    mert az elmúlt évtized történéseit nézve,
  • 12:03 - 12:07
    mindig is teljes gázzal mentünk előre,
  • 12:07 - 12:09
    ez oké, ez az egyetlen lehetőségünk.
  • 12:09 - 12:13
    Ám ha a globalizációt
    és annak gyorsulását,
  • 12:13 - 12:16
    ha a "Haladj gyorsan és zúzd a dolgokat"
    mottó stratégiáját nézzük,
  • 12:16 - 12:19
    és hogy mi lett annak a sorsa,
  • 12:19 - 12:21
    majd megnézzük a szintetikus
    biológia kínálta lehetőségeket,
  • 12:22 - 12:26
    nem tudom, tényleg gyorsabban
    kellene-e haladnunk,
  • 12:26 - 12:27
    vagy bármilyen korlátozás nélkül,
  • 12:27 - 12:30
    egy olyan világ felé, ahol a DNS-nyomtató
  • 12:30 - 12:32
    minden háztartásban
    és gimnáziumi laborban elérhető.
  • 12:33 - 12:35
    Vannak korlátozások, ugye?
  • 12:35 - 12:38
    NB: Ott van egyrészről,
    hogy nem megvalósítható.
  • 12:38 - 12:40
    Ha úgy hisszük, kívánatos megállítani,
  • 12:40 - 12:41
    ott a megvalósíthatóság kérdése.
  • 12:42 - 12:44
    Az nem igazán segít,
    ha egy nemzet valahogy...
  • 12:44 - 12:46
    CA: Nem, ha egy nemzet teszi, nem segít,
  • 12:46 - 12:49
    de megállapodásokat korábban is kötöttünk.
  • 12:49 - 12:53
    Úgy éltük túl a nukleáris fenyegetést,
  • 12:53 - 12:54
    hogy felléptünk
  • 12:54 - 12:57
    és átestünk az egyezkedés
    fájdalmas folyamatán.
  • 12:57 - 13:02
    Csak csodálkozom,
    hogy mivel ez globálisan elsődleges,
  • 13:02 - 13:04
    nem lenne-e logikus megpróbálni,
  • 13:04 - 13:06
    mondjuk azzal,
    hogy szigorúan szabályozzuk,
  • 13:06 - 13:09
    hol lehet szintetikusbiológiai
    kutatásokat végezni,
  • 13:09 - 13:12
    ez nem olyasvalami, ugye,
    amit demokratizálni akarnánk?
  • 13:12 - 13:14
    NB: Teljes mértékben egyetértek
  • 13:14 - 13:18
    – például nem rossz,
  • 13:18 - 13:22
    ha a DNS-szintetizáló elérhető,
  • 13:22 - 13:25
    ne olyan termék legyen,
    hogy minden labor rendelkezzen vele,
  • 13:25 - 13:27
    hanem inkább szolgáltatás.
  • 13:27 - 13:29
    Mondjuk négy-öt hely a világon,
  • 13:29 - 13:33
    ahová digitális lenyomatot küldhetnek,
    és DNS-t kapnak vissza, nem?
  • 13:33 - 13:35
    Aztán lenne rá lehetőség,
  • 13:35 - 13:37
    ha egy nap tényleg szükség volna rá,
  • 13:37 - 13:39
    hogy legyenek véges számú ellenőrzőpontok.
  • 13:39 - 13:43
    Úgy értem, ha egyfajta speciális
    lehetőségeket akarnánk,
  • 13:43 - 13:45
    ahol szigorúbban lehet ellenőrizni.
  • 13:45 - 13:47
    CA: Alapvetően abban hiszel,
  • 13:47 - 13:50
    hogy a visszatartás nem vezet eredményhez.
  • 13:50 - 13:52
    Valaki, valahol – mondjuk,
    Észak-Koreában –,
  • 13:52 - 13:56
    valaki eljut oda
    és felfedezi ezt a tudást,
  • 13:56 - 13:57
    ha van mit felfedezni.
  • 13:57 - 14:00
    NB: A jelen körülmények
    között ez valószínű.
  • 14:00 - 14:02
    És nem csak a szintetikus biológiában.
  • 14:02 - 14:04
    Szerintem a világon bármely
    mélyreható, új változásból
  • 14:04 - 14:06
    lehet fekete golyó.
  • 14:06 - 14:08
    CA: Nézzünk egy másik lehetséges reakciót.
  • 14:08 - 14:10
    NB: Ez itt szintén csak
    korlátozott hatással bír.
  • 14:10 - 14:14
    Újra az 1-es típusú sebezhetőséget véve,
  • 14:14 - 14:16
    ha csökkenthető lenne
  • 14:16 - 14:19
    a világ lerombolásában érdekeltek száma,
  • 14:19 - 14:21
    ha csak nekik lenne
    hozzáférésük, eszközeik,
  • 14:21 - 14:22
    az jó lenne.
  • 14:22 - 14:25
    CA: Ezen a képen elképzeled,
  • 14:25 - 14:27
    amint drónok repkednek mindenfelé,
  • 14:27 - 14:28
    arcfelismerővel.
  • 14:28 - 14:32
    Ha kiszúrnak valakit
    szociopata viselkedéssel,
  • 14:32 - 14:34
    megöntözik szeretettel, megjavítják.
  • 14:34 - 14:36
    NB: Ez olyan, mint egy hibrid kép.
  • 14:36 - 14:40
    Az eltávolítás egyszerre jelenthet
    bebörtönzést vagy kivégzést,
  • 14:40 - 14:43
    de azt is, hogy szebb
    színben lássák a világot.
  • 14:43 - 14:45
    Ám a lényeg,
  • 14:45 - 14:47
    tegyük fel, jó eredményeket értünk el,
  • 14:47 - 14:50
    és felére csökkent
    az effajta egyének száma.
  • 14:50 - 14:52
    Ha meggyőzéssel élnénk,
  • 14:52 - 14:54
    nagy erőkkel kell szembeszállnunk,
  • 14:54 - 14:56
    amelyek ugyanúgy
    igyekeznek hatni az emberekre:
  • 14:56 - 14:58
    pártok, vallás, oktatás.
  • 14:58 - 15:00
    De tegyük fel, felére csökken a számuk,
  • 15:00 - 15:02
    viszont a kockázat
    nem csökkenne a felére.
  • 15:02 - 15:04
    Talán öt-tíz százalékkal.
  • 15:04 - 15:08
    CA: Tehát nem ajánlod, hogy ezzel
    tegyük kockára az emberiség jövőjét.
  • 15:08 - 15:11
    NB: Szerintem jó dolog elrettenteni
    és meggyőzni az embereket,
  • 15:11 - 15:14
    de nem szabad erre, mint egyetlen
    biztosítékra támaszkodnunk.
  • 15:14 - 15:15
    CA: És a harmadik?
  • 15:15 - 15:18
    NB: Szerintem két általános
    módszer jöhet szóba,
  • 15:18 - 15:22
    hogy megerősítsük a világot
  • 15:22 - 15:25
    egy egész seregnyi
    sebezhetőséggel szemben.
  • 15:25 - 15:27
    Lehet, mindkettő szükséges lesz.
  • 15:27 - 15:31
    Az egyik nagyon hatékony képesség
  • 15:32 - 15:33
    a megelőző rendszabályozás.
  • 15:33 - 15:35
    Időben közbe tudnánk lépni.
  • 15:35 - 15:38
    Ha bárki veszélyes dologba fogna,
  • 15:38 - 15:40
    valós időben közbe tudnánk
    lépni, megakadályozni.
  • 15:40 - 15:43
    Ehhez totális megfigyelés szükségeltetik,
  • 15:43 - 15:45
    mindenkit, mindenkor megfigyelnének.
  • 15:46 - 15:49
    CA: Ez a "Különvélemény" egy formája.
  • 15:49 - 15:51
    NB: Talán lennének MI algoritmusok,
  • 15:51 - 15:55
    nagy központokkal,
    amelyek ezeket figyelik stb.
  • 15:57 - 16:01
    CA: Tudod, hogy a tömeges megfigyelés
    manapság nem túl népszerű?
  • 16:01 - 16:02
    (Nevetés)
  • 16:03 - 16:05
    NB: Persze; ezért képzeljük el,
  • 16:05 - 16:09
    hogy egy ilyen nyakláncot
    kellene állandóan viselnünk,
  • 16:09 - 16:11
    benne 360 fokos kamerával.
  • 16:12 - 16:14
    De hogy emészthetőbb legyen,
  • 16:14 - 16:16
    hívhatjuk "szabadságcédulának"
    vagy valami ilyesmi.
  • 16:16 - 16:18
    (Nevetés)
  • 16:18 - 16:19
    CA: Oké.
  • 16:20 - 16:22
    Ez aztán a beszélgetés, barátaim,
  • 16:22 - 16:25
    és pont emiatt ilyen
    elképesztő a beszélgetés.
  • 16:25 - 16:28
    NB: Valójában egész nagy
    beszélgetés folyik erről,
  • 16:28 - 16:29
    csakis erről.
  • 16:29 - 16:32
    Ez rengeteg problémát,
    kockázatot jelent, nem?
  • 16:32 - 16:33
    Erről később beszélhetünk.
  • 16:33 - 16:34
    A másik, a végső,
  • 16:34 - 16:37
    a másik általános megerősítési lehetőség
  • 16:37 - 16:39
    a kormányzási szakadék
    egyfajta betömése.
  • 16:39 - 16:43
    A megfigyelés például
    mikroszintű kormányzási szakadék,
  • 16:43 - 16:46
    megakadályozni bárkit, hogy valami
    nagyon törvénytelent csináljon.
  • 16:46 - 16:49
    Ez a kormányzási szakadék pedig
  • 16:49 - 16:51
    makroszinten, világszinten is látható.
  • 16:51 - 16:54
    Megbízhatóan szükségünk
    van arra a képességre,
  • 16:54 - 16:57
    hogy útját álljuk a legsúlyosabb
    globális koordinációs hibáknak,
  • 16:57 - 17:01
    így kerülve el a nagyhatalmak
    közti háborúkat,
  • 17:01 - 17:02
    fegyverkezési versenyeket,
  • 17:04 - 17:06
    a közösségek katasztrófáit,
  • 17:08 - 17:12
    hogy lehetőségük legyen a 2a típusú
    sebezhetőségekkel foglalkozni.
  • 17:12 - 17:14
    CA: A globális kormányzás
  • 17:14 - 17:16
    manapság idejétmúlt fogalom,
  • 17:16 - 17:19
    de tagadhatod-e a tényt,
    hogy a történelem során,
  • 17:19 - 17:20
    az emberiség történelmében,
  • 17:20 - 17:25
    a technológiai erő növekedésének
    minden szakaszában
  • 17:25 - 17:29
    újraszervezték és egyfajtaképp
    központosították a hatalmat.
  • 17:29 - 17:32
    Például ha egy huligánbanda
  • 17:32 - 17:34
    átvehetné a társadalom fölötti uralmat,
  • 17:34 - 17:36
    a válasz az, hogy egy nemzetállamban,
  • 17:36 - 17:38
    központosított erőkkel,
    rendőri vagy katonai erővel
  • 17:39 - 17:40
    ez nem lehetséges.
  • 17:40 - 17:45
    A logikus az, hogy ha egyetlen személy,
    vagy egy csoport,
  • 17:45 - 17:46
    ki tudná irtani az emberiséget,
  • 17:46 - 17:49
    azt jelenti, valamikor rá is
    kell lépjünk erre az útra,
  • 17:49 - 17:51
    valamilyen formában, nem?
  • 17:51 - 17:54
    NB: Tény, hogy a politikai szervezettség
    nagy mértékben nőtt
  • 17:54 - 17:56
    az emberi történelem során.
  • 17:56 - 17:59
    Először vadászó-gyűjtögető horda,
  • 17:59 - 18:01
    majd fejedelemség, városállamok, nemzetek,
  • 18:02 - 18:05
    most nemzetközi szervezeteink
    vannak, és így tovább.
  • 18:05 - 18:07
    Ismétlem,
  • 18:07 - 18:09
    hangsúlyozom,
  • 18:09 - 18:11
    hogy a tömeges megfigyelésnek
  • 18:11 - 18:12
    és a globális kormányzásnak
  • 18:12 - 18:16
    nyilvánvalóan komoly hátulütői,
    jelentős kockázatai vannak.
  • 18:16 - 18:18
    Csak rá szeretnék mutatni,
    hogy ha szerencsénk van,
  • 18:18 - 18:21
    lehet olyan világ is,
    ahol ezek lesznek a fekete golyó
  • 18:21 - 18:22
    túlélésének egyetlen esélyei.
  • 18:22 - 18:25
    CA: Ennek az elméletnek a logikája,
  • 18:25 - 18:26
    nekem úgy tűnik,
  • 18:26 - 18:30
    az, hogy nem lehet minden a miénk.
  • 18:30 - 18:32
    Igen, valahogy úgy.
  • 18:34 - 18:36
    Hogy úgy mondjam, sokunk naiv álma az,
  • 18:36 - 18:40
    hogy a technológia mindig
    a jó erőket szolgálja majd,
  • 18:40 - 18:43
    ne álljunk meg, folytassuk,
    amilyen gyorsan csak lehet,
  • 18:43 - 18:45
    ne figyeljünk oda következményekre,
  • 18:45 - 18:47
    ez nem választási lehetőség.
  • 18:47 - 18:49
    Meg tudjuk csinálni.
  • 18:49 - 18:50
    Ha megvan,
  • 18:50 - 18:52
    el kell fogadnunk
  • 18:52 - 18:54
    néhány kellemetlen velejáróját is,
  • 18:54 - 18:57
    és mintegy önmagunkkal kell
    fegyverkezési versenybe szállni:
  • 18:57 - 18:59
    ha akarjuk a hatalmat,
    korlátoznunk kell,
  • 18:59 - 19:01
    és jobb, ha kitaláljuk,
    hogyan korlátozhatjuk.
  • 19:01 - 19:04
    NB: Szerintem ez is egy lehetőség,
  • 19:04 - 19:07
    igen csábító lehetőség,
    bizonyos értelemben a legkönnyebb,
  • 19:07 - 19:09
    és talán működhet is.
  • 19:09 - 19:13
    De azt jelenti, a fekete golyó kihúzását
    nézve alapvetően sebezhetőek vagyunk.
  • 19:13 - 19:16
    Szerintem kis koordinációval,
  • 19:16 - 19:17
    ha mondjuk megoldottuk
  • 19:17 - 19:20
    a makro- és mikrokormányzási problémát,
  • 19:20 - 19:22
    akkor minden golyót
    kihúzhatunk az urnából,
  • 19:22 - 19:25
    és élvezhetjük ezek előnyeit.
  • 19:25 - 19:28
    CA: Ha viszont egy szimulációban
    élünk, számít ez egyáltalán?
  • 19:28 - 19:29
    Csak újrabootolunk.
  • 19:29 - 19:31
    (Nevetés)
  • 19:31 - 19:32
    NB: Akkor... én...
  • 19:32 - 19:35
    (Nevetés)
  • 19:35 - 19:36
    Erre nem számítottam.
  • 19:38 - 19:39
    CA: Szóval, mit gondolsz?
  • 19:39 - 19:44
    Ha összeillesztjük a részleteket, mennyire
    biztos, hogy halálra vagyunk ítélve?
  • 19:44 - 19:46
    (Nevetés)
  • 19:47 - 19:49
    Szeretem, ahogy nevetnek
    a kérdés hallatán.
  • 19:49 - 19:51
    NB: Mint egyének,
  • 19:51 - 19:55
    az idővel, amúgy is halálra
    vagyunk ítélve,
  • 19:55 - 19:57
    romlunk és öregszünk és hasonlók, nem?
  • 19:57 - 19:59
    (Nevetés)
  • 19:59 - 20:01
    Valójában ez kissé trükkös.
  • 20:01 - 20:03
    Ha a valószínűségre is
    kíváncsi, akkor először is:
  • 20:03 - 20:04
    kik vagyunk?
  • 20:04 - 20:07
    Ha nagyon öregek,
    a halál lehet természetes.
  • 20:07 - 20:10
    Ha nagyon fiatalok,
    lehet még száz évünk –
  • 20:10 - 20:12
    a valószínűség azon is
    múlhat, kiről van szó.
  • 20:12 - 20:16
    Aztán a küszöbérték: mi számít
    a civilizáció pusztulásának?
  • 20:16 - 20:22
    A tanulmányban nemcsak az
    egzisztenciális katasztrófákat
  • 20:22 - 20:23
    veszem figyelembe.
  • 20:23 - 20:25
    Ez csak meghatározás kérdése.
  • 20:25 - 20:26
    Mondjuk egymilliárd halott
  • 20:26 - 20:29
    vagy a GDP 50%-os csökkenése,
  • 20:29 - 20:31
    ám attól függően, mi a küszöbérték,
  • 20:31 - 20:33
    eltérő valószínűségi becslések jönnek ki.
  • 20:33 - 20:37
    Ám lehet, rémült optimistának tartanak.
  • 20:37 - 20:38
    (Nevetés)
  • 20:38 - 20:40
    CA: Te egy rémült optimista vagy,
  • 20:40 - 20:44
    és szerintem épp most
    rémítettél meg egy csomó másik ...
  • 20:44 - 20:46
    embert is.
  • 20:46 - 20:47
    (Nevetés)
  • 20:47 - 20:48
    NB: A szimulációban.
  • 20:48 - 20:49
    CA: Egy szimulációban.
  • 20:49 - 20:51
    Nick Bostrom, az elméd lenyűgöz,
  • 20:51 - 20:54
    köszönöm, hogy halálos rémületbe
    kergettél bennünket.
  • 20:54 - 20:56
    (Taps)
Title:
Így pusztíthatja el a civilizáció önmagát – és négy mód, ahogy ezt megelőzhetjük
Speaker:
Nick Bostrom
Description:

Az emberiség dolgozik a "fekete golyón": egy olyan technológiai áttörésen, amely, Nick Bostrom filozófus szerint, mindannyiunkat elpusztíthat. Ebben, a Chris Andersonnal, a TED elnökével folytatott éles elméjű, meglepően könnyed beszélgetésben Bostrom felvázolja azokat a sebezhetőségeket, amelyekkel szembe kell nézzünk, ha (vagy amikor) a felfedezéseink felett elveszítjük a kontrollt – és felfedi azt is, hogyan akadályozhatjuk meg önnön jövőbeli pusztulásunkat.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09
  • Sziasztok!
    Megnéznétek, jó-e ygy? Kicsit összehangoltam a számokat, személyeket.

Hungarian subtitles

Revisions