Return to Video

Як цивілізація може самознищитися та 4 способи запобігти цьому

  • 0:00 - 0:03
    Кріс Андерсон: Нік Бостром.
  • 0:03 - 0:07
    Ви вже встигли подати нам
    безліч божевільних ідей.
  • 0:07 - 0:09
    Десь два десятки років тому
  • 0:09 - 0:12
    ви обстоювали думку, що ми всі
    живемо в симуляції,
  • 0:12 - 0:13
    чи то радше жили.
  • 0:13 - 0:15
    А нещодавно
  • 0:15 - 0:19
    ви в дуже яскравих прикладах
    зобразили, до якого лиха може привести
  • 0:19 - 0:22
    загальний штучний інтелект.
  • 0:22 - 0:25
    Цього ж року ви збираєтеся
    видати статтю,
  • 0:25 - 0:29
    в якій представлено
    таку собі гіпотезу вразливого світу.
  • 0:29 - 0:34
    І сьогодні ми маємо на меті презентувати
    ілюстрований посібник з цього питання.
  • 0:34 - 0:37
    Отже, почнімо.
  • 0:37 - 0:40
    Що це за гіпотеза?
  • 0:40 - 0:42
    Нік Бостром: Це спроба уявити таку собі
  • 0:42 - 0:46
    структурну властивість
    теперішнього стану людства.
  • 0:47 - 0:49
    Вам подобається метафора урни,
  • 0:49 - 0:51
    тож її я й використаю для пояснення.
  • 0:51 - 0:56
    Уявіть собі велику урну,
    наповнену кульками —
  • 0:56 - 1:00
    ідеями, методами,
    можливими технологіями.
  • 1:00 - 1:05
    Історію людської творчості
    можна показати як:
  • 1:05 - 1:08
    ви запускаєте руку в цю урну
    та виймаєте з неї одну кульку за іншою.
  • 1:08 - 1:12
    Досі це приносило нам користь, так?
  • 1:12 - 1:14
    Ми витягнули багато білих кульок,
  • 1:14 - 1:17
    декілька сірих — це сумнівні переваги.
  • 1:17 - 1:21
    Але ми ще не витягнули
    чорної кульки —
  • 1:21 - 1:27
    технологію, що неодмінно знищить
    цивілізацію, яка її винайде.
  • 1:27 - 1:31
    Отже, в статті я розмірковую про те,
    чим саме може виявитись така чорна кулька.
  • 1:31 - 1:33
    К.А.: Отже, цю кульку ви визначаєте
  • 1:33 - 1:37
    як таку, що неодмінно
    призведе до руйнації цивілізації.
  • 1:37 - 1:42
    Н.Б.: Якщо тільки ми не вийдемо
    з усталеного напіванархічного стану.
  • 1:42 - 1:44
    Але, так би мовити,
    за загальним принципом.
  • 1:44 - 1:48
    К.А.: Отже, ви переконуєте,
  • 1:48 - 1:50
    демонструючи щось
    на кшталт контрприкладів,
  • 1:50 - 1:53
    і вважаєте, що досі нам просто щастило,
  • 1:53 - 1:55
    ми могли б витягнути кульку смерті,
  • 1:55 - 1:56
    навіть не здогадуючись про це.
  • 1:56 - 1:58
    "Постійний прогрес механіки небесних тіл
  • 1:58 - 2:00
    створить водневу бомбу",
    Ісаак Ньютон (ні) Нік Бостром.
  • 2:00 - 2:02
    Ця цитата — що вона означає?
  • 2:02 - 2:03
    Н.Б.: Думаю, вона просто ілюструє,
  • 2:03 - 2:05
    як складно передбачити,
  • 2:05 - 2:08
    до чого призведуть головні відкриття.
  • 2:08 - 2:11
    Ми просто не здатні на це.
  • 2:11 - 2:15
    Бо ми непогано навчилися витягати кульки,
  • 2:15 - 2:18
    але таки не вміємо покласти кульку
    назад до урни.
  • 2:18 - 2:21
    Можемо винаходити, але не "розвинаходити".
  • 2:22 - 2:24
    Отже, наша стратегія,
    яка б вона не була —
  • 2:24 - 2:27
    це сподіватися, що в урні
    немає чорної кульки.
  • 2:27 - 2:31
    К.А.: Тобто, якщо її витягнено,
    то вже витягнено, і назад не повернеш,
  • 2:31 - 2:32
    і на вашу думку, нам таланить.
  • 2:32 - 2:35
    Поясніть декілька з цих прикладів.
  • 2:35 - 2:38
    Ви говорите про різні типи вразливості.
  • 2:38 - 2:40
    Н.Б.: Цей тип найлегший
    для розуміння:
  • 2:40 - 2:42
    технологія, яка значно полегшує
  • 2:42 - 2:44
    руйнування у величезних масштабах.
  • 2:44 - 2:47
    [Вразливість типу 1:
    Демократизація масового знищення]
  • 2:47 - 2:51
    Синтетична біологія може бути
    гарним ґрунтом для такої чорної кульки,
  • 2:51 - 2:54
    але можна згадати багато інших речей...
  • 2:54 - 2:56
    подумайте про геоінженерію —
    чудова річ, вірно?
  • 2:56 - 2:58
    Можна боротися з глобальним потеплінням.
  • 2:58 - 3:01
    Але й не слід робити її занадто доступною,
  • 3:01 - 3:03
    адже тоді будь-хто, навіть чиясь бабуся,
  • 3:03 - 3:06
    матиме можливість радикально
    змінювати клімат Землі.
  • 3:06 - 3:10
    Або, скажімо, летальні автономні дрони,
  • 3:10 - 3:13
    убивчі, комашиного розміру рої,
    що виробляються масово.
  • 3:14 - 3:17
    Нанотехнології,
    загальний штучний інтелект.
  • 3:17 - 3:19
    К.А.: Ви стверджуєте в статті,
  • 3:19 - 3:21
    що нам просто поталанило,
    адже коли ми з'ясували,
  • 3:21 - 3:25
    що ядерна енегрія дозволяє створити бомбу,
  • 3:25 - 3:26
    а могло б так статися,
  • 3:26 - 3:28
    що створення бомби
  • 3:28 - 3:32
    вимагало би значно простіших,
    доступних ресурсів.
  • 3:32 - 3:35
    Р.Б.: Так, згадаймо 1930-ті,
  • 3:35 - 3:40
    коли ми зробили перші прориви
    в ядерній фізиці.
  • 3:40 - 3:44
    От, якийсь геній зрозуміє, як можна
    створити ядерну ланцюгову реакцію,
  • 3:44 - 3:47
    а потім усвідомлює, що це може
    призвести до появи бомби.
  • 3:47 - 3:49
    Ми працюємо ще трохи,
  • 3:49 - 3:52
    і виявляється, що створення бомби
  • 3:52 - 3:54
    вимагає збагаченого урану чи плутонію,
  • 3:54 - 3:56
    а ці матеріали дістати дуже складно.
  • 3:56 - 3:58
    Потрібні ультрацентрифуги,
  • 3:58 - 4:02
    потрібні реактори
    та велетенські об'єми енергії.
  • 4:02 - 4:04
    Але уявімо собі, що натомість
  • 4:04 - 4:08
    знайшовся би значно легший спосіб
    вивільнити енергію атома.
  • 4:08 - 4:11
    Наприклад, випікаючи пісок
    в мікрохвильовій печі,
  • 4:11 - 4:12
    чи щось подібне,
  • 4:12 - 4:14
    можна було б викликати ядерний вибух.
  • 4:14 - 4:16
    Зрозуміло, що це фізично неможливо.
  • 4:16 - 4:18
    Та хіба можна таке передбачити,
  • 4:18 - 4:21
    перш ніж дослідиш
    усі потрібні фізичні закони?
  • 4:21 - 4:22
    К.А.: Та чи не можна сказати,
  • 4:22 - 4:24
    що життя на Землі може розвиватися
  • 4:24 - 4:27
    тільки за певних стабільних умов,
  • 4:27 - 4:32
    і якби викликати потужну ядерну реакцію
    було відносно легко,
  • 4:32 - 4:33
    Земля ніколи б не була стабільною,
  • 4:33 - 4:35
    і ми ніколи б не з'явились.
  • 4:35 - 4:38
    Н.Б.: Так, якщо тільки не йдеться
    про щось, що легко робиться навмисно,
  • 4:38 - 4:41
    але випадково не трапляється.
  • 4:41 - 4:43
    Наприклад, можна легко
  • 4:43 - 4:45
    скласти у стос 10 цеглин,
  • 4:45 - 4:48
    але в природі стоси з 10-ти цеглин
    не зустрічаються.
  • 4:48 - 4:50
    К.А.: Отже, мабуть, саме це
  • 4:50 - 4:52
    турбує нас найбільше.
  • 4:52 - 4:55
    Тож, синтетична біологія
    обіцяє в найближчому майбутньому,
  • 4:55 - 4:58
    ймовірно, стати найшвидшим шляхом
    до такого результату.
  • 4:58 - 5:01
    Н.Б.: Так, уявіть собі, як би то було,
  • 5:01 - 5:05
    якщо будь-хто, скажімо,
    за день роботи на власній кухні,
  • 5:05 - 5:07
    міг би зруйнувати місто.
  • 5:07 - 5:10
    Важко уявити, як сучасна
    цивілізація в її сьогоднішньому вигляді
  • 5:10 - 5:12
    могла б таке пережити.
  • 5:12 - 5:14
    Адже на будь-яке
    мільйонне населення
  • 5:14 - 5:17
    завжди знайдеться хтось,
    хто матиме свої причини
  • 5:17 - 5:19
    скористатися такою руйнівною силою.
  • 5:19 - 5:23
    Отже, якщо цей апокаліптичний радикал
  • 5:23 - 5:25
    вирішив би зруйнувати місто,
  • 5:25 - 5:26
    то його було б зруйновано.
  • 5:26 - 5:29
    К.А.: Є й інший тип вразливості.
  • 5:29 - 5:31
    Розкажіть про нього.
  • 5:31 - 5:35
    Н.Б.: Так, якщо ці
    очевидні типи чорних кульок
  • 5:35 - 5:37
    просто дозволяють багато чого винищити,
  • 5:37 - 5:39
    то інші стимулюватимуть людей
  • 5:39 - 5:41
    до згубних учинків.
  • 5:41 - 5:44
    [Вразливість типу 2-А:
    Погані стимули для могутніх гравців]
  • 5:44 - 5:48
    Цей інший тип, назвімо його тип 2-А,
  • 5:48 - 5:53
    це певна технологія,
    що спонукає великі держави
  • 5:53 - 5:57
    використовувати свою велетенську
    потужність для знищення.
  • 5:57 - 6:00
    Наприклад, ядерна зброя
    майже з цим впоралась, так?
  • 6:02 - 6:05
    Ми витратили більше 10 трильйонів доларів
  • 6:05 - 6:08
    на побудову 70 000 ядерних боєголовок
  • 6:08 - 6:10
    та тримаємо їх у підвищеній готовності.
  • 6:10 - 6:12
    Кілька разів протягом холодної війни
  • 6:12 - 6:14
    ми майже знищили одне одного.
  • 6:14 - 6:17
    І не тому, що багатьом подобалась ідея
  • 6:17 - 6:20
    витратити 10 трильйонів
    на самознищення,
  • 6:20 - 6:23
    але ситуація склалась така,
    що ми опинилися...
  • 6:23 - 6:24
    все могло скінчитися гірше.
  • 6:24 - 6:26
    Уявіть, що перший удар
    не мав би великих наслідків.
  • 6:26 - 6:29
    Тоді в кризовій ситуації
  • 6:29 - 6:30
    було б дуже важко
  • 6:30 - 6:33
    утриматися від запуску
    усіх наявних ядерних ракет.
  • 6:33 - 6:36
    Хоча б через страх, що супротивник
    встигне першим.
  • 6:36 - 6:38
    К.А.: Так, гарантоване взаємне знищення
  • 6:38 - 6:41
    дещо стабілізувало холодну війну —
  • 6:41 - 6:43
    без цього нас могло б уже й не бути.
  • 6:43 - 6:45
    Н.Б.: Рівновага могла би
    виявитися хиткішою.
  • 6:45 - 6:47
    Та й технологія могла б мати
    інші властивості.
  • 6:47 - 6:50
    Укласти угоду про контроль над озброєнням
  • 6:50 - 6:51
    було б складніше,
  • 6:51 - 6:54
    якби замість ядерної була б менша
    за розміром чи менш помітна зброя.
  • 6:54 - 6:57
    К.А.: Крім поганих стимулів
    для потужних гравців
  • 6:57 - 7:00
    вас також непокоять погані стимули
    для нас усіх, як-от у типі 2-Б.
  • 7:00 - 7:05
    Н.Б.: Так, візьмемо, наприклад,
    проблему глобального потепління.
  • 7:07 - 7:09
    Існує безліч маленьких зручностей,
  • 7:09 - 7:11
    які змушують нас робити маленькі справи,
  • 7:11 - 7:14
    які самі по собі нічого не змінюють, так?
  • 7:14 - 7:16
    Але коли так роблять мільйони людей,
  • 7:16 - 7:18
    сукупно це призводить до шкоди.
  • 7:18 - 7:21
    Втім глобальне потепління
    могло б бути значно гіршим.
  • 7:21 - 7:24
    Маємо параметр кліматичної чутливості.
  • 7:24 - 7:26
    Він описує, наскільки теплішає,
  • 7:26 - 7:28
    якщо викидати певний об'єм
    парникових газів.
  • 7:28 - 7:30
    [Вразливість типу 2-Б:
    Погані стимули для населення]
  • 7:30 - 7:33
    Але уявімо,
  • 7:33 - 7:35
    що за такого ж об'єму парникових викидів
  • 7:35 - 7:37
    температура зростала б
  • 7:37 - 7:41
    не, скажімо, на 4,5 градуси до 2100 року,
  • 7:41 - 7:44
    а на 15 чи 20 градусів.
  • 7:44 - 7:47
    Тоді б ми опинилися
    в дуже неприємному становищі.
  • 7:47 - 7:50
    Або припустімо, що відновлювану енегрію
    було б складніше добути,
  • 7:50 - 7:53
    або резерв корисних копалин
    був би більший.
  • 7:53 - 7:55
    К.А.: Чи не можна в такому разі сказати,
  • 7:55 - 7:57
    що якби наші сьогоднішні дії
  • 7:57 - 8:02
    призвели б до підвищення в 10 градусів
    за осяжний період часу,
  • 8:02 - 8:05
    людство таки відірвало б сідниці
    від дивана і щось зробило.
  • 8:05 - 8:08
    Ми, звісно, дурні, але, може,
    все ж таки не настільки.
  • 8:08 - 8:10
    А може, і настільки.
  • 8:10 - 8:11
    Н.Б.: Я б на це не сподівався.
  • 8:11 - 8:13
    (Сміх)
  • 8:13 - 8:15
    Можна уявити й інші особливості.
  • 8:15 - 8:20
    Зараз, наприклад, важко
    перейти на відновлювану енегретику,
  • 8:20 - 8:22
    але це можливо.
  • 8:22 - 8:25
    Але якби фізика процесів
    дещо різнилася,
  • 8:25 - 8:27
    цей перехід міг би бути значно дорожчим.
  • 8:28 - 8:30
    К.А.: То як ви це бачите, Нік?
  • 8:30 - 8:32
    Якщо скласти докупи всі ці можливості:
  • 8:32 - 8:37
    нашу землю, людство —
    чи можна вважати
  • 8:37 - 8:38
    цей світ вразливим?
  • 8:38 - 8:41
    Чи в майбутньому на нас чекає
    чорна кулька?
  • 8:44 - 8:45
    Н.Б.: Важко сказати.
  • 8:45 - 8:50
    Я вважаю, що в урні можуть опинитися
    кілька чорних кульок —
  • 8:50 - 8:52
    скидається на те.
  • 8:52 - 8:54
    Там можуть бути і кілька золотих кульок,
  • 8:54 - 8:58
    що допоможуть захиститися від чорних.
  • 8:58 - 9:01
    В якому порядку їх витягнуть — невідомо.
  • 9:01 - 9:04
    К.А.: Одне з можливих критичних
    заперечень цієї ідеї полягає в тому,
  • 9:04 - 9:10
    що вона натякає
    на визначеність майбутнього.
  • 9:10 - 9:13
    Що кулька або є, або її немає.
  • 9:13 - 9:16
    У певному сенсі
  • 9:16 - 9:18
    не в таке майбутнє мені б хотілося вірити.
  • 9:18 - 9:21
    Я б хотів вірити, що майбутнє невизначене,
  • 9:21 - 9:23
    що його визначають наші рішення,
  • 9:23 - 9:25
    те, які саме кульки
    ми витягнемо з тієї урни.
  • 9:25 - 9:30
    Н.Б.: Якщо ми й далі
    робитимемо винаходи,
  • 9:30 - 9:32
    зрештою ми витягнемо всі кульки.
  • 9:32 - 9:36
    Я б сказав, що існує певна
    слабка форма технологічного детермінізму,
  • 9:36 - 9:38
    яка є цілком слушною.
  • 9:38 - 9:40
    Наприклад, навряд чи
    ви знайдете суспільство,
  • 9:40 - 9:44
    яке водночас використовує
    крем'яні сокири та реактивні літаки.
  • 9:44 - 9:48
    Технологію можна уявити
    набором дозволеностей.
  • 9:48 - 9:51
    Тобто технологія — це те, що дає
    можливість робити певні речі
  • 9:51 - 9:53
    та досягати у світі певних результатів.
  • 9:53 - 9:56
    Як її зрештою використовувати,
    люди, звісно, обирають самі.
  • 9:56 - 9:59
    Але якщо подумати про ці
    три види вразливостей,
  • 9:59 - 10:02
    дуже важко уявити, як саме
    ми їх вирішимо використати.
  • 10:02 - 10:06
    У випадку вразливості типу один,
    цієї потужної нищівної сили,
  • 10:06 - 10:10
    припущення, що серед мільйонів
    людей знайдуться такі,
  • 10:10 - 10:13
    що захочуть використати її для знищення,
    не є переконливим.
  • 10:13 - 10:15
    К.А.: Мене найбільше непокоїть аргумент,
  • 10:15 - 10:20
    згідно якого ми таки маємо
    певну можливість зазирнути в урну,
  • 10:20 - 10:23
    і схоже на те, що ми таки приречені.
  • 10:23 - 10:28
    Наприклад, якщо вірити
    у прискорення потужності,
  • 10:28 - 10:30
    що технологія, по суті, прискорюється,
  • 10:30 - 10:33
    і ми створюємо засоби,
    які роблять нас могутнішими,
  • 10:33 - 10:35
    тоді в певний момент
    ми опинимося на етапі,
  • 10:35 - 10:38
    коли один окремий індивідуум
    зможе нас усіх знищити,
  • 10:38 - 10:41
    і в такому разі нам кінець.
  • 10:41 - 10:44
    Надзвичайно бентежний аргумент, правда?
  • 10:44 - 10:46
    Н.Б.: О, так.
  • 10:46 - 10:48
    (Сміх)
  • 10:48 - 10:49
    Я думаю...
  • 10:51 - 10:52
    Так, ми стаємо могутнішими,
  • 10:52 - 10:56
    і використовувати нашу могутність
    з часом стає все простіше,
  • 10:56 - 11:00
    але ми також можемо винаходити
    технології, що допоможуть контролювати,
  • 11:00 - 11:02
    як саме люди використовують цю силу.
  • 11:02 - 11:05
    К.А.: Поговорімо про цю реакцію.
  • 11:05 - 11:07
    Припустімо, що враховуючи
    всі ті можливості,
  • 11:07 - 11:09
    які є на сьогодні —
  • 11:09 - 11:13
    не тільки синтетична біологія,
    це також кібервійна,
  • 11:13 - 11:17
    штучний інтелект і таке інше —
  • 11:17 - 11:21
    на нас у майбутньому може чекати
    дійсно похмура доля.
  • 11:21 - 11:23
    Що ми можемо вдіяти?
  • 11:23 - 11:25
    [Реакція 1: Обмежити розвиток технології]
  • 11:25 - 11:28
    Ви говорили також
    і про чотири можливі реакції.
  • 11:28 - 11:31
    Н.Б.: Обмеження технологічного розвитку
    не видається перспективним,
  • 11:31 - 11:35
    якщо ми говоримо про загальну зупинку
    технологічного прогресу.
  • 11:35 - 11:36
    Не вважаю це ані можливим,
  • 11:36 - 11:38
    ані бажаним, навіть якби
    то було нам під силу.
  • 11:38 - 11:41
    Небагато знайдеться сфер діяльності,
  • 11:41 - 11:44
    де б захотілося сповільнити
    технологічний прогрес.
  • 11:44 - 11:47
    Не хотілося б, певно,
    пришвидшувати розвиток біологічної зброї
  • 11:47 - 11:49
    або, скажімо, ділення ізотопів,
  • 11:49 - 11:52
    яке може спростити створення
    ядерної зброї.
  • 11:52 - 11:56
    К.А.: Раніше я б цілком з цим погодився.
  • 11:56 - 11:59
    Але спробую все ж таки
    трохи посперечатися.
  • 11:59 - 12:01
    Оскільки, по-перше,
  • 12:01 - 12:03
    якщо розглянути історію
    останніх двох десятиріч,
  • 12:03 - 12:07
    курс завжди був такий:
    повний вперед, все гаразд,
  • 12:07 - 12:09
    іншого шляху все одно немає.
  • 12:09 - 12:13
    Але якщо поглянути на глобалізацію
    та її стрімке пришвидшення,
  • 12:13 - 12:16
    якщо поглянути на стратегію
    "роби швидко, ламай речі"
  • 12:16 - 12:19
    та її результатів,
  • 12:19 - 12:21
    а потім подивитися на потеніцал
    синтетичної біології,
  • 12:21 - 12:26
    то в мене з'являються сумніви в тому,
    чи потрібно так летіти вперед
  • 12:26 - 12:27
    без жодних обмежень
  • 12:27 - 12:31
    у світ, де ДНК-принтер
    може опинитися в кожному домі
  • 12:31 - 12:32
    та шкільній лабораторії.
  • 12:33 - 12:35
    Адже є ж якісь обмеження, правда?
  • 12:35 - 12:38
    Н.Б.: Можливо, в тій частині,
    що стосується "не можливо".
  • 12:38 - 12:40
    Якщо ви вважаєте необхідним це зупинити,
  • 12:40 - 12:42
    лишається проблема здійсненності.
  • 12:42 - 12:44
    Користі буде небагато,
    якщо якась одна нація...
  • 12:44 - 12:46
    К.А.: Ні, якщо одна нація, це не допоможе,
  • 12:46 - 12:49
    але ж ми й раніше підписували угоди.
  • 12:49 - 12:53
    Адже саме так ми пережили ядерну загрозу:
  • 12:53 - 12:54
    ми зібралися і пройшли
  • 12:54 - 12:57
    весь важкий шлях переговорів.
  • 12:57 - 13:02
    Я тільки думаю, чи не слід нам,
    керуючись глобальними пріоритетами,
  • 13:02 - 13:04
    зібратися і спробувати вже зараз
  • 13:04 - 13:06
    почати перемовини
    про насправді жорсткі обмеження
  • 13:06 - 13:09
    проведення біологічних дослідів,
  • 13:09 - 13:12
    адже якраз саме це
    не слід було б демократизувати.
  • 13:12 - 13:14
    Н.Б.: З цим я цілком згоден...
  • 13:14 - 13:18
    Було б, наприклад, бажано
  • 13:18 - 13:22
    перетворити синтез ДНК на сервіс,
  • 13:22 - 13:25
    адже зараз кожна лабораторія
  • 13:25 - 13:27
    має свій апарат.
  • 13:27 - 13:29
    Зробити чотири-п'ять
    таких місць на цілий світ,
  • 13:29 - 13:33
    куди можна надіслати свій цифровий проєкт,
    а назад отримати ДНК, вірно?
  • 13:33 - 13:35
    Тоді була б можливість...
  • 13:35 - 13:37
    якщо колись з'явилася б така необхідність,
  • 13:37 - 13:39
    ми б мали обмежену кількість
    стратегічних точок.
  • 13:39 - 13:43
    Отже, думаю, слід шукати
    певних особливих умов,
  • 13:43 - 13:45
    за яких можна було б підсилити констроль.
  • 13:45 - 13:47
    К.А.: Тобто, по суті, ви вважаєте,
  • 13:47 - 13:50
    що самого стримування
    нам буде недостатньо.
  • 13:50 - 13:52
    Хтось десь, якась, скажімо,
    Північна Корея,
  • 13:52 - 13:56
    зрештою здобуде ці знання,
  • 13:56 - 13:57
    якщо вони десь чекають.
  • 13:57 - 14:00
    Н.Б.: За теперішніх умов
    це здається ймовірним.
  • 14:00 - 14:02
    Йдеться не лише
    про синтетичну біологію.
  • 14:02 - 14:04
    Адже будь-яка глибока
    нова зміна у світі
  • 14:04 - 14:06
    може виявитися чорною кулькою.
  • 14:06 - 14:08
    К.А.: Розгляньмо ще одну можливу реакцію.
  • 14:08 - 14:10
    Н.Б.: Ця також, думаю,
    має обмежені можливості.
  • 14:10 - 14:14
    Повернімося до вразливості першого типу:
    наприклад, якщо би можна було
  • 14:14 - 14:15
    зменшити кількість людей,
  • 14:15 - 14:17
    [Реакція 2: Усунути правопорушників]
  • 14:17 - 14:19
    що можуть бажати знищити світ,
  • 14:19 - 14:22
    якби вони мали для цього необхідні засоби,
  • 14:22 - 14:23
    то було б непогано.
  • 14:23 - 14:26
    К.А.: На цьому зображенні,
    яке ви попросили нас зробити,
  • 14:26 - 14:27
    бачимо дронів, що літають світом
  • 14:27 - 14:29
    і розпізнають обличчя.
  • 14:29 - 14:32
    Помічаючи когось з ознаками
    соціопатичної поведінки,
  • 14:32 - 14:34
    вони заливають його любов'ю
    і лагодять його.
  • 14:34 - 14:36
    Н.Б.: Тут, мабуть, ідеться
    про гібридну картину.
  • 14:36 - 14:40
    "Усувати" може значити
    як ув'язнити чи вбити,
  • 14:40 - 14:43
    так і схилити до кращого бачення світу.
  • 14:43 - 14:45
    Але справа ось у чому:
  • 14:45 - 14:47
    скажімо, цей сценарій є успішним,
  • 14:47 - 14:50
    нам вдається зменшити кількість
    таких людей наполовину.
  • 14:50 - 14:52
    Якщо ми обираємо шлях переконання,
  • 14:52 - 14:54
    то маємо змагатися проти
    усіх інших могутніх сил,
  • 14:54 - 14:56
    що намагаються переконувати людей:
  • 14:56 - 14:58
    партії, релігія, система освіти.
  • 14:58 - 15:00
    Але нехай вдалося-таки скоротити вдвічі.
  • 15:00 - 15:02
    Не думаю, що і ризик
    буде скорочено вдвічі.
  • 15:02 - 15:04
    Можливо, на відсотків 5 чи 10.
  • 15:04 - 15:08
    К.А.: Отже, ви не радите ставити
    майбутнє людства на другий спосіб.
  • 15:08 - 15:11
    Н.Б.: Думаю, стримувати й переконувати —
    справа корисна,
  • 15:11 - 15:14
    та не варто покладатися лише на це.
  • 15:14 - 15:15
    К.А.: Як щодо третього?
  • 15:15 - 15:18
    Н.Б.: Думаю, є два основних способи,
  • 15:18 - 15:20
    які можна використовувати,
    аби стабілізувати світ
  • 15:20 - 15:22
    [Реакція 3: Масове стеження]
  • 15:22 - 15:25
    проти цілого спектру можливих загроз.
  • 15:25 - 15:27
    Нам, певно, знадобляться обидва.
  • 15:27 - 15:31
    Отже, перший є надзвичайно ефективним
  • 15:31 - 15:33
    для запобігання злочинам.
  • 15:33 - 15:35
    Йдеться про можливість втручання.
  • 15:35 - 15:38
    Якщо хтось почне робити щось небезпечне,
  • 15:38 - 15:40
    то їх можна буде зупинити
    у реальному часі.
  • 15:40 - 15:43
    Це б вимагало повсюдного стеження,
  • 15:43 - 15:45
    коли кожен постійно знаходиться
    під контролем.
  • 15:46 - 15:49
    К.А.: Це вже майже як у фільмі
    "Особлива думка".
  • 15:49 - 15:51
    Н.Б.: Тут мав би бути залучений
    штучний інтелект,
  • 15:51 - 15:55
    діяли б великі центри
    спостереження і таке інше.
  • 15:57 - 16:01
    К.А.: Знаєте, сьогодні "масове стеження"
    не найпопулярніші слова.
  • 16:01 - 16:02
    (Сміх)
  • 16:03 - 16:05
    Н.Б.: Так, оцей маленький пристрій,
  • 16:05 - 16:09
    таке собі намисто, яке потрібно
    мати на собі постійно,
  • 16:09 - 16:11
    з різнонаправленими камерами.
  • 16:11 - 16:14
    Аби він краще сприймався,
  • 16:14 - 16:16
    назвіть його, скажімо, "емблемою свободи".
  • 16:16 - 16:18
    (Сміх)
  • 16:18 - 16:20
    К.А.: Добре.
  • 16:20 - 16:22
    Отака в нас розмова, друзі,
  • 16:22 - 16:25
    саме тому вона така захоплююча.
  • 16:25 - 16:28
    Н.Б.: Насправді, про це можна
    говорити і говорити,
  • 16:28 - 16:29
    це очевидно.
  • 16:29 - 16:31
    Та й проблем і ризиків тут повно, правда?
  • 16:31 - 16:33
    Ми ще до цього, може, повернемось.
  • 16:33 - 16:36
    Отже, остання можливість
    загальної стабілізації —
  • 16:36 - 16:37
    [Реакція 4: Глобальне управління]
  • 16:37 - 16:39
    це виправлення управлінських похибок.
  • 16:39 - 16:43
    Отже, нагляд стосувався б, скажімо,
    управлінських похибок на мікрорівні,
  • 16:43 - 16:46
    як-от не допустити дійсно
    протизаконних учинків.
  • 16:46 - 16:49
    І є відповідна управлінська похибка
  • 16:49 - 16:51
    на макрорівні, на світовому рівні.
  • 16:51 - 16:54
    Потрібна надійна можливість запобігти
  • 16:54 - 16:57
    найгіршим координаційним помилкам
    на світовому рівні,
  • 16:57 - 17:01
    уникнути воєн між могутніми країнами,
  • 17:01 - 17:02
    гонки озброєнь,
  • 17:02 - 17:06
    катастрофічних спільних трагедій,
  • 17:08 - 17:12
    аби впоратися з загрозами типу 2-А.
  • 17:12 - 17:14
    К.А.: Термін "глобальне управління"
  • 17:14 - 17:16
    зараз точно не на піку популярності,
  • 17:16 - 17:19
    але чи не можна стверджувати,
  • 17:19 - 17:20
    що за всю історію людства
  • 17:20 - 17:25
    на кожному етапі зростання
    технологічної потужності
  • 17:25 - 17:29
    люди реорганізовувалися
    і, так би мовити, централізували владу.
  • 17:29 - 17:32
    Наприклад, коли з'являлася загроза,
    що владу може захопити
  • 17:32 - 17:34
    якесь мандрівне угрупування,
  • 17:34 - 17:36
    у відповідь лунало: "Ні, цього не можна,
  • 17:36 - 17:38
    адже є держава і централізована влада,
  • 17:38 - 17:40
    поліція чи армія."
  • 17:40 - 17:45
    Загроза того, що одна людина
    чи група людей
  • 17:45 - 17:46
    зможуть знищити людство, означає,
  • 17:46 - 17:49
    що колись нам, можливо,
    доведеться хоч певною мірою
  • 17:49 - 17:51
    піти цим шляхом, хіба ні?
  • 17:51 - 17:54
    Н.Б.: Рівень політичної організації,
    звісно, зріс протягом історії людства,
  • 17:54 - 17:56
    це правда.
  • 17:56 - 17:59
    Спочатку були групи мисливців-збирачів,
  • 17:59 - 18:01
    потім племена, поліси, нації,
  • 18:01 - 18:05
    а тепер міжнародні організації і так далі.
  • 18:05 - 18:07
    Але я хотів би знову наголосити,
  • 18:07 - 18:09
    безумовно існують
  • 18:09 - 18:11
    великі недоліки і величезні ризики
  • 18:11 - 18:12
    як у випадку масового нагляду,
  • 18:12 - 18:16
    так і у випадку глобального управління.
  • 18:16 - 18:18
    Хочу відмітити, якщо нам пощастить,
    і світ буде таким,
  • 18:18 - 18:21
    що тільки цими способами
    ми й зможемо захиститися
  • 18:21 - 18:22
    від чорної кульки.
  • 18:22 - 18:25
    К.А.: Логіка цієї теорії,
  • 18:25 - 18:26
    здається мені,
  • 18:26 - 18:30
    полягає в нашому визнанні
    неможливості отримати все.
  • 18:30 - 18:33
    Це, можна сказати, така наївна мрія,
  • 18:33 - 18:36
    яку багато з нас плекали,
  • 18:36 - 18:40
    що технологія завжди буде силою добра,
  • 18:40 - 18:43
    і треба йти вперед, не зупинятися,
    якнайшвидше,
  • 18:43 - 18:45
    не звертаючи уваги на певні наслідки.
  • 18:45 - 18:47
    Та це насправді так не працює.
  • 18:47 - 18:49
    Так не вийде.
  • 18:49 - 18:50
    Якщо робити так,
  • 18:50 - 18:52
    то нам заодно доведеться прийняти
  • 18:52 - 18:54
    деякі інші неприємні речі,
  • 18:54 - 18:57
    почати таку собі гонку озброєння
    з самими собою:
  • 18:57 - 18:59
    хочеш силу — навчись її обмежувати,
  • 18:59 - 19:01
    знайди спосіб, як це зробити.
  • 19:01 - 19:04
    Н.Б.: Думаю, це варіант,
  • 19:04 - 19:07
    і то дуже спокусливий,
    можна сказати, найпростіший,
  • 19:07 - 19:09
    і він може спрацювати,
  • 19:09 - 19:13
    але він означає, що ми, по суті, ризикуємо
    витягнути чорну кульку.
  • 19:13 - 19:16
    Думаю, за умови деякої координації,
  • 19:16 - 19:18
    якщо ми вирішимо проблеми
  • 19:18 - 19:20
    макро- та мікроуправління,
  • 19:20 - 19:22
    то зможемо витягнути з урни всі кульки
  • 19:22 - 19:25
    та отримати від цього велику користь.
  • 19:25 - 19:28
    К.А.: Але якщо ми живемо в симуляції,
    то хіба це має значення?
  • 19:28 - 19:30
    Ми лише перезавантажимось і все.
  • 19:30 - 19:31
    (Сміх)
  • 19:31 - 19:32
    Н.Б.: Тоді... я...
  • 19:32 - 19:35
    (Сміх)
  • 19:35 - 19:36
    Цього я не чекав.
  • 19:38 - 19:39
    К.А.: То як ви вважаєте?
  • 19:39 - 19:44
    Якщо скласти все докупи, чи велика
    вірогідність того, що ми приречені?
  • 19:44 - 19:46
    (Сміх)
  • 19:46 - 19:49
    Люблю, як люди сміються,
    коли питаєш про таке.
  • 19:49 - 19:51
    Н.Б.: На індивідуальному рівні
  • 19:51 - 19:55
    ми за будь-яких обставин приречені,
    тільки за певним графіком.
  • 19:55 - 19:57
    Ми ж усі чахнемо і старіємо, правда?
  • 19:57 - 19:59
    (Сміх)
  • 19:59 - 20:01
    Насправді, це дещо складно.
  • 20:01 - 20:03
    Якщо говорити про ймовірність,
    то спочатку треба визначитися,
  • 20:03 - 20:05
    хто є "ми".
  • 20:05 - 20:07
    Якщо ви дуже старий, то помрете,
    мабуть, природною смертю,
  • 20:07 - 20:10
    якщо молодий,
    то можете мати 100 років...
  • 20:10 - 20:12
    все залежить від того, кого ви спитаєте.
  • 20:12 - 20:16
    Далі, межі. Що вважати
    руйнуванням цивілізації?
  • 20:16 - 20:23
    В статті я говорю не лише
    про екзистенційну катастрофу.
  • 20:23 - 20:25
    Тут справа у визначенні.
  • 20:25 - 20:26
    Я кажу: мільярд мертвих
  • 20:26 - 20:29
    чи зниження світового ВВП на 50%,
  • 20:29 - 20:31
    але оцінка вірогідності залежатиме
  • 20:31 - 20:33
    від визначеної вами межі.
  • 20:33 - 20:37
    Гадаю, мене можна віднести
    до наляканих оптимістів.
  • 20:37 - 20:38
    (Сміх)
  • 20:38 - 20:40
    К.А.: Ви наляканий оптиміст,
  • 20:40 - 20:44
    який щойно, думаю, створив
    багато інших наляканих...
  • 20:44 - 20:46
    людей.
  • 20:46 - 20:47
    (Сміх)
  • 20:47 - 20:48
    Н.Б.: В симуляції.
  • 20:48 - 20:49
    К.А.: В симуляції.
  • 20:49 - 20:51
    Нік Бостром, ваш розум мене вражає.
  • 20:51 - 20:54
    Красно дякую, що нажахали нас усіх.
  • 20:54 - 20:56
    (Оплески)
Title:
Як цивілізація може самознищитися та 4 способи запобігти цьому
Speaker:
Нік Бостром
Description:

"Людство стоїть на порозі створення певного технологічного прориву, що міг би знищити нас усіх," — каже філософ Нік Бостром. У цій гострій та напрочуд безтурботній розмові з головою TED Крісом Андерсоном Бостром окреслює небезпеки, з якими нам доведеться зустрітися, якщо (або коли) наші винаходи вирвуться з-під контролю, а також розмірковує, як нам запобігти прийдешній загибелі.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09

Ukrainian subtitles

Revisions