Як цивілізація може самознищитися та 4 способи запобігти цьому
-
0:00 - 0:03Кріс Андерсон: Нік Бостром.
-
0:03 - 0:07Ви вже встигли подати нам
безліч божевільних ідей. -
0:07 - 0:09Десь два десятки років тому
-
0:09 - 0:12ви обстоювали думку, що ми всі
живемо в симуляції, -
0:12 - 0:13чи то радше жили.
-
0:13 - 0:15А нещодавно
-
0:15 - 0:19ви в дуже яскравих прикладах
зобразили, до якого лиха може привести -
0:19 - 0:22загальний штучний інтелект.
-
0:22 - 0:25Цього ж року ви збираєтеся
видати статтю, -
0:25 - 0:29в якій представлено
таку собі гіпотезу вразливого світу. -
0:29 - 0:34І сьогодні ми маємо на меті презентувати
ілюстрований посібник з цього питання. -
0:34 - 0:37Отже, почнімо.
-
0:37 - 0:40Що це за гіпотеза?
-
0:40 - 0:42Нік Бостром: Це спроба уявити таку собі
-
0:42 - 0:46структурну властивість
теперішнього стану людства. -
0:47 - 0:49Вам подобається метафора урни,
-
0:49 - 0:51тож її я й використаю для пояснення.
-
0:51 - 0:56Уявіть собі велику урну,
наповнену кульками — -
0:56 - 1:00ідеями, методами,
можливими технологіями. -
1:00 - 1:05Історію людської творчості
можна показати як: -
1:05 - 1:08ви запускаєте руку в цю урну
та виймаєте з неї одну кульку за іншою. -
1:08 - 1:12Досі це приносило нам користь, так?
-
1:12 - 1:14Ми витягнули багато білих кульок,
-
1:14 - 1:17декілька сірих — це сумнівні переваги.
-
1:17 - 1:21Але ми ще не витягнули
чорної кульки — -
1:21 - 1:27технологію, що неодмінно знищить
цивілізацію, яка її винайде. -
1:27 - 1:31Отже, в статті я розмірковую про те,
чим саме може виявитись така чорна кулька. -
1:31 - 1:33К.А.: Отже, цю кульку ви визначаєте
-
1:33 - 1:37як таку, що неодмінно
призведе до руйнації цивілізації. -
1:37 - 1:42Н.Б.: Якщо тільки ми не вийдемо
з усталеного напіванархічного стану. -
1:42 - 1:44Але, так би мовити,
за загальним принципом. -
1:44 - 1:48К.А.: Отже, ви переконуєте,
-
1:48 - 1:50демонструючи щось
на кшталт контрприкладів, -
1:50 - 1:53і вважаєте, що досі нам просто щастило,
-
1:53 - 1:55ми могли б витягнути кульку смерті,
-
1:55 - 1:56навіть не здогадуючись про це.
-
1:56 - 1:58"Постійний прогрес механіки небесних тіл
-
1:58 - 2:00створить водневу бомбу",
Ісаак Ньютон (ні) Нік Бостром. -
2:00 - 2:02Ця цитата — що вона означає?
-
2:02 - 2:03Н.Б.: Думаю, вона просто ілюструє,
-
2:03 - 2:05як складно передбачити,
-
2:05 - 2:08до чого призведуть головні відкриття.
-
2:08 - 2:11Ми просто не здатні на це.
-
2:11 - 2:15Бо ми непогано навчилися витягати кульки,
-
2:15 - 2:18але таки не вміємо покласти кульку
назад до урни. -
2:18 - 2:21Можемо винаходити, але не "розвинаходити".
-
2:22 - 2:24Отже, наша стратегія,
яка б вона не була — -
2:24 - 2:27це сподіватися, що в урні
немає чорної кульки. -
2:27 - 2:31К.А.: Тобто, якщо її витягнено,
то вже витягнено, і назад не повернеш, -
2:31 - 2:32і на вашу думку, нам таланить.
-
2:32 - 2:35Поясніть декілька з цих прикладів.
-
2:35 - 2:38Ви говорите про різні типи вразливості.
-
2:38 - 2:40Н.Б.: Цей тип найлегший
для розуміння: -
2:40 - 2:42технологія, яка значно полегшує
-
2:42 - 2:44руйнування у величезних масштабах.
-
2:44 - 2:47[Вразливість типу 1:
Демократизація масового знищення] -
2:47 - 2:51Синтетична біологія може бути
гарним ґрунтом для такої чорної кульки, -
2:51 - 2:54але можна згадати багато інших речей...
-
2:54 - 2:56подумайте про геоінженерію —
чудова річ, вірно? -
2:56 - 2:58Можна боротися з глобальним потеплінням.
-
2:58 - 3:01Але й не слід робити її занадто доступною,
-
3:01 - 3:03адже тоді будь-хто, навіть чиясь бабуся,
-
3:03 - 3:06матиме можливість радикально
змінювати клімат Землі. -
3:06 - 3:10Або, скажімо, летальні автономні дрони,
-
3:10 - 3:13убивчі, комашиного розміру рої,
що виробляються масово. -
3:14 - 3:17Нанотехнології,
загальний штучний інтелект. -
3:17 - 3:19К.А.: Ви стверджуєте в статті,
-
3:19 - 3:21що нам просто поталанило,
адже коли ми з'ясували, -
3:21 - 3:25що ядерна енегрія дозволяє створити бомбу,
-
3:25 - 3:26а могло б так статися,
-
3:26 - 3:28що створення бомби
-
3:28 - 3:32вимагало би значно простіших,
доступних ресурсів. -
3:32 - 3:35Р.Б.: Так, згадаймо 1930-ті,
-
3:35 - 3:40коли ми зробили перші прориви
в ядерній фізиці. -
3:40 - 3:44От, якийсь геній зрозуміє, як можна
створити ядерну ланцюгову реакцію, -
3:44 - 3:47а потім усвідомлює, що це може
призвести до появи бомби. -
3:47 - 3:49Ми працюємо ще трохи,
-
3:49 - 3:52і виявляється, що створення бомби
-
3:52 - 3:54вимагає збагаченого урану чи плутонію,
-
3:54 - 3:56а ці матеріали дістати дуже складно.
-
3:56 - 3:58Потрібні ультрацентрифуги,
-
3:58 - 4:02потрібні реактори
та велетенські об'єми енергії. -
4:02 - 4:04Але уявімо собі, що натомість
-
4:04 - 4:08знайшовся би значно легший спосіб
вивільнити енергію атома. -
4:08 - 4:11Наприклад, випікаючи пісок
в мікрохвильовій печі, -
4:11 - 4:12чи щось подібне,
-
4:12 - 4:14можна було б викликати ядерний вибух.
-
4:14 - 4:16Зрозуміло, що це фізично неможливо.
-
4:16 - 4:18Та хіба можна таке передбачити,
-
4:18 - 4:21перш ніж дослідиш
усі потрібні фізичні закони? -
4:21 - 4:22К.А.: Та чи не можна сказати,
-
4:22 - 4:24що життя на Землі може розвиватися
-
4:24 - 4:27тільки за певних стабільних умов,
-
4:27 - 4:32і якби викликати потужну ядерну реакцію
було відносно легко, -
4:32 - 4:33Земля ніколи б не була стабільною,
-
4:33 - 4:35і ми ніколи б не з'явились.
-
4:35 - 4:38Н.Б.: Так, якщо тільки не йдеться
про щось, що легко робиться навмисно, -
4:38 - 4:41але випадково не трапляється.
-
4:41 - 4:43Наприклад, можна легко
-
4:43 - 4:45скласти у стос 10 цеглин,
-
4:45 - 4:48але в природі стоси з 10-ти цеглин
не зустрічаються. -
4:48 - 4:50К.А.: Отже, мабуть, саме це
-
4:50 - 4:52турбує нас найбільше.
-
4:52 - 4:55Тож, синтетична біологія
обіцяє в найближчому майбутньому, -
4:55 - 4:58ймовірно, стати найшвидшим шляхом
до такого результату. -
4:58 - 5:01Н.Б.: Так, уявіть собі, як би то було,
-
5:01 - 5:05якщо будь-хто, скажімо,
за день роботи на власній кухні, -
5:05 - 5:07міг би зруйнувати місто.
-
5:07 - 5:10Важко уявити, як сучасна
цивілізація в її сьогоднішньому вигляді -
5:10 - 5:12могла б таке пережити.
-
5:12 - 5:14Адже на будь-яке
мільйонне населення -
5:14 - 5:17завжди знайдеться хтось,
хто матиме свої причини -
5:17 - 5:19скористатися такою руйнівною силою.
-
5:19 - 5:23Отже, якщо цей апокаліптичний радикал
-
5:23 - 5:25вирішив би зруйнувати місто,
-
5:25 - 5:26то його було б зруйновано.
-
5:26 - 5:29К.А.: Є й інший тип вразливості.
-
5:29 - 5:31Розкажіть про нього.
-
5:31 - 5:35Н.Б.: Так, якщо ці
очевидні типи чорних кульок -
5:35 - 5:37просто дозволяють багато чого винищити,
-
5:37 - 5:39то інші стимулюватимуть людей
-
5:39 - 5:41до згубних учинків.
-
5:41 - 5:44[Вразливість типу 2-А:
Погані стимули для могутніх гравців] -
5:44 - 5:48Цей інший тип, назвімо його тип 2-А,
-
5:48 - 5:53це певна технологія,
що спонукає великі держави -
5:53 - 5:57використовувати свою велетенську
потужність для знищення. -
5:57 - 6:00Наприклад, ядерна зброя
майже з цим впоралась, так? -
6:02 - 6:05Ми витратили більше 10 трильйонів доларів
-
6:05 - 6:08на побудову 70 000 ядерних боєголовок
-
6:08 - 6:10та тримаємо їх у підвищеній готовності.
-
6:10 - 6:12Кілька разів протягом холодної війни
-
6:12 - 6:14ми майже знищили одне одного.
-
6:14 - 6:17І не тому, що багатьом подобалась ідея
-
6:17 - 6:20витратити 10 трильйонів
на самознищення, -
6:20 - 6:23але ситуація склалась така,
що ми опинилися... -
6:23 - 6:24все могло скінчитися гірше.
-
6:24 - 6:26Уявіть, що перший удар
не мав би великих наслідків. -
6:26 - 6:29Тоді в кризовій ситуації
-
6:29 - 6:30було б дуже важко
-
6:30 - 6:33утриматися від запуску
усіх наявних ядерних ракет. -
6:33 - 6:36Хоча б через страх, що супротивник
встигне першим. -
6:36 - 6:38К.А.: Так, гарантоване взаємне знищення
-
6:38 - 6:41дещо стабілізувало холодну війну —
-
6:41 - 6:43без цього нас могло б уже й не бути.
-
6:43 - 6:45Н.Б.: Рівновага могла би
виявитися хиткішою. -
6:45 - 6:47Та й технологія могла б мати
інші властивості. -
6:47 - 6:50Укласти угоду про контроль над озброєнням
-
6:50 - 6:51було б складніше,
-
6:51 - 6:54якби замість ядерної була б менша
за розміром чи менш помітна зброя. -
6:54 - 6:57К.А.: Крім поганих стимулів
для потужних гравців -
6:57 - 7:00вас також непокоять погані стимули
для нас усіх, як-от у типі 2-Б. -
7:00 - 7:05Н.Б.: Так, візьмемо, наприклад,
проблему глобального потепління. -
7:07 - 7:09Існує безліч маленьких зручностей,
-
7:09 - 7:11які змушують нас робити маленькі справи,
-
7:11 - 7:14які самі по собі нічого не змінюють, так?
-
7:14 - 7:16Але коли так роблять мільйони людей,
-
7:16 - 7:18сукупно це призводить до шкоди.
-
7:18 - 7:21Втім глобальне потепління
могло б бути значно гіршим. -
7:21 - 7:24Маємо параметр кліматичної чутливості.
-
7:24 - 7:26Він описує, наскільки теплішає,
-
7:26 - 7:28якщо викидати певний об'єм
парникових газів. -
7:28 - 7:30[Вразливість типу 2-Б:
Погані стимули для населення] -
7:30 - 7:33Але уявімо,
-
7:33 - 7:35що за такого ж об'єму парникових викидів
-
7:35 - 7:37температура зростала б
-
7:37 - 7:41не, скажімо, на 4,5 градуси до 2100 року,
-
7:41 - 7:44а на 15 чи 20 градусів.
-
7:44 - 7:47Тоді б ми опинилися
в дуже неприємному становищі. -
7:47 - 7:50Або припустімо, що відновлювану енегрію
було б складніше добути, -
7:50 - 7:53або резерв корисних копалин
був би більший. -
7:53 - 7:55К.А.: Чи не можна в такому разі сказати,
-
7:55 - 7:57що якби наші сьогоднішні дії
-
7:57 - 8:02призвели б до підвищення в 10 градусів
за осяжний період часу, -
8:02 - 8:05людство таки відірвало б сідниці
від дивана і щось зробило. -
8:05 - 8:08Ми, звісно, дурні, але, може,
все ж таки не настільки. -
8:08 - 8:10А може, і настільки.
-
8:10 - 8:11Н.Б.: Я б на це не сподівався.
-
8:11 - 8:13(Сміх)
-
8:13 - 8:15Можна уявити й інші особливості.
-
8:15 - 8:20Зараз, наприклад, важко
перейти на відновлювану енегретику, -
8:20 - 8:22але це можливо.
-
8:22 - 8:25Але якби фізика процесів
дещо різнилася, -
8:25 - 8:27цей перехід міг би бути значно дорожчим.
-
8:28 - 8:30К.А.: То як ви це бачите, Нік?
-
8:30 - 8:32Якщо скласти докупи всі ці можливості:
-
8:32 - 8:37нашу землю, людство —
чи можна вважати -
8:37 - 8:38цей світ вразливим?
-
8:38 - 8:41Чи в майбутньому на нас чекає
чорна кулька? -
8:44 - 8:45Н.Б.: Важко сказати.
-
8:45 - 8:50Я вважаю, що в урні можуть опинитися
кілька чорних кульок — -
8:50 - 8:52скидається на те.
-
8:52 - 8:54Там можуть бути і кілька золотих кульок,
-
8:54 - 8:58що допоможуть захиститися від чорних.
-
8:58 - 9:01В якому порядку їх витягнуть — невідомо.
-
9:01 - 9:04К.А.: Одне з можливих критичних
заперечень цієї ідеї полягає в тому, -
9:04 - 9:10що вона натякає
на визначеність майбутнього. -
9:10 - 9:13Що кулька або є, або її немає.
-
9:13 - 9:16У певному сенсі
-
9:16 - 9:18не в таке майбутнє мені б хотілося вірити.
-
9:18 - 9:21Я б хотів вірити, що майбутнє невизначене,
-
9:21 - 9:23що його визначають наші рішення,
-
9:23 - 9:25те, які саме кульки
ми витягнемо з тієї урни. -
9:25 - 9:30Н.Б.: Якщо ми й далі
робитимемо винаходи, -
9:30 - 9:32зрештою ми витягнемо всі кульки.
-
9:32 - 9:36Я б сказав, що існує певна
слабка форма технологічного детермінізму, -
9:36 - 9:38яка є цілком слушною.
-
9:38 - 9:40Наприклад, навряд чи
ви знайдете суспільство, -
9:40 - 9:44яке водночас використовує
крем'яні сокири та реактивні літаки. -
9:44 - 9:48Технологію можна уявити
набором дозволеностей. -
9:48 - 9:51Тобто технологія — це те, що дає
можливість робити певні речі -
9:51 - 9:53та досягати у світі певних результатів.
-
9:53 - 9:56Як її зрештою використовувати,
люди, звісно, обирають самі. -
9:56 - 9:59Але якщо подумати про ці
три види вразливостей, -
9:59 - 10:02дуже важко уявити, як саме
ми їх вирішимо використати. -
10:02 - 10:06У випадку вразливості типу один,
цієї потужної нищівної сили, -
10:06 - 10:10припущення, що серед мільйонів
людей знайдуться такі, -
10:10 - 10:13що захочуть використати її для знищення,
не є переконливим. -
10:13 - 10:15К.А.: Мене найбільше непокоїть аргумент,
-
10:15 - 10:20згідно якого ми таки маємо
певну можливість зазирнути в урну, -
10:20 - 10:23і схоже на те, що ми таки приречені.
-
10:23 - 10:28Наприклад, якщо вірити
у прискорення потужності, -
10:28 - 10:30що технологія, по суті, прискорюється,
-
10:30 - 10:33і ми створюємо засоби,
які роблять нас могутнішими, -
10:33 - 10:35тоді в певний момент
ми опинимося на етапі, -
10:35 - 10:38коли один окремий індивідуум
зможе нас усіх знищити, -
10:38 - 10:41і в такому разі нам кінець.
-
10:41 - 10:44Надзвичайно бентежний аргумент, правда?
-
10:44 - 10:46Н.Б.: О, так.
-
10:46 - 10:48(Сміх)
-
10:48 - 10:49Я думаю...
-
10:51 - 10:52Так, ми стаємо могутнішими,
-
10:52 - 10:56і використовувати нашу могутність
з часом стає все простіше, -
10:56 - 11:00але ми також можемо винаходити
технології, що допоможуть контролювати, -
11:00 - 11:02як саме люди використовують цю силу.
-
11:02 - 11:05К.А.: Поговорімо про цю реакцію.
-
11:05 - 11:07Припустімо, що враховуючи
всі ті можливості, -
11:07 - 11:09які є на сьогодні —
-
11:09 - 11:13не тільки синтетична біологія,
це також кібервійна, -
11:13 - 11:17штучний інтелект і таке інше —
-
11:17 - 11:21на нас у майбутньому може чекати
дійсно похмура доля. -
11:21 - 11:23Що ми можемо вдіяти?
-
11:23 - 11:25[Реакція 1: Обмежити розвиток технології]
-
11:25 - 11:28Ви говорили також
і про чотири можливі реакції. -
11:28 - 11:31Н.Б.: Обмеження технологічного розвитку
не видається перспективним, -
11:31 - 11:35якщо ми говоримо про загальну зупинку
технологічного прогресу. -
11:35 - 11:36Не вважаю це ані можливим,
-
11:36 - 11:38ані бажаним, навіть якби
то було нам під силу. -
11:38 - 11:41Небагато знайдеться сфер діяльності,
-
11:41 - 11:44де б захотілося сповільнити
технологічний прогрес. -
11:44 - 11:47Не хотілося б, певно,
пришвидшувати розвиток біологічної зброї -
11:47 - 11:49або, скажімо, ділення ізотопів,
-
11:49 - 11:52яке може спростити створення
ядерної зброї. -
11:52 - 11:56К.А.: Раніше я б цілком з цим погодився.
-
11:56 - 11:59Але спробую все ж таки
трохи посперечатися. -
11:59 - 12:01Оскільки, по-перше,
-
12:01 - 12:03якщо розглянути історію
останніх двох десятиріч, -
12:03 - 12:07курс завжди був такий:
повний вперед, все гаразд, -
12:07 - 12:09іншого шляху все одно немає.
-
12:09 - 12:13Але якщо поглянути на глобалізацію
та її стрімке пришвидшення, -
12:13 - 12:16якщо поглянути на стратегію
"роби швидко, ламай речі" -
12:16 - 12:19та її результатів,
-
12:19 - 12:21а потім подивитися на потеніцал
синтетичної біології, -
12:21 - 12:26то в мене з'являються сумніви в тому,
чи потрібно так летіти вперед -
12:26 - 12:27без жодних обмежень
-
12:27 - 12:31у світ, де ДНК-принтер
може опинитися в кожному домі -
12:31 - 12:32та шкільній лабораторії.
-
12:33 - 12:35Адже є ж якісь обмеження, правда?
-
12:35 - 12:38Н.Б.: Можливо, в тій частині,
що стосується "не можливо". -
12:38 - 12:40Якщо ви вважаєте необхідним це зупинити,
-
12:40 - 12:42лишається проблема здійсненності.
-
12:42 - 12:44Користі буде небагато,
якщо якась одна нація... -
12:44 - 12:46К.А.: Ні, якщо одна нація, це не допоможе,
-
12:46 - 12:49але ж ми й раніше підписували угоди.
-
12:49 - 12:53Адже саме так ми пережили ядерну загрозу:
-
12:53 - 12:54ми зібралися і пройшли
-
12:54 - 12:57весь важкий шлях переговорів.
-
12:57 - 13:02Я тільки думаю, чи не слід нам,
керуючись глобальними пріоритетами, -
13:02 - 13:04зібратися і спробувати вже зараз
-
13:04 - 13:06почати перемовини
про насправді жорсткі обмеження -
13:06 - 13:09проведення біологічних дослідів,
-
13:09 - 13:12адже якраз саме це
не слід було б демократизувати. -
13:12 - 13:14Н.Б.: З цим я цілком згоден...
-
13:14 - 13:18Було б, наприклад, бажано
-
13:18 - 13:22перетворити синтез ДНК на сервіс,
-
13:22 - 13:25адже зараз кожна лабораторія
-
13:25 - 13:27має свій апарат.
-
13:27 - 13:29Зробити чотири-п'ять
таких місць на цілий світ, -
13:29 - 13:33куди можна надіслати свій цифровий проєкт,
а назад отримати ДНК, вірно? -
13:33 - 13:35Тоді була б можливість...
-
13:35 - 13:37якщо колись з'явилася б така необхідність,
-
13:37 - 13:39ми б мали обмежену кількість
стратегічних точок. -
13:39 - 13:43Отже, думаю, слід шукати
певних особливих умов, -
13:43 - 13:45за яких можна було б підсилити констроль.
-
13:45 - 13:47К.А.: Тобто, по суті, ви вважаєте,
-
13:47 - 13:50що самого стримування
нам буде недостатньо. -
13:50 - 13:52Хтось десь, якась, скажімо,
Північна Корея, -
13:52 - 13:56зрештою здобуде ці знання,
-
13:56 - 13:57якщо вони десь чекають.
-
13:57 - 14:00Н.Б.: За теперішніх умов
це здається ймовірним. -
14:00 - 14:02Йдеться не лише
про синтетичну біологію. -
14:02 - 14:04Адже будь-яка глибока
нова зміна у світі -
14:04 - 14:06може виявитися чорною кулькою.
-
14:06 - 14:08К.А.: Розгляньмо ще одну можливу реакцію.
-
14:08 - 14:10Н.Б.: Ця також, думаю,
має обмежені можливості. -
14:10 - 14:14Повернімося до вразливості першого типу:
наприклад, якщо би можна було -
14:14 - 14:15зменшити кількість людей,
-
14:15 - 14:17[Реакція 2: Усунути правопорушників]
-
14:17 - 14:19що можуть бажати знищити світ,
-
14:19 - 14:22якби вони мали для цього необхідні засоби,
-
14:22 - 14:23то було б непогано.
-
14:23 - 14:26К.А.: На цьому зображенні,
яке ви попросили нас зробити, -
14:26 - 14:27бачимо дронів, що літають світом
-
14:27 - 14:29і розпізнають обличчя.
-
14:29 - 14:32Помічаючи когось з ознаками
соціопатичної поведінки, -
14:32 - 14:34вони заливають його любов'ю
і лагодять його. -
14:34 - 14:36Н.Б.: Тут, мабуть, ідеться
про гібридну картину. -
14:36 - 14:40"Усувати" може значити
як ув'язнити чи вбити, -
14:40 - 14:43так і схилити до кращого бачення світу.
-
14:43 - 14:45Але справа ось у чому:
-
14:45 - 14:47скажімо, цей сценарій є успішним,
-
14:47 - 14:50нам вдається зменшити кількість
таких людей наполовину. -
14:50 - 14:52Якщо ми обираємо шлях переконання,
-
14:52 - 14:54то маємо змагатися проти
усіх інших могутніх сил, -
14:54 - 14:56що намагаються переконувати людей:
-
14:56 - 14:58партії, релігія, система освіти.
-
14:58 - 15:00Але нехай вдалося-таки скоротити вдвічі.
-
15:00 - 15:02Не думаю, що і ризик
буде скорочено вдвічі. -
15:02 - 15:04Можливо, на відсотків 5 чи 10.
-
15:04 - 15:08К.А.: Отже, ви не радите ставити
майбутнє людства на другий спосіб. -
15:08 - 15:11Н.Б.: Думаю, стримувати й переконувати —
справа корисна, -
15:11 - 15:14та не варто покладатися лише на це.
-
15:14 - 15:15К.А.: Як щодо третього?
-
15:15 - 15:18Н.Б.: Думаю, є два основних способи,
-
15:18 - 15:20які можна використовувати,
аби стабілізувати світ -
15:20 - 15:22[Реакція 3: Масове стеження]
-
15:22 - 15:25проти цілого спектру можливих загроз.
-
15:25 - 15:27Нам, певно, знадобляться обидва.
-
15:27 - 15:31Отже, перший є надзвичайно ефективним
-
15:31 - 15:33для запобігання злочинам.
-
15:33 - 15:35Йдеться про можливість втручання.
-
15:35 - 15:38Якщо хтось почне робити щось небезпечне,
-
15:38 - 15:40то їх можна буде зупинити
у реальному часі. -
15:40 - 15:43Це б вимагало повсюдного стеження,
-
15:43 - 15:45коли кожен постійно знаходиться
під контролем. -
15:46 - 15:49К.А.: Це вже майже як у фільмі
"Особлива думка". -
15:49 - 15:51Н.Б.: Тут мав би бути залучений
штучний інтелект, -
15:51 - 15:55діяли б великі центри
спостереження і таке інше. -
15:57 - 16:01К.А.: Знаєте, сьогодні "масове стеження"
не найпопулярніші слова. -
16:01 - 16:02(Сміх)
-
16:03 - 16:05Н.Б.: Так, оцей маленький пристрій,
-
16:05 - 16:09таке собі намисто, яке потрібно
мати на собі постійно, -
16:09 - 16:11з різнонаправленими камерами.
-
16:11 - 16:14Аби він краще сприймався,
-
16:14 - 16:16назвіть його, скажімо, "емблемою свободи".
-
16:16 - 16:18(Сміх)
-
16:18 - 16:20К.А.: Добре.
-
16:20 - 16:22Отака в нас розмова, друзі,
-
16:22 - 16:25саме тому вона така захоплююча.
-
16:25 - 16:28Н.Б.: Насправді, про це можна
говорити і говорити, -
16:28 - 16:29це очевидно.
-
16:29 - 16:31Та й проблем і ризиків тут повно, правда?
-
16:31 - 16:33Ми ще до цього, може, повернемось.
-
16:33 - 16:36Отже, остання можливість
загальної стабілізації — -
16:36 - 16:37[Реакція 4: Глобальне управління]
-
16:37 - 16:39це виправлення управлінських похибок.
-
16:39 - 16:43Отже, нагляд стосувався б, скажімо,
управлінських похибок на мікрорівні, -
16:43 - 16:46як-от не допустити дійсно
протизаконних учинків. -
16:46 - 16:49І є відповідна управлінська похибка
-
16:49 - 16:51на макрорівні, на світовому рівні.
-
16:51 - 16:54Потрібна надійна можливість запобігти
-
16:54 - 16:57найгіршим координаційним помилкам
на світовому рівні, -
16:57 - 17:01уникнути воєн між могутніми країнами,
-
17:01 - 17:02гонки озброєнь,
-
17:02 - 17:06катастрофічних спільних трагедій,
-
17:08 - 17:12аби впоратися з загрозами типу 2-А.
-
17:12 - 17:14К.А.: Термін "глобальне управління"
-
17:14 - 17:16зараз точно не на піку популярності,
-
17:16 - 17:19але чи не можна стверджувати,
-
17:19 - 17:20що за всю історію людства
-
17:20 - 17:25на кожному етапі зростання
технологічної потужності -
17:25 - 17:29люди реорганізовувалися
і, так би мовити, централізували владу. -
17:29 - 17:32Наприклад, коли з'являлася загроза,
що владу може захопити -
17:32 - 17:34якесь мандрівне угрупування,
-
17:34 - 17:36у відповідь лунало: "Ні, цього не можна,
-
17:36 - 17:38адже є держава і централізована влада,
-
17:38 - 17:40поліція чи армія."
-
17:40 - 17:45Загроза того, що одна людина
чи група людей -
17:45 - 17:46зможуть знищити людство, означає,
-
17:46 - 17:49що колись нам, можливо,
доведеться хоч певною мірою -
17:49 - 17:51піти цим шляхом, хіба ні?
-
17:51 - 17:54Н.Б.: Рівень політичної організації,
звісно, зріс протягом історії людства, -
17:54 - 17:56це правда.
-
17:56 - 17:59Спочатку були групи мисливців-збирачів,
-
17:59 - 18:01потім племена, поліси, нації,
-
18:01 - 18:05а тепер міжнародні організації і так далі.
-
18:05 - 18:07Але я хотів би знову наголосити,
-
18:07 - 18:09безумовно існують
-
18:09 - 18:11великі недоліки і величезні ризики
-
18:11 - 18:12як у випадку масового нагляду,
-
18:12 - 18:16так і у випадку глобального управління.
-
18:16 - 18:18Хочу відмітити, якщо нам пощастить,
і світ буде таким, -
18:18 - 18:21що тільки цими способами
ми й зможемо захиститися -
18:21 - 18:22від чорної кульки.
-
18:22 - 18:25К.А.: Логіка цієї теорії,
-
18:25 - 18:26здається мені,
-
18:26 - 18:30полягає в нашому визнанні
неможливості отримати все. -
18:30 - 18:33Це, можна сказати, така наївна мрія,
-
18:33 - 18:36яку багато з нас плекали,
-
18:36 - 18:40що технологія завжди буде силою добра,
-
18:40 - 18:43і треба йти вперед, не зупинятися,
якнайшвидше, -
18:43 - 18:45не звертаючи уваги на певні наслідки.
-
18:45 - 18:47Та це насправді так не працює.
-
18:47 - 18:49Так не вийде.
-
18:49 - 18:50Якщо робити так,
-
18:50 - 18:52то нам заодно доведеться прийняти
-
18:52 - 18:54деякі інші неприємні речі,
-
18:54 - 18:57почати таку собі гонку озброєння
з самими собою: -
18:57 - 18:59хочеш силу — навчись її обмежувати,
-
18:59 - 19:01знайди спосіб, як це зробити.
-
19:01 - 19:04Н.Б.: Думаю, це варіант,
-
19:04 - 19:07і то дуже спокусливий,
можна сказати, найпростіший, -
19:07 - 19:09і він може спрацювати,
-
19:09 - 19:13але він означає, що ми, по суті, ризикуємо
витягнути чорну кульку. -
19:13 - 19:16Думаю, за умови деякої координації,
-
19:16 - 19:18якщо ми вирішимо проблеми
-
19:18 - 19:20макро- та мікроуправління,
-
19:20 - 19:22то зможемо витягнути з урни всі кульки
-
19:22 - 19:25та отримати від цього велику користь.
-
19:25 - 19:28К.А.: Але якщо ми живемо в симуляції,
то хіба це має значення? -
19:28 - 19:30Ми лише перезавантажимось і все.
-
19:30 - 19:31(Сміх)
-
19:31 - 19:32Н.Б.: Тоді... я...
-
19:32 - 19:35(Сміх)
-
19:35 - 19:36Цього я не чекав.
-
19:38 - 19:39К.А.: То як ви вважаєте?
-
19:39 - 19:44Якщо скласти все докупи, чи велика
вірогідність того, що ми приречені? -
19:44 - 19:46(Сміх)
-
19:46 - 19:49Люблю, як люди сміються,
коли питаєш про таке. -
19:49 - 19:51Н.Б.: На індивідуальному рівні
-
19:51 - 19:55ми за будь-яких обставин приречені,
тільки за певним графіком. -
19:55 - 19:57Ми ж усі чахнемо і старіємо, правда?
-
19:57 - 19:59(Сміх)
-
19:59 - 20:01Насправді, це дещо складно.
-
20:01 - 20:03Якщо говорити про ймовірність,
то спочатку треба визначитися, -
20:03 - 20:05хто є "ми".
-
20:05 - 20:07Якщо ви дуже старий, то помрете,
мабуть, природною смертю, -
20:07 - 20:10якщо молодий,
то можете мати 100 років... -
20:10 - 20:12все залежить від того, кого ви спитаєте.
-
20:12 - 20:16Далі, межі. Що вважати
руйнуванням цивілізації? -
20:16 - 20:23В статті я говорю не лише
про екзистенційну катастрофу. -
20:23 - 20:25Тут справа у визначенні.
-
20:25 - 20:26Я кажу: мільярд мертвих
-
20:26 - 20:29чи зниження світового ВВП на 50%,
-
20:29 - 20:31але оцінка вірогідності залежатиме
-
20:31 - 20:33від визначеної вами межі.
-
20:33 - 20:37Гадаю, мене можна віднести
до наляканих оптимістів. -
20:37 - 20:38(Сміх)
-
20:38 - 20:40К.А.: Ви наляканий оптиміст,
-
20:40 - 20:44який щойно, думаю, створив
багато інших наляканих... -
20:44 - 20:46людей.
-
20:46 - 20:47(Сміх)
-
20:47 - 20:48Н.Б.: В симуляції.
-
20:48 - 20:49К.А.: В симуляції.
-
20:49 - 20:51Нік Бостром, ваш розум мене вражає.
-
20:51 - 20:54Красно дякую, що нажахали нас усіх.
-
20:54 - 20:56(Оплески)
- Title:
- Як цивілізація може самознищитися та 4 способи запобігти цьому
- Speaker:
- Нік Бостром
- Description:
-
"Людство стоїть на порозі створення певного технологічного прориву, що міг би знищити нас усіх," — каже філософ Нік Бостром. У цій гострій та напрочуд безтурботній розмові з головою TED Крісом Андерсоном Бостром окреслює небезпеки, з якими нам доведеться зустрітися, якщо (або коли) наші винаходи вирвуться з-під контролю, а також розмірковує, як нам запобігти прийдешній загибелі.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 21:09
Khrystyna Romashko approved Ukrainian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Khrystyna Romashko edited Ukrainian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Inna Fedorenko accepted Ukrainian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Inna Fedorenko edited Ukrainian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Inna Fedorenko edited Ukrainian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Inna Fedorenko edited Ukrainian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Inna Fedorenko edited Ukrainian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Inna Fedorenko edited Ukrainian subtitles for How civilization could destroy itself -- and 4 ways we could prevent it |