Чи можемо ми створити штучний інтелект, не втративши над ним контролю?
-
0:01 - 0:03Сьогодні я розповім
про нездатність до інтуїції, -
0:03 - 0:05від якої страждають багато з нас.
-
0:05 - 0:09Це дійсно нездатність визначати
певний вид небезпеки. -
0:09 - 0:11Я опишу сценарій,
-
0:11 - 0:14що, на мою думку, є водночас жахливий
-
0:14 - 0:16та дуже ймовірний
-
0:17 - 0:18і не є гарною комбінацією,
-
0:18 - 0:20як виявляється.
-
0:20 - 0:23Та все одно, замість того, щоб злякатися,
більшість з вас відчують, -
0:23 - 0:25що те, про що я веду мову,
скоріше прикольне. -
0:26 - 0:28Я розповім, як прибутки,
-
0:28 - 0:30що ми отримуємо від штучного інтелекту,
-
0:30 - 0:31можуть, врешті-решт, знищити нас.
-
0:31 - 0:35Насправді, я думаю, дуже важко
зрозуміти, як вони НЕ знищать нас -
0:35 - 0:37або не надихнуть нас знищити самих себе.
-
0:37 - 0:39Та якщо ви такий як я,
-
0:39 - 0:42вам здасться, що думати
про такі речі - весело, -
0:42 - 0:45І така реакція є частиною проблеми.
-
0:45 - 0:47Ця реакція має хвилювати вас.
-
0:48 - 0:51І якщо б я хотів запевнити
вас у цій промові, -
0:51 - 0:54що нам, скоріше за все, доведеться
страждати від глобального голоду -
0:54 - 0:57через кліматичні зміни
або якусь іншу катастрофу, -
0:57 - 1:00та що ваші онуки та їхні онуки
-
1:00 - 1:02будуть ймовірно жити саме так,
-
1:03 - 1:05ви б не подумали:
-
1:05 - 1:07"Цікаво.
-
1:07 - 1:08Мені подобається цей виступ на ТED".
-
1:10 - 1:11Голод - це не весело.
-
1:12 - 1:15А от смерть у науковій фантастиці,
з іншого боку - це весело, -
1:15 - 1:19та одна з речей, що мене найбільше турбує
щодо розвитку штучного інтелекту - -
1:19 - 1:23це наша нездатність мати відповідну
емоційну реакцію -
1:23 - 1:25щодо небезпек, що чигають на нас попереду.
-
1:25 - 1:29Я не здатний осягнути цю реакцію
і саме тому виступаю на цій сцені. -
1:30 - 1:33Це так, наче ми стоїмо
навпроти двох дверей. -
1:33 - 1:34За дверима номер 1
-
1:34 - 1:37ми припиняємо прогрес
у створенні розумних машин. -
1:37 - 1:41Технічне та програмне забезпечення
перестає покращуватись через якісь обставини. -
1:41 - 1:44А тепер поміркуймо,
чому б це могло трапитися. -
1:45 - 1:49Знаючи, якими цінними є
інтелект та автоматизація, -
1:49 - 1:52ми продовжимо удосконалювати
наші технології, якщо матимемо можливість. -
1:53 - 1:55Що нас може зупинити від цього?
-
1:56 - 1:58Широкомасштабна ядерна війна?
-
1:59 - 2:01Глобальна пандемія?
-
2:02 - 2:04Падіння астероїду?
-
2:06 - 2:08Джастін Бібер, що став
президентом Сполучених Штатів? -
2:08 - 2:11(Сміх)
-
2:13 - 2:17Суть у тому, що щось має знищити
цивілізацію у знайомому нас вигляді. -
2:17 - 2:22Уявіть собі, яке страхіття має статися,
-
2:22 - 2:25щоб завадити нам удосконалювати
наші технології -
2:25 - 2:26постійно,
-
2:26 - 2:28покоління за поколінням.
-
2:28 - 2:30Майже за визначенням,
це найгірше, -
2:30 - 2:32що траплялося в історії людства.
-
2:33 - 2:34Тому єдиною альтернативою,
-
2:34 - 2:36а саме вона знаходиться
за дверима номер два, -
2:36 - 2:39є подальше удосконалення
розумних машин -
2:39 - 2:41рік за роком, рік за роком.
-
2:42 - 2:45Та в певний момент ми збудуємо
машини, розумніші за нас, -
2:46 - 2:49та щойно з'являться машини,
що розумніші за нас, -
2:49 - 2:51вони почнуть самі себе удосконалювати.
-
2:51 - 2:53А тоді ми ризикуємо тим,
що математик І.Дж. Ґуд назвав -
2:53 - 2:55"інтелектуальним вибухом",
-
2:56 - 2:58тим, що цей процес може вийти
з-під нашого контролю. -
2:58 - 3:01Тепер це часто висміюють,
як ось на цьому зображенні, -
3:01 - 3:04як страх, що армії злісних роботів
-
3:04 - 3:05нас атакують.
-
3:05 - 3:08Та це не найімовірніший сценарій.
-
3:08 - 3:13Йдеться не про те, що наші машини
зненацька зробляться злими. -
3:13 - 3:16Викликає тривогу те,
що ми збудуємо машини, -
3:16 - 3:18які будуть настільки компетентніші
за нас, -
3:18 - 3:22що найменші відхилення
між нашими та їхніми цілями -
3:22 - 3:23зможуть нас знищити.
-
3:24 - 3:26Лише поміркуйте, як ми поводимося
з мурахами. -
3:27 - 3:28Ми не ненавидимо їх.
-
3:28 - 3:30Ми не звертаємо зі шляху,
щоб нашкодити їм. -
3:30 - 3:33Насправді іноді ми намагаємося
не нашкодити їм. -
3:33 - 3:35Ми переступаємо через них на стежці.
-
3:35 - 3:37Та коли їхня присутність
-
3:37 - 3:39відчутно конфліктує
з будь-якою нашою метою, -
3:39 - 3:42скажімо, коли ми будуємо
таку споруду, як на зображенні, -
3:42 - 3:44ми знищуємо їх без сумнівів.
-
3:44 - 3:47Тривога полягає в тому,
що одного дня ми збудуємо машини, -
3:47 - 3:50які, свідомі чи ні,
-
3:50 - 3:53можуть поставитися до нас
так само байдуже. -
3:54 - 3:57Гадаю, що це здається
багатьом з вас малоймовірним. -
3:57 - 4:04Я впевнений, серед вас є ті, хто сумнівається,
що надрозумні машини можливі, -
4:04 - 4:05що й казати про неминучість.
-
4:05 - 4:09Тоді ви засумніваєтеся у правильності
одного з таких припущень. -
4:09 - 4:11А їх лише три.
-
4:12 - 4:17Інтелект - це обробка інформації
у фізичних системах. -
4:17 - 4:20Насправді, це трохи більше,
ніж припущення. -
4:20 - 4:23Ми вже вбудували певний інтелект
в наші машини, -
4:23 - 4:25і багато з цих машин видають результати
-
4:25 - 4:28на рівні надлюдського інтелекту
вже сьогодні. -
4:29 - 4:31Та ми знаємо, що найменший привід
-
4:31 - 4:34може призвести до так званого
"інтелектуального вибуху", -
4:34 - 4:38спроможності гнучко мислити
у багатьох сферах, -
4:38 - 4:41адже наш мозок вже зміг це зробити.
Чи не так? -
4:41 - 4:45Я маю на увазі, що тут є лише атоми,
-
4:45 - 4:49та допоки ми продовжуємо
будувати системи з атомів, -
4:49 - 4:52що демонструють все більш
інтелектуальну поведінку, -
4:52 - 4:55ми поступово,
якщо нас не зупинять, -
4:55 - 4:58поступово вбудуємо
загальний інтелект -
4:58 - 4:59в наші машини.
-
4:59 - 5:03Важливо зрозуміти,
що рівень прогресу не має значення, -
5:03 - 5:06тому що будь-який прогрес здатний
призвести нас до фінального пункту. -
5:06 - 5:10Нам не треба закону Мура, щоб продовжувати.
Нам не потрібний експоненційний прогрес. -
5:10 - 5:12Нам лише треба не зупинятися.
-
5:13 - 5:16Друге припущення полягає в тому,
що ми не зупинимося. -
5:17 - 5:20Будемо далі удосконалювати
наші розумні машини. -
5:21 - 5:25Та враховуючи цінність інтелекту--
-
5:25 - 5:29Я маю на увазі, інтелект є або
джерелом всього, що ми цінуємо, -
5:29 - 5:32або він нам потрібен, щоб зберегти
все, що ми цінуємо. -
5:32 - 5:34Це наш найцінніший ресурс.
-
5:34 - 5:36Тому ми хочемо це робити.
-
5:36 - 5:39В нас є проблеми,
що їх нам вкрай необхідно залагодити. -
5:39 - 5:42Ми хочемо лікувати такі захворювання,
як Альцгеймер та рак. -
5:43 - 5:47Ми хочемо зрозуміти економічні системи.
Ми хочемо покращити нашу кліматичну науку. -
5:47 - 5:49Тому ми будемо це робити,
якщо зможемо. -
5:49 - 5:52Потяг вже поїхав зі станції,
і немає гальма, щоб його зупинити. -
5:54 - 5:59Нарешті, ми не стоїмо
на вершині інтелекту, -
5:59 - 6:01і навряд чи десь поблизу.
-
6:02 - 6:04І це насправді ключовий факт.
-
6:04 - 6:06Це те, що робить нашу ситуацію
такою небезпечною, -
6:06 - 6:10і це те, що робить нашу інтуїцію
щодо ризику настільки ненадійною. -
6:11 - 6:14Тепер подумайте про найрозумнішу людину,
яка будь-коли існувала. -
6:15 - 6:18Майже у всіх у списку є Джон фон Нейман.
-
6:18 - 6:21Я гадаю, що враження, яке фон Нейман
справляв на людей довкола, -
6:21 - 6:25до яких входили найвидатніші математики
та фізики його часу, -
6:26 - 6:27достатньо добре задокументоване.
-
6:27 - 6:31Якщо лише половина історій про нього
бодай наполовину правдива, -
6:31 - 6:32немає сумнівів, що
-
6:33 - 6:35він один із найрозумніших людей,
які коли-небудь існували. -
6:35 - 6:38Тож обміркуємо спектр інтелекту.
-
6:38 - 6:40Ось тут у нас Джон фон Нейман.
-
6:42 - 6:43А ось тут ми з вами.
-
6:44 - 6:45А ось тут курка.
-
6:45 - 6:47(Сміх)
-
6:47 - 6:49Вибачте, курка.
-
6:49 - 6:50(Сміх)
-
6:50 - 6:54Мені нема чого робити цю промову
гнітючішою, аніж вона має бути. -
6:54 - 6:55(Сміх)
-
6:56 - 7:00Здається надзвичайно ймовірним,
що спектр інтелекту -
7:00 - 7:03простягається набагато далі,
ніж ми сьогодні уявляємо, -
7:04 - 7:07і якщо ми збудуємо машини,
що розумніші за нас, -
7:07 - 7:09вони, дуже ймовірно,
розвідають цей спектр -
7:09 - 7:11шляхами, які ми не можемо уявити,
-
7:11 - 7:14та перевершать нас так,
як ми не можемо уявити. -
7:15 - 7:19Та важливо визнати, що
це правда вже з огляду на саму силу швидкості. -
7:19 - 7:24Правильно? Тож уявіть, що ми збудували
надрозумний штучний інтелект, -
7:24 - 7:28такий же розумний, як ваша
середньостатистична команда дослідників -
7:28 - 7:30у Стенфорді чи МТІ.
-
7:30 - 7:33Електронні ланцюги
функціюють у мільйон разів швидше -
7:33 - 7:34за біохемічні,
-
7:35 - 7:38тож ці машини мають думати
в мільйон разів швидше, -
7:38 - 7:39ніж розуми, що їх сконструювали.
-
7:39 - 7:41Тож ви запускаєте її на тиждень,
-
7:41 - 7:46і вона демонструє 20 000 років
інтелектуальної роботи людського рівня, -
7:46 - 7:48тиждень за тижнем, тиждень за тижнем.
-
7:50 - 7:53Як ми можемо зрозуміти,
тим паче стримати -
7:53 - 7:56інтелект, що так прогресує?
-
7:57 - 7:59Тривогу викликає ще одна річ:
-
7:59 - 8:04це, уявіть собі, найкращий сценарій.
-
8:04 - 8:08А тепер уявіть, ми створюємо надрозумний
штучний інтелект, -
8:08 - 8:10не зважаючи на жодні
міркування безпеки. -
8:10 - 8:13В нас уперше з'являється
бездоганний проект. -
8:13 - 8:15Так наче ми отримали оракула,
-
8:15 - 8:17що поводиться саме так, як планувалося.
-
8:17 - 8:21Тож така машина була б
ідеальним пристроєм з економії праці. -
8:21 - 8:24Вона може проектувати машини,
що можуть будувати машини, -
8:24 - 8:26що можуть робити будь-яку фізичну роботу,
-
8:26 - 8:27працюватимуть на сонячній енергії,
-
8:27 - 8:30більш-менш за ціною сировини.
-
8:30 - 8:33Тож ми говоримо про кінець
важкої людської праці. -
8:33 - 8:37Ми також говоримо про кінець
найбільш інтелектуальної праці. -
8:37 - 8:40То що ж такі мавпи, як ми,
будуть робити за цих обставин? -
8:40 - 8:44Ми зможемо вільно грати в Фрізбі
та робити одне одному масаж. -
8:46 - 8:49Додайте трохи ЛСД та трохи
сумнівного гардеробу, -
8:49 - 8:51і весь світ буде
як фестиваль Burning Man. -
8:51 - 8:53(Сміх)
-
8:54 - 8:56Непогано звучить,
-
8:57 - 9:00але запитайте себе, що станеться
-
9:00 - 9:02з нашим теперішнім економічним
та політичним ладом? -
9:02 - 9:05Ймовірно, ми станемо свідками
-
9:05 - 9:09такої нерівності розподілу багатства
та безробіття, -
9:09 - 9:11яких ми ніколи не бачили.
-
9:11 - 9:13Не бажаючи одразу
використовувати це нове багатство -
9:13 - 9:15на користь всього людства,
-
9:16 - 9:19декілька мільярдерів прикрасять
обкладинки наших бізнес-журналів, -
9:19 - 9:22тоді як решта світу
голодуватиме. -
9:22 - 9:25А що робитимуть росіяни та китайці,
-
9:25 - 9:27якщо вони почують, що якась компанія
у Кремнієвій долині -
9:27 - 9:30збирається ввести в дію
надрозумний штучний інтелект? -
9:30 - 9:33Ця машина зможе вести війну,
-
9:33 - 9:35наземну або кібер,
-
9:35 - 9:37з безпрецедентною могутністю.
-
9:38 - 9:40Це сценарій, де переможець отримує все.
-
9:40 - 9:43Бути на шість місяців попереду
у цьому змаганні, -
9:43 - 9:46це бути на 500 000 років попереду,
-
9:46 - 9:47як мінімум.
-
9:47 - 9:52Тож здається, що навіть незначні чутки
про такі досягнення -
9:52 - 9:55можуть спричинити
люту ненависть між людьми. -
9:55 - 9:58Але одна з найжахливіших речей,
-
9:58 - 10:00на мою думку, на цей час -
-
10:00 - 10:05це те, що кажуть розробники
штучного інтелекту, -
10:05 - 10:07коли хочуть заспокоїти нас.
-
10:07 - 10:10Найпоширенішою підставою
не турбуватися, кажуть вони, є час. -
10:10 - 10:13Це ще так далеко,
хіба ви не знаєте. -
10:13 - 10:15Це ще може тривати 50 або 100 років.
-
10:16 - 10:17Один із дослідників сказав:
-
10:17 - 10:19"Хвилюватися через безпеку
штучного інтелекту - -
10:19 - 10:21те ж саме, що перейматися
перенаселенням на Марсі". -
10:22 - 10:24Це така версія Кремнієвої долини
-
10:24 - 10:26фрази: "Не забивай цим
свою гарненьку голівку". -
10:26 - 10:27(Сміх)
-
10:28 - 10:29Здається, ніхто не помічає,
-
10:29 - 10:32що посилатися на часову віддаленість -
-
10:32 - 10:35хибно.
-
10:35 - 10:38Якщо інтелект - це питання
обробки інформації, -
10:38 - 10:41і ми далі удосконалюватимемо наші машини,
-
10:41 - 10:44то ми створимо
якусь форму супер-інтелекту. -
10:44 - 10:48І ми не уявляємо,
скільки часу нам потрібно, -
10:48 - 10:50щоб створити умови,
де це буде безпечно. -
10:52 - 10:53Повторюю ще раз.
-
10:54 - 10:57Ми не уявляємо,
скільки часу нам потрібно, -
10:57 - 11:00щоб створити умови,
де це буде безпечно. -
11:01 - 11:04І якщо ви не помітили,
50 років - вже не ті, що раніше. -
11:04 - 11:07Це 50 років у місяцях.
-
11:07 - 11:09Стільки часу в нас уже є iPhone.
-
11:09 - 11:12Стільки часу "Сімпсони" вже
існують на телебаченні. -
11:13 - 11:15П'ятдесят років -
це не так вже й багато часу, -
11:15 - 11:19щоб прийняти найбільший виклик,
з яким зіткнеться людський рід. -
11:20 - 11:24Повторюю: ми, здається, не маємо
відповідної емоційної реакції -
11:24 - 11:26на те, що точно до нас наближається.
-
11:26 - 11:30Комп'ютерний експерт Стюарт Рассел
наводить гарну аналогію. -
11:30 - 11:35Він сказав: "Уявіть, що ми отримали
повідомлення від інопланетної цивілізації, -
11:35 - 11:37в якому йдеться:
-
11:37 - 11:39"Земляни,
-
11:39 - 11:41ми прибудемо на вашу планету через 50 років.
-
11:42 - 11:43Готуйтеся".
-
11:43 - 11:48І тепер ми лише рахуємо місяці, що
лишилися до прибуття космічного корабля? -
11:48 - 11:51Ми б відчули тоді трохи більше терміновості,
ніж ми відчуваємо тепер. -
11:52 - 11:55Інша причина, чому нам кажуть
не хвилюватися, полягає в тому, -
11:55 - 11:58що ці машини
муситимуть поділяти наші цінності, -
11:58 - 12:00адже вони будуть фактично
продовженням нас самих. -
12:00 - 12:02Їх трансплантують у наші мізки,
-
12:02 - 12:04і ми, по суті,
станемо їхньою лімбічною системою. -
12:05 - 12:07Але задумаймось:
-
12:07 - 12:10найбезпечніший
та єдиний розважливий шлях уперед, -
12:10 - 12:11що його нам рекомендують -
-
12:11 - 12:14це імплантація цієї технології
прямо у мозок. -
12:15 - 12:18Так, це може бути найбезпечнішим
та єдиним розважливим шляхом уперед, -
12:18 - 12:21але зазвичай усі проблеми з безпекою
-
12:21 - 12:25мають бути розв'язані до того,
як технологію вставлять у вашу голову. -
12:25 - 12:27(Сміх)
-
12:27 - 12:32Глибшою проблемою є те, що створення
лише надрозумного штучного інтелекту -
12:32 - 12:34здається легшим,
-
12:34 - 12:36ніж створення надрозумного
штучного інтелекту -
12:36 - 12:38та володіння повноцінною неврологією,
-
12:38 - 12:41яка б дала нам змогу ефективно
інтегрувати наш розум із ним. -
12:41 - 12:44І, знаючи це, компанії та
уряди, що займаються цією розробкою, -
12:44 - 12:48сприймають себе наче у перегонах
проти всіх інших, -
12:48 - 12:51тому що виграти ці перегони -
це виграти світ, -
12:51 - 12:53якщо звісно його не буде знищено
наступної хвилини, -
12:53 - 12:56отже, здається, що те,
що зробити найлегше, -
12:56 - 12:57зроблять у першу чергу.
-
12:59 - 13:01На жаль, у мене немає
розв'язку цієї проблеми, -
13:01 - 13:04окрім як порадити,
щоб більшість із нас думала про це. -
13:04 - 13:06Гадаю, нам потрібно, щось
на кшталт "Проекту Мангеттен" -
13:06 - 13:08на тему штучного інтелекту.
-
13:09 - 13:11Не для того, щоб створити його, адже
я думаю, ми неминуче це зробимо, -
13:11 - 13:15а щоб зрозуміти,
як уникнути збройних перегонів -
13:15 - 13:18та створити його так, щоб він
відповідав нашим інтересам. -
13:18 - 13:20Коли ми розмовляємо про
надрозумний штучний інтелект, -
13:20 - 13:23що може самозмінюватися,
-
13:23 - 13:27здається, в нас є лише один шанс
отримати правильні початкові умови, -
13:27 - 13:29і навіть тоді нам доведеться пережити
-
13:29 - 13:32економічні та політичні наслідки
отримання правильних умов. -
13:34 - 13:36Та в той момент. коли ми визнаємо,
-
13:36 - 13:40що оброблення інформації
є джерелом інтелекту, -
13:41 - 13:46що деякі відповідні обчислювальні системи
є базою інтелекту, -
13:46 - 13:50і визнаємо, що ми будемо удосконалювати
ці системи беззупинно, -
13:51 - 13:56а також те, що горизонт пізнання,
скоріш за все, простягається набагато далі, -
13:56 - 13:57ніж ми на цей час розуміємо,
-
13:58 - 13:59тоді нам доведеться визнати,
-
13:59 - 14:02що ми в процесі створення
своєрідного бога. -
14:03 - 14:05І настав час переконатися,
-
14:05 - 14:07що з цим богом ми зможемо жити.
-
14:08 - 14:10Дуже вам дякую.
-
14:10 - 14:15(Оплески)
- Title:
- Чи можемо ми створити штучний інтелект, не втративши над ним контролю?
- Speaker:
- Сем Гарріс
- Description:
-
Налякані надрозумним штучним інтелектом? А треба, каже нейронауковець і філософ Сем Гарріс - та не лише в теорії. Ми збудуємо машини-надлюдей, запевняє Гарріс, та ми ще не задумувалися над проблемами, пов'язаними із створенням чогось такого, що зможе ставитися до нас, як до мурах.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Hanna Leliv approved Ukrainian subtitles for Can we build AI without losing control over it? | |
![]() |
Hanna Leliv accepted Ukrainian subtitles for Can we build AI without losing control over it? | |
![]() |
Hanna Leliv edited Ukrainian subtitles for Can we build AI without losing control over it? | |
![]() |
Olga Murphy edited Ukrainian subtitles for Can we build AI without losing control over it? | |
![]() |
Olga Murphy edited Ukrainian subtitles for Can we build AI without losing control over it? | |
![]() |
Olga Murphy edited Ukrainian subtitles for Can we build AI without losing control over it? | |
![]() |
Olga Murphy edited Ukrainian subtitles for Can we build AI without losing control over it? | |
![]() |
Olga Murphy edited Ukrainian subtitles for Can we build AI without losing control over it? |