Сьогодні я розповім
про нездатність до інтуїції,
від якої страждають багато з нас.
Це дійсно нездатність визначати
певний вид небезпеки.
Я опишу сценарій,
що, на мою думку, є водночас жахливий
та дуже ймовірний
і не є гарною комбінацією,
як виявляється.
Та все одно, замість того, щоб злякатися,
більшість з вас відчують,
що те, про що я веду мову,
скоріше прикольне.
Я розповім, як прибутки,
що ми отримуємо від штучного інтелекту,
можуть, врешті-решт, знищити нас.
Насправді, я думаю, дуже важко
зрозуміти, як вони НЕ знищать нас
або не надихнуть нас знищити самих себе.
Та якщо ви такий як я,
вам здасться, що думати
про такі речі - весело,
І така реакція є частиною проблеми.
Ця реакція має хвилювати вас.
І якщо б я хотів запевнити
вас у цій промові,
що нам, скоріше за все, доведеться
страждати від глобального голоду
через кліматичні зміни
або якусь іншу катастрофу,
та що ваші онуки та їхні онуки
будуть ймовірно жити саме так,
ви б не подумали:
"Цікаво.
Мені подобається цей виступ на ТED".
Голод - це не весело.
А от смерть у науковій фантастиці,
з іншого боку - це весело,
та одна з речей, що мене найбільше турбує
щодо розвитку штучного інтелекту -
це наша нездатність мати відповідну
емоційну реакцію
щодо небезпек, що чигають на нас попереду.
Я не здатний осягнути цю реакцію
і саме тому виступаю на цій сцені.
Це так, наче ми стоїмо
навпроти двох дверей.
За дверима номер 1
ми припиняємо прогрес
у створенні розумних машин.
Технічне та програмне забезпечення
перестає покращуватись через якісь обставини.
А тепер поміркуймо,
чому б це могло трапитися.
Знаючи, якими цінними є
інтелект та автоматизація,
ми продовжимо удосконалювати
наші технології, якщо матимемо можливість.
Що нас може зупинити від цього?
Широкомасштабна ядерна війна?
Глобальна пандемія?
Падіння астероїду?
Джастін Бібер, що став
президентом Сполучених Штатів?
(Сміх)
Суть у тому, що щось має знищити
цивілізацію у знайомому нас вигляді.
Уявіть собі, яке страхіття має статися,
щоб завадити нам удосконалювати
наші технології
постійно,
покоління за поколінням.
Майже за визначенням,
це найгірше,
що траплялося в історії людства.
Тому єдиною альтернативою,
а саме вона знаходиться
за дверима номер два,
є подальше удосконалення
розумних машин
рік за роком, рік за роком.
Та в певний момент ми збудуємо
машини, розумніші за нас,
та щойно з'являться машини,
що розумніші за нас,
вони почнуть самі себе удосконалювати.
А тоді ми ризикуємо тим,
що математик І.Дж. Ґуд назвав
"інтелектуальним вибухом",
тим, що цей процес може вийти
з-під нашого контролю.
Тепер це часто висміюють,
як ось на цьому зображенні,
як страх, що армії злісних роботів
нас атакують.
Та це не найімовірніший сценарій.
Йдеться не про те, що наші машини
зненацька зробляться злими.
Викликає тривогу те,
що ми збудуємо машини,
які будуть настільки компетентніші
за нас,
що найменші відхилення
між нашими та їхніми цілями
зможуть нас знищити.
Лише поміркуйте, як ми поводимося
з мурахами.
Ми не ненавидимо їх.
Ми не звертаємо зі шляху,
щоб нашкодити їм.
Насправді іноді ми намагаємося
не нашкодити їм.
Ми переступаємо через них на стежці.
Та коли їхня присутність
відчутно конфліктує
з будь-якою нашою метою,
скажімо, коли ми будуємо
таку споруду, як на зображенні,
ми знищуємо їх без сумнівів.
Тривога полягає в тому,
що одного дня ми збудуємо машини,
які, свідомі чи ні,
можуть поставитися до нас
так само байдуже.
Гадаю, що це здається
багатьом з вас малоймовірним.
Я впевнений, серед вас є ті, хто сумнівається,
що надрозумні машини можливі,
що й казати про неминучість.
Тоді ви засумніваєтеся у правильності
одного з таких припущень.
А їх лише три.
Інтелект - це обробка інформації
у фізичних системах.
Насправді, це трохи більше,
ніж припущення.
Ми вже вбудували певний інтелект
в наші машини,
і багато з цих машин видають результати
на рівні надлюдського інтелекту
вже сьогодні.
Та ми знаємо, що найменший привід
може призвести до так званого
"інтелектуального вибуху",
спроможності гнучко мислити
у багатьох сферах,
адже наш мозок вже зміг це зробити.
Чи не так?
Я маю на увазі, що тут є лише атоми,
та допоки ми продовжуємо
будувати системи з атомів,
що демонструють все більш
інтелектуальну поведінку,
ми поступово,
якщо нас не зупинять,
поступово вбудуємо
загальний інтелект
в наші машини.
Важливо зрозуміти,
що рівень прогресу не має значення,
тому що будь-який прогрес здатний
призвести нас до фінального пункту.
Нам не треба закону Мура, щоб продовжувати.
Нам не потрібний експоненційний прогрес.
Нам лише треба не зупинятися.
Друге припущення полягає в тому,
що ми не зупинимося.
Будемо далі удосконалювати
наші розумні машини.
Та враховуючи цінність інтелекту--
Я маю на увазі, інтелект є або
джерелом всього, що ми цінуємо,
або він нам потрібен, щоб зберегти
все, що ми цінуємо.
Це наш найцінніший ресурс.
Тому ми хочемо це робити.
В нас є проблеми,
що їх нам вкрай необхідно залагодити.
Ми хочемо лікувати такі захворювання,
як Альцгеймер та рак.
Ми хочемо зрозуміти економічні системи.
Ми хочемо покращити нашу кліматичну науку.
Тому ми будемо це робити,
якщо зможемо.
Потяг вже поїхав зі станції,
і немає гальма, щоб його зупинити.
Нарешті, ми не стоїмо
на вершині інтелекту,
і навряд чи десь поблизу.
І це насправді ключовий факт.
Це те, що робить нашу ситуацію
такою небезпечною,
і це те, що робить нашу інтуїцію
щодо ризику настільки ненадійною.
Тепер подумайте про найрозумнішу людину,
яка будь-коли існувала.
Майже у всіх у списку є Джон фон Нейман.
Я гадаю, що враження, яке фон Нейман
справляв на людей довкола,
до яких входили найвидатніші математики
та фізики його часу,
достатньо добре задокументоване.
Якщо лише половина історій про нього
бодай наполовину правдива,
немає сумнівів, що
він один із найрозумніших людей,
які коли-небудь існували.
Тож обміркуємо спектр інтелекту.
Ось тут у нас Джон фон Нейман.
А ось тут ми з вами.
А ось тут курка.
(Сміх)
Вибачте, курка.
(Сміх)
Мені нема чого робити цю промову
гнітючішою, аніж вона має бути.
(Сміх)
Здається надзвичайно ймовірним,
що спектр інтелекту
простягається набагато далі,
ніж ми сьогодні уявляємо,
і якщо ми збудуємо машини,
що розумніші за нас,
вони, дуже ймовірно,
розвідають цей спектр
шляхами, які ми не можемо уявити,
та перевершать нас так,
як ми не можемо уявити.
Та важливо визнати, що
це правда вже з огляду на саму силу швидкості.
Правильно? Тож уявіть, що ми збудували
надрозумний штучний інтелект,
такий же розумний, як ваша
середньостатистична команда дослідників
у Стенфорді чи МТІ.
Електронні ланцюги
функціюють у мільйон разів швидше
за біохемічні,
тож ці машини мають думати
в мільйон разів швидше,
ніж розуми, що їх сконструювали.
Тож ви запускаєте її на тиждень,
і вона демонструє 20 000 років
інтелектуальної роботи людського рівня,
тиждень за тижнем, тиждень за тижнем.
Як ми можемо зрозуміти,
тим паче стримати
інтелект, що так прогресує?
Тривогу викликає ще одна річ:
це, уявіть собі, найкращий сценарій.
А тепер уявіть, ми створюємо надрозумний
штучний інтелект,
не зважаючи на жодні
міркування безпеки.
В нас уперше з'являється
бездоганний проект.
Так наче ми отримали оракула,
що поводиться саме так, як планувалося.
Тож така машина була б
ідеальним пристроєм з економії праці.
Вона може проектувати машини,
що можуть будувати машини,
що можуть робити будь-яку фізичну роботу,
працюватимуть на сонячній енергії,
більш-менш за ціною сировини.
Тож ми говоримо про кінець
важкої людської праці.
Ми також говоримо про кінець
найбільш інтелектуальної праці.
То що ж такі мавпи, як ми,
будуть робити за цих обставин?
Ми зможемо вільно грати в Фрізбі
та робити одне одному масаж.
Додайте трохи ЛСД та трохи
сумнівного гардеробу,
і весь світ буде
як фестиваль Burning Man.
(Сміх)
Непогано звучить,
але запитайте себе, що станеться
з нашим теперішнім економічним
та політичним ладом?
Ймовірно, ми станемо свідками
такої нерівності розподілу багатства
та безробіття,
яких ми ніколи не бачили.
Не бажаючи одразу
використовувати це нове багатство
на користь всього людства,
декілька мільярдерів прикрасять
обкладинки наших бізнес-журналів,
тоді як решта світу
голодуватиме.
А що робитимуть росіяни та китайці,
якщо вони почують, що якась компанія
у Кремнієвій долині
збирається ввести в дію
надрозумний штучний інтелект?
Ця машина зможе вести війну,
наземну або кібер,
з безпрецедентною могутністю.
Це сценарій, де переможець отримує все.
Бути на шість місяців попереду
у цьому змаганні,
це бути на 500 000 років попереду,
як мінімум.
Тож здається, що навіть незначні чутки
про такі досягнення
можуть спричинити
люту ненависть між людьми.
Але одна з найжахливіших речей,
на мою думку, на цей час -
це те, що кажуть розробники
штучного інтелекту,
коли хочуть заспокоїти нас.
Найпоширенішою підставою
не турбуватися, кажуть вони, є час.
Це ще так далеко,
хіба ви не знаєте.
Це ще може тривати 50 або 100 років.
Один із дослідників сказав:
"Хвилюватися через безпеку
штучного інтелекту -
те ж саме, що перейматися
перенаселенням на Марсі".
Це така версія Кремнієвої долини
фрази: "Не забивай цим
свою гарненьку голівку".
(Сміх)
Здається, ніхто не помічає,
що посилатися на часову віддаленість -
хибно.
Якщо інтелект - це питання
обробки інформації,
і ми далі удосконалюватимемо наші машини,
то ми створимо
якусь форму супер-інтелекту.
І ми не уявляємо,
скільки часу нам потрібно,
щоб створити умови,
де це буде безпечно.
Повторюю ще раз.
Ми не уявляємо,
скільки часу нам потрібно,
щоб створити умови,
де це буде безпечно.
І якщо ви не помітили,
50 років - вже не ті, що раніше.
Це 50 років у місяцях.
Стільки часу в нас уже є iPhone.
Стільки часу "Сімпсони" вже
існують на телебаченні.
П'ятдесят років -
це не так вже й багато часу,
щоб прийняти найбільший виклик,
з яким зіткнеться людський рід.
Повторюю: ми, здається, не маємо
відповідної емоційної реакції
на те, що точно до нас наближається.
Комп'ютерний експерт Стюарт Рассел
наводить гарну аналогію.
Він сказав: "Уявіть, що ми отримали
повідомлення від інопланетної цивілізації,
в якому йдеться:
"Земляни,
ми прибудемо на вашу планету через 50 років.
Готуйтеся".
І тепер ми лише рахуємо місяці, що
лишилися до прибуття космічного корабля?
Ми б відчули тоді трохи більше терміновості,
ніж ми відчуваємо тепер.
Інша причина, чому нам кажуть
не хвилюватися, полягає в тому,
що ці машини
муситимуть поділяти наші цінності,
адже вони будуть фактично
продовженням нас самих.
Їх трансплантують у наші мізки,
і ми, по суті,
станемо їхньою лімбічною системою.
Але задумаймось:
найбезпечніший
та єдиний розважливий шлях уперед,
що його нам рекомендують -
це імплантація цієї технології
прямо у мозок.
Так, це може бути найбезпечнішим
та єдиним розважливим шляхом уперед,
але зазвичай усі проблеми з безпекою
мають бути розв'язані до того,
як технологію вставлять у вашу голову.
(Сміх)
Глибшою проблемою є те, що створення
лише надрозумного штучного інтелекту
здається легшим,
ніж створення надрозумного
штучного інтелекту
та володіння повноцінною неврологією,
яка б дала нам змогу ефективно
інтегрувати наш розум із ним.
І, знаючи це, компанії та
уряди, що займаються цією розробкою,
сприймають себе наче у перегонах
проти всіх інших,
тому що виграти ці перегони -
це виграти світ,
якщо звісно його не буде знищено
наступної хвилини,
отже, здається, що те,
що зробити найлегше,
зроблять у першу чергу.
На жаль, у мене немає
розв'язку цієї проблеми,
окрім як порадити,
щоб більшість із нас думала про це.
Гадаю, нам потрібно, щось
на кшталт "Проекту Мангеттен"
на тему штучного інтелекту.
Не для того, щоб створити його, адже
я думаю, ми неминуче це зробимо,
а щоб зрозуміти,
як уникнути збройних перегонів
та створити його так, щоб він
відповідав нашим інтересам.
Коли ми розмовляємо про
надрозумний штучний інтелект,
що може самозмінюватися,
здається, в нас є лише один шанс
отримати правильні початкові умови,
і навіть тоді нам доведеться пережити
економічні та політичні наслідки
отримання правильних умов.
Та в той момент. коли ми визнаємо,
що оброблення інформації
є джерелом інтелекту,
що деякі відповідні обчислювальні системи
є базою інтелекту,
і визнаємо, що ми будемо удосконалювати
ці системи беззупинно,
а також те, що горизонт пізнання,
скоріш за все, простягається набагато далі,
ніж ми на цей час розуміємо,
тоді нам доведеться визнати,
що ми в процесі створення
своєрідного бога.
І настав час переконатися,
що з цим богом ми зможемо жити.
Дуже вам дякую.
(Оплески)