Return to Video

Чи можемо ми створити штучний інтелект, не втративши над ним контролю?

  • 0:01 - 0:03
    Сьогодні я розповім
    про нездатність до інтуїції,
  • 0:03 - 0:05
    від якої страждають багато з нас.
  • 0:05 - 0:09
    Це дійсно нездатність визначати
    певний вид небезпеки.
  • 0:09 - 0:11
    Я опишу сценарій,
  • 0:11 - 0:14
    що, на мою думку, є водночас жахливий
  • 0:14 - 0:16
    та дуже ймовірний
  • 0:17 - 0:18
    і не є гарною комбінацією,
  • 0:18 - 0:20
    як виявляється.
  • 0:20 - 0:23
    Та все одно, замість того, щоб злякатися,
    більшість з вас відчують,
  • 0:23 - 0:25
    що те, про що я веду мову,
    скоріше прикольне.
  • 0:26 - 0:28
    Я розповім, як прибутки,
  • 0:28 - 0:30
    що ми отримуємо від штучного інтелекту,
  • 0:30 - 0:31
    можуть, врешті-решт, знищити нас.
  • 0:31 - 0:35
    Насправді, я думаю, дуже важко
    зрозуміти, як вони НЕ знищать нас
  • 0:35 - 0:37
    або не надихнуть нас знищити самих себе.
  • 0:37 - 0:39
    Та якщо ви такий як я,
  • 0:39 - 0:42
    вам здасться, що думати
    про такі речі - весело,
  • 0:42 - 0:45
    І така реакція є частиною проблеми.
  • 0:45 - 0:47
    Ця реакція має хвилювати вас.
  • 0:48 - 0:51
    І якщо б я хотів запевнити
    вас у цій промові,
  • 0:51 - 0:54
    що нам, скоріше за все, доведеться
    страждати від глобального голоду
  • 0:54 - 0:57
    через кліматичні зміни
    або якусь іншу катастрофу,
  • 0:57 - 1:00
    та що ваші онуки та їхні онуки
  • 1:00 - 1:02
    будуть ймовірно жити саме так,
  • 1:03 - 1:05
    ви б не подумали:
  • 1:05 - 1:07
    "Цікаво.
  • 1:07 - 1:08
    Мені подобається цей виступ на ТED".
  • 1:10 - 1:11
    Голод - це не весело.
  • 1:12 - 1:15
    А от смерть у науковій фантастиці,
    з іншого боку - це весело,
  • 1:15 - 1:19
    та одна з речей, що мене найбільше турбує
    щодо розвитку штучного інтелекту -
  • 1:19 - 1:23
    це наша нездатність мати відповідну
    емоційну реакцію
  • 1:23 - 1:25
    щодо небезпек, що чигають на нас попереду.
  • 1:25 - 1:29
    Я не здатний осягнути цю реакцію
    і саме тому виступаю на цій сцені.
  • 1:30 - 1:33
    Це так, наче ми стоїмо
    навпроти двох дверей.
  • 1:33 - 1:34
    За дверима номер 1
  • 1:34 - 1:37
    ми припиняємо прогрес
    у створенні розумних машин.
  • 1:37 - 1:41
    Технічне та програмне забезпечення
    перестає покращуватись через якісь обставини.
  • 1:41 - 1:44
    А тепер поміркуймо,
    чому б це могло трапитися.
  • 1:45 - 1:49
    Знаючи, якими цінними є
    інтелект та автоматизація,
  • 1:49 - 1:52
    ми продовжимо удосконалювати
    наші технології, якщо матимемо можливість.
  • 1:53 - 1:55
    Що нас може зупинити від цього?
  • 1:56 - 1:58
    Широкомасштабна ядерна війна?
  • 1:59 - 2:01
    Глобальна пандемія?
  • 2:02 - 2:04
    Падіння астероїду?
  • 2:06 - 2:08
    Джастін Бібер, що став
    президентом Сполучених Штатів?
  • 2:08 - 2:11
    (Сміх)
  • 2:13 - 2:17
    Суть у тому, що щось має знищити
    цивілізацію у знайомому нас вигляді.
  • 2:17 - 2:22
    Уявіть собі, яке страхіття має статися,
  • 2:22 - 2:25
    щоб завадити нам удосконалювати
    наші технології
  • 2:25 - 2:26
    постійно,
  • 2:26 - 2:28
    покоління за поколінням.
  • 2:28 - 2:30
    Майже за визначенням,
    це найгірше,
  • 2:30 - 2:32
    що траплялося в історії людства.
  • 2:33 - 2:34
    Тому єдиною альтернативою,
  • 2:34 - 2:36
    а саме вона знаходиться
    за дверима номер два,
  • 2:36 - 2:39
    є подальше удосконалення
    розумних машин
  • 2:39 - 2:41
    рік за роком, рік за роком.
  • 2:42 - 2:45
    Та в певний момент ми збудуємо
    машини, розумніші за нас,
  • 2:46 - 2:49
    та щойно з'являться машини,
    що розумніші за нас,
  • 2:49 - 2:51
    вони почнуть самі себе удосконалювати.
  • 2:51 - 2:53
    А тоді ми ризикуємо тим,
    що математик І.Дж. Ґуд назвав
  • 2:53 - 2:55
    "інтелектуальним вибухом",
  • 2:56 - 2:58
    тим, що цей процес може вийти
    з-під нашого контролю.
  • 2:58 - 3:01
    Тепер це часто висміюють,
    як ось на цьому зображенні,
  • 3:01 - 3:04
    як страх, що армії злісних роботів
  • 3:04 - 3:05
    нас атакують.
  • 3:05 - 3:08
    Та це не найімовірніший сценарій.
  • 3:08 - 3:13
    Йдеться не про те, що наші машини
    зненацька зробляться злими.
  • 3:13 - 3:16
    Викликає тривогу те,
    що ми збудуємо машини,
  • 3:16 - 3:18
    які будуть настільки компетентніші
    за нас,
  • 3:18 - 3:22
    що найменші відхилення
    між нашими та їхніми цілями
  • 3:22 - 3:23
    зможуть нас знищити.
  • 3:24 - 3:26
    Лише поміркуйте, як ми поводимося
    з мурахами.
  • 3:27 - 3:28
    Ми не ненавидимо їх.
  • 3:28 - 3:30
    Ми не звертаємо зі шляху,
    щоб нашкодити їм.
  • 3:30 - 3:33
    Насправді іноді ми намагаємося
    не нашкодити їм.
  • 3:33 - 3:35
    Ми переступаємо через них на стежці.
  • 3:35 - 3:37
    Та коли їхня присутність
  • 3:37 - 3:39
    відчутно конфліктує
    з будь-якою нашою метою,
  • 3:39 - 3:42
    скажімо, коли ми будуємо
    таку споруду, як на зображенні,
  • 3:42 - 3:44
    ми знищуємо їх без сумнівів.
  • 3:44 - 3:47
    Тривога полягає в тому,
    що одного дня ми збудуємо машини,
  • 3:47 - 3:50
    які, свідомі чи ні,
  • 3:50 - 3:53
    можуть поставитися до нас
    так само байдуже.
  • 3:54 - 3:57
    Гадаю, що це здається
    багатьом з вас малоймовірним.
  • 3:57 - 4:04
    Я впевнений, серед вас є ті, хто сумнівається,
    що надрозумні машини можливі,
  • 4:04 - 4:05
    що й казати про неминучість.
  • 4:05 - 4:09
    Тоді ви засумніваєтеся у правильності
    одного з таких припущень.
  • 4:09 - 4:11
    А їх лише три.
  • 4:12 - 4:17
    Інтелект - це обробка інформації
    у фізичних системах.
  • 4:17 - 4:20
    Насправді, це трохи більше,
    ніж припущення.
  • 4:20 - 4:23
    Ми вже вбудували певний інтелект
    в наші машини,
  • 4:23 - 4:25
    і багато з цих машин видають результати
  • 4:25 - 4:28
    на рівні надлюдського інтелекту
    вже сьогодні.
  • 4:29 - 4:31
    Та ми знаємо, що найменший привід
  • 4:31 - 4:34
    може призвести до так званого
    "інтелектуального вибуху",
  • 4:34 - 4:38
    спроможності гнучко мислити
    у багатьох сферах,
  • 4:38 - 4:41
    адже наш мозок вже зміг це зробити.
    Чи не так?
  • 4:41 - 4:45
    Я маю на увазі, що тут є лише атоми,
  • 4:45 - 4:49
    та допоки ми продовжуємо
    будувати системи з атомів,
  • 4:49 - 4:52
    що демонструють все більш
    інтелектуальну поведінку,
  • 4:52 - 4:55
    ми поступово,
    якщо нас не зупинять,
  • 4:55 - 4:58
    поступово вбудуємо
    загальний інтелект
  • 4:58 - 4:59
    в наші машини.
  • 4:59 - 5:03
    Важливо зрозуміти,
    що рівень прогресу не має значення,
  • 5:03 - 5:06
    тому що будь-який прогрес здатний
    призвести нас до фінального пункту.
  • 5:06 - 5:10
    Нам не треба закону Мура, щоб продовжувати.
    Нам не потрібний експоненційний прогрес.
  • 5:10 - 5:12
    Нам лише треба не зупинятися.
  • 5:13 - 5:16
    Друге припущення полягає в тому,
    що ми не зупинимося.
  • 5:17 - 5:20
    Будемо далі удосконалювати
    наші розумні машини.
  • 5:21 - 5:25
    Та враховуючи цінність інтелекту--
  • 5:25 - 5:29
    Я маю на увазі, інтелект є або
    джерелом всього, що ми цінуємо,
  • 5:29 - 5:32
    або він нам потрібен, щоб зберегти
    все, що ми цінуємо.
  • 5:32 - 5:34
    Це наш найцінніший ресурс.
  • 5:34 - 5:36
    Тому ми хочемо це робити.
  • 5:36 - 5:39
    В нас є проблеми,
    що їх нам вкрай необхідно залагодити.
  • 5:39 - 5:42
    Ми хочемо лікувати такі захворювання,
    як Альцгеймер та рак.
  • 5:43 - 5:47
    Ми хочемо зрозуміти економічні системи.
    Ми хочемо покращити нашу кліматичну науку.
  • 5:47 - 5:49
    Тому ми будемо це робити,
    якщо зможемо.
  • 5:49 - 5:52
    Потяг вже поїхав зі станції,
    і немає гальма, щоб його зупинити.
  • 5:54 - 5:59
    Нарешті, ми не стоїмо
    на вершині інтелекту,
  • 5:59 - 6:01
    і навряд чи десь поблизу.
  • 6:02 - 6:04
    І це насправді ключовий факт.
  • 6:04 - 6:06
    Це те, що робить нашу ситуацію
    такою небезпечною,
  • 6:06 - 6:10
    і це те, що робить нашу інтуїцію
    щодо ризику настільки ненадійною.
  • 6:11 - 6:14
    Тепер подумайте про найрозумнішу людину,
    яка будь-коли існувала.
  • 6:15 - 6:18
    Майже у всіх у списку є Джон фон Нейман.
  • 6:18 - 6:21
    Я гадаю, що враження, яке фон Нейман
    справляв на людей довкола,
  • 6:21 - 6:25
    до яких входили найвидатніші математики
    та фізики його часу,
  • 6:26 - 6:27
    достатньо добре задокументоване.
  • 6:27 - 6:31
    Якщо лише половина історій про нього
    бодай наполовину правдива,
  • 6:31 - 6:32
    немає сумнівів, що
  • 6:33 - 6:35
    він один із найрозумніших людей,
    які коли-небудь існували.
  • 6:35 - 6:38
    Тож обміркуємо спектр інтелекту.
  • 6:38 - 6:40
    Ось тут у нас Джон фон Нейман.
  • 6:42 - 6:43
    А ось тут ми з вами.
  • 6:44 - 6:45
    А ось тут курка.
  • 6:45 - 6:47
    (Сміх)
  • 6:47 - 6:49
    Вибачте, курка.
  • 6:49 - 6:50
    (Сміх)
  • 6:50 - 6:54
    Мені нема чого робити цю промову
    гнітючішою, аніж вона має бути.
  • 6:54 - 6:55
    (Сміх)
  • 6:56 - 7:00
    Здається надзвичайно ймовірним,
    що спектр інтелекту
  • 7:00 - 7:03
    простягається набагато далі,
    ніж ми сьогодні уявляємо,
  • 7:04 - 7:07
    і якщо ми збудуємо машини,
    що розумніші за нас,
  • 7:07 - 7:09
    вони, дуже ймовірно,
    розвідають цей спектр
  • 7:09 - 7:11
    шляхами, які ми не можемо уявити,
  • 7:11 - 7:14
    та перевершать нас так,
    як ми не можемо уявити.
  • 7:15 - 7:19
    Та важливо визнати, що
    це правда вже з огляду на саму силу швидкості.
  • 7:19 - 7:24
    Правильно? Тож уявіть, що ми збудували
    надрозумний штучний інтелект,
  • 7:24 - 7:28
    такий же розумний, як ваша
    середньостатистична команда дослідників
  • 7:28 - 7:30
    у Стенфорді чи МТІ.
  • 7:30 - 7:33
    Електронні ланцюги
    функціюють у мільйон разів швидше
  • 7:33 - 7:34
    за біохемічні,
  • 7:35 - 7:38
    тож ці машини мають думати
    в мільйон разів швидше,
  • 7:38 - 7:39
    ніж розуми, що їх сконструювали.
  • 7:39 - 7:41
    Тож ви запускаєте її на тиждень,
  • 7:41 - 7:46
    і вона демонструє 20 000 років
    інтелектуальної роботи людського рівня,
  • 7:46 - 7:48
    тиждень за тижнем, тиждень за тижнем.
  • 7:50 - 7:53
    Як ми можемо зрозуміти,
    тим паче стримати
  • 7:53 - 7:56
    інтелект, що так прогресує?
  • 7:57 - 7:59
    Тривогу викликає ще одна річ:
  • 7:59 - 8:04
    це, уявіть собі, найкращий сценарій.
  • 8:04 - 8:08
    А тепер уявіть, ми створюємо надрозумний
    штучний інтелект,
  • 8:08 - 8:10
    не зважаючи на жодні
    міркування безпеки.
  • 8:10 - 8:13
    В нас уперше з'являється
    бездоганний проект.
  • 8:13 - 8:15
    Так наче ми отримали оракула,
  • 8:15 - 8:17
    що поводиться саме так, як планувалося.
  • 8:17 - 8:21
    Тож така машина була б
    ідеальним пристроєм з економії праці.
  • 8:21 - 8:24
    Вона може проектувати машини,
    що можуть будувати машини,
  • 8:24 - 8:26
    що можуть робити будь-яку фізичну роботу,
  • 8:26 - 8:27
    працюватимуть на сонячній енергії,
  • 8:27 - 8:30
    більш-менш за ціною сировини.
  • 8:30 - 8:33
    Тож ми говоримо про кінець
    важкої людської праці.
  • 8:33 - 8:37
    Ми також говоримо про кінець
    найбільш інтелектуальної праці.
  • 8:37 - 8:40
    То що ж такі мавпи, як ми,
    будуть робити за цих обставин?
  • 8:40 - 8:44
    Ми зможемо вільно грати в Фрізбі
    та робити одне одному масаж.
  • 8:46 - 8:49
    Додайте трохи ЛСД та трохи
    сумнівного гардеробу,
  • 8:49 - 8:51
    і весь світ буде
    як фестиваль Burning Man.
  • 8:51 - 8:53
    (Сміх)
  • 8:54 - 8:56
    Непогано звучить,
  • 8:57 - 9:00
    але запитайте себе, що станеться
  • 9:00 - 9:02
    з нашим теперішнім економічним
    та політичним ладом?
  • 9:02 - 9:05
    Ймовірно, ми станемо свідками
  • 9:05 - 9:09
    такої нерівності розподілу багатства
    та безробіття,
  • 9:09 - 9:11
    яких ми ніколи не бачили.
  • 9:11 - 9:13
    Не бажаючи одразу
    використовувати це нове багатство
  • 9:13 - 9:15
    на користь всього людства,
  • 9:16 - 9:19
    декілька мільярдерів прикрасять
    обкладинки наших бізнес-журналів,
  • 9:19 - 9:22
    тоді як решта світу
    голодуватиме.
  • 9:22 - 9:25
    А що робитимуть росіяни та китайці,
  • 9:25 - 9:27
    якщо вони почують, що якась компанія
    у Кремнієвій долині
  • 9:27 - 9:30
    збирається ввести в дію
    надрозумний штучний інтелект?
  • 9:30 - 9:33
    Ця машина зможе вести війну,
  • 9:33 - 9:35
    наземну або кібер,
  • 9:35 - 9:37
    з безпрецедентною могутністю.
  • 9:38 - 9:40
    Це сценарій, де переможець отримує все.
  • 9:40 - 9:43
    Бути на шість місяців попереду
    у цьому змаганні,
  • 9:43 - 9:46
    це бути на 500 000 років попереду,
  • 9:46 - 9:47
    як мінімум.
  • 9:47 - 9:52
    Тож здається, що навіть незначні чутки
    про такі досягнення
  • 9:52 - 9:55
    можуть спричинити
    люту ненависть між людьми.
  • 9:55 - 9:58
    Але одна з найжахливіших речей,
  • 9:58 - 10:00
    на мою думку, на цей час -
  • 10:00 - 10:05
    це те, що кажуть розробники
    штучного інтелекту,
  • 10:05 - 10:07
    коли хочуть заспокоїти нас.
  • 10:07 - 10:10
    Найпоширенішою підставою
    не турбуватися, кажуть вони, є час.
  • 10:10 - 10:13
    Це ще так далеко,
    хіба ви не знаєте.
  • 10:13 - 10:15
    Це ще може тривати 50 або 100 років.
  • 10:16 - 10:17
    Один із дослідників сказав:
  • 10:17 - 10:19
    "Хвилюватися через безпеку
    штучного інтелекту -
  • 10:19 - 10:21
    те ж саме, що перейматися
    перенаселенням на Марсі".
  • 10:22 - 10:24
    Це така версія Кремнієвої долини
  • 10:24 - 10:26
    фрази: "Не забивай цим
    свою гарненьку голівку".
  • 10:26 - 10:27
    (Сміх)
  • 10:28 - 10:29
    Здається, ніхто не помічає,
  • 10:29 - 10:32
    що посилатися на часову віддаленість -
  • 10:32 - 10:35
    хибно.
  • 10:35 - 10:38
    Якщо інтелект - це питання
    обробки інформації,
  • 10:38 - 10:41
    і ми далі удосконалюватимемо наші машини,
  • 10:41 - 10:44
    то ми створимо
    якусь форму супер-інтелекту.
  • 10:44 - 10:48
    І ми не уявляємо,
    скільки часу нам потрібно,
  • 10:48 - 10:50
    щоб створити умови,
    де це буде безпечно.
  • 10:52 - 10:53
    Повторюю ще раз.
  • 10:54 - 10:57
    Ми не уявляємо,
    скільки часу нам потрібно,
  • 10:57 - 11:00
    щоб створити умови,
    де це буде безпечно.
  • 11:01 - 11:04
    І якщо ви не помітили,
    50 років - вже не ті, що раніше.
  • 11:04 - 11:07
    Це 50 років у місяцях.
  • 11:07 - 11:09
    Стільки часу в нас уже є iPhone.
  • 11:09 - 11:12
    Стільки часу "Сімпсони" вже
    існують на телебаченні.
  • 11:13 - 11:15
    П'ятдесят років -
    це не так вже й багато часу,
  • 11:15 - 11:19
    щоб прийняти найбільший виклик,
    з яким зіткнеться людський рід.
  • 11:20 - 11:24
    Повторюю: ми, здається, не маємо
    відповідної емоційної реакції
  • 11:24 - 11:26
    на те, що точно до нас наближається.
  • 11:26 - 11:30
    Комп'ютерний експерт Стюарт Рассел
    наводить гарну аналогію.
  • 11:30 - 11:35
    Він сказав: "Уявіть, що ми отримали
    повідомлення від інопланетної цивілізації,
  • 11:35 - 11:37
    в якому йдеться:
  • 11:37 - 11:39
    "Земляни,
  • 11:39 - 11:41
    ми прибудемо на вашу планету через 50 років.
  • 11:42 - 11:43
    Готуйтеся".
  • 11:43 - 11:48
    І тепер ми лише рахуємо місяці, що
    лишилися до прибуття космічного корабля?
  • 11:48 - 11:51
    Ми б відчули тоді трохи більше терміновості,
    ніж ми відчуваємо тепер.
  • 11:52 - 11:55
    Інша причина, чому нам кажуть
    не хвилюватися, полягає в тому,
  • 11:55 - 11:58
    що ці машини
    муситимуть поділяти наші цінності,
  • 11:58 - 12:00
    адже вони будуть фактично
    продовженням нас самих.
  • 12:00 - 12:02
    Їх трансплантують у наші мізки,
  • 12:02 - 12:04
    і ми, по суті,
    станемо їхньою лімбічною системою.
  • 12:05 - 12:07
    Але задумаймось:
  • 12:07 - 12:10
    найбезпечніший
    та єдиний розважливий шлях уперед,
  • 12:10 - 12:11
    що його нам рекомендують -
  • 12:11 - 12:14
    це імплантація цієї технології
    прямо у мозок.
  • 12:15 - 12:18
    Так, це може бути найбезпечнішим
    та єдиним розважливим шляхом уперед,
  • 12:18 - 12:21
    але зазвичай усі проблеми з безпекою
  • 12:21 - 12:25
    мають бути розв'язані до того,
    як технологію вставлять у вашу голову.
  • 12:25 - 12:27
    (Сміх)
  • 12:27 - 12:32
    Глибшою проблемою є те, що створення
    лише надрозумного штучного інтелекту
  • 12:32 - 12:34
    здається легшим,
  • 12:34 - 12:36
    ніж створення надрозумного
    штучного інтелекту
  • 12:36 - 12:38
    та володіння повноцінною неврологією,
  • 12:38 - 12:41
    яка б дала нам змогу ефективно
    інтегрувати наш розум із ним.
  • 12:41 - 12:44
    І, знаючи це, компанії та
    уряди, що займаються цією розробкою,
  • 12:44 - 12:48
    сприймають себе наче у перегонах
    проти всіх інших,
  • 12:48 - 12:51
    тому що виграти ці перегони -
    це виграти світ,
  • 12:51 - 12:53
    якщо звісно його не буде знищено
    наступної хвилини,
  • 12:53 - 12:56
    отже, здається, що те,
    що зробити найлегше,
  • 12:56 - 12:57
    зроблять у першу чергу.
  • 12:59 - 13:01
    На жаль, у мене немає
    розв'язку цієї проблеми,
  • 13:01 - 13:04
    окрім як порадити,
    щоб більшість із нас думала про це.
  • 13:04 - 13:06
    Гадаю, нам потрібно, щось
    на кшталт "Проекту Мангеттен"
  • 13:06 - 13:08
    на тему штучного інтелекту.
  • 13:09 - 13:11
    Не для того, щоб створити його, адже
    я думаю, ми неминуче це зробимо,
  • 13:11 - 13:15
    а щоб зрозуміти,
    як уникнути збройних перегонів
  • 13:15 - 13:18
    та створити його так, щоб він
    відповідав нашим інтересам.
  • 13:18 - 13:20
    Коли ми розмовляємо про
    надрозумний штучний інтелект,
  • 13:20 - 13:23
    що може самозмінюватися,
  • 13:23 - 13:27
    здається, в нас є лише один шанс
    отримати правильні початкові умови,
  • 13:27 - 13:29
    і навіть тоді нам доведеться пережити
  • 13:29 - 13:32
    економічні та політичні наслідки
    отримання правильних умов.
  • 13:34 - 13:36
    Та в той момент. коли ми визнаємо,
  • 13:36 - 13:40
    що оброблення інформації
    є джерелом інтелекту,
  • 13:41 - 13:46
    що деякі відповідні обчислювальні системи
    є базою інтелекту,
  • 13:46 - 13:50
    і визнаємо, що ми будемо удосконалювати
    ці системи беззупинно,
  • 13:51 - 13:56
    а також те, що горизонт пізнання,
    скоріш за все, простягається набагато далі,
  • 13:56 - 13:57
    ніж ми на цей час розуміємо,
  • 13:58 - 13:59
    тоді нам доведеться визнати,
  • 13:59 - 14:02
    що ми в процесі створення
    своєрідного бога.
  • 14:03 - 14:05
    І настав час переконатися,
  • 14:05 - 14:07
    що з цим богом ми зможемо жити.
  • 14:08 - 14:10
    Дуже вам дякую.
  • 14:10 - 14:15
    (Оплески)
Title:
Чи можемо ми створити штучний інтелект, не втративши над ним контролю?
Speaker:
Сем Гарріс
Description:

Налякані надрозумним штучним інтелектом? А треба, каже нейронауковець і філософ Сем Гарріс - та не лише в теорії. Ми збудуємо машини-надлюдей, запевняє Гарріс, та ми ще не задумувалися над проблемами, пов'язаними із створенням чогось такого, що зможе ставитися до нас, як до мурах.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Ukrainian subtitles

Revisions