Return to Video

Химерна небезпека штучного інтелекту (ШІ)

  • 0:02 - 0:05
    Штучний інтелект
  • 0:05 - 0:08
    відомий своїм впливом
    на усі галузі промисловості.
  • 0:09 - 0:11
    А як щодо морозива?
  • 0:12 - 0:16
    Які нові дивовижні смаки
    ми можемо отримати
  • 0:16 - 0:19
    за допомогою передового
    штучного інтелекту?
  • 0:19 - 0:23
    Отож, я об'єднала свої зусилля із групою
    програмістів зі школи Кілінг Міддл Скул,
  • 0:23 - 0:25
    щоб знайти відповідь на це запитання.
  • 0:25 - 0:31
    Програмісти зібрали понад 1600
    існуючих назв смаків морозива,
  • 0:31 - 0:36
    і ми пов'язали ці смаки із алгоритмом,
    щоб побачити, що він видасть.
  • 0:36 - 0:40
    Ось неповний перелік смаків,
    які нам видав штучний інтелект (ШІ).
  • 0:40 - 0:42
    [Смак гарбуза зі сміттям]
  • 0:42 - 0:43
    (Сміх)
  • 0:43 - 0:46
    [Смак арахісового масла зі слизом]
  • 0:47 - 0:48
    [Полунично-вершкова інфекція]
  • 0:48 - 0:50
    (Сміх)
  • 0:50 - 0:55
    Ці смаки видалися не такими смачними,
    як ми на те сподівалися.
  • 0:55 - 0:57
    Із цього випливає питання: Що сталося?
  • 0:57 - 0:58
    Що пішло не так?
  • 0:58 - 1:00
    Невже ШІ намагається нас вбити?
  • 1:01 - 1:05
    Чи він намагається зробити те, що ми
    попросили, а це і стало проблемою?
  • 1:07 - 1:09
    У фільмах, коли щось пішло не так зі ШІ,
  • 1:09 - 1:12
    зазвичай поясненням є те, що ШІ вирішив,
  • 1:12 - 1:14
    що він більше не хоче підкорятися людині,
  • 1:14 - 1:17
    та він має власні цілі, і все, дуже дякую.
  • 1:17 - 1:20
    Проте у реальному житті, ШІ,
    який фактично існує зараз,
  • 1:20 - 1:22
    ще не настільки розумний, щоб утнути таке.
  • 1:23 - 1:26
    Він має приблизно таку саму
    обчислювальну потужність,
  • 1:26 - 1:27
    як дощовий черв'як,
  • 1:27 - 1:30
    або максимум, як одна бджола,
  • 1:31 - 1:33
    а насправді, можливо і менше.
  • 1:33 - 1:35
    Подібним чином ми дізнаємося
    щось нове про наш мозок
  • 1:35 - 1:40
    і тоді бачимо, як далеко ще знаходиться
    ШІ у порівнянні з людським мозком.
  • 1:40 - 1:45
    У наш час ШІ здатний, наприклад,
    розпізнати пішохода на малюнку,
  • 1:45 - 1:48
    але він не має уявлення про те,
    що це таке -- пішохід.
  • 1:48 - 1:53
    Для ШІ пішохід -- це набір
    ліній та текстури, і таке інше.
  • 1:54 - 1:56
    Він не розуміє насправді,
    що це таке -- людина.
  • 1:57 - 2:00
    Тож чи виконає сучасний ШІ те,
    що нам потрібно зробити?
  • 2:00 - 2:02
    Виконає, якщо зможе,
  • 2:02 - 2:04
    але мабуть він виконає це не так,
    як би нам того хотілося.
  • 2:04 - 2:07
    Уявімо, що ви намагаєтеся
    зробити так, щоб ШІ
  • 2:07 - 2:10
    взяв ці окремі частини робота
  • 2:10 - 2:14
    і склав із них іншого робота, який повинен
    дістатися з точки А у точку Б.
  • 2:14 - 2:16
    Якби ви намагалися вирішити цю проблему
  • 2:16 - 2:19
    шляхом написання традиційної
    комп'ютерної програми,
  • 2:19 - 2:22
    ви б надали цій програмі
    покрокові вказівки стосовно того,
  • 2:22 - 2:23
    як взяти ці частини,
  • 2:23 - 2:26
    як скласти з них робота з ногами,
  • 2:26 - 2:29
    і як застосувати ці ноги,
    щоб дійти до точки Б.
  • 2:29 - 2:32
    Але якщо застосувати ШІ
    для вирішення цієї проблеми,
  • 2:32 - 2:33
    він зробить по-іншому.
  • 2:33 - 2:35
    Ви не повідомляєте йому,
    як вирішити цю проблему,
  • 2:35 - 2:37
    ви лише ставите перед ним мету,
  • 2:37 - 2:40
    а він повинен визначити для себе
    шляхом спроб та помилок,
  • 2:40 - 2:42
    як досягти цієї мети.
  • 2:42 - 2:46
    І, виявляється, що спосіб, за допомогою
    якого ШІ намагається вирішити цю проблему,
  • 2:46 - 2:48
    полягає в наступному:
  • 2:48 - 2:51
    він складає із тих частин вежу,
    яка потім падає
  • 2:51 - 2:53
    і приземляється у точку Б.
  • 2:53 - 2:56
    Фактично, цим вирішується дана проблема.
  • 2:56 - 2:58
    Фактично, він дістався до точки Б.
  • 2:58 - 3:02
    Небезпека ШІ полягає не в тому,
    що він повстане проти нас,
  • 3:02 - 3:06
    а в тому, що він робитиме конкретно те,
    що ми його попросимо зробити.
  • 3:07 - 3:09
    Головна складність роботи зі ШІ
    полягає у цьому:
  • 3:09 - 3:13
    як вирішити проблему, щоб ШІ
    зробив саме те, що нам потрібно?
  • 3:15 - 3:18
    Тож зараз ви бачите маленького
    робота, яким керує ШІ.
  • 3:18 - 3:21
    ШІ спроектував ноги робота,
  • 3:21 - 3:25
    а потім спланував, як їх застосувати,
    щоб подолати ці перешкоди.
  • 3:25 - 3:28
    Але коли Дейвід Ха
    проводив цей експеримент,
  • 3:28 - 3:31
    він був змушений провести його
    у дуже суворих рамках
  • 3:31 - 3:34
    стосовно того, який розмір ніг
    дозволялося мати ШІ,
  • 3:34 - 3:36
    тому що у іншому випадку...
  • 3:43 - 3:47
    (Сміх)
  • 3:49 - 3:52
    Фактично, він дістався
    до кінця смуги перешкод.
  • 3:52 - 3:57
    Тож ви бачите, як складно навчити ШІ
    навіть такому простому, як ходьба.
  • 3:57 - 4:01
    Коли ви побачили, як це робить ШІ,
    ви можете сказати, що це нечесно,
  • 4:01 - 4:04
    ти не можеш просто стати вежею,
    а потім впасти,
  • 4:04 - 4:07
    фактично, тобі необхідно
    застосувати ноги, щоб ходити.
  • 4:07 - 4:10
    І виявляється, це теж
    не завжди спрацьовує.
  • 4:10 - 4:13
    Це завдання ШІ полягало
    у швидкому русі.
  • 4:13 - 4:17
    У ШІ не було вказівок стосовно того,
    що він повинен бігти обличчям вперед,
  • 4:17 - 4:19
    або що йому заборонено
    використовувати руки.
  • 4:19 - 4:24
    Ось, що ви отримаєте, коли будете
    тренувати ШІ рухатися швидко.
  • 4:24 - 4:28
    Ви отримаєте такий результат,
    як перекочування та незграбна ходьба.
  • 4:28 - 4:29
    Це справді так.
  • 4:30 - 4:33
    Або дивні рухи по підлозі у вигляді купи.
  • 4:33 - 4:34
    (Сміх)
  • 4:35 - 4:38
    На мою думку, більш чудернацькими були б
  • 4:38 - 4:40
    роботи "Термінатори".
  • 4:40 - 4:44
    ШІ може навіть зламати "Матрицю",
    якщо ви дасте йому таке завдання.
  • 4:44 - 4:47
    Під час навчання в ком'ютерній симуляції,
  • 4:47 - 4:51
    ШІ навчиться, як зламувати
    математичні помилки симуляції
  • 4:51 - 4:53
    та збирати їх для енергії.
  • 4:53 - 4:58
    Або він зрозуміє, як рухатися швидше,
    повторно відштовхуючись від підлоги.
  • 4:58 - 5:00
    Коли ви працюєте зі ШІ,
  • 5:00 - 5:02
    це не схоже на роботу з іншою людиною,
  • 5:02 - 5:06
    а більш схоже на співпрацю
    зі згубною силою природи.
  • 5:07 - 5:11
    І дуже легко випадково поставити
    перед ШІ зовсім не ту проблему,
  • 5:11 - 5:16
    і часто ми усвідомлюємо це лише тоді,
    коли щось пішло не так.
  • 5:16 - 5:18
    Ось результати проведеного експерименту,
  • 5:18 - 5:22
    під час якого я хотіла,
    щоб ШІ скопіював фарби
  • 5:22 - 5:23
    для винайдення нових кольорів,
  • 5:23 - 5:26
    на основі переліку фарб, які подані зліва.
  • 5:27 - 5:30
    І ось, що ШІ фактично вигадав.
  • 5:30 - 5:33
    [Сіндійський Дурень, Випорожнення,
    Страждання, Сіре Суспільство]
  • 5:33 - 5:37
    (Сміх)
  • 5:39 - 5:41
    Фактично,
  • 5:41 - 5:43
    він зробив те, про що я його попросила.
  • 5:43 - 5:46
    Я думала, що попросила його, скажімо,
    вигадати красиві назви кольорів,
  • 5:46 - 5:49
    але насправді я поставила
    перед ним завдання
  • 5:49 - 5:52
    лише зімітувати різні
    варіанти буквосполучень,
  • 5:52 - 5:54
    які він побачив в оригіналі.
  • 5:54 - 5:57
    І я не говорила нічого про
    значення цих слів
  • 5:57 - 5:59
    або про те, що, можливо,
    існують певні слові,
  • 5:59 - 6:02
    яких слід уникати,
    вигадуючи назви цих кольорів.
  • 6:03 - 6:07
    Отже, його знання обмежуються
    лише інформацією, яку я надала.
  • 6:07 - 6:11
    Наприклад, як назви смаків морозива,
    про які він більше нічого не знає.
  • 6:12 - 6:14
    Саме через подачу такої інформації
  • 6:14 - 6:18
    трапляється, що ми часто просимо ШІ
    робити не те, що нам потрібно.
  • 6:19 - 6:22
    На екрані ви бачите
    зображення риби під назвою "лин".
  • 6:22 - 6:24
    Отже, одна група дослідників
  • 6:24 - 6:27
    тренувала ШІ розпізнавати
    зображення цього лина на малюнках.
  • 6:27 - 6:29
    Коли вони запитали його,
  • 6:29 - 6:32
    яку частину малюнка він застосовував
    для розпізнавання цієї риби,
  • 6:32 - 6:34
    результат був наступним:
  • 6:35 - 6:37
    так, це були людські пальці.
  • 6:37 - 6:39
    Чому він шукав зображення пальців,
  • 6:39 - 6:41
    якщо він намагався розпізнати рибу?
  • 6:42 - 6:45
    Виявляється, що лин -- це рідкісна риба,
  • 6:45 - 6:49
    тому на багатьох фотографіях
    цієї риби, які бачив ШІ
  • 6:49 - 6:50
    під час тренувань,
  • 6:50 - 6:52
    ця риба виглядала ось так.
  • 6:52 - 6:53
    (Сміх)
  • 6:53 - 6:57
    І він не розумів, що пальці
    не є частиною цієї риби.
  • 6:59 - 7:03
    Тепер зрозуміло, чому так важко
    запрограмувати ШІ таким чином,
  • 7:03 - 7:06
    щоб він міг зрозуміти те,
    на що він дивиться.
  • 7:06 - 7:09
    Саме тому розробка
    системи розпізнавання зображень
  • 7:09 - 7:11
    для самокерованих автомобілів
    дуже складна.
  • 7:11 - 7:13
    І тому часті збої у роботі цих автомобілів
  • 7:14 - 7:16
    пояснюються тим, що ШІ
    опинився у безвиході.
  • 7:16 - 7:20
    Я хочу розповісти про аварію,
    яка сталася у 2016 році.
  • 7:20 - 7:25
    Причина фатального ДТП -- режим автопілота
    під керуванням ШІ у електрокарі Тесла,
  • 7:25 - 7:28
    але замість застосування ШІ на
    автомагістралі, для чого його і створили,
  • 7:28 - 7:31
    його використали на дорогах міста.
  • 7:31 - 7:32
    І сталось так, що
  • 7:32 - 7:36
    вантажівка виїхала перед електрокаром,
    і йому не вдалося загальмувати.
  • 7:37 - 7:41
    Розумієте, ШІ точно тренували на
    розпізнавання вантажівок на фото.
  • 7:41 - 7:43
    Але, здається, трапилось так, що
  • 7:43 - 7:46
    ШІ тренували для розпізнавання
    вантажівок на автомагістралі,
  • 7:46 - 7:49
    де ви очікуєте побачити вантажівки позаду.
  • 7:49 - 7:53
    Вантажівки не можуть бути
    на бічній смузі автомагістралі,
  • 7:53 - 7:56
    тому, коли ШІ помітив цю вантажівку,
  • 7:56 - 8:01
    схоже на те, що він розпізнав її,
    імовірніше, як дорожній знак,
  • 8:01 - 8:03
    і тому збирався безпечно проїхати під ним.
  • 8:04 - 8:07
    Ще один приклад збою ШІ з іншої сфери.
  • 8:07 - 8:10
    Компанія Amazon була змушена відмовитися
    від алгоритму сортування резюме,
  • 8:10 - 8:11
    над яким вона працювала,
  • 8:11 - 8:15
    коли стало відомо, що цей алгоритм
    навчився дискримінувати жінок.
  • 8:15 - 8:18
    Трапилося так, що вони тренували ШІ
    на прикладах резюме
  • 8:18 - 8:20
    людей, яких найняли раніше.
  • 8:20 - 8:24
    І на основі цих прикладів ШІ навчився
    уникати резюме тих людей,
  • 8:24 - 8:26
    які навчалися у жіночих коледжах,
  • 8:26 - 8:29
    або в чиїх резюме десь
    траплялося слово ''жінка'',
  • 8:29 - 8:34
    наприклад, ''жіноча футбольна команда''
    або ''Спілка інженеринь''.
  • 8:34 - 8:38
    ШІ не знав, що йому не потрібно було
    копіювати цю конкретну інформацію
  • 8:38 - 8:40
    стосовно того, чим займалися ці люди.
  • 8:40 - 8:43
    І фактично, він зробив те,
    що його попросили.
  • 8:43 - 8:46
    Його просто випадково неправильно
    попросили це зробити.
  • 8:47 - 8:50
    І це постійно трапляється зі ШІ.
  • 8:50 - 8:54
    ШІ дійсно може бути руйнівним,
    навіть не знаючи про це.
  • 8:54 - 8:59
    Тому ШІ, який рекомендує новий контент
    для перегляду у Facebook або Youtube,
  • 8:59 - 9:02
    він оптимізований для підвищення
    кількості кліків та переглядів.
  • 9:02 - 9:06
    І, на жаль, спосіб,
    як ШІ навчився це робити,
  • 9:06 - 9:10
    полягає у рекомендації вмісту, пов'язаного
    із теорією змови або фанатизмом.
  • 9:11 - 9:16
    Сам ШІ не має жодного уявлення стосовно
    того, про що ця інформація,
  • 9:16 - 9:20
    і він не має жодного уявлення стосовно
    можливих наслідків
  • 9:20 - 9:22
    від рекомендації такого контенту.
  • 9:22 - 9:24
    Тож, коли ми працюємо зі ШІ,
  • 9:24 - 9:29
    саме ми повинні усунути будь-які проблеми.
  • 9:29 - 9:31
    І, усуваючи проблеми,
  • 9:31 - 9:35
    які зводяться до однієї
    одвічної проблеми спілкування,
  • 9:35 - 9:39
    ми, як представники людського роду,
    повинні навчитися спілкуватися із ШІ.
  • 9:39 - 9:43
    Нам слід навчитися дізнаватися,
    що здатний зробити ШІ, а що ні,
  • 9:43 - 9:46
    і розуміти те, що зі своїм
    крихітним примітивним мозком
  • 9:46 - 9:50
    ШІ насправді не розуміє, про що
    його намагаються попросити зробити.
  • 9:51 - 9:54
    Іншими словами, ми повинні
    бути готові працювати зі ШІ,
  • 9:54 - 10:00
    який не є компетентним, всезнаючим ШІ
    із області наукової фантастики.
  • 10:00 - 10:03
    Нам треба бути готовими працювати зі ШІ,
  • 10:03 - 10:06
    з яким ми маємо справу у наш час.
  • 10:06 - 10:10
    І теперішній Ші здатний принести нам
    багато неочікуваних сюрпризів.
  • 10:10 - 10:11
    Дякую.
  • 10:11 - 10:16
    (Оплески)
Title:
Химерна небезпека штучного інтелекту (ШІ)
Speaker:
Джанель Шейн
Description:

Небезпека штучного інтелекту полягає не в тому, що він повстане проти нас, а в тому, що він робитиме не те, що нам потрібно, стверджує дослідник ШІ Джанель Шейн. Показуючи приклади згубних, інколи тривожних збоїв алгоритмів ШІ під час вирішення проблем людей -- наприклад, вигадування нових смаків морозива або розпізнавання автомобілів на дорозі -- Шейн пояснює, чому ШІ ще далеко до людського мозку.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:28

Ukrainian subtitles

Revisions