WEBVTT 00:00:07.052 --> 00:00:11.642 З кожним роком машини все частіше наздоганяють людей у багатьох галузях, 00:00:11.642 --> 00:00:14.848 у яких ми раніше вважали себе неперевершеними. 00:00:14.848 --> 00:00:18.423 Сучасні комп'ютери здатні перемагати в складних настільних іграх, 00:00:18.423 --> 00:00:21.294 розпізнавати мовлення багатьма мовами 00:00:21.294 --> 00:00:24.746 та миттєво ідентифікувати майже будь-які об'єкти. 00:00:24.746 --> 00:00:27.112 Але майбутні роботи можуть піти далі, 00:00:27.112 --> 00:00:30.243 навчившись розпізнавати, що ми відчуваємо. 00:00:30.243 --> 00:00:32.381 Але чому це важливо? 00:00:32.381 --> 00:00:34.673 Бо якщо машини та люди, які ними керують 00:00:34.673 --> 00:00:37.223 зможуть точно визначати наш емоційний стан, 00:00:37.223 --> 00:00:40.193 вони зможуть допомагати нам або маніпулювати нами 00:00:40.193 --> 00:00:43.102 безпрецедентним чином. 00:00:43.102 --> 00:00:44.614 Та поки цього не сталось, 00:00:44.614 --> 00:00:49.653 як щось настільки складне як емоції перетворити просто в числа, 00:00:49.653 --> 00:00:53.253 тобто в єдину мову, яку машини розуміють? 00:00:53.253 --> 00:00:56.843 Фактично таким самим чином, як і наш мозок інтерпретує емоції, 00:00:56.843 --> 00:00:58.994 навчаючись їх розрізняти. 00:00:58.994 --> 00:01:04.120 Американський психолог Пол Екман виявив певні універсальні емоції, 00:01:04.120 --> 00:01:09.174 ознаки яких однаково зрозумілі в різних культурах. 00:01:09.174 --> 00:01:14.193 Наприклад, зображення посмішки означає радість, 00:01:14.193 --> 00:01:16.965 як для жителів мегаполісів, так і для аборигенів. 00:01:16.965 --> 00:01:18.094 І згідно з Екманом, 00:01:18.094 --> 00:01:18.823 злість, 00:01:18.823 --> 00:01:19.533 огида, 00:01:19.533 --> 00:01:20.275 страх, 00:01:20.275 --> 00:01:21.092 радість, 00:01:21.092 --> 00:01:21.848 смуток 00:01:21.848 --> 00:01:25.433 і здивування - так само розпізнаються. 00:01:25.433 --> 00:01:29.836 Як виявилось, комп'ютери успішно вчаться розпізнавати зображення 00:01:29.836 --> 00:01:34.015 завдяки алгоритмам навчання машин, таким, як нейронні мережі. 00:01:34.015 --> 00:01:38.205 Вони складаються зі штучних вузлів, які імітують біологічні нейрони 00:01:38.205 --> 00:01:41.784 шляхом утворення зв'язків та обміну інформацією. 00:01:41.784 --> 00:01:46.285 Для навчання нейромережі приклади, систематизовані за категоріями, 00:01:46.285 --> 00:01:49.175 такі як фото з відмітками "щасливі" або "сумні", 00:01:49.175 --> 00:01:51.285 вводять в мережу. 00:01:51.285 --> 00:01:53.745 Потім мережа вчиться класифікувати дані, 00:01:53.745 --> 00:01:58.405 враховуючи відносну вагу окремих параметрів. 00:01:58.405 --> 00:02:00.025 Що більше початкових даних, 00:02:00.025 --> 00:02:04.795 то правильніше алгоритми ідентифікують нові образи. 00:02:04.795 --> 00:02:06.527 Це схоже на наш власний мозок, 00:02:06.527 --> 00:02:11.725 який навчається з попереднього досвіду, як обробляти нові стимули. 00:02:11.725 --> 00:02:15.466 Алгоритми розпізнавання не обмежені лише мімікою. 00:02:15.466 --> 00:02:17.886 Наші емоції проявляються багатьма способами. 00:02:17.886 --> 00:02:20.116 Це мова тіла, тон голосу, 00:02:20.116 --> 00:02:23.237 ритм серцебиття, колір обличчя, температура шкіри, 00:02:23.237 --> 00:02:28.046 або навіть частота слів і структура речень при написанні. 00:02:28.046 --> 00:02:31.205 Може ви думаєте, що тренування нейромереж для такого розпізнавання 00:02:31.205 --> 00:02:33.637 є складним і тривалим завданням? 00:02:33.637 --> 00:02:36.966 Але ви навіть не уявляєте, як багато даних вже зібрано, 00:02:36.966 --> 00:02:40.375 і як швидко сучасні комп'ютери здатні обробляти їх. 00:02:40.375 --> 00:02:41.917 Від постів у соціальних мережах, 00:02:41.917 --> 00:02:43.586 завантажених фото і відео, 00:02:43.586 --> 00:02:44.987 телефонних записів 00:02:44.987 --> 00:02:46.767 до інфрачервоних камер 00:02:46.767 --> 00:02:50.437 і пристроїв для моніторингу фізіологічних параметрів. 00:02:50.437 --> 00:02:52.947 Тепер проблема не в тому, як зібрати досить даних, 00:02:52.947 --> 00:02:55.255 а в тому, що ми з ними збираємося робити. 00:02:55.255 --> 00:02:59.706 Автоматизоване розпізнавання емоцій може бути дуже корисне. 00:02:59.706 --> 00:03:02.627 Роботи з алгоритмами розпізнавання міміки 00:03:02.627 --> 00:03:04.246 можуть допомагати дітям вчитись 00:03:04.246 --> 00:03:07.636 або надавати самотнім людям відчуття спілкування. 00:03:07.636 --> 00:03:10.476 Соціальні мережі зможуть використовувати алгоритми 00:03:10.476 --> 00:03:12.257 для запобігання суїцидів, 00:03:12.257 --> 00:03:17.047 сигналізуючи про пости зі специфічними словами або фразами. 00:03:17.047 --> 00:03:19.237 Програми емоційного розпізнавання 00:03:19.237 --> 00:03:21.457 можуть допомогти при психологічних порушеннях 00:03:21.457 --> 00:03:25.578 або навіть запропонувати людям автоматизованого психотерапевта. 00:03:25.578 --> 00:03:27.188 Потенційні вигоди існують, але 00:03:27.188 --> 00:03:30.869 перспектива масового мережевого автоматичного сканування наших фото, 00:03:30.869 --> 00:03:31.958 зв'язків 00:03:31.958 --> 00:03:36.877 та фізіологічних параметрів викликає занепокоєння. 00:03:36.877 --> 00:03:40.796 Які наслідки загрожують нашому особистому життю, якщо корпорації 00:03:40.796 --> 00:03:45.208 будуть використовувати такі системи та експлуатувати наші емоції для реклами? 00:03:45.208 --> 00:03:46.718 І що станеться з нашими правами, 00:03:46.718 --> 00:03:50.737 якщо влада зможе ідентифікувати людей, здатних скоїти злочин, 00:03:50.737 --> 00:03:54.927 навіть до того, як вони ухвалять свідоме рішення діяти? 00:03:54.927 --> 00:03:57.150 Роботам ще далеко до розпізнавання 00:03:57.150 --> 00:04:00.258 таких емоційних тонкощів, як іронія, 00:04:00.258 --> 00:04:04.758 до визначення сили емоції, наскільки хтось щасливий або сумний. 00:04:04.758 --> 00:04:09.288 Проте вони з часом зможуть точно розпізнавати наші емоції 00:04:09.288 --> 00:04:11.138 та реагувати на них. 00:04:11.138 --> 00:04:15.389 А от чи зможуть вони співпереживати нашому страху небажаного втручання? 00:04:15.389 --> 00:04:16.887 Та це вже інша історія.