WEBVTT 00:00:06.772 --> 00:00:11.642 С каждым годом машины всё больше превосходят нас во многих отраслях, 00:00:11.642 --> 00:00:14.848 в которых, как мы когда-то считали, разбираются только люди. 00:00:14.848 --> 00:00:18.423 Теперь компьютеры могут победить нас в различных настольных играх, 00:00:18.423 --> 00:00:21.294 записывать речь на многих языках 00:00:21.294 --> 00:00:24.746 и мгновенно распознавать практически любой предмет. 00:00:24.746 --> 00:00:27.112 Но роботы будущего могут пойти ещё дальше 00:00:27.112 --> 00:00:30.243 и научиться понимать то, что мы чувствуем. 00:00:30.243 --> 00:00:32.381 Почему это нас так беспокоит? NOTE Paragraph 00:00:32.381 --> 00:00:34.673 Ведь когда машины и люди, которые ими управляют, 00:00:34.673 --> 00:00:37.223 сумеют точно определять наши эмоциональные состояния, 00:00:37.223 --> 00:00:40.193 они смогут не только помогать нам, но и манипулировать нами 00:00:40.193 --> 00:00:43.102 в немыслимых ранее масштабах. 00:00:43.102 --> 00:00:44.614 Пока этого не случилось, 00:00:44.614 --> 00:00:49.653 как передать всю сложность эмоций при помощи обычных чисел — 00:00:49.653 --> 00:00:53.253 единственного языка, понятного машинам? 00:00:53.253 --> 00:00:56.843 В сущности так же, как и наш мозг может распознавать эмоции, 00:00:56.843 --> 00:00:58.994 приобретая навыки их распознания. 00:00:58.994 --> 00:01:02.510 Американский психолог Пол Экман выяснил: существуют универсальные эмоции, 00:01:02.510 --> 00:01:09.174 внешние признаки которых понятны представителям различных культур. 00:01:09.174 --> 00:01:11.963 Например, изображение улыбки одинаково обозначает радость 00:01:11.963 --> 00:01:14.153 как для жителей современных городов, 00:01:14.153 --> 00:01:16.365 так и для дикарей-аборигенов. 00:01:16.365 --> 00:01:18.074 Согласно теории Экмана, 00:01:18.074 --> 00:01:18.823 злость, 00:01:18.823 --> 00:01:19.533 отвращение, 00:01:19.533 --> 00:01:20.275 страх, 00:01:20.275 --> 00:01:21.092 радость, 00:01:21.092 --> 00:01:21.848 грусть 00:01:21.848 --> 00:01:25.433 и удивление довольно легко распознать. 00:01:25.433 --> 00:01:29.836 Оказывается, компьютеры всё больше прогрессируют в распознании изображений 00:01:29.836 --> 00:01:34.015 благодаря алгоритму изучения искусственных нейронных сетей. 00:01:34.015 --> 00:01:38.205 Они состоят из условных узлов, копирующих наши биологические нейроны, 00:01:38.205 --> 00:01:41.784 образуя связи и обмениваясь информацией. 00:01:41.784 --> 00:01:44.855 Для обучения системы в неё заносят образцы входных данных, 00:01:44.855 --> 00:01:47.925 предварительно систематизированные по категориям, 00:01:47.925 --> 00:01:51.285 например, радостные или грустные фото. 00:01:51.285 --> 00:01:54.255 Затем система учится самостоятельно группировать эти образцы, 00:01:54.255 --> 00:01:58.405 сравнивая относительную значимость определённых отличительных параметров. 00:01:58.405 --> 00:02:00.025 Чем больше загружается данных, 00:02:00.025 --> 00:02:04.795 тем лучше работает алгоритм распознания новых изображений. 00:02:04.795 --> 00:02:07.217 Так же и наш мозг учится 00:02:07.217 --> 00:02:11.725 обрабатывать новые входные данные, основываясь на прошлых воспоминаниях. 00:02:11.725 --> 00:02:15.466 Алгоритмы распознания не ограничиваются только выражением лица. 00:02:15.466 --> 00:02:17.886 Наши эмоции проявляются разными способами. 00:02:17.886 --> 00:02:20.116 Есть ещё язык тела или интонация голоса, 00:02:20.116 --> 00:02:23.417 изменения частоты сердечного ритма, цвета лица или температуры кожи, 00:02:23.417 --> 00:02:28.046 изменяются даже частотность слов и структура предложений на письме. 00:02:28.046 --> 00:02:31.205 Можно подумать, что обучить искусственную нейронную систему — 00:02:31.205 --> 00:02:33.637 это невероятно сложная и долгая задача, 00:02:33.637 --> 00:02:36.966 но вы даже не представляете себе, какие объёмы данных 00:02:36.966 --> 00:02:40.375 и с какой скоростью способны обрабатывать современные компьютеры. 00:02:40.375 --> 00:02:41.917 От публикаций в социальных сетях, 00:02:41.917 --> 00:02:43.586 загруженных фото и видео, 00:02:43.586 --> 00:02:44.987 записей телефонных звонков 00:02:44.987 --> 00:02:46.767 до инфракрасных камер 00:02:46.767 --> 00:02:50.437 и переносных устройств, отслеживающих параметры организма, 00:02:50.437 --> 00:02:52.947 вопрос не в том, как собрать достаточно информации, 00:02:52.947 --> 00:02:55.255 а в том, что мы собираемся с ней делать. 00:02:55.255 --> 00:02:59.706 Можно привести много примеров выгодного применения системы распознания эмоций. 00:02:59.706 --> 00:03:02.627 Роботы с автоматизированной системой распознания мимики 00:03:02.627 --> 00:03:04.246 могут помочь детям при обучении 00:03:04.246 --> 00:03:07.496 или создать одиноким людям обстановку дружеского общения. 00:03:07.496 --> 00:03:10.216 Разработчики социальных сетей считают, что такие алгоритмы 00:03:10.216 --> 00:03:12.267 смогут помочь в предотвращении суицидов, 00:03:12.267 --> 00:03:17.047 сигнализируя о публикациях, содержащих определённые слова или фразы. 00:03:17.047 --> 00:03:18.627 Также системы распознания эмоций 00:03:18.627 --> 00:03:21.287 смогут помочь при лечении психических расстройств 00:03:21.287 --> 00:03:25.578 или даже оказывать автоматизированную психологическую помощь по доступной цене. 00:03:25.578 --> 00:03:27.188 Несмотря на потенциальную пользу, 00:03:27.188 --> 00:03:30.869 перспектива того, что система будет постоянно мониторить наши фото, 00:03:30.869 --> 00:03:31.958 активность в сетях 00:03:31.958 --> 00:03:36.757 и физиологические перемены, всё же немного напрягает. 00:03:36.757 --> 00:03:39.146 Какие наступят последствия для нашей личной жизни, 00:03:39.146 --> 00:03:41.126 когда частные компании начнут применять 00:03:41.126 --> 00:03:43.608 такие обезличенные системы в рекламных акциях 00:03:43.608 --> 00:03:45.208 для изучения наших эмоций? 00:03:45.208 --> 00:03:47.278 Что станет с нашими гражданскими правами, 00:03:47.278 --> 00:03:48.978 когда правоохранительные органы 00:03:48.978 --> 00:03:51.837 смогут выявлять людей, склонных к совершению преступлений, 00:03:51.837 --> 00:03:54.927 ещё до того, как кто-то предпримет противоправные действия? 00:03:54.927 --> 00:03:57.150 Сейчас роботам ещё далеко до определения 00:03:57.150 --> 00:04:00.258 таких тончайших эмоциональных оттенков, как ирония, 00:04:00.258 --> 00:04:04.758 или степеней каких-то чувств, например, насколько человек счастлив или печален. 00:04:04.758 --> 00:04:09.288 Тем не менее рано или поздно они научатся точно идентифицировать наши чувства 00:04:09.288 --> 00:04:11.138 и реагировать на них. 00:04:11.138 --> 00:04:12.759 Однако поймут ли они страх 00:04:12.759 --> 00:04:15.389 по поводу нежелательного вторжения в нашу личную жизнь — 00:04:15.389 --> 00:04:16.887 это уже совсем другая история.