< Return to Video

Как защитить частную жизнь, если технологии смогут читать мысли?

  • 0:01 - 0:06
    В первые месяцы после президентских
    выборов в 2009 году в Иране
  • 0:06 - 0:09
    по всей стране разгорелись протесты.
  • 0:10 - 0:13
    Иранское государство жестоко подавляло то,
  • 0:13 - 0:17
    что потом стало известным
    как «иранское зелёное движение»,
  • 0:17 - 0:19
    даже блокировало мобильные сигналы,
  • 0:19 - 0:21
    чтобы разорвать связь между протестующими.
  • 0:22 - 0:27
    Мои родители, эмигрировавшие
    в США в конце 1960-х,
  • 0:27 - 0:29
    провели немало времени там,
  • 0:29 - 0:32
    где живёт вся моя большая семья.
  • 0:33 - 0:36
    Когда я звонила своей семье в Тегеран
  • 0:36 - 0:39
    во время самых насильственных
    подавлений протестов,
  • 0:39 - 0:43
    никто из них не осмеливался говорить
    со мной о том, что происходит.
  • 0:43 - 0:47
    Кто-то из нас быстро переводил
    разговор на другую тему.
  • 0:47 - 0:51
    Все мы понимали возможные последствия
  • 0:51 - 0:53
    оппозиционных действий.
  • 0:54 - 0:58
    Но мне всё равно хотелось бы
    знать, о чём они думали
  • 0:58 - 0:59
    или что они чувствовали.
  • 1:00 - 1:02
    Что, если бы я могла это узнать?
  • 1:02 - 1:03
    Или, что страшнее,
  • 1:03 - 1:06
    что, если бы правительство
    Ирана могло это узнать?
  • 1:07 - 1:10
    Могли бы их арестовать из-за того,
    что прочитали их мысли?
  • 1:11 - 1:14
    Этот день намного ближе, чем вы думаете.
  • 1:15 - 1:18
    Благодаря возрастающим возможностям
    в нейробиологии, искусственном интеллекте
  • 1:18 - 1:20
    и машинном обучении
  • 1:20 - 1:24
    мы скоро узнаем намного больше
    о том, что происходит в мозге человека.
  • 1:25 - 1:28
    Как биоэтик, юрист, философ
  • 1:28 - 1:30
    и ирано-американка
  • 1:30 - 1:34
    я глубоко обеспокоена тем,
    что это значит для нашей свободы
  • 1:34 - 1:36
    и какие виды защиты нам потребуются.
  • 1:37 - 1:40
    Я думаю, что нам нужно
    право когнитивной свободы,
  • 1:40 - 1:43
    которое должно защищаться
    как право человека.
  • 1:44 - 1:46
    Если нет, наша свобода мысли,
  • 1:46 - 1:49
    доступ и контроль над нашим мозгом
  • 1:49 - 1:52
    и наша ментальная приватность
    будут под угрозой.
  • 1:54 - 1:55
    Подумайте над этим:
  • 1:55 - 1:58
    у среднестатистического человека за день
    возникают тысячи мыслей.
  • 1:59 - 2:00
    Когда мысль принимает форму,
  • 2:00 - 2:05
    также как математическое
    вычисление или цифра, слово,
  • 2:05 - 2:08
    нейроны взаимодействуют в мозге,
  • 2:08 - 2:11
    создавая минимальный электрический разряд.
  • 2:12 - 2:15
    Когда доминирует одно психическое
    состояние, скажем, расслабление,
  • 2:15 - 2:19
    сотни и тысячи нейронов
    выстреливают в мозге,
  • 2:19 - 2:24
    создавая одновременные электрические
    разряды в типичных схемах,
  • 2:24 - 2:28
    которые можно измерить
    с помощью энцефалографии (ЭЭГ).
  • 2:29 - 2:31
    На самом деле это то,
    что вы сейчас видите.
  • 2:32 - 2:36
    Вы видите активность моего мозга,
    записанную в реальном времени
  • 2:36 - 2:39
    с помощью простого прибора,
    который я носила на голове.
  • 2:40 - 2:45
    Вы видите активность моего мозга
    в состоянии спокойствия и любопытства.
  • 2:46 - 2:48
    Чтобы поделится этой информацией,
  • 2:48 - 2:51
    я использовала один из первых приборов
    ЭЭГ, ориентированных на потребителя,
  • 2:51 - 2:52
    как вот этот,
  • 2:52 - 2:56
    который записал электрические импульсы
    моего мозга в реальном времени.
  • 2:57 - 3:01
    Это подобно фитнес-браслетам,
    которыми некоторые из вас пользуются,
  • 3:01 - 3:04
    чтобы измерить пульс
    или количество сделанных шагов,
  • 3:04 - 3:06
    или даже свой режим сна.
  • 3:07 - 3:11
    Это вряд ли самая изысканная технология
    нейровизуализации на рынке.
  • 3:12 - 3:14
    Но зато она самая портативная
  • 3:14 - 3:17
    и скорее всего повлияет
    на нашу повседневную жизнь.
  • 3:18 - 3:19
    Это удивительно.
  • 3:19 - 3:22
    Через простое переносное устройство
  • 3:22 - 3:26
    мы буквально можем видеть
    человеческий мозг изнутри
  • 3:26 - 3:32
    и изучать аспекты нашей мысленной картины,
    не произнося ни слова.
  • 3:33 - 3:36
    Пока ещё мы не можем надёжно
    расшифровывать сложные мысли,
  • 3:37 - 3:39
    но зато можем определять
    человеческое настроение
  • 3:39 - 3:42
    и с помощью искусственного интеллекта
  • 3:42 - 3:46
    можем даже расшифровать
    некоторые однозначные цифры,
  • 3:46 - 3:51
    формы или простые слова,
    о которых человек думает,
  • 3:51 - 3:53
    которые слышит или видит.
  • 3:54 - 3:58
    Несмотря на некоторые
    неизбежные ограничения ЭЭГ,
  • 3:58 - 4:02
    я думаю, что можно смело сказать,
    что с помощью технологических достижений
  • 4:02 - 4:06
    со временем мы сможем расшифровать
  • 4:06 - 4:09
    всё больше данных о человеческом мозге.
  • 4:09 - 4:12
    Уже сейчас, используя данные устройства,
  • 4:12 - 4:15
    эпилептик может узнать о предстоящем
    эпилептическом припадке
  • 4:15 - 4:17
    до того, как он произойдёт.
  • 4:17 - 4:21
    Паралитик может печатать на компьютере
    просто с помощью своих мыслей.
  • 4:22 - 4:27
    Компания в США развила технологию,
    которая внедряет данные датчики
  • 4:27 - 4:29
    в подголовники в автомобилях,
  • 4:29 - 4:31
    чтобы они следили
    за концентрацией водителя,
  • 4:31 - 4:34
    отвлечением и когнитивной
    нагрузкой в пути.
  • 4:35 - 4:39
    Nissan, страховые компании и ААА
    уже приняли это к сведению.
  • 4:40 - 4:44
    Можно даже смотреть фильм
    с выбором своего приключения
  • 4:44 - 4:49
    под названием «Мгновение»,
    в котором ЭЭГ устройство
  • 4:49 - 4:53
    меняет фильм в зависимости
    от реакции вашего мозга
  • 4:53 - 4:57
    с различными концовками каждый раз,
    когда ваше внимание слабеет.
  • 4:59 - 5:02
    Это всё звучит замечательно,
  • 5:02 - 5:04
    и, будучи биоэтиком,
  • 5:04 - 5:08
    я большой сторонник
    расширения возможностей людей
  • 5:08 - 5:10
    для заботы о своём
    здоровье и благополучии,
  • 5:10 - 5:13
    путём предоставления им
    доступа к информации о себе
  • 5:13 - 5:17
    в том числе через эту великолепную
    технологию расшифровки мозга.
  • 5:18 - 5:19
    Но я переживаю.
  • 5:20 - 5:24
    Переживаю, что добровольно
    или нет, мы отдадим
  • 5:25 - 5:29
    наш последний бастион свободы,
    нашу психическую приватность.
  • 5:29 - 5:32
    Что мы поменяем нашу мозговую активность
  • 5:32 - 5:35
    на страховые скидки
  • 5:36 - 5:39
    или на бесплатный доступ
    к социальным сетям...
  • 5:40 - 5:42
    или даже на наше рабочее место.
  • 5:43 - 5:45
    На самом деле в Китае
  • 5:46 - 5:52
    кондукторы на высокоскоростной
    железной дороге Пекин-Шанхай,
  • 5:52 - 5:55
    самой загруженной в мире,
  • 5:55 - 5:57
    обязаны носить ЭЭГ устройства,
  • 5:57 - 6:00
    чтобы отслеживать их
    мозговую активность в пути.
  • 6:00 - 6:02
    Согласно некоторым источникам,
  • 6:02 - 6:05
    на государственных заводах в Китае
  • 6:05 - 6:10
    рабочие обязаны носить датчики ЭЭГ
    для отслеживания их продуктивности
  • 6:10 - 6:13
    и эмоционального состояния на работе.
  • 6:13 - 6:16
    Их даже отправляют домой,
  • 6:16 - 6:20
    если датчики показывают не столь
    выдающуюся концентрацию на работе
  • 6:20 - 6:22
    или беспокойство.
  • 6:23 - 6:25
    Это не произойдёт завтра,
  • 6:25 - 6:28
    но мы уже приближаемся к жизни
    с прозрачными мыслями.
  • 6:29 - 6:32
    И мне кажется, что люди не понимают,
    что это может всё поменять.
  • 6:32 - 6:36
    От нашего понимания
    конфиденциальности, наших законов
  • 6:36 - 6:38
    до наших представлений о свободе.
  • 6:39 - 6:42
    На самом деле, в моей лаборатории
    в Университете Дьюка
  • 6:42 - 6:45
    мы недавно проводили
    общенациональное исследование в США,
  • 6:45 - 6:47
    чтобы увидеть, ценят ли люди
  • 6:47 - 6:49
    чувствительность информации их мозга.
  • 6:50 - 6:54
    Мы их попросили оценить
    свою чувствительность
  • 6:54 - 6:56
    на 33 различных вида информации,
  • 6:56 - 6:58
    начиная с номеров социального страхования
  • 6:58 - 7:01
    до содержания телефонных разговоров,
  • 7:01 - 7:03
    истории их романтических отношений,
  • 7:03 - 7:05
    их эмоций, тревог,
  • 7:05 - 7:07
    умозрительных образов
  • 7:07 - 7:09
    и мыслей про себя.
  • 7:09 - 7:15
    Шокирующе: люди оценили номер
    страхования как более чувствительный,
  • 7:15 - 7:17
    в отличие от любой другой информации,
  • 7:17 - 7:19
    включая данные мозга.
  • 7:20 - 7:24
    Я думаю, что это так, потому что люди
    пока ещё не понимают
  • 7:24 - 7:28
    или не верят в применение
    новых технологий декодирования мозга.
  • 7:29 - 7:32
    В конце концов, если мы знаем,
    как работает человеческий мозг,
  • 7:32 - 7:35
    наши страховые номера —
    наименьший повод для тревоги.
  • 7:35 - 7:36
    (Смех)
  • 7:36 - 7:37
    Подумайте об этом.
  • 7:37 - 7:40
    Кто бы посмел иметь диссидентские мысли
  • 7:40 - 7:42
    в мире полной прозрачности?
  • 7:43 - 7:45
    Или креативные мысли?
  • 7:46 - 7:49
    Я боюсь, что люди будут
    прибегать к самоцензуре,
  • 7:49 - 7:52
    опасаясь остракизма со стороны общества,
  • 7:52 - 7:56
    или будут терять работу
    из-за ослабления внимания,
  • 7:56 - 7:58
    эмоциональной нестабильности,
  • 7:58 - 8:02
    или потому, что планируют коллективные
    действия против работодателей.
  • 8:02 - 8:06
    Каминг-аут уже не будет вопросом выбора,
  • 8:06 - 8:11
    поскольку человеческий мозг сам сможет
    определить сексуальную ориентацию,
  • 8:11 - 8:13
    политические идеологии
  • 8:13 - 8:15
    или религиозные предпочтения
  • 8:15 - 8:18
    намного раньше, чем мы будем готовы
    осознанно рассказать о этом
  • 8:18 - 8:19
    другим людям.
  • 8:20 - 8:24
    Я беспокоюсь, смогут ли наши законы
    идти в ногу с технологиями.
  • 8:25 - 8:27
    Рассмотрим первую поправку
    к Конституции США,
  • 8:27 - 8:29
    защищающую свободу слова.
  • 8:29 - 8:31
    А свободу мысли она защищает?
  • 8:32 - 8:36
    И если так, значит ли это, что мы вольны
    изменять свои мысли, как хотим?
  • 8:36 - 8:41
    Или правительство и общество решает,
    как можно обходиться со нашими же мозгами?
  • 8:42 - 8:45
    Может ли АНБ читать наши мысли
    с помощью новых мобильных устройств?
  • 8:46 - 8:50
    Могут ли компании, собирающие
    данные мозга через приложения,
  • 8:50 - 8:52
    продать эту информацию третьим лицам?
  • 8:53 - 8:56
    И сейчас никакие законы
    не смогут им помешать.
  • 8:57 - 8:59
    Но это может представлять проблему
  • 8:59 - 9:02
    в странах, которые
    не разделяют тех же прав,
  • 9:02 - 9:04
    что есть у людей в Соединённых Штатах.
  • 9:05 - 9:09
    Что бы могло случиться во время
    «зелёного движения» в Иране,
  • 9:09 - 9:13
    если бы правительство
    отслеживало работу мозга
  • 9:13 - 9:17
    и согласилось бы с протестующими?
  • 9:18 - 9:21
    Неужели невозможно представить общество,
  • 9:21 - 9:24
    где людей арестовывают за их мысли
  • 9:24 - 9:25
    о совершении преступления,
  • 9:25 - 9:29
    как в антиутопическом обществе
    в фильме «Мнение меньшинства»?
  • 9:30 - 9:35
    Уже в Соединённых Штатах, в Индиане,
  • 9:35 - 9:40
    18-летний парень был обвинён
    в попытке запугать свою школу,
  • 9:40 - 9:43
    опубликовав видео, где он
    стреляет по людям в коридорах...
  • 9:44 - 9:47
    Кроме людей там были зомби,
  • 9:47 - 9:52
    а само видео показывало то, как он играет
    в игру с дополненной реальностью,
  • 9:52 - 9:57
    где всё интерпретируется как ментальная
    проекция его субъективного намерения.
  • 9:58 - 10:03
    Именно поэтому нашему мозгу
    нужна особая защита.
  • 10:03 - 10:07
    Если наш мозг — такой же субъект
    отслеживания и агрегации,
  • 10:07 - 10:09
    как наши финансовые
    ведомости и транзакции,
  • 10:09 - 10:14
    если наш мозг можно взломать
    и отслеживать мысли как действия в сети,
  • 10:14 - 10:16
    в мобильных телефонах и приложениях,
  • 10:16 - 10:20
    то мы уже на грани опасной угрозы
    для нашего коллективного рода.
  • 10:21 - 10:23
    Прежде чем вы запаникуете,
  • 10:24 - 10:27
    я скажу, что полагаю,
    решение этих проблем существует,
  • 10:27 - 10:30
    но мы должны сосредоточиться
    на правильных вещах.
  • 10:31 - 10:34
    Когда дело касается защиты
    конфиденциальности в целом,
  • 10:34 - 10:35
    думаю, мы ведём безнадёжную борьбу,
  • 10:35 - 10:38
    пытаясь ограничить поток информации.
  • 10:38 - 10:42
    Вместо этого мы должны сосредоточиться
    на обеспечении прав и средствах их защиты
  • 10:42 - 10:45
    от злоупотребления нашей информацией.
  • 10:45 - 10:49
    Если бы люди имели право решать,
    как распоряжаться информацией,
  • 10:49 - 10:52
    и, что важно, располагали бы
    мерами юридической защиты,
  • 10:52 - 10:54
    если их информация была
    использована против них,
  • 10:54 - 10:57
    скажем, чтобы дискриминировать их
    в условиях занятости
  • 10:57 - 11:00
    или в области здравоохранения
    или образования,
  • 11:00 - 11:03
    это бы имело большое значение
    для доверительных отношений.
  • 11:03 - 11:05
    На самом деле в некоторых случаях
  • 11:05 - 11:08
    мы хотим предоставить как можно больше
    своей личной информации.
  • 11:09 - 11:12
    Изучение агрегированной информации
    может многое нам рассказать
  • 11:12 - 11:15
    о нашем здоровье и благополучии,
  • 11:15 - 11:18
    но чтобы безопасно делиться информацией,
  • 11:18 - 11:21
    нам нужны специальные средства для
    защиты ментальной конфиденциальности.
  • 11:22 - 11:25
    Вот почему нам нужно
    право на познавательную свободу.
  • 11:26 - 11:30
    Это право обеспечит нам
    нашу свободу мысли и размышления,
  • 11:30 - 11:32
    нашу свободу самоопределения,
  • 11:32 - 11:37
    и это будет гарантией того, что у нас есть
    право соглашаться или отказываться
  • 11:37 - 11:39
    от доступа и изменения
    нашего мозга кем-либо.
  • 11:40 - 11:42
    Это право может быть признано
  • 11:42 - 11:45
    частью Всеобщей декларации прав человека,
  • 11:45 - 11:47
    установившей механизмы
  • 11:47 - 11:50
    для исполнения подобных социальных прав.
  • 11:52 - 11:54
    Во время иранского «зелёного движения»
  • 11:54 - 11:59
    протестующие пользовались интернетом
    и устаревшими словами
  • 11:59 - 12:01
    для координации маршей.
  • 12:02 - 12:05
    И некоторые из самых деспотических
    ограничений в Иране
  • 12:05 - 12:07
    в итоге были отменены.
  • 12:08 - 12:12
    Но что, если правительство Ирана
    использовало мозговой надзор
  • 12:12 - 12:15
    для обнаружения и предотвращения протеста?
  • 12:17 - 12:20
    Услышал бы мир когда-нибудь
    крики протестующих?
  • 12:22 - 12:27
    Настало время нам призвать
    к революции за когнитивную свободу.
  • 12:28 - 12:31
    Чтобы убедиться, что мы ответственно
    совершенствуем технологии,
  • 12:31 - 12:34
    которые могут позволить нам
    объять будущее,
  • 12:34 - 12:41
    яро защищая всех нас от любого
    человека, компании или правительства,
  • 12:41 - 12:46
    пытающегося незаконно получить доступ
    или изменить наше сокровенное в жизни.
  • 12:47 - 12:48
    Спасибо.
  • 12:48 - 12:51
    (Аплодисменты)
Title:
Как защитить частную жизнь, если технологии смогут читать мысли?
Speaker:
Нита А. Фарахани
Description:

По словам учёного-правоведа и этика Ниты Фарахани, чудо технологии, которое сможет расшифровывать деятельность нашего мозга и отображать, что мы думаем и чувствуем, уже недалеко от реальности. Что тогда станет с нашим уже и так неполноценным чувством неприкосновенности личной жизни? В этом докладе Фарахани предупреждает, что в будущем мы сможем жить в обществе, где людей будут арестовывать за то, что они просто подумали о совершении преступления (как в «Мнении меньшинства»), а интересы частных компаний смогут продавать данные нашего мозга. Она обосновывает право на когнитивную свободу, которое защищает нашу свободу мысли и самоопределения.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:04

Russian subtitles

Revisions