< Return to Video

Как я использую биологические данные для улучшения историй и призыва к социальным изменениям

  • 0:01 - 0:05
    Последние 15 лет я пытаюсь
    переубедить вас.
  • 0:06 - 0:10
    В своей работе я использую поп-культуру
    и новые технологии
  • 0:10 - 0:11
    для сдвига культурных норм.
  • 0:12 - 0:16
    Я разрабатывала видеоигры
    для продвижения прав человека,
  • 0:16 - 0:21
    создавала мультипликацию
    о несправедливых иммиграционных законах
  • 0:21 - 0:25
    и даже писала навигационные
    приложения с дополненной реальностью,
  • 0:25 - 0:28
    чтобы изменить отношение
    людей к бездомным,
  • 0:28 - 0:29
    задолго до Pokémon Go.
  • 0:30 - 0:31
    (Смех)
  • 0:31 - 0:35
    Но позже я задумалась,
    может ли игра или приложение
  • 0:35 - 0:37
    действительно изменить
    взгляды и поведение,
  • 0:37 - 0:40
    и если да, то можно ли
    измерить эти изменения?
  • 0:40 - 0:43
    Каковы их научные обоснования?
  • 0:43 - 0:47
    Поэтому вместо создания
    мультимедиа и технологий
  • 0:47 - 0:50
    я сосредоточилась на измерении их
    нейробиологических эффектов.
  • 0:51 - 0:53
    Я выяснила следующее.
  • 0:53 - 0:57
    Интернет, мобильные устройства,
    виртуальная и дополненная реальность
  • 0:57 - 1:00
    переписывали нашу нервную систему.
  • 1:00 - 1:03
    Они в буквальном смысле меняли
    структуру нашего головного мозга.
  • 1:04 - 1:07
    Те самые технологии,
    которые я использовала,
  • 1:07 - 1:09
    чтобы положительно влиять
    на наши сердца и умы,
  • 1:09 - 1:13
    на самом деле разрушали мозговые функции,
    необходимые для сострадания
  • 1:13 - 1:15
    и принятия решений.
  • 1:15 - 1:19
    По сути, наша зависимость от Интернета
    и мобильных устройств
  • 1:19 - 1:23
    может завладевать нашими умственными
    и эмоциональными способностями,
  • 1:23 - 1:27
    делая нас социально и эмоционально
    некомпетентными,
  • 1:27 - 1:30
    и я почувствовала себя соучастницей
    этого обесчеловечивания.
  • 1:31 - 1:36
    Я поняла, что прежде чем продолжать
    создавать медиа о социальных проблемах,
  • 1:36 - 1:40
    мне нужно было устранить
    вредное воздействие технологий.
  • 1:41 - 1:44
    Чтобы справиться с этим,
    я задалась вопросом:
  • 1:44 - 1:47
    «Как я могу преобразовать
    механизмы сочувствия,
  • 1:47 - 1:51
    когнитивные, эмоциональные
    и мотивационные аспекты в двигатель,
  • 1:51 - 1:54
    который воспроизводит
    повествовательные элементы,
  • 1:54 - 1:55
    заставляющие нас действовать?»
  • 1:57 - 2:01
    Чтобы ответить на этот вопрос,
    мне пришлось создать механизм.
  • 2:01 - 2:02
    (Смех)
  • 2:02 - 2:05
    Я разрабатываю общедоступную
    биометрическую лабораторию —
  • 2:05 - 2:08
    систему искусственного интеллекта,
    которую я назвала Limbic Lab.
  • 2:09 - 2:10
    Лаборатория не только фиксирует
  • 2:10 - 2:14
    бессознательные реакции мозга и тела
    на мультимедиа и технологии,
  • 2:14 - 2:17
    но также использует машинное обучение
    для адаптации содержания
  • 2:17 - 2:20
    в соответствии с этими
    биологическими реакциями.
  • 2:21 - 2:24
    Моя задача — выяснить, какое сочетание
    повествовательных элементов
  • 2:24 - 2:28
    является наиболее привлекательным
    и стимулирующим для целевой аудитории,
  • 2:28 - 2:31
    чтобы обеспечить
    социальную справедливость
  • 2:31 - 2:33
    и позволить культурным
    и образовательным организациям
  • 2:33 - 2:36
    создавать более эффективную
    мультимедийную продукцию.
  • 2:36 - 2:39
    Limbic Lab состоит из двух компонентов:
  • 2:39 - 2:41
    сюжетного двигателя и медиамашины.
  • 2:42 - 2:47
    Когда человек просматривает медиаконтент
    или взаимодействует с ним,
  • 2:47 - 2:48
    сюжетный двигатель получает
  • 2:48 - 2:52
    и в режиме реального времени
    синхронизирует данные о мозговых волнах,
  • 2:52 - 2:55
    биофизические данные, такие как пульс,
    кровообращение, температура тела
  • 2:55 - 2:56
    и сокращение мышц,
  • 2:56 - 2:59
    а также движение глаз и мимика.
  • 3:00 - 3:04
    Данные собираются во время
    критических моментов сюжета,
  • 3:04 - 3:07
    взаимодействия персонажей
    или необычных ракурсов съёмки.
  • 3:08 - 3:11
    Как в финальной сцене «Красной свадьбы»
    в сериале «Игра престолов»,
  • 3:11 - 3:13
    когда, на удивление,
  • 3:13 - 3:15
    все умирают.
  • 3:15 - 3:16
    (Смех)
  • 3:17 - 3:20
    Информация о политических
    взглядах человека,
  • 3:20 - 3:23
    а также его психографические
    и демографические данные
  • 3:23 - 3:24
    используются системой
  • 3:24 - 3:28
    для лучшего понимания личности.
  • 3:29 - 3:30
    Приведу пример.
  • 3:32 - 3:37
    Сравнение телевизионных предпочтений людей
    с их взглядами на социальные проблемы
  • 3:37 - 3:38
    демонстрирует, что американцы,
  • 3:38 - 3:41
    считающие иммиграцию одной
    из трёх важнейших проблем,
  • 3:41 - 3:45
    с большей вероятностью будут
    поклонниками «Ходячих мертвецов»,
  • 3:45 - 3:48
    и они часто смотрят телевизор,
    чтобы получить дозу адреналина,
  • 3:48 - 3:50
    которую можно измерить.
  • 3:50 - 3:54
    Биологические признаки человека
    и его результаты опроса
  • 3:54 - 3:59
    объединяются в базу данных, чтобы создать
    его уникальный медиапрофиль.
  • 3:59 - 4:03
    Затем наша прогнозирующая модель
    находит закономерности в медиапрофилях
  • 4:03 - 4:05
    и сообщает мне,
    какие повествовательные элементы
  • 4:05 - 4:09
    с большей вероятностью приведут
    к альтруистичным действиям,
  • 4:09 - 4:11
    а не к апатии и стрессу.
  • 4:11 - 4:13
    Чем больше в базе данных профилей
  • 4:13 - 4:17
    для разных видов медиа —
    от сериалов до игр, —
  • 4:17 - 4:20
    тем более точными становятся
    прогнозирующие модели.
  • 4:20 - 4:24
    Иными словами, я впервые
    расшифровываю медиагеном.
  • 4:24 - 4:29
    (Аплодисменты и одобрительные возгласы)
  • 4:32 - 4:35
    В то время как геном человека
    распознаёт гены,
  • 4:35 - 4:38
    составляющие последовательность ДНК,
  • 4:38 - 4:41
    растущая база данных медиапрофилей
    когда-нибудь позволит мне
  • 4:41 - 4:46
    определить медиа-ДНК конкретного человека.
  • 4:46 - 4:50
    Сюжетный двигатель Limbic Lab
  • 4:50 - 4:54
    уже помогает авторам вносить улучшения
    в свои истории таким образом,
  • 4:54 - 4:58
    чтобы они вызывали
    в целевой аудитории личный отклик.
  • 4:59 - 5:01
    Другой компонент Limbic Lab,
  • 5:01 - 5:03
    медиамашина,
  • 5:03 - 5:08
    оценивает, как мультимедиа вызывает
    эмоциональную и физиологическую реакцию,
  • 5:08 - 5:10
    а затем извлекает сцены
    из библиотеки контента,
  • 5:10 - 5:14
    направленные на медиа-ДНК
    конкретного зрителя.
  • 5:14 - 5:18
    Применение искусственного интеллекта
    к биометрическим данным
  • 5:18 - 5:21
    создаёт поистине индивидуальный подход.
  • 5:21 - 5:27
    Контент мгновенно адаптируется
    на основании подсознательных реакций.
  • 5:27 - 5:30
    Представьте, что некоммерческие
    организации и создатели медиа
  • 5:30 - 5:33
    могут измерять чувства своей аудитории
  • 5:33 - 5:35
    при восприятии медиапродукции
  • 5:35 - 5:37
    и на ходу изменять контент.
  • 5:37 - 5:41
    Мне кажется, за этим —
    будущее мультимедиа.
  • 5:41 - 5:44
    На настоящий момент все СМИ
    и стратегии социальных изменений
  • 5:44 - 5:47
    направлены на массовую аудиторию,
  • 5:47 - 5:51
    но будущее — за индивидуальным
    подходом к каждому.
  • 5:51 - 5:54
    По мере того, как измерение
    потребления мультимедиа
  • 5:54 - 5:57
    и автоматизированное создание
    медиаматериалов становится нормой,
  • 5:57 - 6:01
    вскоре мы будем получать мультимедиа
    «индивидуального пошива»,
  • 6:01 - 6:06
    созданные с помощью психографики,
    биометрики и искусственного интеллекта,
  • 6:06 - 6:10
    как персонализированный лекарственный
    препарат, основанный на нашей ДНК.
  • 6:10 - 6:13
    Я называю это «биомедиа».
  • 6:13 - 6:16
    В настоящее время Limbic Lab
    участвует в пробном исследовании
  • 6:16 - 6:18
    совместно с центром Norman Lear Center,
  • 6:18 - 6:22
    в котором рассматриваются
    50 самых популярных телесериалов.
  • 6:22 - 6:25
    Но я не могу решить этическую дилемму:
  • 6:25 - 6:29
    если я разрабатываю средство, которое
    может быть использовано в качестве оружия,
  • 6:29 - 6:32
    следует ли его создавать?
  • 6:32 - 6:35
    Если я делаю лабораторию
    доступной всем и каждому,
  • 6:35 - 6:39
    я также даю возможность
    могущественным государствам
  • 6:39 - 6:42
    и коммерческим компаниям
    использовать платформу
  • 6:42 - 6:45
    для распространения ложной информации,
    проведения маркетинговых кампаний
  • 6:45 - 6:47
    и других видов массового убеждения.
  • 6:47 - 6:51
    Поэтому для меня крайне важно,
    чтобы мои исследования
  • 6:51 - 6:55
    были так же транспарентны для широкой
    аудитории, как ярлыки о ГМО.
  • 6:55 - 6:59
    Но этого недостаточно.
  • 6:59 - 7:01
    Творчески работая с технологиями,
  • 7:01 - 7:03
    мы несём ответственность за то,
  • 7:03 - 7:08
    чтобы анализировать не только как они
    формируют наши культурные ценности
  • 7:08 - 7:10
    и социальное поведение сегодня,
  • 7:10 - 7:15
    но и их будущую траекторию.
  • 7:15 - 7:19
    Я надеюсь, что мы возьмём на себя
    моральное обязательство
  • 7:19 - 7:21
    собирать данные телесных реакций
  • 7:21 - 7:25
    для создания достоверных
    и справедливых историй,
  • 7:25 - 7:27
    превращающих медиа и технологии
  • 7:27 - 7:31
    не в опасное оружие,
    а в повествовательное лекарство.
  • 7:31 - 7:32
    Спасибо.
  • 7:32 - 7:35
    (Аплодисменты и одобрительные возгласы)
Title:
Как я использую биологические данные для улучшения историй и призыва к социальным изменениям
Speaker:
Хайди Бойсверт
Description:

Какие истории побуждают нас к действию? Чтобы ответить на этот вопрос, креативный разработчик Хайди Бойсверт измеряет, как мозг и тело человека бессознательно реагируют на различную медиапродукцию. Она демонстрирует использование этих данных для определения конкретных повествовательных элементов, порождающих сочувствие и справедливость и приводящих в результате к крупным социальным изменениям.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
07:49

Russian subtitles

Revisions