< Return to Video

Как я борюсь со сбоями в алгоритмах

  • 0:01 - 0:04
    Привет, я Джой, поэт кода.
  • 0:04 - 0:09
    Моя миссия — остановить невидимую,
    набирающую обороты силу,
  • 0:09 - 0:12
    силу, которую я называю
    «закодированный взгляд»,
  • 0:12 - 0:15
    моё определение для алгоритмического сбоя.
  • 0:15 - 0:20
    Необъективность алгоритма, как и
    человека, ведёт к несправедливости.
  • 0:20 - 0:26
    Алгоритмы, как вирусы, способны
    распространять ошибки в больших масштабах
  • 0:26 - 0:27
    и очень быстро.
  • 0:28 - 0:32
    Алгоритмические отклонения
    могут приводить к отчуждению
  • 0:32 - 0:34
    и дискриминации.
  • 0:35 - 0:37
    Давайте я покажу, что я имею в виду.
  • 0:37 - 0:39
    (Видео) Джой: Привет,
    камера. Вот моё лицо.
  • 0:40 - 0:42
    Ты видишь моё лицо?
  • 0:42 - 0:44
    Лицо без очков?
  • 0:44 - 0:46
    Ты видишь её лицо.
  • 0:46 - 0:48
    А моё?
  • 0:52 - 0:56
    Теперь с маской. Видишь маску?
  • 0:56 - 0:59
    Джой Буоламвини: Как так получилось?
  • 0:59 - 1:02
    Почему я сижу за компьютером
  • 1:02 - 1:03
    в белой маске,
  • 1:03 - 1:07
    пытаясь быть распознанной
    дешёвой камерой?
  • 1:07 - 1:09
    Когда я не воюю с закодированным взглядом,
  • 1:09 - 1:11
    будучи поэтом кода,
  • 1:11 - 1:14
    я аспирант Медиа-лаборатории в МИТ,
  • 1:14 - 1:19
    где у меня есть возможность работать
    над всяческими фантастическими проектами,
  • 1:19 - 1:21
    включая Зеркало стремлений,
  • 1:21 - 1:26
    которое позволяет проецировать
    цифровые маски на своё отражение.
  • 1:26 - 1:29
    Например, если утром я хочу
    чувствовать себя сильной,
  • 1:29 - 1:30
    я могу наложить маску льва.
  • 1:30 - 1:34
    Если я хочу приободриться,
    то можно обойтись цитатой.
  • 1:34 - 1:37
    Я использовала обычную
    программу распознавания лиц,
  • 1:37 - 1:38
    чтобы создать эту систему,
  • 1:38 - 1:43
    но оказалось, что её очень трудно
    тестировать, если на мне нет белой маски.
  • 1:44 - 1:49
    К сожалению, я и раньше
    сталкивалась с этой проблемой.
  • 1:49 - 1:53
    Когда я изучала информатику
    в Технологическом институте Джорджии,
  • 1:53 - 1:55
    я работала над социальными роботами,
  • 1:55 - 1:59
    и одной из моих задач было научить
    робота играть в «ку-ку».
  • 1:59 - 2:01
    Это простая игра со сменой ролей,
  • 2:01 - 2:05
    когда участники закрывают лицо ладонями,
    и, открывая, говорят: «Ку-ку!»
  • 2:05 - 2:09
    Проблема заключается в том, что
    если вас не видно, то игра теряет смысл,
  • 2:09 - 2:12
    а мой робот меня не видел.
  • 2:12 - 2:16
    Моя соседка одолжила мне своё лицо,
    чтобы я смогла закончить проект,
  • 2:16 - 2:17
    я сдала задание
  • 2:17 - 2:21
    и подумала, что кто-нибудь другой
    решит эту проблему.
  • 2:22 - 2:24
    Через некоторое время
  • 2:24 - 2:28
    я участвовала в конкурсе
    предринимателей в Гонконге.
  • 2:28 - 2:31
    Организаторы решили показать участникам
  • 2:31 - 2:33
    местные стартапы.
  • 2:33 - 2:36
    В одном стартапе был социальный робот,
  • 2:36 - 2:38
    и они решили его продемонстрировать.
  • 2:38 - 2:41
    Демонстрация сработала на всех,
    пока дело не дошло до меня,
  • 2:41 - 2:43
    и вы, наверное, уже догадались.
  • 2:43 - 2:46
    Он не смог распознать моё лицо.
  • 2:46 - 2:49
    Я спросила у разработчиков, в чём дело,
  • 2:49 - 2:54
    и оказалось, что мы использовали одну
    и ту же программу для распознавания лиц.
  • 2:54 - 2:56
    На другой половине земного шара
  • 2:56 - 3:00
    до меня дошло, что алгоритмическая ошибка
    может распространяться так же быстро,
  • 3:00 - 3:03
    как быстро можно скачивать
    файлы из интернета.
  • 3:04 - 3:07
    Так что же происходит? Почему
    моё лицо не распознаётся?
  • 3:07 - 3:10
    Для начала рассмотрим,
    как мы создаём машинное зрение.
  • 3:10 - 3:14
    Компьютерное зрение использует
    техники машинного обучения,
  • 3:14 - 3:16
    чтобы распознавать лица.
  • 3:16 - 3:19
    Это работает таким образом: вы создаёте
    тренировочный набор с примерами лиц.
  • 3:19 - 3:22
    Это лицо. Это лицо. Это не лицо.
  • 3:22 - 3:27
    И постепенно вы можете научить
    компьютер распознавать другие лица.
  • 3:27 - 3:31
    Однако, если тренировочные наборы
    не очень разнообразны,
  • 3:31 - 3:34
    любое лицо, которое сильно отличается
    от установленной нормы,
  • 3:34 - 3:36
    будет сложно распознать,
  • 3:36 - 3:38
    что и происходило со мной.
  • 3:38 - 3:40
    Но не переживайте —
    есть и хорошие новости.
  • 3:40 - 3:43
    Тренировочные наборы
    не появляются из ниоткуда.
  • 3:43 - 3:45
    Мы вообще-то можем их создавать.
  • 3:45 - 3:49
    Есть возможность создавать полный спектр
    тренировочных наборов,
  • 3:49 - 3:53
    которые отражают более насыщенный
    портрет человечества.
  • 3:53 - 3:55
    Вы увидели в моих примерах,
  • 3:55 - 3:57
    как социальные роботы
  • 3:57 - 4:02
    позволили мне обнаружить исключения
    из-за алгоритмической погрешности.
  • 4:02 - 4:06
    Но алгоритмическая ошибка может также
    приводить к дискриминации.
  • 4:07 - 4:09
    В США
  • 4:09 - 4:13
    отделения полиции начинают использовать
    программы распознавания лиц
  • 4:13 - 4:16
    в их арсенале борьбы с преступностью.
  • 4:16 - 4:18
    Школа права университета Джорджтаун
  • 4:18 - 4:24
    опубликовала отчёт, согласно которому
    в США один из двух взрослых —
  • 4:24 - 4:28
    это 117 миллионов человек —
    имеют свои лица в сетях распознавания лиц.
  • 4:28 - 4:33
    Отделения полиции сейчас могут
    неограниченно пользоваться этими сетями,
  • 4:33 - 4:37
    используя алгоритмы, точность
    которых не была проверена.
  • 4:37 - 4:41
    Но мы знаем, что
    распознавание лиц несовершенно
  • 4:41 - 4:45
    и что последовательное определение лиц
    остаётся сложной задачей.
  • 4:45 - 4:47
    Можно столкнуться с этим на Фейсбуке.
  • 4:47 - 4:50
    Мы с друзьями всё время смеёмся,
    когда видим других людей,
  • 4:50 - 4:52
    отмеченных на наших фото.
  • 4:52 - 4:58
    Но ошибочное определение уголовно
    подозреваемого — это не шутка
  • 4:58 - 5:01
    и не просто нарушение гражданских свобод.
  • 5:01 - 5:04
    Машинное обучение используется
    для распознавания лиц,
  • 5:04 - 5:08
    но не ограничивается компьютерным зрением.
  • 5:09 - 5:13
    В своей книге «Оружие
    математического поражения»
  • 5:13 - 5:20
    учёный в области данных Кэти О'нейл
    рассказывает о новом ОМП —
  • 5:20 - 5:24
    охватывающих, малоизвестных
    и поражающих алгоритмах,
  • 5:24 - 5:27
    которые всё чаще используются
    для принятия решений,
  • 5:27 - 5:31
    которые влияют на всё большее количество
    аспектов нашей жизни.
  • 5:31 - 5:32
    Кто будет принят на работу или уволен?
  • 5:32 - 5:35
    Дадут ли вам этот кредит? Страховку?
  • 5:35 - 5:38
    Попадёте ли вы в тот колледж,
    в который собирались?
  • 5:38 - 5:42
    Одинаковы ли цены для вас и для меня
    на один и тот же товар,
  • 5:42 - 5:44
    купленный на той же платформе?
  • 5:44 - 5:48
    Правоохранительные органы также
    начинают применять машинное обучение
  • 5:48 - 5:50
    для прогнозирования.
  • 5:50 - 5:54
    Судьи используют рейтинги риска,
    сгенерированные машиной, для определения
  • 5:54 - 5:58
    срока, который человек
    должен будет провести в тюрьме.
  • 5:58 - 6:01
    Мы должны крепко задуматься
    над этими решениями.
  • 6:01 - 6:02
    Справедливы ли они?
  • 6:02 - 6:05
    Мы видели, что алгоритмический сбой
  • 6:05 - 6:08
    ведёт к не совсем правильным результатам.
  • 6:08 - 6:10
    Что же мы можем с этим сделать?
  • 6:10 - 6:14
    Для начала, мы можем задуматься о том,
    как создавать более всестороний код
  • 6:14 - 6:17
    и применять инклюзивные практики
    в программировании.
  • 6:17 - 6:19
    Это всё начинается с людей.
  • 6:20 - 6:22
    Важно, кто пишет код.
  • 6:22 - 6:26
    Создаём ли мы группы
    из разнообразных личностей,
  • 6:26 - 6:28
    способных видеть слепые зоны друг друга?
  • 6:28 - 6:32
    С технической стороны, имеет значение
    то, как мы пишем код.
  • 6:32 - 6:35
    Движет ли нами справедливость
    во время разработки систем?
  • 6:36 - 6:38
    И наконец, важно, для чего мы пишем код.
  • 6:39 - 6:44
    Использование компьютерного творчества
    открыло нам невероятное богатство.
  • 6:44 - 6:48
    Сейчас у нас есть возможность
    добиться ещё большего равенства,
  • 6:48 - 6:51
    если мы сделаем социальное
    изменение приоритетной,
  • 6:51 - 6:53
    а не запоздалой идеей.
  • 6:54 - 6:59
    Итак, есть три принципа, которые
    составляют основу движения «инкодинг».
  • 6:59 - 7:00
    Важно, кто пишет код,
  • 7:00 - 7:02
    важно, как мы пишем код,
  • 7:02 - 7:04
    и важно, для чего мы пишем код.
  • 7:04 - 7:07
    Двигаясь в сторону инкодинга,
    мы можем начать задумываться
  • 7:07 - 7:10
    о создании платформ,
    которые могут находить ошибку,
  • 7:10 - 7:13
    собирая опыт людей, таких как я,
  • 7:13 - 7:16
    а также проверяющих существующее
    программное обеспечение.
  • 7:16 - 7:20
    Также мы можем приступить к созданию
    более полных тренировочных наборов.
  • 7:20 - 7:23
    Представьте себе кампанию
    «Селфи для присоединения»,
  • 7:23 - 7:27
    где вы и я можем помочь разработчикам
    тестировать и создавать
  • 7:27 - 7:29
    более полные тренировочные наборы.
  • 7:29 - 7:32
    Также мы можем начать думать
    более добросовестно
  • 7:32 - 7:38
    о социальном влиянии технологии,
    над которой мы работаем.
  • 7:38 - 7:40
    Чтобы запустить движение инкодинга,
  • 7:40 - 7:43
    я создала Лигу алгоритмической
    справедливости,
  • 7:43 - 7:49
    где каждый, кто заботится о равенстве,
    может помочь бороться со сбоями.
  • 7:49 - 7:52
    На codedgaze.com вы
    можете сообщить об ошибке,
  • 7:52 - 7:55
    запросить проверку, стать тестировщиком
  • 7:55 - 7:57
    и присоединиться к обсуждению.
  • 7:57 - 8:00
    #codedgaze.
  • 8:01 - 8:03
    Я приглашаю вас присоединиться ко мне,
  • 8:03 - 8:07
    чтобы создать мир, в котором технология
    работает на всех нас,
  • 8:07 - 8:09
    а не только на некоторых,
  • 8:09 - 8:14
    мир, в котором мы ценим инклюзию и
    сосредотачиваемся на социальных переменах.
  • 8:14 - 8:15
    Спасибо.
  • 8:15 - 8:19
    (Аплодисменты)
  • 8:21 - 8:24
    И у меня один вопрос:
  • 8:24 - 8:26
    «А вы присоединитесь
    ко мне в этой борьбе?»
  • 8:26 - 8:27
    (Смех)
  • 8:27 - 8:31
    (Аплодисменты)
Title:
Как я борюсь со сбоями в алгоритмах
Speaker:
Джой Буоламвини
Description:

Аспирант Массачусетского технологического института Джой Буоламвини работала с программным обеспечением для распознавания лиц, когда столкнулась с проблемой: люди, создавшие алгоритм, не научили его определять целый ряд оттенков кожи и лицевых структур. Сейчас она находится на миссии борьбы со сбоями в машинном обучении, с феноменом, который она назвала «закодированный взгляд». Это выступление, раскрывающее глаза на необходимость ответственного программирования по мере того, как алгоритмы захватывают всё больше и больше аспектов нашей жизни.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:46

Russian subtitles

Revisions