Return to Video

Как я борюсь со сбоями в алгоритмах

  • 0:01 - 0:04
    Привет, я Джой, поэт кода.
  • 0:04 - 0:09
    Моя миссия — остановить невидимую,
    набирающую обороты силу,
  • 0:09 - 0:12
    силу, которую я называю
    «закодированный взгляд»,
  • 0:12 - 0:15
    моё определение для алгоритмического сбоя.
  • 0:15 - 0:20
    Необъективность алгоритма, как и
    человека, ведёт к несправедливости.
  • 0:20 - 0:26
    Алгоритмы, как вирусы, способны
    распространять ошибки в больших масштабах
  • 0:26 - 0:27
    и очень быстро.
  • 0:28 - 0:32
    Алгоритмические отклонения
    могут приводить к отчуждению
  • 0:32 - 0:34
    и дискриминации.
  • 0:35 - 0:37
    Давайте я покажу, что я имею в виду.
  • 0:37 - 0:39
    (Видео) Джой: Привет,
    камера. Вот моё лицо.
  • 0:40 - 0:42
    Ты видишь моё лицо?
  • 0:42 - 0:44
    Лицо без очков?
  • 0:44 - 0:46
    Ты видишь её лицо.
  • 0:46 - 0:48
    А моё?
  • 0:52 - 0:56
    Теперь с маской. Видишь маску?
  • 0:56 - 0:59
    Джой Буоламвини: Как так получилось?
  • 0:59 - 1:02
    Почему я сижу за компьютером
  • 1:02 - 1:03
    в белой маске,
  • 1:03 - 1:07
    пытаясь быть распознанной
    дешёвой камерой?
  • 1:07 - 1:09
    Когда я не воюю с закодированным взглядом,
  • 1:09 - 1:11
    будучи поэтом кода,
  • 1:11 - 1:14
    я аспирант Медиа-лаборатории в МИТ,
  • 1:14 - 1:19
    где у меня есть возможность работать
    над всяческими фантастическими проектами,
  • 1:19 - 1:21
    включая Зеркало стремлений,
  • 1:21 - 1:26
    которое позволяет проецировать
    цифровые маски на своё отражение.
  • 1:26 - 1:29
    Например, если утром я хочу
    чувствовать себя сильной,
  • 1:29 - 1:30
    я могу наложить маску льва.
  • 1:30 - 1:34
    Если я хочу приободриться,
    то можно обойтись цитатой.
  • 1:34 - 1:37
    Я использовала обычную
    программу распознавания лиц,
  • 1:37 - 1:38
    чтобы создать эту систему,
  • 1:38 - 1:43
    но оказалось, что её очень трудно
    тестировать, если на мне нет белой маски.
  • 1:44 - 1:49
    К сожалению, я и раньше
    сталкивалась с этой проблемой.
  • 1:49 - 1:53
    Когда я изучала информатику
    в Технологическом институте Джорджии,
  • 1:53 - 1:55
    я работала над социальными роботами,
  • 1:55 - 1:59
    и одной из моих задач было научить
    робота играть в «ку-ку».
  • 1:59 - 2:01
    Это простая игра со сменой ролей,
  • 2:01 - 2:05
    когда участники закрывают лицо ладонями,
    и, открывая, говорят: «Ку-ку!»
  • 2:05 - 2:09
    Проблема заключается в том, что
    если вас не видно, то игра теряет смысл,
  • 2:09 - 2:12
    а мой робот меня не видел.
  • 2:12 - 2:16
    Моя соседка одолжила мне своё лицо,
    чтобы я смогла закончить проект,
  • 2:16 - 2:17
    я сдала задание
  • 2:17 - 2:21
    и подумала, что кто-нибудь другой
    решит эту проблему.
  • 2:22 - 2:24
    Через некоторое время
  • 2:24 - 2:28
    я участвовала в конкурсе
    предринимателей в Гонконге.
  • 2:28 - 2:31
    Организаторы решили показать участникам
  • 2:31 - 2:33
    местные стартапы.
  • 2:33 - 2:36
    В одном стартапе был социальный робот,
  • 2:36 - 2:38
    и они решили его продемонстрировать.
  • 2:38 - 2:41
    Демонстрация сработала на всех,
    пока дело не дошло до меня,
  • 2:41 - 2:43
    и вы, наверное, уже догадались.
  • 2:43 - 2:46
    Он не смог распознать моё лицо.
  • 2:46 - 2:49
    Я спросила у разработчиков, в чём дело,
  • 2:49 - 2:54
    и оказалось, что мы использовали одну
    и ту же программу для распознавания лиц.
  • 2:54 - 2:56
    На другой половине земного шара
  • 2:56 - 3:00
    до меня дошло, что алгоритмическая ошибка
    может распространяться так же быстро,
  • 3:00 - 3:03
    как быстро можно скачивать
    файлы из интернета.
  • 3:04 - 3:07
    Так что же происходит? Почему
    моё лицо не распознаётся?
  • 3:07 - 3:10
    Для начала рассмотрим,
    как мы создаём машинное зрение.
  • 3:10 - 3:14
    Компьютерное зрение использует
    техники машинного обучения,
  • 3:14 - 3:16
    чтобы распознавать лица.
  • 3:16 - 3:19
    Это работает таким образом: вы создаёте
    тренировочный набор с примерами лиц.
  • 3:19 - 3:22
    Это лицо. Это лицо. Это не лицо.
  • 3:22 - 3:27
    И постепенно вы можете научить
    компьютер распознавать другие лица.
  • 3:27 - 3:31
    Однако, если тренировочные наборы
    не очень разнообразны,
  • 3:31 - 3:34
    любое лицо, которое сильно отличается
    от установленной нормы,
  • 3:34 - 3:36
    будет сложно распознать,
  • 3:36 - 3:38
    что и происходило со мной.
  • 3:38 - 3:40
    Но не переживайте —
    есть и хорошие новости.
  • 3:40 - 3:43
    Тренировочные наборы
    не появляются из ниоткуда.
  • 3:43 - 3:45
    Мы вообще-то можем их создавать.
  • 3:45 - 3:49
    Есть возможность создавать полный спектр
    тренировочных наборов,
  • 3:49 - 3:53
    которые отражают более насыщенный
    портрет человечества.
  • 3:53 - 3:55
    Вы увидели в моих примерах,
  • 3:55 - 3:57
    как социальные роботы
  • 3:57 - 4:02
    позволили мне обнаружить исключения
    из-за алгоритмической погрешности.
  • 4:02 - 4:06
    Но алгоритмическая ошибка может также
    приводить к дискриминации.
  • 4:07 - 4:09
    В США
  • 4:09 - 4:13
    отделения полиции начинают использовать
    программы распознавания лиц
  • 4:13 - 4:16
    в их арсенале борьбы с преступностью.
  • 4:16 - 4:18
    Школа права университета Джорджтаун
  • 4:18 - 4:24
    опубликовала отчёт, согласно которому
    в США один из двух взрослых —
  • 4:24 - 4:28
    это 117 миллионов человек —
    имеют свои лица в сетях распознавания лиц.
  • 4:28 - 4:33
    Отделения полиции сейчас могут
    неограниченно пользоваться этими сетями,
  • 4:33 - 4:37
    используя алгоритмы, точность
    которых не была проверена.
  • 4:37 - 4:41
    Но мы знаем, что
    распознавание лиц несовершенно
  • 4:41 - 4:45
    и что последовательное определение лиц
    остаётся сложной задачей.
  • 4:45 - 4:47
    Можно столкнуться с этим на Фейсбуке.
  • 4:47 - 4:50
    Мы с друзьями всё время смеёмся,
    когда видим других людей,
  • 4:50 - 4:52
    отмеченных на наших фото.
  • 4:52 - 4:58
    Но ошибочное определение уголовно
    подозреваемого — это не шутка
  • 4:58 - 5:01
    и не просто нарушение гражданских свобод.
  • 5:01 - 5:04
    Машинное обучение используется
    для распознавания лиц,
  • 5:04 - 5:08
    но не ограничивается компьютерным зрением.
  • 5:09 - 5:13
    В своей книге «Оружие
    математического поражения»
  • 5:13 - 5:20
    учёный в области данных Кэти О'нейл
    рассказывает о новом ОМП —
  • 5:20 - 5:24
    охватывающих, малоизвестных
    и поражающих алгоритмах,
  • 5:24 - 5:27
    которые всё чаще используются
    для принятия решений,
  • 5:27 - 5:31
    которые влияют на всё большее количество
    аспектов нашей жизни.
  • 5:31 - 5:32
    Кто будет принят на работу или уволен?
  • 5:32 - 5:35
    Дадут ли вам этот кредит? Страховку?
  • 5:35 - 5:38
    Попадёте ли вы в тот колледж,
    в который собирались?
  • 5:38 - 5:42
    Одинаковы ли цены для вас и для меня
    на один и тот же товар,
  • 5:42 - 5:44
    купленный на той же платформе?
  • 5:44 - 5:48
    Правоохранительные органы также
    начинают применять машинное обучение
  • 5:48 - 5:50
    для прогнозирования.
  • 5:50 - 5:54
    Судьи используют рейтинги риска,
    сгенерированные машиной, для определения
  • 5:54 - 5:58
    срока, который человек
    должен будет провести в тюрьме.
  • 5:58 - 6:01
    Мы должны крепко задуматься
    над этими решениями.
  • 6:01 - 6:02
    Справедливы ли они?
  • 6:02 - 6:05
    Мы видели, что алгоритмический сбой
  • 6:05 - 6:08
    ведёт к не совсем правильным результатам.
  • 6:08 - 6:10
    Что же мы можем с этим сделать?
  • 6:10 - 6:14
    Для начала, мы можем задуматься о том,
    как создавать более всестороний код
  • 6:14 - 6:17
    и применять инклюзивные практики
    в программировании.
  • 6:17 - 6:19
    Это всё начинается с людей.
  • 6:20 - 6:22
    Важно, кто пишет код.
  • 6:22 - 6:26
    Создаём ли мы группы
    из разнообразных личностей,
  • 6:26 - 6:28
    способных видеть слепые зоны друг друга?
  • 6:28 - 6:32
    С технической стороны, имеет значение
    то, как мы пишем код.
  • 6:32 - 6:35
    Движет ли нами справедливость
    во время разработки систем?
  • 6:36 - 6:38
    И наконец, важно, для чего мы пишем код.
  • 6:39 - 6:44
    Использование компьютерного творчества
    открыло нам невероятное богатство.
  • 6:44 - 6:48
    Сейчас у нас есть возможность
    добиться ещё большего равенства,
  • 6:48 - 6:51
    если мы сделаем социальное
    изменение приоритетной,
  • 6:51 - 6:53
    а не запоздалой идеей.
  • 6:54 - 6:59
    Итак, есть три принципа, которые
    составляют основу движения «инкодинг».
  • 6:59 - 7:00
    Важно, кто пишет код,
  • 7:00 - 7:02
    важно, как мы пишем код,
  • 7:02 - 7:04
    и важно, для чего мы пишем код.
  • 7:04 - 7:07
    Двигаясь в сторону инкодинга,
    мы можем начать задумываться
  • 7:07 - 7:10
    о создании платформ,
    которые могут находить ошибку,
  • 7:10 - 7:13
    собирая опыт людей, таких как я,
  • 7:13 - 7:16
    а также проверяющих существующее
    программное обеспечение.
  • 7:16 - 7:20
    Также мы можем приступить к созданию
    более полных тренировочных наборов.
  • 7:20 - 7:23
    Представьте себе кампанию
    «Селфи для присоединения»,
  • 7:23 - 7:27
    где вы и я можем помочь разработчикам
    тестировать и создавать
  • 7:27 - 7:29
    более полные тренировочные наборы.
  • 7:29 - 7:32
    Также мы можем начать думать
    более добросовестно
  • 7:32 - 7:38
    о социальном влиянии технологии,
    над которой мы работаем.
  • 7:38 - 7:40
    Чтобы запустить движение инкодинга,
  • 7:40 - 7:43
    я создала Лигу алгоритмической
    справедливости,
  • 7:43 - 7:49
    где каждый, кто заботится о равенстве,
    может помочь бороться со сбоями.
  • 7:49 - 7:52
    На codedgaze.com вы
    можете сообщить об ошибке,
  • 7:52 - 7:55
    запросить проверку, стать тестировщиком
  • 7:55 - 7:57
    и присоединиться к обсуждению.
  • 7:57 - 8:00
    #codedgaze.
  • 8:01 - 8:03
    Я приглашаю вас присоединиться ко мне,
  • 8:03 - 8:07
    чтобы создать мир, в котором технология
    работает на всех нас,
  • 8:07 - 8:09
    а не только на некоторых,
  • 8:09 - 8:14
    мир, в котором мы ценим инклюзию и
    сосредотачиваемся на социальных переменах.
  • 8:14 - 8:15
    Спасибо.
  • 8:15 - 8:19
    (Аплодисменты)
  • 8:21 - 8:24
    И у меня один вопрос:
  • 8:24 - 8:26
    «А вы присоединитесь
    ко мне в этой борьбе?»
  • 8:26 - 8:27
    (Смех)
  • 8:27 - 8:31
    (Аплодисменты)
Title:
Как я борюсь со сбоями в алгоритмах
Speaker:
Джой Буоламвини
Description:

Аспирант Массачусетского технологического института Джой Буоламвини работала с программным обеспечением для распознавания лиц, когда столкнулась с проблемой: люди, создавшие алгоритм, не научили его определять целый ряд оттенков кожи и лицевых структур. Сейчас она находится на миссии борьбы со сбоями в машинном обучении, с феноменом, который она назвала «закодированный взгляд». Это выступление, раскрывающее глаза на необходимость ответственного программирования по мере того, как алгоритмы захватывают всё больше и больше аспектов нашей жизни.

more » « less
Video Language:
English
Team:
TED
Project:
TEDTalks
Duration:
08:46
Yulia Kallistratova approved Russian subtitles for How I'm fighting bias in algorithms
Yulia Kallistratova edited Russian subtitles for How I'm fighting bias in algorithms
Yulia Kallistratova accepted Russian subtitles for How I'm fighting bias in algorithms
Yulia Kallistratova edited Russian subtitles for How I'm fighting bias in algorithms
Marina Moshnogorskaya edited Russian subtitles for How I'm fighting bias in algorithms
Marina Moshnogorskaya edited Russian subtitles for How I'm fighting bias in algorithms
Marina Moshnogorskaya edited Russian subtitles for How I'm fighting bias in algorithms
Marina Moshnogorskaya edited Russian subtitles for How I'm fighting bias in algorithms
Show all

Russian subtitles

Revisions