Return to Video

Как защитить ИИ от человеческих предрассудков

  • 0:01 - 0:05
    Сколько решений в отношении вас
    было принято сегодня,
  • 0:05 - 0:07
    на этой неделе или в этом году
  • 0:07 - 0:09
    искусственным интеллектом?
  • 0:11 - 0:13
    Я зарабатываю, создавая ИИ,
  • 0:13 - 0:16
    так что, говоря откровенно, я ботан.
  • 0:16 - 0:18
    И поскольку я ботан,
  • 0:18 - 0:20
    когда появляется очередной новостной сюжет
  • 0:20 - 0:24
    об искусственном интеллекте,
    ворующем наши рабочие места,
  • 0:24 - 0:28
    или о роботах, получающих
    гражданство настоящей страны,
  • 0:28 - 0:31
    мои друзья и подписчики именно меня
    засыпают сообщениями,
  • 0:31 - 0:33
    полными переживаний о будущем.
  • 0:34 - 0:36
    Мы наблюдаем это повсеместно.
  • 0:36 - 0:40
    СМИ раздувают панику о восстании роботов.
  • 0:41 - 0:43
    В этом можно обвинить Голливуд.
  • 0:44 - 0:48
    Но на самом деле это не та проблема,
    на которой нам следует фокусироваться.
  • 0:49 - 0:53
    Существует более серьёзный риск,
    на который нам следует обратить внимание
  • 0:53 - 0:54
    при работе с ИИ.
  • 0:55 - 0:58
    Итак, вернёмся к изначальному вопросу:
  • 0:58 - 1:02
    сколько решений принял сегодня
    в отношении вас ИИ?
  • 1:04 - 1:06
    И сколько из них
  • 1:06 - 1:10
    были продиктованы вашим полом,
    расой или происхождением?
  • 1:12 - 1:15
    Алгоритмы используются повсеместно,
  • 1:15 - 1:19
    для того чтобы определять,
    кто мы такие и чего мы хотим.
  • 1:20 - 1:24
    Некоторые женщины в этом зале
    поймут, о чём я,
  • 1:24 - 1:28
    если вам приходилось смотреть
    рекламу тестов на беременность на YouTube
  • 1:28 - 1:30
    по 1000 раз на дню.
  • 1:30 - 1:33
    Или когда вы натыкаетесь на рекламу
    клиник планирования семьи
  • 1:33 - 1:35
    в ленте Facebook.
  • 1:36 - 1:38
    Или в моём случае —
    индийские брачные бюро.
  • 1:38 - 1:39
    (Смех)
  • 1:39 - 1:42
    Однако ИИ используется не просто
    для того, чтобы определить,
  • 1:42 - 1:45
    какие товары мы хотим приобрести
  • 1:45 - 1:47
    или за каким сериалом
    проведём бессонные ночи.
  • 1:49 - 1:54
    Интересно, что бы вы подумали о человеке,
    который размышляет примерно так:
  • 1:54 - 1:56
    «Афро- или латиноамериканец
  • 1:56 - 2:00
    куда реже, чем белый,
    вовремя вносит платежи по кредиту».
  • 2:02 - 2:04
    «Человек по имени Джон —
    более способный программист,
  • 2:04 - 2:06
    чем та, кого зовут Мэри».
  • 2:07 - 2:12
    «Афроамериканец чаще, чем белый
    оказывается рецидивистом».
  • 2:15 - 2:16
    Вы наверняка сейчас думаете:
  • 2:16 - 2:20
    «Ого, да это наверняка
    сексисты и расисты», верно?
  • 2:21 - 2:26
    Всё это реальные заключения,
    сделанные о нас искусственным интеллектом
  • 2:26 - 2:29
    и основанные на тех предрассудках,
    которым ИИ научился у нас,
  • 2:29 - 2:30
    у людей.
  • 2:32 - 2:37
    ИИ упрощает процесс принятия решений:
    пригласят ли вас на собеседование,
  • 2:37 - 2:39
    сколько вам платить за страховку машины,
  • 2:39 - 2:41
    как выглядит ваша кредитная история
  • 2:41 - 2:44
    и даже то, как вы будете оценены
    на работе по итогам года.
  • 2:45 - 2:48
    Но все эти решения проходят через фильтры
  • 2:48 - 2:54
    предположений ИИ о том, кто мы,
    о наших расе, поле и возрасте.
  • 2:56 - 2:59
    Как же всё это происходит?
  • 2:59 - 3:02
    Представьте, что ИИ помогает HR-менеджеру
  • 3:02 - 3:05
    в поиске следующего
    технического лидера в компании.
  • 3:05 - 3:08
    В прошлом этот менеджер
    чаще выбирал на должность мужчин.
  • 3:08 - 3:13
    В итоге ИИ запоминает, что программистами
    чаще становятся мужчины, а не женщины.
  • 3:14 - 3:16
    А отсюда рукой подать до вывода:
  • 3:16 - 3:19
    мужчины более способные
    программисты, чем женщины.
  • 3:19 - 3:23
    Таким образом, наши предрассудки
    укрепляются в ИИ.
  • 3:23 - 3:27
    Как результат, ИИ отсеивает
    кандидатов-женщин.
  • 3:29 - 3:32
    Но стойте, если бы так поступал человек,
  • 3:32 - 3:34
    мы бы были возмущены и выступили против.
  • 3:34 - 3:38
    Дискриминация по половому признаку —
    это предосудительно.
  • 3:38 - 3:42
    И всё же каким-то образом
    решения ИИ находятся вне закона,
  • 3:42 - 3:44
    так как они приняты машиной.
  • 3:46 - 3:47
    Но это не так.
  • 3:47 - 3:52
    Мы также подкрепляем наши предрассудки
    тем, как именно мы взаимодействуем с ИИ.
  • 3:53 - 3:58
    Как часто вы пользуетесь голосовыми
    помощниками Сири, Алексой или Кортаной?
  • 3:59 - 4:01
    Все они имеют две общие черты:
  • 4:02 - 4:05
    первая заключается в том,
    что они всегда неверно произносят моё имя,
  • 4:05 - 4:07
    а вторая — все они женского пола.
  • 4:08 - 4:11
    Они разработаны, чтобы
    послушно выполнять наши поручения,
  • 4:11 - 4:14
    включать и выключать свет,
    делать онлайн-покупки.
  • 4:15 - 4:18
    Существуют также системы ИИ мужского пола,
    но они обычно более авторитетны,
  • 4:18 - 4:22
    к примеру, IBM Watson,
    принимающий решения в бизнес-сфере,
  • 4:22 - 4:25
    или платформа Salesforce Einstein,
    или робот-адвокат ROSS.
  • 4:26 - 4:30
    Таким образом, даже несчастные роботы
    страдают от сексизма на рабочем месте.
  • 4:30 - 4:31
    (Смех)
  • 4:33 - 4:35
    Задумайтесь, как оба этих факта вкупе
  • 4:35 - 4:41
    оказывают влияние на детей, растущих
    в сегодняшнем мире в окружении ИИ.
  • 4:41 - 4:44
    Например, они собирают данные
    для школьного проекта
  • 4:44 - 4:47
    и гуглят фото генеральных директоров.
  • 4:47 - 4:50
    Алгоритм выдаёт им
    в основном директоров-мужчин.
  • 4:50 - 4:52
    А потом они гуглят личных помощников.
  • 4:52 - 4:56
    Как вы можете догадаться, в этом поиске
    отображаются в основном женщины.
  • 4:56 - 4:59
    А позже они захотят включить музыку
    или заказать поесть,
  • 4:59 - 5:06
    и вот они уже раздают свои поручения
    помощнику с покорным женским голосом.
  • 5:08 - 5:13
    Умнейшие люди планеты
    разрабатывают сейчас эти технологии.
  • 5:13 - 5:17
    Технологии, которые они могли бы создать
    любыми, какими бы ни захотели.
  • 5:17 - 5:20
    И всё же они решили сделать помощников
  • 5:20 - 5:23
    в стиле секретарши 1950-х годов
    из фильма «Безумцы».
  • 5:23 - 5:24
    Ура!
  • 5:25 - 5:26
    Ладно, не волнуйтесь,
  • 5:26 - 5:29
    я не собираюсь заканчивать
    выступление словами о том,
  • 5:29 - 5:32
    что миром будут править сексистские,
    расистские машины.
  • 5:33 - 5:39
    Хорошие новости об ИИ заключаются в том,
    что он находится под нашим контролем.
  • 5:39 - 5:43
    Мы можем заложить в ИИ правильные
    моральные нормы и ценности.
  • 5:44 - 5:46
    Мы можем сделать три вещи.
  • 5:46 - 5:50
    Во-первых, мы можем начать
    отдавать себе отчёт о своих предрассудках
  • 5:50 - 5:52
    и предрассудках машин вокруг нас.
  • 5:52 - 5:56
    Во-вторых, мы должны создавать ИИ,
    привлекая непохожих друг на друга людей.
  • 5:57 - 6:02
    И, в-третьих, мы должны предоставить ИИ
    обширную выборку данных для обучения.
  • 6:03 - 6:06
    Я говорю о первых двух пунктах,
    основываясь на собственном опыте.
  • 6:06 - 6:08
    Если вы работаете в сфере ИТ
  • 6:08 - 6:11
    и не выглядите как какой-нибудь
    Марк Цукерберг или Илон Маск,
  • 6:11 - 6:15
    вам немного сложнее, ваша компетенция
    постоянно подвергается сомнению.
  • 6:16 - 6:17
    Приведу всего один пример.
  • 6:17 - 6:21
    Как и большинство разработчиков,
    я часто бываю на техно-форумах
  • 6:21 - 6:24
    и делюсь своими знаниями,
    чтобы помочь другим.
  • 6:24 - 6:26
    И я заметила,
  • 6:26 - 6:30
    что когда я размещаю настоящее фото
    и подписываюсь собственным именем,
  • 6:30 - 6:34
    мне часто задают вопросы
    или пишут такие комментарии как:
  • 6:34 - 6:37
    «Что заставляет вас думать,
    что вы можете рассуждать об ИИ?»
  • 6:38 - 6:42
    «Почему вы так уверены,
    что знаете что-то о машинном обучении?»
  • 6:42 - 6:45
    Поэтому, только не удивляйтесь, —
    я создала новый профиль
  • 6:45 - 6:50
    и на этот раз вместо собственного фото
    я поставила кота с реактивным ранцем.
  • 6:50 - 6:53
    А ещё я выбрала ник,
    по которому невозможно понять пол.
  • 6:54 - 6:57
    Вы можете с лёгкостью догадаться,
    к чему я клоню, правда?
  • 6:57 - 7:03
    В этот раз никто не оставлял комментариев,
    ставящих мою квалификацию под сомнение,
  • 7:03 - 7:06
    и мне наконец удалось донести свои мысли.
  • 7:08 - 7:09
    И это отстой, ребята.
  • 7:09 - 7:12
    Я занимаюсь созданием роботов с 15 лет,
  • 7:12 - 7:14
    получила несколько степеней в информатике,
  • 7:14 - 7:17
    и мне всё равно приходится
    скрывать свой пол,
  • 7:17 - 7:19
    чтобы к моей работе
    относились серьёзно.
  • 7:20 - 7:22
    Так что же происходит?
  • 7:22 - 7:25
    Неужели мужчины просто лучше
    разбираются в технологиях, чем женщины?
  • 7:26 - 7:27
    Одно исследование выявило,
  • 7:28 - 7:32
    что когда на одной из платформ
    женщины-кодеры, как я, скрывали свой пол,
  • 7:32 - 7:36
    их работа признавалась успешной
    на 4% чаще, чем у их коллег мужчин.
  • 7:37 - 7:39
    Так что дело не в таланте.
  • 7:40 - 7:43
    Дело в неравноправии в сфере ИИ,
  • 7:43 - 7:46
    где программист должен
    выглядеть определённым образом.
  • 7:47 - 7:50
    На самом деле
    для усовершенствования сферы ИИ
  • 7:50 - 7:54
    нужно вовлекать людей
    разного происхождения.
  • 7:55 - 7:57
    Нам нужны люди, умеющие
    писать и рассказывать истории
  • 7:57 - 7:59
    для помощи в создании личностей ИИ.
  • 8:00 - 8:02
    Нам нужны те, кто способен решать задачи.
  • 8:03 - 8:07
    Нам нужны люди, сталкивающиеся
    с различными трудностями,
  • 8:07 - 8:12
    а так же люди, которые могут рассказать
    о реальных проблемах, требующих решений,
  • 8:12 - 8:15
    и помочь нам создать технологии
    для поиска качественных решений.
  • 8:18 - 8:22
    Ведь когда люди с разным
    жизненным опытом собираются вместе,
  • 8:22 - 8:24
    когда мы двигаемся в верном направлении,
  • 8:24 - 8:26
    наши возможности безграничны.
  • 8:27 - 8:30
    Я хочу исправить сложившуюся ситуацию
    и поэтому говорю меньше о том,
  • 8:30 - 8:34
    что роботы-расисты и машины
    отнимут у нас рабочие места,
  • 8:34 - 8:37
    и больше о том,
    чего мы действительно можем достичь.
  • 8:38 - 8:42
    Конечно, часть энергии в мире ИИ,
  • 8:42 - 8:43
    в мире технологий
  • 8:43 - 8:47
    будет уходить на определение того,
    какие рекламные объявления вы увидите.
  • 8:47 - 8:53
    Но существенная доля энергии направлена
    на то, чтобы сделать мир намного лучше.
  • 8:54 - 8:57
    Представьте беременную женщину
    в Демократической Республике Конго,
  • 8:57 - 9:01
    которой приходится идти 17 часов пешком
    до ближайшей сельской женской консультации
  • 9:02 - 9:03
    для прохождения медосмотра.
  • 9:03 - 9:07
    Что было бы, если бы она могла
    вместо этого получить диагноз по телефону?
  • 9:08 - 9:10
    Или представьте, что мог бы сделать ИИ
  • 9:10 - 9:12
    для женщин из Южной Африки,
    каждая третья из которых
  • 9:12 - 9:14
    сталкивается с домашним насилием.
  • 9:15 - 9:18
    Если им страшно сообщить об этом,
  • 9:18 - 9:20
    они могли бы использовать ИИ
    для привлечения внимания,
  • 9:20 - 9:23
    получить финансовую и юридическую помощь.
  • 9:24 - 9:29
    Это примеры реальных проектов,
    над которыми мы сейчас работаем,
  • 9:29 - 9:32
    используя технологии ИИ.
  • 9:34 - 9:37
    Я уверена, в ближайшие пару дней
    появится очередной новостной вброс
  • 9:37 - 9:40
    об экзистенциальном риске,
    восстании машин
  • 9:40 - 9:42
    и о том, что мы все
    скоро лишимся рабочих мест.
  • 9:42 - 9:43
    (Смех)
  • 9:43 - 9:46
    Когда что-то подобное происходит,
    я знаю наперёд,
  • 9:46 - 9:49
    что получу множество сообщений,
    полных переживаний о нашем будущем.
  • 9:49 - 9:53
    Но я полностью поддерживаю
    использование технологий ИИ.
  • 9:55 - 10:01
    Это наш шанс сделать мир местом,
    где равенство не будет пустым словом.
  • 10:02 - 10:06
    Но для этого нам нужно
    делать всё правильно с самого начала.
  • 10:08 - 10:13
    Нам нужны люди разного пола, рас,
    сексуальных ориентаций, происхождений.
  • 10:14 - 10:17
    Нужно, чтобы женщины выступали творцами,
  • 10:17 - 10:20
    а не просто машинами, которые
    выполняют поручения творцов.
  • 10:22 - 10:26
    Нам нужно осторожно подходить к тому,
    какой логике мы обучаем системы,
  • 10:26 - 10:27
    какими данными снабжаем их,
  • 10:27 - 10:30
    чтобы они не повторяли наши былые ошибки.
  • 10:32 - 10:36
    Я надеюсь, что оставлю вас
    с мыслями о двух вещах.
  • 10:37 - 10:41
    Во-первых, я надеюсь, вы задумаетесь
    о бытующих в обществе предрассудках.
  • 10:41 - 10:44
    И в следующий раз, когда
    вы увидите в ленте объявление,
  • 10:44 - 10:47
    предполагающее, что вам интересны
    клиники планирования семьи
  • 10:47 - 10:50
    или букмекер-сервисы онлайн,
  • 10:50 - 10:52
    вы вспомните о том,
  • 10:52 - 10:57
    что тот же алгоритм предполагает, что
    афроамериканец станет рецидивистом.
  • 10:58 - 11:02
    Или что женщина скорее станет личным
    ассистентом, чем генеральным директором.
  • 11:03 - 11:07
    И я надеюсь, вы вспомните, что
    со всем этим нам нужно что-то делать.
  • 11:09 - 11:11
    А во-вторых,
  • 11:11 - 11:12
    надеюсь, вы задумаетесь о том,
  • 11:12 - 11:15
    что вам не нужно выглядеть
    определённым образом
  • 11:15 - 11:18
    или иметь специальную подготовку
    в области технологий,
  • 11:18 - 11:20
    чтобы участвовать в создании ИИ,
  • 11:20 - 11:23
    который станет движущей силой
    нашего будущего.
  • 11:24 - 11:26
    Вам не нужно выглядеть,
    как Марк Цукерберг,
  • 11:26 - 11:28
    вы можете выглядеть, как я.
  • 11:29 - 11:32
    И от всех нас в этой комнате зависит,
  • 11:32 - 11:35
    сможем ли мы убедить
    правительство и корпорации
  • 11:35 - 11:38
    создавать ИИ для всех,
  • 11:38 - 11:40
    включая редкие случаи.
  • 11:40 - 11:42
    В наших интересах познать в будущем
  • 11:42 - 11:45
    эту удивительную технологию,
  • 11:46 - 11:48
    потому что, сделав это,
  • 11:48 - 11:53
    мы откроем лишь малую толику того,
    чего можно достичь с помощью ИИ.
  • 11:53 - 11:54
    Спасибо.
  • 11:54 - 11:57
    (Аплодисменты)
Title:
Как защитить ИИ от человеческих предрассудков
Speaker:
Крити Шарма
Description:

Искусственный интеллект постоянно принимает решения в отношении вас: например, сколько вам придётся заплатить за страховку вашей машины или пригласят ли вас на собеседование. Но что происходит, когда в системы ИИ закладываются человеческие предубеждения? Специалист в области компьютерных технологий Крити Шарма рассказывает, как отсутствие разнообразия в сфере технологий влияет на ИИ, и предлагает три способа научить его принимать более нравственные решения.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:10

Russian subtitles

Revisions