Как защитить ИИ от человеческих предрассудков
-
0:01 - 0:05Сколько решений в отношении вас
было принято сегодня, -
0:05 - 0:07на этой неделе или в этом году
-
0:07 - 0:09искусственным интеллектом?
-
0:11 - 0:13Я зарабатываю, создавая ИИ,
-
0:13 - 0:16так что, говоря откровенно, я ботан.
-
0:16 - 0:18И поскольку я ботан,
-
0:18 - 0:20когда появляется очередной новостной сюжет
-
0:20 - 0:24об искусственном интеллекте,
ворующем наши рабочие места, -
0:24 - 0:28или о роботах, получающих
гражданство настоящей страны, -
0:28 - 0:31мои друзья и подписчики именно меня
засыпают сообщениями, -
0:31 - 0:33полными переживаний о будущем.
-
0:34 - 0:36Мы наблюдаем это повсеместно.
-
0:36 - 0:40СМИ раздувают панику о восстании роботов.
-
0:41 - 0:43В этом можно обвинить Голливуд.
-
0:44 - 0:48Но на самом деле это не та проблема,
на которой нам следует фокусироваться. -
0:49 - 0:53Существует более серьёзный риск,
на который нам следует обратить внимание -
0:53 - 0:54при работе с ИИ.
-
0:55 - 0:58Итак, вернёмся к изначальному вопросу:
-
0:58 - 1:02сколько решений принял сегодня
в отношении вас ИИ? -
1:04 - 1:06И сколько из них
-
1:06 - 1:10были продиктованы вашим полом,
расой или происхождением? -
1:12 - 1:15Алгоритмы используются повсеместно,
-
1:15 - 1:19для того чтобы определять,
кто мы такие и чего мы хотим. -
1:20 - 1:24Некоторые женщины в этом зале
поймут, о чём я, -
1:24 - 1:28если вам приходилось смотреть
рекламу тестов на беременность на YouTube -
1:28 - 1:30по 1000 раз на дню.
-
1:30 - 1:33Или когда вы натыкаетесь на рекламу
клиник планирования семьи -
1:33 - 1:35в ленте Facebook.
-
1:36 - 1:38Или в моём случае —
индийские брачные бюро. -
1:38 - 1:39(Смех)
-
1:39 - 1:42Однако ИИ используется не просто
для того, чтобы определить, -
1:42 - 1:45какие товары мы хотим приобрести
-
1:45 - 1:47или за каким сериалом
проведём бессонные ночи. -
1:49 - 1:54Интересно, что бы вы подумали о человеке,
который размышляет примерно так: -
1:54 - 1:56«Афро- или латиноамериканец
-
1:56 - 2:00куда реже, чем белый,
вовремя вносит платежи по кредиту». -
2:02 - 2:04«Человек по имени Джон —
более способный программист, -
2:04 - 2:06чем та, кого зовут Мэри».
-
2:07 - 2:12«Афроамериканец чаще, чем белый
оказывается рецидивистом». -
2:15 - 2:16Вы наверняка сейчас думаете:
-
2:16 - 2:20«Ого, да это наверняка
сексисты и расисты», верно? -
2:21 - 2:26Всё это реальные заключения,
сделанные о нас искусственным интеллектом -
2:26 - 2:29и основанные на тех предрассудках,
которым ИИ научился у нас, -
2:29 - 2:30у людей.
-
2:32 - 2:37ИИ упрощает процесс принятия решений:
пригласят ли вас на собеседование, -
2:37 - 2:39сколько вам платить за страховку машины,
-
2:39 - 2:41как выглядит ваша кредитная история
-
2:41 - 2:44и даже то, как вы будете оценены
на работе по итогам года. -
2:45 - 2:48Но все эти решения проходят через фильтры
-
2:48 - 2:54предположений ИИ о том, кто мы,
о наших расе, поле и возрасте. -
2:56 - 2:59Как же всё это происходит?
-
2:59 - 3:02Представьте, что ИИ помогает HR-менеджеру
-
3:02 - 3:05в поиске следующего
технического лидера в компании. -
3:05 - 3:08В прошлом этот менеджер
чаще выбирал на должность мужчин. -
3:08 - 3:13В итоге ИИ запоминает, что программистами
чаще становятся мужчины, а не женщины. -
3:14 - 3:16А отсюда рукой подать до вывода:
-
3:16 - 3:19мужчины более способные
программисты, чем женщины. -
3:19 - 3:23Таким образом, наши предрассудки
укрепляются в ИИ. -
3:23 - 3:27Как результат, ИИ отсеивает
кандидатов-женщин. -
3:29 - 3:32Но стойте, если бы так поступал человек,
-
3:32 - 3:34мы бы были возмущены и выступили против.
-
3:34 - 3:38Дискриминация по половому признаку —
это предосудительно. -
3:38 - 3:42И всё же каким-то образом
решения ИИ находятся вне закона, -
3:42 - 3:44так как они приняты машиной.
-
3:46 - 3:47Но это не так.
-
3:47 - 3:52Мы также подкрепляем наши предрассудки
тем, как именно мы взаимодействуем с ИИ. -
3:53 - 3:58Как часто вы пользуетесь голосовыми
помощниками Сири, Алексой или Кортаной? -
3:59 - 4:01Все они имеют две общие черты:
-
4:02 - 4:05первая заключается в том,
что они всегда неверно произносят моё имя, -
4:05 - 4:07а вторая — все они женского пола.
-
4:08 - 4:11Они разработаны, чтобы
послушно выполнять наши поручения, -
4:11 - 4:14включать и выключать свет,
делать онлайн-покупки. -
4:15 - 4:18Существуют также системы ИИ мужского пола,
но они обычно более авторитетны, -
4:18 - 4:22к примеру, IBM Watson,
принимающий решения в бизнес-сфере, -
4:22 - 4:25или платформа Salesforce Einstein,
или робот-адвокат ROSS. -
4:26 - 4:30Таким образом, даже несчастные роботы
страдают от сексизма на рабочем месте. -
4:30 - 4:31(Смех)
-
4:33 - 4:35Задумайтесь, как оба этих факта вкупе
-
4:35 - 4:41оказывают влияние на детей, растущих
в сегодняшнем мире в окружении ИИ. -
4:41 - 4:44Например, они собирают данные
для школьного проекта -
4:44 - 4:47и гуглят фото генеральных директоров.
-
4:47 - 4:50Алгоритм выдаёт им
в основном директоров-мужчин. -
4:50 - 4:52А потом они гуглят личных помощников.
-
4:52 - 4:56Как вы можете догадаться, в этом поиске
отображаются в основном женщины. -
4:56 - 4:59А позже они захотят включить музыку
или заказать поесть, -
4:59 - 5:06и вот они уже раздают свои поручения
помощнику с покорным женским голосом. -
5:08 - 5:13Умнейшие люди планеты
разрабатывают сейчас эти технологии. -
5:13 - 5:17Технологии, которые они могли бы создать
любыми, какими бы ни захотели. -
5:17 - 5:20И всё же они решили сделать помощников
-
5:20 - 5:23в стиле секретарши 1950-х годов
из фильма «Безумцы». -
5:23 - 5:24Ура!
-
5:25 - 5:26Ладно, не волнуйтесь,
-
5:26 - 5:29я не собираюсь заканчивать
выступление словами о том, -
5:29 - 5:32что миром будут править сексистские,
расистские машины. -
5:33 - 5:39Хорошие новости об ИИ заключаются в том,
что он находится под нашим контролем. -
5:39 - 5:43Мы можем заложить в ИИ правильные
моральные нормы и ценности. -
5:44 - 5:46Мы можем сделать три вещи.
-
5:46 - 5:50Во-первых, мы можем начать
отдавать себе отчёт о своих предрассудках -
5:50 - 5:52и предрассудках машин вокруг нас.
-
5:52 - 5:56Во-вторых, мы должны создавать ИИ,
привлекая непохожих друг на друга людей. -
5:57 - 6:02И, в-третьих, мы должны предоставить ИИ
обширную выборку данных для обучения. -
6:03 - 6:06Я говорю о первых двух пунктах,
основываясь на собственном опыте. -
6:06 - 6:08Если вы работаете в сфере ИТ
-
6:08 - 6:11и не выглядите как какой-нибудь
Марк Цукерберг или Илон Маск, -
6:11 - 6:15вам немного сложнее, ваша компетенция
постоянно подвергается сомнению. -
6:16 - 6:17Приведу всего один пример.
-
6:17 - 6:21Как и большинство разработчиков,
я часто бываю на техно-форумах -
6:21 - 6:24и делюсь своими знаниями,
чтобы помочь другим. -
6:24 - 6:26И я заметила,
-
6:26 - 6:30что когда я размещаю настоящее фото
и подписываюсь собственным именем, -
6:30 - 6:34мне часто задают вопросы
или пишут такие комментарии как: -
6:34 - 6:37«Что заставляет вас думать,
что вы можете рассуждать об ИИ?» -
6:38 - 6:42«Почему вы так уверены,
что знаете что-то о машинном обучении?» -
6:42 - 6:45Поэтому, только не удивляйтесь, —
я создала новый профиль -
6:45 - 6:50и на этот раз вместо собственного фото
я поставила кота с реактивным ранцем. -
6:50 - 6:53А ещё я выбрала ник,
по которому невозможно понять пол. -
6:54 - 6:57Вы можете с лёгкостью догадаться,
к чему я клоню, правда? -
6:57 - 7:03В этот раз никто не оставлял комментариев,
ставящих мою квалификацию под сомнение, -
7:03 - 7:06и мне наконец удалось донести свои мысли.
-
7:08 - 7:09И это отстой, ребята.
-
7:09 - 7:12Я занимаюсь созданием роботов с 15 лет,
-
7:12 - 7:14получила несколько степеней в информатике,
-
7:14 - 7:17и мне всё равно приходится
скрывать свой пол, -
7:17 - 7:19чтобы к моей работе
относились серьёзно. -
7:20 - 7:22Так что же происходит?
-
7:22 - 7:25Неужели мужчины просто лучше
разбираются в технологиях, чем женщины? -
7:26 - 7:27Одно исследование выявило,
-
7:28 - 7:32что когда на одной из платформ
женщины-кодеры, как я, скрывали свой пол, -
7:32 - 7:36их работа признавалась успешной
на 4% чаще, чем у их коллег мужчин. -
7:37 - 7:39Так что дело не в таланте.
-
7:40 - 7:43Дело в неравноправии в сфере ИИ,
-
7:43 - 7:46где программист должен
выглядеть определённым образом. -
7:47 - 7:50На самом деле
для усовершенствования сферы ИИ -
7:50 - 7:54нужно вовлекать людей
разного происхождения. -
7:55 - 7:57Нам нужны люди, умеющие
писать и рассказывать истории -
7:57 - 7:59для помощи в создании личностей ИИ.
-
8:00 - 8:02Нам нужны те, кто способен решать задачи.
-
8:03 - 8:07Нам нужны люди, сталкивающиеся
с различными трудностями, -
8:07 - 8:12а так же люди, которые могут рассказать
о реальных проблемах, требующих решений, -
8:12 - 8:15и помочь нам создать технологии
для поиска качественных решений. -
8:18 - 8:22Ведь когда люди с разным
жизненным опытом собираются вместе, -
8:22 - 8:24когда мы двигаемся в верном направлении,
-
8:24 - 8:26наши возможности безграничны.
-
8:27 - 8:30Я хочу исправить сложившуюся ситуацию
и поэтому говорю меньше о том, -
8:30 - 8:34что роботы-расисты и машины
отнимут у нас рабочие места, -
8:34 - 8:37и больше о том,
чего мы действительно можем достичь. -
8:38 - 8:42Конечно, часть энергии в мире ИИ,
-
8:42 - 8:43в мире технологий
-
8:43 - 8:47будет уходить на определение того,
какие рекламные объявления вы увидите. -
8:47 - 8:53Но существенная доля энергии направлена
на то, чтобы сделать мир намного лучше. -
8:54 - 8:57Представьте беременную женщину
в Демократической Республике Конго, -
8:57 - 9:01которой приходится идти 17 часов пешком
до ближайшей сельской женской консультации -
9:02 - 9:03для прохождения медосмотра.
-
9:03 - 9:07Что было бы, если бы она могла
вместо этого получить диагноз по телефону? -
9:08 - 9:10Или представьте, что мог бы сделать ИИ
-
9:10 - 9:12для женщин из Южной Африки,
каждая третья из которых -
9:12 - 9:14сталкивается с домашним насилием.
-
9:15 - 9:18Если им страшно сообщить об этом,
-
9:18 - 9:20они могли бы использовать ИИ
для привлечения внимания, -
9:20 - 9:23получить финансовую и юридическую помощь.
-
9:24 - 9:29Это примеры реальных проектов,
над которыми мы сейчас работаем, -
9:29 - 9:32используя технологии ИИ.
-
9:34 - 9:37Я уверена, в ближайшие пару дней
появится очередной новостной вброс -
9:37 - 9:40об экзистенциальном риске,
восстании машин -
9:40 - 9:42и о том, что мы все
скоро лишимся рабочих мест. -
9:42 - 9:43(Смех)
-
9:43 - 9:46Когда что-то подобное происходит,
я знаю наперёд, -
9:46 - 9:49что получу множество сообщений,
полных переживаний о нашем будущем. -
9:49 - 9:53Но я полностью поддерживаю
использование технологий ИИ. -
9:55 - 10:01Это наш шанс сделать мир местом,
где равенство не будет пустым словом. -
10:02 - 10:06Но для этого нам нужно
делать всё правильно с самого начала. -
10:08 - 10:13Нам нужны люди разного пола, рас,
сексуальных ориентаций, происхождений. -
10:14 - 10:17Нужно, чтобы женщины выступали творцами,
-
10:17 - 10:20а не просто машинами, которые
выполняют поручения творцов. -
10:22 - 10:26Нам нужно осторожно подходить к тому,
какой логике мы обучаем системы, -
10:26 - 10:27какими данными снабжаем их,
-
10:27 - 10:30чтобы они не повторяли наши былые ошибки.
-
10:32 - 10:36Я надеюсь, что оставлю вас
с мыслями о двух вещах. -
10:37 - 10:41Во-первых, я надеюсь, вы задумаетесь
о бытующих в обществе предрассудках. -
10:41 - 10:44И в следующий раз, когда
вы увидите в ленте объявление, -
10:44 - 10:47предполагающее, что вам интересны
клиники планирования семьи -
10:47 - 10:50или букмекер-сервисы онлайн,
-
10:50 - 10:52вы вспомните о том,
-
10:52 - 10:57что тот же алгоритм предполагает, что
афроамериканец станет рецидивистом. -
10:58 - 11:02Или что женщина скорее станет личным
ассистентом, чем генеральным директором. -
11:03 - 11:07И я надеюсь, вы вспомните, что
со всем этим нам нужно что-то делать. -
11:09 - 11:11А во-вторых,
-
11:11 - 11:12надеюсь, вы задумаетесь о том,
-
11:12 - 11:15что вам не нужно выглядеть
определённым образом -
11:15 - 11:18или иметь специальную подготовку
в области технологий, -
11:18 - 11:20чтобы участвовать в создании ИИ,
-
11:20 - 11:23который станет движущей силой
нашего будущего. -
11:24 - 11:26Вам не нужно выглядеть,
как Марк Цукерберг, -
11:26 - 11:28вы можете выглядеть, как я.
-
11:29 - 11:32И от всех нас в этой комнате зависит,
-
11:32 - 11:35сможем ли мы убедить
правительство и корпорации -
11:35 - 11:38создавать ИИ для всех,
-
11:38 - 11:40включая редкие случаи.
-
11:40 - 11:42В наших интересах познать в будущем
-
11:42 - 11:45эту удивительную технологию,
-
11:46 - 11:48потому что, сделав это,
-
11:48 - 11:53мы откроем лишь малую толику того,
чего можно достичь с помощью ИИ. -
11:53 - 11:54Спасибо.
-
11:54 - 11:57(Аплодисменты)
- Title:
- Как защитить ИИ от человеческих предрассудков
- Speaker:
- Крити Шарма
- Description:
-
Искусственный интеллект постоянно принимает решения в отношении вас: например, сколько вам придётся заплатить за страховку вашей машины или пригласят ли вас на собеседование. Но что происходит, когда в системы ИИ закладываются человеческие предубеждения? Специалист в области компьютерных технологий Крити Шарма рассказывает, как отсутствие разнообразия в сфере технологий влияет на ИИ, и предлагает три способа научить его принимать более нравственные решения.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:10
Retired user approved Russian subtitles for How to keep human bias out of AI | ||
Retired user edited Russian subtitles for How to keep human bias out of AI | ||
Maxim Averin accepted Russian subtitles for How to keep human bias out of AI | ||
Maxim Averin edited Russian subtitles for How to keep human bias out of AI | ||
Maxim Averin edited Russian subtitles for How to keep human bias out of AI | ||
Maxim Averin edited Russian subtitles for How to keep human bias out of AI | ||
Maxim Averin edited Russian subtitles for How to keep human bias out of AI | ||
Maxim Averin edited Russian subtitles for How to keep human bias out of AI |