0:00:00.875,0:00:04.643 Сколько решений в отношении вас[br]было принято сегодня, 0:00:04.667,0:00:07.268 на этой неделе или в этом году 0:00:07.292,0:00:09.250 искусственным интеллектом? 0:00:10.958,0:00:12.643 Я зарабатываю, создавая ИИ, 0:00:12.667,0:00:15.684 так что, говоря откровенно, я ботан. 0:00:15.708,0:00:18.101 И поскольку я ботан, 0:00:18.125,0:00:20.476 когда появляется очередной новостной сюжет 0:00:20.500,0:00:23.934 об искусственном интеллекте,[br]ворующем наши рабочие места, 0:00:23.958,0:00:28.143 или о роботах, получающих[br]гражданство настоящей страны, 0:00:28.167,0:00:31.309 мои друзья и подписчики именно меня[br]засыпают сообщениями, 0:00:31.333,0:00:32.875 полными переживаний о будущем. 0:00:33.833,0:00:35.934 Мы наблюдаем это повсеместно. 0:00:35.958,0:00:39.875 СМИ раздувают панику о восстании роботов. 0:00:40.875,0:00:42.792 В этом можно обвинить Голливуд. 0:00:44.125,0:00:48.250 Но на самом деле это не та проблема,[br]на которой нам следует фокусироваться. 0:00:49.250,0:00:52.893 Существует более серьёзный риск,[br]на который нам следует обратить внимание 0:00:52.917,0:00:54.500 при работе с ИИ. 0:00:55.417,0:00:57.726 Итак, вернёмся к изначальному вопросу: 0:00:57.750,0:01:02.458 сколько решений принял сегодня[br]в отношении вас ИИ? 0:01:03.792,0:01:05.768 И сколько из них 0:01:05.792,0:01:10.292 были продиктованы вашим полом,[br]расой или происхождением? 0:01:12.500,0:01:15.268 Алгоритмы используются повсеместно, 0:01:15.292,0:01:19.125 для того чтобы определять, [br]кто мы такие и чего мы хотим. 0:01:20.208,0:01:23.851 Некоторые женщины в этом зале[br]поймут, о чём я, 0:01:23.875,0:01:27.643 если вам приходилось смотреть[br]рекламу тестов на беременность на YouTube 0:01:27.667,0:01:29.726 по 1000 раз на дню. 0:01:29.750,0:01:32.601 Или когда вы натыкаетесь на рекламу[br]клиник планирования семьи 0:01:32.625,0:01:34.667 в ленте Facebook. 0:01:35.625,0:01:38.018 Или в моём случае —[br]индийские брачные бюро. 0:01:38.042,0:01:39.309 (Смех) 0:01:39.333,0:01:42.309 Однако ИИ используется не просто[br]для того, чтобы определить, 0:01:42.333,0:01:44.934 какие товары мы хотим приобрести 0:01:44.958,0:01:47.458 или за каким сериалом[br]проведём бессонные ночи. 0:01:49.042,0:01:54.226 Интересно, что бы вы подумали о человеке,[br]который размышляет примерно так: 0:01:54.250,0:01:56.184 «Афро- или латиноамериканец 0:01:56.208,0:02:00.333 куда реже, чем белый, [br]вовремя вносит платежи по кредиту». 0:02:01.542,0:02:04.351 «Человек по имени Джон —[br]более способный программист, 0:02:04.375,0:02:06.042 чем та, кого зовут Мэри». 0:02:07.250,0:02:12.333 «Афроамериканец чаще, чем белый[br]оказывается рецидивистом». 0:02:14.888,0:02:16.226 Вы наверняка сейчас думаете: 0:02:16.250,0:02:20.000 «Ого, да это наверняка[br]сексисты и расисты», верно? 0:02:21.000,0:02:25.851 Всё это реальные заключения,[br]сделанные о нас искусственным интеллектом 0:02:25.875,0:02:28.809 и основанные на тех предрассудках,[br]которым ИИ научился у нас, 0:02:28.833,0:02:30.083 у людей. 0:02:31.750,0:02:36.559 ИИ упрощает процесс принятия решений:[br]пригласят ли вас на собеседование, 0:02:36.583,0:02:38.976 сколько вам платить за страховку машины, 0:02:39.000,0:02:40.893 как выглядит ваша кредитная история 0:02:40.917,0:02:44.042 и даже то, как вы будете оценены[br]на работе по итогам года. 0:02:45.083,0:02:48.226 Но все эти решения проходят через фильтры 0:02:48.250,0:02:54.125 предположений ИИ о том, кто мы,[br]о наших расе, поле и возрасте. 0:02:56.250,0:02:58.518 Как же всё это происходит? 0:02:58.542,0:03:02.059 Представьте, что ИИ помогает HR-менеджеру 0:03:02.083,0:03:04.934 в поиске следующего[br]технического лидера в компании. 0:03:04.958,0:03:08.059 В прошлом этот менеджер[br]чаще выбирал на должность мужчин. 0:03:08.083,0:03:12.833 В итоге ИИ запоминает, что программистами[br]чаще становятся мужчины, а не женщины. 0:03:13.542,0:03:16.434 А отсюда рукой подать до вывода: 0:03:16.458,0:03:18.890 мужчины более способные[br]программисты, чем женщины. 0:03:19.417,0:03:23.143 Таким образом, наши предрассудки [br]укрепляются в ИИ. 0:03:23.167,0:03:26.792 Как результат, ИИ отсеивает[br]кандидатов-женщин. 0:03:28.917,0:03:31.934 Но стойте, если бы так поступал человек, 0:03:31.958,0:03:34.309 мы бы были возмущены и выступили против. 0:03:34.333,0:03:37.809 Дискриминация по половому признаку —[br]это предосудительно. 0:03:37.833,0:03:42.351 И всё же каким-то образом[br]решения ИИ находятся вне закона, 0:03:42.375,0:03:44.458 так как они приняты машиной. 0:03:45.833,0:03:47.351 Но это не так. 0:03:47.375,0:03:52.250 Мы также подкрепляем наши предрассудки[br]тем, как именно мы взаимодействуем с ИИ. 0:03:52.917,0:03:57.917 Как часто вы пользуетесь голосовыми[br]помощниками Сири, Алексой или Кортаной? 0:03:58.917,0:04:01.476 Все они имеют две общие черты: 0:04:01.500,0:04:04.711 первая заключается в том,[br]что они всегда неверно произносят моё имя, 0:04:04.745,0:04:07.292 а вторая — все они женского пола. 0:04:08.417,0:04:11.184 Они разработаны, чтобы [br]послушно выполнять наши поручения, 0:04:11.208,0:04:14.458 включать и выключать свет,[br]делать онлайн-покупки. 0:04:14.901,0:04:18.434 Существуют также системы ИИ мужского пола,[br]но они обычно более авторитетны, 0:04:18.458,0:04:21.517 к примеру, IBM Watson, [br]принимающий решения в бизнес-сфере, 0:04:21.541,0:04:25.333 или платформа Salesforce Einstein, [br]или робот-адвокат ROSS. 0:04:26.208,0:04:30.268 Таким образом, даже несчастные роботы[br]страдают от сексизма на рабочем месте. 0:04:30.292,0:04:31.417 (Смех) 0:04:32.542,0:04:35.393 Задумайтесь, как оба этих факта вкупе 0:04:35.417,0:04:40.726 оказывают влияние на детей, растущих [br]в сегодняшнем мире в окружении ИИ. 0:04:40.750,0:04:43.684 Например, они собирают данные[br]для школьного проекта 0:04:43.708,0:04:46.726 и гуглят фото генеральных директоров. 0:04:46.750,0:04:49.643 Алгоритм выдаёт им[br]в основном директоров-мужчин. 0:04:49.667,0:04:52.226 А потом они гуглят личных помощников. 0:04:52.250,0:04:55.684 Как вы можете догадаться, в этом поиске [br]отображаются в основном женщины. 0:04:55.708,0:04:59.309 А позже они захотят включить музыку[br]или заказать поесть, 0:04:59.333,0:05:05.917 и вот они уже раздают свои поручения[br]помощнику с покорным женским голосом. 0:05:07.542,0:05:12.851 Умнейшие люди планеты[br]разрабатывают сейчас эти технологии. 0:05:12.875,0:05:17.059 Технологии, которые они могли бы создать [br]любыми, какими бы ни захотели. 0:05:17.083,0:05:20.172 И всё же они решили сделать помощников 0:05:20.202,0:05:22.842 в стиле секретарши 1950-х годов [br]из фильма «Безумцы». 0:05:22.882,0:05:24.292 Ура! 0:05:24.958,0:05:26.268 Ладно, не волнуйтесь, 0:05:26.292,0:05:28.823 я не собираюсь заканчивать[br]выступление словами о том, 0:05:28.863,0:05:31.852 что миром будут править сексистские,[br]расистские машины. 0:05:32.792,0:05:38.583 Хорошие новости об ИИ заключаются в том,[br]что он находится под нашим контролем. 0:05:39.333,0:05:43.333 Мы можем заложить в ИИ правильные [br]моральные нормы и ценности. 0:05:44.167,0:05:46.351 Мы можем сделать три вещи. 0:05:46.375,0:05:49.726 Во-первых, мы можем начать[br]отдавать себе отчёт о своих предрассудках 0:05:49.750,0:05:52.476 и предрассудках машин вокруг нас. 0:05:52.500,0:05:56.042 Во-вторых, мы должны создавать ИИ,[br]привлекая непохожих друг на друга людей. 0:05:57.042,0:06:01.958 И, в-третьих, мы должны предоставить ИИ[br]обширную выборку данных для обучения. 0:06:02.875,0:06:06.184 Я говорю о первых двух пунктах,[br]основываясь на собственном опыте. 0:06:06.208,0:06:07.643 Если вы работаете в сфере ИТ 0:06:07.667,0:06:11.059 и не выглядите как какой-нибудь [br]Марк Цукерберг или Илон Маск, 0:06:11.083,0:06:14.833 вам немного сложнее, ваша компетенция [br]постоянно подвергается сомнению. 0:06:15.875,0:06:17.268 Приведу всего один пример. 0:06:17.292,0:06:21.018 Как и большинство разработчиков,[br]я часто бываю на техно-форумах 0:06:21.042,0:06:24.268 и делюсь своими знаниями, [br]чтобы помочь другим. 0:06:24.292,0:06:25.601 И я заметила, 0:06:25.625,0:06:29.601 что когда я размещаю настоящее фото[br]и подписываюсь собственным именем, 0:06:29.625,0:06:34.226 мне часто задают вопросы[br]или пишут такие комментарии как: 0:06:34.250,0:06:37.250 «Что заставляет вас думать, [br]что вы можете рассуждать об ИИ?» 0:06:38.458,0:06:41.934 «Почему вы так уверены,[br]что знаете что-то о машинном обучении?» 0:06:41.958,0:06:45.393 Поэтому, только не удивляйтесь, —[br]я создала новый профиль 0:06:45.417,0:06:50.268 и на этот раз вместо собственного фото[br]я поставила кота с реактивным ранцем. 0:06:50.292,0:06:52.980 А ещё я выбрала ник, [br]по которому невозможно понять пол. 0:06:53.917,0:06:56.643 Вы можете с лёгкостью догадаться,[br]к чему я клоню, правда? 0:06:56.667,0:07:03.059 В этот раз никто не оставлял комментариев,[br]ставящих мою квалификацию под сомнение, 0:07:03.083,0:07:06.417 и мне наконец удалось донести свои мысли. 0:07:07.500,0:07:09.351 И это отстой, ребята. 0:07:09.375,0:07:11.851 Я занимаюсь созданием роботов с 15 лет, 0:07:11.875,0:07:14.143 получила несколько степеней в информатике, 0:07:14.167,0:07:16.601 и мне всё равно приходится [br]скрывать свой пол, 0:07:16.625,0:07:19.395 чтобы к моей работе[br]относились серьёзно. 0:07:19.875,0:07:21.768 Так что же происходит? 0:07:21.792,0:07:25.000 Неужели мужчины просто лучше[br]разбираются в технологиях, чем женщины? 0:07:25.917,0:07:27.476 Одно исследование выявило, 0:07:27.500,0:07:32.434 что когда на одной из платформ [br]женщины-кодеры, как я, скрывали свой пол, 0:07:32.458,0:07:35.708 их работа признавалась успешной [br]на 4% чаще, чем у их коллег мужчин. 0:07:36.542,0:07:39.458 Так что дело не в таланте. 0:07:39.958,0:07:42.851 Дело в неравноправии в сфере ИИ, 0:07:42.875,0:07:46.027 где программист должен[br]выглядеть определённым образом. 0:07:47.375,0:07:50.476 На самом деле[br]для усовершенствования сферы ИИ 0:07:50.500,0:07:53.542 нужно вовлекать людей[br]разного происхождения. 0:07:54.542,0:07:57.101 Нам нужны люди, умеющие[br]писать и рассказывать истории 0:07:57.125,0:07:59.292 для помощи в создании личностей ИИ. 0:08:00.208,0:08:02.250 Нам нужны те, кто способен решать задачи. 0:08:03.125,0:08:06.893 Нам нужны люди, сталкивающиеся[br]с различными трудностями, 0:08:06.917,0:08:12.268 а так же люди, которые могут рассказать[br]о реальных проблемах, требующих решений, 0:08:12.292,0:08:15.333 и помочь нам создать технологии[br]для поиска качественных решений. 0:08:17.833,0:08:21.559 Ведь когда люди с разным [br]жизненным опытом собираются вместе, 0:08:21.583,0:08:23.726 когда мы двигаемся в верном направлении, 0:08:23.750,0:08:25.792 наши возможности безграничны. 0:08:26.750,0:08:30.059 Я хочу исправить сложившуюся ситуацию[br]и поэтому говорю меньше о том, 0:08:30.083,0:08:34.308 что роботы-расисты и машины[br]отнимут у нас рабочие места, 0:08:34.332,0:08:37.457 и больше о том,[br]чего мы действительно можем достичь. 0:08:38.292,0:08:41.726 Конечно, часть энергии в мире ИИ, 0:08:41.750,0:08:43.143 в мире технологий 0:08:43.167,0:08:47.434 будет уходить на определение того,[br]какие рекламные объявления вы увидите. 0:08:47.458,0:08:52.667 Но существенная доля энергии направлена [br]на то, чтобы сделать мир намного лучше. 0:08:53.500,0:08:57.268 Представьте беременную женщину[br]в Демократической Республике Конго, 0:08:57.292,0:09:01.476 которой приходится идти 17 часов пешком[br]до ближайшей сельской женской консультации 0:09:01.500,0:09:03.351 для прохождения медосмотра. 0:09:03.375,0:09:06.872 Что было бы, если бы она могла[br]вместо этого получить диагноз по телефону? 0:09:07.750,0:09:09.559 Или представьте, что мог бы сделать ИИ 0:09:09.583,0:09:12.309 для женщин из Южной Африки,[br]каждая третья из которых 0:09:12.333,0:09:14.458 сталкивается с домашним насилием. 0:09:15.083,0:09:17.809 Если им страшно сообщить об этом, 0:09:17.833,0:09:20.369 они могли бы использовать ИИ[br]для привлечения внимания, 0:09:20.403,0:09:22.792 получить финансовую и юридическую помощь. 0:09:23.958,0:09:28.976 Это примеры реальных проектов,[br]над которыми мы сейчас работаем, 0:09:29.000,0:09:31.500 используя технологии ИИ. 0:09:33.542,0:09:37.143 Я уверена, в ближайшие пару дней[br]появится очередной новостной вброс 0:09:37.167,0:09:39.851 об экзистенциальном риске,[br]восстании машин 0:09:39.875,0:09:42.309 и о том, что мы все [br]скоро лишимся рабочих мест. 0:09:42.333,0:09:43.351 (Смех) 0:09:43.375,0:09:45.684 Когда что-то подобное происходит,[br]я знаю наперёд, 0:09:45.708,0:09:49.309 что получу множество сообщений,[br]полных переживаний о нашем будущем. 0:09:49.333,0:09:53.000 Но я полностью поддерживаю [br]использование технологий ИИ. 0:09:55.458,0:10:01.417 Это наш шанс сделать мир местом,[br]где равенство не будет пустым словом. 0:10:02.458,0:10:06.458 Но для этого нам нужно [br]делать всё правильно с самого начала. 0:10:07.667,0:10:12.750 Нам нужны люди разного пола, рас, [br]сексуальных ориентаций, происхождений. 0:10:14.458,0:10:16.934 Нужно, чтобы женщины выступали творцами, 0:10:16.958,0:10:19.958 а не просто машинами, которые [br]выполняют поручения творцов. 0:10:21.875,0:10:25.643 Нам нужно осторожно подходить к тому,[br]какой логике мы обучаем системы, 0:10:25.667,0:10:27.309 какими данными снабжаем их, 0:10:27.333,0:10:30.458 чтобы они не повторяли наши былые ошибки. 0:10:32.125,0:10:35.667 Я надеюсь, что оставлю вас[br]с мыслями о двух вещах. 0:10:36.542,0:10:41.101 Во-первых, я надеюсь, вы задумаетесь [br]о бытующих в обществе предрассудках. 0:10:41.125,0:10:44.309 И в следующий раз, когда[br]вы увидите в ленте объявление, 0:10:44.333,0:10:47.143 предполагающее, что вам интересны[br]клиники планирования семьи 0:10:47.167,0:10:50.018 или букмекер-сервисы онлайн, 0:10:50.042,0:10:52.059 вы вспомните о том, 0:10:52.083,0:10:56.708 что тот же алгоритм предполагает, что[br]афроамериканец станет рецидивистом. 0:10:57.833,0:11:02.000 Или что женщина скорее станет личным [br]ассистентом, чем генеральным директором. 0:11:02.958,0:11:06.667 И я надеюсь, вы вспомните, что[br]со всем этим нам нужно что-то делать. 0:11:08.917,0:11:10.768 А во-вторых, 0:11:10.792,0:11:12.434 надеюсь, вы задумаетесь о том, 0:11:12.468,0:11:14.804 что вам не нужно выглядеть [br]определённым образом 0:11:14.828,0:11:18.219 или иметь специальную подготовку[br]в области технологий, 0:11:18.243,0:11:19.851 чтобы участвовать в создании ИИ, 0:11:19.875,0:11:22.750 который станет движущей силой[br]нашего будущего. 0:11:24.166,0:11:26.309 Вам не нужно выглядеть,[br]как Марк Цукерберг, 0:11:26.333,0:11:27.713 вы можете выглядеть, как я. 0:11:29.250,0:11:32.143 И от всех нас в этой комнате зависит, 0:11:32.167,0:11:34.893 сможем ли мы убедить [br]правительство и корпорации 0:11:34.917,0:11:37.809 создавать ИИ для всех, 0:11:37.833,0:11:40.226 включая редкие случаи. 0:11:40.250,0:11:42.309 В наших интересах познать в будущем 0:11:42.333,0:11:44.708 эту удивительную технологию, 0:11:46.167,0:11:48.184 потому что, сделав это, 0:11:48.208,0:11:53.101 мы откроем лишь малую толику того,[br]чего можно достичь с помощью ИИ. 0:11:53.125,0:11:54.393 Спасибо. 0:11:54.417,0:11:57.125 (Аплодисменты)