1 00:00:00,875 --> 00:00:04,643 Сколько решений в отношении вас было принято сегодня, 2 00:00:04,667 --> 00:00:07,268 на этой неделе или в этом году 3 00:00:07,292 --> 00:00:09,250 искусственным интеллектом? 4 00:00:10,958 --> 00:00:12,643 Я зарабатываю, создавая ИИ, 5 00:00:12,667 --> 00:00:15,684 так что, говоря откровенно, я ботан. 6 00:00:15,708 --> 00:00:18,101 И поскольку я ботан, 7 00:00:18,125 --> 00:00:20,476 когда появляется очередной новостной сюжет 8 00:00:20,500 --> 00:00:23,934 об искусственном интеллекте, ворующем наши рабочие места, 9 00:00:23,958 --> 00:00:28,143 или о роботах, получающих гражданство настоящей страны, 10 00:00:28,167 --> 00:00:31,309 мои друзья и подписчики именно меня засыпают сообщениями, 11 00:00:31,333 --> 00:00:32,875 полными переживаний о будущем. 12 00:00:33,833 --> 00:00:35,934 Мы наблюдаем это повсеместно. 13 00:00:35,958 --> 00:00:39,875 СМИ раздувают панику о восстании роботов. 14 00:00:40,875 --> 00:00:42,792 В этом можно обвинить Голливуд. 15 00:00:44,125 --> 00:00:48,250 Но на самом деле это не та проблема, на которой нам следует фокусироваться. 16 00:00:49,250 --> 00:00:52,893 Существует более серьёзный риск, на который нам следует обратить внимание 17 00:00:52,917 --> 00:00:54,500 при работе с ИИ. 18 00:00:55,417 --> 00:00:57,726 Итак, вернёмся к изначальному вопросу: 19 00:00:57,750 --> 00:01:02,458 сколько решений принял сегодня в отношении вас ИИ? 20 00:01:03,792 --> 00:01:05,768 И сколько из них 21 00:01:05,792 --> 00:01:10,292 были продиктованы вашим полом, расой или происхождением? 22 00:01:12,500 --> 00:01:15,268 Алгоритмы используются повсеместно, 23 00:01:15,292 --> 00:01:19,125 для того чтобы определять, кто мы такие и чего мы хотим. 24 00:01:20,208 --> 00:01:23,851 Некоторые женщины в этом зале поймут, о чём я, 25 00:01:23,875 --> 00:01:27,643 если вам приходилось смотреть рекламу тестов на беременность на YouTube 26 00:01:27,667 --> 00:01:29,726 по 1000 раз на дню. 27 00:01:29,750 --> 00:01:32,601 Или когда вы натыкаетесь на рекламу клиник планирования семьи 28 00:01:32,625 --> 00:01:34,667 в ленте Facebook. 29 00:01:35,625 --> 00:01:38,018 Или в моём случае — индийские брачные бюро. 30 00:01:38,042 --> 00:01:39,309 (Смех) 31 00:01:39,333 --> 00:01:42,309 Однако ИИ используется не просто для того, чтобы определить, 32 00:01:42,333 --> 00:01:44,934 какие товары мы хотим приобрести 33 00:01:44,958 --> 00:01:47,458 или за каким сериалом проведём бессонные ночи. 34 00:01:49,042 --> 00:01:54,226 Интересно, что бы вы подумали о человеке, который размышляет примерно так: 35 00:01:54,250 --> 00:01:56,184 «Афро- или латиноамериканец 36 00:01:56,208 --> 00:02:00,333 куда реже, чем белый, вовремя вносит платежи по кредиту». 37 00:02:01,542 --> 00:02:04,351 «Человек по имени Джон — более способный программист, 38 00:02:04,375 --> 00:02:06,042 чем та, кого зовут Мэри». 39 00:02:07,250 --> 00:02:12,333 «Афроамериканец чаще, чем белый оказывается рецидивистом». 40 00:02:14,888 --> 00:02:16,226 Вы наверняка сейчас думаете: 41 00:02:16,250 --> 00:02:20,000 «Ого, да это наверняка сексисты и расисты», верно? 42 00:02:21,000 --> 00:02:25,851 Всё это реальные заключения, сделанные о нас искусственным интеллектом 43 00:02:25,875 --> 00:02:28,809 и основанные на тех предрассудках, которым ИИ научился у нас, 44 00:02:28,833 --> 00:02:30,083 у людей. 45 00:02:31,750 --> 00:02:36,559 ИИ упрощает процесс принятия решений: пригласят ли вас на собеседование, 46 00:02:36,583 --> 00:02:38,976 сколько вам платить за страховку машины, 47 00:02:39,000 --> 00:02:40,893 как выглядит ваша кредитная история 48 00:02:40,917 --> 00:02:44,042 и даже то, как вы будете оценены на работе по итогам года. 49 00:02:45,083 --> 00:02:48,226 Но все эти решения проходят через фильтры 50 00:02:48,250 --> 00:02:54,125 предположений ИИ о том, кто мы, о наших расе, поле и возрасте. 51 00:02:56,250 --> 00:02:58,518 Как же всё это происходит? 52 00:02:58,542 --> 00:03:02,059 Представьте, что ИИ помогает HR-менеджеру 53 00:03:02,083 --> 00:03:04,934 в поиске следующего технического лидера в компании. 54 00:03:04,958 --> 00:03:08,059 В прошлом этот менеджер чаще выбирал на должность мужчин. 55 00:03:08,083 --> 00:03:12,833 В итоге ИИ запоминает, что программистами чаще становятся мужчины, а не женщины. 56 00:03:13,542 --> 00:03:16,434 А отсюда рукой подать до вывода: 57 00:03:16,458 --> 00:03:18,890 мужчины более способные программисты, чем женщины. 58 00:03:19,417 --> 00:03:23,143 Таким образом, наши предрассудки укрепляются в ИИ. 59 00:03:23,167 --> 00:03:26,792 Как результат, ИИ отсеивает кандидатов-женщин. 60 00:03:28,917 --> 00:03:31,934 Но стойте, если бы так поступал человек, 61 00:03:31,958 --> 00:03:34,309 мы бы были возмущены и выступили против. 62 00:03:34,333 --> 00:03:37,809 Дискриминация по половому признаку — это предосудительно. 63 00:03:37,833 --> 00:03:42,351 И всё же каким-то образом решения ИИ находятся вне закона, 64 00:03:42,375 --> 00:03:44,458 так как они приняты машиной. 65 00:03:45,833 --> 00:03:47,351 Но это не так. 66 00:03:47,375 --> 00:03:52,250 Мы также подкрепляем наши предрассудки тем, как именно мы взаимодействуем с ИИ. 67 00:03:52,917 --> 00:03:57,917 Как часто вы пользуетесь голосовыми помощниками Сири, Алексой или Кортаной? 68 00:03:58,917 --> 00:04:01,476 Все они имеют две общие черты: 69 00:04:01,500 --> 00:04:04,711 первая заключается в том, что они всегда неверно произносят моё имя, 70 00:04:04,745 --> 00:04:07,292 а вторая — все они женского пола. 71 00:04:08,417 --> 00:04:11,184 Они разработаны, чтобы послушно выполнять наши поручения, 72 00:04:11,208 --> 00:04:14,458 включать и выключать свет, делать онлайн-покупки. 73 00:04:14,901 --> 00:04:18,434 Существуют также системы ИИ мужского пола, но они обычно более авторитетны, 74 00:04:18,458 --> 00:04:21,517 к примеру, IBM Watson, принимающий решения в бизнес-сфере, 75 00:04:21,541 --> 00:04:25,333 или платформа Salesforce Einstein, или робот-адвокат ROSS. 76 00:04:26,208 --> 00:04:30,268 Таким образом, даже несчастные роботы страдают от сексизма на рабочем месте. 77 00:04:30,292 --> 00:04:31,417 (Смех) 78 00:04:32,542 --> 00:04:35,393 Задумайтесь, как оба этих факта вкупе 79 00:04:35,417 --> 00:04:40,726 оказывают влияние на детей, растущих в сегодняшнем мире в окружении ИИ. 80 00:04:40,750 --> 00:04:43,684 Например, они собирают данные для школьного проекта 81 00:04:43,708 --> 00:04:46,726 и гуглят фото генеральных директоров. 82 00:04:46,750 --> 00:04:49,643 Алгоритм выдаёт им в основном директоров-мужчин. 83 00:04:49,667 --> 00:04:52,226 А потом они гуглят личных помощников. 84 00:04:52,250 --> 00:04:55,684 Как вы можете догадаться, в этом поиске отображаются в основном женщины. 85 00:04:55,708 --> 00:04:59,309 А позже они захотят включить музыку или заказать поесть, 86 00:04:59,333 --> 00:05:05,917 и вот они уже раздают свои поручения помощнику с покорным женским голосом. 87 00:05:07,542 --> 00:05:12,851 Умнейшие люди планеты разрабатывают сейчас эти технологии. 88 00:05:12,875 --> 00:05:17,059 Технологии, которые они могли бы создать любыми, какими бы ни захотели. 89 00:05:17,083 --> 00:05:20,172 И всё же они решили сделать помощников 90 00:05:20,202 --> 00:05:22,842 в стиле секретарши 1950-х годов из фильма «Безумцы». 91 00:05:22,882 --> 00:05:24,292 Ура! 92 00:05:24,958 --> 00:05:26,268 Ладно, не волнуйтесь, 93 00:05:26,292 --> 00:05:28,823 я не собираюсь заканчивать выступление словами о том, 94 00:05:28,863 --> 00:05:31,852 что миром будут править сексистские, расистские машины. 95 00:05:32,792 --> 00:05:38,583 Хорошие новости об ИИ заключаются в том, что он находится под нашим контролем. 96 00:05:39,333 --> 00:05:43,333 Мы можем заложить в ИИ правильные моральные нормы и ценности. 97 00:05:44,167 --> 00:05:46,351 Мы можем сделать три вещи. 98 00:05:46,375 --> 00:05:49,726 Во-первых, мы можем начать отдавать себе отчёт о своих предрассудках 99 00:05:49,750 --> 00:05:52,476 и предрассудках машин вокруг нас. 100 00:05:52,500 --> 00:05:56,042 Во-вторых, мы должны создавать ИИ, привлекая непохожих друг на друга людей. 101 00:05:57,042 --> 00:06:01,958 И, в-третьих, мы должны предоставить ИИ обширную выборку данных для обучения. 102 00:06:02,875 --> 00:06:06,184 Я говорю о первых двух пунктах, основываясь на собственном опыте. 103 00:06:06,208 --> 00:06:07,643 Если вы работаете в сфере ИТ 104 00:06:07,667 --> 00:06:11,059 и не выглядите как какой-нибудь Марк Цукерберг или Илон Маск, 105 00:06:11,083 --> 00:06:14,833 вам немного сложнее, ваша компетенция постоянно подвергается сомнению. 106 00:06:15,875 --> 00:06:17,268 Приведу всего один пример. 107 00:06:17,292 --> 00:06:21,018 Как и большинство разработчиков, я часто бываю на техно-форумах 108 00:06:21,042 --> 00:06:24,268 и делюсь своими знаниями, чтобы помочь другим. 109 00:06:24,292 --> 00:06:25,601 И я заметила, 110 00:06:25,625 --> 00:06:29,601 что когда я размещаю настоящее фото и подписываюсь собственным именем, 111 00:06:29,625 --> 00:06:34,226 мне часто задают вопросы или пишут такие комментарии как: 112 00:06:34,250 --> 00:06:37,250 «Что заставляет вас думать, что вы можете рассуждать об ИИ?» 113 00:06:38,458 --> 00:06:41,934 «Почему вы так уверены, что знаете что-то о машинном обучении?» 114 00:06:41,958 --> 00:06:45,393 Поэтому, только не удивляйтесь, — я создала новый профиль 115 00:06:45,417 --> 00:06:50,268 и на этот раз вместо собственного фото я поставила кота с реактивным ранцем. 116 00:06:50,292 --> 00:06:52,980 А ещё я выбрала ник, по которому невозможно понять пол. 117 00:06:53,917 --> 00:06:56,643 Вы можете с лёгкостью догадаться, к чему я клоню, правда? 118 00:06:56,667 --> 00:07:03,059 В этот раз никто не оставлял комментариев, ставящих мою квалификацию под сомнение, 119 00:07:03,083 --> 00:07:06,417 и мне наконец удалось донести свои мысли. 120 00:07:07,500 --> 00:07:09,351 И это отстой, ребята. 121 00:07:09,375 --> 00:07:11,851 Я занимаюсь созданием роботов с 15 лет, 122 00:07:11,875 --> 00:07:14,143 получила несколько степеней в информатике, 123 00:07:14,167 --> 00:07:16,601 и мне всё равно приходится скрывать свой пол, 124 00:07:16,625 --> 00:07:19,395 чтобы к моей работе относились серьёзно. 125 00:07:19,875 --> 00:07:21,768 Так что же происходит? 126 00:07:21,792 --> 00:07:25,000 Неужели мужчины просто лучше разбираются в технологиях, чем женщины? 127 00:07:25,917 --> 00:07:27,476 Одно исследование выявило, 128 00:07:27,500 --> 00:07:32,434 что когда на одной из платформ женщины-кодеры, как я, скрывали свой пол, 129 00:07:32,458 --> 00:07:35,708 их работа признавалась успешной на 4% чаще, чем у их коллег мужчин. 130 00:07:36,542 --> 00:07:39,458 Так что дело не в таланте. 131 00:07:39,958 --> 00:07:42,851 Дело в неравноправии в сфере ИИ, 132 00:07:42,875 --> 00:07:46,027 где программист должен выглядеть определённым образом. 133 00:07:47,375 --> 00:07:50,476 На самом деле для усовершенствования сферы ИИ 134 00:07:50,500 --> 00:07:53,542 нужно вовлекать людей разного происхождения. 135 00:07:54,542 --> 00:07:57,101 Нам нужны люди, умеющие писать и рассказывать истории 136 00:07:57,125 --> 00:07:59,292 для помощи в создании личностей ИИ. 137 00:08:00,208 --> 00:08:02,250 Нам нужны те, кто способен решать задачи. 138 00:08:03,125 --> 00:08:06,893 Нам нужны люди, сталкивающиеся с различными трудностями, 139 00:08:06,917 --> 00:08:12,268 а так же люди, которые могут рассказать о реальных проблемах, требующих решений, 140 00:08:12,292 --> 00:08:15,333 и помочь нам создать технологии для поиска качественных решений. 141 00:08:17,833 --> 00:08:21,559 Ведь когда люди с разным жизненным опытом собираются вместе, 142 00:08:21,583 --> 00:08:23,726 когда мы двигаемся в верном направлении, 143 00:08:23,750 --> 00:08:25,792 наши возможности безграничны. 144 00:08:26,750 --> 00:08:30,059 Я хочу исправить сложившуюся ситуацию и поэтому говорю меньше о том, 145 00:08:30,083 --> 00:08:34,308 что роботы-расисты и машины отнимут у нас рабочие места, 146 00:08:34,332 --> 00:08:37,457 и больше о том, чего мы действительно можем достичь. 147 00:08:38,292 --> 00:08:41,726 Конечно, часть энергии в мире ИИ, 148 00:08:41,750 --> 00:08:43,143 в мире технологий 149 00:08:43,167 --> 00:08:47,434 будет уходить на определение того, какие рекламные объявления вы увидите. 150 00:08:47,458 --> 00:08:52,667 Но существенная доля энергии направлена на то, чтобы сделать мир намного лучше. 151 00:08:53,500 --> 00:08:57,268 Представьте беременную женщину в Демократической Республике Конго, 152 00:08:57,292 --> 00:09:01,476 которой приходится идти 17 часов пешком до ближайшей сельской женской консультации 153 00:09:01,500 --> 00:09:03,351 для прохождения медосмотра. 154 00:09:03,375 --> 00:09:06,872 Что было бы, если бы она могла вместо этого получить диагноз по телефону? 155 00:09:07,750 --> 00:09:09,559 Или представьте, что мог бы сделать ИИ 156 00:09:09,583 --> 00:09:12,309 для женщин из Южной Африки, каждая третья из которых 157 00:09:12,333 --> 00:09:14,458 сталкивается с домашним насилием. 158 00:09:15,083 --> 00:09:17,809 Если им страшно сообщить об этом, 159 00:09:17,833 --> 00:09:20,369 они могли бы использовать ИИ для привлечения внимания, 160 00:09:20,403 --> 00:09:22,792 получить финансовую и юридическую помощь. 161 00:09:23,958 --> 00:09:28,976 Это примеры реальных проектов, над которыми мы сейчас работаем, 162 00:09:29,000 --> 00:09:31,500 используя технологии ИИ. 163 00:09:33,542 --> 00:09:37,143 Я уверена, в ближайшие пару дней появится очередной новостной вброс 164 00:09:37,167 --> 00:09:39,851 об экзистенциальном риске, восстании машин 165 00:09:39,875 --> 00:09:42,309 и о том, что мы все скоро лишимся рабочих мест. 166 00:09:42,333 --> 00:09:43,351 (Смех) 167 00:09:43,375 --> 00:09:45,684 Когда что-то подобное происходит, я знаю наперёд, 168 00:09:45,708 --> 00:09:49,309 что получу множество сообщений, полных переживаний о нашем будущем. 169 00:09:49,333 --> 00:09:53,000 Но я полностью поддерживаю использование технологий ИИ. 170 00:09:55,458 --> 00:10:01,417 Это наш шанс сделать мир местом, где равенство не будет пустым словом. 171 00:10:02,458 --> 00:10:06,458 Но для этого нам нужно делать всё правильно с самого начала. 172 00:10:07,667 --> 00:10:12,750 Нам нужны люди разного пола, рас, сексуальных ориентаций, происхождений. 173 00:10:14,458 --> 00:10:16,934 Нужно, чтобы женщины выступали творцами, 174 00:10:16,958 --> 00:10:19,958 а не просто машинами, которые выполняют поручения творцов. 175 00:10:21,875 --> 00:10:25,643 Нам нужно осторожно подходить к тому, какой логике мы обучаем системы, 176 00:10:25,667 --> 00:10:27,309 какими данными снабжаем их, 177 00:10:27,333 --> 00:10:30,458 чтобы они не повторяли наши былые ошибки. 178 00:10:32,125 --> 00:10:35,667 Я надеюсь, что оставлю вас с мыслями о двух вещах. 179 00:10:36,542 --> 00:10:41,101 Во-первых, я надеюсь, вы задумаетесь о бытующих в обществе предрассудках. 180 00:10:41,125 --> 00:10:44,309 И в следующий раз, когда вы увидите в ленте объявление, 181 00:10:44,333 --> 00:10:47,143 предполагающее, что вам интересны клиники планирования семьи 182 00:10:47,167 --> 00:10:50,018 или букмекер-сервисы онлайн, 183 00:10:50,042 --> 00:10:52,059 вы вспомните о том, 184 00:10:52,083 --> 00:10:56,708 что тот же алгоритм предполагает, что афроамериканец станет рецидивистом. 185 00:10:57,833 --> 00:11:02,000 Или что женщина скорее станет личным ассистентом, чем генеральным директором. 186 00:11:02,958 --> 00:11:06,667 И я надеюсь, вы вспомните, что со всем этим нам нужно что-то делать. 187 00:11:08,917 --> 00:11:10,768 А во-вторых, 188 00:11:10,792 --> 00:11:12,434 надеюсь, вы задумаетесь о том, 189 00:11:12,468 --> 00:11:14,804 что вам не нужно выглядеть определённым образом 190 00:11:14,828 --> 00:11:18,219 или иметь специальную подготовку в области технологий, 191 00:11:18,243 --> 00:11:19,851 чтобы участвовать в создании ИИ, 192 00:11:19,875 --> 00:11:22,750 который станет движущей силой нашего будущего. 193 00:11:24,166 --> 00:11:26,309 Вам не нужно выглядеть, как Марк Цукерберг, 194 00:11:26,333 --> 00:11:27,713 вы можете выглядеть, как я. 195 00:11:29,250 --> 00:11:32,143 И от всех нас в этой комнате зависит, 196 00:11:32,167 --> 00:11:34,893 сможем ли мы убедить правительство и корпорации 197 00:11:34,917 --> 00:11:37,809 создавать ИИ для всех, 198 00:11:37,833 --> 00:11:40,226 включая редкие случаи. 199 00:11:40,250 --> 00:11:42,309 В наших интересах познать в будущем 200 00:11:42,333 --> 00:11:44,708 эту удивительную технологию, 201 00:11:46,167 --> 00:11:48,184 потому что, сделав это, 202 00:11:48,208 --> 00:11:53,101 мы откроем лишь малую толику того, чего можно достичь с помощью ИИ. 203 00:11:53,125 --> 00:11:54,393 Спасибо. 204 00:11:54,417 --> 00:11:57,125 (Аплодисменты)