1 00:00:01,096 --> 00:00:05,810 В первые месяцы после президентских выборов в 2009 году в Иране 2 00:00:05,834 --> 00:00:08,728 по всей стране разгорелись протесты. 3 00:00:09,685 --> 00:00:12,581 Иранское государство жестоко подавляло то, 4 00:00:12,605 --> 00:00:16,584 что потом стало известным как «иранское зелёное движение», 5 00:00:16,608 --> 00:00:18,661 даже блокировало мобильные сигналы, 6 00:00:18,685 --> 00:00:21,399 чтобы разорвать связь между протестующими. 7 00:00:22,316 --> 00:00:26,985 Мои родители, эмигрировавшие в США в конце 1960-х, 8 00:00:27,009 --> 00:00:28,803 провели немало времени там, 9 00:00:28,827 --> 00:00:31,980 где живёт вся моя большая семья. 10 00:00:32,832 --> 00:00:35,961 Когда я звонила своей семье в Тегеран 11 00:00:35,985 --> 00:00:39,437 во время самых насильственных подавлений протестов, 12 00:00:39,461 --> 00:00:42,713 никто из них не осмеливался говорить со мной о том, что происходит. 13 00:00:43,196 --> 00:00:46,725 Кто-то из нас быстро переводил разговор на другую тему. 14 00:00:47,163 --> 00:00:50,543 Все мы понимали возможные последствия 15 00:00:50,567 --> 00:00:53,107 оппозиционных действий. 16 00:00:54,095 --> 00:00:57,564 Но мне всё равно хотелось бы знать, о чём они думали 17 00:00:57,588 --> 00:00:59,006 или что они чувствовали. 18 00:01:00,217 --> 00:01:01,770 Что, если бы я могла это узнать? 19 00:01:02,149 --> 00:01:03,300 Или, что страшнее, 20 00:01:03,324 --> 00:01:06,085 что, если бы правительство Ирана могло это узнать? 21 00:01:06,695 --> 00:01:09,939 Могли бы их арестовать из-за того, что прочитали их мысли? 22 00:01:10,933 --> 00:01:13,877 Этот день намного ближе, чем вы думаете. 23 00:01:14,527 --> 00:01:18,338 Благодаря возрастающим возможностям в нейробиологии, искусственном интеллекте 24 00:01:18,362 --> 00:01:20,065 и машинном обучении 25 00:01:20,089 --> 00:01:24,164 мы скоро узнаем намного больше о том, что происходит в мозге человека. 26 00:01:25,083 --> 00:01:28,393 Как биоэтик, юрист, философ 27 00:01:28,417 --> 00:01:30,284 и ирано-американка 28 00:01:30,308 --> 00:01:34,095 я глубоко обеспокоена тем, что это значит для нашей свободы 29 00:01:34,119 --> 00:01:36,290 и какие виды защиты нам потребуются. 30 00:01:36,993 --> 00:01:40,453 Я думаю, что нам нужно право когнитивной свободы, 31 00:01:40,477 --> 00:01:43,369 которое должно защищаться как право человека. 32 00:01:43,772 --> 00:01:46,415 Если нет, наша свобода мысли, 33 00:01:46,439 --> 00:01:49,463 доступ и контроль над нашим мозгом 34 00:01:49,487 --> 00:01:52,328 и наша ментальная приватность будут под угрозой. 35 00:01:53,698 --> 00:01:54,856 Подумайте над этим: 36 00:01:54,880 --> 00:01:58,194 у среднестатистического человека за день возникают тысячи мыслей. 37 00:01:58,617 --> 00:01:59,968 Когда мысль принимает форму, 38 00:01:59,998 --> 00:02:04,928 также как математическое вычисление или цифра, слово, 39 00:02:04,952 --> 00:02:07,837 нейроны взаимодействуют в мозге, 40 00:02:07,861 --> 00:02:10,949 создавая минимальный электрический разряд. 41 00:02:11,713 --> 00:02:15,165 Когда доминирует одно психическое состояние, скажем, расслабление, 42 00:02:15,189 --> 00:02:19,364 сотни и тысячи нейронов выстреливают в мозге, 43 00:02:19,388 --> 00:02:23,606 создавая одновременные электрические разряды в типичных схемах, 44 00:02:23,630 --> 00:02:28,495 которые можно измерить с помощью энцефалографии (ЭЭГ). 45 00:02:29,118 --> 00:02:31,278 На самом деле это то, что вы сейчас видите. 46 00:02:31,956 --> 00:02:35,920 Вы видите активность моего мозга, записанную в реальном времени 47 00:02:35,944 --> 00:02:38,679 с помощью простого прибора, который я носила на голове. 48 00:02:39,669 --> 00:02:45,322 Вы видите активность моего мозга в состоянии спокойствия и любопытства. 49 00:02:46,097 --> 00:02:47,692 Чтобы поделится этой информацией, 50 00:02:47,706 --> 00:02:51,226 я использовала один из первых приборов ЭЭГ, ориентированных на потребителя, 51 00:02:51,246 --> 00:02:52,251 как вот этот, 52 00:02:52,271 --> 00:02:56,143 который записал электрические импульсы моего мозга в реальном времени. 53 00:02:56,849 --> 00:03:00,675 Это подобно фитнес-браслетам, которыми некоторые из вас пользуются, 54 00:03:00,699 --> 00:03:04,285 чтобы измерить пульс или количество сделанных шагов, 55 00:03:04,309 --> 00:03:05,896 или даже свой режим сна. 56 00:03:07,154 --> 00:03:10,978 Это вряд ли самая изысканная технология нейровизуализации на рынке. 57 00:03:11,597 --> 00:03:13,975 Но зато она самая портативная 58 00:03:13,999 --> 00:03:17,151 и скорее всего повлияет на нашу повседневную жизнь. 59 00:03:17,915 --> 00:03:19,418 Это удивительно. 60 00:03:19,442 --> 00:03:21,947 Через простое переносное устройство 61 00:03:21,971 --> 00:03:25,519 мы буквально можем видеть человеческий мозг изнутри 62 00:03:25,543 --> 00:03:32,019 и изучать аспекты нашей мысленной картины, не произнося ни слова. 63 00:03:32,829 --> 00:03:36,482 Пока ещё мы не можем надёжно расшифровывать сложные мысли, 64 00:03:36,506 --> 00:03:39,025 но зато можем определять человеческое настроение 65 00:03:39,049 --> 00:03:41,922 и с помощью искусственного интеллекта 66 00:03:41,946 --> 00:03:46,287 можем даже расшифровать некоторые однозначные цифры, 67 00:03:46,311 --> 00:03:51,193 формы или простые слова, о которых человек думает, 68 00:03:51,217 --> 00:03:53,406 которые слышит или видит. 69 00:03:54,345 --> 00:03:57,710 Несмотря на некоторые неизбежные ограничения ЭЭГ, 70 00:03:57,734 --> 00:04:02,454 я думаю, что можно смело сказать, что с помощью технологических достижений 71 00:04:02,478 --> 00:04:06,287 со временем мы сможем расшифровать 72 00:04:06,311 --> 00:04:08,621 всё больше данных о человеческом мозге. 73 00:04:09,362 --> 00:04:12,108 Уже сейчас, используя данные устройства, 74 00:04:12,132 --> 00:04:15,387 эпилептик может узнать о предстоящем эпилептическом припадке 75 00:04:15,411 --> 00:04:16,847 до того, как он произойдёт. 76 00:04:16,871 --> 00:04:21,474 Паралитик может печатать на компьютере просто с помощью своих мыслей. 77 00:04:22,485 --> 00:04:26,668 Компания в США развила технологию, которая внедряет данные датчики 78 00:04:26,692 --> 00:04:28,922 в подголовники в автомобилях, 79 00:04:28,946 --> 00:04:31,451 чтобы они следили за концентрацией водителя, 80 00:04:31,475 --> 00:04:34,142 отвлечением и когнитивной нагрузкой в пути. 81 00:04:34,912 --> 00:04:38,970 Nissan, страховые компании и ААА уже приняли это к сведению. 82 00:04:39,949 --> 00:04:44,457 Можно даже смотреть фильм с выбором своего приключения 83 00:04:44,481 --> 00:04:48,721 под названием «Мгновение», в котором ЭЭГ устройство 84 00:04:48,745 --> 00:04:52,671 меняет фильм в зависимости от реакции вашего мозга 85 00:04:52,695 --> 00:04:57,048 с различными концовками каждый раз, когда ваше внимание слабеет. 86 00:04:59,154 --> 00:05:01,917 Это всё звучит замечательно, 87 00:05:01,941 --> 00:05:04,130 и, будучи биоэтиком, 88 00:05:04,154 --> 00:05:07,767 я большой сторонник расширения возможностей людей 89 00:05:07,791 --> 00:05:10,407 для заботы о своём здоровье и благополучии, 90 00:05:10,431 --> 00:05:13,349 путём предоставления им доступа к информации о себе 91 00:05:13,373 --> 00:05:16,609 в том числе через эту великолепную технологию расшифровки мозга. 92 00:05:17,878 --> 00:05:19,045 Но я переживаю. 93 00:05:19,736 --> 00:05:24,496 Переживаю, что добровольно или нет, мы отдадим 94 00:05:24,520 --> 00:05:28,638 наш последний бастион свободы, нашу психическую приватность. 95 00:05:29,302 --> 00:05:32,227 Что мы поменяем нашу мозговую активность 96 00:05:32,251 --> 00:05:35,297 на страховые скидки 97 00:05:36,391 --> 00:05:38,994 или на бесплатный доступ к социальным сетям... 98 00:05:40,444 --> 00:05:42,292 или даже на наше рабочее место. 99 00:05:42,900 --> 00:05:44,813 На самом деле в Китае 100 00:05:46,199 --> 00:05:52,096 кондукторы на высокоскоростной железной дороге Пекин-Шанхай, 101 00:05:52,120 --> 00:05:54,652 самой загруженной в мире, 102 00:05:54,676 --> 00:05:57,152 обязаны носить ЭЭГ устройства, 103 00:05:57,176 --> 00:05:59,603 чтобы отслеживать их мозговую активность в пути. 104 00:06:00,157 --> 00:06:02,383 Согласно некоторым источникам, 105 00:06:02,407 --> 00:06:05,086 на государственных заводах в Китае 106 00:06:05,110 --> 00:06:10,474 рабочие обязаны носить датчики ЭЭГ для отслеживания их продуктивности 107 00:06:10,498 --> 00:06:12,613 и эмоционального состояния на работе. 108 00:06:13,267 --> 00:06:15,577 Их даже отправляют домой, 109 00:06:15,601 --> 00:06:19,655 если датчики показывают не столь выдающуюся концентрацию на работе 110 00:06:19,679 --> 00:06:21,801 или беспокойство. 111 00:06:23,189 --> 00:06:24,934 Это не произойдёт завтра, 112 00:06:24,958 --> 00:06:28,044 но мы уже приближаемся к жизни с прозрачными мыслями. 113 00:06:28,537 --> 00:06:31,977 И мне кажется, что люди не понимают, что это может всё поменять. 114 00:06:32,474 --> 00:06:36,149 От нашего понимания конфиденциальности, наших законов 115 00:06:36,173 --> 00:06:37,973 до наших представлений о свободе. 116 00:06:38,731 --> 00:06:41,808 На самом деле, в моей лаборатории в Университете Дьюка 117 00:06:41,832 --> 00:06:45,007 мы недавно проводили общенациональное исследование в США, 118 00:06:45,031 --> 00:06:46,990 чтобы увидеть, ценят ли люди 119 00:06:47,014 --> 00:06:49,085 чувствительность информации их мозга. 120 00:06:50,356 --> 00:06:53,712 Мы их попросили оценить свою чувствительность 121 00:06:53,736 --> 00:06:55,967 на 33 различных вида информации, 122 00:06:55,991 --> 00:06:58,211 начиная с номеров социального страхования 123 00:06:58,235 --> 00:07:00,832 до содержания телефонных разговоров, 124 00:07:00,856 --> 00:07:03,049 истории их романтических отношений, 125 00:07:03,073 --> 00:07:05,015 их эмоций, тревог, 126 00:07:05,039 --> 00:07:06,985 умозрительных образов 127 00:07:07,009 --> 00:07:08,547 и мыслей про себя. 128 00:07:09,481 --> 00:07:14,710 Шокирующе: люди оценили номер страхования как более чувствительный, 129 00:07:14,734 --> 00:07:16,937 в отличие от любой другой информации, 130 00:07:16,961 --> 00:07:19,396 включая данные мозга. 131 00:07:20,380 --> 00:07:23,596 Я думаю, что это так, потому что люди пока ещё не понимают 132 00:07:23,620 --> 00:07:27,683 или не верят в применение новых технологий декодирования мозга. 133 00:07:28,629 --> 00:07:31,918 В конце концов, если мы знаем, как работает человеческий мозг, 134 00:07:31,942 --> 00:07:34,648 наши страховые номера — наименьший повод для тревоги. 135 00:07:34,672 --> 00:07:35,957 (Смех) 136 00:07:35,981 --> 00:07:37,148 Подумайте об этом. 137 00:07:37,172 --> 00:07:39,568 Кто бы посмел иметь диссидентские мысли 138 00:07:39,592 --> 00:07:42,021 в мире полной прозрачности? 139 00:07:43,279 --> 00:07:44,820 Или креативные мысли? 140 00:07:45,503 --> 00:07:48,979 Я боюсь, что люди будут прибегать к самоцензуре, 141 00:07:49,003 --> 00:07:52,305 опасаясь остракизма со стороны общества, 142 00:07:52,329 --> 00:07:56,142 или будут терять работу из-за ослабления внимания, 143 00:07:56,166 --> 00:07:58,316 эмоциональной нестабильности, 144 00:07:58,340 --> 00:08:01,890 или потому, что планируют коллективные действия против работодателей. 145 00:08:02,478 --> 00:08:05,655 Каминг-аут уже не будет вопросом выбора, 146 00:08:05,679 --> 00:08:10,746 поскольку человеческий мозг сам сможет определить сексуальную ориентацию, 147 00:08:10,770 --> 00:08:12,592 политические идеологии 148 00:08:12,616 --> 00:08:14,641 или религиозные предпочтения 149 00:08:14,665 --> 00:08:17,745 намного раньше, чем мы будем готовы осознанно рассказать о этом 150 00:08:17,769 --> 00:08:19,022 другим людям. 151 00:08:19,565 --> 00:08:24,477 Я беспокоюсь, смогут ли наши законы идти в ногу с технологиями. 152 00:08:24,986 --> 00:08:27,306 Рассмотрим первую поправку к Конституции США, 153 00:08:27,330 --> 00:08:29,288 защищающую свободу слова. 154 00:08:29,312 --> 00:08:31,239 А свободу мысли она защищает? 155 00:08:31,944 --> 00:08:36,113 И если так, значит ли это, что мы вольны изменять свои мысли, как хотим? 156 00:08:36,137 --> 00:08:40,811 Или правительство и общество решает, как можно обходиться со нашими же мозгами? 157 00:08:41,591 --> 00:08:45,308 Может ли АНБ читать наши мысли с помощью новых мобильных устройств? 158 00:08:46,053 --> 00:08:50,172 Могут ли компании, собирающие данные мозга через приложения, 159 00:08:50,196 --> 00:08:52,270 продать эту информацию третьим лицам? 160 00:08:53,174 --> 00:08:56,396 И сейчас никакие законы не смогут им помешать. 161 00:08:57,203 --> 00:08:59,228 Но это может представлять проблему 162 00:08:59,252 --> 00:09:01,771 в странах, которые не разделяют тех же прав, 163 00:09:01,795 --> 00:09:03,898 что есть у людей в Соединённых Штатах. 164 00:09:04,883 --> 00:09:08,670 Что бы могло случиться во время «зелёного движения» в Иране, 165 00:09:08,694 --> 00:09:12,595 если бы правительство отслеживало работу мозга 166 00:09:12,619 --> 00:09:16,626 и согласилось бы с протестующими? 167 00:09:18,091 --> 00:09:21,138 Неужели невозможно представить общество, 168 00:09:21,162 --> 00:09:23,914 где людей арестовывают за их мысли 169 00:09:23,938 --> 00:09:25,205 о совершении преступления, 170 00:09:25,225 --> 00:09:28,551 как в антиутопическом обществе в фильме «Мнение меньшинства»? 171 00:09:30,286 --> 00:09:34,609 Уже в Соединённых Штатах, в Индиане, 172 00:09:34,633 --> 00:09:39,570 18-летний парень был обвинён в попытке запугать свою школу, 173 00:09:39,594 --> 00:09:42,903 опубликовав видео, где он стреляет по людям в коридорах... 174 00:09:43,881 --> 00:09:46,888 Кроме людей там были зомби, 175 00:09:46,912 --> 00:09:51,959 а само видео показывало то, как он играет в игру с дополненной реальностью, 176 00:09:51,983 --> 00:09:56,755 где всё интерпретируется как ментальная проекция его субъективного намерения. 177 00:09:58,456 --> 00:10:03,068 Именно поэтому нашему мозгу нужна особая защита. 178 00:10:03,092 --> 00:10:06,648 Если наш мозг — такой же субъект отслеживания и агрегации, 179 00:10:06,672 --> 00:10:09,204 как наши финансовые ведомости и транзакции, 180 00:10:09,228 --> 00:10:13,513 если наш мозг можно взломать и отслеживать мысли как действия в сети, 181 00:10:13,537 --> 00:10:15,898 в мобильных телефонах и приложениях, 182 00:10:15,922 --> 00:10:20,191 то мы уже на грани опасной угрозы для нашего коллективного рода. 183 00:10:21,406 --> 00:10:22,715 Прежде чем вы запаникуете, 184 00:10:24,012 --> 00:10:27,156 я скажу, что полагаю, решение этих проблем существует, 185 00:10:27,180 --> 00:10:30,005 но мы должны сосредоточиться на правильных вещах. 186 00:10:30,580 --> 00:10:33,501 Когда дело касается защиты конфиденциальности в целом, 187 00:10:33,525 --> 00:10:35,351 думаю, мы ведём безнадёжную борьбу, 188 00:10:35,375 --> 00:10:38,233 пытаясь ограничить поток информации. 189 00:10:38,257 --> 00:10:42,314 Вместо этого мы должны сосредоточиться на обеспечении прав и средствах их защиты 190 00:10:42,338 --> 00:10:44,613 от злоупотребления нашей информацией. 191 00:10:45,291 --> 00:10:48,576 Если бы люди имели право решать, как распоряжаться информацией, 192 00:10:48,600 --> 00:10:51,521 и, что важно, располагали бы мерами юридической защиты, 193 00:10:51,545 --> 00:10:53,973 если их информация была использована против них, 194 00:10:53,997 --> 00:10:56,783 скажем, чтобы дискриминировать их в условиях занятости 195 00:10:56,807 --> 00:10:59,592 или в области здравоохранения или образования, 196 00:10:59,616 --> 00:11:02,687 это бы имело большое значение для доверительных отношений. 197 00:11:02,843 --> 00:11:04,561 На самом деле в некоторых случаях 198 00:11:04,585 --> 00:11:08,109 мы хотим предоставить как можно больше своей личной информации. 199 00:11:08,697 --> 00:11:11,744 Изучение агрегированной информации может многое нам рассказать 200 00:11:11,768 --> 00:11:14,515 о нашем здоровье и благополучии, 201 00:11:14,539 --> 00:11:17,852 но чтобы безопасно делиться информацией, 202 00:11:17,876 --> 00:11:21,479 нам нужны специальные средства для защиты ментальной конфиденциальности. 203 00:11:21,832 --> 00:11:24,979 Вот почему нам нужно право на познавательную свободу. 204 00:11:25,543 --> 00:11:29,622 Это право обеспечит нам нашу свободу мысли и размышления, 205 00:11:29,646 --> 00:11:32,186 нашу свободу самоопределения, 206 00:11:32,210 --> 00:11:36,600 и это будет гарантией того, что у нас есть право соглашаться или отказываться 207 00:11:36,624 --> 00:11:39,481 от доступа и изменения нашего мозга кем-либо. 208 00:11:39,811 --> 00:11:41,923 Это право может быть признано 209 00:11:41,947 --> 00:11:44,830 частью Всеобщей декларации прав человека, 210 00:11:44,854 --> 00:11:47,242 установившей механизмы 211 00:11:47,266 --> 00:11:50,122 для исполнения подобных социальных прав. 212 00:11:51,872 --> 00:11:53,942 Во время иранского «зелёного движения» 213 00:11:53,966 --> 00:11:59,152 протестующие пользовались интернетом и устаревшими словами 214 00:11:59,176 --> 00:12:01,124 для координации маршей. 215 00:12:02,238 --> 00:12:05,007 И некоторые из самых деспотических ограничений в Иране 216 00:12:05,031 --> 00:12:06,908 в итоге были отменены. 217 00:12:08,047 --> 00:12:12,134 Но что, если правительство Ирана использовало мозговой надзор 218 00:12:12,158 --> 00:12:15,219 для обнаружения и предотвращения протеста? 219 00:12:16,847 --> 00:12:20,023 Услышал бы мир когда-нибудь крики протестующих? 220 00:12:21,732 --> 00:12:26,853 Настало время нам призвать к революции за когнитивную свободу. 221 00:12:27,559 --> 00:12:30,823 Чтобы убедиться, что мы ответственно совершенствуем технологии, 222 00:12:30,847 --> 00:12:33,825 которые могут позволить нам объять будущее, 223 00:12:33,849 --> 00:12:40,566 яро защищая всех нас от любого человека, компании или правительства, 224 00:12:40,590 --> 00:12:45,630 пытающегося незаконно получить доступ или изменить наше сокровенное в жизни. 225 00:12:46,659 --> 00:12:47,833 Спасибо. 226 00:12:47,857 --> 00:12:51,349 (Аплодисменты)