Загадка спиральной картошки фри: Почему лайки в соцсетях говорят больше, чем вы думаете
-
0:01 - 0:03Если вы помните первое десятилетие
всемирной паутины, -
0:03 - 0:05это было неподвижное пространство.
-
0:05 - 0:07Вы могли подключиться,
вы могли просматривать страницы, -
0:07 - 0:10которые создавались либо организациями,
-
0:10 - 0:11у которых были специалисты,
-
0:11 - 0:13либо пользователями,
-
0:13 - 0:15технически подкованными
для того времени. -
0:15 - 0:17С появлением социальных медиа
-
0:17 - 0:19и социальных сетей в начале 2000-х
-
0:19 - 0:21паутина полностью изменилась
и стала местом, -
0:21 - 0:25где подавляющее большинство содержимого,
-
0:25 - 0:28с которым мы взаимодействуем,
загружено обычными пользователями, -
0:28 - 0:31например, видео в YouTube,
записи в блогах, -
0:31 - 0:34обзоры товаров или записи в соцсетях.
-
0:34 - 0:37Также она стала
куда более интерактивной: -
0:37 - 0:39люди взаимодействуют друг с другом,
-
0:39 - 0:41они комментируют, они делятся,
-
0:41 - 0:43а не просто читают.
-
0:43 - 0:44«Фэйсбук» — не единственное место,
где вы можете это делать, -
0:44 - 0:46но самое крупное
-
0:46 - 0:47и оно даёт представление о цифрах.
-
0:47 - 0:51«Фэйсбуком» пользуются
1,2 миллиарда человек в месяц. -
0:51 - 0:53Половина Интернет-населения Земли
-
0:53 - 0:54использует «Фэйсбук».
-
0:54 - 0:56Это сайт, который, как и многие другие,
-
0:56 - 1:00позволяет людям создавать онлайн образ
-
1:00 - 1:01почти без технических знаний,
-
1:01 - 1:04и люди пользуются этим, размещая онлайн
-
1:04 - 1:06огромные массивы персональных данных.
-
1:06 - 1:08В результате у нас есть поведенческие,
-
1:08 - 1:10демографические данные,
данные о предпочтениях -
1:10 - 1:12для сотен миллионов людей,
-
1:12 - 1:14что беспрецедентно в истории.
-
1:14 - 1:17Как учёному
в области вычислительной техники, -
1:17 - 1:19мне это дало возможность
построить модели, -
1:19 - 1:21которые могут предсказывать все виды
скрытых атрибутов для всех вас, -
1:21 - 1:23информацию о которых вы раскрываете,
-
1:23 - 1:25даже не догадываясь об этом.
-
1:25 - 1:28Как учёные,
мы используем это, чтобы улучшить -
1:28 - 1:30онлайн взаимодействие людей,
-
1:30 - 1:32однако существуют менее
альтруистические приложения, -
1:32 - 1:35и проблема в том, что пользователи
-
1:35 - 1:37не понимают эти методики
и как они работают. -
1:37 - 1:40И даже если бы понимали,
они не могут ими полностью управлять. -
1:40 - 1:42Сегодня я хочу поговорить с вами
-
1:42 - 1:45о некоторых из тех вещей,
что мы способны делать, -
1:45 - 1:47и затем поделиться несколькими идеями
того, как мы могли бы -
1:47 - 1:50передать управление частично
обратно в руки пользователей. -
1:50 - 1:52Это «Таргет», компания.
-
1:52 - 1:53Я не просто так
разместила их логотип -
1:53 - 1:55на животе этой беременной женщины.
-
1:55 - 1:57Вы могли видеть эту забавную историю,
-
1:57 - 1:59напечатанную в журнале «Форбс»,
когда «Таргет» -
1:59 - 2:02отправил 15-летней девушке флаер
-
2:02 - 2:03с рекламой и купонами
-
2:03 - 2:06бутылочек, подгузников
и детских кроваток -
2:06 - 2:07за две недели до того,
как она сказала родителям -
2:07 - 2:09о своей беременности.
-
2:09 - 2:12Да, папа был сильно расстроен.
-
2:12 - 2:14Он сказал: «Как “Таргет” узнал,
-
2:14 - 2:16что эта старшеклассница беременна
-
2:16 - 2:18до того, как она сказала родителям?»
-
2:18 - 2:20Оказывается, у них есть история покупок
-
2:20 - 2:22сотен тысяч потребителей,
и они рассчитывают -
2:22 - 2:25так называемый индекс беременности,
-
2:25 - 2:28который не просто показывает,
беременна женщина или нет, -
2:28 - 2:29а когда ей предстоит рожать.
-
2:29 - 2:31Они не вычисляют его,
-
2:31 - 2:32глядя на очевидные вещи
-
2:32 - 2:35типа покупки
детской кроватки или одежды. -
2:35 - 2:38Они видят, что девушка купила витаминов
-
2:38 - 2:39больше, чем обычно,
-
2:39 - 2:41или купила сумку,
-
2:41 - 2:43в которую помещаются подгузники.
-
2:43 - 2:45Сами по себе эти покупки вроде бы
-
2:45 - 2:47и не говорят о многом,
-
2:47 - 2:49однако существует поведенческий шаблон,
-
2:49 - 2:52который можно применить в контексте
тысяч других людей, -
2:52 - 2:55и уже он начинает показывать кое-что.
-
2:55 - 2:57Так что же именно мы делаем,
-
2:57 - 2:59когда предсказываем вещи
о вас в соцсетях. -
2:59 - 3:02Мы ищем крошечные поведенческие шаблоны,
-
3:02 - 3:05которые, если обнаружить их
среди миллионов людей, -
3:05 - 3:07позволяют нам узнать буквально всё.
-
3:07 - 3:09В моей лаборатории мы с коллегами
-
3:09 - 3:11разработали механизмы,
которые позволяют нам -
3:11 - 3:13достаточно точно предсказывать
-
3:13 - 3:14ваши политические предпочтения,
-
3:14 - 3:18ваш индекс личности,
пол, сексуальную ориентацию, -
3:18 - 3:21религию, возраст, интеллект,
-
3:21 - 3:22а также
-
3:22 - 3:24насколько вы доверяете людям,
которых вы знаете, -
3:24 - 3:26и насколько сильны эти взаимоотношения.
-
3:26 - 3:28Мы можем делать всё это очень хорошо.
-
3:28 - 3:30Ещё раз, это всё не возникает из данных,
-
3:30 - 3:32которые вы привыкли считать очевидными.
-
3:32 - 3:34Мой любимый пример можно найти в работе,
-
3:34 - 3:36опубликованной в этом году
-
3:36 - 3:37в Известиях Национальных Академий.
-
3:37 - 3:39Если вы погуглите, то найдёте её.
-
3:39 - 3:41Всего четыре страницы, легко читать.
-
3:41 - 3:44Они исследовали
только лайки людей в «Фэйсбуке», -
3:44 - 3:45только те вещи,
которые вам понравились в «Фэйсбуке», -
3:45 - 3:48и использовали эти данные для предсказания
всех перечисленных атрибутов, -
3:48 - 3:49а также некоторых других.
-
3:49 - 3:52В своей работе
они перечислили пять лайков, -
3:52 - 3:55которые больше всего служили признаком
высокого интеллекта. -
3:55 - 3:57Одним из этих лайков была страница
-
3:57 - 3:59спирального картофеля фри. (Смех)
-
3:59 - 4:01Спиральный картофель фри прелестен,
-
4:01 - 4:04но если он вам нравится,
это ещё не означает -
4:04 - 4:06что вы умнее среднего.
-
4:06 - 4:09Как же так вышло,
что одним из сильнейших -
4:09 - 4:11индикаторов вашего интеллекта
-
4:11 - 4:12является лайк этой страницы,
-
4:12 - 4:14в то время как её содержимое
абсолютно не соответствует -
4:14 - 4:17предсказываемому атрибуту?
-
4:17 - 4:19Оказывается, необходимо рассмотреть
-
4:19 - 4:20целый ряд основополагающих теорий,
-
4:20 - 4:23чтобы увидеть,
почему мы можем это сделать. -
4:23 - 4:26Одной из них является социологическая
теория под названием гемофильность, -
4:26 - 4:29которая гласит, что люди дружат
с людьми, похожими на них. -
4:29 - 4:31Если вы умны, то стремитесь
дружить с умными людьми, -
4:31 - 4:33если вы юны, то стремитесь
дружить с молодыми людьми, -
4:33 - 4:35и это хорошо установлено
-
4:35 - 4:37на протяжении столетий.
-
4:37 - 4:38Мы также много знаем о том,
-
4:38 - 4:41как информация
распространяется по сетям. -
4:41 - 4:42Оказывается, что такие вещи,
как вирусные видео -
4:42 - 4:45или лайки в Фэйсбук,
или другая информация, -
4:45 - 4:47распространяются в точности так же,
-
4:47 - 4:49как болезни распространяются в соцсетях.
-
4:49 - 4:51Мы изучали это
на протяжении длительного времени. -
4:51 - 4:52У нас есть хорошие модели.
-
4:52 - 4:55Вы можете соединить эти вещи
-
4:55 - 4:58и начать видеть,
почему происходят такие штуки. -
4:58 - 4:59В качестве гипотезы я бы предложила вам,
-
4:59 - 5:03что некто умный создал эту страницу,
-
5:03 - 5:05или может быть один из тех,
кому она понравилась первой, -
5:05 - 5:06имел высокий интеллект.
-
5:06 - 5:09Она понравилась им,
их друзья увидели это, -
5:09 - 5:12из гемофильности мы знаем, что
у него, вероятно, умные друзья. -
5:12 - 5:15Это распространилось на них,
некоторым из них понравилось, -
5:15 - 5:16у них тоже умные друзья.
-
5:16 - 5:17Это распространилось на них,
-
5:17 - 5:19и распространялось по сети
-
5:19 - 5:21массе умных людей,
-
5:21 - 5:23в результате чего лайк
-
5:23 - 5:26страницы со спиральным картофелем фри
-
5:26 - 5:28является индикатором
высокого интеллекта, -
5:28 - 5:29не из-за содержимого,
-
5:29 - 5:32но из-за того, что это действие, лайк,
-
5:32 - 5:34отражает общие атрибуты
-
5:34 - 5:36других людей,
которые тоже совершили его. -
5:36 - 5:39Довольно сложно, да?
-
5:39 - 5:41Тяжело сесть и объяснить это
-
5:41 - 5:44среднему пользователю,
и даже если это сделать, -
5:44 - 5:46что сможет сделать средний пользователь?
-
5:46 - 5:48Как вы узнаете,
что вам понравилось что-то, -
5:48 - 5:50что указывает
на свойство вашей личности, -
5:50 - 5:53которое совершенно не имеет отношения
к содержимому того, что вам понравилось? -
5:53 - 5:56У пользователей почти нет возможности
-
5:56 - 5:58управлять использованием этих данных.
-
5:58 - 6:01Мне это видится
большой проблемой в будущем. -
6:01 - 6:03Я думаю, есть пара решений,
-
6:03 - 6:04которые следует рассмотреть,
-
6:04 - 6:06если мы хотим дать пользователям
возможность частично управлять -
6:06 - 6:08тем, как используются эти данные,
-
6:08 - 6:10потому что не во всех случаях они будут
-
6:10 - 6:11использоваться для их выгоды.
-
6:11 - 6:13Я часто привожу такой пример:
-
6:13 - 6:14если мне когда-нибудь
надоест быть профессором, -
6:14 - 6:16я создам компанию,
-
6:16 - 6:17которая предсказывает все эти атрибуты
-
6:17 - 6:19и вещи типа того, насколько хорошо
вы работаете в командах, -
6:19 - 6:22являетесь ли вы
наркоманом или алкоголиком. -
6:22 - 6:23Мы знаем, как всё это предсказать.
-
6:23 - 6:25Я буду продавать отчёты
-
6:25 - 6:27компаниям по найму персонала
и большим корпорациям, -
6:27 - 6:29которые хотят вас нанять.
-
6:29 - 6:31Мы безусловно можем делать это сейчас.
-
6:31 - 6:32Я могла бы начать этот бизнес завтра,
-
6:32 - 6:34и у вас не было бы абсолютно
никакого контроля за мной -
6:34 - 6:36в плане подобного
использования ваших данных. -
6:36 - 6:39Для меня это выглядит как проблема.
-
6:39 - 6:41Одно из решений,
которое мы можем использовать, -
6:41 - 6:43это путь политики и закона.
-
6:43 - 6:46В некотором отношении, я думаю,
он был бы наиболее эффективным, -
6:46 - 6:49но проблема в том, что мы
фактически должны сделать это. -
6:49 - 6:51Наблюдение за нашим
политическим процессом в действии -
6:51 - 6:54заставляет меня думать,
что крайне маловероятно -
6:54 - 6:55собрать вместе группу представителей
-
6:55 - 6:57для изучения данной проблемы
-
6:57 - 6:59и затем кардинально поменять
-
6:59 - 7:02законы США
об интеллектуальной собственности, -
7:02 - 7:04чтобы пользователи
управляли своими данными. -
7:04 - 7:05Мы могли бы пойти путём
норм использования данных, -
7:05 - 7:07когда компании-владельцы соцсетей
говорят: -
7:07 - 7:08«Знаете что? Вы владеете своими данными.
-
7:08 - 7:11У вас полный контроль
за тем, как они используются». -
7:11 - 7:13Проблема в том, что модели доходов
-
7:13 - 7:14большинства этих компаний
-
7:14 - 7:18основываются на совместном использовании
или эксплуатации данных пользователей. -
7:18 - 7:20Иногда в «Фэйсбук»
говорят, что пользователи -
7:20 - 7:23не являются потребителем,
они являются товаром. -
7:23 - 7:25Как вы заставите компанию
-
7:25 - 7:28передать права на их основное имущество
-
7:28 - 7:29обратно пользователям?
-
7:29 - 7:31Это возможно, но я не думаю, что
-
7:31 - 7:33мы увидим это изменение быстро.
-
7:33 - 7:35Я думаю, что другой способ,
-
7:35 - 7:37который мы можем использовать
и который будет более эффективным, -
7:37 - 7:38это — больше науки.
-
7:38 - 7:41Во-первых,
именно занятие наукой позволило нам -
7:41 - 7:43создать все эти механизмы для расчёта
-
7:43 - 7:45персональных данных.
-
7:45 - 7:47Очень похожие исследования
-
7:47 - 7:48необходимо провести
-
7:48 - 7:51для разработки механизмов,
-
7:51 - 7:52которые могут сказать пользователю:
-
7:52 - 7:54«Вот риск от действия, которое вы
только что предприняли». -
7:54 - 7:56Поставив лайк этой странице «Фэйсбук»,
-
7:56 - 7:59раскрыв этот кусочек
персональных данных, -
7:59 - 8:00вы улучшили мою возможность
-
8:00 - 8:03предсказать, используете ли вы наркотики
-
8:03 - 8:05или насколько хорошо вы ладите
с коллегами на рабочем месте. -
8:05 - 8:07Это, я полагаю, может повлиять на то,
-
8:07 - 8:09захотят ли пользователи делиться чем-то,
-
8:09 - 8:12скрыть от публики
или вообще не размещать в сети. -
8:12 - 8:14Мы также можем
посмотреть на такие вещи, как -
8:14 - 8:16предоставление пользователям возможности
шифрования загружаемых ими данных, -
8:16 - 8:18чтобы они были, своего рода, невидимыми
и бесполезными -
8:18 - 8:20для сайтов типа «Фэйсбук»
-
8:20 - 8:22или сторонних служб,
которые имеют доступ к ним, -
8:22 - 8:25но чтобы при этом избранные пользователи,
которых добавил человек, -
8:25 - 8:28разместивший информацию,
могли её видеть. -
8:28 - 8:30Это очень увлекательное исследование
-
8:30 - 8:32с интеллектуальной точки зрения,
-
8:32 - 8:34поэтому учёные
захотят выполнить его. -
8:34 - 8:37Это даёт нам преимущество
над стороной закона. -
8:37 - 8:39Одна из проблем,
о которой люди заявляют, -
8:39 - 8:41когда я рассказываю об этом —
они говорят: -
8:41 - 8:43«Если люди начнут
прятать все эти данные, -
8:43 - 8:45все эти методы,
которые вы разрабатываете -
8:45 - 8:48для предсказания их черт характера,
не будут работать». -
8:48 - 8:52Я отвечаю: «Совершенно верно,
и для меня — это успех». -
8:52 - 8:53Поскольку, как у учёного, моей целью
-
8:53 - 8:57не является
строить догадки о пользователях, -
8:57 - 9:00а является улучшение того,
как люди взаимодействуют онлайн. -
9:00 - 9:03Иногда это включает в себя
построение догадок о них, -
9:03 - 9:06но если пользователи не хотят,
чтобы я использовала эти данные, -
9:06 - 9:08я думаю, у них должно быть
право отказать мне. -
9:08 - 9:11Я хочу, чтобы пользователи
знали и были согласны -
9:11 - 9:13на использование инструментов,
которые мы разрабатываем. -
9:13 - 9:16Я думаю, что поощрение этого типа науки
-
9:16 - 9:17и поддержка исследователей,
-
9:17 - 9:20которые хотят передать часть управления
обратно пользователям -
9:20 - 9:23от компаний-владельцев соцсетей,
-
9:23 - 9:25означает, что в будущем,
по мере развития -
9:25 - 9:27и усложнения этих инструментов,
-
9:27 - 9:28у нас будут образованные
-
9:28 - 9:30и правомочные пользователи.
-
9:30 - 9:31И я думаю, что все мы согласимся,
-
9:31 - 9:33что это идеальный путь в будущее.
-
9:33 - 9:36Спасибо.
-
9:36 - 9:39(Аплодисменты)
- Title:
- Загадка спиральной картошки фри: Почему лайки в соцсетях говорят больше, чем вы думаете
- Speaker:
- Дженнифер Голбек
- Description:
-
Вам нравится спиральная картошка фри? Вы ставили ей лайк в «Фэйсбук»? Посмотрите этот доклад, чтобы узнать о поразительных вещах, которые «Фэйсбук» (и другие) могут угадать о вас на основе того, что вам нравится и чем вы делитесь. Учёный в области вычислительной техники, Дженнифер Голбек объясняет, как это стало возможным, почему некоторые приложения данной технологии не такие уж и милые и почему она считает, что управление информацией следует передать в руки её законных владельцев.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Aliaksandr Autayeu edited Russian subtitles for Your social media "likes" expose more than you think | ||
Aliaksandr Autayeu approved Russian subtitles for Your social media "likes" expose more than you think | ||
Aliaksandr Autayeu edited Russian subtitles for Your social media "likes" expose more than you think | ||
Aliaksandr Autayeu edited Russian subtitles for Your social media "likes" expose more than you think | ||
Aliaksandr Autayeu edited Russian subtitles for Your social media "likes" expose more than you think | ||
Aliaksandr Autayeu edited Russian subtitles for Your social media "likes" expose more than you think | ||
Aliaksandr Autayeu edited Russian subtitles for Your social media "likes" expose more than you think | ||
Alina Siluyanova edited Russian subtitles for Your social media "likes" expose more than you think |