Как должен измениться Твиттер
-
0:01 - 0:04Крис Андерсон:
Что вас сейчас беспокоит? -
0:04 - 0:06Вы так открыто говорили о многих
проблемах на Твиттере. -
0:06 - 0:09Что волнует вас прежде всего
-
0:09 - 0:11в нынешнем положении вещей?
-
0:11 - 0:14Джек Дорси: В данный момент —
это здоровье диалога. -
0:14 - 0:18Наша задача — служить
общественному диалогу, -
0:18 - 0:23и мы видели, как он подвергается
различным атакам. -
0:23 - 0:26Мы видели оскорбления и запугивание,
-
0:26 - 0:29видели манипулирование,
-
0:29 - 0:33автоматизацию, групповые действия,
дезинформацию. -
0:34 - 0:38Всё это — процессы,
которых мы не предвидели, -
0:38 - 0:42когда создавали нашу компанию
13 лет назад. -
0:42 - 0:45Сейчас мы видим их в огромных масштабах,
-
0:45 - 0:50и прежде всего меня беспокоит
вопрос, сможем ли мы найти способ -
0:50 - 0:53бороться с этим системно и масштабно,
-
0:53 - 1:00с чётким пониманием того, какие именно
действия мы предпринимаем, -
1:00 - 1:03с ясным представлением о том,
как мы действуем, -
1:03 - 1:06и с чётким апелляционным процессом
на случай нашей неправоты, -
1:06 - 1:08потому что мы будем неправы.
-
1:09 - 1:11Уитни Пеннингтон Роджерс:
Я рада слышать, -
1:11 - 1:13что вы думаете об этом,
-
1:13 - 1:16потому что есть много случаев,
когда люди чувствуют, -
1:16 - 1:18что они подверглись нападкам
и оскорблениям на Твиттере, -
1:18 - 1:22и чаще всего это затрагивает
женщин различных национальностей, -
1:22 - 1:23включая темнокожих женщин.
-
1:23 - 1:25И мы получили больше новых данных:
-
1:25 - 1:28Amnesty International опубликовала
доклад пару месяцев назад, -
1:28 - 1:33который показал, что подборка темнокожих
женщин, активно использующих Твиттер, -
1:33 - 1:36в среднем получала оскорбления в реакциях
-
1:36 - 1:38к одному из десяти твиттов.
-
1:38 - 1:42Так что когда вы говорите
о здоровье сообщества Твиттера, -
1:42 - 1:46мне бы хотелось услышать:
«здоровье для каждого», -
1:46 - 1:49и в особенности, как вы представляете
превращение Твиттера -
1:49 - 1:54в безопасное место для женщин, женщин
различных рас, для темнокожих женщин? -
1:54 - 1:55ДД: Так...
-
1:55 - 1:57Да, это возмутительно,
-
1:57 - 1:59когда вы приходите за тем,
-
1:59 - 2:03чтобы узнать что-то новое о мире,
-
2:03 - 2:09а в итоге проводите бóльшую часть времени,
сообщая об оскорблениях, -
2:09 - 2:11нападках и угрозах в ваш адрес.
-
2:11 - 2:18Так что сейчас мы особенно пристально
наблюдаем за стимулами, -
2:18 - 2:22которое эта платформа предоставляет
естественным образом. -
2:22 - 2:27В настоящий момент система
позволяет с лёгкостью -
2:27 - 2:31оскорблять и преследовать
других пользователей, -
2:31 - 2:34и, к сожалению, в прошлом наша
система полностью полагалась -
2:34 - 2:39на то, чтобы пользователи сообщали
о нападках и оскорблении. -
2:39 - 2:45Примерно в половине прошлого года
мы решили начать применять -
2:45 - 2:49намного больше машинного обучения
и в разы больше глубокого обучения -
2:49 - 2:53и стараться предупреждать события,
когда дело доходит до оскорблений, -
2:53 - 2:57для того, чтобы мы могли
целиком снять груз с плеч жертвы. -
2:57 - 3:00Недавно у нас появились первые успехи.
-
3:00 - 3:06Примерно 38% твитов оскорбительного
характера уже проактивно распознано -
3:06 - 3:08при помощи машинного обучения,
-
3:08 - 3:10так что о них не придётся сообщать.
-
3:10 - 3:14Но даже те, что уже распознаны,
всё равно потом проверяют люди, -
3:14 - 3:19так что мы не удаляем контент или аккаунты
без прямого рассмотрения человеком. -
3:19 - 3:22И это подъём с нуля процентов год назад.
-
3:22 - 3:24Ноль процентов означало то, что каждому,
-
3:24 - 3:28кто столкнулся с оскорблениями,
приходилось сообщать о них, -
3:28 - 3:31что означало много работы для них,
много — для нас, -
3:31 - 3:33и было совершенно несправедливо.
-
3:35 - 3:38Помимо этого, нам как компании
нужно позаботиться о том, что мы -
3:38 - 3:42представляем интересы всех сообществ,
для которых мы работаем. -
3:42 - 3:44Мы не сможем построить успешный бизнес
-
3:44 - 3:48до тех пор, пока он не будет основан на
многообразии взглядов нашего сообщества, -
3:48 - 3:51которое действительно
сталкивается с этими проблемами. -
3:51 - 3:55И я не говорю только о команде тех,
кто делает эту работу, -
3:55 - 3:57это касается и нашего руководства.
-
3:57 - 4:03Нам необходимо научиться сопереживанию
этим людям и их печальному опыту -
4:03 - 4:06и дать им более эффективные
орудия для борьбы, -
4:06 - 4:10а также снабдить наших пользователей
более простыми способами -
4:10 - 4:13разбираться с тем, что они видят.
-
4:13 - 4:16Многое из того, что мы делаем,
касается технологий, -
4:16 - 4:20но мы также наблюдаем за стимулами
нашего сервиса: -
4:20 - 4:25что Твиттер побуждает вас делать,
как только вы туда заходите? -
4:25 - 4:27В прошлом
-
4:29 - 4:34он мотивировал возмущение
и стадное поведение, -
4:34 - 4:37он стимулировал групповую травлю.
-
4:37 - 4:40Так что нам необходимо
лучше изучить несколько основ -
4:40 - 4:43работы этого сервиса, чтобы добиться
бóльших изменений. -
4:43 - 4:47Мы можем слегка поменять какие-то
технологические детали, как я и сказал, -
4:47 - 4:52но в конечном счёте нам нужно детально
изучить динамику самой сети, -
4:52 - 4:53чем мы и занимаемся.
-
4:53 - 4:55КА: Но что именно, на ваш взгляд,
-
4:55 - 4:59вы могли бы изменить,
-
4:59 - 5:02чтобы произошёл
кардинальный сдвиг в поведении? -
5:03 - 5:05ДД: Для начала...
-
5:05 - 5:10когда мы создавали этот сервис, идея была
следить за чьей-то страницей, -
5:10 - 5:12например,
-
5:12 - 5:16но я не думаю, что люди пользуются
Твиттером именно для этого. -
5:16 - 5:21Я считаю, что Твиттер, прежде всего — это
сеть, основанная на интересах. -
5:21 - 5:25Люди приходят сюда с интересом к чему-то.
-
5:25 - 5:28И им нужно проделать кучу работы,
чтобы найти и отслеживать -
5:28 - 5:30интересующие их аккаунты.
-
5:30 - 5:34Вместо этого мы могли бы позволить вам
следить за вашим увлеченем — -
5:34 - 5:36за хэштегом, за трендом,
-
5:36 - 5:38за сообществом,
-
5:38 - 5:42что даёт нам возможность
показывать все аккаунты, -
5:42 - 5:46все темы, все моменты, все хэштеги,
-
5:46 - 5:50которые относятся к определённой теме
или увлечению, -
5:50 - 5:54что действительно открывает
то многообразие, которое вы видите. -
5:54 - 5:56Но это огромный, кардинальный сдвиг —
-
5:56 - 6:00сместить целую сеть
с предвзятости только к аккаунту -
6:00 - 6:03на предвзятость к теме или увлечению.
-
6:03 - 6:06КА: Разве дело не в том,
-
6:07 - 6:11что одна из причин, почему
у вас столько контента, — -
6:11 - 6:15это результат того, что миллионы людей
по всему миру -
6:15 - 6:18оказались на гладиаторской арене,
чтобы сражаться друг с другом -
6:18 - 6:20за подписчиков и внимание?
-
6:20 - 6:24С точки зрения тех,
кто только читает Твиттер, -
6:24 - 6:25это не проблема,
-
6:25 - 6:29но все те, кто его создают,
те кто пишут, говорят: -
6:29 - 6:32«Знаешь, вот бы мне ещё больше "лайков",
подписчиков, "ретвитов"». -
6:32 - 6:34Так что они постоянно экспериментируют,
-
6:34 - 6:36пытаясь найти новые пути добиться этого.
-
6:36 - 6:40И всем нам стало ясно,
что самый верный способ — -
6:40 - 6:44устроить какую-то провокацию
-
6:44 - 6:47и быть нахалом, и при этом
отличаться красноречием, -
6:47 - 6:50ведь красноречивые оскорбления —
мечта Твиттера, -
6:50 - 6:53где вы моментально с кем-то сцепляетесь
-
6:53 - 6:57и начинается такая перепалка,
которая сам себя разжигает. -
6:57 - 7:00Как разрядить такую обстановку?
-
7:01 - 7:04ДД: Да, прямо в точку,
-
7:04 - 7:05но это о тех же стимулах.
-
7:06 - 7:08Одним из решений, которые мы
приняли на начальном этапе, -
7:08 - 7:13было показывать количество
ваших подписчиков. -
7:13 - 7:16Мы решили выделить эту цифру
крупным жирным шрифтом, -
7:16 - 7:20а всё написанное крупным
жирным шрифтом и есть самое важное -
7:20 - 7:22и как раз то, что вы хотите продвигать.
-
7:22 - 7:24Было ли это верным решением тогда?
-
7:24 - 7:25Скорее всего, нет.
-
7:25 - 7:27Если бы я запускал этот сервис снова,
-
7:27 - 7:29я бы не стал так сильно выделять
число подписчиков. -
7:29 - 7:32Я бы не стал так сильно выделять
количество «лайков». -
7:32 - 7:35Мне кажется, прежде всего, я бы даже
не создал сами «лайки», -
7:35 - 7:38потому что на самом деле
они не продвигают то, -
7:38 - 7:41что мы считаем самым важным сейчас,
-
7:41 - 7:44то есть здоровый вклад в жизнь сети
-
7:44 - 7:47и диалог в сети,
-
7:47 - 7:49участие в диалоге,
-
7:49 - 7:52возможность научиться чему-то
через этот диалог. -
7:52 - 7:54Это не то, о чём мы думали 13 лет назад,
-
7:54 - 7:57но как раз то, что чрезвычайно
важно сегодня. -
7:57 - 8:00Так что нам нужно пересмотреть,
как отображать число подписчиков, -
8:00 - 8:02как показывать число «ретвитов»,
-
8:02 - 8:04как показывать «лайки»,
-
8:04 - 8:06и задать один серьёзный вопрос:
-
8:06 - 8:09действительно ли это то число,
которое мы хотим продвигать? -
8:09 - 8:12Действительно ли это то, о чём вы думаете:
-
8:12 - 8:14«вот чего мне нужно больше»,
когда открываете Твиттер? -
8:14 - 8:16И я не думаю, что это так.
-
8:16 - 8:19(Аплодисменты)
-
8:19 - 8:21УПР: Мне кажется,
пора посмотреть на твиты, -
8:21 - 8:23которые приходят от зрителей.
-
8:24 - 8:26КА: Давайте-ка взглянем,
о чём вы спрашиваете. -
8:26 - 8:30Твиттер тем и замечателен,
-
8:30 - 8:32что он помогает нам использовать
мудрость толпы, -
8:32 - 8:37то есть больше знаний, больше вопросов,
больше точек зрения, -
8:37 - 8:38чем вы можете представить,
-
8:38 - 8:42и порой многие из них очень здравы.
-
8:42 - 8:45УПР: Я сейчас увидела один твит —
он уже убежал вниз: -
8:45 - 8:48«Твиттер планирует бороться с иностранным
вмешательством в выборы в США в 2020?» -
8:48 - 8:51Мне кажется, это часть проблемы,
которая существует -
8:51 - 8:53в интернете вцелом:
-
8:53 - 8:56происходит много вредоносной
автоматизированной деятельности. -
8:56 - 9:02У нас есть подборка данных с Твиттера,
-
9:02 - 9:05от наших друзей в Zignal Labs,
-
9:05 - 9:07и возможно, мы даже увидим,
чтобы у нас был пример, -
9:07 - 9:09о чём конкретно я говорю,
-
9:09 - 9:12о так называемых ботах,
-
9:13 - 9:17или координированной автоматизированной
вредоносной деятельности аккаунтов, -
9:17 - 9:20которую используют для влияния
на такие события, как выборы. -
9:20 - 9:24И в этом примере от Zignal,
которым они поделились с нами, -
9:24 - 9:26используются данные Твиттера,
-
9:26 - 9:28и вы можете увидеть, что в этом случае
-
9:28 - 9:33белый — это аккаунты людей,
где каждая точка — один аккаунт. -
9:33 - 9:34Чем розовее точка, тем более
-
9:34 - 9:36автоматизированы действия.
-
9:36 - 9:42И здесь также видно
взаимодействие людей и ботов. -
9:42 - 9:46В этом случае речь о выборах в Израиле
-
9:46 - 9:49и распространении
дезинформации о Бени Ганц, -
9:49 - 9:52и, как мы знаем, в конце концов,
это были выборы, -
9:52 - 9:56которые Нетаньяху выиграл
с очень малым перевесом, -
9:56 - 9:59и в некотором роде как раз этот процесс
и мог повлиять. -
9:59 - 10:01И думая о том, что такие вещи
происходят на Твиттере, -
10:01 - 10:04какие именно действия
вы предпринимаете для того, -
10:04 - 10:07чтобы предотвратить распространение
ложной информации этим путём -
10:07 - 10:12и не позволить ей поставить
под угрозу демократию? -
10:12 - 10:13ДД: Я немного вернусь назад.
-
10:13 - 10:16Мы спрашивали себя:
-
10:16 - 10:20можем ли мы в действительности
измерить здоровье диалога, -
10:20 - 10:22и что это значит?
-
10:22 - 10:25Точно так же, как существуют показатели
-
10:25 - 10:28здоровья нашего организма,
-
10:28 - 10:33такие, как температура и цвет лица,
-
10:33 - 10:38мы считаем, что можно найти показатели
состояния здоровья диалога. -
10:38 - 10:42Мы сотрудничали
с лабораторией Cortico в МТИ, -
10:42 - 10:49чтобы предложить четыре
начальных индикатора, -
10:49 - 10:52которые, по нашему мнению, мы могли бы
применить к этой системе. -
10:53 - 10:59Первый из них мы называем
совместным вниманием. -
10:59 - 11:02Это измерение того, какая часть диалога
проявляет внимание к какой-то теме -
11:02 - 11:05в соотношении с разрозненностью.
-
11:06 - 11:09Второй называется совместной реальностью,
-
11:09 - 11:11он показывает, какой процент диалога
-
11:12 - 11:14имеет одни и те же факты —
-
11:14 - 11:17и дело не в том, достоверны они или нет,
-
11:17 - 11:20а в том, разделяем ли мы
те же факты, как участники диалога? -
11:20 - 11:23Третий — благожелательность:
-
11:23 - 11:27какая часть диалога благожелательна
или конструктивна, -
11:27 - 11:30и наоборот — пагубна?
-
11:30 - 11:33Четвёртый показатель —
это разнообразие точек зрения. -
11:33 - 11:37Что мы видим на самом деле —
пузыри фильтров -
11:37 - 11:40и эхо-камеры, или же
настоящее многообразие мнений -
11:40 - 11:41внутри диалога?
-
11:41 - 11:45Эти четыре показателя подразумевают,
-
11:45 - 11:49что с их увеличением диалог
становится более и более здоровым. -
11:49 - 11:54Так что наш первый шаг — понять,
возможно ли измерить их онлайн, -
11:54 - 11:55и мы считаем, что возможно.
-
11:55 - 11:58Наш основной интерес —
это доброжелательность. -
11:58 - 12:03У нас есть оценка токсичности,
модель токсичности в нашей системе, -
12:03 - 12:07которая способна измерить,
насколько вероятно, что вы уйдёте -
12:07 - 12:09от переписки на Твиттере,
-
12:09 - 12:11потому что вам кажется,
-
12:11 - 12:13что она в высокой степени токсична.
-
12:14 - 12:17Мы работаем над возможностью
других измерений, -
12:17 - 12:19и наш следующий шаг,
-
12:19 - 12:22по мере того, как мы находим решения, —
-
12:22 - 12:25это наблюдать за тем, как эти измерения
развиваются с течением времени, -
12:25 - 12:27и продолжать экспериментировать.
-
12:27 - 12:31Наша цель — убедиться,
что они находятся в равновесии, -
12:31 - 12:35потому что если увеличить одно,
уменьшится и другое. -
12:35 - 12:37Если увеличить количество
различных взглядов, -
12:37 - 12:40можно в действительности уменьшить
общую для группы реальность. -
12:40 - 12:45КА: Я просто выбираю пару вопросов
из всего этого потока. -
12:45 - 12:46ДД: Бесконечные вопросы.
-
12:47 - 12:51КА: Многих интересует,
-
12:51 - 12:55насколько сложно избавиться
от нацистов на Твиттере? -
12:56 - 12:58ДД: (Cмех)
-
12:58 - 13:05У нас есть политика касательно
воинствующих экстремистских группировок, -
13:05 - 13:09и бóльшая часть нашей работы
и наших условий использования -
13:09 - 13:13основана на поведении, а не на контенте.
-
13:13 - 13:15Так что в действительности
мы смотрим на поведение. -
13:15 - 13:18Под поведением здесь имеется в виду
использование сервиса -
13:18 - 13:22для повторных или эпизодических
нападок на кого-либо, -
13:22 - 13:25с использованием выражений,
разжигающих ненависть, -
13:25 - 13:27связанных, например, с Ку-клукс-кланом
-
13:27 - 13:30или Американской нацистской партией.
-
13:30 - 13:34Всё это мы пресекаем немедленно.
-
13:35 - 13:40Сейчас дела обстоят так, что этот термин
используется довольно свободно, -
13:40 - 13:46и мы не можем взять каждое
упоминание этого слова -
13:46 - 13:48для обвинения кого-либо,
-
13:48 - 13:52как фактический показатель того,
что их нужно удалить с платформы. -
13:52 - 13:54Множество наших моделей
интересуются прежде всего тем, -
13:54 - 13:58связан ли аккаунт с воинствующими
экстремистскими группировками? -
13:58 - 14:00Если да, то мы можем принять меры.
-
14:00 - 14:03Так мы и поступили с ККК, Американской
нацистской партией и c другими. -
14:03 - 14:08Второй пункт: используется ли
образная речь или поведение, -
14:08 - 14:10которое бы указывало ни их связь?
-
14:10 - 14:13КА: Сколько человек работает
над модерацией контента, -
14:13 - 14:15чтобы за этим следить?
-
14:15 - 14:16ДД: По-разному.
-
14:16 - 14:18Мы хотим иметь гибкий подход,
-
14:18 - 14:20потому что для нас важно,
что мы, в первую очередь, -
14:20 - 14:25создаём алгоритмы вместо того, чтобы
нанимать огромное количество человек, -
14:25 - 14:28потому что нам нужно знать,
что это масштабируемый процесс, -
14:28 - 14:31и человеческих сил
не хватит для работы в таких масштабах. -
14:31 - 14:38Именно поэтому мы уделили столько внимания
проактивному распознаванию оскорблений, -
14:38 - 14:39которые потом проверяет человек.
-
14:39 - 14:42Мы хотим добиться того,
-
14:42 - 14:46чтобы алгоритмы непрестанно
просматривали каждый твит -
14:46 - 14:48и выносили самые интересные
на поверхность, -
14:48 - 14:52чтобы люди могли решить,
нужно ли принимать меры -
14:52 - 14:54по нашим правилам пользования.
-
14:54 - 14:57УПР: Нет такого масштабного
количества человек, -
14:57 - 15:00но сколько у вас есть на данный момент
для наблюдения за этими аккаунтами? -
15:00 - 15:03и как вы понимаете, сколько достаточно?
-
15:03 - 15:05ДД: Это гибкое число.
-
15:05 - 15:08Иной раз нам нужны люди
для работы над спамом. -
15:08 - 15:12Иногда — для домогательств,
угроз и оскорблений. -
15:12 - 15:15Мы постараемся достичь гибкости
в работе нашего персонала, -
15:15 - 15:17чтобы задействовать их
для самых важных задач. -
15:17 - 15:18Иногда — для выборов.
-
15:19 - 15:23У нас был ряд выборов в Мексике,
будут выборы в Индии, -
15:23 - 15:28само собой, выборы в прошлом году,
промежуточные выборы — -
15:28 - 15:30мы хотим чтобы наш персонал
мог подстраиваться. -
15:30 - 15:33Так что когда люди —
-
15:33 - 15:39к примеру, если вы сейчас зайдёте на
наши действующие условия использования -
15:39 - 15:41и прокрутите страницу вверх,
-
15:41 - 15:44и вы смотрите, нарушают ли правила
использования оскорбления и травля, -
15:44 - 15:48которым вы подверглись,
для того чтобы сообщить об этом, — -
15:48 - 15:51первое, что вы увидите,
открыв эту страницу, -
15:51 - 15:54будет информация о защите
интеллектуальной собственности. -
15:55 - 16:00Вы прокручиваете вниз и увидите
жестокое обращение, домогательства -
16:00 - 16:02и всё остальное,
с чем вы могли бы столкнуться. -
16:02 - 16:05И я не знаю, как так произошло
за историю компании, -
16:05 - 16:10но мы поместили именно это перед тем,
-
16:12 - 16:15о чём людям действительно нужно
больше информации и где нужно действие. -
16:15 - 16:21И такой порядок говорит о том,
что мы считали тогда самым важным. -
16:21 - 16:24Так что сейчас мы это меняем.
-
16:24 - 16:25Мы наводим порядок
-
16:25 - 16:29и упрощаем правила, чтобы людям
было удобнее их читать, -
16:29 - 16:33чтобы люди могли сами понять,
-
16:33 - 16:36когда что-то нарушает наши правила,
а когда — нет. -
16:36 - 16:38Также мы делаем...
-
16:38 - 16:44опять же, наша задача — это избавить
от работы тех, кто стал жертвой. -
16:44 - 16:47А это значит переложить работу
-
16:47 - 16:49с людей на технологии,
-
16:49 - 16:52то есть с тех, кто подвергся жестокости,
-
16:52 - 16:55и тех, кому приходится это проверять.
-
16:55 - 16:56Так что мы хотим убедиться,
-
16:56 - 16:59что мы не просто
призываем к большему труду -
16:59 - 17:02над чем-то очень, очень неприятным,
-
17:02 - 17:05а хотим добиться равновесия
между технологиями -
17:05 - 17:08и тем, где человек может проявлять
творческий подход, -
17:08 - 17:11то есть в оценке правил,
-
17:11 - 17:14а не в механической работе
по поиску и сообщениям о нарушениях. -
17:14 - 17:15Вот наши мысли на этот счёт.
-
17:15 - 17:18КА: Давайте углубимся в то,
о чём вы сейчас сказали. -
17:18 - 17:21Здорово, что вы ищете способы
-
17:21 - 17:24поправить основные принципы
работы этой системы, -
17:24 - 17:29чтобы менее способствовать
негативным реакциям, и, возможно, -
17:29 - 17:32используя терминологию Тристана Харриса,
-
17:32 - 17:36сильнее задействовать рефлексивное
мышление людей. -
17:36 - 17:38Насколько это возможно?
-
17:38 - 17:42Какими бы могли быть
альтернативы кнопки «лайк»? -
17:44 - 17:47ДД: Прежде всего,
-
17:47 - 17:53лично я глубоко убеждён,
что для нашего сервиса -
17:53 - 17:56критически важен общественный диалог.
-
17:56 - 17:58Мир столкнулся с жизненно
важными проблемами, -
17:58 - 18:02которые касаются всех, а не одного
отдельного национального государства, -
18:02 - 18:05которому приносит пользу
общественный диалог. -
18:05 - 18:08Твиттер уникален тем,
-
18:08 - 18:09что он полностью открытый,
-
18:09 - 18:11полностью общественный,
-
18:11 - 18:12полностью податливый,
-
18:12 - 18:16и каждый может читать
и принять участие в любой дискуссии. -
18:16 - 18:19Там обсуждают изменение климата,
-
18:19 - 18:21там обсуждают темы, такие,
как потеря рабочих мест -
18:21 - 18:23и замещение искусственным интеллектом.
-
18:23 - 18:26Там обсуждают экономическое
неравенство и так далее. -
18:26 - 18:29Неважно, что предпринимает
какое-либо государство, -
18:29 - 18:32они не справятся с этими
проблемами самостоятельно. -
18:32 - 18:34Необходимо объединить усилия всего мира,
-
18:34 - 18:37и как раз здесь Твиттер
может сыграть свою роль. -
18:37 - 18:43Второе — если вы сейчас
зайдёте на Твиттер, -
18:43 - 18:47вы не обязательно уйдёте с ощущением,
что вы узнали что-то новое и полезное. -
18:47 - 18:48Хотя кому-то удаётся.
-
18:48 - 18:51У некоторых людей очень
и очень богатая сеть, -
18:51 - 18:54большое сообщество, откуда они могут
ежедневно черпать знания. -
18:54 - 18:58Однако, нужно проделать много работы
и отдать много времени на его создание. -
18:58 - 19:02Мы хотим сделать так, чтобы люди
смогли попасть в такие беседы -
19:02 - 19:03намного быстрее
-
19:03 - 19:06и чтобы они могли найти что-то, что...
-
19:07 - 19:09независимо от времени,
проводённом на Твиттере, — -
19:09 - 19:11и я не хочу увеличивать время на Твиттере,
-
19:11 - 19:14я хочу увеличить его отдачу.
-
19:14 - 19:16И сколько нового узнают люди, и...
-
19:18 - 19:19КА: Но так ли это?
-
19:19 - 19:22Ведь это и есть главный вопрос,
который интересует очень многих. -
19:22 - 19:26Само собой, Джек, вас во многом
сдерживает то, -
19:26 - 19:28что вы публичная компания,
-
19:28 - 19:30и на вас давят инвесторы,
-
19:30 - 19:33и ваша прибыль, прежде всего,
поступает от рекламы — -
19:33 - 19:36и это зависит от участия пользователей.
-
19:36 - 19:41Готовы ли вы пожертвовать
временем пользователей, если будет нужно, -
19:41 - 19:45ради более осмысленного диалога?
-
19:45 - 19:48ДД: Да, чем релевантнее контент,
тем меньше времени на платформе, -
19:48 - 19:50и это совершенно нормально,
-
19:50 - 19:53потому что мы хотим сделать так,
чтобы вы заходили на Твиттер -
19:53 - 19:57и сразу видели что-то новое
и важное для вас. -
19:57 - 20:01Мы всё ещё можем показать рекламу.
-
20:01 - 20:04Но видеть больше не значит
тратить больше времени. -
20:04 - 20:05Второе, на что мы смотрим...
-
20:05 - 20:08КА: Минутку... насчёт цели
активно проведённого времени, -
20:08 - 20:11если вы его измеряете,
это ещё не значит, что это то, -
20:11 - 20:13которые люди высоко ценят.
-
20:13 - 20:14Это может быть и тем,
-
20:14 - 20:18на что люди ежедневно слетаются,
как мотыльки на огонь. -
20:18 - 20:21Мы зависимы, так как каждый день
мы видим что-то, что нас бесит, -
20:21 - 20:24и продолжаем подливать масла в огонь,
-
20:24 - 20:26число активных пользователей
в день растёт -
20:26 - 20:28и реклама приносит больше дохода,
-
20:28 - 20:30но мы всё больше злимся друг на друга.
-
20:30 - 20:33Как вы определяете...
-
20:33 - 20:37«Ежедневные активные пользователи» звучит
как очень опасный критерий оптимизации. -
20:37 - 20:42(Аплодисменты)
-
20:42 - 20:43ДД: Да, отдельно взятое,
-
20:44 - 20:46но вы не дали мне закончить
с другим показателем, -
20:46 - 20:50мы следим за диалогами
-
20:50 - 20:52и цепочками диалогов.
-
20:52 - 20:57Мы хотим стимулировать
здоровый вклад в сеть, -
20:57 - 21:01а это, по нашему мнению, —
участие в диалоге, -
21:01 - 21:02который нетоксичен
-
21:02 - 21:07согласно четырем индикаторам,
о которых я вам рассказал. -
21:07 - 21:10Нельзя оптимизировать по одному параметру.
-
21:10 - 21:13Нужно постоянно совмещать
и смотреть на то, что -
21:13 - 21:17на самом деле принесёт
здоровый вклад в сеть -
21:17 - 21:19и здоровое общение людям.
-
21:19 - 21:21Наша цель — получить такой показатель,
-
21:21 - 21:25чтобы люди смогли бы сказать нам:
«Твиттер научил меня чему-то, -
21:25 - 21:27и я унесу нечто ценное с собой».
-
21:27 - 21:29Это наша долгосрочная цель,
-
21:29 - 21:31и чтобы прийти к ней, нужно время.
-
21:31 - 21:36КА: Мне кажется, что для многих,
и для меня, вы — человек-загадка. -
21:36 - 21:41Возможно, это несправедливо,
но как-то ночью я проснулся, -
21:41 - 21:45поймав себя на том, что я думал о вас
и об этой ситуации, как будто -
21:45 - 21:52мы отправились в большое путешествие
на корабле под названием «Твиттаник», -
21:52 - 21:53(Смех)
-
21:53 - 21:57и пассажиры в третьем классе
-
21:57 - 22:00беспокоятся,
-
22:00 - 22:02и вы, в отличие от других капитанов,
-
22:02 - 22:06говорите: «Давайте, говорите со мной,
послушайте меня, я хочу услышать». -
22:06 - 22:09И они говорят вам: «Нас тревожит
айсберг перед нами». -
22:09 - 22:11А вы отвечаете:
«Знаете, это неоспоримый факт, -
22:11 - 22:14и наш корабль, по правде,
построен не очень качественно -
22:14 - 22:16чтобы вырулить так, как хотелось бы».
-
22:16 - 22:17Мы просим: «Сделайте что-нибудь».
-
22:17 - 22:19И вы идёте на мостик,
-
22:19 - 22:21пока мы ждём
-
22:21 - 22:26и смотрим, а вы держитесь
необычайно спокойно, -
22:26 - 22:30но мы все стоим снаружи, говоря:
«Джек, поверни же чёртов штурвал!» -
22:30 - 22:31Представляете?
-
22:31 - 22:32(Смех)
-
22:32 - 22:34(Аплодисменты)
-
22:34 - 22:36Я к тому, что...
-
22:36 - 22:37(Аплодисменты)
-
22:37 - 22:42На карту поставлена демократия.
-
22:42 - 22:45На карту поставлена наша культура.
На карту поставлен наш мир. -
22:45 - 22:50Твиттер потрясающий, он влияет на многое.
-
22:50 - 22:52Он не такой большой, как некоторые
другие платформы, -
22:52 - 22:55но влиятельные люди пользуются им,
чтобы задать приоритеты, -
22:55 - 23:01и трудно себе представить более
важную роль в мире, чем... -
23:02 - 23:05Я хочу сказать, что вам здорово
удаётся слушать и слышать людей, -
23:05 - 23:10но по-настоящему оценить
срочность и сдвинуть всё с места... -
23:10 - 23:12вы сделаете это?
-
23:13 - 23:17ДД: Да, и мы серьёзно продвигаемся.
-
23:17 - 23:20Было несколько изменений
в истории Твиттера. -
23:20 - 23:22Первое — когда я вернулся в компанию,
-
23:23 - 23:30мы находились в довольно тяжёлом положении
в отношении нашего будущего -
23:30 - 23:34не просто от того, как люди
пользовались платформой, -
23:34 - 23:36но и из-за нашей корпоративной риторики.
-
23:36 - 23:40Так что нам пришлось поправить
несколько основных деталей, -
23:40 - 23:42развернуть компанию,
-
23:42 - 23:45пережить два безумных периода увольнений,
-
23:45 - 23:49потому что мы слишком разрослись
для того, чем мы занимались, -
23:49 - 23:51и мы направили все свои силы
-
23:51 - 23:54на службу общественному диалогу.
-
23:54 - 23:56Нам пришлось потрудиться.
-
23:56 - 23:58Как только мы погрузились в дело,
-
23:58 - 24:01мы осознали некоторые проблемы
с основными принципами. -
24:02 - 24:07Мы могли бы принять много поверхностных
действий, чтобы повлиять на происходящее, -
24:07 - 24:09но важно, чтобы изменения удержались,
-
24:09 - 24:11а это значит, что нам нужно
копнуть очень глубоко -
24:11 - 24:15и быть внимательными к тому,
что мы начали 13 лет назад, -
24:15 - 24:18и действительно спрашивать себя,
-
24:18 - 24:20как работает система, как работает
основная концепция, -
24:20 - 24:24и что нужно миру сегодня,
-
24:24 - 24:28учитывая то, как быстро всё меняется
и как люди этим пользуются. -
24:28 - 24:35Мы работаем так быстро, как можем,
но скорость не решит все вопросы. -
24:35 - 24:37Нужен фокус, расстановка приоритетов,
-
24:37 - 24:40понимание основ сети
-
24:40 - 24:43и создание масштабируемой схемы,
-
24:43 - 24:46устойчивой к переменам;
-
24:46 - 24:51открытость о наших действиях
и принцип прозрачности, -
24:51 - 24:53чтобы мы могли заслуживать
доверия и дальше. -
24:54 - 24:57Так что я горжусь тем, что мы создали.
-
24:57 - 25:00Я горжусь нашим направлением.
-
25:01 - 25:04Само собой, мы можем двигаться быстрее,
-
25:04 - 25:08но для этого нужно остановить те глупости,
которые мы сделали в прошлом. -
25:09 - 25:10КА: Хорошо.
-
25:10 - 25:14Наверняка здесь много тех, кто бы
очень хотел, будь у них возможность, -
25:14 - 25:18помочь вам с этой темой перемен,
-
25:18 - 25:20и я не знаю насчёт Уитни...
-
25:20 - 25:23Джек, спасибо, что пришли и что
вы так открыто говорили. -
25:23 - 25:24Это смело.
-
25:24 - 25:28Я очень признателен за этот разговор
и желаю удачи в вашей миссии. -
25:28 - 25:30ДД: Большое спасибо.
Спасибо за приглашение. -
25:30 - 25:33(Aплодисменты)
-
25:33 - 25:34Спасибо.
- Title:
- Как должен измениться Твиттер
- Speaker:
- Джек Дорси
- Description:
-
Можно ли спасти Твиттер? В разговоре, охватывающем широкий круг тем, Крис Андерсон и Уитни Пеннингтон Роджерс из TED обсуждают будущее платформы с Генеральным директором Твиттера Джеком Дорси, уделяя внимание проблеме оскорбительного поведения и модерации контента и предлагая несколько фундаментальных изменений, которые могли бы помочь в создании здорового диалога. «Действительно ли мы приносим людям нечто ценное каждый день?» — спрашивает Джек Дорси.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 25:47
![]() |
Retired user approved Russian subtitles for How Twitter needs to change | |
![]() |
Retired user edited Russian subtitles for How Twitter needs to change | |
![]() |
Retired user accepted Russian subtitles for How Twitter needs to change | |
![]() |
Retired user edited Russian subtitles for How Twitter needs to change | |
![]() |
Retired user edited Russian subtitles for How Twitter needs to change | |
![]() |
Tatiana Lebedeva edited Russian subtitles for How Twitter needs to change | |
![]() |
Tatiana Lebedeva edited Russian subtitles for How Twitter needs to change | |
![]() |
Tatiana Lebedeva edited Russian subtitles for How Twitter needs to change |