< Return to Video

Как должен измениться Твиттер

  • 0:01 - 0:04
    Крис Андерсон:
    Что вас сейчас беспокоит?
  • 0:04 - 0:06
    Вы так открыто говорили о многих
    проблемах на Твиттере.
  • 0:06 - 0:09
    Что волнует вас прежде всего
  • 0:09 - 0:11
    в нынешнем положении вещей?
  • 0:11 - 0:14
    Джек Дорси: В данный момент —
    это здоровье диалога.
  • 0:14 - 0:18
    Наша задача — служить
    общественному диалогу,
  • 0:18 - 0:23
    и мы видели, как он подвергается
    различным атакам.
  • 0:23 - 0:26
    Мы видели оскорбления и запугивание,
  • 0:26 - 0:29
    видели манипулирование,
  • 0:29 - 0:33
    автоматизацию, групповые действия,
    дезинформацию.
  • 0:34 - 0:38
    Всё это — процессы,
    которых мы не предвидели,
  • 0:38 - 0:42
    когда создавали нашу компанию
    13 лет назад.
  • 0:42 - 0:45
    Сейчас мы видим их в огромных масштабах,
  • 0:45 - 0:50
    и прежде всего меня беспокоит
    вопрос, сможем ли мы найти способ
  • 0:50 - 0:53
    бороться с этим системно и масштабно,
  • 0:53 - 1:00
    с чётким пониманием того, какие именно
    действия мы предпринимаем,
  • 1:00 - 1:03
    с ясным представлением о том,
    как мы действуем,
  • 1:03 - 1:06
    и с чётким апелляционным процессом
    на случай нашей неправоты,
  • 1:06 - 1:08
    потому что мы будем неправы.
  • 1:09 - 1:11
    Уитни Пеннингтон Роджерс:
    Я рада слышать,
  • 1:11 - 1:13
    что вы думаете об этом,
  • 1:13 - 1:16
    потому что есть много случаев,
    когда люди чувствуют,
  • 1:16 - 1:18
    что они подверглись нападкам
    и оскорблениям на Твиттере,
  • 1:18 - 1:22
    и чаще всего это затрагивает
    женщин различных национальностей,
  • 1:22 - 1:23
    включая темнокожих женщин.
  • 1:23 - 1:25
    И мы получили больше новых данных:
  • 1:25 - 1:28
    Amnesty International опубликовала
    доклад пару месяцев назад,
  • 1:28 - 1:33
    который показал, что подборка темнокожих
    женщин, активно использующих Твиттер,
  • 1:33 - 1:36
    в среднем получала оскорбления в реакциях
  • 1:36 - 1:38
    к одному из десяти твиттов.
  • 1:38 - 1:42
    Так что когда вы говорите
    о здоровье сообщества Твиттера,
  • 1:42 - 1:46
    мне бы хотелось услышать:
    «здоровье для каждого»,
  • 1:46 - 1:49
    и в особенности, как вы представляете
    превращение Твиттера
  • 1:49 - 1:54
    в безопасное место для женщин, женщин
    различных рас, для темнокожих женщин?
  • 1:54 - 1:55
    ДД: Так...
  • 1:55 - 1:57
    Да, это возмутительно,
  • 1:57 - 1:59
    когда вы приходите за тем,
  • 1:59 - 2:03
    чтобы узнать что-то новое о мире,
  • 2:03 - 2:09
    а в итоге проводите бóльшую часть времени,
    сообщая об оскорблениях,
  • 2:09 - 2:11
    нападках и угрозах в ваш адрес.
  • 2:11 - 2:18
    Так что сейчас мы особенно пристально
    наблюдаем за стимулами,
  • 2:18 - 2:22
    которое эта платформа предоставляет
    естественным образом.
  • 2:22 - 2:27
    В настоящий момент система
    позволяет с лёгкостью
  • 2:27 - 2:31
    оскорблять и преследовать
    других пользователей,
  • 2:31 - 2:34
    и, к сожалению, в прошлом наша
    система полностью полагалась
  • 2:34 - 2:39
    на то, чтобы пользователи сообщали
    о нападках и оскорблении.
  • 2:39 - 2:45
    Примерно в половине прошлого года
    мы решили начать применять
  • 2:45 - 2:49
    намного больше машинного обучения
    и в разы больше глубокого обучения
  • 2:49 - 2:53
    и стараться предупреждать события,
    когда дело доходит до оскорблений,
  • 2:53 - 2:57
    для того, чтобы мы могли
    целиком снять груз с плеч жертвы.
  • 2:57 - 3:00
    Недавно у нас появились первые успехи.
  • 3:00 - 3:06
    Примерно 38% твитов оскорбительного
    характера уже проактивно распознано
  • 3:06 - 3:08
    при помощи машинного обучения,
  • 3:08 - 3:10
    так что о них не придётся сообщать.
  • 3:10 - 3:14
    Но даже те, что уже распознаны,
    всё равно потом проверяют люди,
  • 3:14 - 3:19
    так что мы не удаляем контент или аккаунты
    без прямого рассмотрения человеком.
  • 3:19 - 3:22
    И это подъём с нуля процентов год назад.
  • 3:22 - 3:24
    Ноль процентов означало то, что каждому,
  • 3:24 - 3:28
    кто столкнулся с оскорблениями,
    приходилось сообщать о них,
  • 3:28 - 3:31
    что означало много работы для них,
    много — для нас,
  • 3:31 - 3:33
    и было совершенно несправедливо.
  • 3:35 - 3:38
    Помимо этого, нам как компании
    нужно позаботиться о том, что мы
  • 3:38 - 3:42
    представляем интересы всех сообществ,
    для которых мы работаем.
  • 3:42 - 3:44
    Мы не сможем построить успешный бизнес
  • 3:44 - 3:48
    до тех пор, пока он не будет основан на
    многообразии взглядов нашего сообщества,
  • 3:48 - 3:51
    которое действительно
    сталкивается с этими проблемами.
  • 3:51 - 3:55
    И я не говорю только о команде тех,
    кто делает эту работу,
  • 3:55 - 3:57
    это касается и нашего руководства.
  • 3:57 - 4:03
    Нам необходимо научиться сопереживанию
    этим людям и их печальному опыту
  • 4:03 - 4:06
    и дать им более эффективные
    орудия для борьбы,
  • 4:06 - 4:10
    а также снабдить наших пользователей
    более простыми способами
  • 4:10 - 4:13
    разбираться с тем, что они видят.
  • 4:13 - 4:16
    Многое из того, что мы делаем,
    касается технологий,
  • 4:16 - 4:20
    но мы также наблюдаем за стимулами
    нашего сервиса:
  • 4:20 - 4:25
    что Твиттер побуждает вас делать,
    как только вы туда заходите?
  • 4:25 - 4:27
    В прошлом
  • 4:29 - 4:34
    он мотивировал возмущение
    и стадное поведение,
  • 4:34 - 4:37
    он стимулировал групповую травлю.
  • 4:37 - 4:40
    Так что нам необходимо
    лучше изучить несколько основ
  • 4:40 - 4:43
    работы этого сервиса, чтобы добиться
    бóльших изменений.
  • 4:43 - 4:47
    Мы можем слегка поменять какие-то
    технологические детали, как я и сказал,
  • 4:47 - 4:52
    но в конечном счёте нам нужно детально
    изучить динамику самой сети,
  • 4:52 - 4:53
    чем мы и занимаемся.
  • 4:53 - 4:55
    КА: Но что именно, на ваш взгляд,
  • 4:55 - 4:59
    вы могли бы изменить,
  • 4:59 - 5:02
    чтобы произошёл
    кардинальный сдвиг в поведении?
  • 5:03 - 5:05
    ДД: Для начала...
  • 5:05 - 5:10
    когда мы создавали этот сервис, идея была
    следить за чьей-то страницей,
  • 5:10 - 5:12
    например,
  • 5:12 - 5:16
    но я не думаю, что люди пользуются
    Твиттером именно для этого.
  • 5:16 - 5:21
    Я считаю, что Твиттер, прежде всего — это
    сеть, основанная на интересах.
  • 5:21 - 5:25
    Люди приходят сюда с интересом к чему-то.
  • 5:25 - 5:28
    И им нужно проделать кучу работы,
    чтобы найти и отслеживать
  • 5:28 - 5:30
    интересующие их аккаунты.
  • 5:30 - 5:34
    Вместо этого мы могли бы позволить вам
    следить за вашим увлеченем —
  • 5:34 - 5:36
    за хэштегом, за трендом,
  • 5:36 - 5:38
    за сообществом,
  • 5:38 - 5:42
    что даёт нам возможность
    показывать все аккаунты,
  • 5:42 - 5:46
    все темы, все моменты, все хэштеги,
  • 5:46 - 5:50
    которые относятся к определённой теме
    или увлечению,
  • 5:50 - 5:54
    что действительно открывает
    то многообразие, которое вы видите.
  • 5:54 - 5:56
    Но это огромный, кардинальный сдвиг —
  • 5:56 - 6:00
    сместить целую сеть
    с предвзятости только к аккаунту
  • 6:00 - 6:03
    на предвзятость к теме или увлечению.
  • 6:03 - 6:06
    КА: Разве дело не в том,
  • 6:07 - 6:11
    что одна из причин, почему
    у вас столько контента, —
  • 6:11 - 6:15
    это результат того, что миллионы людей
    по всему миру
  • 6:15 - 6:18
    оказались на гладиаторской арене,
    чтобы сражаться друг с другом
  • 6:18 - 6:20
    за подписчиков и внимание?
  • 6:20 - 6:24
    С точки зрения тех,
    кто только читает Твиттер,
  • 6:24 - 6:25
    это не проблема,
  • 6:25 - 6:29
    но все те, кто его создают,
    те кто пишут, говорят:
  • 6:29 - 6:32
    «Знаешь, вот бы мне ещё больше "лайков",
    подписчиков, "ретвитов"».
  • 6:32 - 6:34
    Так что они постоянно экспериментируют,
  • 6:34 - 6:36
    пытаясь найти новые пути добиться этого.
  • 6:36 - 6:40
    И всем нам стало ясно,
    что самый верный способ —
  • 6:40 - 6:44
    устроить какую-то провокацию
  • 6:44 - 6:47
    и быть нахалом, и при этом
    отличаться красноречием,
  • 6:47 - 6:50
    ведь красноречивые оскорбления —
    мечта Твиттера,
  • 6:50 - 6:53
    где вы моментально с кем-то сцепляетесь
  • 6:53 - 6:57
    и начинается такая перепалка,
    которая сам себя разжигает.
  • 6:57 - 7:00
    Как разрядить такую обстановку?
  • 7:01 - 7:04
    ДД: Да, прямо в точку,
  • 7:04 - 7:05
    но это о тех же стимулах.
  • 7:06 - 7:08
    Одним из решений, которые мы
    приняли на начальном этапе,
  • 7:08 - 7:13
    было показывать количество
    ваших подписчиков.
  • 7:13 - 7:16
    Мы решили выделить эту цифру
    крупным жирным шрифтом,
  • 7:16 - 7:20
    а всё написанное крупным
    жирным шрифтом и есть самое важное
  • 7:20 - 7:22
    и как раз то, что вы хотите продвигать.
  • 7:22 - 7:24
    Было ли это верным решением тогда?
  • 7:24 - 7:25
    Скорее всего, нет.
  • 7:25 - 7:27
    Если бы я запускал этот сервис снова,
  • 7:27 - 7:29
    я бы не стал так сильно выделять
    число подписчиков.
  • 7:29 - 7:32
    Я бы не стал так сильно выделять
    количество «лайков».
  • 7:32 - 7:35
    Мне кажется, прежде всего, я бы даже
    не создал сами «лайки»,
  • 7:35 - 7:38
    потому что на самом деле
    они не продвигают то,
  • 7:38 - 7:41
    что мы считаем самым важным сейчас,
  • 7:41 - 7:44
    то есть здоровый вклад в жизнь сети
  • 7:44 - 7:47
    и диалог в сети,
  • 7:47 - 7:49
    участие в диалоге,
  • 7:49 - 7:52
    возможность научиться чему-то
    через этот диалог.
  • 7:52 - 7:54
    Это не то, о чём мы думали 13 лет назад,
  • 7:54 - 7:57
    но как раз то, что чрезвычайно
    важно сегодня.
  • 7:57 - 8:00
    Так что нам нужно пересмотреть,
    как отображать число подписчиков,
  • 8:00 - 8:02
    как показывать число «ретвитов»,
  • 8:02 - 8:04
    как показывать «лайки»,
  • 8:04 - 8:06
    и задать один серьёзный вопрос:
  • 8:06 - 8:09
    действительно ли это то число,
    которое мы хотим продвигать?
  • 8:09 - 8:12
    Действительно ли это то, о чём вы думаете:
  • 8:12 - 8:14
    «вот чего мне нужно больше»,
    когда открываете Твиттер?
  • 8:14 - 8:16
    И я не думаю, что это так.
  • 8:16 - 8:19
    (Аплодисменты)
  • 8:19 - 8:21
    УПР: Мне кажется,
    пора посмотреть на твиты,
  • 8:21 - 8:23
    которые приходят от зрителей.
  • 8:24 - 8:26
    КА: Давайте-ка взглянем,
    о чём вы спрашиваете.
  • 8:26 - 8:30
    Твиттер тем и замечателен,
  • 8:30 - 8:32
    что он помогает нам использовать
    мудрость толпы,
  • 8:32 - 8:37
    то есть больше знаний, больше вопросов,
    больше точек зрения,
  • 8:37 - 8:38
    чем вы можете представить,
  • 8:38 - 8:42
    и порой многие из них очень здравы.
  • 8:42 - 8:45
    УПР: Я сейчас увидела один твит —
    он уже убежал вниз:
  • 8:45 - 8:48
    «Твиттер планирует бороться с иностранным
    вмешательством в выборы в США в 2020?»
  • 8:48 - 8:51
    Мне кажется, это часть проблемы,
    которая существует
  • 8:51 - 8:53
    в интернете вцелом:
  • 8:53 - 8:56
    происходит много вредоносной
    автоматизированной деятельности.
  • 8:56 - 9:02
    У нас есть подборка данных с Твиттера,
  • 9:02 - 9:05
    от наших друзей в Zignal Labs,
  • 9:05 - 9:07
    и возможно, мы даже увидим,
    чтобы у нас был пример,
  • 9:07 - 9:09
    о чём конкретно я говорю,
  • 9:09 - 9:12
    о так называемых ботах,
  • 9:13 - 9:17
    или координированной автоматизированной
    вредоносной деятельности аккаунтов,
  • 9:17 - 9:20
    которую используют для влияния
    на такие события, как выборы.
  • 9:20 - 9:24
    И в этом примере от Zignal,
    которым они поделились с нами,
  • 9:24 - 9:26
    используются данные Твиттера,
  • 9:26 - 9:28
    и вы можете увидеть, что в этом случае
  • 9:28 - 9:33
    белый — это аккаунты людей,
    где каждая точка — один аккаунт.
  • 9:33 - 9:34
    Чем розовее точка, тем более
  • 9:34 - 9:36
    автоматизированы действия.
  • 9:36 - 9:42
    И здесь также видно
    взаимодействие людей и ботов.
  • 9:42 - 9:46
    В этом случае речь о выборах в Израиле
  • 9:46 - 9:49
    и распространении
    дезинформации о Бени Ганц,
  • 9:49 - 9:52
    и, как мы знаем, в конце концов,
    это были выборы,
  • 9:52 - 9:56
    которые Нетаньяху выиграл
    с очень малым перевесом,
  • 9:56 - 9:59
    и в некотором роде как раз этот процесс
    и мог повлиять.
  • 9:59 - 10:01
    И думая о том, что такие вещи
    происходят на Твиттере,
  • 10:01 - 10:04
    какие именно действия
    вы предпринимаете для того,
  • 10:04 - 10:07
    чтобы предотвратить распространение
    ложной информации этим путём
  • 10:07 - 10:12
    и не позволить ей поставить
    под угрозу демократию?
  • 10:12 - 10:13
    ДД: Я немного вернусь назад.
  • 10:13 - 10:16
    Мы спрашивали себя:
  • 10:16 - 10:20
    можем ли мы в действительности
    измерить здоровье диалога,
  • 10:20 - 10:22
    и что это значит?
  • 10:22 - 10:25
    Точно так же, как существуют показатели
  • 10:25 - 10:28
    здоровья нашего организма,
  • 10:28 - 10:33
    такие, как температура и цвет лица,
  • 10:33 - 10:38
    мы считаем, что можно найти показатели
    состояния здоровья диалога.
  • 10:38 - 10:42
    Мы сотрудничали
    с лабораторией Cortico в МТИ,
  • 10:42 - 10:49
    чтобы предложить четыре
    начальных индикатора,
  • 10:49 - 10:52
    которые, по нашему мнению, мы могли бы
    применить к этой системе.
  • 10:53 - 10:59
    Первый из них мы называем
    совместным вниманием.
  • 10:59 - 11:02
    Это измерение того, какая часть диалога
    проявляет внимание к какой-то теме
  • 11:02 - 11:05
    в соотношении с разрозненностью.
  • 11:06 - 11:09
    Второй называется совместной реальностью,
  • 11:09 - 11:11
    он показывает, какой процент диалога
  • 11:12 - 11:14
    имеет одни и те же факты —
  • 11:14 - 11:17
    и дело не в том, достоверны они или нет,
  • 11:17 - 11:20
    а в том, разделяем ли мы
    те же факты, как участники диалога?
  • 11:20 - 11:23
    Третий — благожелательность:
  • 11:23 - 11:27
    какая часть диалога благожелательна
    или конструктивна,
  • 11:27 - 11:30
    и наоборот — пагубна?
  • 11:30 - 11:33
    Четвёртый показатель —
    это разнообразие точек зрения.
  • 11:33 - 11:37
    Что мы видим на самом деле —
    пузыри фильтров
  • 11:37 - 11:40
    и эхо-камеры, или же
    настоящее многообразие мнений
  • 11:40 - 11:41
    внутри диалога?
  • 11:41 - 11:45
    Эти четыре показателя подразумевают,
  • 11:45 - 11:49
    что с их увеличением диалог
    становится более и более здоровым.
  • 11:49 - 11:54
    Так что наш первый шаг — понять,
    возможно ли измерить их онлайн,
  • 11:54 - 11:55
    и мы считаем, что возможно.
  • 11:55 - 11:58
    Наш основной интерес —
    это доброжелательность.
  • 11:58 - 12:03
    У нас есть оценка токсичности,
    модель токсичности в нашей системе,
  • 12:03 - 12:07
    которая способна измерить,
    насколько вероятно, что вы уйдёте
  • 12:07 - 12:09
    от переписки на Твиттере,
  • 12:09 - 12:11
    потому что вам кажется,
  • 12:11 - 12:13
    что она в высокой степени токсична.
  • 12:14 - 12:17
    Мы работаем над возможностью
    других измерений,
  • 12:17 - 12:19
    и наш следующий шаг,
  • 12:19 - 12:22
    по мере того, как мы находим решения, —
  • 12:22 - 12:25
    это наблюдать за тем, как эти измерения
    развиваются с течением времени,
  • 12:25 - 12:27
    и продолжать экспериментировать.
  • 12:27 - 12:31
    Наша цель — убедиться,
    что они находятся в равновесии,
  • 12:31 - 12:35
    потому что если увеличить одно,
    уменьшится и другое.
  • 12:35 - 12:37
    Если увеличить количество
    различных взглядов,
  • 12:37 - 12:40
    можно в действительности уменьшить
    общую для группы реальность.
  • 12:40 - 12:45
    КА: Я просто выбираю пару вопросов
    из всего этого потока.
  • 12:45 - 12:46
    ДД: Бесконечные вопросы.
  • 12:47 - 12:51
    КА: Многих интересует,
  • 12:51 - 12:55
    насколько сложно избавиться
    от нацистов на Твиттере?
  • 12:56 - 12:58
    ДД: (Cмех)
  • 12:58 - 13:05
    У нас есть политика касательно
    воинствующих экстремистских группировок,
  • 13:05 - 13:09
    и бóльшая часть нашей работы
    и наших условий использования
  • 13:09 - 13:13
    основана на поведении, а не на контенте.
  • 13:13 - 13:15
    Так что в действительности
    мы смотрим на поведение.
  • 13:15 - 13:18
    Под поведением здесь имеется в виду
    использование сервиса
  • 13:18 - 13:22
    для повторных или эпизодических
    нападок на кого-либо,
  • 13:22 - 13:25
    с использованием выражений,
    разжигающих ненависть,
  • 13:25 - 13:27
    связанных, например, с Ку-клукс-кланом
  • 13:27 - 13:30
    или Американской нацистской партией.
  • 13:30 - 13:34
    Всё это мы пресекаем немедленно.
  • 13:35 - 13:40
    Сейчас дела обстоят так, что этот термин
    используется довольно свободно,
  • 13:40 - 13:46
    и мы не можем взять каждое
    упоминание этого слова
  • 13:46 - 13:48
    для обвинения кого-либо,
  • 13:48 - 13:52
    как фактический показатель того,
    что их нужно удалить с платформы.
  • 13:52 - 13:54
    Множество наших моделей
    интересуются прежде всего тем,
  • 13:54 - 13:58
    связан ли аккаунт с воинствующими
    экстремистскими группировками?
  • 13:58 - 14:00
    Если да, то мы можем принять меры.
  • 14:00 - 14:03
    Так мы и поступили с ККК, Американской
    нацистской партией и c другими.
  • 14:03 - 14:08
    Второй пункт: используется ли
    образная речь или поведение,
  • 14:08 - 14:10
    которое бы указывало ни их связь?
  • 14:10 - 14:13
    КА: Сколько человек работает
    над модерацией контента,
  • 14:13 - 14:15
    чтобы за этим следить?
  • 14:15 - 14:16
    ДД: По-разному.
  • 14:16 - 14:18
    Мы хотим иметь гибкий подход,
  • 14:18 - 14:20
    потому что для нас важно,
    что мы, в первую очередь,
  • 14:20 - 14:25
    создаём алгоритмы вместо того, чтобы
    нанимать огромное количество человек,
  • 14:25 - 14:28
    потому что нам нужно знать,
    что это масштабируемый процесс,
  • 14:28 - 14:31
    и человеческих сил
    не хватит для работы в таких масштабах.
  • 14:31 - 14:38
    Именно поэтому мы уделили столько внимания
    проактивному распознаванию оскорблений,
  • 14:38 - 14:39
    которые потом проверяет человек.
  • 14:39 - 14:42
    Мы хотим добиться того,
  • 14:42 - 14:46
    чтобы алгоритмы непрестанно
    просматривали каждый твит
  • 14:46 - 14:48
    и выносили самые интересные
    на поверхность,
  • 14:48 - 14:52
    чтобы люди могли решить,
    нужно ли принимать меры
  • 14:52 - 14:54
    по нашим правилам пользования.
  • 14:54 - 14:57
    УПР: Нет такого масштабного
    количества человек,
  • 14:57 - 15:00
    но сколько у вас есть на данный момент
    для наблюдения за этими аккаунтами?
  • 15:00 - 15:03
    и как вы понимаете, сколько достаточно?
  • 15:03 - 15:05
    ДД: Это гибкое число.
  • 15:05 - 15:08
    Иной раз нам нужны люди
    для работы над спамом.
  • 15:08 - 15:12
    Иногда — для домогательств,
    угроз и оскорблений.
  • 15:12 - 15:15
    Мы постараемся достичь гибкости
    в работе нашего персонала,
  • 15:15 - 15:17
    чтобы задействовать их
    для самых важных задач.
  • 15:17 - 15:18
    Иногда — для выборов.
  • 15:19 - 15:23
    У нас был ряд выборов в Мексике,
    будут выборы в Индии,
  • 15:23 - 15:28
    само собой, выборы в прошлом году,
    промежуточные выборы —
  • 15:28 - 15:30
    мы хотим чтобы наш персонал
    мог подстраиваться.
  • 15:30 - 15:33
    Так что когда люди —
  • 15:33 - 15:39
    к примеру, если вы сейчас зайдёте на
    наши действующие условия использования
  • 15:39 - 15:41
    и прокрутите страницу вверх,
  • 15:41 - 15:44
    и вы смотрите, нарушают ли правила
    использования оскорбления и травля,
  • 15:44 - 15:48
    которым вы подверглись,
    для того чтобы сообщить об этом, —
  • 15:48 - 15:51
    первое, что вы увидите,
    открыв эту страницу,
  • 15:51 - 15:54
    будет информация о защите
    интеллектуальной собственности.
  • 15:55 - 16:00
    Вы прокручиваете вниз и увидите
    жестокое обращение, домогательства
  • 16:00 - 16:02
    и всё остальное,
    с чем вы могли бы столкнуться.
  • 16:02 - 16:05
    И я не знаю, как так произошло
    за историю компании,
  • 16:05 - 16:10
    но мы поместили именно это перед тем,
  • 16:12 - 16:15
    о чём людям действительно нужно
    больше информации и где нужно действие.
  • 16:15 - 16:21
    И такой порядок говорит о том,
    что мы считали тогда самым важным.
  • 16:21 - 16:24
    Так что сейчас мы это меняем.
  • 16:24 - 16:25
    Мы наводим порядок
  • 16:25 - 16:29
    и упрощаем правила, чтобы людям
    было удобнее их читать,
  • 16:29 - 16:33
    чтобы люди могли сами понять,
  • 16:33 - 16:36
    когда что-то нарушает наши правила,
    а когда — нет.
  • 16:36 - 16:38
    Также мы делаем...
  • 16:38 - 16:44
    опять же, наша задача — это избавить
    от работы тех, кто стал жертвой.
  • 16:44 - 16:47
    А это значит переложить работу
  • 16:47 - 16:49
    с людей на технологии,
  • 16:49 - 16:52
    то есть с тех, кто подвергся жестокости,
  • 16:52 - 16:55
    и тех, кому приходится это проверять.
  • 16:55 - 16:56
    Так что мы хотим убедиться,
  • 16:56 - 16:59
    что мы не просто
    призываем к большему труду
  • 16:59 - 17:02
    над чем-то очень, очень неприятным,
  • 17:02 - 17:05
    а хотим добиться равновесия
    между технологиями
  • 17:05 - 17:08
    и тем, где человек может проявлять
    творческий подход,
  • 17:08 - 17:11
    то есть в оценке правил,
  • 17:11 - 17:14
    а не в механической работе
    по поиску и сообщениям о нарушениях.
  • 17:14 - 17:15
    Вот наши мысли на этот счёт.
  • 17:15 - 17:18
    КА: Давайте углубимся в то,
    о чём вы сейчас сказали.
  • 17:18 - 17:21
    Здорово, что вы ищете способы
  • 17:21 - 17:24
    поправить основные принципы
    работы этой системы,
  • 17:24 - 17:29
    чтобы менее способствовать
    негативным реакциям, и, возможно,
  • 17:29 - 17:32
    используя терминологию Тристана Харриса,
  • 17:32 - 17:36
    сильнее задействовать рефлексивное
    мышление людей.
  • 17:36 - 17:38
    Насколько это возможно?
  • 17:38 - 17:42
    Какими бы могли быть
    альтернативы кнопки «лайк»?
  • 17:44 - 17:47
    ДД: Прежде всего,
  • 17:47 - 17:53
    лично я глубоко убеждён,
    что для нашего сервиса
  • 17:53 - 17:56
    критически важен общественный диалог.
  • 17:56 - 17:58
    Мир столкнулся с жизненно
    важными проблемами,
  • 17:58 - 18:02
    которые касаются всех, а не одного
    отдельного национального государства,
  • 18:02 - 18:05
    которому приносит пользу
    общественный диалог.
  • 18:05 - 18:08
    Твиттер уникален тем,
  • 18:08 - 18:09
    что он полностью открытый,
  • 18:09 - 18:11
    полностью общественный,
  • 18:11 - 18:12
    полностью податливый,
  • 18:12 - 18:16
    и каждый может читать
    и принять участие в любой дискуссии.
  • 18:16 - 18:19
    Там обсуждают изменение климата,
  • 18:19 - 18:21
    там обсуждают темы, такие,
    как потеря рабочих мест
  • 18:21 - 18:23
    и замещение искусственным интеллектом.
  • 18:23 - 18:26
    Там обсуждают экономическое
    неравенство и так далее.
  • 18:26 - 18:29
    Неважно, что предпринимает
    какое-либо государство,
  • 18:29 - 18:32
    они не справятся с этими
    проблемами самостоятельно.
  • 18:32 - 18:34
    Необходимо объединить усилия всего мира,
  • 18:34 - 18:37
    и как раз здесь Твиттер
    может сыграть свою роль.
  • 18:37 - 18:43
    Второе — если вы сейчас
    зайдёте на Твиттер,
  • 18:43 - 18:47
    вы не обязательно уйдёте с ощущением,
    что вы узнали что-то новое и полезное.
  • 18:47 - 18:48
    Хотя кому-то удаётся.
  • 18:48 - 18:51
    У некоторых людей очень
    и очень богатая сеть,
  • 18:51 - 18:54
    большое сообщество, откуда они могут
    ежедневно черпать знания.
  • 18:54 - 18:58
    Однако, нужно проделать много работы
    и отдать много времени на его создание.
  • 18:58 - 19:02
    Мы хотим сделать так, чтобы люди
    смогли попасть в такие беседы
  • 19:02 - 19:03
    намного быстрее
  • 19:03 - 19:06
    и чтобы они могли найти что-то, что...
  • 19:07 - 19:09
    независимо от времени,
    проводённом на Твиттере, —
  • 19:09 - 19:11
    и я не хочу увеличивать время на Твиттере,
  • 19:11 - 19:14
    я хочу увеличить его отдачу.
  • 19:14 - 19:16
    И сколько нового узнают люди, и...
  • 19:18 - 19:19
    КА: Но так ли это?
  • 19:19 - 19:22
    Ведь это и есть главный вопрос,
    который интересует очень многих.
  • 19:22 - 19:26
    Само собой, Джек, вас во многом
    сдерживает то,
  • 19:26 - 19:28
    что вы публичная компания,
  • 19:28 - 19:30
    и на вас давят инвесторы,
  • 19:30 - 19:33
    и ваша прибыль, прежде всего,
    поступает от рекламы —
  • 19:33 - 19:36
    и это зависит от участия пользователей.
  • 19:36 - 19:41
    Готовы ли вы пожертвовать
    временем пользователей, если будет нужно,
  • 19:41 - 19:45
    ради более осмысленного диалога?
  • 19:45 - 19:48
    ДД: Да, чем релевантнее контент,
    тем меньше времени на платформе,
  • 19:48 - 19:50
    и это совершенно нормально,
  • 19:50 - 19:53
    потому что мы хотим сделать так,
    чтобы вы заходили на Твиттер
  • 19:53 - 19:57
    и сразу видели что-то новое
    и важное для вас.
  • 19:57 - 20:01
    Мы всё ещё можем показать рекламу.
  • 20:01 - 20:04
    Но видеть больше не значит
    тратить больше времени.
  • 20:04 - 20:05
    Второе, на что мы смотрим...
  • 20:05 - 20:08
    КА: Минутку... насчёт цели
    активно проведённого времени,
  • 20:08 - 20:11
    если вы его измеряете,
    это ещё не значит, что это то,
  • 20:11 - 20:13
    которые люди высоко ценят.
  • 20:13 - 20:14
    Это может быть и тем,
  • 20:14 - 20:18
    на что люди ежедневно слетаются,
    как мотыльки на огонь.
  • 20:18 - 20:21
    Мы зависимы, так как каждый день
    мы видим что-то, что нас бесит,
  • 20:21 - 20:24
    и продолжаем подливать масла в огонь,
  • 20:24 - 20:26
    число активных пользователей
    в день растёт
  • 20:26 - 20:28
    и реклама приносит больше дохода,
  • 20:28 - 20:30
    но мы всё больше злимся друг на друга.
  • 20:30 - 20:33
    Как вы определяете...
  • 20:33 - 20:37
    «Ежедневные активные пользователи» звучит
    как очень опасный критерий оптимизации.
  • 20:37 - 20:42
    (Аплодисменты)
  • 20:42 - 20:43
    ДД: Да, отдельно взятое,
  • 20:44 - 20:46
    но вы не дали мне закончить
    с другим показателем,
  • 20:46 - 20:50
    мы следим за диалогами
  • 20:50 - 20:52
    и цепочками диалогов.
  • 20:52 - 20:57
    Мы хотим стимулировать
    здоровый вклад в сеть,
  • 20:57 - 21:01
    а это, по нашему мнению, —
    участие в диалоге,
  • 21:01 - 21:02
    который нетоксичен
  • 21:02 - 21:07
    согласно четырем индикаторам,
    о которых я вам рассказал.
  • 21:07 - 21:10
    Нельзя оптимизировать по одному параметру.
  • 21:10 - 21:13
    Нужно постоянно совмещать
    и смотреть на то, что
  • 21:13 - 21:17
    на самом деле принесёт
    здоровый вклад в сеть
  • 21:17 - 21:19
    и здоровое общение людям.
  • 21:19 - 21:21
    Наша цель — получить такой показатель,
  • 21:21 - 21:25
    чтобы люди смогли бы сказать нам:
    «Твиттер научил меня чему-то,
  • 21:25 - 21:27
    и я унесу нечто ценное с собой».
  • 21:27 - 21:29
    Это наша долгосрочная цель,
  • 21:29 - 21:31
    и чтобы прийти к ней, нужно время.
  • 21:31 - 21:36
    КА: Мне кажется, что для многих,
    и для меня, вы — человек-загадка.
  • 21:36 - 21:41
    Возможно, это несправедливо,
    но как-то ночью я проснулся,
  • 21:41 - 21:45
    поймав себя на том, что я думал о вас
    и об этой ситуации, как будто
  • 21:45 - 21:52
    мы отправились в большое путешествие
    на корабле под названием «Твиттаник»,
  • 21:52 - 21:53
    (Смех)
  • 21:53 - 21:57
    и пассажиры в третьем классе
  • 21:57 - 22:00
    беспокоятся,
  • 22:00 - 22:02
    и вы, в отличие от других капитанов,
  • 22:02 - 22:06
    говорите: «Давайте, говорите со мной,
    послушайте меня, я хочу услышать».
  • 22:06 - 22:09
    И они говорят вам: «Нас тревожит
    айсберг перед нами».
  • 22:09 - 22:11
    А вы отвечаете:
    «Знаете, это неоспоримый факт,
  • 22:11 - 22:14
    и наш корабль, по правде,
    построен не очень качественно
  • 22:14 - 22:16
    чтобы вырулить так, как хотелось бы».
  • 22:16 - 22:17
    Мы просим: «Сделайте что-нибудь».
  • 22:17 - 22:19
    И вы идёте на мостик,
  • 22:19 - 22:21
    пока мы ждём
  • 22:21 - 22:26
    и смотрим, а вы держитесь
    необычайно спокойно,
  • 22:26 - 22:30
    но мы все стоим снаружи, говоря:
    «Джек, поверни же чёртов штурвал!»
  • 22:30 - 22:31
    Представляете?
  • 22:31 - 22:32
    (Смех)
  • 22:32 - 22:34
    (Аплодисменты)
  • 22:34 - 22:36
    Я к тому, что...
  • 22:36 - 22:37
    (Аплодисменты)
  • 22:37 - 22:42
    На карту поставлена демократия.
  • 22:42 - 22:45
    На карту поставлена наша культура.
    На карту поставлен наш мир.
  • 22:45 - 22:50
    Твиттер потрясающий, он влияет на многое.
  • 22:50 - 22:52
    Он не такой большой, как некоторые
    другие платформы,
  • 22:52 - 22:55
    но влиятельные люди пользуются им,
    чтобы задать приоритеты,
  • 22:55 - 23:01
    и трудно себе представить более
    важную роль в мире, чем...
  • 23:02 - 23:05
    Я хочу сказать, что вам здорово
    удаётся слушать и слышать людей,
  • 23:05 - 23:10
    но по-настоящему оценить
    срочность и сдвинуть всё с места...
  • 23:10 - 23:12
    вы сделаете это?
  • 23:13 - 23:17
    ДД: Да, и мы серьёзно продвигаемся.
  • 23:17 - 23:20
    Было несколько изменений
    в истории Твиттера.
  • 23:20 - 23:22
    Первое — когда я вернулся в компанию,
  • 23:23 - 23:30
    мы находились в довольно тяжёлом положении
    в отношении нашего будущего
  • 23:30 - 23:34
    не просто от того, как люди
    пользовались платформой,
  • 23:34 - 23:36
    но и из-за нашей корпоративной риторики.
  • 23:36 - 23:40
    Так что нам пришлось поправить
    несколько основных деталей,
  • 23:40 - 23:42
    развернуть компанию,
  • 23:42 - 23:45
    пережить два безумных периода увольнений,
  • 23:45 - 23:49
    потому что мы слишком разрослись
    для того, чем мы занимались,
  • 23:49 - 23:51
    и мы направили все свои силы
  • 23:51 - 23:54
    на службу общественному диалогу.
  • 23:54 - 23:56
    Нам пришлось потрудиться.
  • 23:56 - 23:58
    Как только мы погрузились в дело,
  • 23:58 - 24:01
    мы осознали некоторые проблемы
    с основными принципами.
  • 24:02 - 24:07
    Мы могли бы принять много поверхностных
    действий, чтобы повлиять на происходящее,
  • 24:07 - 24:09
    но важно, чтобы изменения удержались,
  • 24:09 - 24:11
    а это значит, что нам нужно
    копнуть очень глубоко
  • 24:11 - 24:15
    и быть внимательными к тому,
    что мы начали 13 лет назад,
  • 24:15 - 24:18
    и действительно спрашивать себя,
  • 24:18 - 24:20
    как работает система, как работает
    основная концепция,
  • 24:20 - 24:24
    и что нужно миру сегодня,
  • 24:24 - 24:28
    учитывая то, как быстро всё меняется
    и как люди этим пользуются.
  • 24:28 - 24:35
    Мы работаем так быстро, как можем,
    но скорость не решит все вопросы.
  • 24:35 - 24:37
    Нужен фокус, расстановка приоритетов,
  • 24:37 - 24:40
    понимание основ сети
  • 24:40 - 24:43
    и создание масштабируемой схемы,
  • 24:43 - 24:46
    устойчивой к переменам;
  • 24:46 - 24:51
    открытость о наших действиях
    и принцип прозрачности,
  • 24:51 - 24:53
    чтобы мы могли заслуживать
    доверия и дальше.
  • 24:54 - 24:57
    Так что я горжусь тем, что мы создали.
  • 24:57 - 25:00
    Я горжусь нашим направлением.
  • 25:01 - 25:04
    Само собой, мы можем двигаться быстрее,
  • 25:04 - 25:08
    но для этого нужно остановить те глупости,
    которые мы сделали в прошлом.
  • 25:09 - 25:10
    КА: Хорошо.
  • 25:10 - 25:14
    Наверняка здесь много тех, кто бы
    очень хотел, будь у них возможность,
  • 25:14 - 25:18
    помочь вам с этой темой перемен,
  • 25:18 - 25:20
    и я не знаю насчёт Уитни...
  • 25:20 - 25:23
    Джек, спасибо, что пришли и что
    вы так открыто говорили.
  • 25:23 - 25:24
    Это смело.
  • 25:24 - 25:28
    Я очень признателен за этот разговор
    и желаю удачи в вашей миссии.
  • 25:28 - 25:30
    ДД: Большое спасибо.
    Спасибо за приглашение.
  • 25:30 - 25:33
    (Aплодисменты)
  • 25:33 - 25:34
    Спасибо.
Title:
Как должен измениться Твиттер
Speaker:
Джек Дорси
Description:

Можно ли спасти Твиттер? В разговоре, охватывающем широкий круг тем, Крис Андерсон и Уитни Пеннингтон Роджерс из TED обсуждают будущее платформы с Генеральным директором Твиттера Джеком Дорси, уделяя внимание проблеме оскорбительного поведения и модерации контента и предлагая несколько фундаментальных изменений, которые могли бы помочь в создании здорового диалога. «Действительно ли мы приносим людям нечто ценное каждый день?» — спрашивает Джек Дорси.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47
Retired user approved Russian subtitles for How Twitter needs to change
Retired user edited Russian subtitles for How Twitter needs to change
Retired user accepted Russian subtitles for How Twitter needs to change
Retired user edited Russian subtitles for How Twitter needs to change
Retired user edited Russian subtitles for How Twitter needs to change
Tatiana Lebedeva edited Russian subtitles for How Twitter needs to change
Tatiana Lebedeva edited Russian subtitles for How Twitter needs to change
Tatiana Lebedeva edited Russian subtitles for How Twitter needs to change
Show all

Russian subtitles

Revisions