Return to Video

Неведомый потенциал открытых данных | Фреди Вивас | TEDxRosario

  • 0:00 - 0:20
    Был конец 2016 года.
  • 0:20 - 0:23
    Не знаю как вы, а я тогда ждал вот этого.
  • 0:23 - 0:26
    Это классный фильм «Доктор Стрэнж»,
    всем советую посмотреть.
  • 0:26 - 0:28
    Но дело в том, что большинство людей
  • 0:28 - 0:30
    ожидали того, что же произойдёт в США.
  • 0:31 - 0:33
    Это было время президентских выборов,
  • 0:33 - 0:39
    и данные о потенциальных избирателях
    выглядели следующим образом:
  • 0:39 - 0:43
    71% за Хиллари Клинтон,
    остальные — за Дональда Трампа.
  • 0:43 - 0:45
    Казалось, что Клинтон победит,
  • 0:45 - 0:46
    но случилось иначе.
  • 0:46 - 0:48
    Всем известно, что победил Трамп.
  • 0:48 - 0:51
    Жизнь не остановилась,
    и в апреле этого года
  • 0:52 - 0:55
    я ждал ещё одной новости.
  • 0:55 - 0:58
    НАСА работала над необычным проектом
  • 0:58 - 1:01
    по созданию самолёта, бесшумно
    преодолевающего звуковой барьер.
  • 1:01 - 1:03
    И тут мне говорят:
  • 1:03 - 1:07
    «А ты знаешь, что Марка Цукерберга
    вызывают в Сенат для объяснения,
  • 1:07 - 1:10
    как произошла утечка данных,
  • 1:10 - 1:13
    благодаря которой
    Трамп победил на выборах».
  • 1:13 - 1:16
    Это казалось немного странным,
    но было правдой.
  • 1:18 - 1:22
    Кстати, этого персонажа «Звёздного пути»
    зовут Дейта [англ: данные]...
  • 1:23 - 1:27
    Фейсбук — это корпорация-гигант,
    имеющая огромное влияние
  • 1:27 - 1:29
    на процесс циркулирования данных
    и на наше поведение.
  • 1:29 - 1:34
    В добавок к вопросу
    о конфиденциальности информации
  • 1:34 - 1:38
    на всех ток-шоу Мирты Легранд
    говорили об утечке данных.
  • 1:39 - 1:41
    Такого ещё не бывало.
  • 1:41 - 1:44
    Люди начали задаваться вопросом:
    «Что же произошло?»
  • 1:44 - 1:48
    Психологи говорят,
    что человеческая личность —
  • 1:48 - 1:52
    это комбинация наших мыслей,
    чувств и действий.
  • 1:52 - 1:56
    И с каждым кликом мышки,
    Фейсбук узнаёт о нас всё больше.
  • 1:57 - 2:01
    Рассылать рекламу в соответствии
    с нашей личностью противозаконно.
  • 2:01 - 2:05
    Однако рассылка рекламы
    в соответствии с нашими интересами
  • 2:05 - 2:07
    законом не воспрещается.
  • 2:07 - 2:10
    Если мы лайкаем какой-нибудь фильм
    или подписываемся на актёра, например.
  • 2:11 - 2:15
    Представьте, если бы можно было
    создавать подобную рекламу по-другому.
  • 2:15 - 2:18
    Существует фирма Cambridge Analytica,
  • 2:18 - 2:20
    специализирующаяся на анализе данных
  • 2:20 - 2:23
    для различных политических кампаний,
  • 2:23 - 2:26
    и эта фирма создала алгоритм,
    воссоздающий личности человека
  • 2:26 - 2:28
    по данным Фейсбука.
  • 2:28 - 2:31
    По мнению экспертов,
    алгоритм довольно действенен.
  • 2:31 - 2:34
    После десяти лайков на Фейсбуке
  • 2:34 - 2:37
    программа знает о вас больше,
    чем ваши коллеги,
  • 2:38 - 2:41
    после 150 лайков вас знают
    лучше, чем ваши родители,
  • 2:41 - 2:44
    а после 300 — лучше, чем ваш партнёр.
  • 2:44 - 2:47
    В этот раз Фейсбуком было принято
    действительно плохое решение
  • 2:47 - 2:50
    об использовании личных
    данных пользователей.
  • 2:50 - 2:52
    Их использовали для того,
  • 2:52 - 2:56
    чего никто не предвидел, так?
  • 2:56 - 2:59
    Мы знали, что наши данные
    могут быть использованы,
  • 2:59 - 3:03
    но никто и не думал, что их
    могут использовать подобным образом.
  • 3:03 - 3:05
    Немного страшно думать,
  • 3:05 - 3:08
    что были использованы наши
    самые сокровенные эмоции
  • 3:08 - 3:12
    для достижения того,
    чего никто не ожидал.
  • 3:13 - 3:16
    Приведу реальный пример:
  • 3:17 - 3:22
    в кампании Дональда Трампа
    делался упор на поддержку вооружения
  • 3:22 - 3:23
    и ношения оружия.
  • 3:23 - 3:26
    Теперь представьте, что использовалась
    психологическая модель,
  • 3:26 - 3:30
    называемая «Большая пятёрка»,
  • 3:30 - 3:33
    позволяющая определить некоторые черты
    личности, например:
  • 3:33 - 3:38
    симпатизируем ли мы Amigos del Cambio,
    насколько мы экстраверты, доброжелательны,
  • 3:38 - 3:40
    насколько легко вывести нас из себя.
  • 3:40 - 3:43
    По результатам этой «Большой пятёрки»
  • 3:43 - 3:47
    создавались рекламы и посты,
    которые затем показывались
  • 3:47 - 3:48
    на наших новостных лентах.
  • 3:48 - 3:51
    Например, если вы человек,
  • 3:51 - 3:52
    легко переносящий перемены,
  • 3:52 - 3:56
    и если вы чувствуете угрозу со стороны,
  • 3:56 - 4:00
    могла бы быть создана подобная реклама,
    не такая очевидная, конечно,
  • 4:00 - 4:03
    но всё же влияющая на наше подсознание.
  • 4:03 - 4:07
    Следующая реклама направлена
    на человека-защитника,
  • 4:07 - 4:10
    опасающегося, к примеру,
    за семью и будущее.
  • 4:10 - 4:12
    Ему показывалась вот такая реклама.
  • 4:13 - 4:17
    В то время существовали
    две группы людей, так ведь?
  • 4:17 - 4:21
    Одна группа, которая утверждала,
  • 4:22 - 4:26
    что мы сами поведали Фейсбуку
    самую ценную информацию о нашей личности,
  • 4:26 - 4:30
    все самые важные для нас вещи.
  • 4:31 - 4:33
    Другая группа считала,
  • 4:33 - 4:35
    что этого было не избежать,
  • 4:35 - 4:39
    так как Фейсбук — это Большой Брат,
    Скайнет, контролирующий все данные.
  • 4:39 - 4:42
    Я считаю, что истина посередине.
  • 4:42 - 4:45
    Конечно, было очевидно, что Фейсбук
    обладал большим количеством данных
  • 4:45 - 4:48
    и использовал персонализированную
    коммерческую рекламу,
  • 4:48 - 4:51
    но никто не знал, что данные
    использовались для политических целей.
  • 4:52 - 4:56
    Можно ли утверждать, что Трамп
    победил на выборах из-за утечки данных?
  • 4:56 - 4:59
    По мнению компании
    Cambridge Analytica, да,
  • 4:59 - 5:02
    но нельзя определить,
    кто за кого проголосовал
  • 5:02 - 5:05
    под влиянием рекламы.
  • 5:05 - 5:09
    Однако можно утверждать,
    что кампания была далеко не прозрачной
  • 5:09 - 5:12
    и что к контенту, который
    мы публикуем в социальных сетях,
  • 5:12 - 5:13
    нужно относиться серьёзно.
  • 5:13 - 5:15
    Вы, наверняка, пришли к тому же выводу.
  • 5:16 - 5:18
    Говоря о данных, следует отметить,
  • 5:18 - 5:21
    что делиться и публиковать информацию
  • 5:21 - 5:22
    не всегда плохо.
  • 5:22 - 5:26
    В Лондоне, например,
    уже много лет работают
  • 5:26 - 5:28
    над созданием открытого
    доступа к информации,
  • 5:28 - 5:31
    чтобы вовлечь в процесс миллионы людей.
  • 5:31 - 5:33
    Как, например, в случае,
  • 5:33 - 5:36
    когда государство при задержке поезда,
  • 5:36 - 5:37
    что не должно случаться часто,
  • 5:37 - 5:40
    возвращает пассажирам стоимость билета.
  • 5:40 - 5:43
    Никто не требовал возврата,
    деньги не использовались.
  • 5:43 - 5:45
    Затем одного предпринимателя осенило:
  • 5:45 - 5:47
    «А почему бы заставить это работать?»
  • 5:47 - 5:49
    Он взял и создал платформу,
  • 5:49 - 5:52
    где пользователи регистрировали
    данные своих билетов —
  • 5:53 - 5:55
    карты SUBE в Лондоне, к примеру.
  • 5:56 - 5:58
    Они загружали данные в систему,
    и когда поезд задерживался
  • 5:58 - 6:02
    и запланированное время прибытия
    было известно,
  • 6:02 - 6:04
    время посадки сравнивалось
    со временем в системе,
  • 6:04 - 6:07
    и при наличии разницы
    пассажиры получали возмещение.
  • 6:07 - 6:09
    Таким образом, вам платят
    за опоздание поезда.
  • 6:10 - 6:13
    Так предприниматель смог заработать.
  • 6:13 - 6:15
    С одной стороны, он получил выгоду,
  • 6:15 - 6:18
    с другой стороны — сделал что-то
    на пользу общества,
  • 6:18 - 6:19
    конечно.
  • 6:19 - 6:23
    Поезд доволен, так как
    производится проверка в системе
  • 6:23 - 6:25
    и качество работы улучшается
  • 6:25 - 6:28
    благодаря такому контролю.
  • 6:28 - 6:31
    Пассажиры довольны тем,
  • 6:31 - 6:34
    что стоимость билетов возмещается,
  • 6:34 - 6:36
    а сервис улучшается.
  • 6:37 - 6:40
    Сегодня не обязательно
    быть предпринимателем,
  • 6:40 - 6:41
    как тот парень.
  • 6:41 - 6:45
    Не нужно метить в президенты
    или быть владельцем компании,
  • 6:46 - 6:48
    чтобы использовать данные
    для принятия решений.
  • 6:49 - 6:50
    Со мной такое случалось много раз.
  • 6:50 - 6:55
    Когда мне было 12 лет,
    я посмотрел фильм «Военные игры».
  • 6:55 - 6:56
    Вы все молодые
    и вряд ли его видели.
  • 6:56 - 6:59
    Герой фильма, мальчик, был дома,
  • 6:59 - 7:00
    у него не получался какой-то предмет,
  • 7:00 - 7:04
    и с помощью особой технологии
  • 7:04 - 7:06
    он взломал компьютерную сеть
    военного ведомства США.
  • 7:06 - 7:08
    Мне тогда было 12 лет,
  • 7:08 - 7:10
    и я занимался фольклорными танцами.
  • 7:11 - 7:14
    Должен сказать вам по секрету,
  • 7:14 - 7:16
    что танцевал я отвратительно.
  • 7:17 - 7:19
    Однажды я был дома и смотрел этот фильм.
  • 7:19 - 7:20
    Ко мне подошла мама
  • 7:20 - 7:23
    и сказала: «Фреди, я тебя очень люблю,
    но я должна признаться,
  • 7:24 - 7:26
    что тебе не очень даются танцы.
  • 7:26 - 7:31
    Деньги, которые мы платим
    за твои занятия, я отдам тебе,
  • 7:31 - 7:33
    и ты сможешь потратить их на что угодно».
  • 7:33 - 7:36
    Я вытер слёзы,
  • 7:36 - 7:39
    взял себя в руки и ответил:
  • 7:40 - 7:45
    «Мне очень нравится информатика,
    и я хотел бы стать хакером,
  • 7:45 - 7:46
    как этот парень».
  • 7:46 - 7:48
    Я поступил в институт
    компьютерных технологий,
  • 7:48 - 7:53
    где познакомился с удивительными
    технологиями 90-х.
  • 7:55 - 7:58
    Я с головой погружался в игры.
  • 7:59 - 8:02
    Затем я посвятил жизнь
    развитию технологий,
  • 8:03 - 8:05
    изучению, преподаванию
    и работе с технологиями.
  • 8:06 - 8:07
    С тех пор этим я и занимаюсь.
  • 8:07 - 8:11
    Также я ищу новые возможности
    использования технологий,
  • 8:11 - 8:13
    иными словами, занимаюсь хакерством.
  • 8:13 - 8:16
    Говорят, что каждая вещь
    создаётся с определённой целью,
  • 8:16 - 8:18
    но ведь можно найти и иную цель.
  • 8:18 - 8:20
    Как-то раз я был волонтёром —
  • 8:20 - 8:23
    волонтёрство само по себе прекрасно, —
  • 8:23 - 8:27
    я и два моих напарника красили школу.
  • 8:27 - 8:29
    Один из них был физиком,
    а другой — инженером,
  • 8:29 - 8:30
    оба жутко талантливые.
  • 8:31 - 8:34
    Они красили забор и делали это
    отвратительно.
  • 8:34 - 8:37
    Они не умели красить,
    у них получалось неровно,
  • 8:37 - 8:38
    они ссорились из-за цвета.
  • 8:38 - 8:40
    Они красили, но результат был ужасным.
  • 8:40 - 8:41
    Тогда я подумал:
  • 8:42 - 8:46
    «Почему, когда мы работаем на компанию,
    отдаём работе весь наш талант,
  • 8:46 - 8:48
    а когда работаем на благо общества,
  • 8:48 - 8:50
    делаем то, что у нас
    получается хуже всего?»
  • 8:50 - 8:53
    Развивая эту глубокую мысль,
  • 8:54 - 8:56
    в этом году мы разработали проект,
  • 8:56 - 8:59
    привлекая глобальную инициативу,
    называемую «Data for Good».
  • 8:59 - 9:04
    Цель данной кампании — с помощью
    науки и информационных данных
  • 9:04 - 9:08
    положительно повлиять на жизнь людей.
  • 9:08 - 9:11
    Мы создали проект, затронувший
    более трёх миллионов человек,
  • 9:11 - 9:15
    так как на территории Аргентины
    жители примерно 240 000 районов,
  • 9:15 - 9:17
    где проживают люди,
  • 9:17 - 9:21
    не имеющие документов,
    подтверждающих их местожительство.
  • 9:21 - 9:25
    Поэтому они не могут обращаться в службы
    и определить детей в школу.
  • 9:25 - 9:27
    Это происходит по всей стране.
  • 9:27 - 9:31
    Многие организации работали
    в течении примерно двух лет,
  • 9:31 - 9:35
    собирая информацию о каждом доме
  • 9:35 - 9:37
    на всей территории страны.
  • 9:38 - 9:42
    Они собрали большое количество информации
    и создали пункты, куда можно
  • 9:42 - 9:43
    подать документы,
  • 9:43 - 9:45
    чтобы люди, имеющие сертификаты
    могли иметь
  • 9:45 - 9:48
    юридически зарегистрированное жильё.
  • 9:48 - 9:51
    Это было непросто,
    так как страна довольно большая.
  • 9:51 - 9:52
    Как же упростить этот процесс?
  • 9:54 - 9:57
    С использованием информационных данных
    мы создали алгоритм
  • 9:58 - 10:02
    для оптимизации пунктов приёма документов,
    чтобы в каждом районе был такой пункт
  • 10:02 - 10:05
    и людям не приходилось ехать далеко.
  • 10:06 - 10:10
    Это первая семья, получившая сертификат
    на жилище в Сан-Карлос-де-Барилоче,
  • 10:10 - 10:13
    которой удалось провести
    в дом электричество.
  • 10:16 - 10:17
    Спасибо.
  • 10:17 - 10:20
    (Аплодисменты)
  • 10:24 - 10:29
    Мы стремимся к тому, чтобы
    организации в Аргентине
  • 10:29 - 10:33
    имели те же полномочия принимать решения,
  • 10:33 - 10:36
    что имеют компании Силиконовой Долины
  • 10:36 - 10:39
    благодаря анализу данных.
  • 10:39 - 10:42
    Чтобы они могли лучше
    выполнять свои функции.
  • 10:43 - 10:46
    Мы представляем себе будущее,
    где эти компании,
  • 10:46 - 10:48
    сталкиваясь с проблемами,
  • 10:48 - 10:51
    имеют тот же доступ
    к продвинутому анализу данных,
  • 10:51 - 10:53
    что и крупные корпорации.
  • 10:54 - 10:58
    Данные, технология, информация существуют
    для того, чтобы мы их использовали.
  • 10:59 - 11:02
    Каждый из вас может изменить свою жизнь,
  • 11:02 - 11:04
    начать своё дело, добиться изменений,
  • 11:04 - 11:07
    а крупные компании способны изменить мир.
  • 11:07 - 11:09
    А как вы будете использовать информацию?
  • 11:09 - 11:11
    Какие решения примете?
  • 11:11 - 11:12
    Большое спасибо.
  • 11:12 - 11:16
    (Аплодисменты)
Title:
Неведомый потенциал открытых данных | Фреди Вивас | TEDxRosario
Description:

Начиная с рассмотрения работы фирмы Cambridge Analytica, затрагивая тему системы общественного транспорта Лондона, заканчивая упоминанием местной инициативы по рационализации бумажной волокиты, Фреди Вивас раскрывает нам полезный и опасный потенциал открытых данных, а также предлагает нам примириться с теорией цифровой гласности, позволяющей изменить мир в лучшую сторону.
Фреди Вивас — инженер информационных систем, специализирующийся в обработке больших данных, профессор индустриальных дисциплин и выпускник программы «Global Solutions» Университета Сингулярности в Силиконовой Долине, учредителями которого являются NASA и Google.

Читая научно-популярный журнал «Muy Interesante» в возрасте 10 лет, Фреди погрузился в мир науки и технологий. Хотя он никогда не считал себя гением математики, информатика стала для него инструментом достижения позитивного влияния на общество.

Помимо преподавания Фреди также увлекается игрой на ударных и наслаждается музыкой.

На сегодняшний день Фреди Вивас преподает в различных университетах, а также является генеральным директором компании RockingData — стартапа, целю которого является оказание услуг в области даталогии и больших данных.

Это выступление записано на мероприятии TEDx, независимо организованном местным сообществом с использованием формата конференций TED. Узнайте больше на http://ted.com/tedx

more » « less
Video Language:
Spanish
Team:
closed TED
Project:
TEDxTalks
Duration:
11:30

Russian subtitles

Revisions