Неведомый потенциал открытых данных | Фреди Вивас | TEDxRosario
-
0:00 - 0:20Был конец 2016 года.
-
0:20 - 0:23Не знаю как вы, а я тогда ждал вот этого.
-
0:23 - 0:26Это классный фильм «Доктор Стрэнж»,
всем советую посмотреть. -
0:26 - 0:28Но дело в том, что большинство людей
-
0:28 - 0:30ожидали того, что же произойдёт в США.
-
0:31 - 0:33Это было время президентских выборов,
-
0:33 - 0:39и данные о потенциальных избирателях
выглядели следующим образом: -
0:39 - 0:4371% за Хиллари Клинтон,
остальные — за Дональда Трампа. -
0:43 - 0:45Казалось, что Клинтон победит,
-
0:45 - 0:46но случилось иначе.
-
0:46 - 0:48Всем известно, что победил Трамп.
-
0:48 - 0:51Жизнь не остановилась,
и в апреле этого года -
0:52 - 0:55я ждал ещё одной новости.
-
0:55 - 0:58НАСА работала над необычным проектом
-
0:58 - 1:01по созданию самолёта, бесшумно
преодолевающего звуковой барьер. -
1:01 - 1:03И тут мне говорят:
-
1:03 - 1:07«А ты знаешь, что Марка Цукерберга
вызывают в Сенат для объяснения, -
1:07 - 1:10как произошла утечка данных,
-
1:10 - 1:13благодаря которой
Трамп победил на выборах». -
1:13 - 1:16Это казалось немного странным,
но было правдой. -
1:18 - 1:22Кстати, этого персонажа «Звёздного пути»
зовут Дейта [англ: данные]... -
1:23 - 1:27Фейсбук — это корпорация-гигант,
имеющая огромное влияние -
1:27 - 1:29на процесс циркулирования данных
и на наше поведение. -
1:29 - 1:34В добавок к вопросу
о конфиденциальности информации -
1:34 - 1:38на всех ток-шоу Мирты Легранд
говорили об утечке данных. -
1:39 - 1:41Такого ещё не бывало.
-
1:41 - 1:44Люди начали задаваться вопросом:
«Что же произошло?» -
1:44 - 1:48Психологи говорят,
что человеческая личность — -
1:48 - 1:52это комбинация наших мыслей,
чувств и действий. -
1:52 - 1:56И с каждым кликом мышки,
Фейсбук узнаёт о нас всё больше. -
1:57 - 2:01Рассылать рекламу в соответствии
с нашей личностью противозаконно. -
2:01 - 2:05Однако рассылка рекламы
в соответствии с нашими интересами -
2:05 - 2:07законом не воспрещается.
-
2:07 - 2:10Если мы лайкаем какой-нибудь фильм
или подписываемся на актёра, например. -
2:11 - 2:15Представьте, если бы можно было
создавать подобную рекламу по-другому. -
2:15 - 2:18Существует фирма Cambridge Analytica,
-
2:18 - 2:20специализирующаяся на анализе данных
-
2:20 - 2:23для различных политических кампаний,
-
2:23 - 2:26и эта фирма создала алгоритм,
воссоздающий личности человека -
2:26 - 2:28по данным Фейсбука.
-
2:28 - 2:31По мнению экспертов,
алгоритм довольно действенен. -
2:31 - 2:34После десяти лайков на Фейсбуке
-
2:34 - 2:37программа знает о вас больше,
чем ваши коллеги, -
2:38 - 2:41после 150 лайков вас знают
лучше, чем ваши родители, -
2:41 - 2:44а после 300 — лучше, чем ваш партнёр.
-
2:44 - 2:47В этот раз Фейсбуком было принято
действительно плохое решение -
2:47 - 2:50об использовании личных
данных пользователей. -
2:50 - 2:52Их использовали для того,
-
2:52 - 2:56чего никто не предвидел, так?
-
2:56 - 2:59Мы знали, что наши данные
могут быть использованы, -
2:59 - 3:03но никто и не думал, что их
могут использовать подобным образом. -
3:03 - 3:05Немного страшно думать,
-
3:05 - 3:08что были использованы наши
самые сокровенные эмоции -
3:08 - 3:12для достижения того,
чего никто не ожидал. -
3:13 - 3:16Приведу реальный пример:
-
3:17 - 3:22в кампании Дональда Трампа
делался упор на поддержку вооружения -
3:22 - 3:23и ношения оружия.
-
3:23 - 3:26Теперь представьте, что использовалась
психологическая модель, -
3:26 - 3:30называемая «Большая пятёрка»,
-
3:30 - 3:33позволяющая определить некоторые черты
личности, например: -
3:33 - 3:38симпатизируем ли мы Amigos del Cambio,
насколько мы экстраверты, доброжелательны, -
3:38 - 3:40насколько легко вывести нас из себя.
-
3:40 - 3:43По результатам этой «Большой пятёрки»
-
3:43 - 3:47создавались рекламы и посты,
которые затем показывались -
3:47 - 3:48на наших новостных лентах.
-
3:48 - 3:51Например, если вы человек,
-
3:51 - 3:52легко переносящий перемены,
-
3:52 - 3:56и если вы чувствуете угрозу со стороны,
-
3:56 - 4:00могла бы быть создана подобная реклама,
не такая очевидная, конечно, -
4:00 - 4:03но всё же влияющая на наше подсознание.
-
4:03 - 4:07Следующая реклама направлена
на человека-защитника, -
4:07 - 4:10опасающегося, к примеру,
за семью и будущее. -
4:10 - 4:12Ему показывалась вот такая реклама.
-
4:13 - 4:17В то время существовали
две группы людей, так ведь? -
4:17 - 4:21Одна группа, которая утверждала,
-
4:22 - 4:26что мы сами поведали Фейсбуку
самую ценную информацию о нашей личности, -
4:26 - 4:30все самые важные для нас вещи.
-
4:31 - 4:33Другая группа считала,
-
4:33 - 4:35что этого было не избежать,
-
4:35 - 4:39так как Фейсбук — это Большой Брат,
Скайнет, контролирующий все данные. -
4:39 - 4:42Я считаю, что истина посередине.
-
4:42 - 4:45Конечно, было очевидно, что Фейсбук
обладал большим количеством данных -
4:45 - 4:48и использовал персонализированную
коммерческую рекламу, -
4:48 - 4:51но никто не знал, что данные
использовались для политических целей. -
4:52 - 4:56Можно ли утверждать, что Трамп
победил на выборах из-за утечки данных? -
4:56 - 4:59По мнению компании
Cambridge Analytica, да, -
4:59 - 5:02но нельзя определить,
кто за кого проголосовал -
5:02 - 5:05под влиянием рекламы.
-
5:05 - 5:09Однако можно утверждать,
что кампания была далеко не прозрачной -
5:09 - 5:12и что к контенту, который
мы публикуем в социальных сетях, -
5:12 - 5:13нужно относиться серьёзно.
-
5:13 - 5:15Вы, наверняка, пришли к тому же выводу.
-
5:16 - 5:18Говоря о данных, следует отметить,
-
5:18 - 5:21что делиться и публиковать информацию
-
5:21 - 5:22не всегда плохо.
-
5:22 - 5:26В Лондоне, например,
уже много лет работают -
5:26 - 5:28над созданием открытого
доступа к информации, -
5:28 - 5:31чтобы вовлечь в процесс миллионы людей.
-
5:31 - 5:33Как, например, в случае,
-
5:33 - 5:36когда государство при задержке поезда,
-
5:36 - 5:37что не должно случаться часто,
-
5:37 - 5:40возвращает пассажирам стоимость билета.
-
5:40 - 5:43Никто не требовал возврата,
деньги не использовались. -
5:43 - 5:45Затем одного предпринимателя осенило:
-
5:45 - 5:47«А почему бы заставить это работать?»
-
5:47 - 5:49Он взял и создал платформу,
-
5:49 - 5:52где пользователи регистрировали
данные своих билетов — -
5:53 - 5:55карты SUBE в Лондоне, к примеру.
-
5:56 - 5:58Они загружали данные в систему,
и когда поезд задерживался -
5:58 - 6:02и запланированное время прибытия
было известно, -
6:02 - 6:04время посадки сравнивалось
со временем в системе, -
6:04 - 6:07и при наличии разницы
пассажиры получали возмещение. -
6:07 - 6:09Таким образом, вам платят
за опоздание поезда. -
6:10 - 6:13Так предприниматель смог заработать.
-
6:13 - 6:15С одной стороны, он получил выгоду,
-
6:15 - 6:18с другой стороны — сделал что-то
на пользу общества, -
6:18 - 6:19конечно.
-
6:19 - 6:23Поезд доволен, так как
производится проверка в системе -
6:23 - 6:25и качество работы улучшается
-
6:25 - 6:28благодаря такому контролю.
-
6:28 - 6:31Пассажиры довольны тем,
-
6:31 - 6:34что стоимость билетов возмещается,
-
6:34 - 6:36а сервис улучшается.
-
6:37 - 6:40Сегодня не обязательно
быть предпринимателем, -
6:40 - 6:41как тот парень.
-
6:41 - 6:45Не нужно метить в президенты
или быть владельцем компании, -
6:46 - 6:48чтобы использовать данные
для принятия решений. -
6:49 - 6:50Со мной такое случалось много раз.
-
6:50 - 6:55Когда мне было 12 лет,
я посмотрел фильм «Военные игры». -
6:55 - 6:56Вы все молодые
и вряд ли его видели. -
6:56 - 6:59Герой фильма, мальчик, был дома,
-
6:59 - 7:00у него не получался какой-то предмет,
-
7:00 - 7:04и с помощью особой технологии
-
7:04 - 7:06он взломал компьютерную сеть
военного ведомства США. -
7:06 - 7:08Мне тогда было 12 лет,
-
7:08 - 7:10и я занимался фольклорными танцами.
-
7:11 - 7:14Должен сказать вам по секрету,
-
7:14 - 7:16что танцевал я отвратительно.
-
7:17 - 7:19Однажды я был дома и смотрел этот фильм.
-
7:19 - 7:20Ко мне подошла мама
-
7:20 - 7:23и сказала: «Фреди, я тебя очень люблю,
но я должна признаться, -
7:24 - 7:26что тебе не очень даются танцы.
-
7:26 - 7:31Деньги, которые мы платим
за твои занятия, я отдам тебе, -
7:31 - 7:33и ты сможешь потратить их на что угодно».
-
7:33 - 7:36Я вытер слёзы,
-
7:36 - 7:39взял себя в руки и ответил:
-
7:40 - 7:45«Мне очень нравится информатика,
и я хотел бы стать хакером, -
7:45 - 7:46как этот парень».
-
7:46 - 7:48Я поступил в институт
компьютерных технологий, -
7:48 - 7:53где познакомился с удивительными
технологиями 90-х. -
7:55 - 7:58Я с головой погружался в игры.
-
7:59 - 8:02Затем я посвятил жизнь
развитию технологий, -
8:03 - 8:05изучению, преподаванию
и работе с технологиями. -
8:06 - 8:07С тех пор этим я и занимаюсь.
-
8:07 - 8:11Также я ищу новые возможности
использования технологий, -
8:11 - 8:13иными словами, занимаюсь хакерством.
-
8:13 - 8:16Говорят, что каждая вещь
создаётся с определённой целью, -
8:16 - 8:18но ведь можно найти и иную цель.
-
8:18 - 8:20Как-то раз я был волонтёром —
-
8:20 - 8:23волонтёрство само по себе прекрасно, —
-
8:23 - 8:27я и два моих напарника красили школу.
-
8:27 - 8:29Один из них был физиком,
а другой — инженером, -
8:29 - 8:30оба жутко талантливые.
-
8:31 - 8:34Они красили забор и делали это
отвратительно. -
8:34 - 8:37Они не умели красить,
у них получалось неровно, -
8:37 - 8:38они ссорились из-за цвета.
-
8:38 - 8:40Они красили, но результат был ужасным.
-
8:40 - 8:41Тогда я подумал:
-
8:42 - 8:46«Почему, когда мы работаем на компанию,
отдаём работе весь наш талант, -
8:46 - 8:48а когда работаем на благо общества,
-
8:48 - 8:50делаем то, что у нас
получается хуже всего?» -
8:50 - 8:53Развивая эту глубокую мысль,
-
8:54 - 8:56в этом году мы разработали проект,
-
8:56 - 8:59привлекая глобальную инициативу,
называемую «Data for Good». -
8:59 - 9:04Цель данной кампании — с помощью
науки и информационных данных -
9:04 - 9:08положительно повлиять на жизнь людей.
-
9:08 - 9:11Мы создали проект, затронувший
более трёх миллионов человек, -
9:11 - 9:15так как на территории Аргентины
жители примерно 240 000 районов, -
9:15 - 9:17где проживают люди,
-
9:17 - 9:21не имеющие документов,
подтверждающих их местожительство. -
9:21 - 9:25Поэтому они не могут обращаться в службы
и определить детей в школу. -
9:25 - 9:27Это происходит по всей стране.
-
9:27 - 9:31Многие организации работали
в течении примерно двух лет, -
9:31 - 9:35собирая информацию о каждом доме
-
9:35 - 9:37на всей территории страны.
-
9:38 - 9:42Они собрали большое количество информации
и создали пункты, куда можно -
9:42 - 9:43подать документы,
-
9:43 - 9:45чтобы люди, имеющие сертификаты
могли иметь -
9:45 - 9:48юридически зарегистрированное жильё.
-
9:48 - 9:51Это было непросто,
так как страна довольно большая. -
9:51 - 9:52Как же упростить этот процесс?
-
9:54 - 9:57С использованием информационных данных
мы создали алгоритм -
9:58 - 10:02для оптимизации пунктов приёма документов,
чтобы в каждом районе был такой пункт -
10:02 - 10:05и людям не приходилось ехать далеко.
-
10:06 - 10:10Это первая семья, получившая сертификат
на жилище в Сан-Карлос-де-Барилоче, -
10:10 - 10:13которой удалось провести
в дом электричество. -
10:16 - 10:17Спасибо.
-
10:17 - 10:20(Аплодисменты)
-
10:24 - 10:29Мы стремимся к тому, чтобы
организации в Аргентине -
10:29 - 10:33имели те же полномочия принимать решения,
-
10:33 - 10:36что имеют компании Силиконовой Долины
-
10:36 - 10:39благодаря анализу данных.
-
10:39 - 10:42Чтобы они могли лучше
выполнять свои функции. -
10:43 - 10:46Мы представляем себе будущее,
где эти компании, -
10:46 - 10:48сталкиваясь с проблемами,
-
10:48 - 10:51имеют тот же доступ
к продвинутому анализу данных, -
10:51 - 10:53что и крупные корпорации.
-
10:54 - 10:58Данные, технология, информация существуют
для того, чтобы мы их использовали. -
10:59 - 11:02Каждый из вас может изменить свою жизнь,
-
11:02 - 11:04начать своё дело, добиться изменений,
-
11:04 - 11:07а крупные компании способны изменить мир.
-
11:07 - 11:09А как вы будете использовать информацию?
-
11:09 - 11:11Какие решения примете?
-
11:11 - 11:12Большое спасибо.
-
11:12 - 11:16(Аплодисменты)
- Title:
- Неведомый потенциал открытых данных | Фреди Вивас | TEDxRosario
- Description:
-
Начиная с рассмотрения работы фирмы Cambridge Analytica, затрагивая тему системы общественного транспорта Лондона, заканчивая упоминанием местной инициативы по рационализации бумажной волокиты, Фреди Вивас раскрывает нам полезный и опасный потенциал открытых данных, а также предлагает нам примириться с теорией цифровой гласности, позволяющей изменить мир в лучшую сторону.
Фреди Вивас — инженер информационных систем, специализирующийся в обработке больших данных, профессор индустриальных дисциплин и выпускник программы «Global Solutions» Университета Сингулярности в Силиконовой Долине, учредителями которого являются NASA и Google.Читая научно-популярный журнал «Muy Interesante» в возрасте 10 лет, Фреди погрузился в мир науки и технологий. Хотя он никогда не считал себя гением математики, информатика стала для него инструментом достижения позитивного влияния на общество.
Помимо преподавания Фреди также увлекается игрой на ударных и наслаждается музыкой.
На сегодняшний день Фреди Вивас преподает в различных университетах, а также является генеральным директором компании RockingData — стартапа, целю которого является оказание услуг в области даталогии и больших данных.
Это выступление записано на мероприятии TEDx, независимо организованном местным сообществом с использованием формата конференций TED. Узнайте больше на http://ted.com/tedx
- Video Language:
- Spanish
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 11:30
Retired user approved Russian subtitles for El desconocido potencial de los datos abiertos | Fredi Vivas | TEDxRosario | ||
Retired user accepted Russian subtitles for El desconocido potencial de los datos abiertos | Fredi Vivas | TEDxRosario | ||
Retired user edited Russian subtitles for El desconocido potencial de los datos abiertos | Fredi Vivas | TEDxRosario | ||
Retired user edited Russian subtitles for El desconocido potencial de los datos abiertos | Fredi Vivas | TEDxRosario | ||
Retired user edited Russian subtitles for El desconocido potencial de los datos abiertos | Fredi Vivas | TEDxRosario | ||
Margarita Kiseleva edited Russian subtitles for El desconocido potencial de los datos abiertos | Fredi Vivas | TEDxRosario | ||
Margarita Kiseleva edited Russian subtitles for El desconocido potencial de los datos abiertos | Fredi Vivas | TEDxRosario | ||
Margarita Kiseleva edited Russian subtitles for El desconocido potencial de los datos abiertos | Fredi Vivas | TEDxRosario |