Return to Video

Прекрасные до ужаса области применения обучающихся компьютеров | Джереми Говард | TEDxBrussels

  • 0:10 - 0:13
    Раньше, если вы хотели,
    чтобы компьютер сделал что-то новое,
  • 0:13 - 0:15
    вам нужно было это запрограммировать.
  • 0:15 - 0:19
    Для тех из вас, кто никогда с этим
    не сталкивался: программирование
  • 0:19 - 0:22
    требует мучительного определения
    мельчайших деталей,
  • 0:22 - 0:25
    каждого действия, которое
    компьютер должен выполнить,
  • 0:25 - 0:27
    чтобы добиться желаемого результата.
  • 0:27 - 0:31
    Но запрограммировать что-то,
    чего вы сами не умеете, —
  • 0:31 - 0:33
    это очень сложная задача.
  • 0:33 - 0:37
    С такой сложной задачей столкнулся
    этот человек, Артур Самуэль.
  • 0:37 - 0:43
    В 1956 году он захотел, чтобы компьютер
    смог обыграть его в шашки.
  • 0:43 - 0:45
    Как написать программу,
  • 0:45 - 0:49
    точную до мельчайших деталей,
    чтобы выиграть в шашки?
  • 0:49 - 0:51
    И ему пришла в голову мысль:
  • 0:51 - 0:54
    пусть компьютер сыграет
    сам с собой тысячи раз
  • 0:54 - 0:57
    и так научится играть в шашки.
  • 0:57 - 1:00
    И это действительно сработало,
    и в 1962 году
  • 1:00 - 1:03
    этот компьютер обыграл
    чемпиона Коннектикута.
  • 1:03 - 1:07
    Артур Самуэль стал основоположником
    машинного обучения.
  • 1:07 - 1:08
    Я в большом долгу перед ним,
  • 1:08 - 1:11
    потому что я работаю
    в области машинного обучения.
  • 1:11 - 1:13
    Я был президентом фирмы Kaggle,
  • 1:13 - 1:16
    объединяющей 200 000 людей,
    применяющих машинное обучение.
  • 1:16 - 1:18
    Kaggle проводит соревнования
  • 1:18 - 1:22
    по решению ещё нерешённых проблем,
  • 1:22 - 1:25
    и участники успешно решают их сотнями.
  • 1:26 - 1:28
    У меня была отличная возможность
    узнать многое
  • 1:28 - 1:32
    о возможностях машинного обучения
    в прошлом, настоящем
  • 1:32 - 1:34
    и будущем.
  • 1:34 - 1:37
    Возможно, первым большим
    коммерческим успехом
  • 1:37 - 1:39
    машинного обучения стал Google.
  • 1:39 - 1:42
    В Google доказали,
    что можно находить информацию
  • 1:42 - 1:44
    с помощью компьютерного алгоритма,
  • 1:44 - 1:47
    и этот алгоритм был построен
    на машинном обучении.
  • 1:47 - 1:51
    С тех пор машинное обучение неоднократно
    применялось с коммерческим успехом.
  • 1:51 - 1:53
    Компании Amazon и Netflix используют
  • 1:53 - 1:56
    машинное обучение, определяя,
    какие товары вы захотите купить
  • 1:56 - 1:58
    и какие фильмы посмотреть.
  • 1:58 - 2:00
    Иногда это даже пугает.
  • 2:00 - 2:02
    Сети, такие как LinkedIn и Facebook,
  • 2:02 - 2:04
    иногда предлагают вам в друзья людей,
  • 2:04 - 2:06
    а вы не понимаете, как их нашли.
  • 2:06 - 2:09
    А это было сделано
    с помощью машинного обучения.
  • 2:09 - 2:13
    Их алгоритмы обучаются на основе данных,
  • 2:13 - 2:15
    а не на основе того,
    как их запрограммировал человек.
  • 2:16 - 2:18
    Это также объясняет успех IBM:
    программа Watson
  • 2:18 - 2:21
    обыграла двух чемпионов мира
    в «Своей игре»,
  • 2:21 - 2:24
    ответив на невероятно коварные
    и сложные вопросы вроде этого:
  • 2:24 - 2:28
    [В 2003 году «лев Нимруда» исчез
    из национального музея этого города]
  • 2:28 - 2:32
    Благодаря этим методам у нас
    есть первые беспилотные автомобили.
  • 2:32 - 2:34
    Здесь достаточно важно, например,
  • 2:34 - 2:37
    отличать дерево от пешехода.
  • 2:37 - 2:40
    Мы не знаем, как создать такой алгоритм,
  • 2:40 - 2:43
    но можем решить эту задачу
    с помощью машинного обучения.
  • 2:43 - 2:46
    И этот автомобиль в самом деле
    проехал больше 1,5 млн километров,
  • 2:46 - 2:49
    ни разу не попав в аварию на трассе.
  • 2:49 - 2:52
    Итак, мы знаем,
    что компьютеры могут обучаться
  • 2:52 - 2:55
    и могут учиться делать то,
  • 2:55 - 2:57
    что на самом деле мы и сами
    не знаем, как делать —
  • 2:57 - 3:00
    или могут делать это лучше нас.
  • 3:00 - 3:04
    С одним из самых невероятных результатов
    машинного обучения
  • 3:04 - 3:07
    я столкнулся, когда работал в Kaggle:
  • 3:07 - 3:11
    команда, которую возглавил Джеффри Хинтон
  • 3:11 - 3:12
    из Университета Торонто,
  • 3:12 - 3:15
    стала лучшей в автоматическом поиске
    новых лекарств.
  • 3:15 - 3:17
    Невероятным было не только то,
    что их алгоритм оказался лучше
  • 3:17 - 3:22
    всех алгоритмов, разработанных Merck
    или международным научным сообществом, —
  • 3:22 - 3:27
    ни у кого из команды не было образования
    в области химии, биологии или медицины,
  • 3:27 - 3:29
    и на всё у них ушло две недели.
  • 3:29 - 3:31
    Как им это удалось?
  • 3:31 - 3:34
    Благодаря уникальному алгоритму
    глубокого обучения.
  • 3:34 - 3:37
    Это настолько важно, что про их успех
  • 3:37 - 3:40
    спустя пару недель сообщила
    на первой полосе New York Times.
  • 3:40 - 3:43
    Слева — Джеффри Хинтон.
  • 3:43 - 3:47
    В основе глубокого обучения —
    принципы работы человеческого мозга,
  • 3:47 - 3:49
    и поэтому этот алгоритм
  • 3:49 - 3:52
    теоретически имеет
    неограниченные возможности.
  • 3:52 - 3:56
    Чем больше данных на входе
    и чем больше времени на их обработку,
  • 3:56 - 3:57
    тем лучше результат.
  • 3:57 - 3:59
    В этой же статье New York Times
    был упомянут ещё один
  • 3:59 - 4:02
    удивительный результат глубокого обучения,
  • 4:02 - 4:04
    который я вам сейчас покажу.
  • 4:04 - 4:08
    Он демонстрирует то,
    что компьютеры могут слышать и понимать.
  • 4:09 - 4:11
    (Видео) Ричард Рашид: Наконец,
  • 4:11 - 4:14
    последнее, что я хочу сделать, —
  • 4:14 - 4:17
    это поговорить с вами по-китайски.
  • 4:19 - 4:22
    Суть в том,
  • 4:22 - 4:27
    что мы сформировали массив записей
    носителей китайского языка
  • 4:27 - 4:30
    и построили систему
    перевода текста в речь,
  • 4:30 - 4:34
    которая получает текст на китайском
    и переводит его в речь.
  • 4:35 - 4:39
    Потом мы записáли примерно час
    звучания моего голоса
  • 4:39 - 4:41
    и использовали его
  • 4:41 - 4:45
    в обычной системе перевода текста в речь.
  • 4:45 - 4:48
    Повторяю, результат не идеален.
  • 4:48 - 4:51
    Там есть несколько ошибок.
  • 4:51 - 4:53
    (Говорит по-китайски)
  • 4:53 - 4:57
    (Аплодисменты)
  • 4:58 - 5:01
    Нам предстоит ещё много работы.
  • 5:01 - 5:05
    (Говорит по-китайски)
  • 5:05 - 5:08
    (Аплодисменты)
  • 5:10 - 5:14
    Джереми Говард: Это было на конференции
    по машинному обучению в Китае.
  • 5:14 - 5:17
    На самом деле,
    на научных конференциях редко
  • 5:17 - 5:19
    внезапно аплодируют,
  • 5:19 - 5:22
    в отличие от TEDx, так что не стесняйтесь.
  • 5:22 - 5:25
    Всё, что вы видели, было построено
    на глубоком обучении.
  • 5:25 - 5:27
    (Аплодисменты) Спасибо.
  • 5:27 - 5:29
    Английские субтитры —
    это глубокое обучение.
  • 5:29 - 5:32
    Перевод на китайский
    и текст справа вверху — тоже,
  • 5:32 - 5:35
    и конструирование голоса — снова оно.
  • 5:36 - 5:39
    Глубокое обучение — невероятная вещь.
  • 5:39 - 5:42
    Один-единственный алгоритм,
    который, похоже, может всё,
  • 5:42 - 5:45
    и ещё годом раньше я обнаружил,
    что он также научился видеть.
  • 5:45 - 5:47
    В этом малоизвестном
    соревновании в Германии,
  • 5:47 - 5:50
    «Немецкий идеал распознавания
    дорожных знаков»,
  • 5:50 - 5:53
    глубокое обучение использовалось
    для распознавания вот таких знаков.
  • 5:53 - 5:55
    Мало того, что результаты распознавания
  • 5:55 - 5:57
    лучше, чем у других алгоритмов;
  • 5:57 - 6:00
    в таблице результатов видно,
    что они лучше человеческих
  • 6:00 - 6:02
    примерно в два раза.
  • 6:02 - 6:04
    Итак, к 2011 году у нас был
  • 6:04 - 6:07
    первый компьютер,
    который видел лучше людей.
  • 6:07 - 6:09
    С тех пор произошло многое.
  • 6:09 - 6:13
    В 2012 Google объявил,
    что их алгоритм глубокого обучения
  • 6:13 - 6:14
    использовал видео на YouTube.
  • 6:14 - 6:17
    Данные обрабатывались
    на 16 000 процессоров в течение месяца,
  • 6:17 - 6:22
    и компьютер Google самостоятельно
    определил, что такое люди и кошки,
  • 6:22 - 6:24
    на основе только видеоматериалов.
  • 6:24 - 6:26
    Это очень похоже на то, как учатся люди.
  • 6:26 - 6:29
    Им не говорят, что они видят,
  • 6:29 - 6:32
    люди сами разбираются в том, что видят.
  • 6:32 - 6:35
    В том же 2012 Джеффри Хинтон,
    которого вы уже видели,
  • 6:35 - 6:38
    выиграл очень известное
    соревнование ImageNet,
  • 6:38 - 6:42
    в котором было необходимо понять,
    что изображено
  • 6:42 - 6:44
    на 1,5 млн картинок.
  • 6:44 - 6:47
    К 2014 году уровень ошибок
    при распознавании образов
  • 6:47 - 6:49
    упал до 6%.
  • 6:49 - 6:51
    И опять же, это лучше, чем у людей.
  • 6:51 - 6:55
    Компьютеры действительно
    необычайно хороши в этом,
  • 6:55 - 6:57
    и сейчас это применяется
    в коммерческих целях.
  • 6:57 - 7:00
    Так, в прошлом году Google объявил,
  • 7:00 - 7:04
    что они могут локализовать любую точку
    во Франции за два часа:
  • 7:04 - 7:08
    они загружают фотографии улиц
  • 7:08 - 7:12
    на вход алгоритма глубокого обучения,
    чтобы распознать и прочитать адресá.
  • 7:12 - 7:14
    Сколько времени ушло бы на это раньше!
  • 7:14 - 7:18
    Понадобились бы десятки людей и много лет.
  • 7:18 - 7:20
    То же самое происходит в Китае.
  • 7:20 - 7:24
    Baidu — это что-то вроде
    китайского Google,
  • 7:24 - 7:26
    и сверху слева вы видите
  • 7:26 - 7:30
    картинку, которую я загрузил
    в алгоритм глубокого обучения Baidu,
  • 7:30 - 7:34
    а под ней — то, как система распознала,
    что находится на картинке,
  • 7:34 - 7:36
    и нашла похожие.
  • 7:36 - 7:39
    Похожие изображения имеют близкий фон,
  • 7:39 - 7:42
    на них похожие выражения морд,
    на некоторых даже так же высунут язык.
  • 7:42 - 7:45
    Это не просто поиск текста
    на веб-странице.
  • 7:45 - 7:47
    Я загрузил только картинку.
  • 7:47 - 7:51
    Итак, теперь наши компьютеры
    действительно понимают, что они видят,
  • 7:51 - 7:52
    и могут искать изображения в базах
  • 7:52 - 7:56
    среди сотен миллионов картинок —
    в режиме реального времени.
  • 7:56 - 7:59
    Значит ли это,
    что компьютеры могут видеть?
  • 7:59 - 8:01
    Это не просто возможность видеть.
  • 8:01 - 8:03
    Глубокое обучение — это намного больше.
  • 8:03 - 8:06
    Сложные предложения со множеством
    смысловых оттенков
  • 8:06 - 8:09
    теперь понятны благодаря
    алгоритмам глубокого обучения.
  • 8:09 - 8:10
    Как вы видите,
  • 8:10 - 8:13
    эта стэнфордская система
    отмечает красными точками сверху,
  • 8:13 - 8:17
    что предложение выражает
    отрицательные эмоции.
  • 8:17 - 8:20
    Результаты глубокого обучения
    близки к человеческим
  • 8:20 - 8:25
    по распознаванию того,
    что и о чём сказано.
  • 8:25 - 8:28
    Глубокое обучение использовалось
    для чтения на китайском,
  • 8:28 - 8:31
    и результат был на уровне
    человека — носителя китайского.
  • 8:31 - 8:33
    Этот алгоритм был разработан в Швейцарии
  • 8:33 - 8:37
    людьми, ни один из которых
    не говорит по-китайски.
  • 8:37 - 8:39
    Как я и сказал, глубокое обучение —
  • 8:39 - 8:41
    это оптимальный способ
    решения для таких задач,
  • 8:41 - 8:46
    даже по сравнению
    с человеческим восприятием.
  • 8:46 - 8:49
    Система, которую создали
    в моей компании,
  • 8:49 - 8:51
    занимается всем, о чём я рассказал.
  • 8:51 - 8:54
    Это картинки без сопроводительного текста,
  • 8:54 - 8:56
    и здесь я набираю предложения.
  • 8:56 - 8:59
    В режиме реального времени
    картинки распознаются,
  • 8:59 - 9:01
    определяется их смысл,
  • 9:01 - 9:04
    и ищутся изображения,
    соответствующих введённому мной тексту.
  • 9:04 - 9:07
    Итак, вы видите, что предложения
  • 9:07 - 9:09
    и картинки действительно распознаются.
  • 9:09 - 9:11
    Я знаю, что вы видели
    нечто похожее в Google,
  • 9:11 - 9:14
    когда вы набираете запрос,
    по которому вам выдают картинки,
  • 9:14 - 9:18
    но в действительности там ищется
    нужный текст на веб-странице.
  • 9:18 - 9:21
    Распознавание образов —
    это принципиально иное.
  • 9:21 - 9:23
    Распознавание стало доступно
    компьютерным алгоритмам
  • 9:23 - 9:26
    впервые совсем недавно.
  • 9:27 - 9:31
    Итак, компьютеры теперь могут
    не только видеть, но и читать,
  • 9:31 - 9:34
    и, как мы уже показали,
    понимать, что они слышат.
  • 9:34 - 9:38
    Так что я буду последователен и скажу,
    что они умеют писать.
  • 9:38 - 9:43
    Вот текст, который я сгенерировал вчера
    с помощью алгоритма глубокого обучения.
  • 9:43 - 9:47
    А вот текст, сгенерированный
    с помощью стэнфордского алгоритма.
  • 9:47 - 9:48
    Каждая из этих фраз составлена
  • 9:48 - 9:53
    алгоритмом глубокого обучения
    для описания этих картинок.
  • 9:53 - 9:57
    Алгоритм ещё не встречал понятия мужчины
    в чёрной рубашке, играющего на гитаре.
  • 9:57 - 9:59
    Но ему известны понятия
  • 9:59 - 10:01
    человека, чёрного, гитары,
  • 10:01 - 10:05
    и алгоритм независимо формулирует
    связное описание этого изображения.
  • 10:05 - 10:09
    Мы всё ещё не дотягиваем до уровня
    человека, но мы уже близки.
  • 10:09 - 10:13
    При испытаниях люди выбирают
    описания, данные компьютером,
  • 10:13 - 10:14
    в одном случае из четырёх.
  • 10:14 - 10:16
    Этой системе всего две недели от роду,
  • 10:16 - 10:18
    и, скорее всего, в следующем году
  • 10:18 - 10:21
    алгоритм даст результаты
    намного лучше человеческих,
  • 10:21 - 10:23
    если развитие пойдёт такими темпами.
  • 10:23 - 10:26
    Итак, компьютеры могут и писать тоже.
  • 10:26 - 10:29
    Складываем всё вместе,
    и нам открываются невероятные возможности.
  • 10:29 - 10:31
    Например, в медицине.
  • 10:31 - 10:33
    Команда из Бостона открыла
  • 10:33 - 10:36
    десятки новых клинических
    особенностей опухолей;
  • 10:36 - 10:41
    это поможет врачам диагностировать рак.
  • 10:42 - 10:44
    Точно так же в Стэнфорде
  • 10:44 - 10:48
    группа, проанализировав опухоли
    под увеличением,
  • 10:48 - 10:50
    создала систему
    на основе машинного обучения,
  • 10:50 - 10:53
    которая лучше, чем патологоанатомы-люди,
  • 10:53 - 10:56
    предсказывала исход заболевания
    у онкобольных.
  • 10:57 - 11:00
    В обоих случаях алгоритмы давали
    не только более точный результат,
  • 11:00 - 11:03
    но и новые неожиданные открытия.
  • 11:03 - 11:04
    В случае с радиологией
  • 11:04 - 11:07
    это были новые клинические показатели,
    понятные для людей.
  • 11:07 - 11:09
    В случае с опухолями
  • 11:09 - 11:14
    алгоритм обнаружил,
    что клетки вокруг опухоли
  • 11:14 - 11:17
    так же важны, как и сами раковые клетки,
  • 11:17 - 11:19
    для постановки диагноза.
  • 11:19 - 11:24
    Это противоречит всему,
    чему патологоанатомов учили десятилетиями.
  • 11:24 - 11:27
    В разработке обеих систем
  • 11:27 - 11:31
    участвовали как эксперты-врачи,
    так и специалисты по машинному обучению,
  • 11:31 - 11:34
    но в прошлом году мы смогли преодолеть
    и это ограничение.
  • 11:34 - 11:37
    Это пример определения поражённых раком
  • 11:37 - 11:40
    человеческих тканей под микроскопом.
  • 11:40 - 11:44
    Система, которую я показываю,
    может определить их точнее,
  • 11:44 - 11:47
    или так же точно, как и патологоанатом,
  • 11:47 - 11:51
    но она построена только на методах
    глубокого обучения без участия врачей
  • 11:51 - 11:53
    людьми, не имеющими
    никакого отношения к медицине.
  • 11:54 - 11:57
    Или вот сегментация нейронов.
  • 11:57 - 12:00
    Теперь мы можем сегментировать нейроны
    так же аккуратно, как и вручную,
  • 12:00 - 12:03
    но эта система построена
    на глубоком обучении
  • 12:03 - 12:06
    людьми, не имеющими
    медицинских знаний или опыта.
  • 12:06 - 12:10
    Поэтому я, как человек,
    никогда не занимавшийся медициной,
  • 12:10 - 12:13
    оказался отличным кандидатом на роль
    основателя новой медицинской компании,
  • 12:13 - 12:15
    им я и стал.
  • 12:16 - 12:17
    Я порядком трýсил,
  • 12:17 - 12:20
    но в теории, существует
    реальная возможность
  • 12:20 - 12:26
    создать очень полезные препараты,
    используя лишь алгоритмы анализа данных.
  • 12:26 - 12:28
    И, к счастью, отзывы были
    невероятно хорошими,
  • 12:28 - 12:31
    не только в СМИ, но
    и от медицинского сообщества,
  • 12:31 - 12:33
    где горячо поддержали мою идею.
  • 12:33 - 12:37
    Идея заключается в том, что мы можем
    взять промежуточный этап лечения
  • 12:37 - 12:40
    и максимально применить к нему
    наши методы анализа данных,
  • 12:40 - 12:43
    позволив врачам заниматься тем,
    что у них получается лучше всего.
  • 12:43 - 12:45
    Приведу пример.
  • 12:45 - 12:49
    На составление нового диагностического
    теста у нас уходит 15 минут,
  • 12:49 - 12:51
    я покажу его в режиме реального времени,
  • 12:51 - 12:54
    но сокращу процесс до трёх минут,
  • 12:54 - 12:56
    вырезав отдельные фрагменты.
  • 12:56 - 12:59
    И вместо создания медицинского теста
  • 12:59 - 13:01
    я покажу тестирование изображений машин,
  • 13:01 - 13:04
    потому что оно будет понятнее всем.
  • 13:04 - 13:07
    Итак, начнём с 1,5 млн
    изображений машин,
  • 13:07 - 13:10
    и я хочу придумать, как их разбить
    на группы в зависимости от угла,
  • 13:10 - 13:12
    с которого они сфотографированы.
  • 13:12 - 13:16
    Все эти изображения не имели меток,
    поэтому мне придётся начинать с нуля.
  • 13:16 - 13:18
    Наш алгоритм глубокого обучения
  • 13:18 - 13:22
    автоматически распознаёт отдельные
    компоненты на этих изображениях.
  • 13:22 - 13:25
    Хорошо то, что человек и компьютер
    могут решать задачу вместе.
  • 13:25 - 13:27
    Человек, как вы видите,
  • 13:27 - 13:30
    задаёт компьютеру исследуемую область,
  • 13:30 - 13:35
    на основе которой компьютер должен
    усовершенствовать свой алгоритм.
  • 13:35 - 13:39
    Эта система глубокого обучения работает
    в 16 000-мерном пространстве,
  • 13:39 - 13:43
    компьютер вращает в нём данные,
  • 13:43 - 13:45
    чтобы обнаружить новые структуры.
  • 13:45 - 13:46
    А когда он их найдёт,
  • 13:46 - 13:50
    человек, управляющий процессом,
    укажет на те, что его интересуют.
  • 13:50 - 13:53
    Итак, компьютер успешно
    обнаружил признаки,
  • 13:53 - 13:55
    например, ракурс.
  • 13:55 - 13:57
    В ходе исследования
  • 13:57 - 13:59
    мы постепенно уточняем,
  • 13:59 - 14:02
    что именно мы ищем.
  • 14:02 - 14:03
    Представьте диагностический тест,
  • 14:03 - 14:07
    благодаря которому врач
    определяет границы патологии
  • 14:07 - 14:12
    или радиолог — потенциально
    опасные образования.
  • 14:12 - 14:14
    Иногда это оказывается
    слишком сложно для алгоритма.
  • 14:14 - 14:16
    Он не находит решения.
  • 14:16 - 14:19
    Капоты и багажники машин идут вперемешку.
  • 14:19 - 14:21
    Поэтому нам надо быть немного аккуратнее,
  • 14:21 - 14:24
    вручную разделив их,
  • 14:24 - 14:30
    а затем задав компьютеру тип изображений,
  • 14:30 - 14:31
    которые нам нужны.
  • 14:31 - 14:34
    Процесс длится какое-то время,
    промотаем немного вперёд,
  • 14:34 - 14:36
    а потом мы обучаем наш алгоритм
  • 14:36 - 14:38
    на основе нескольких сотен объектов,
  • 14:38 - 14:40
    надеясь, что он станет
    намного эффективнее.
  • 14:40 - 14:43
    Видите, некоторые
    из этих картинок поблёкли —
  • 14:43 - 14:48
    это означает, что теперь компьютер
    распознал их самостоятельно.
  • 14:48 - 14:51
    Теперь мы можем использовать
    этот принцип похожих изображений.
  • 14:51 - 14:53
    Как видите, используя эти изображения,
  • 14:53 - 14:57
    теперь компьютер может самостоятельно
    находить только фотографии машин спереди.
  • 14:57 - 15:00
    Теперь человек может сказать компьютеру:
  • 15:00 - 15:02
    «Отлично, ты молодец».
  • 15:03 - 15:05
    Иногда, конечно, даже на этом этапе
  • 15:05 - 15:09
    всё еще сложно выделить группы.
  • 15:09 - 15:11
    В этом случае затем мы позволяем
  • 15:11 - 15:14
    компьютеру покрутить его.
  • 15:14 - 15:16
    Снимки машин справа и слева всё ещё
  • 15:16 - 15:18
    идут вперемешку.
  • 15:18 - 15:20
    И мы снова даём компьютеру подсказки,
  • 15:20 - 15:23
    чтобы он нашёл плоскость,
  • 15:23 - 15:25
    разделяющую изображения
    справа и слева предельно точно
  • 15:25 - 15:28
    на основе алгоритма глубокого обучения.
  • 15:28 - 15:31
    И с этими подсказками — а, отлично,
    решение было найдено.
  • 15:31 - 15:33
    Компьютеру удалось найти способ
    выделить эти объекты
  • 15:33 - 15:36
    среди всех остальных.
  • 15:36 - 15:38
    Это суть метода.
  • 15:38 - 15:44
    Компьютер не заменяет человека,
  • 15:46 - 15:49
    здесь они работают вместе.
  • 15:49 - 15:52
    То, на что команда
  • 15:52 - 15:55
    из 5–6 человек потратила бы около 7 лет,
  • 15:55 - 15:57
    мы заменяем 15-минутной процедурой,
  • 15:57 - 16:00
    которую выполняет только один человек.
  • 16:00 - 16:04
    Этот процесс выполняется за 4–5 итераций.
  • 16:04 - 16:06
    Как видите, теперь 62%
  • 16:06 - 16:08
    наших 1,5 млн изображений
    классифицированы верно.
  • 16:08 - 16:11
    Теперь мы сможем быстро выделять
  • 16:11 - 16:12
    отдельные большие блоки
  • 16:12 - 16:15
    и просматривать их, чтобы убедиться,
    что в них нет ошибок.
  • 16:15 - 16:19
    Если возникают ошибки,
    мы указываем на них компьютеру.
  • 16:19 - 16:22
    Применяя эту процедуру
    к разным группам по отдельности,
  • 16:22 - 16:25
    сейчас мы получаем
    около 80% верных результатов
  • 16:25 - 16:27
    при классификации
    1,5 млн изображений.
  • 16:27 - 16:29
    Сейчас задача состоит только в том,
  • 16:29 - 16:33
    чтобы найти то небольшое количество
    неверно распознанных изображений
  • 16:33 - 16:36
    и понять, почему это произошло.
  • 16:36 - 16:37
    Применяя этот подход,
  • 16:37 - 16:41
    за 15 минут мы получаем
    результат, верный на 97%.
  • 16:41 - 16:46
    Эта процедура может справиться
    с одной из важнейших проблем —
  • 16:46 - 16:49
    нехваткой медицинских работников в мире.
  • 16:49 - 16:53
    По данным, озвученным на Мировом
    экономическом форуме, нужно в 10–20 раз
  • 16:53 - 16:55
    больше терапевтов в развивающихся странах,
  • 16:55 - 16:57
    и понадобится около 300 лет,
  • 16:57 - 17:00
    чтобы обучить нужное количество людей.
  • 17:00 - 17:03
    А теперь представьте,
    что мы повысим их эффективность,
  • 17:03 - 17:06
    используя глубокое обучение.
  • 17:06 - 17:08
    Меня очень вдохновляют
    появившиеся возможности.
  • 17:08 - 17:11
    Но одновременно беспокоят и проблемы.
  • 17:11 - 17:14
    Проблема в том, что во всех странах,
    отмеченных на карте синим,
  • 17:14 - 17:18
    80% рабочих мест приходится
    на сферу услуг.
  • 17:18 - 17:19
    Каких услуг?
  • 17:19 - 17:21
    Вот эти услуги.
  • 17:21 - 17:23
    И это именно то,
  • 17:23 - 17:26
    что компьютеры только что
    научились делать.
  • 17:26 - 17:29
    И если 80% людей в развитых странах
  • 17:29 - 17:31
    занимаются тем, что теперь
    может делать компьютер,
  • 17:31 - 17:33
    то что это значит?
  • 17:33 - 17:35
    Всё будет в порядке.
    Появится другая работа.
  • 17:35 - 17:38
    Например, будет больше работы
    для аналитиков данных.
  • 17:38 - 17:39
    Не совсем так.
  • 17:39 - 17:42
    Решение этих задач не займёт
    у аналитиков много времени.
  • 17:42 - 17:45
    Например, эти четыре алгоритма
    создал один и тот же человек.
  • 17:45 - 17:48
    Если вам кажется,
    что это всё уже было,
  • 17:48 - 17:52
    в прошлом мы видели,
    что когда приходят новые технологии,
  • 17:52 - 17:54
    новые профессии заменяют старые,
  • 17:54 - 17:56
    то какими будут эти новые профессии?
  • 17:56 - 17:58
    Нам очень сложно оценить это сейчас,
  • 17:58 - 18:01
    ведь производительность труда
    растёт постепенно,
  • 18:01 - 18:03
    но теперь есть система,
    глубокое обучение,
  • 18:03 - 18:06
    и мы знаем, что его возможности
    растут по экспоненте.
  • 18:06 - 18:08
    Итак,
  • 18:08 - 18:10
    пока что мы оглядываемся по сторонам:
  • 18:10 - 18:13
    «Но компьютеры всё ещё
    достаточно примитивны», верно?
  • 18:13 - 18:16
    Но через пять лет их возможности выйдут
    за границу этого графика.
  • 18:16 - 18:20
    Поэтому нам необходимо начать обдумывать
    этот аспект прямо сейчас.
  • 18:20 - 18:22
    Разумеется, мы однажды уже видели такое.
  • 18:22 - 18:23
    Промышленная революция,
  • 18:23 - 18:26
    благодаря двигателям, дала
    качественный скачок производства.
  • 18:27 - 18:30
    Однако тогда, спустя какое-то время,
    мощности перестали расти.
  • 18:30 - 18:32
    Был социальный взрыв,
  • 18:32 - 18:35
    но когда двигатели стали применяться
    в промышленности повсеместно,
  • 18:35 - 18:38
    было достигнуто равновесие.
  • 18:38 - 18:39
    Революция машинного обучения
  • 18:39 - 18:42
    будет отличаться
    от промышленной революции,
  • 18:42 - 18:45
    потому что революция
    машинного обучения непрерывна.
  • 18:45 - 18:48
    Чем дальше компьютеры
    совершенствуются интеллектуально,
  • 18:48 - 18:52
    тем более интеллектуально
    совершенные компьютеры они создают,
  • 18:52 - 18:54
    и это станет таким изменением,
  • 18:54 - 18:57
    с каким наш мир
    никогда раньше не сталкивался,
  • 18:57 - 19:00
    и ваши прошлые представления
    о возможном изменятся.
  • 19:00 - 19:02
    Это уже влияет на нас.
  • 19:02 - 19:06
    В течение последней четверти века
    производительность капитала росла,
  • 19:06 - 19:10
    в то время как производительность труда
    оставалась прежней или немного снижалась.
  • 19:11 - 19:14
    Я хочу, чтобы мы начали обсуждать всё это.
  • 19:14 - 19:17
    Когда я рассказываю всё это людям,
  • 19:17 - 19:18
    они реагируют скептически:
  • 19:18 - 19:20
    мол, компьютеры не могут думать,
  • 19:20 - 19:23
    переживать, воспринимать стихи,
  • 19:23 - 19:25
    мы не понимаем по-настоящему,
    как они работают.
  • 19:25 - 19:27
    И что?
  • 19:27 - 19:29
    Уже компьютеры делают то, на что люди
  • 19:29 - 19:31
    тратят бóльшую часть
    своего оплачиваемого времени,
  • 19:31 - 19:35
    так что теперь пора думать о том,
    как мы будем менять
  • 19:35 - 19:37
    наши социальные,
    экономические структуры,
  • 19:37 - 19:39
    чтобы быть готовыми
    к новой реальности.
  • 19:39 - 19:41
    Спасибо.
  • 19:41 - 19:43
    (Аплодисменты)
Title:
Прекрасные до ужаса области применения обучающихся компьютеров | Джереми Говард | TEDxBrussels
Description:

Что произойдёт, если мы научим компьютер учиться? Инженер Джереми Говард рассказывает о нескольких удивительных прорывах в быстро развивающейся сфере глубокого обучения, о методе, который позволяет компьютерам говорить по-китайски, распознавать объекты на фотографиях или участвовать в постановке диагноза (один из алгоритмов глубокого обучения, после нескольких часов просмотра видео с YouTube, самостоятельно дал определение кошкам). Узнайте последнюю информацию об отрасли, которая изменит поведение окружающих вас компьютеров, — и скорее, чем вы думаете.

Это выступление записано на мероприятии TEDx, независимо организованном местным сообществом с использованием формата конференций TED. Узнайте больше на http://ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
19:47
  • Забыла перевести название и описание выступления сразу.

    --

    Прекрасные до ужаса области применения обучающихся компьютеров | Джереми Говард | TEDxBrussels

    Что произойдёт, если мы научим компьютер учиться? Инженер Джереми Говард рассказывает о нескольких удивительных прорывах в быстро развивающейся сфере глубокого обучения, методе, который позволяет компьютерам говорить по-китайски, распознавать объекты на фотографиях или участвовать в постановке диагноза (один из алгоритмов глубокого обучения, после часов просмотра видео с YouTube, самостоятельно дал определение кошкам). Очутитесь в отрасли, которая изменит поведение окружающих вас компьютеров... скорее, чем вы думаете. Это выступление записано на мероприятии TEDx, организованном независимо от TED Conferences.

Russian subtitles

Revisions