Return to Video

Прекрасные и ужасные последствия самообучения компьютеров

  • 0:01 - 0:05
    Обычно, если вы хотите, чтобы
    компьютер сделал что-то новое,
  • 0:05 - 0:06
    вам нужно его запрограммировать.
  • 0:06 - 0:10
    Для тех, кто не знает:
    программирование
  • 0:10 - 0:13
    требует мучительного определения
    мельчайших деталей,
  • 0:13 - 0:17
    которые должен выполнять компьютер
  • 0:17 - 0:19
    для достижения вашей цели.
  • 0:19 - 0:23
    А сделать то, чего вы никогда не делали,
  • 0:23 - 0:25
    будет очень сложно.
  • 0:25 - 0:28
    Именно с такой сложной задачей
    столкнулся этот человек, Артур Самуэль.
  • 0:28 - 0:32
    В 1956 году он захотел,
  • 0:32 - 0:35
    чтобы компьютер
    смог обыграть его в шашки.
  • 0:35 - 0:37
    Как написать программу,
  • 0:37 - 0:40
    продумать её до мельчайших деталей,
    чтобы она обыграла тебя в шашки?
  • 0:40 - 0:42
    Ему в голову пришла мысль:
  • 0:42 - 0:46
    компьютер должен сыграть тысячу партий
    с самим собой,
  • 0:46 - 0:48
    и так он научится играть в шашки.
  • 0:48 - 0:52
    Это действительно сработало —
    в 1962 году
  • 0:52 - 0:56
    этот компьютер обыграл
    чемпиона штата Коннектикут.
  • 0:56 - 0:59
    Так Артур Самуэль стал основоположником
    машинного обучения.
  • 0:59 - 1:00
    Я в большом долгу перед ним,
  • 1:00 - 1:03
    потому что работаю
    в области машинного обучения.
  • 1:03 - 1:04
    Я был президентом Kaggle,
  • 1:04 - 1:08
    сообщества, объединяющего 200 000 людей,
    применяющих машинное обучение.
  • 1:08 - 1:10
    Kaggle проводит соревнования
  • 1:10 - 1:14
    по решению ещё не решённых проблем,
  • 1:14 - 1:17
    и участники успешно справились
    с сотнями из них.
  • 1:17 - 1:20
    У меня была отличная возможность
    побольше узнать
  • 1:20 - 1:24
    о машинном обучении
    в прошлом, настоящем
  • 1:24 - 1:26
    и будущем.
  • 1:26 - 1:31
    Возможно, первым большим коммерческим
    успехом машинного обучения стал Google.
  • 1:31 - 1:34
    В Google доказали,
    что можно находить информацию
  • 1:34 - 1:36
    с помощью компьютерного алгоритма,
  • 1:36 - 1:38
    а этот алгоритм был основан
    на машинном обучении.
  • 1:38 - 1:42
    С тех пор машинное обучение неоднократно
    использовалось в коммерческих целях.
  • 1:42 - 1:44
    Компании вроде Amazon и Netflix
  • 1:44 - 1:48
    иcпользуют машинное обучение, определяя,
    какие товары вы захотите купить,
  • 1:48 - 1:50
    какие фильмы посмотреть.
  • 1:50 - 1:52
    Иногда это даже пугает.
  • 1:52 - 1:54
    Сети, такие как LinkedIn и Facebook,
  • 1:54 - 1:56
    иногда предлагают людей,
    которых вы можете знать,
  • 1:56 - 1:58
    а вы не понимаете, как они их нашли.
  • 1:58 - 2:01
    Это стало возможным
    благодаря машинному обучению.
  • 2:01 - 2:05
    Алгоритмы собирают информацию
    и обучаются,
  • 2:05 - 2:07
    а не программируются человеком.
  • 2:07 - 2:10
    Это также объясняет успехи IBM:
  • 2:10 - 2:14
    программа Watson обыграла
    двух чемпионов мира в «Своей игре»,
  • 2:14 - 2:17
    ответив на невероятно хитрые и каверзные
    вопросы вроде этого:
  • 2:17 - 2:20
    [В 2003 году «лев Нимруда» исчез
    из музея этого города]
  • 2:20 - 2:23
    Именно этот метод лёг в основу
    технологии беспилотных автомобилей.
  • 2:23 - 2:26
    Важно, чтобы такой автомобиль
    смог отличить
  • 2:26 - 2:28
    дерево от пешехода.
  • 2:28 - 2:31
    Мы не знаем,
    как задать такой алгоритм вручную,
  • 2:31 - 2:34
    зато это стало возможным
    с помощью машинного обучения.
  • 2:34 - 2:37
    Этот автомобиль проехал
    более 1,5 миллионов километров
  • 2:37 - 2:40
    и ни разу не попал в аварию на трассе.
  • 2:40 - 2:44
    Итак, мы знаем,
    что компьютеры могут учиться.
  • 2:44 - 2:46
    Причём они могут учиться делать то,
  • 2:46 - 2:49
    чего не умеем делать мы сами,
  • 2:49 - 2:52
    или могут делать это лучше нас.
  • 2:52 - 2:56
    С одним из самых невероятных примеров
    машинного обучения
  • 2:56 - 2:58
    я столкнулся, пока работал в Kaggle:
  • 2:58 - 3:02
    команда под руководством Джеффри Хинтона
  • 3:02 - 3:03
    из Торонтского университета
  • 3:03 - 3:06
    выиграла конкурс по автоматизации поиска
    новых лекарств.
  • 3:06 - 3:09
    Невероятно не только то,
    что их алгоритм оказался лучше
  • 3:09 - 3:13
    всех алгоритмов, разработанных Merck
    или международным научным сообществом.
  • 3:13 - 3:18
    Никто в команде не имел никакого отношения
    к химии, биологии или медицине,
  • 3:18 - 3:20
    и на всё у них ушло две недели.
  • 3:20 - 3:22
    Как?
  • 3:22 - 3:25
    Благодаря уникальному алгоритму
    глубинного обучения.
  • 3:25 - 3:28
    Результаты их работы были настолько
    ошеломительны, что об этом
  • 3:28 - 3:31
    спустя несколько недель сообщила
    на первой полосе New York Times.
  • 3:31 - 3:34
    Джеффри Хинтон слева.
  • 3:34 - 3:38
    В основе глубинного обучения —
    принципы работы человеческого мозга,
  • 3:38 - 3:40
    и поэтому теоретически
  • 3:40 - 3:44
    у этого алгоритма
    нет ограничений применимости.
  • 3:44 - 3:47
    Чем больше данных на входе
    и времени на их обработку,
  • 3:47 - 3:48
    тем лучше результат.
  • 3:48 - 3:51
    В этой же статье New York Times
    был упомянут
  • 3:51 - 3:53
    другой удивительный продукт
    глубинного обучения,
  • 3:53 - 3:56
    который я вам сейчас продемонстрирую.
  • 3:56 - 4:01
    Он доказывает,
    что компьютеры могут слышать и понимать.
  • 4:01 - 4:03
    (Видео) Ричард Рашид: Наконец,
  • 4:03 - 4:06
    последнее, что я хочу сделать, —
  • 4:06 - 4:11
    это поговорить с вами по-китайски.
  • 4:11 - 4:14
    Суть в том,
  • 4:14 - 4:19
    что мы сформировали массив записей
    носителей китайского языка
  • 4:19 - 4:21
    и разработали систему
    для преобразования текста в речь,
  • 4:21 - 4:26
    которая получает текст на китайском
    и преобразует его в речь.
  • 4:26 - 4:30
    Потом мы записали примерно час
    звучания моего голоса
  • 4:30 - 4:32
    и использовали эту запись для модуляции
  • 4:32 - 4:37
    обычной системы
    преобразования текста в речь.
  • 4:37 - 4:39
    Если что, результат не идеален.
  • 4:39 - 4:42
    Там есть несколько ошибок.
  • 4:42 - 4:44
    (Говорит по-китайски)
  • 4:44 - 4:47
    (Аплодисменты)
  • 4:49 - 4:53
    Нам предстоит ещё много работы.
  • 4:53 - 4:57
    (Говорит по-китайски)
  • 4:57 - 5:00
    (Аплодисменты)
  • 5:01 - 5:05
    Джереми Говард: Это было на конференции
    по машинному обучению в Китае.
  • 5:05 - 5:07
    На самом деле,
    на научных конференциях
  • 5:07 - 5:09
    внезапно аплодируют очень редко,
  • 5:09 - 5:13
    в отличие от TEDx, так что не стесняйтесь.
  • 5:13 - 5:15
    Всё это видео было записано
    с помощью глубинного обучения.
  • 5:15 - 5:17
    (Аплодисменты) Спасибо.
  • 5:17 - 5:19
    Английские субтитры —
    это глубинное обучение,
  • 5:19 - 5:23
    перевод на китайский
    и текст справа вверху — оно же,
  • 5:23 - 5:26
    и конструирование голоса — снова оно.
  • 5:26 - 5:29
    Глубинное обучение — невероятная вещь.
  • 5:29 - 5:32
    Один-единственный алгоритм,
    который, похоже, может почти всё.
  • 5:32 - 5:35
    Ещё годом раньше я обнаружил,
    что этот алгоритм может видеть.
  • 5:35 - 5:37
    На малоизвестном конкурсе в Германии —
  • 5:37 - 5:40
    «Сравнительный анализ распознавания
    дорожных знаков» —
  • 5:40 - 5:44
    глубинное обучение использовалось
    для распознавания вот таких знаков.
  • 5:44 - 5:46
    Мало того, что результаты распознавания
  • 5:46 - 5:47
    были лучше, чем у других алгоритмов;
  • 5:47 - 5:50
    в таблице видно,
    что они превосходят человеческие
  • 5:50 - 5:52
    примерно в два раза.
  • 5:52 - 5:54
    Итак, к 2011 году появился
  • 5:54 - 5:57
    первый компьютер,
    который видел лучше людей.
  • 5:57 - 5:59
    С тех пор произошло многое.
  • 5:59 - 6:03
    В 2012 году в Google объявили,
    что их алгоритм глубинного обучения
  • 6:03 - 6:04
    использовал видео на YouTube.
  • 6:04 - 6:08
    Данные обрабатывались
    на 16 000 компьютеров в течение месяца,
  • 6:08 - 6:12
    и компьютер самостоятельно определил,
    что такое люди и кошки,
  • 6:12 - 6:14
    на основе только видеоматериалов.
  • 6:14 - 6:16
    Это очень похоже на то,
    как учатся люди.
  • 6:16 - 6:19
    Им не говорят, что они видят.
  • 6:19 - 6:22
    Люди сами разбираются, что они видят.
  • 6:22 - 6:26
    В том же 2012 году Джеффри Хинтон,
    которого вы уже знаете,
  • 6:26 - 6:29
    победил в очень известном
    конкурсе ImageNet,
  • 6:29 - 6:33
    в котором необходимо распознать,
    что изображено
  • 6:33 - 6:34
    на 1,5 миллионах картинок.
  • 6:34 - 6:38
    К 2014 году количество ошибок
    в распознавании образов
  • 6:38 - 6:39
    сократилось до 6%.
  • 6:39 - 6:41
    И опять же, это лучше, чем у людей.
  • 6:41 - 6:45
    Эффективность компьютеров действительно
    невероятно высока,
  • 6:45 - 6:47
    и сейчас это применяется
    в коммерческих целях.
  • 6:47 - 6:50
    Так, в прошлом году в Google объявили,
  • 6:50 - 6:55
    что их карты могут локализовать
    любую точку во Франции за два часа:
  • 6:55 - 6:58
    они обрабатывают фотографии улиц
  • 6:58 - 7:03
    с помощью алгоритма глубинного обучения,
    чтобы распознать и прочитать адреса.
  • 7:03 - 7:05
    Подумайте, сколько времени
    это заняло бы:
  • 7:05 - 7:08
    понадобились бы десятки людей
    и несколько лет.
  • 7:08 - 7:10
    То же самое происходит в Китае.
  • 7:10 - 7:14
    Baidu — это что-то вроде
    китайского Google,
  • 7:14 - 7:17
    и сверху слева вы видите картинку,
  • 7:17 - 7:20
    которую я загрузил на вход
    алгоритмов глубинного обучения Baidu,
  • 7:20 - 7:24
    а под ней — то, как система распознала,
    что изображено на картинке,
  • 7:24 - 7:26
    и нашла похожие.
  • 7:26 - 7:29
    Похожие изображения имеют похожий фон,
  • 7:29 - 7:31
    морды смотрят в ту же сторону,
  • 7:31 - 7:33
    иногда даже так же высунут язык.
  • 7:33 - 7:36
    Это не просто поиск текста
    на веб-странице.
  • 7:36 - 7:37
    Я загрузил только картинку.
  • 7:37 - 7:41
    Итак, теперь наши компьютеры
    действительно понимают увиденное
  • 7:41 - 7:43
    и могут искать информацию в базах
  • 7:43 - 7:46
    среди сотен миллионов картинок
    в режиме реального времени.
  • 7:46 - 7:50
    Значит ли это,
    что компьютеры могут видеть?
  • 7:50 - 7:52
    Это не просто умение видеть.
  • 7:52 - 7:54
    Глубинное обучение — это намного больше.
  • 7:54 - 7:57
    Сложные предложения со множеством
    смысловых оттенков
  • 7:57 - 7:59
    теперь понятны благодаря
    алгоритмам глубинного обучения.
  • 7:59 - 8:01
    Как видно на экране,
  • 8:01 - 8:04
    эта стэнфордская система распознаёт
    отрицательные эмоции в предложении
  • 8:04 - 8:07
    и отмечает их красными точками сверху.
  • 8:07 - 8:11
    Глубинное обучение
    похоже на человеческое поведение
  • 8:11 - 8:16
    в процессе распознавания того,
    что и о чём сказано.
  • 8:16 - 8:19
    Глубинное обучение использовалось
    для чтения на китайском.
  • 8:19 - 8:22
    Результат был на уровне результата
    человека — носителя китайского.
  • 8:22 - 8:24
    Этот алгоритм
    был разработан в Швейцарии
  • 8:24 - 8:27
    людьми, ни один из которых
    не говорит по-китайски.
  • 8:27 - 8:29
    Как я и сказал, глубинное обучение —
  • 8:29 - 8:32
    это оптимальный способ
    решения таких задач,
  • 8:32 - 8:37
    даже по сравнению
    с человеческим восприятием.
  • 8:37 - 8:40
    На экране система,
    разработаная в моей компании,
  • 8:40 - 8:42
    в ней задействовано всё,
    о чём я рассказал.
  • 8:42 - 8:44
    Это картинки без описаний.
  • 8:44 - 8:47
    Здесь я набираю предложения.
  • 8:47 - 8:50
    В режиме реального времени
    картинки распознаются,
  • 8:50 - 8:51
    определяется их смысл,
  • 8:51 - 8:54
    и находятся изображения,
    соответствующие введённому мной тексту.
  • 8:54 - 8:57
    Итак, вы видите, что предложения
  • 8:57 - 8:59
    и картинки действительно распознаются.
  • 8:59 - 9:02
    Я знаю, что вы видели
    нечто похожее в Google,
  • 9:02 - 9:05
    при вводе запроса,
    по которому вам выдаются картинки,
  • 9:05 - 9:08
    но в действительности там идёт поиск
    нужного текста на веб-странице.
  • 9:08 - 9:11
    Распознавание образов —
    это принципиально новый процесс.
  • 9:11 - 9:14
    Распознавание стало доступно
    компьютерным алгоритмам
  • 9:14 - 9:17
    впервые несколько месяцев назад.
  • 9:17 - 9:21
    Итак, компьютеры теперь могут
    не только видеть, но и читать,
  • 9:21 - 9:25
    и, как мы уже показали,
    понимать услышанное.
  • 9:25 - 9:28
    Вы вряд ли удивитесь, если я вам скажу,
    что они умеют писать.
  • 9:28 - 9:33
    Вот текст, который я вчера получил
    с помощью алгоритма глубинного обучения.
  • 9:33 - 9:37
    А вот текст, полученный
    с помощью стэнфордского алгоритма.
  • 9:37 - 9:39
    Каждое из этих предложений составлено
  • 9:39 - 9:43
    алгоритмом глубинного обучения
    для описания этих картинок.
  • 9:43 - 9:48
    Алгоритм ещё не встречал понятия мужчины
    в чёрной рубашке, играющего на гитаре.
  • 9:48 - 9:50
    Но ему известны понятия
  • 9:50 - 9:51
    человека, чёрного, гитары,
  • 9:51 - 9:56
    и алгоритм независимо формулирует
    связное описание этого изображения.
  • 9:56 - 9:59
    Мы всё ещё не дотягиваем до уровня
    человека, но мы уже близки.
  • 9:59 - 10:03
    При испытаниях люди выбирают
    описания, данные компьютером,
  • 10:03 - 10:05
    в одном случае из четырёх.
  • 10:05 - 10:07
    Эта система была создана
    две недели назад,
  • 10:07 - 10:09
    и, скорее всего, в течение года
  • 10:09 - 10:12
    алгоритм покажет результаты
    намного лучше человеческих,
  • 10:12 - 10:13
    если будет развиваться в том же темпе.
  • 10:13 - 10:16
    Итак, компьютеры могут ещё и писать.
  • 10:16 - 10:20
    Складываем всё вместе,
    и нам открываются невероятные возможности.
  • 10:20 - 10:21
    Например, в медицине.
  • 10:21 - 10:24
    Группа учёных из Бостона открыла
  • 10:24 - 10:27
    десятки новых клинически значимых
    особенностей опухолей;
  • 10:27 - 10:31
    это поможет врачам
    давать прогнозы онкобольным.
  • 10:32 - 10:35
    Точно так же в Стэнфорде
  • 10:35 - 10:38
    группа учёных, проанализиров опухоли
    под увеличением,
  • 10:38 - 10:41
    создала систему
    на основе машинного обучения,
  • 10:41 - 10:43
    которая работает лучше,
    чем патологоанатомы,
  • 10:43 - 10:48
    прогнозируя исход заболевания
    у онкобольных.
  • 10:48 - 10:51
    В обоих случаях алгоритмы давали
    не только более точный результат,
  • 10:51 - 10:53
    но и новые ценные открытия.
  • 10:53 - 10:55
    В случае с радиологией
  • 10:55 - 10:58
    это были новые клинические показатели,
    понятные для людей.
  • 10:58 - 11:00
    В случае с патологиями
  • 11:00 - 11:04
    алгоритм установил,
    что для постановки диагноза
  • 11:04 - 11:08
    клетки вокруг опухоли так же важны,
  • 11:08 - 11:09
    как и сами раковые клетки.
  • 11:09 - 11:15
    Это противоречит всему, чему
    патологоанатомов учили десятилетиями.
  • 11:15 - 11:18
    В разработке обеих систем
  • 11:18 - 11:22
    участвовали как эксперты-врачи,
    так и специалисты по машинному обучению,
  • 11:22 - 11:24
    но в прошлом году мы смогли преодолеть
    и это ограничение.
  • 11:24 - 11:28
    На экране пример распознавания
    поражённых раком
  • 11:28 - 11:30
    человеческих тканей под микроскопом.
  • 11:30 - 11:35
    Система, изображённая на экране,
    может определить их точнее,
  • 11:35 - 11:38
    или так же точно, как и патологоанатом.
  • 11:38 - 11:41
    В её основе — только метод
    глубинного обучения.
  • 11:41 - 11:44
    Она разработана людьми, не имеющими
    никакого отношения к медицине.
  • 11:45 - 11:47
    Или сегментация нейронов.
  • 11:47 - 11:51
    Теперь мы можем сегментировать нейроны
    так же точно, как и вручную,
  • 11:51 - 11:54
    и эта система так же была основана
    на глубинном обучении
  • 11:54 - 11:57
    и разработана людьми, не имеющими
    медицинских знаний или опыта.
  • 11:57 - 12:00
    Поэтому я, как человек,
    никогда не занимавшийся медициной,
  • 12:00 - 12:04
    оказался отличным кандидатом на роль
    основателя новой медицинской компании.
  • 12:04 - 12:06
    Им я и стал.
  • 12:06 - 12:08
    Я порядком трусил,
  • 12:08 - 12:11
    но в теории можно было
  • 12:11 - 12:16
    разрабатывать очень полезные препараты,
    используя только анализ данных.
  • 12:16 - 12:19
    И — слава богу —
    отзывы превзошли все мои ожидания,
  • 12:19 - 12:21
    не только в СМИ,
    но и от медицинского сообщества,
  • 12:21 - 12:23
    где горячо поддержали мою идею.
  • 12:23 - 12:27
    Идея заключается в том, что мы можем
    взять промежуточный этап лечения
  • 12:27 - 12:30
    и максимально применить к нему
    наши способы анализа данных,
  • 12:30 - 12:33
    позволив врачам заниматься тем,
    что у них получается лучше всего.
  • 12:33 - 12:35
    Приведу пример.
  • 12:35 - 12:40
    На составление нового диагностического
    теста у нас уходит 15 минут.
  • 12:40 - 12:42
    Я покажу это в режиме реального времени,
  • 12:42 - 12:45
    но сокращу процесс до трёх минут,
    вырезав отдельные фрагменты.
  • 12:45 - 12:48
    Вместо медицинских терминов
  • 12:48 - 12:52
    будут изображения машин,
  • 12:52 - 12:54
    потому что так будет понятнее всем.
  • 12:54 - 12:57
    Итак, начнём с 1,5 миллионов
    изображений машин.
  • 12:57 - 13:00
    Я хочу придумать, как их разбить
    на группы в зависимости от угла,
  • 13:00 - 13:03
    с которого они сфотографированы.
  • 13:03 - 13:07
    Ни одна из картинок не имеет описания,
    поэтому мне придётся начинать с нуля.
  • 13:07 - 13:08
    Наш алгоритм глубинного обучения
  • 13:08 - 13:12
    автоматически распознаёт отдельные
    компоненты на этих изображениях.
  • 13:12 - 13:16
    Хорошо то, что человек и компьютер
    могут решать задачу вместе.
  • 13:16 - 13:18
    Человек, как вы видите,
  • 13:18 - 13:21
    задаёт компьютеру исследуемую область,
  • 13:21 - 13:25
    на основе которой компьютер должен
    усовершенствовать свои алгоритмы.
  • 13:25 - 13:30
    Такая система глубинного обучения работает
    в 16 000-мерном пространстве.
  • 13:30 - 13:33
    Компьютер вращает в нём данные,
  • 13:33 - 13:35
    чтобы обнаружить новые структуры.
  • 13:35 - 13:37
    А когда он их находит,
  • 13:37 - 13:41
    человек, управляющий процессом,
    указывает на те, что его интересуют.
  • 13:41 - 13:43
    Итак, компьютер успешно
    обнаруживает признаки,
  • 13:43 - 13:46
    например, ракурс.
  • 13:46 - 13:47
    В ходе исследования
  • 13:47 - 13:50
    мы постепенно уточняем,
  • 13:50 - 13:52
    что именно мы ищем.
  • 13:52 - 13:54
    Представьте диагностический тест,
  • 13:54 - 13:57
    благодаря которому врач
    определяет границы патологии
  • 13:57 - 14:02
    или радиолог — потенциально
    опасные образования.
  • 14:02 - 14:05
    Иногда алгоритм
    не может справиться с задачей.
  • 14:05 - 14:07
    Он не находит решения.
  • 14:07 - 14:09
    Здесь капоты и багажники машин
    идут вперемешку.
  • 14:09 - 14:11
    Поэтому нам надо быть немного аккуратнее
  • 14:11 - 14:15
    и разделить их вручную,
  • 14:15 - 14:20
    а затем задать компьютеру тип изображений,
  • 14:20 - 14:22
    которые нам нужны.
  • 14:22 - 14:24
    Процесс идёт какое-то время,
    пропустим немного,
  • 14:24 - 14:26
    а потом мы обучаем наш алгоритм
  • 14:26 - 14:28
    на основе двух объектов из сотен
  • 14:28 - 14:30
    и надеемся, что он это усвоил.
  • 14:30 - 14:34
    Видите, некоторые
    из этих картинок поблёкли.
  • 14:34 - 14:38
    Это означает, что теперь компьютер
    распознаёт их самостоятельно.
  • 14:38 - 14:41
    Теперь мы можем использовать
    этот принцип похожих изображений.
  • 14:41 - 14:43
    Как видите, используя эти изображения,
  • 14:43 - 14:47
    компьютер может самостоятельно
    находить только фотографии машин спереди.
  • 14:47 - 14:50
    Теперь человек может сказать компьютеру:
  • 14:50 - 14:52
    «Отлично, ты молодец».
  • 14:54 - 14:56
    Иногда, конечно, даже на этом этапе
  • 14:56 - 15:00
    всё ещё сложно выделить группы.
  • 15:00 - 15:03
    В этом случае даже после дополнительного
    вращения данных компьютером
  • 15:03 - 15:07
    снимки машин, сделанные справа и слева,
  • 15:07 - 15:08
    всё ещё идут вперемешку.
  • 15:08 - 15:10
    Мы снова даём компьютеру подсказки,
  • 15:10 - 15:13
    чтобы он нашёл плоскость,
    которая разделит
  • 15:13 - 15:16
    изображения автомобилей
    справа и слева предельно точно
  • 15:16 - 15:18
    на основе алгоритма глубинного обучения.
  • 15:18 - 15:21
    И с этими подсказками — о, отлично,
    решение найдено.
  • 15:21 - 15:24
    Компьютер ищет, чем эти объекты
  • 15:24 - 15:26
    отличаются от остальных.
  • 15:26 - 15:29
    Это суть метода.
  • 15:29 - 15:37
    Компьютер не заменяет человека,
  • 15:37 - 15:40
    здесь они работают вместе.
  • 15:40 - 15:43
    То, на что команда
  • 15:43 - 15:45
    из 5—6 человек потратила бы около 7 лет,
  • 15:45 - 15:48
    мы заменяем 15-минутной процедурой,
  • 15:48 - 15:50
    которую выполняет всего один человек.
  • 15:50 - 15:54
    Этот процесс выполняется
    за 4—5 рабочих циклов.
  • 15:54 - 15:56
    Как видите, теперь из наших
  • 15:56 - 15:59
    1,5 миллионов изображений
    верно классифицированы 62%.
  • 15:59 - 16:01
    Теперь мы сможем быстро выделять
  • 16:01 - 16:03
    отдельные большие блоки
  • 16:03 - 16:06
    и просматривать их, чтобы убедиться,
    что в них нет ошибок.
  • 16:06 - 16:10
    Если возникают ошибки,
    мы указываем на них компьютеру.
  • 16:10 - 16:13
    Применяя эту процедуру
    к разным группам по отдельности,
  • 16:13 - 16:15
    мы получаем
    около 80% верных результатов
  • 16:15 - 16:18
    при распределении
    1,5 миллионов изображений.
  • 16:18 - 16:20
    Сейчас задача состоит только в том,
  • 16:20 - 16:23
    чтобы найти те немногочисленные
    неверно распознаные изображения,
  • 16:23 - 16:26
    и понять, почему это произошло.
  • 16:26 - 16:28
    Используя этот метод,
  • 16:28 - 16:32
    за 15 минут мы получаем
    результат, верный на 97%.
  • 16:32 - 16:37
    Эта техника поможет нам справиться
    с одной из важнейших проблем —
  • 16:37 - 16:40
    нехваткой медицинских работников в мире.
  • 16:40 - 16:43
    По данным, озвученным на Всемирном
    экономическом форуме,
  • 16:43 - 16:46
    развивающимся странам
    нужно в 10—20 раз больше терапевтов
  • 16:46 - 16:48
    и понадобится около 300 лет,
  • 16:48 - 16:51
    чтобы обучить нужное количество людей.
  • 16:51 - 16:54
    А теперь представьте,
    что мы повысим их эффективность,
  • 16:54 - 16:56
    используя глубинное обучение.
  • 16:56 - 16:59
    Эти возможности приводят меня
    в полный восторг,
  • 16:59 - 17:01
    но в то же время
    я отдаю отчёт в последствиях.
  • 17:01 - 17:04
    Проблема в том, что во всех странах,
    отмеченных на карте синим,
  • 17:04 - 17:08
    80% рабочих мест приходится
    на сферу услуг.
  • 17:08 - 17:10
    Каких услуг?
  • 17:10 - 17:11
    Вот этих услуг.
  • 17:11 - 17:16
    А это именно то, что компьютеры
    только что научились делать.
  • 17:16 - 17:19
    Если 80% людей в развитых странах
  • 17:19 - 17:22
    заняты тем, что теперь
    умеет компьютер,
  • 17:22 - 17:23
    то что это значит?
  • 17:23 - 17:26
    Всё в порядке. Они сменят работу.
  • 17:26 - 17:29
    Например, будет больше работы
    для аналитиков данных.
  • 17:29 - 17:30
    Ну или не совсем.
  • 17:30 - 17:33
    Решение этих задач не займёт
    у них много времени.
  • 17:33 - 17:36
    Например, эти четыре алгоритма
    создал один и тот же человек.
  • 17:36 - 17:38
    Вы скажете, что человечество
    с этим уже сталкивалось.
  • 17:38 - 17:42
    В прошлом мы видели,
    что когда приходят новые технологии,
  • 17:42 - 17:44
    новые профессии приходят на смену старым,
  • 17:44 - 17:46
    но что это будут за новые профессии?
  • 17:46 - 17:48
    Нам очень сложно сейчас это оценить,
  • 17:48 - 17:51
    ведь производительность человеческого
    труда растёт постепенно.
  • 17:51 - 17:54
    Однако теперь есть система
    глубинного обучения,
  • 17:54 - 17:57
    и мы знаем, что её возможности
    растут по экспоненте.
  • 17:57 - 17:58
    Итак,
  • 17:58 - 18:01
    мы оглядываемся по сторонам:
  • 18:01 - 18:03
    «Ведь компьютеры всё ещё
    достаточно примитивны». Верно?
  • 18:03 - 18:07
    Но через пять лет их возможности выйдут
    за границы этого графика.
  • 18:07 - 18:10
    Поэтому нам необходимо начать обдумывать
    этот аспект прямо сейчас.
  • 18:10 - 18:13
    Разумеется, такое уже случалось
    в истории человечества.
  • 18:13 - 18:14
    Промышленная революция,
  • 18:14 - 18:17
    благодаря двигателям, дала
    качественный скачок производства.
  • 18:18 - 18:21
    Однако спустя какое-то время
    мощности перестали расти.
  • 18:21 - 18:23
    Случился социальный взрыв,
  • 18:23 - 18:26
    но когда двигатели стали применяться
    в промышленности повсеместно,
  • 18:26 - 18:28
    был найден баланс.
  • 18:28 - 18:30
    Революция машинного обучения
  • 18:30 - 18:33
    будет сильно отличаться
    от промышленной революции,
  • 18:33 - 18:36
    потому что революция
    машинного обучения непрерывна.
  • 18:36 - 18:39
    Чем более интеллектуально
    развиты компьютеры,
  • 18:39 - 18:43
    тем более интеллектуально
    развитые компьютеры они создают.
  • 18:43 - 18:45
    А это приведёт к тому,
  • 18:45 - 18:47
    с чем наш мир
    никогда раньше не сталкивался,
  • 18:47 - 18:51
    и ваши прошлые представления
    о возможном изменятся.
  • 18:51 - 18:53
    Мы это уже почувствовали на себе.
  • 18:53 - 18:56
    В течение последней четверти века
    производительность оборудования росла,
  • 18:56 - 19:01
    в то время как производительность рабочих
    оставалась прежней или немного снижалась.
  • 19:01 - 19:04
    Я хочу, чтобы мы уже сейчас
    задумались над этим.
  • 19:04 - 19:07
    Когда я рассказываю об этом людям,
  • 19:07 - 19:09
    они зачастую мне не верят:
  • 19:09 - 19:10
    мол, компьютеры не могут думать,
  • 19:10 - 19:13
    переживать, воспринимать стихи.
  • 19:13 - 19:16
    Мы не понимаем по-настоящему,
    как они работают.
  • 19:16 - 19:17
    И что?
  • 19:17 - 19:19
    Уже сейчас компьютеры
    делают то,
  • 19:19 - 19:22
    на что люди тратят бóльшую часть
    оплачиваемого времени,
  • 19:22 - 19:24
    так что теперь пора думать над тем,
  • 19:24 - 19:28
    как мы будем адаптировать наши
    социальные и экономические структуры,
  • 19:28 - 19:30
    чтобы быть готовыми
    к новой реальности.
  • 19:30 - 19:31
    Спасибо.
  • 19:31 - 19:32
    (Аплодисменты)
Title:
Прекрасные и ужасные последствия самообучения компьютеров
Speaker:
Джереми Говард
Description:

Что произойдёт, если мы научим компьютер учиться? Инженер Джереми Говард делится несколькими удивительными достижениями в динамичной сфере глубинного обучения, метода, который позволяет компьютеру выучить китайский, распознавать объекты на фотографиях или поставить медицинский диагноз (например, один из алгоритмов глубинного обучения после нескольких часов просмотра видео на YouTube начал распознавать кошек). Вам предлагается погрузиться в науку, которая изменит поведение окружающих вас компьютеров... раньше, чем вы думаете.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
19:45

Russian subtitles

Revisions