Return to Video

Плюси та мінуси використання комп'ютерів, які самі вчаться

  • 0:02 - 0:05
    Колись, щоб комп'ютер
    для вас щось зробив,
  • 0:05 - 0:06
    його потрібно було спочатку
    запрограмувати.
  • 0:06 - 0:10
    Тим з присутніх, хто ніколи сам не програмував,
    я поясню, що для цього
  • 0:10 - 0:13
    доводиться до найменших
    подробиць описувати
  • 0:13 - 0:17
    кожну-кожнісіньку комп'ютерну команду,
  • 0:17 - 0:19
    щоб досягнути своєї мети.
  • 0:19 - 0:23
    А якщо ви не знаєте,
    як і що потрібно виконати,
  • 0:23 - 0:25
    завдання стає
    величезним викликом.
  • 0:25 - 0:28
    Перед таким викликом
    опинився Артур Семюел.
  • 0:28 - 0:32
    В 1956 році він хотів
    налаштувати комп'ютер таким чином,
  • 0:32 - 0:35
    щоб той виграв у нього в шашки.
  • 0:35 - 0:37
    Як можна вручну написати програму,
  • 0:37 - 0:40
    яка дозволить грати краще за тебе в шашки?
  • 0:40 - 0:42
    Нарешті, він здогадався:
  • 0:42 - 0:46
    він налаштував комп'ютер грати
    проти самого себе тисячі разів
  • 0:46 - 0:48
    і таким чином навчив його грати в шашки.
  • 0:48 - 0:52
    І це насправді спрацювало,
    бо до 1962 року
  • 0:52 - 0:55
    цей комп'ютер вже переграв
    чемпіона штату Конектикут.
  • 0:56 - 0:59
    Так Артур Семюел започаткував
    комп'ютерне навчання,
  • 0:59 - 1:00
    і я вдячний йому за це,
  • 1:00 - 1:03
    адже я - експерт з комп'ютерного навчання.
  • 1:03 - 1:05
    Я був президентом спільноти Kaggle,
  • 1:05 - 1:08
    в якій більше 200 тисяч експертів
    з комп'ютерного навчання.
  • 1:08 - 1:10
    Kaggle влаштовує змагання
  • 1:10 - 1:14
    з розв'язання задач,
    які раніше не було розв'язано.
  • 1:14 - 1:17
    Сотні змагань завершилися блискуче.
  • 1:17 - 1:20
    Ось в такому сприятливому середовищі
  • 1:20 - 1:24
    я дізнався, що комп'ютерне навчання
    могло для нас зробити в минулому,
  • 1:24 - 1:26
    а також зараз і в майбутньому.
  • 1:26 - 1:31
    Напевно, Google - найбільший комерційний
    успіх комп'ютерного навчання.
  • 1:31 - 1:34
    Google показав, що можна використовувати
  • 1:34 - 1:37
    алгоритм на основі комп'ютерного навчання
  • 1:37 - 1:38
    для пошуку інформації.
  • 1:38 - 1:42
    З того часу комп'ютерне навчання мало
    великий комерційний успіх.
  • 1:42 - 1:45
    Компанії Amazon і Netflix
    використовують комп'ютерне навчання
  • 1:45 - 1:48
    для маркетингу товарів,
    що можуть вам сподобатись,
  • 1:48 - 1:50
    і фільмів, які ви захочете подивитись.
  • 1:50 - 1:52
    Інколи від того стає моторошно.
  • 1:52 - 1:54
    Такі компанії як LinkedIn та Facebook
  • 1:54 - 1:56
    показують хто, можливо, є вашим другом,
  • 1:56 - 1:58
    а ви й не здогадуєтесь, як це налаштовано.
  • 1:58 - 2:01
    Вони використовують можливості
    комп'ютерного навчання.
  • 2:01 - 2:04
    Це алгоритми,
    які навчились опрацьовувати дані,
  • 2:04 - 2:07
    а не були запрограмовані вручну.
  • 2:07 - 2:10
    Саме тому IBM вдалося за допомогою
    комп'ютера Watson
  • 2:10 - 2:12
    перемогти двох світових лідерів
    у грі "Jeopardy",
  • 2:12 - 2:14
    відповівши на складні питання,
    як-от:
  • 2:14 - 2:17
    "В 2003 році старовинна пластина
    "Лев з Німруду" зникла
  • 2:17 - 2:20
    з національного музею
    цього міста (разом з іншими експонатами)".
  • 2:21 - 2:24
    Завдяки саме цій технології ми маємо
    самокеровані автівки.
  • 2:24 - 2:28
    Доволі важливо, скажімо,
    відрізняти дерево від пішохода.
  • 2:28 - 2:31
    Ми не знаємо, як написати таку програму,
  • 2:31 - 2:34
    але завдяки комп'ютерному навчанню
    тепер це можливо.
  • 2:34 - 2:37
    Власне кажучи, це авто проїхало
    понад мільйон миль
  • 2:37 - 2:40
    звичайними дорогами і без жодної аварії.
  • 2:41 - 2:44
    Тепер ми знаємо,
    що комп'ютери здатні вчитися,
  • 2:44 - 2:46
    а також вони здатні навчитися робити речі,
  • 2:46 - 2:49
    яких ми не вміємо робити,
  • 2:49 - 2:52
    або вони зроблять їх краще за нас.
  • 2:52 - 2:56
    Чудовим прикладом комп'ютерного навчання
  • 2:56 - 2:58
    був проект Kaggle під моїм керівництвом,
  • 2:58 - 3:02
    на якому група Geoffrey Hinton
  • 3:02 - 3:03
    з університету Торонто
  • 3:03 - 3:06
    перемогла в змаганні
    з автоматичного підбору ліків.
  • 3:06 - 3:09
    Незвичайним було не тільки те,
    що вони обійшли
  • 3:09 - 3:13
    компанію Merck і міжнародну
    академічну спільноту в розробці алгоритму,
  • 3:13 - 3:18
    а й те, що жоден з членів команди не мав
    освіти з хімії, біології чи медичних наук,
  • 3:18 - 3:20
    а виконали вони це завдання за два тижні.
  • 3:20 - 3:22
    Як їм це вдалось?
  • 3:22 - 3:25
    Вони використали надзвичайний
    алгоритм глибинного навчання.
  • 3:25 - 3:28
    Ця подія була настільки важливою,
    що про її успіх написали
  • 3:28 - 3:31
    на першій сторінці New York Times
    кілька тижнів потому.
  • 3:31 - 3:34
    Ось на фото зліва Джеффрі Гінтон.
  • 3:34 - 3:38
    Алгоритм глибинного навчання створено
  • 3:38 - 3:40
    як аналог функції людського мозку
  • 3:40 - 3:44
    і тому, теоритично,
    він не має обмежень у роботі.
  • 3:44 - 3:48
    Що більше даних і часу обчислення
    ви додаєте, то кращим він стає.
  • 3:48 - 3:51
    Інша надзвичайна особливість
    алгоритму глибинного навчання
  • 3:51 - 3:53
    була висвітлена у статті з New York Times,
  • 3:53 - 3:55
    і я вам її зараз продемонструю.
  • 3:56 - 4:00
    Йдеться про здатність комп'ютерів
    слухати і розуміти.
  • 4:01 - 4:05
    (Відео) Річард Рашід:
    "Я завершу цей огляд,
  • 4:05 - 4:09
    звернувшись до вас китайською мовою.
  • 4:10 - 4:14
    Суть в тому,
    що я використав велику кількість даних
  • 4:14 - 4:15
    різних мовців китайською
  • 4:15 - 4:19
    і конвертував китайський текст
    на мовлення
  • 4:19 - 4:25
    за допомогою системи конвертації.
  • 4:25 - 4:29
    Далі ми використали годину
    мого власного звучання
  • 4:29 - 4:32
    для моделювання звичайної
    системи перетворення тексту
  • 4:32 - 4:36
    в моє мовлення.
  • 4:36 - 4:39
    Повторюсь: результат не є ідеальним.
  • 4:39 - 4:42
    Насправді, там є декілька помилок.
  • 4:42 - 4:43
    (Говорить китайською)
  • 4:44 - 4:48
    (Оплески)
  • 4:49 - 4:53
    Ще багато потрібно зробити
    в цьому напрямку".
  • 4:53 - 4:57
    (Говорить китайською)
  • 4:57 - 5:01
    (Оплески)
  • 5:01 - 5:05
    Джеремі Говард: Це було на конференції
    з комп'ютерного навчання в Китаї.
  • 5:05 - 5:07
    Взагалі, не часто можна розраховувати на
    бурхливі оплески
  • 5:07 - 5:09
    під час наукової конференції,
  • 5:09 - 5:12
    а ось на конференціях TEDx все може бути,
    тож - не соромтесь.
  • 5:13 - 5:16
    Все, що ви тут побачили, відбулось
    з застосуванням глибинного навчання.
  • 5:16 - 5:17
    (Оплески) Дякую.
  • 5:17 - 5:19
    Транскрипція англійською -
    це глибинне навчання.
  • 5:19 - 5:23
    Переклад китайською і текст у верхньому
    правому кутку - глибинне навчання,
  • 5:23 - 5:26
    і відновлення голосу -
    також глибинне навчання.
  • 5:26 - 5:29
    Глибинне навчання -
    це надзвичайний алгоритм.
  • 5:29 - 5:32
    Здається, цей єдиний алгоритм
    здатен зробити майже все.
  • 5:32 - 5:35
    І я дізнався, що на рік раніше
    він також навчився бачити.
  • 5:35 - 5:38
    В німецькому змаганні
    з розпізнавання дорожних знаків -
  • 5:38 - 5:40
    German Traffic Sign
    Recognition Benchmark -
  • 5:40 - 5:43
    алгоритм глибинного навчання
    розпізнавав такі дорожні знаки, як цей.
  • 5:44 - 5:47
    Він не тільки навчився розпізнавати знаки
    краще за інші алгоритми,
  • 5:47 - 5:51
    але й зробив це вдвічі краще за людей,
    як засвідчив рейтинг переможців.
  • 5:52 - 5:54
    Так до 2011 року
    ми вже мали перший комп'ютер,
  • 5:54 - 5:57
    який міг бачити краще за людей.
  • 5:57 - 5:59
    Багато змінилося з того часу.
  • 5:59 - 6:03
    В 2012 році Google анонсував про те,
    що алгоритм
  • 6:03 - 6:05
    глибинного навчання
    мав переглянути відео в YouTube
  • 6:05 - 6:08
    і опрацювати дані 16 000 комп'ютерів
    протягом місяця.
  • 6:08 - 6:14
    Комп'ютер, переглядаючи відео,
    вивчив концепції "люди" і "коти".
  • 6:14 - 6:16
    Майже так само вчаться люди.
  • 6:16 - 6:19
    Люди вчаться не з того,
    що їм кажуть, начебто вони бачать,
  • 6:19 - 6:22
    але розуміючи, що ті речі означають.
  • 6:22 - 6:26
    Також в 2012 році Джеффрі Гінтон,
    якого ми бачили раніше,
  • 6:26 - 6:29
    переміг у відомому змаганні ImageNet,
  • 6:29 - 6:34
    вирахувавши, що зображено
    на 1,5 мільйонах фотографій.
  • 6:34 - 6:38
    На 2014 рік ми досягли 6% частоти помилок
  • 6:38 - 6:39
    в розпізнаванні зображень.
  • 6:39 - 6:41
    Це краще за людські результати.
  • 6:41 - 6:45
    Комп'ютери справді добре вправляються
    з такими завданнями,
  • 6:45 - 6:47
    і це вже використовують у виробництві.
  • 6:47 - 6:50
    Наприклад, Google оголосив торік,
  • 6:50 - 6:54
    що вони позначили на карті
    кожен клаптик Франції за дві години.
  • 6:54 - 6:56
    А зробили вони це так.
  • 6:56 - 6:59
    Вони завантажили зображення вулиць
    в алгоритм глибинного навчання,
  • 6:59 - 7:03
    щоб розпізнати і
    прочитати номери будинків.
  • 7:03 - 7:05
    Тільки уявіть,
    скільки часу знадобилось би раніше:
  • 7:05 - 7:08
    десятки людей, багато років.
  • 7:08 - 7:10
    Подібне відбувається в Китаї.
  • 7:10 - 7:14
    Baidu - найбільша пошукова система
    в Китаї,
  • 7:14 - 7:16
    і те, що ви бачите
    в верхньому лівому кутку,
  • 7:16 - 7:20
    є прикладом фото, яке я завантажив
    у систему глибинного навчання Baidu.
  • 7:20 - 7:24
    Нижче ви побачите,
    як система розпізнала фото
  • 7:24 - 7:26
    і знайшла подібні йому.
  • 7:26 - 7:29
    Підібрані фото мають подібний фон,
  • 7:29 - 7:31
    подібний ракурс голови,
  • 7:31 - 7:33
    деякі навіть з висунутим язичком.
  • 7:33 - 7:36
    Зрозуміло, пошук відбувся
    не за текстом веб-сторінки.
  • 7:36 - 7:37
    Я завантажив тільки фотографію.
  • 7:37 - 7:41
    Тепер ми маємо комп'ютери, які
    дійсно розуміють, що вони бачать,
  • 7:41 - 7:43
    і тому можуть в реальному часі
  • 7:43 - 7:46
    вести пошук по базах
    сотень мільйонів зображень.
  • 7:46 - 7:49
    Що ж означає ця здатність
    комп'ютерів бачити?
  • 7:49 - 7:51
    Вони не тільки бачать.
  • 7:51 - 7:54
    Насправді, алгоритм глибинного навчання
    може більше.
  • 7:54 - 7:57
    Тепер алгоритм глибинного навчання розуміє
  • 7:57 - 7:59
    складні речення з нюансами, як ось це.
  • 7:59 - 8:01
    Бачите, відповідно до
  • 8:01 - 8:03
    Стенфордської символьної системи,
  • 8:03 - 8:05
    червона крапка зверху означає,
  • 8:05 - 8:07
    що тут виражено негативний сантимент.
  • 8:07 - 8:11
    Алгоритм глибинного навчання вже
    наближається до людського розуміння,
  • 8:11 - 8:16
    про які речі йдеться в реченні
    і що саме про них.
  • 8:16 - 8:19
    Також алгоритм глибинного навчання
    було використано
  • 8:19 - 8:22
    для читання китайською майже
    на рівні носія китайської мови.
  • 8:22 - 8:24
    Цей алгоритм розробляли в Швейцарії люди,
  • 8:24 - 8:27
    які не розуміють і не говорять китайською.
  • 8:27 - 8:30
    Як вже було сказано,
    система глибинного навчання
  • 8:30 - 8:32
    є найкращою в світі для таких цілей,
  • 8:32 - 8:36
    навіть у порівнянні з носієм мови.
  • 8:37 - 8:42
    Всі ці функції моя компанія зібрала
    в єдину систему.
  • 8:42 - 8:44
    Ось малюнки без тексту.
  • 8:44 - 8:47
    Я ввожу сюди речення,
  • 8:47 - 8:50
    система одночасно розпізнає,
    що зображено на цих малюнках,
  • 8:50 - 8:51
    а потім шукає малюнки,
  • 8:51 - 8:54
    які відповідають введеному тексту.
  • 8:54 - 8:57
    Отже, ви бачите, що система насправді
    розпізнає мої речення
  • 8:57 - 8:59
    і також розпізнає ці малюнки.
  • 8:59 - 9:02
    Я знаю - щось подібне вже є у Google,
  • 9:02 - 9:05
    де ви вводите текст,
    і він знайде вам відповідний малюнок,
  • 9:05 - 9:08
    але насправді буде знайдено
    веб-сторінку відповідно до тексту.
  • 9:08 - 9:11
    Розпізнавання зображення -
    це зовсім інша справа.
  • 9:11 - 9:14
    Лише кілька місяців тому
    комп'ютерові вдалося зробити це вперше.
  • 9:17 - 9:21
    Тепер ми переконались, що комп'ютери
    навчились не тільки бачити, а й читати,
  • 9:21 - 9:25
    а також, як було показано,
    вони розпізнають те, що чують.
  • 9:25 - 9:28
    Можливо, я вас вже не здивую,
    коли я скажу, що вони вміють і писати.
  • 9:28 - 9:33
    Ось текст, який я вчора згенерував,
    з алгоритмом глибинного навчання.
  • 9:33 - 9:36
    А ось текст, що було згенеровано
    Стенфордською системою.
  • 9:36 - 9:39
    Кожне з цих речень було створено
    за допомогою
  • 9:39 - 9:43
    алгоритму глибинного навчання
    для опису цих малюнків.
  • 9:43 - 9:45
    Цей алгоритм ніколи раніше не бачив
  • 9:45 - 9:48
    чоловіка в чорній сорочці
    з гітарою в руках.
  • 9:48 - 9:50
    Він бачив раніше чоловіка,
    він бачив раніше чорний колір,
  • 9:50 - 9:51
    він бачив раніше гітару,
  • 9:51 - 9:56
    але цей новий опис малюнка
    він створив самостійно.
  • 9:56 - 9:59
    Поки ми ще не досягли рівня
    людських можливостей, але ми дуже близько.
  • 9:59 - 10:02
    Тестування показало,
    що кожна четверта людина
  • 10:02 - 10:04
    обирала згенерований комп'ютером варіант.
  • 10:04 - 10:06
    Ця система існує тільки два тижні,
  • 10:06 - 10:09
    тож за таких темпів протягом
    наступного року
  • 10:09 - 10:13
    комп'ютерний алгоритм перевершить
    людські можливості.
  • 10:13 - 10:16
    Отже, комп'ютери можуть також писати.
  • 10:16 - 10:20
    Якщо складемо все до купи,
    то матимемо дуже цікаві перспективи.
  • 10:20 - 10:21
    Наприклад, в медицині:
  • 10:21 - 10:24
    бостонська команда оголосила,
    що вони відкрили
  • 10:24 - 10:27
    десятки нових важливих
    клінічних характеристик пухлин,
  • 10:27 - 10:32
    які допоможуть лікарям прогнозувати
    розвиток раку.
  • 10:32 - 10:38
    Так само, група в Стенфорді оголосила
  • 10:38 - 10:41
    про розроблену на основі огляду тканин
    під збільшенням
  • 10:41 - 10:43
    систему комп'ютерного навчання, яка
  • 10:43 - 10:47
    визначає шанси на виживання хворих на рак
    краще за патологів.
  • 10:47 - 10:51
    Завдяки цим двом розробкам
    не тільки прогнози стали точнішими,
  • 10:51 - 10:53
    а й було започатковано
    нову інформативну науку.
  • 10:53 - 10:57
    В першому випадку це були нові,
    зрозумілі радіологам клінічні індикатори.
  • 10:57 - 11:00
    У випадку патології,
    комп'ютерна система фактично
  • 11:00 - 11:04
    винайшла, що оточення ракових клітин
    так само важливе
  • 11:04 - 11:09
    при визначенні діагнозу,
    як і самі ракові клітини.
  • 11:09 - 11:15
    Це спростовує інформацію, якої навчали
    патологів роками.
  • 11:15 - 11:18
    В розробці систем брали участь
    медичні експерти
  • 11:18 - 11:22
    та фахівці з комп'ютерного навчання,
  • 11:22 - 11:24
    але з минулого року ми пішли ще далі.
  • 11:24 - 11:28
    Це приклад виявлених
    за допомогою мікроскопа
  • 11:28 - 11:30
    ракових областей тканини людського тіла.
  • 11:30 - 11:34
    Ця система може виявити
  • 11:34 - 11:37
    такі області точніше, або так само точно,
  • 11:37 - 11:40
    як патологи, але створена вона
    виключно за допомогою
  • 11:40 - 11:42
    глибинного навчання,
    без медичної експертизи,
  • 11:42 - 11:45
    людьми без спеціальних знань
    в цій області.
  • 11:45 - 11:47
    Ось приклад нейронного поділу.
  • 11:47 - 11:51
    Тепер ми можемо поділяти нейрони
    так само точно, як людина,
  • 11:51 - 11:54
    але систему було розроблено за допомогою
    глибинного навчання
  • 11:54 - 11:57
    людьми, що не мали базових знань
    в медицині.
  • 11:57 - 12:00
    Я не маю базових знать в медицині, проте
  • 12:00 - 12:02
    виявляюсь достатньо кваліфікованим, щоб
  • 12:02 - 12:04
    започаткувати нову медичну компанію,
  • 12:04 - 12:06
    що я і зробив.
  • 12:06 - 12:08
    Мене жахала така ідея, але в теорії
  • 12:08 - 12:11
    здавалось цілком можливим виконувати
    важливу медичну роботу,
  • 12:11 - 12:16
    використовуючи тільки
    ці техніки аналізу даних.
  • 12:16 - 12:19
    На щастя, відгуки були фантастичні
  • 12:19 - 12:23
    не тільки в медіа, а й серед прихильної
    медичної спільноти.
  • 12:23 - 12:27
    Теоритично ми можемо
    всебічно аналізувати дані
  • 12:27 - 12:30
    проміжного етапу медичного процесу,
  • 12:30 - 12:33
    а лікарям залишити їх роботу.
  • 12:33 - 12:35
    Я наведу приклад.
  • 12:35 - 12:37
    Щоб згенерувати новий
    медичний діагностичний тест,
  • 12:37 - 12:40
    нам потрібно 15 хвилин.
  • 12:40 - 12:42
    Я продемонструю це прямо зараз,
  • 12:42 - 12:45
    тільки я видалив деякі частини,
    щоб скоротити його до трьох хвилин.
  • 12:45 - 12:48
    Замість створення медичного
    клінічного тесту,
  • 12:48 - 12:52
    я покажу вам тест діагностики
    зображень автівок,
  • 12:52 - 12:54
    щоб усім було зрозуміло.
  • 12:54 - 12:55
    Отже, ми починаємо
  • 12:55 - 12:58
    з приблизно 1,5 мільйонів
    зображень автівок.
  • 12:58 - 13:00
    Я хочу створити інструмент
    для сортування
  • 13:00 - 13:03
    їх відповідно до кута фотозйомки.
  • 13:03 - 13:05
    Жодна фотографія не позначена,
  • 13:05 - 13:06
    тож я почну з нуля.
  • 13:06 - 13:08
    За допомогою
    алгоритму глибинного навчання,
  • 13:08 - 13:09
    можна автоматично визначити
  • 13:09 - 13:12
    елементи конструкції на цих зображеннях.
  • 13:12 - 13:15
    Добре в цьому те, що людина
    може працювати разом
  • 13:15 - 13:16
    з комп'ютером.
  • 13:16 - 13:18
    Людина, як ви бачите,
  • 13:18 - 13:21
    показує комп'ютеру
  • 13:21 - 13:22
    стосовно якої частини
  • 13:22 - 13:24
    комп'ютер буде
  • 13:24 - 13:25
    вдосконалювати алгоритм.
  • 13:25 - 13:27
    Ці системи глибинного навчання працюють в
  • 13:27 - 13:29
    16-тисяч вимірному просторі,
  • 13:29 - 13:32
    тож ви бачите, як комп'ютер
    обертає фото в просторі,
  • 13:32 - 13:35
    намагаючись знайти
    нові елементи структури.
  • 13:35 - 13:37
    Коли це йому вдасться,
  • 13:37 - 13:41
    людина, яка керує ним, зможе вибрати
    потрібні елементи.
  • 13:41 - 13:46
    Ось комп'ютер вдало знайшов елементи,
    наприклад, кути.
  • 13:46 - 13:47
    Поступово, керуючи процесом,
  • 13:47 - 13:50
    ми даємо комп'ютеру знати, які саме
  • 13:50 - 13:52
    структури ми шукаємо.
  • 13:52 - 13:54
    Уявіть, якби патолог під час
    діагностичного тесту
  • 13:54 - 13:57
    ідентифікував області патології,
  • 13:57 - 13:59
    або якби радіолог ідентифікував
  • 13:59 - 14:02
    потенційно небезпечні вузлики.
  • 14:02 - 14:05
    Іноді алгоритм не справляється.
  • 14:05 - 14:07
    В такому разі він стає дещо безпорадний.
  • 14:07 - 14:11
    Передні та задні частини автівок
    перемішані.
  • 14:11 - 14:15
    Тепер слід уважно вручну
  • 14:15 - 14:17
    виділити тільки фронтальні,
  • 14:17 - 14:19
    щоб зорієнтувати комп'ютер на саме
  • 14:19 - 14:22
    цей тип групування, який нас цікавить.
  • 14:22 - 14:23
    Ми це робимо деякий час,
  • 14:23 - 14:25
    я перескочу трохи,
  • 14:25 - 14:27
    потім ми тренуємо алгоритм
    глибинного навчання
  • 14:27 - 14:29
    на основі кількох сотень деталей
  • 14:29 - 14:30
    і сподіваємось, що він навчився.
  • 14:30 - 14:32
    Бачите, він почав прибирати
  • 14:32 - 14:34
    деякі з малюнків,
  • 14:34 - 14:35
    показуючи цим, що він вже розрізняє,
  • 14:35 - 14:38
    як це робити самостійно.
  • 14:38 - 14:41
    Тепер можна використати концепцію
    подібних зображень.
  • 14:41 - 14:43
    І ви бачите, що комп'ютер тепер
  • 14:43 - 14:47
    здатен знайти тільки
    передні частини машин.
  • 14:47 - 14:54
    Отже, можна визнати, що комп'ютер
    вправно виконав завдання.
  • 14:54 - 15:00
    Іноді буває так, що й після цього складно
    відсортувати групи.
  • 15:00 - 15:03
    В такому випадку після деякого часу
  • 15:03 - 15:06
    обертання зображень,
  • 15:06 - 15:08
    лівосторонні і правосторонні
    все ще перемішані.
  • 15:08 - 15:10
    Тоді ми знову підказуємо комп'ютеру
  • 15:10 - 15:13
    і командуємо йому знайти
  • 15:13 - 15:15
    за допомогою алгоритму глибинного навчання
  • 15:15 - 15:18
    проекцію, яка відсортує лівосторонні
    від правосторонніх.
  • 15:18 - 15:21
    І після такої підказки - ага,
    ок, цей процес завершено.
  • 15:21 - 15:26
    Йому вдалось відсортувати ці об'єкти.
  • 15:26 - 15:29
    В чому ідея?
  • 15:29 - 15:32
    Йдеться не про заміщення людини
    комп'ютером, а про співпрацю.
  • 15:40 - 15:43
    Те, що могла зробити команда з 5-6 людей
  • 15:43 - 15:45
    за майже 7 років, одна людина зробить
  • 15:45 - 15:48
    самостійно за 15 хвилин.
  • 15:50 - 15:54
    Для такого процесу потрібно 4 або 5
    повторювань.
  • 15:54 - 15:56
    Бачите, 62 відсотки
    з 1,5 мільйонів зображень
  • 15:56 - 15:58
    відсортовано правильно.
  • 15:59 - 16:03
    Тепер можна доволі швидко перевіряти
    великі масиви
  • 16:03 - 16:06
    на присутність там помилок.
  • 16:06 - 16:10
    Якщо такі знайдуться,
    вкажемо комп'ютерові на них.
  • 16:10 - 16:13
    Застосувавши той самий процес
  • 16:13 - 16:15
    для кожної окремої групи,
  • 16:15 - 16:18
    матимемо результат: 80 % з 1,5 мільйона зображень
    успішно класифіковано.
  • 16:18 - 16:20
    Залишиться тільки
  • 16:20 - 16:23
    знайти невелику кількість
    хибно класифікованих об'єктів
  • 16:23 - 16:26
    і розібратись з ними.
  • 16:26 - 16:28
    Завдяки цьому підходові, ми за 15 хвилин
  • 16:28 - 16:32
    досягли 97 % рівня класифікування.
  • 16:32 - 16:37
    Такі прийоми дають нам змогу побороти
  • 16:37 - 16:40
    величезний брак
    медичної експертизи в світі.
  • 16:40 - 16:42
    Згідно з даними Світового
    економічного форуму,
  • 16:42 - 16:45
    країнам, що розвиваються,
    в 10-20 разів бракує терапевтів,
  • 16:45 - 16:48
    і знадобиться 300 років,
    аби навчити достатньо людей,
  • 16:48 - 16:51
    які могли б компенсувати цей брак.
  • 16:51 - 16:54
    Уявіть, наскільки ми можемо
    покращити результати їхньої діяльності
  • 16:54 - 16:56
    завдяки підходу
    глибинного навчання.
  • 16:56 - 16:59
    Мене дуже надихають такі перспективи.
  • 16:59 - 17:01
    Водночас, я стурбований проблемами.
  • 17:01 - 17:04
    Кожна територія на мапі,
    зафарбована синім кольором, є місцем,
  • 17:04 - 17:08
    де 80 % зайнятості припадає на послуги.
  • 17:08 - 17:10
    Які послуги?
  • 17:10 - 17:11
    Ось ці.
  • 17:11 - 17:16
    Такі, що комп'ютери тільки
    навчилися виконувати.
  • 17:16 - 17:19
    Отже, 80 % зайнятості розвинених країн -
  • 17:19 - 17:22
    це робота, яку комп'ютери щойно
    навчились виконувати.
  • 17:22 - 17:23
    До чого я веду?
  • 17:23 - 17:25
    Авжеж, все буде добре.
  • 17:25 - 17:26
    Їм знайдуть іншу роботу.
  • 17:26 - 17:29
    Наприклад, буде більше спеціалістів
    з обробки даних.
  • 17:29 - 17:30
    Не зовсім так.
  • 17:30 - 17:33
    Спеціаліст з обробки даних
    швидко створює такі речі.
  • 17:33 - 17:36
    Наприклад, ці чотири алгоритми
    написав один хлопець.
  • 17:36 - 17:38
    Ви можете аргументувати,
    що все це вже проходили раніше,
  • 17:38 - 17:44
    і коли речі змінювались,
    з'являлись нові робочі місця.
  • 17:44 - 17:46
    А якими вони будуть?
  • 17:46 - 17:48
    Важко сказати, тому що
  • 17:48 - 17:51
    людська діяльність покращується поступово,
  • 17:51 - 17:54
    а система глибинного навчання -
  • 17:54 - 17:57
    в геометричній прогресії.
  • 17:57 - 17:58
    Зараз ми тут.
  • 17:58 - 18:01
    Поки що ми оцінюємо ситуацію і кажемо:
    "Комп'ютерам далеко
  • 18:01 - 18:03
    до людського розуму". Правда?
  • 18:03 - 18:07
    Але за п'ять років комп'ютери перевершать
    свої показники.
  • 18:07 - 18:11
    Тож нам слід вже зараз починати думати
    про потенціал.
  • 18:11 - 18:12
    Звісно, історія вже знала такі часи.
  • 18:12 - 18:14
    Під час індустріальної революції
  • 18:14 - 18:18
    потужності збільшилися завдяки двигунам.
  • 18:18 - 18:21
    Справа в тому,
    що речі не змінювались з того часу.
  • 18:21 - 18:23
    Існувало соціальне розшарування.
  • 18:23 - 18:26
    Але після впровадження
    потужностей двигунів
  • 18:26 - 18:28
    в усі сфери життя, воно зменшилось.
  • 18:28 - 18:30
    Революція комп'ютерного навчання
  • 18:30 - 18:33
    відрізняється від індустріальної.
  • 18:33 - 18:36
    Тому що революція комп'ютерного навчання
    ніколи не зупиниться.
  • 18:36 - 18:39
    Що кращою стане
    інтелектуальна діяльність комп'ютерів,
  • 18:39 - 18:43
    то більше інших комп'ютерів з
  • 18:43 - 18:45
    кращими потужностями вони створять.
  • 18:45 - 18:47
    Світ ще ніколи не відчував змін
    такого масштабу.
  • 18:47 - 18:51
    Ваші уявлення про обмеженість
    можливостей змінено.
  • 18:51 - 18:53
    Ці зміни вже впливають на нас.
  • 18:53 - 18:56
    За останні 25 років зріс
    кругообіг капіталу,
  • 18:56 - 19:01
    а продуктивність праці була сталою,
    навіть трохи зменшилась.
  • 19:01 - 19:04
    Тож, я заохочую нас
    до обговорення вже зараз.
  • 19:04 - 19:07
    Знаю, що люди часто нехтують
    цим питанням,
  • 19:07 - 19:09
    коли я до них звертаюсь.
  • 19:09 - 19:11
    Комп'ютери не можуть розвивати думок,
  • 19:11 - 19:16
    не мають емоцій, не розуміють поезію,
    ми не тямимо до кінця, як вони працюють.
  • 19:16 - 19:17
    То що з того?
  • 19:17 - 19:19
    Комп'ютери вже виконують речі, якими
  • 19:19 - 19:22
    люди заробляють собі на життя.
  • 19:22 - 19:27
    Тож нам варто подумати,
    як змінити наші соціальну
  • 19:27 - 19:30
    і економічну структури,
    враховуючи нову реальність.
  • 19:30 - 19:31
    Дякую.
  • 19:31 - 19:31
    (Оплески)
Title:
Плюси та мінуси використання комп'ютерів, які самі вчаться
Speaker:
Джеремі Говард
Description:

Що станеться зі світом, в якому комп’ютери будуть самі вчитися? Експерт Джеремі Говард дивує новими розробками в області глибинного навчання, яка зараз бурхливо розвивається. Глибинне навчання – технологія, завдяки якій комп’ютери вчать китайську, розпізнають деталі фотографій, або допомагають у медичній діагностиці. (Один інструмент глибинного навчання багато годин дивився відео в YouTube і зрозумів концепцію "кішки"). Дізнайтесь з перших рук, як зміниться світ комп’ютерів у майбутньому. Це трапиться ще швидше, ніж ви гадаєте.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
19:45

Ukrainian subtitles

Revisions