Return to Video

Cudowne i przerażające implikacje tego, że komputer potrafi się uczyć

  • 0:01 - 0:03
    Kiedyś było tak,
  • 0:03 - 0:05
    że aby komputer coś zrobił,
  • 0:05 - 0:06
    trzeba go było zaprogramować.
  • 0:06 - 0:09
    Dla tych, którzy tego nie robili:
  • 0:09 - 0:13
    programowanie wymaga
    drobiazgowego zdefiniowania
  • 0:13 - 0:17
    każdego kroku, który komputer ma wykonać,
  • 0:17 - 0:19
    by osiągnąć cel.
  • 0:19 - 0:21
    Jeżeli chcemy,
    by komputer wykonał czynność,
  • 0:21 - 0:23
    której sami nie potrafimy wykonać,
  • 0:23 - 0:25
    stajemy przed dużym wyzwaniem.
  • 0:25 - 0:28
    Stanął przed nim Artur Samuel.
  • 0:28 - 0:31
    W 1956 roku stwierdził, że chciałby,
  • 0:31 - 0:35
    aby komputer wygrał z nim w warcaby.
  • 0:35 - 0:36
    Jak napisać program,
  • 0:36 - 0:39
    drobiazgowo wyrazić,
    jak być lepszym w warcaby
  • 0:39 - 0:40
    niż jest się samemu?
  • 0:40 - 0:42
    Artur wpadł na następujący pomysł:
  • 0:42 - 0:46
    kazał komputerowi
    grać z samym sobą tysiące razy
  • 0:46 - 0:48
    i w ten sposób nauczyć się gry.
  • 0:48 - 0:50
    Rzeczywiście się udało.
  • 0:50 - 0:56
    W 1962 roku komputer pokonał
    mistrza stanu Connecticut.
  • 0:56 - 0:59
    Artur Samuel był ojcem
    uczenia maszynowego.
  • 0:59 - 1:00
    Mam wobec niego duży dług,
  • 1:00 - 1:02
    bo sam zajmuję się
    uczeniem maszynowym.
  • 1:02 - 1:04
    Byłem przewodniczącym Kaggle,
  • 1:04 - 1:07
    społeczności zrzeszającej
    200 tys. specjalistów
  • 1:07 - 1:08
    od programowania maszynowego.
  • 1:08 - 1:10
    Kaggle organizuje konkursy,
  • 1:10 - 1:12
    podczas których członkowie próbują
  • 1:12 - 1:14
    rozwiązać dotąd nierozwiązane problemy.
  • 1:14 - 1:17
    Udało się to już setki razy.
  • 1:17 - 1:20
    Z tej perspektywy wiele się dowiedziałem
  • 1:20 - 1:24
    o dawnych i obecnych
    możliwościach uczenia maszynowego,
  • 1:24 - 1:26
    i co będzie możliwe w przyszłości.
  • 1:26 - 1:28
    Chyba pierwszym dużym sukcesem
  • 1:28 - 1:31
    w komercyjnym zastosowaniu
    uczenia maszynowego
  • 1:31 - 1:34
    był Google, który udowodnił,
    że da się szukać informacji
  • 1:34 - 1:36
    przy pomocy algorytmu komputerowego,
  • 1:36 - 1:38
    opartego o uczenie maszynowe.
  • 1:38 - 1:42
    Odtąd było wiele udanych
    komercyjnych zastosowań.
  • 1:42 - 1:44
    Firmy takie jak Amazon czy Netflix
  • 1:44 - 1:47
    używają uczenia maszynowego
    do proponowania produktów
  • 1:47 - 1:50
    lub filmów, które nas zaciekawią.
  • 1:50 - 1:52
    Czasem przyprawia to o gęsią skórkę.
  • 1:52 - 1:53
    Firmy jak LinkedIn czy Facebook
  • 1:53 - 1:56
    mówią nam czasem, kogo znamy,
  • 1:56 - 1:58
    i nie mamy pojęcia, jak to robią.
  • 1:58 - 2:01
    Wykorzystują moc uczenia maszynowego.
  • 2:01 - 2:04
    To algorytmy, które uczą się z danych,
  • 2:04 - 2:07
    nie zaś przez ręczne programowanie.
  • 2:07 - 2:11
    To również dlatego
    komputer Watson firmy IBM
  • 2:11 - 2:14
    potrafił pokonać dwóch
    mistrzów świata w grze "Va Banque",
  • 2:14 - 2:17
    odpowiadając na niezwykle subtelne
    i skomplikowane pytania takie jak to:
  • 2:17 - 2:21
    Antyczny "Lew z Kalchu" zginął z muzeum
    w tym mieście w 2003 roku.
  • 2:21 - 2:24
    Także dlatego mamy pierwsze
    samokierujące samochody.
  • 2:24 - 2:27
    Możliwość odróżnienia, powiedzmy,
    drzewa i przechodnia,
  • 2:27 - 2:28
    jest dosyć istotna.
  • 2:28 - 2:31
    Nie wiemy, jak zaprogramować to ręcznie,
  • 2:31 - 2:34
    ale potrafimy to zrobić
    przez uczenie maszynowe.
  • 2:34 - 2:38
    Ten samochód przejechał już
    ponad 2 mln kilometrów
  • 2:38 - 2:40
    po zwykłych drogach, bez wypadków.
  • 2:40 - 2:44
    Czyli komputery potrafią się uczyć
  • 2:44 - 2:46
    i potrafią uczyć się rzeczy,
  • 2:46 - 2:49
    których czasem sami nie potrafimy robić,
  • 2:49 - 2:52
    lub potrafią je robić lepiej niż my.
  • 2:52 - 2:55
    Jeden z niezwykłych przykładów
    uczenia maszynowego
  • 2:55 - 2:58
    zdarzył się w projekcie,
    który prowadziłem w Kaggle.
  • 2:58 - 3:02
    Zespół, którym kierował Geoffrey Hinton
  • 3:02 - 3:03
    z Uniwersytetu w Toronto,
  • 3:03 - 3:06
    wygrał konkurs na automatyczne
    odkrywanie leków.
  • 3:06 - 3:09
    Co niezwykłe,
    nie tylko przebili wszystkie algorytmy
  • 3:09 - 3:13
    firmy Merck i międzynarodowej
    społeczności akademickiej,
  • 3:13 - 3:16
    ale też nikt w zespole nie miał
    żadnej wiedzy z chemii, biologii
  • 3:16 - 3:18
    czy nauki o organizmach żywych,
  • 3:18 - 3:20
    a zrobili to w dwa tygodnie.
  • 3:20 - 3:22
    Jak im się to udało?
  • 3:22 - 3:25
    Użyli niezwykłego algorytmu,
    zwanego uczeniem głębokim.
  • 3:25 - 3:28
    To wydarzenie było tak ważne,
    że kilka tygodni później
  • 3:28 - 3:31
    New York Times pisał o nim
    na stronie głównej.
  • 3:31 - 3:34
    Po lewej stronie widoczny
    jest Geoffrey Hinton.
  • 3:34 - 3:39
    Uczenie głębokie to algorytm zainspirowany
    sposobem działania ludzkiego mózgu,
  • 3:39 - 3:44
    przez co nie ma żadnych
    teoretycznych ograniczeń.
  • 3:44 - 3:47
    Im więcej dostaje danych,
    im więcej czasu obliczeniowego,
  • 3:47 - 3:48
    tym staje się lepszy.
  • 3:48 - 3:51
    New York Times przedstawił też w artykule
  • 3:51 - 3:53
    inne niezwykłe osiągniecie
    uczenia głębokiego,
  • 3:53 - 3:55
    które teraz zaprezentuję.
  • 3:56 - 4:00
    Udowadnia ono, że komputery
    potrafią słuchać i rozumieć.
  • 4:01 - 4:03
    (Wideo) Richard Rashid: Ostatni krok,
  • 4:03 - 4:06
    który chciałbym wykonać w tym procesie,
  • 4:06 - 4:11
    to przemówić do was po chińsku.
  • 4:11 - 4:14
    Chodzi o to, że udało nam się
  • 4:14 - 4:19
    wziąć dużą ilość informacji
    od osób mówiących po chińsku
  • 4:19 - 4:21
    i stworzyć system syntezy mowy,
  • 4:21 - 4:26
    który konwertuje chiński tekst na mowę.
  • 4:26 - 4:30
    Potem wzięliśmy godzinne
    nagranie mojego głosu
  • 4:30 - 4:34
    i użyliśmy go do zmodulowania
    standardowego systemu syntezy mowy,
  • 4:34 - 4:36
    żeby brzmiał jak ja.
  • 4:36 - 4:39
    Efekt nie jest bezbłędny.
  • 4:39 - 4:42
    W sumie jest nawet sporo błędów.
  • 4:42 - 4:44
    (Po chińsku)
  • 4:44 - 4:46
    (Oklaski)
  • 4:49 - 4:53
    Ta dziedzina wymaga jeszcze dużo pracy.
  • 4:53 - 4:57
    (Po chińsku)
  • 4:57 - 4:59
    (Oklaski)
  • 5:01 - 5:05
    JH: To był fragment konferencji
    na temat uczenia maszynowego w Chinach.
  • 5:05 - 5:09
    Na akademickich konferencjach
    rzadko słyszy się spontaniczny aplauz.
  • 5:09 - 5:11
    Na konferencjach TEDx
    zdarza się to częściej,
  • 5:11 - 5:13
    więc proszę się nie krępować.
  • 5:13 - 5:16
    Wszystko, co tu widzieliście,
    osiągnięto przez uczenie głębokie.
  • 5:16 - 5:17
    (Oklaski) Dziękuję.
  • 5:17 - 5:19
    Transkrypcja na angielski
    to uczenie głębokie.
  • 5:19 - 5:23
    Tłumaczenie na chiński i tekst
    w prawym górnym rogu - uczenie głębokie,
  • 5:23 - 5:26
    synteza mowy to również uczenie głębokie.
  • 5:26 - 5:29
    Uczenie głębokie jest niezwykłe.
  • 5:29 - 5:32
    To pojedynczy algorytm,
    który jakby umie wszystko.
  • 5:32 - 5:35
    Odkryłem, że rok wcześniej
    nauczył się również widzieć.
  • 5:35 - 5:38
    W mało znanym konkursie w Niemczech
  • 5:38 - 5:40
    na rozpoznawanie znaków drogowych
  • 5:40 - 5:42
    uczenie głębokie nauczyło się
  • 5:42 - 5:44
    rozpoznawać takie znaki drogowe.
  • 5:44 - 5:45
    Nie tylko rozpoznawało znaki
  • 5:45 - 5:47
    lepiej niż inne algorytmy,
  • 5:47 - 5:50
    ale nawet lepiej niż ludzie,
  • 5:50 - 5:51
    mniej więcej dwa razy lepiej.
  • 5:52 - 5:54
    Czyli w 2011 r. mieliśmy pierwszy przykład
  • 5:54 - 5:57
    komputerów widzących lepiej niż ludzie.
  • 5:57 - 5:59
    Od tego czasu bardzo dużo się wydarzyło.
  • 5:59 - 6:03
    W 2012 r. Google ogłosił,
    że ich algorytm uczenia głębokiego
  • 6:03 - 6:04
    oglądał filmy na YouTube
  • 6:04 - 6:08
    i przez miesiąc przetwarzał dane
    na 16 tysiącach serwerów,
  • 6:08 - 6:10
    po czym samodzielnie nauczył się pojęć
  • 6:10 - 6:12
    takich jak ludzie czy koty,
  • 6:12 - 6:14
    tylko przez oglądanie filmów.
  • 6:14 - 6:16
    W bardzo podobny sposób uczą się ludzie.
  • 6:16 - 6:19
    Nie trzeba im mówić, na co patrzą,
  • 6:19 - 6:23
    tylko sami się uczą się,
    czym są widziane obiekty.
  • 6:23 - 6:26
    W 2012 roku Geoffrey Hinton,
    którego widzieliśmy wcześniej,
  • 6:26 - 6:29
    wygrał bardzo popularny konkurs ImageNet,
  • 6:29 - 6:33
    gdzie dla 1,5 miliona obrazków
    trzeba określić,
  • 6:33 - 6:34
    co się na nich znajduje.
  • 6:34 - 6:39
    Do 2014 r. proporcja błędów spadła do 6%.
  • 6:39 - 6:41
    To znowu lepiej, niż ludzie.
  • 6:41 - 6:45
    Maszyny są tu niesamowicie skuteczne
  • 6:45 - 6:47
    i wykorzystuje się to już komercyjnie.
  • 6:47 - 6:50
    Na przykład Google ogłosił w zeszłym roku,
  • 6:50 - 6:55
    że znaleźli na mapie wszystkie adresy
    we Francji w dwie godziny
  • 6:55 - 6:58
    przez dostarczenie zdjęć Street View
  • 6:58 - 7:03
    algorytmowi uczenia głębokiego,
    który rozpoznał i odczytał numery domów.
  • 7:03 - 7:05
    Wyobraźcie sobie,
    ile czasu zajęłoby to kiedyś:
  • 7:05 - 7:08
    dziesiątki ludzi, wiele lat.
  • 7:08 - 7:10
    To samo dzieje się w Chinach.
  • 7:10 - 7:14
    Baidu jest czymś w rodzaju
    chińskiego Google.
  • 7:14 - 7:17
    W lewym górnym rogu
    widać przykładowe zdjęcie,
  • 7:17 - 7:20
    które wczytałem do systemu
    uczenia głębokiego Baidu,
  • 7:20 - 7:24
    poniżej widać, że system zrozumiał,
    co jest na zdjęciu
  • 7:24 - 7:26
    i znalazł podobne zdjęcia.
  • 7:26 - 7:29
    Te zdjęcia mają podobne tło,
  • 7:29 - 7:31
    podobny kierunek pysków,
  • 7:31 - 7:33
    niektórym nawet wystają języki.
  • 7:33 - 7:36
    Ten algorytm na pewno nie patrzy
    na tekst na stronie,
  • 7:36 - 7:37
    wgrałem tylko zdjęcie.
  • 7:37 - 7:41
    Czyli dzisiejsze komputery
    naprawdę rozumieją, co widzą,
  • 7:41 - 7:44
    i na żywo umieją przeszukiwać bazy danych
  • 7:44 - 7:46
    setek milionów zdjęć.
  • 7:46 - 7:49
    Co to właściwie znaczy,
    że komputery mogą widzieć?
  • 7:49 - 7:52
    Nie chodzi o samo widzenie.
  • 7:52 - 7:54
    Uczenie głębokie dało znacznie więcej.
  • 7:54 - 7:57
    Złożone i pełne niuansów zdania, jak to,
  • 7:57 - 7:59
    są już zrozumiałe
    dla algorytmów uczenia głębokiego.
  • 7:59 - 8:01
    Jak widać tutaj,
  • 8:01 - 8:03
    system z Uniwersytetu Stanforda
  • 8:03 - 8:05
    zaznaczył czerwoną kropką na górze,
  • 8:05 - 8:08
    że to zdanie wyraża negację.
  • 8:08 - 8:11
    Efektywność uczenia głębokiego
    jest zbliżona do ludzkiej
  • 8:11 - 8:16
    w rozumieniu sensu zdania i analizie.
  • 8:16 - 8:19
    Uczenie głębokie zastosowano
    do czytania chińskiego
  • 8:19 - 8:22
    na poziomie zbliżonym
    do rodzimych użytkowników.
  • 8:22 - 8:24
    Ten algorytm opracował szwajcarski zespół,
  • 8:24 - 8:28
    którego członkowie nie znają chińskiego.
  • 8:28 - 8:29
    Jak wspomniałem, uczenie głębokie
  • 8:29 - 8:32
    jest w tym najlepsze,
  • 8:32 - 8:34
    nawet w porównaniu z rozumieniem
  • 8:34 - 8:37
    przez rodzimych użytkowników języka.
  • 8:37 - 8:39
    Ten system zbudowaliśmy w mojej firmie.
  • 8:39 - 8:42
    Pokazuje, jak można to wszystko
    połączyć w całość.
  • 8:42 - 8:44
    To są zdjęcia bez żadnego opisu
  • 8:44 - 8:47
    i w trakcie wpisywania zdań
  • 8:47 - 8:50
    system na żywo rozpoznaje zdjęcia,
  • 8:50 - 8:51
    ustala, co na nich jest,
  • 8:51 - 8:54
    i znajduje zdjęcia podobne do opisu.
  • 8:54 - 8:57
    Rzeczywiście rozumie, o czym piszę,
  • 8:57 - 8:59
    i rozumie, co jest na zdjęciach.
  • 8:59 - 9:02
    Pewnie znacie to z Google'a,
  • 9:02 - 9:05
    który znajduje zdjęcia
    według wpisywanych słów,
  • 9:05 - 9:09
    choć w rzeczywistości wyszukuje
    strony internetowe w oparciu o tekst.
  • 9:09 - 9:12
    To co innego niż rozumienie samych zdjęć.
  • 9:12 - 9:16
    Komputery potrafią to robić
    dopiero od kilku miesięcy.
  • 9:17 - 9:21
    Czyli komputery potrafią
    nie tylko widzieć, ale też czytać,
  • 9:21 - 9:25
    i potrafią też rozumieć, co słyszą.
  • 9:25 - 9:28
    Pewnie was nie zaskoczy,
    że potrafią też pisać.
  • 9:28 - 9:32
    Ten tekst wygenerowałem wczoraj
    przy pomocy uczenia głębokiego.
  • 9:32 - 9:34
    "Miło mi być tu z wami w Brukseli!"
  • 9:34 - 9:37
    Tę próbkę tekstu
    wygenerował algorytm ze Stanford.
  • 9:37 - 9:40
    Uczenie głębokie wygenerowało te zdania,
  • 9:40 - 9:43
    aby opisać każde z tych zdjęć.
  • 9:43 - 9:46
    Ten algorytm nigdy przedtem nie widział
  • 9:46 - 9:48
    mężczyzny w czarnej koszulce,
    grającego na gitarze.
  • 9:48 - 9:51
    Widział mężczyznę,
    widział czerń lub gitarę,
  • 9:51 - 9:56
    ale sam stworzył oryginalny opis zdjęcia.
  • 9:56 - 10:00
    Nadal nie dorównuje ludziom,
    ale mało mu brakuje.
  • 10:00 - 10:03
    W testach ludzie preferują opisy
    generowane przez komputer
  • 10:03 - 10:05
    w co czwartym przypadku.
  • 10:05 - 10:07
    Ten system powstał dwa tygodnie temu,
  • 10:07 - 10:09
    więc w tym tempie
  • 10:09 - 10:12
    algorytm komputerowy
    prześcignie człowieka,
  • 10:12 - 10:14
    pewnie w ciągu kolejnego roku.
  • 10:14 - 10:17
    Czyli komputery potrafią też pisać.
  • 10:17 - 10:20
    Połączyliśmy to wszystko,
    co daje ekscytujące możliwości.
  • 10:20 - 10:21
    Na przykład w medycynie:
  • 10:21 - 10:24
    zespół z Bostonu ogłosił odkrycie
  • 10:24 - 10:28
    dziesiątek nowych,
    istotnych klinicznie cech nowotworów,
  • 10:28 - 10:32
    co pomoże lekarzom
    w prognozowaniu postępów raka.
  • 10:33 - 10:36
    Grupa badaczy ze Stanford ogłosiła,
  • 10:36 - 10:39
    że badając tkanki w powiększeniu,
  • 10:39 - 10:42
    opracowali system
    wykorzystujący uczenie maszynowe,
  • 10:42 - 10:45
    który lepiej niż patolodzy przewiduje
  • 10:45 - 10:47
    przeżywalność chorych na raka.
  • 10:47 - 10:50
    Prognozy były nie tylko trafniejsze,
  • 10:50 - 10:53
    ale dostarczyły nowej, wnikliwej wiedzy.
  • 10:53 - 10:55
    W przypadku radiologii
  • 10:55 - 10:58
    były to nowe wskaźniki kliniczne,
    zrozumiałe dla ludzi.
  • 10:58 - 11:00
    W przypadku patologii
  • 11:00 - 11:04
    system komputerowy odkrył,
    że komórki otaczające nowotwór
  • 11:04 - 11:08
    są tak samo istotne,
    jak komórki nowotworowe
  • 11:08 - 11:09
    w postawieniu diagnozy.
  • 11:09 - 11:14
    To całkowicie przeczy
    dotychczasowej wiedzy o patologii.
  • 11:15 - 11:18
    Oba te systemy
    opracowali eksperci medyczni
  • 11:18 - 11:21
    we współpracy z ekspertami
    od uczenia maszynowego.
  • 11:21 - 11:24
    W zeszłym roku
    przekroczyliśmy i ten próg.
  • 11:24 - 11:28
    To jest przykład identyfikacji
    zmian nowotworowych
  • 11:28 - 11:30
    w ludzkiej tkance badanej pod mikroskopem.
  • 11:30 - 11:35
    Prezentowany tu system potrafi
    rozpoznawać te zmiany dokładniej
  • 11:35 - 11:38
    lub równie dokładnie, co patolog,
  • 11:38 - 11:40
    ale został zbudowany
    przy użyciu uczenia głębokiego
  • 11:40 - 11:42
    bez żadnej wiedzy medycznej,
  • 11:42 - 11:44
    przez ludzi nie związanych z medycyną.
  • 11:44 - 11:46
    Podobnie z segmentacją neuronów.
  • 11:46 - 11:50
    Możemy segmentować neurony
    równie dokładnie, jak ludzie,
  • 11:50 - 11:53
    przy użyciu systemu uczenia głębokiego,
  • 11:53 - 11:55
    opracowanego przez ludzi
    bez wiedzy medycznej.
  • 11:57 - 12:00
    Zatem ja, jako osoba
    bez żadnej wiedzy medycznej,
  • 12:00 - 12:03
    mam dostateczne kwalifikacje,
    by założyć firmę medyczną,
  • 12:03 - 12:05
    co też zrobiłem.
  • 12:06 - 12:08
    Byłem tym dosyć przerażony,
  • 12:08 - 12:10
    ale teoria wskazywała, że w medycynie
  • 12:10 - 12:15
    można przydać się
    samą techniką analizy danych.
  • 12:16 - 12:19
    Szczęśliwie, przyjęto nas fantastycznie,
  • 12:19 - 12:22
    zarówno media, jak i społeczność medyczna,
  • 12:22 - 12:23
    która bardzo wspierała ten projekt.
  • 12:23 - 12:27
    W teorii możemy przejąć
    środkową część procesu medycznego
  • 12:27 - 12:30
    i zastąpić ją daleko idącą analizą danych,
  • 12:30 - 12:33
    pozwalając lekarzom zająć się tym,
    w czym są najlepsi.
  • 12:33 - 12:35
    Pokażę państwu przykład.
  • 12:35 - 12:40
    Generacja nowego testu diagnostycznego
    zajmuje 15 minut.
  • 12:40 - 12:42
    Pokażę to teraz na żywo.
  • 12:42 - 12:45
    Skompresowałem to do trzech minut,
    omijając pewne czynności.
  • 12:45 - 12:48
    Zamiast nowego testu diagnostycznego
    w medycynie,
  • 12:48 - 12:52
    pokażę test diagnostyczny samochodów,
  • 12:52 - 12:54
    bo jest to coś, co wszyscy rozumiemy.
  • 12:54 - 12:57
    Na początek mamy 1,5 mln zdjęć samochodów.
  • 12:57 - 13:00
    Chcę stworzyć coś,
    co je pogrupuje według kąta,
  • 13:00 - 13:03
    z jakiego zostały sfotografowane.
  • 13:03 - 13:07
    To zdjęcia bez opisów,
    więc trzeba zacząć od zera.
  • 13:07 - 13:08
    Nasz algorytm uczenia głębokiego
  • 13:08 - 13:12
    potrafi automatycznie rozpoznawać
    struktury na zdjęciach.
  • 13:12 - 13:16
    Człowiek i komputer mogą współpracować.
  • 13:16 - 13:18
    Jak tu widać,
  • 13:18 - 13:21
    człowiek mówi komputerowi
    o obszarach zainteresowań,
  • 13:21 - 13:25
    których komputer ma użyć
    do ulepszenia swojego algorytmu.
  • 13:25 - 13:28
    Ten system uczenia głębokiego
    operuje w przestrzeni
  • 13:28 - 13:30
    o 16 tysiącach wymiarów.
  • 13:30 - 13:33
    Widać, jak komputer obraca obiekty,
  • 13:33 - 13:35
    próbując znaleźć nowe obszary struktur.
  • 13:35 - 13:37
    Kiedy mu się to uda,
  • 13:37 - 13:41
    operator może wskazać
    interesujące obszary.
  • 13:41 - 13:43
    W tym przypadku komputer
    znalazł pewne obszary,
  • 13:43 - 13:46
    na przykład kąt zdjęcia.
  • 13:46 - 13:47
    Z biegiem tego procesu
  • 13:47 - 13:50
    stopniowo mówimy komputerowi coraz więcej
  • 13:50 - 13:52
    na temat rodzaju szukanych struktur.
  • 13:52 - 13:55
    Można sobie wyobrazić,
    że w przypadku testu diagnostycznego
  • 13:55 - 13:57
    patolog identyfikowałby
    obszary patologiczne,
  • 13:57 - 14:02
    a radiolog wskazywałby
    na potencjalnie uciążliwe guzki.
  • 14:02 - 14:05
    Czasami może być to trudne dla algorytmu.
  • 14:05 - 14:07
    W tym przypadku, algorytm się zgubił.
  • 14:07 - 14:09
    Przednie i tylne części samochodów
    są wymieszane.
  • 14:09 - 14:11
    Musimy być trochę ostrożniejsi
  • 14:11 - 14:15
    i ręcznie zaznaczyć przednie części,
  • 14:15 - 14:20
    wskazując potem komputerowi,
    że o taką grupę chodzi.
  • 14:22 - 14:24
    Robimy to przez jakiś czas,
    tu coś pominiemy,
  • 14:24 - 14:26
    teraz uczymy algorytm uczenia maszynowego
  • 14:26 - 14:28
    na podstawie tych kilkuset rzeczy
  • 14:28 - 14:30
    mając nadzieję, że się udoskonali.
  • 14:30 - 14:34
    Widać, że algorytm
    zaczął wygaszać niektóre zdjęcia,
  • 14:34 - 14:38
    pokazując w ten sposób,
    że potrafi je już rozpoznawać.
  • 14:38 - 14:41
    Możemy użyć koncepcji podobnych zdjęć
  • 14:41 - 14:44
    i teraz widać,
  • 14:44 - 14:47
    że komputer potrafi już
    znajdować maski samochodów.
  • 14:47 - 14:50
    Teraz człowiek może powiedzieć komputerowi
  • 14:50 - 14:52
    "Tak, świetnie się spisałeś".
  • 14:54 - 14:56
    Czasem, oczywiście, nawet w tym momencie
  • 14:56 - 15:00
    jest jeszcze trudno rozpoznawać grupy.
  • 15:00 - 15:03
    W tym przypadku nawet jeżeli pozwolimy
    komputerowi obracać tym przez chwilę,
  • 15:03 - 15:08
    widać, że zdjęcia z prawej i lewej strony
    są nadal wymieszane.
  • 15:08 - 15:10
    Można dać komputerowi kolejne wskazówki
  • 15:10 - 15:13
    i kazać mu znaleźć rzut,
  • 15:13 - 15:16
    który najwyraźniej oddziela
    lewe i prawe boki,
  • 15:16 - 15:18
    przy pomocy uczenia głębokiego.
  • 15:18 - 15:21
    Po tej wskazówce - udało się.
  • 15:21 - 15:24
    Potrafi już myśleć o obiektach w sposób,
  • 15:24 - 15:26
    który oddziela te grupy.
  • 15:26 - 15:29
    Rozumiecie koncepcję.
  • 15:29 - 15:37
    Tutaj komputer współpracuje z człowiekiem,
  • 15:37 - 15:40
    zamiast go zastępować.
  • 15:40 - 15:43
    Udało się zastąpić proces,
    który kiedyś wymagał zespołu
  • 15:43 - 15:45
    pięciu czy sześciu ludzi przez siedem lat
  • 15:45 - 15:48
    procesem, który zajmuje 15 minut
  • 15:48 - 15:50
    i wymaga jednej osoby.
  • 15:50 - 15:54
    Ten proces wymaga
    czterech czy pięciu iteracji.
  • 15:54 - 15:56
    Widać, że teraz 62% z 1,5 miliona zdjęć
  • 15:56 - 15:59
    jest zaklasyfikowanych poprawnie.
  • 15:59 - 16:03
    Teraz można szybko wziąć większe sekcje
  • 16:03 - 16:06
    i sprawdzić, czy nie ma błędów.
  • 16:06 - 16:10
    Jeżeli są błędy,
    można o nich powiedzieć komputerowi.
  • 16:10 - 16:13
    Powtarzając tę czynność dla różnych grup,
  • 16:13 - 16:15
    mamy już teraz 80% skuteczności
  • 16:15 - 16:18
    w klasyfikowaniu 1,5 miliona zdjęć.
  • 16:18 - 16:20
    Teraz trzeba już tylko znaleźć tych kilka,
  • 16:20 - 16:23
    które nie są klasyfikowane poprawnie
  • 16:23 - 16:26
    i zrozumieć przyczynę.
  • 16:26 - 16:32
    W 15 minut można osiągnąć skuteczność 97%.
  • 16:32 - 16:36
    Ta technika pozwoli być może
    rozwiązać poważny problem
  • 16:36 - 16:39
    światowego niedoboru
    kompetencji medycznych.
  • 16:39 - 16:42
    Światowe Forum Ekonomiczne szacuje
    10- lub 20-krotny niedobór lekarzy
  • 16:42 - 16:45
    w krajach rozwijających się,
  • 16:45 - 16:48
    a wyszkolenie odpowiedniej liczby ludzi
  • 16:48 - 16:51
    zajęłoby około 300 lat.
  • 16:51 - 16:54
    A gdyby można było
    zwiększyć ich efektywność
  • 16:54 - 16:56
    przy pomocy metod uczenia głębokiego?
  • 16:56 - 16:59
    Bardzo mnie pociągają takie możliwości.
  • 16:59 - 17:01
    Niepokoją mnie też problemy.
  • 17:01 - 17:05
    Otóż każdy niebieski obszar na tej mapie
  • 17:05 - 17:08
    to ponad 80% osób
    zatrudnionych w usługach.
  • 17:08 - 17:09
    Co to są usługi?
  • 17:09 - 17:12
    Oto usługi. [Kierowcy, kucharze,
    diagnostycy, prawnicy]
  • 17:12 - 17:16
    Tak się składa,
    że właśnie to opanowały komputery.
  • 17:16 - 17:19
    Zatem 80% zatrudnionych
    w krajach rozwiniętych
  • 17:19 - 17:22
    robi rzeczy, których właśnie
    nauczyły się komputery.
  • 17:22 - 17:23
    Co to oznacza?
  • 17:23 - 17:26
    Nie szkodzi. Będą inne stanowiska.
  • 17:26 - 17:29
    Na przykład przybędzie naukowców
    od analizy danych.
  • 17:29 - 17:29
    Nie do końca.
  • 17:29 - 17:32
    Analitykom danych nie trzeba dużo czasu
  • 17:32 - 17:33
    na budowę takich systemów.
  • 17:33 - 17:36
    Na przykład te cztery algorytmy
    opracował jeden człowiek.
  • 17:36 - 17:39
    Myślicie, że to już było,
  • 17:39 - 17:42
    widzieliśmy już w przeszłości,
  • 17:42 - 17:45
    jak stare zawody ustępują nowym.
  • 17:45 - 17:47
    Jakie będą te nowe zawody?
  • 17:47 - 17:49
    Bardzo ciężko jest to oszacować,
  • 17:49 - 17:52
    bo ludzkie osiągnięcia rosną stopniowo,
  • 17:52 - 17:54
    a teraz mamy system, uczenie głębokie,
  • 17:54 - 17:57
    którego zdolności rosną wykładniczo.
  • 17:57 - 17:59
    A my jesteśmy tutaj.
  • 17:59 - 18:01
    Widząc dzisiejsze realia mówimy:
  • 18:01 - 18:04
    "Komputery są nadal dosyć głupie".
  • 18:04 - 18:07
    Ale za pięć lat komputery będą poza skalą.
  • 18:07 - 18:11
    Musimy zacząć myśleć
    o tych możliwościach już teraz.
  • 18:11 - 18:13
    Oczywiście widzieliśmy to już kiedyś.
  • 18:13 - 18:15
    Podczas rewolucji przemysłowej
  • 18:15 - 18:18
    mieliśmy skokową zmianę możliwości
    dzięki silnikom.
  • 18:18 - 18:21
    Tyle tylko, że po pewnym czasie
    rezultaty uległy spłaszczeniu.
  • 18:21 - 18:23
    Nastąpiły zakłócenia społeczne,
  • 18:23 - 18:27
    ale kiedy silnik zaczęto stosować
    do każdego rodzaju wytwarzania energii,
  • 18:27 - 18:28
    wszystko się ustabilizowało.
  • 18:28 - 18:30
    Rewolucja uczenia maszynowego
  • 18:30 - 18:32
    będzie bardzo różna
    od rewolucji przemysłowej,
  • 18:32 - 18:36
    bo rewolucja uczenia maszynowego
    nie ustabilizuje się nigdy.
  • 18:36 - 18:39
    Im lepsza będzie
    aktywność intelektualna komputerów,
  • 18:39 - 18:41
    tym lepsze zbudują komputery,
  • 18:41 - 18:43
    o jeszcze większych
    zdolnościach intelektualnych.
  • 18:43 - 18:47
    Będzie to zmiana,
    jakiej świat nigdy dotąd nie doświadczył,
  • 18:47 - 18:51
    więc zmieniło się nasze wcześniejsze
    zrozumienie możliwości.
  • 18:51 - 18:53
    Już odczuwamy ten wpływ.
  • 18:53 - 18:56
    Przez ostatnie 25 lat
    produktywność kapitału wzrastała,
  • 18:56 - 19:01
    wydajność pracy pozostała bez zmian,
    a nawet trochę spadła.
  • 19:01 - 19:04
    Chcę więc już teraz zacząć tę dyskusję.
  • 19:04 - 19:07
    Zwykle gdy opowiadam o tym problemie,
  • 19:07 - 19:09
    napotykam lekceważenie.
  • 19:09 - 19:11
    Przecież komputery nie potrafią
    naprawdę myśleć,
  • 19:11 - 19:13
    nie mają uczuć,
    nie rozumieją poezji,
  • 19:13 - 19:16
    nie do końca wiemy, jak działają.
  • 19:16 - 19:17
    I co z tego?
  • 19:17 - 19:19
    Komputery już teraz potrafią
    wykonywać czynności,
  • 19:19 - 19:22
    z których utrzymują się ludzie,
  • 19:22 - 19:24
    więc trzeba zacząć się zastanawiać,
  • 19:24 - 19:28
    jak dostosujemy
    społeczne i gospodarcze struktury
  • 19:28 - 19:30
    do tej nowej rzeczywistości.
  • 19:30 - 19:31
    Dziękuję.
  • 19:31 - 19:32
    (Oklaski)
Title:
Cudowne i przerażające implikacje tego, że komputer potrafi się uczyć
Speaker:
Jeremy Howard
Description:

Co się stanie, kiedy komputery opanują umiejętność uczenia się? Technolog Jeremy Howard przedstawia kilka zaskakujących wyników z szybko ewoluującej dziedziny uczenia głębokiego, techniki, która umożliwia komputerom nauczenie się języka chińskiego, rozpoznawanie obiektów na fotografiach lub pomoc w analizie diagnozy medycznej. (Jedno z narzędzi wykorzystujących uczenie głębokie, obejrzawszy wiele godzin filmów na YouTube, nauczyło się koncepcji "kota"). Zapoznaj się z dziedziną, która zmieni sposób, w jaki działają komputery ... szybciej niż to sobie wyobrażasz.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
19:45
  • Finished review. Translator notified.
    Remarks:

    w tytule nie dajemy kropki
    ==========================

    W napisach unikamy przypisów tłumacza. Można je dodać w opisie.

    ================================================================================
    Niepotrzebne dzielenie/ łączenie linijek.

    Nie trzeba dzielić linijki, jeśli bez trudu mieści się w limicie 42 znaków, ani łączyć linijek, jeśli mieszczą się w limicie czasowym. Tworząc dwie linijki tekstu przesłaniasz więcej ekranu, więc jeśli można, trzeba tego unikać.

    ================================================================================
    Niewłaściwe łamanie/kończenie linijek/napisów.

    Na końcu napisu/linijki należy zostawiać w razie możliwości językową "całość". To stosunkowo istotna kwestia. Czasami ostatnie słowo lub wyrażenie trzeba przenieść do napisu następnego, żeby umożliwić zakończenie napisu na językową całość - nawet jeśli odpowiednik w oryginale jest na końcu danego napisu.

    Przykłady: ++++++++++1. "Tak więc zacznę od tego, że jeśli" – trzeba zakończyć po "tego,"; w następnym napisie byłoby zdanie podrzędne. ++++++++++2. W zdaniu „Można nawet symulować te zachowania w przeglądarce” nie można rozbić „te” i „zachowania”. Nie należy zostawiać na końcu linijki przyimków (w, po, z, o), zaimków względnych (który, że, gdy, gdzie). ++++++++++
    Wyjątkiem jest sytuacja, w której napisy muszą być bardzo zsynchronizowane z tym, co się dzieje na ekranie - na przykład ostatnie słowo odnosi się do jakiejś zmiany w pokazywanej właśnie animacji. Więcej informacji w poradniku pod adresem http://translations.ted.org/wiki/How_to_break_lines

    ================================================================================
    Rejestr jest zanadto formalny. Napisy udają zapis mowy, więc raczej nie stosujemy w nich słów charakterystycznych dla rejestru języka pisanego. Np. jeśli to możliwe, zamiast "by", "aby", "ażeby" lepiej użyć "żeby", zamiast "iż"  "że", „gdyż”  „bo” itd. Bardziej formalnego rejestru możemy używać wtedy, kiedy chcemy stylizować prelekcję na bardzo formalną, ale to prawie nigdy nie jest konieczne (wyjątkiem byłaby sytuacja, w której prelegentka specjalnie mówi językiem sztywnym i oficjalnym, żeby na przykład później odnieść się do tego i skontrastować z bardziej potocznym językiem).

  • part 2

    ================================================================================
    Okoliczniki czasu i miejsca wydzielone przecinkiem.
    Okoliczniki czasu i miejsca na początku zdania nie są w języku polskim oddzielane przecinkiem, inaczej niż w angielskim. Przykład: "Today, the basis for scientific time" = "Dzisiaj, podłożem mierzenia czasu" --> "Dzisiaj podłożem mierzenia czasu".
    ================

    entirely unlabeled - bez opisów. Nie całkiem opisane byłoby: not entirely labeled

    ================================================================================

    Wata językowa zostawiona w tłumaczeniu. W tłumaczeniu napisów nie zostawiamy "waty językowej" i różnych innych elementów. Jest to bardzo istotny aspekt tłumaczenia tego rodzaju. Polecam zapoznać się z poradnikiem pod adresem http://translations.ted.org/wiki/Compressing_subtitles
    ================================================================================

    Kalka językowa

    Niektórych konstrukcji angielskich nie należy tłumaczyć słowo w słowo. Zamiast dosłownego "I to jest właśnie to, przez co" lepiej np. "właśnie dlatego", "dlatego". Inne przykłady: ++++++1. *ponieważ racją jest że (lepiej: to prawda, że) // ++++++2. „it's really important to remember” nie można: ***bardzo ważnym jest by pamiętać (lepiej: Musimy pamiętać / Trzeba pamiętać / Najważniejsze, to zapamiętać) ++++++3. „what cinema can do is,” nie można przełożyć „***tym co może zrobić kino jest,”, bo brzmi to po polsku okropnie. Można dać np. „kino może”. ++++++Patrz: http://translations.ted.com/forums/discussion/47/wypisujemy-najczestsze-bledy

    ==================================================

    Polski separator dziesiętny to przecinek, nie kropka http://lukaszrokicki.pl/2011/01/17/separatory-w-zapisie-liczb/

Polish subtitles

Revisions