Cudowne i przerażające implikacje tego, że komputer potrafi się uczyć
-
0:01 - 0:03Kiedyś było tak,
-
0:03 - 0:05że aby komputer coś zrobił,
-
0:05 - 0:06trzeba go było zaprogramować.
-
0:06 - 0:09Dla tych, którzy tego nie robili:
-
0:09 - 0:13programowanie wymaga
drobiazgowego zdefiniowania -
0:13 - 0:17każdego kroku, który komputer ma wykonać,
-
0:17 - 0:19by osiągnąć cel.
-
0:19 - 0:21Jeżeli chcemy,
by komputer wykonał czynność, -
0:21 - 0:23której sami nie potrafimy wykonać,
-
0:23 - 0:25stajemy przed dużym wyzwaniem.
-
0:25 - 0:28Stanął przed nim Artur Samuel.
-
0:28 - 0:31W 1956 roku stwierdził, że chciałby,
-
0:31 - 0:35aby komputer wygrał z nim w warcaby.
-
0:35 - 0:36Jak napisać program,
-
0:36 - 0:39drobiazgowo wyrazić,
jak być lepszym w warcaby -
0:39 - 0:40niż jest się samemu?
-
0:40 - 0:42Artur wpadł na następujący pomysł:
-
0:42 - 0:46kazał komputerowi
grać z samym sobą tysiące razy -
0:46 - 0:48i w ten sposób nauczyć się gry.
-
0:48 - 0:50Rzeczywiście się udało.
-
0:50 - 0:56W 1962 roku komputer pokonał
mistrza stanu Connecticut. -
0:56 - 0:59Artur Samuel był ojcem
uczenia maszynowego. -
0:59 - 1:00Mam wobec niego duży dług,
-
1:00 - 1:02bo sam zajmuję się
uczeniem maszynowym. -
1:02 - 1:04Byłem przewodniczącym Kaggle,
-
1:04 - 1:07społeczności zrzeszającej
200 tys. specjalistów -
1:07 - 1:08od programowania maszynowego.
-
1:08 - 1:10Kaggle organizuje konkursy,
-
1:10 - 1:12podczas których członkowie próbują
-
1:12 - 1:14rozwiązać dotąd nierozwiązane problemy.
-
1:14 - 1:17Udało się to już setki razy.
-
1:17 - 1:20Z tej perspektywy wiele się dowiedziałem
-
1:20 - 1:24o dawnych i obecnych
możliwościach uczenia maszynowego, -
1:24 - 1:26i co będzie możliwe w przyszłości.
-
1:26 - 1:28Chyba pierwszym dużym sukcesem
-
1:28 - 1:31w komercyjnym zastosowaniu
uczenia maszynowego -
1:31 - 1:34był Google, który udowodnił,
że da się szukać informacji -
1:34 - 1:36przy pomocy algorytmu komputerowego,
-
1:36 - 1:38opartego o uczenie maszynowe.
-
1:38 - 1:42Odtąd było wiele udanych
komercyjnych zastosowań. -
1:42 - 1:44Firmy takie jak Amazon czy Netflix
-
1:44 - 1:47używają uczenia maszynowego
do proponowania produktów -
1:47 - 1:50lub filmów, które nas zaciekawią.
-
1:50 - 1:52Czasem przyprawia to o gęsią skórkę.
-
1:52 - 1:53Firmy jak LinkedIn czy Facebook
-
1:53 - 1:56mówią nam czasem, kogo znamy,
-
1:56 - 1:58i nie mamy pojęcia, jak to robią.
-
1:58 - 2:01Wykorzystują moc uczenia maszynowego.
-
2:01 - 2:04To algorytmy, które uczą się z danych,
-
2:04 - 2:07nie zaś przez ręczne programowanie.
-
2:07 - 2:11To również dlatego
komputer Watson firmy IBM -
2:11 - 2:14potrafił pokonać dwóch
mistrzów świata w grze "Va Banque", -
2:14 - 2:17odpowiadając na niezwykle subtelne
i skomplikowane pytania takie jak to: -
2:17 - 2:21Antyczny "Lew z Kalchu" zginął z muzeum
w tym mieście w 2003 roku. -
2:21 - 2:24Także dlatego mamy pierwsze
samokierujące samochody. -
2:24 - 2:27Możliwość odróżnienia, powiedzmy,
drzewa i przechodnia, -
2:27 - 2:28jest dosyć istotna.
-
2:28 - 2:31Nie wiemy, jak zaprogramować to ręcznie,
-
2:31 - 2:34ale potrafimy to zrobić
przez uczenie maszynowe. -
2:34 - 2:38Ten samochód przejechał już
ponad 2 mln kilometrów -
2:38 - 2:40po zwykłych drogach, bez wypadków.
-
2:40 - 2:44Czyli komputery potrafią się uczyć
-
2:44 - 2:46i potrafią uczyć się rzeczy,
-
2:46 - 2:49których czasem sami nie potrafimy robić,
-
2:49 - 2:52lub potrafią je robić lepiej niż my.
-
2:52 - 2:55Jeden z niezwykłych przykładów
uczenia maszynowego -
2:55 - 2:58zdarzył się w projekcie,
który prowadziłem w Kaggle. -
2:58 - 3:02Zespół, którym kierował Geoffrey Hinton
-
3:02 - 3:03z Uniwersytetu w Toronto,
-
3:03 - 3:06wygrał konkurs na automatyczne
odkrywanie leków. -
3:06 - 3:09Co niezwykłe,
nie tylko przebili wszystkie algorytmy -
3:09 - 3:13firmy Merck i międzynarodowej
społeczności akademickiej, -
3:13 - 3:16ale też nikt w zespole nie miał
żadnej wiedzy z chemii, biologii -
3:16 - 3:18czy nauki o organizmach żywych,
-
3:18 - 3:20a zrobili to w dwa tygodnie.
-
3:20 - 3:22Jak im się to udało?
-
3:22 - 3:25Użyli niezwykłego algorytmu,
zwanego uczeniem głębokim. -
3:25 - 3:28To wydarzenie było tak ważne,
że kilka tygodni później -
3:28 - 3:31New York Times pisał o nim
na stronie głównej. -
3:31 - 3:34Po lewej stronie widoczny
jest Geoffrey Hinton. -
3:34 - 3:39Uczenie głębokie to algorytm zainspirowany
sposobem działania ludzkiego mózgu, -
3:39 - 3:44przez co nie ma żadnych
teoretycznych ograniczeń. -
3:44 - 3:47Im więcej dostaje danych,
im więcej czasu obliczeniowego, -
3:47 - 3:48tym staje się lepszy.
-
3:48 - 3:51New York Times przedstawił też w artykule
-
3:51 - 3:53inne niezwykłe osiągniecie
uczenia głębokiego, -
3:53 - 3:55które teraz zaprezentuję.
-
3:56 - 4:00Udowadnia ono, że komputery
potrafią słuchać i rozumieć. -
4:01 - 4:03(Wideo) Richard Rashid: Ostatni krok,
-
4:03 - 4:06który chciałbym wykonać w tym procesie,
-
4:06 - 4:11to przemówić do was po chińsku.
-
4:11 - 4:14Chodzi o to, że udało nam się
-
4:14 - 4:19wziąć dużą ilość informacji
od osób mówiących po chińsku -
4:19 - 4:21i stworzyć system syntezy mowy,
-
4:21 - 4:26który konwertuje chiński tekst na mowę.
-
4:26 - 4:30Potem wzięliśmy godzinne
nagranie mojego głosu -
4:30 - 4:34i użyliśmy go do zmodulowania
standardowego systemu syntezy mowy, -
4:34 - 4:36żeby brzmiał jak ja.
-
4:36 - 4:39Efekt nie jest bezbłędny.
-
4:39 - 4:42W sumie jest nawet sporo błędów.
-
4:42 - 4:44(Po chińsku)
-
4:44 - 4:46(Oklaski)
-
4:49 - 4:53Ta dziedzina wymaga jeszcze dużo pracy.
-
4:53 - 4:57(Po chińsku)
-
4:57 - 4:59(Oklaski)
-
5:01 - 5:05JH: To był fragment konferencji
na temat uczenia maszynowego w Chinach. -
5:05 - 5:09Na akademickich konferencjach
rzadko słyszy się spontaniczny aplauz. -
5:09 - 5:11Na konferencjach TEDx
zdarza się to częściej, -
5:11 - 5:13więc proszę się nie krępować.
-
5:13 - 5:16Wszystko, co tu widzieliście,
osiągnięto przez uczenie głębokie. -
5:16 - 5:17(Oklaski) Dziękuję.
-
5:17 - 5:19Transkrypcja na angielski
to uczenie głębokie. -
5:19 - 5:23Tłumaczenie na chiński i tekst
w prawym górnym rogu - uczenie głębokie, -
5:23 - 5:26synteza mowy to również uczenie głębokie.
-
5:26 - 5:29Uczenie głębokie jest niezwykłe.
-
5:29 - 5:32To pojedynczy algorytm,
który jakby umie wszystko. -
5:32 - 5:35Odkryłem, że rok wcześniej
nauczył się również widzieć. -
5:35 - 5:38W mało znanym konkursie w Niemczech
-
5:38 - 5:40na rozpoznawanie znaków drogowych
-
5:40 - 5:42uczenie głębokie nauczyło się
-
5:42 - 5:44rozpoznawać takie znaki drogowe.
-
5:44 - 5:45Nie tylko rozpoznawało znaki
-
5:45 - 5:47lepiej niż inne algorytmy,
-
5:47 - 5:50ale nawet lepiej niż ludzie,
-
5:50 - 5:51mniej więcej dwa razy lepiej.
-
5:52 - 5:54Czyli w 2011 r. mieliśmy pierwszy przykład
-
5:54 - 5:57komputerów widzących lepiej niż ludzie.
-
5:57 - 5:59Od tego czasu bardzo dużo się wydarzyło.
-
5:59 - 6:03W 2012 r. Google ogłosił,
że ich algorytm uczenia głębokiego -
6:03 - 6:04oglądał filmy na YouTube
-
6:04 - 6:08i przez miesiąc przetwarzał dane
na 16 tysiącach serwerów, -
6:08 - 6:10po czym samodzielnie nauczył się pojęć
-
6:10 - 6:12takich jak ludzie czy koty,
-
6:12 - 6:14tylko przez oglądanie filmów.
-
6:14 - 6:16W bardzo podobny sposób uczą się ludzie.
-
6:16 - 6:19Nie trzeba im mówić, na co patrzą,
-
6:19 - 6:23tylko sami się uczą się,
czym są widziane obiekty. -
6:23 - 6:26W 2012 roku Geoffrey Hinton,
którego widzieliśmy wcześniej, -
6:26 - 6:29wygrał bardzo popularny konkurs ImageNet,
-
6:29 - 6:33gdzie dla 1,5 miliona obrazków
trzeba określić, -
6:33 - 6:34co się na nich znajduje.
-
6:34 - 6:39Do 2014 r. proporcja błędów spadła do 6%.
-
6:39 - 6:41To znowu lepiej, niż ludzie.
-
6:41 - 6:45Maszyny są tu niesamowicie skuteczne
-
6:45 - 6:47i wykorzystuje się to już komercyjnie.
-
6:47 - 6:50Na przykład Google ogłosił w zeszłym roku,
-
6:50 - 6:55że znaleźli na mapie wszystkie adresy
we Francji w dwie godziny -
6:55 - 6:58przez dostarczenie zdjęć Street View
-
6:58 - 7:03algorytmowi uczenia głębokiego,
który rozpoznał i odczytał numery domów. -
7:03 - 7:05Wyobraźcie sobie,
ile czasu zajęłoby to kiedyś: -
7:05 - 7:08dziesiątki ludzi, wiele lat.
-
7:08 - 7:10To samo dzieje się w Chinach.
-
7:10 - 7:14Baidu jest czymś w rodzaju
chińskiego Google. -
7:14 - 7:17W lewym górnym rogu
widać przykładowe zdjęcie, -
7:17 - 7:20które wczytałem do systemu
uczenia głębokiego Baidu, -
7:20 - 7:24poniżej widać, że system zrozumiał,
co jest na zdjęciu -
7:24 - 7:26i znalazł podobne zdjęcia.
-
7:26 - 7:29Te zdjęcia mają podobne tło,
-
7:29 - 7:31podobny kierunek pysków,
-
7:31 - 7:33niektórym nawet wystają języki.
-
7:33 - 7:36Ten algorytm na pewno nie patrzy
na tekst na stronie, -
7:36 - 7:37wgrałem tylko zdjęcie.
-
7:37 - 7:41Czyli dzisiejsze komputery
naprawdę rozumieją, co widzą, -
7:41 - 7:44i na żywo umieją przeszukiwać bazy danych
-
7:44 - 7:46setek milionów zdjęć.
-
7:46 - 7:49Co to właściwie znaczy,
że komputery mogą widzieć? -
7:49 - 7:52Nie chodzi o samo widzenie.
-
7:52 - 7:54Uczenie głębokie dało znacznie więcej.
-
7:54 - 7:57Złożone i pełne niuansów zdania, jak to,
-
7:57 - 7:59są już zrozumiałe
dla algorytmów uczenia głębokiego. -
7:59 - 8:01Jak widać tutaj,
-
8:01 - 8:03system z Uniwersytetu Stanforda
-
8:03 - 8:05zaznaczył czerwoną kropką na górze,
-
8:05 - 8:08że to zdanie wyraża negację.
-
8:08 - 8:11Efektywność uczenia głębokiego
jest zbliżona do ludzkiej -
8:11 - 8:16w rozumieniu sensu zdania i analizie.
-
8:16 - 8:19Uczenie głębokie zastosowano
do czytania chińskiego -
8:19 - 8:22na poziomie zbliżonym
do rodzimych użytkowników. -
8:22 - 8:24Ten algorytm opracował szwajcarski zespół,
-
8:24 - 8:28którego członkowie nie znają chińskiego.
-
8:28 - 8:29Jak wspomniałem, uczenie głębokie
-
8:29 - 8:32jest w tym najlepsze,
-
8:32 - 8:34nawet w porównaniu z rozumieniem
-
8:34 - 8:37przez rodzimych użytkowników języka.
-
8:37 - 8:39Ten system zbudowaliśmy w mojej firmie.
-
8:39 - 8:42Pokazuje, jak można to wszystko
połączyć w całość. -
8:42 - 8:44To są zdjęcia bez żadnego opisu
-
8:44 - 8:47i w trakcie wpisywania zdań
-
8:47 - 8:50system na żywo rozpoznaje zdjęcia,
-
8:50 - 8:51ustala, co na nich jest,
-
8:51 - 8:54i znajduje zdjęcia podobne do opisu.
-
8:54 - 8:57Rzeczywiście rozumie, o czym piszę,
-
8:57 - 8:59i rozumie, co jest na zdjęciach.
-
8:59 - 9:02Pewnie znacie to z Google'a,
-
9:02 - 9:05który znajduje zdjęcia
według wpisywanych słów, -
9:05 - 9:09choć w rzeczywistości wyszukuje
strony internetowe w oparciu o tekst. -
9:09 - 9:12To co innego niż rozumienie samych zdjęć.
-
9:12 - 9:16Komputery potrafią to robić
dopiero od kilku miesięcy. -
9:17 - 9:21Czyli komputery potrafią
nie tylko widzieć, ale też czytać, -
9:21 - 9:25i potrafią też rozumieć, co słyszą.
-
9:25 - 9:28Pewnie was nie zaskoczy,
że potrafią też pisać. -
9:28 - 9:32Ten tekst wygenerowałem wczoraj
przy pomocy uczenia głębokiego. -
9:32 - 9:34"Miło mi być tu z wami w Brukseli!"
-
9:34 - 9:37Tę próbkę tekstu
wygenerował algorytm ze Stanford. -
9:37 - 9:40Uczenie głębokie wygenerowało te zdania,
-
9:40 - 9:43aby opisać każde z tych zdjęć.
-
9:43 - 9:46Ten algorytm nigdy przedtem nie widział
-
9:46 - 9:48mężczyzny w czarnej koszulce,
grającego na gitarze. -
9:48 - 9:51Widział mężczyznę,
widział czerń lub gitarę, -
9:51 - 9:56ale sam stworzył oryginalny opis zdjęcia.
-
9:56 - 10:00Nadal nie dorównuje ludziom,
ale mało mu brakuje. -
10:00 - 10:03W testach ludzie preferują opisy
generowane przez komputer -
10:03 - 10:05w co czwartym przypadku.
-
10:05 - 10:07Ten system powstał dwa tygodnie temu,
-
10:07 - 10:09więc w tym tempie
-
10:09 - 10:12algorytm komputerowy
prześcignie człowieka, -
10:12 - 10:14pewnie w ciągu kolejnego roku.
-
10:14 - 10:17Czyli komputery potrafią też pisać.
-
10:17 - 10:20Połączyliśmy to wszystko,
co daje ekscytujące możliwości. -
10:20 - 10:21Na przykład w medycynie:
-
10:21 - 10:24zespół z Bostonu ogłosił odkrycie
-
10:24 - 10:28dziesiątek nowych,
istotnych klinicznie cech nowotworów, -
10:28 - 10:32co pomoże lekarzom
w prognozowaniu postępów raka. -
10:33 - 10:36Grupa badaczy ze Stanford ogłosiła,
-
10:36 - 10:39że badając tkanki w powiększeniu,
-
10:39 - 10:42opracowali system
wykorzystujący uczenie maszynowe, -
10:42 - 10:45który lepiej niż patolodzy przewiduje
-
10:45 - 10:47przeżywalność chorych na raka.
-
10:47 - 10:50Prognozy były nie tylko trafniejsze,
-
10:50 - 10:53ale dostarczyły nowej, wnikliwej wiedzy.
-
10:53 - 10:55W przypadku radiologii
-
10:55 - 10:58były to nowe wskaźniki kliniczne,
zrozumiałe dla ludzi. -
10:58 - 11:00W przypadku patologii
-
11:00 - 11:04system komputerowy odkrył,
że komórki otaczające nowotwór -
11:04 - 11:08są tak samo istotne,
jak komórki nowotworowe -
11:08 - 11:09w postawieniu diagnozy.
-
11:09 - 11:14To całkowicie przeczy
dotychczasowej wiedzy o patologii. -
11:15 - 11:18Oba te systemy
opracowali eksperci medyczni -
11:18 - 11:21we współpracy z ekspertami
od uczenia maszynowego. -
11:21 - 11:24W zeszłym roku
przekroczyliśmy i ten próg. -
11:24 - 11:28To jest przykład identyfikacji
zmian nowotworowych -
11:28 - 11:30w ludzkiej tkance badanej pod mikroskopem.
-
11:30 - 11:35Prezentowany tu system potrafi
rozpoznawać te zmiany dokładniej -
11:35 - 11:38lub równie dokładnie, co patolog,
-
11:38 - 11:40ale został zbudowany
przy użyciu uczenia głębokiego -
11:40 - 11:42bez żadnej wiedzy medycznej,
-
11:42 - 11:44przez ludzi nie związanych z medycyną.
-
11:44 - 11:46Podobnie z segmentacją neuronów.
-
11:46 - 11:50Możemy segmentować neurony
równie dokładnie, jak ludzie, -
11:50 - 11:53przy użyciu systemu uczenia głębokiego,
-
11:53 - 11:55opracowanego przez ludzi
bez wiedzy medycznej. -
11:57 - 12:00Zatem ja, jako osoba
bez żadnej wiedzy medycznej, -
12:00 - 12:03mam dostateczne kwalifikacje,
by założyć firmę medyczną, -
12:03 - 12:05co też zrobiłem.
-
12:06 - 12:08Byłem tym dosyć przerażony,
-
12:08 - 12:10ale teoria wskazywała, że w medycynie
-
12:10 - 12:15można przydać się
samą techniką analizy danych. -
12:16 - 12:19Szczęśliwie, przyjęto nas fantastycznie,
-
12:19 - 12:22zarówno media, jak i społeczność medyczna,
-
12:22 - 12:23która bardzo wspierała ten projekt.
-
12:23 - 12:27W teorii możemy przejąć
środkową część procesu medycznego -
12:27 - 12:30i zastąpić ją daleko idącą analizą danych,
-
12:30 - 12:33pozwalając lekarzom zająć się tym,
w czym są najlepsi. -
12:33 - 12:35Pokażę państwu przykład.
-
12:35 - 12:40Generacja nowego testu diagnostycznego
zajmuje 15 minut. -
12:40 - 12:42Pokażę to teraz na żywo.
-
12:42 - 12:45Skompresowałem to do trzech minut,
omijając pewne czynności. -
12:45 - 12:48Zamiast nowego testu diagnostycznego
w medycynie, -
12:48 - 12:52pokażę test diagnostyczny samochodów,
-
12:52 - 12:54bo jest to coś, co wszyscy rozumiemy.
-
12:54 - 12:57Na początek mamy 1,5 mln zdjęć samochodów.
-
12:57 - 13:00Chcę stworzyć coś,
co je pogrupuje według kąta, -
13:00 - 13:03z jakiego zostały sfotografowane.
-
13:03 - 13:07To zdjęcia bez opisów,
więc trzeba zacząć od zera. -
13:07 - 13:08Nasz algorytm uczenia głębokiego
-
13:08 - 13:12potrafi automatycznie rozpoznawać
struktury na zdjęciach. -
13:12 - 13:16Człowiek i komputer mogą współpracować.
-
13:16 - 13:18Jak tu widać,
-
13:18 - 13:21człowiek mówi komputerowi
o obszarach zainteresowań, -
13:21 - 13:25których komputer ma użyć
do ulepszenia swojego algorytmu. -
13:25 - 13:28Ten system uczenia głębokiego
operuje w przestrzeni -
13:28 - 13:30o 16 tysiącach wymiarów.
-
13:30 - 13:33Widać, jak komputer obraca obiekty,
-
13:33 - 13:35próbując znaleźć nowe obszary struktur.
-
13:35 - 13:37Kiedy mu się to uda,
-
13:37 - 13:41operator może wskazać
interesujące obszary. -
13:41 - 13:43W tym przypadku komputer
znalazł pewne obszary, -
13:43 - 13:46na przykład kąt zdjęcia.
-
13:46 - 13:47Z biegiem tego procesu
-
13:47 - 13:50stopniowo mówimy komputerowi coraz więcej
-
13:50 - 13:52na temat rodzaju szukanych struktur.
-
13:52 - 13:55Można sobie wyobrazić,
że w przypadku testu diagnostycznego -
13:55 - 13:57patolog identyfikowałby
obszary patologiczne, -
13:57 - 14:02a radiolog wskazywałby
na potencjalnie uciążliwe guzki. -
14:02 - 14:05Czasami może być to trudne dla algorytmu.
-
14:05 - 14:07W tym przypadku, algorytm się zgubił.
-
14:07 - 14:09Przednie i tylne części samochodów
są wymieszane. -
14:09 - 14:11Musimy być trochę ostrożniejsi
-
14:11 - 14:15i ręcznie zaznaczyć przednie części,
-
14:15 - 14:20wskazując potem komputerowi,
że o taką grupę chodzi. -
14:22 - 14:24Robimy to przez jakiś czas,
tu coś pominiemy, -
14:24 - 14:26teraz uczymy algorytm uczenia maszynowego
-
14:26 - 14:28na podstawie tych kilkuset rzeczy
-
14:28 - 14:30mając nadzieję, że się udoskonali.
-
14:30 - 14:34Widać, że algorytm
zaczął wygaszać niektóre zdjęcia, -
14:34 - 14:38pokazując w ten sposób,
że potrafi je już rozpoznawać. -
14:38 - 14:41Możemy użyć koncepcji podobnych zdjęć
-
14:41 - 14:44i teraz widać,
-
14:44 - 14:47że komputer potrafi już
znajdować maski samochodów. -
14:47 - 14:50Teraz człowiek może powiedzieć komputerowi
-
14:50 - 14:52"Tak, świetnie się spisałeś".
-
14:54 - 14:56Czasem, oczywiście, nawet w tym momencie
-
14:56 - 15:00jest jeszcze trudno rozpoznawać grupy.
-
15:00 - 15:03W tym przypadku nawet jeżeli pozwolimy
komputerowi obracać tym przez chwilę, -
15:03 - 15:08widać, że zdjęcia z prawej i lewej strony
są nadal wymieszane. -
15:08 - 15:10Można dać komputerowi kolejne wskazówki
-
15:10 - 15:13i kazać mu znaleźć rzut,
-
15:13 - 15:16który najwyraźniej oddziela
lewe i prawe boki, -
15:16 - 15:18przy pomocy uczenia głębokiego.
-
15:18 - 15:21Po tej wskazówce - udało się.
-
15:21 - 15:24Potrafi już myśleć o obiektach w sposób,
-
15:24 - 15:26który oddziela te grupy.
-
15:26 - 15:29Rozumiecie koncepcję.
-
15:29 - 15:37Tutaj komputer współpracuje z człowiekiem,
-
15:37 - 15:40zamiast go zastępować.
-
15:40 - 15:43Udało się zastąpić proces,
który kiedyś wymagał zespołu -
15:43 - 15:45pięciu czy sześciu ludzi przez siedem lat
-
15:45 - 15:48procesem, który zajmuje 15 minut
-
15:48 - 15:50i wymaga jednej osoby.
-
15:50 - 15:54Ten proces wymaga
czterech czy pięciu iteracji. -
15:54 - 15:56Widać, że teraz 62% z 1,5 miliona zdjęć
-
15:56 - 15:59jest zaklasyfikowanych poprawnie.
-
15:59 - 16:03Teraz można szybko wziąć większe sekcje
-
16:03 - 16:06i sprawdzić, czy nie ma błędów.
-
16:06 - 16:10Jeżeli są błędy,
można o nich powiedzieć komputerowi. -
16:10 - 16:13Powtarzając tę czynność dla różnych grup,
-
16:13 - 16:15mamy już teraz 80% skuteczności
-
16:15 - 16:18w klasyfikowaniu 1,5 miliona zdjęć.
-
16:18 - 16:20Teraz trzeba już tylko znaleźć tych kilka,
-
16:20 - 16:23które nie są klasyfikowane poprawnie
-
16:23 - 16:26i zrozumieć przyczynę.
-
16:26 - 16:32W 15 minut można osiągnąć skuteczność 97%.
-
16:32 - 16:36Ta technika pozwoli być może
rozwiązać poważny problem -
16:36 - 16:39światowego niedoboru
kompetencji medycznych. -
16:39 - 16:42Światowe Forum Ekonomiczne szacuje
10- lub 20-krotny niedobór lekarzy -
16:42 - 16:45w krajach rozwijających się,
-
16:45 - 16:48a wyszkolenie odpowiedniej liczby ludzi
-
16:48 - 16:51zajęłoby około 300 lat.
-
16:51 - 16:54A gdyby można było
zwiększyć ich efektywność -
16:54 - 16:56przy pomocy metod uczenia głębokiego?
-
16:56 - 16:59Bardzo mnie pociągają takie możliwości.
-
16:59 - 17:01Niepokoją mnie też problemy.
-
17:01 - 17:05Otóż każdy niebieski obszar na tej mapie
-
17:05 - 17:08to ponad 80% osób
zatrudnionych w usługach. -
17:08 - 17:09Co to są usługi?
-
17:09 - 17:12Oto usługi. [Kierowcy, kucharze,
diagnostycy, prawnicy] -
17:12 - 17:16Tak się składa,
że właśnie to opanowały komputery. -
17:16 - 17:19Zatem 80% zatrudnionych
w krajach rozwiniętych -
17:19 - 17:22robi rzeczy, których właśnie
nauczyły się komputery. -
17:22 - 17:23Co to oznacza?
-
17:23 - 17:26Nie szkodzi. Będą inne stanowiska.
-
17:26 - 17:29Na przykład przybędzie naukowców
od analizy danych. -
17:29 - 17:29Nie do końca.
-
17:29 - 17:32Analitykom danych nie trzeba dużo czasu
-
17:32 - 17:33na budowę takich systemów.
-
17:33 - 17:36Na przykład te cztery algorytmy
opracował jeden człowiek. -
17:36 - 17:39Myślicie, że to już było,
-
17:39 - 17:42widzieliśmy już w przeszłości,
-
17:42 - 17:45jak stare zawody ustępują nowym.
-
17:45 - 17:47Jakie będą te nowe zawody?
-
17:47 - 17:49Bardzo ciężko jest to oszacować,
-
17:49 - 17:52bo ludzkie osiągnięcia rosną stopniowo,
-
17:52 - 17:54a teraz mamy system, uczenie głębokie,
-
17:54 - 17:57którego zdolności rosną wykładniczo.
-
17:57 - 17:59A my jesteśmy tutaj.
-
17:59 - 18:01Widząc dzisiejsze realia mówimy:
-
18:01 - 18:04"Komputery są nadal dosyć głupie".
-
18:04 - 18:07Ale za pięć lat komputery będą poza skalą.
-
18:07 - 18:11Musimy zacząć myśleć
o tych możliwościach już teraz. -
18:11 - 18:13Oczywiście widzieliśmy to już kiedyś.
-
18:13 - 18:15Podczas rewolucji przemysłowej
-
18:15 - 18:18mieliśmy skokową zmianę możliwości
dzięki silnikom. -
18:18 - 18:21Tyle tylko, że po pewnym czasie
rezultaty uległy spłaszczeniu. -
18:21 - 18:23Nastąpiły zakłócenia społeczne,
-
18:23 - 18:27ale kiedy silnik zaczęto stosować
do każdego rodzaju wytwarzania energii, -
18:27 - 18:28wszystko się ustabilizowało.
-
18:28 - 18:30Rewolucja uczenia maszynowego
-
18:30 - 18:32będzie bardzo różna
od rewolucji przemysłowej, -
18:32 - 18:36bo rewolucja uczenia maszynowego
nie ustabilizuje się nigdy. -
18:36 - 18:39Im lepsza będzie
aktywność intelektualna komputerów, -
18:39 - 18:41tym lepsze zbudują komputery,
-
18:41 - 18:43o jeszcze większych
zdolnościach intelektualnych. -
18:43 - 18:47Będzie to zmiana,
jakiej świat nigdy dotąd nie doświadczył, -
18:47 - 18:51więc zmieniło się nasze wcześniejsze
zrozumienie możliwości. -
18:51 - 18:53Już odczuwamy ten wpływ.
-
18:53 - 18:56Przez ostatnie 25 lat
produktywność kapitału wzrastała, -
18:56 - 19:01wydajność pracy pozostała bez zmian,
a nawet trochę spadła. -
19:01 - 19:04Chcę więc już teraz zacząć tę dyskusję.
-
19:04 - 19:07Zwykle gdy opowiadam o tym problemie,
-
19:07 - 19:09napotykam lekceważenie.
-
19:09 - 19:11Przecież komputery nie potrafią
naprawdę myśleć, -
19:11 - 19:13nie mają uczuć,
nie rozumieją poezji, -
19:13 - 19:16nie do końca wiemy, jak działają.
-
19:16 - 19:17I co z tego?
-
19:17 - 19:19Komputery już teraz potrafią
wykonywać czynności, -
19:19 - 19:22z których utrzymują się ludzie,
-
19:22 - 19:24więc trzeba zacząć się zastanawiać,
-
19:24 - 19:28jak dostosujemy
społeczne i gospodarcze struktury -
19:28 - 19:30do tej nowej rzeczywistości.
-
19:30 - 19:31Dziękuję.
-
19:31 - 19:32(Oklaski)
- Title:
- Cudowne i przerażające implikacje tego, że komputer potrafi się uczyć
- Speaker:
- Jeremy Howard
- Description:
-
Co się stanie, kiedy komputery opanują umiejętność uczenia się? Technolog Jeremy Howard przedstawia kilka zaskakujących wyników z szybko ewoluującej dziedziny uczenia głębokiego, techniki, która umożliwia komputerom nauczenie się języka chińskiego, rozpoznawanie obiektów na fotografiach lub pomoc w analizie diagnozy medycznej. (Jedno z narzędzi wykorzystujących uczenie głębokie, obejrzawszy wiele godzin filmów na YouTube, nauczyło się koncepcji "kota"). Zapoznaj się z dziedziną, która zmieni sposób, w jaki działają komputery ... szybciej niż to sobie wyobrażasz.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 19:45
Rysia Wand approved Polish subtitles for The wonderful and terrifying implications of computers that can learn | ||
Rysia Wand edited Polish subtitles for The wonderful and terrifying implications of computers that can learn | ||
Rysia Wand edited Polish subtitles for The wonderful and terrifying implications of computers that can learn | ||
Rysia Wand edited Polish subtitles for The wonderful and terrifying implications of computers that can learn | ||
Rysia Wand edited Polish subtitles for The wonderful and terrifying implications of computers that can learn | ||
Rysia Wand edited Polish subtitles for The wonderful and terrifying implications of computers that can learn | ||
Rysia Wand accepted Polish subtitles for The wonderful and terrifying implications of computers that can learn | ||
Rysia Wand commented on Polish subtitles for The wonderful and terrifying implications of computers that can learn |
Rysia Wand
Finished review. Translator notified.
Remarks:
w tytule nie dajemy kropki
==========================
W napisach unikamy przypisów tłumacza. Można je dodać w opisie.
================================================================================
Niepotrzebne dzielenie/ łączenie linijek.
Nie trzeba dzielić linijki, jeśli bez trudu mieści się w limicie 42 znaków, ani łączyć linijek, jeśli mieszczą się w limicie czasowym. Tworząc dwie linijki tekstu przesłaniasz więcej ekranu, więc jeśli można, trzeba tego unikać.
================================================================================
Niewłaściwe łamanie/kończenie linijek/napisów.
Na końcu napisu/linijki należy zostawiać w razie możliwości językową "całość". To stosunkowo istotna kwestia. Czasami ostatnie słowo lub wyrażenie trzeba przenieść do napisu następnego, żeby umożliwić zakończenie napisu na językową całość - nawet jeśli odpowiednik w oryginale jest na końcu danego napisu.
Przykłady: ++++++++++1. "Tak więc zacznę od tego, że jeśli" – trzeba zakończyć po "tego,"; w następnym napisie byłoby zdanie podrzędne. ++++++++++2. W zdaniu „Można nawet symulować te zachowania w przeglądarce” nie można rozbić „te” i „zachowania”. Nie należy zostawiać na końcu linijki przyimków (w, po, z, o), zaimków względnych (który, że, gdy, gdzie). ++++++++++
Wyjątkiem jest sytuacja, w której napisy muszą być bardzo zsynchronizowane z tym, co się dzieje na ekranie - na przykład ostatnie słowo odnosi się do jakiejś zmiany w pokazywanej właśnie animacji. Więcej informacji w poradniku pod adresem http://translations.ted.org/wiki/How_to_break_lines
================================================================================
Rejestr jest zanadto formalny. Napisy udają zapis mowy, więc raczej nie stosujemy w nich słów charakterystycznych dla rejestru języka pisanego. Np. jeśli to możliwe, zamiast "by", "aby", "ażeby" lepiej użyć "żeby", zamiast "iż" "że", „gdyż” „bo” itd. Bardziej formalnego rejestru możemy używać wtedy, kiedy chcemy stylizować prelekcję na bardzo formalną, ale to prawie nigdy nie jest konieczne (wyjątkiem byłaby sytuacja, w której prelegentka specjalnie mówi językiem sztywnym i oficjalnym, żeby na przykład później odnieść się do tego i skontrastować z bardziej potocznym językiem).
Rysia Wand
part 2
================================================================================
Okoliczniki czasu i miejsca wydzielone przecinkiem.
Okoliczniki czasu i miejsca na początku zdania nie są w języku polskim oddzielane przecinkiem, inaczej niż w angielskim. Przykład: "Today, the basis for scientific time" = "Dzisiaj, podłożem mierzenia czasu" --> "Dzisiaj podłożem mierzenia czasu".
================
entirely unlabeled - bez opisów. Nie całkiem opisane byłoby: not entirely labeled
================================================================================
Wata językowa zostawiona w tłumaczeniu. W tłumaczeniu napisów nie zostawiamy "waty językowej" i różnych innych elementów. Jest to bardzo istotny aspekt tłumaczenia tego rodzaju. Polecam zapoznać się z poradnikiem pod adresem http://translations.ted.org/wiki/Compressing_subtitles
================================================================================
Kalka językowa
Niektórych konstrukcji angielskich nie należy tłumaczyć słowo w słowo. Zamiast dosłownego "I to jest właśnie to, przez co" lepiej np. "właśnie dlatego", "dlatego". Inne przykłady: ++++++1. *ponieważ racją jest że (lepiej: to prawda, że) // ++++++2. „it's really important to remember” nie można: ***bardzo ważnym jest by pamiętać (lepiej: Musimy pamiętać / Trzeba pamiętać / Najważniejsze, to zapamiętać) ++++++3. „what cinema can do is,” nie można przełożyć „***tym co może zrobić kino jest,”, bo brzmi to po polsku okropnie. Można dać np. „kino może”. ++++++Patrz: http://translations.ted.com/forums/discussion/47/wypisujemy-najczestsze-bledy
==================================================
Polski separator dziesiętny to przecinek, nie kropka http://lukaszrokicki.pl/2011/01/17/separatory-w-zapisie-liczb/