Lecture 3 | Machine Learning (Stanford)
-
0:09 - 0:10
-
0:10 - 0:13Esta apresentação é disponibilizada pelo centro Standford para desenvolvimento
-
0:13 - 0:20profissional
-
0:23 - 0:26Ok. Bom dia e bem vindos de volta
-
0:26 - 0:30a terceira palestra para esta classe. Então,
-
0:30 - 0:33aqui está o que quero fazer hoje
-
0:33 - 0:34E... em alguns dos
-
0:34 - 0:37tópicos que eu irei fazer hoje podem parecer um pouco que eu esteja meio que, pulando
-
0:37 - 0:41de um tópico a outro, mas aqui está, mais ou menos, o roteiro para hoje e o
-
0:41 - 0:44fluxo lógico de idéias.
-
0:44 - 0:48Na última palestra falamos sobre regressão linear e hoje eu quero falar sobre
-
0:48 - 0:52um tipo de adaptação dela chamada (locally weighted regression). É um algoritmo
-
0:52 - 0:57muito popular, na verdade este provavelmente é um dos algoritmos de aprendizado de máquina
-
0:57 - 0:59favoritos de um de meus antigos mentores. Então
-
0:59 - 1:02iremos falar sobre uma provável segunda interpretação da regressão linear
-
1:02 - 1:07E usá-la para nos mover ao nosso primeiro algoritmo de classificação
-
1:07 - 1:08que é regressão logística
-
1:08 - 1:12Tomaremos uma pequena digressão para falar sobre uma coisa chamada algoritmo 'perceptron'
-
1:12 - 1:15que é algo que nós iremos voltar a discutir, novamente, mais tarde neste trimestre
-
1:15 - 1:17e
-
1:17 - 1:21Se o tempo permitir, eu espero chegar ao método de Newton, o qual é um algoritmo para
-
1:21 - 1:23ajustar modelos de
-
1:23 - 1:24regressão logística.
-
1:24 - 1:30Então, recapitulando onde nós paramos na palestra anterior,
-
1:30 - 1:33lembrem-se que a notação que eu defini foi que
-
1:33 - 1:35eu usei isto
-
1:35 - 1:37X, i sobrescrito
-
1:37 - 1:44Y, i sobrescrito, para denotaro exemplo de treinamento i
-
1:47 - 1:49e
-
1:49 - 1:51quando estávamos falando sobre regressão linear
-
1:51 - 1:52
-
1:52 - 1:54ou método dos mínimos quadrados
-
1:54 - 1:56Nós usamos isto para denotar
-
1:56 - 1:58o valor predito resultado
-
1:58 - 2:00da aplicação de minha "hipótese" H
-
2:00 - 2:02na entrada Xi
-
2:02 - 2:04E minha hipótese
-
2:04 - 2:06era parametrizada pelo
-
2:06 - 2:08vetor de parâmetros theta
-
2:08 - 2:13E então dizemos que isto era igual à soma de j = 0 á n
-
2:13 - 2:15da multiplicação de theta j por xj
-
2:15 - 2:19i superscrito
-
2:19 - 2:22que é produto de theta transposto por X
-
2:22 - 2:25E temos a convenção que X
-
2:25 - 2:29zero subscrito, é igual a 1, Então isto conta para a intersecção no nosso
-
2:29 - 2:31modelo de regressão linear
-
2:31 - 2:33E o n minúsculo aqui
-
2:33 - 2:36era a notação que eu estava usando para
-
2:36 - 2:40o número de 'features' no meu conjunto de Treinamento. Ok? Então
-
2:40 - 2:43no exemplo quando tentamos predizer o preço de casas, nós tínhamos duas 'features, o tamanho
-
2:43 - 2:45da casa e o número de quartos
-
2:45 - 2:50Nós tínhamos duas features, portanto, n-zinho era igual a 2
-
2:50 - 2:51
-
2:51 - 2:54Então, apenas para
-
2:54 - 2:57terminar de recapitular a palestra anterior
-
2:57 - 3:01nós definimos esta função de custo quadrática J de theta
-
3:01 - 3:05era igual a 1/2, soma de i = 1 à m ....
-
3:05 - 3:07...
-
3:07 - 3:10...
-
3:10 - 3:12ao quadrdado
-
3:12 - 3:16onde esta é a soma sobre nossos m exemplos de treinamento e meu conjunto de treinamento. Então
-
3:16 - 3:17m minúsculo
-
3:17 - 3:21era a notação que eu estava usando para denotar o número de exemplos de treinamento que eu tinha
-
3:21 - 3:23e o tamanho do meu conjunto de treinamento
-
3:23 - 3:25E no fim da última palestra
-
3:25 - 3:26nós derivamos
-
3:26 - 3:30o valor de theta que minimiza isto na forma fechada, que era X
-
3:30 - 3:32transposto X
-
3:32 - 3:35inverso X transposto
-
3:35 - 3:38Y. Ok?
-
3:38 - 3:42Então
-
3:42 - 3:46A medida que continuarmos a palestra de hoje, Eu continuarei a usar esta anotação e, novamente,
-
3:46 - 3:50Eu percebo que é uma grande quantidade de notações para todos lembrarem,
-
3:50 - 3:55Então se durante esta palestra você se esquecer - se você tiver problemas para se lembrar
-
3:55 - 4:02o que m minúsculo é ou o que n minúsculo é ou qualquer coisa, por favor levante sua mão e pergunte.
-
4:04 - 4:07Quando nós falamos sobre regressão linear da última vez
-
4:07 - 4:10nós usamos duas features. Uma delas era
-
4:10 - 4:14o tamanho das casas em 'pés' quadrados, Então a área de convivência da casa
-
4:14 - 4:18e a outra feature era o número de quartos na casa
-
4:18 - 4:22Geralmente, nós aplicamos um algoritmo de aprendizado de máquina a um problema que
-
4:22 - 4:23importa para você
-
4:23 - 4:28A escolha de features irá depender muito de você, certo?
-
4:28 - 4:32E o modo como você escolhe suas features para dar ao algoritmo, frequentemente irá
-
4:32 - 4:34causar um grande impacto na maneira como ele funciona.
-
4:34 - 4:40Então, por exemplo
-
4:40 - 4:44a escolha que nós fizemos da última vez era x1 igual ao tamanho.
-
4:44 - 4:47e vamos deixar esta idéia de feature do número de quartos por enquanto. Vamos dizer que nós não temos dados
-
4:47 - 4:50que nos digam quantos quartos há nestas casas
-
4:50 - 4:54Uma coisa que você poderia fazer é definir - oh, vamos
-
4:54 - 4:56desenhar isto
-
4:56 - 5:03E então...
-
5:04 - 5:07Então digamos que isto era o tamanho da casa e que este é o preço da casa, então
-
5:07 - 5:10Se você usar
-
5:10 - 5:14isto como uma feature, talvez você tenha theta0 mais theta1
-
5:14 - 5:19x1, é um tipo de, modelo linear.
-
5:19 - 5:21Se você escolher - deixe-me apenas copiar
-
5:21 - 5:26os mesmos dados de novo, certo?
-
5:26 - 5:30Você pode definir o conjunto de features onde x1 é igual ao tamanho da casa
-
5:30 - 5:34e x2 é
-
5:34 - 5:36o quadrado
-
5:36 - 5:37do tamanho
-
5:37 - 5:38da casa, ok?
-
5:38 - 5:43Então x1 é o tamanho da casa em, digamos, uma medida quadrada (e.g. m²) e x2 é
-
5:43 - 5:45qualquer medida quadrada da casa e apenas
-
5:45 - 5:49eleve esse número ao quadrado, e isto seria outro modo de escolher uma feature
-
5:49 - 5:51e se você fizer isto então
-
5:51 - 5:55o mesmo algoritmo irá se ajustar
-
5:55 - 5:59a uma função quadrática para você
-
5:59 - 6:01theta2, x1 ao quadrado
-
6:01 - 6:06ok? Porque isto
-
6:06 - 6:09na verdade é x2. E
-
6:09 - 6:12dependendo da aparência dos dados, talvez isto se ajuste
-
6:12 - 6:16levemente melhor aos dados. Na verdade você pode levar isto
-
6:16 - 6:23ainda mais adiante
-
6:25 - 6:26O que é - vamos ver
-
6:26 - 6:30Eu tenho sete exemplos de treinamento aqui, então na verdade você pode
-
6:30 - 6:34,talvez, ajustar até um polinômio de grau 6. Você poderia ajustar um modelo
-
6:34 - 6:35theta0 mais
-
6:35 - 6:38theta1, x1 mais theta2
-
6:38 - 6:42x ao quadrado mais etc...
-
6:42 - 6:48até theta6. X à
-
6:48 - 6:52potência de 6 e theta é o polinômio
-
6:52 - 6:55para estes sete pontos de dados
-
6:55 - 6:58E se você fizer isto, você vai descobrir que
-
6:58 - 7:01você criou um modelo que se ajusta exatamente aos seus dados. É aí que, eu acho,
-
7:01 - 7:06neste exemplo que eu desenhei, nós temos 7 pontos de dados, então se você ajusta um
-
7:06 - 7:08modelo de polinômio de grau 6, você pode, meio que, ajustar
-
7:08 - 7:11uma linha que passa por estes sete pontos perfeitamente
-
7:11 - 7:14e você provavelmente encontra uma curva que
-
7:14 - 7:17você iria conseguir algo
-
7:17 - 7:20parecido com isto
-
7:20 - 7:23E por um lado, é um ótimo modelo no sentido que ele
-
7:23 - 7:25se ajusta perfeitamente aos dados de treinamento
-
7:25 - 7:26Mas por outro, este provavelmente não é
-
7:26 - 7:28um bom modelo no sentido que
-
7:28 - 7:31nenhum de nós, realmente pensa que esta seja uma boa predição dos preços
-
7:31 - 7:36das casas, como uma função do tamanho da casa, certo? Então
-
7:36 - 7:39Na verdade, nós voltaremos a isto mais tarde. Acontece que
-
7:39 - 7:41nos modelos que nós temos aqui;
-
7:41 - 7:45Eu sinto que talvez o modelo quadrático se ajuste melhor
-
7:45 - 7:46Enquanto que
-
7:46 - 7:47
-
7:47 - 7:52O modelo linear parece que possui um pouco de componente quadrático nestes
-
7:52 - 7:52dados
-
7:52 - 7:56que a função linear não está capturando
-
7:56 - 7:59Então nós iremos voltar a isto um pouco mais tarde e falar sobre os problemas
-
7:59 - 8:03associados com ajuste de modelos que são, ou muito simples, usam dos pequenos
-
8:03 - 8:04conjuntos de features, ou
-
8:04 - 8:08em modelos que são muito complexos e talvez
-
8:08 - 8:11usem um conjunto muito grande de featurees
-
8:11 - 8:12apenas para dar-lhes
-
8:12 - 8:13um nome,
-
8:13 - 8:14nós chamamos isto de
-
8:14 - 8:19o problema de 'underfitting' (subajuste)
-
8:19 - 8:23e, muito informalmente, isto se refere a uma configuração onde
-
8:23 - 8:26existem padrões óbvios que - onde há padrões nos dados que
-
8:26 - 8:28o algoritmo está falhando a se ajustar
-
8:28 - 8:32E a este problema aqui nós nos referimos como sendo
-
8:32 - 8:34overfitting (sobreajuste)
-
8:34 - 8:36e, novamente, muito informalmente,
-
8:36 - 8:41isto acontece quando o algoritmo está ajustando às Idiossincrasias de um conjunto de dados específicos
-
8:41 - 8:43certo? Isto acontece apenas porque
-
8:43 - 8:48das sete casas que tiramos amostras em Portland, ou de onde quer que você esteja coletando dados,
-
8:48 - 8:51esta casa acaba por ser um pouco mais cara, esta outro um pouco menos
-
8:51 - 8:54cara, e por
-
8:54 - 8:57ajustar seis ao polinômio nós, meio que, ajustamos características individuais
-
8:57 - 8:58deste conjunto de dados,
-
8:58 - 9:01Ao invés das verdadeiras tendências subjacentes
-
9:01 - 9:04de como o preço das casas varia como uma função do tamanho da casa. Ok?
-
9:04 - 9:08Então, estes são dois problemas muito diferentes. Nós iremos definí-los mais formalmente mais tarde.
-
9:08 - 9:12e falar sobre como atacar cada um destes problemas.
-
9:12 - 9:13Mas por agora eu
-
9:13 - 9:20espero apreciar que há este assunto de seleção de features.
-
9:22 - 9:23Então se você quiser apenas
-
9:23 - 9:26ensinar-nos os problemas de aprendizado, existem poucas maneiras de fazê-lo
-
9:26 - 9:27Então
-
9:27 - 9:29Nós iremos falar sobre
-
9:29 - 9:32algoritmos de seleção de features, mais tarde neste trimestre também. Então algoritmos automáticos
-
9:32 - 9:33para escolher
-
9:33 - 9:35que features usar em um
-
9:35 - 9:37problema de regressão como este
-
9:37 - 9:41O que eu quero fazer hoje é falar sobre uma classe de algoritmos
-
9:41 - 9:44chamados de algoritmos de aprendizado não paramétricos que irão ajudar
-
9:44 - 9:49de alguma forma, a aliviar a necessidade de você escolher features muito cuidadosamente. Ok?
-
9:49 - 9:56E isto nos leva a nossa discussão sobre (locally weighted regression).
-
9:56 - 10:03E só pra definir o termo
-
10:12 - 10:16A regressão linear, da medida que definimos até agora, é um exemplo de um algoritmo de aprendizado paramétrico
-
10:16 - 10:17e
-
10:17 - 10:19algoritmo de aprendizado paramétrico
-
10:19 - 10:21da maneira como é definido é
-
10:21 - 10:24um algoritmo que tem um número fixo de parâmetros
-
10:24 - 10:27Que se ajustam aos dados, Então
-
10:27 - 10:28Na regressão linear
-
10:28 - 10:32nós temos um conjunto fixo de parâmetros theta. Que deve
-
10:32 - 10:39se ajustar aos dados
-
10:39 - 10:46Em contraste, o que eu vou falar sobre agora é nosso primeiro algoritmo de aprendizado não-paramétrico.
-
10:58 - 11:02A definição formal, a qual não é muito intuitiva, eu substitui por uma
-
11:02 - 11:04segunda, digamos, mais
-
11:04 - 11:06intuitiva.
-
11:06 - 11:10O tipo de definição formal do algoritmo de aprendizado não paramétrico é de um algoritmo
-
11:10 - 11:17onde o número de paramâmetros
-
11:18 - 11:22cresce
-
11:22 - 11:25com M, com o tramanho do conjunto de treinamento. E geralmente é
-
11:25 - 11:30definido como um número de parâmetros cresce linearmente com o tamanho do conjunto de treinamento.
-
11:30 - 11:32Esta é a definição formal
-
11:32 - 11:33Uma
-
11:33 - 11:36definição levemente menos formal é que
-
11:36 - 11:37A quantidade de coisa que seu algoritmo de aprendizado precisa
-
11:37 - 11:40para se manter funcionando
-
11:40 - 11:44irá crescer linearmente com o conjunto de treinamento ou, outra forma de dizer isto, é um
-
11:44 - 11:45algoritmo que
-
11:45 - 11:51Nós iremos precisar manter o conjunto de treinamento inteiro, mesmo depois do aprendizado. Ok? Então
-
11:51 - 11:53Não se preocupe demais sobre esta definição. Mas
-
11:53 - 11:55O que eu quero agora é
-
11:55 - 11:58descrever um algoritmo de aprendizado não-paramétrico específico
-
11:58 - 12:05chamado "locally weighted regression"
-
12:09 - 12:16O qual também recebe um par de outros nomes
-
12:17 - 12:20O qual também é nomeado como Loess, por razões meio históricas. Loess
-
12:20 - 12:23Geralmente é soletrado L-O-E-S-S
-
12:23 - 12:24algumas vezes falando assim,
-
12:24 - 12:27também. Eu só chamo de "locally weighted regression"
-
12:27 - 12:34Então aqui está
-
12:34 - 12:37a idéia. Este será um algoritmo que vai nos permitir
-
12:37 - 12:42nos preocupar um pouco menos sobre ter que escolher features muito cuidadosamente.
-
12:42 - 12:48Então
-
12:48 - 12:55Para meu exemplo de motivação vamos dizer que eu
-
12:55 - 12:59tenho um
-
12:59 - 13:00conjunto de terinamento que parece com este, ok?
-
13:00 - 13:04Então isto é X e isto é Y
-
13:04 - 13:07Se você executar
-
13:07 - 13:10regressão linear nisto e você ajustar talvez, uma função linear a isto
-
13:10 - 13:12você acaba com uma
-
13:12 - 13:13mais ou menos
-
13:13 - 13:16linha reta, a qual não é um ajuste muito bom para esses dados.
-
13:16 - 13:19Você ainda pode sentar e encarar isto e tentar decidir que features são usadas certo
-
13:19 - 13:22Então talvez você queira jogar uma função quadrática
-
13:22 - 13:25Mas ela não é realmente quadrática também. Então talvez você queira
-
13:25 - 13:27modelar isto como um X
-
13:27 - 13:31mais X ao quadrado mas talvez alguma função do seno de X ou algo do tipo
-
13:31 - 13:33Na verdade você pode sentar e perder tempo com features
-
13:33 - 13:37E depois de um tempo você provavelmente virá com um conjunto de features cujo modelo está
-
13:37 - 13:39ok, mas vamos falar de um algoritmo que
-
13:39 - 13:46você pode usar sem necessidade de fazer isso
-
13:50 - 13:52Então
-
13:52 - 13:54Se - bem
-
13:54 - 13:56suponha que você quer avaliar
-
13:56 - 13:59sua hipótese H
-
13:59 - 14:03em um certo ponto.
-
14:03 - 14:06Com um certo ponto de requisição em X. ok? e
-
14:06 - 14:07vamos dizer que
-
14:07 - 14:10você quer saber qual o valor predito de
-
14:10 - 14:11Y
-
14:11 - 14:16nesta posição de X, certo? Então
-
14:16 - 14:18para a regressão linear
-
14:18 - 14:22O que nós estamos fazemos era ajustar
-
14:22 - 14:25theta
-
14:25 - 14:28para minimizar
-
14:28 - 14:30a soma sobre i
-
14:30 - 14:34Yi menos theta, transposto Xi
-
14:34 - 14:38ao quadrado e retornando theta
-
14:38 - 14:41transposto X. Ok?
-
14:41 - 14:46Então esta era regressão linear
-
14:46 - 14:49Em contraste, em "locally weighted linear regression" você irá fazer as coisas levemente
-
14:49 - 14:51diferente. ok?
-
14:51 - 14:54vamos olhar para este ponto X
-
14:54 - 14:58e então eu irei olhar no meu conjunto de dados e levar em consideração
-
14:58 - 15:03apenas o conjunto de pontos, meio que, em uma pequena vizinhança de X. Ok?
-
15:03 - 15:07Então nós iremos olhar onde Eu quero avaliar minha hipótese. Eu vou olhar
-
15:07 - 15:10apenas a vizinhança
-
15:10 - 15:13deste ponto. Onde eu quero avaliar minha hipótese
-
15:13 - 15:16E então eu vou pegar,
-
15:16 - 15:19digamos, apenas estes poucos pontos
-
15:19 - 15:21e Irei
-
15:21 - 15:22aplicar regressão linear
-
15:22 - 15:26para ajustar uma linha reta apenas para este subcojunto dos dados, ok? Eu
-
15:26 - 15:29irei usar este sub-termo subconjunto onde nós iremos voltar novamente
-
15:29 - 15:32Então nós temos este conjunto de dados e Eu ajustei uma linha reta
-
15:32 - 15:36a ele e talvez eu tenha uma linha como esta
-
15:36 - 15:40e O que eu irei fazer então é
-
15:40 - 15:45avaliar este valor particular na linha reta
-
15:45 - 15:47e este será o valor que eu retorno para meu algoritmo
-
15:47 - 15:50Eu acho que isto seria o valor predito
-
15:50 - 15:53para
-
15:53 - 15:57Isto seria o valor que minha hipótese retornaria
-
15:57 - 16:04em "locally weighted regression" ok? Então
-
16:05 - 16:10nós iremos seguir em frente. Deixe me continuar e formalizar isto
-
16:10 - 16:15
-
16:15 - 16:18
-
16:18 - 16:25
-
16:27 - 16:32
-
16:32 - 16:36
-
16:36 - 16:37
-
16:37 - 16:41
-
16:41 - 16:42
-
16:42 - 16:45
-
16:45 - 16:49
-
16:49 - 16:54
-
16:54 - 16:57
-
16:57 - 17:04
-
17:06 - 17:10
-
17:10 - 17:14
-
17:14 - 17:15
-
17:15 - 17:19
-
17:19 - 17:21
-
17:21 - 17:25
-
17:25 - 17:27
-
17:27 - 17:30
-
17:30 - 17:31
-
17:31 - 17:34
-
17:34 - 17:41
-
17:42 - 17:43
-
17:43 - 17:48
-
17:48 - 17:51
-
17:51 - 17:51
-
17:51 - 17:56
-
17:56 - 18:02
-
18:02 - 18:05
-
18:05 - 18:12
-
18:12 - 18:13
-
18:13 - 18:16
-
18:16 - 18:21
-
18:21 - 18:24
-
18:24 - 18:28
-
18:28 - 18:32
-
18:32 - 18:35
-
18:35 - 18:37
-
18:37 - 18:39
-
18:39 - 18:44
-
18:44 - 18:47
-
18:47 - 18:48
-
18:48 - 18:54
-
18:54 - 18:55
-
18:55 - 18:58
-
18:58 - 19:00
-
19:00 - 19:02
-
19:02 - 19:05
-
19:05 - 19:06
-
19:06 - 19:10
-
19:10 - 19:17
-
19:17 - 19:22
-
19:22 - 19:26
-
19:26 - 19:29
-
19:29 - 19:33
-
19:33 - 19:35
-
19:35 - 19:37
-
19:37 - 19:41
-
19:41 - 19:42
-
19:42 - 19:45
-
19:45 - 19:47
-
19:47 - 19:49
-
19:49 - 19:51
-
19:51 - 19:53
-
19:53 - 19:55
-
19:55 - 19:59
-
19:59 - 20:02
-
20:02 - 20:06
-
20:06 - 20:07
-
20:07 - 20:12
-
20:12 - 20:13
-
20:13 - 20:16
-
20:16 - 20:21
-
20:21 - 20:23
-
20:23 - 20:28
-
20:28 - 20:32
-
20:32 - 20:33
-
20:33 - 20:36
-
20:36 - 20:39
-
20:39 - 20:42
-
20:42 - 20:44
-
20:44 - 20:48
-
20:48 - 20:50
-
20:50 - 20:53
-
20:53 - 20:54
-
20:54 - 20:56
-
20:56 - 20:58
-
20:58 - 21:01
-
21:01 - 21:04
-
21:04 - 21:07
-
21:07 - 21:10
-
21:10 - 21:11
-
21:11 - 21:15
-
21:15 - 21:17
-
21:17 - 21:21
-
21:21 - 21:24
-
21:24 - 21:27
-
21:27 - 21:32
-
21:32 - 21:33
-
21:33 - 21:40
-
21:40 - 21:47
-
21:47 - 21:49
-
21:49 - 21:53
-
21:53 - 21:55
-
21:55 - 21:57
-
21:57 - 22:00
-
22:00 - 22:04
-
22:04 - 22:08
-
22:08 - 22:09
-
22:09 - 22:16
-
22:17 - 22:21
-
22:21 - 22:25
-
22:25 - 22:27
-
22:27 - 22:30
-
22:30 - 22:32
-
22:32 - 22:39
-
22:41 - 22:44
-
22:44 - 22:45
-
22:45 - 22:46
-
22:46 - 22:50
-
22:50 - 22:51
-
22:51 - 22:52
-
22:52 - 22:55
-
22:55 - 22:56
-
22:56 - 22:58
-
22:58 - 23:00
-
23:00 - 23:04
-
23:04 - 23:06
-
23:06 - 23:08
-
23:08 - 23:09
-
23:09 - 23:13
-
23:13 - 23:15
-
23:15 - 23:17
-
23:17 - 23:22
-
23:22 - 23:25
-
23:25 - 23:27
-
23:27 - 23:29
-
23:29 - 23:31
-
23:31 - 23:37
-
23:37 - 23:42
-
23:42 - 23:43
-
23:43 - 23:48
-
23:48 - 23:49
-
23:49 - 23:51
-
23:51 - 23:55
-
23:55 - 23:57
-
23:57 - 23:59
-
23:59 - 24:01
-
24:01 - 24:04
-
24:04 - 24:07
-
24:07 - 24:10
-
24:10 - 24:15
-
24:15 - 24:16
-
24:16 - 24:19
-
24:19 - 24:20
-
24:20 - 24:24
-
24:24 - 24:29
-
24:29 - 24:31
-
24:31 - 24:37
-
24:37 - 24:42
-
24:42 - 24:44
-
24:44 - 24:45
-
24:45 - 24:49
-
24:49 - 24:51
-
24:51 - 24:52
-
24:52 - 24:54
-
24:54 - 24:58
-
24:58 - 25:00
-
25:00 - 25:01
-
25:01 - 25:03
-
25:03 - 25:07
-
25:07 - 25:08
-
25:08 - 25:13
-
25:13 - 25:14
-
25:14 - 25:18
-
25:18 - 25:23
-
25:23 - 25:24
-
25:24 - 25:27
-
25:27 - 25:32
-
25:32 - 25:34
-
25:34 - 25:37
-
25:37 - 25:40
-
25:40 - 25:45
-
25:45 - 25:52
-
25:56 - 25:58
-
25:58 - 25:59
-
25:59 - 26:01
-
26:01 - 26:06
-
26:06 - 26:09
-
26:09 - 26:15
-
26:15 - 26:15
-
26:15 - 26:17
-
26:17 - 26:21
-
26:21 - 26:23
-
26:23 - 26:27
-
26:27 - 26:29
-
26:29 - 26:31
-
26:31 - 26:36
-
26:36 - 26:41
-
26:41 - 26:43
-
26:43 - 26:50
-
26:51 - 26:53
-
26:53 - 26:57
-
26:57 - 26:59
-
26:59 - 27:02
-
27:02 - 27:04
-
27:04 - 27:07
-
27:07 - 27:11
-
27:11 - 27:13
-
27:13 - 27:17
-
27:17 - 27:19
-
27:19 - 27:20
-
27:20 - 27:22
-
27:22 - 27:25
-
27:25 - 27:28
-
27:28 - 27:32
-
27:32 - 27:34
-
27:34 - 27:36
-
27:36 - 27:37
-
27:37 - 27:39
-
27:39 - 27:42
-
27:42 - 27:44
-
27:44 - 27:51
-
28:00 - 28:05
-
28:05 - 28:07
-
28:07 - 28:10
-
28:10 - 28:11
-
28:11 - 28:15
-
28:15 - 28:19
-
28:19 - 28:22
-
28:22 - 28:29
-
28:39 - 28:43
-
28:43 - 28:46
-
28:46 - 28:50
-
28:50 - 28:52
-
28:52 - 28:56
-
28:56 - 28:59
-
28:59 - 29:02
-
29:02 - 29:08
-
29:08 - 29:10
-
29:10 - 29:12
-
29:12 - 29:14
-
29:14 - 29:18
-
29:18 - 29:21
-
29:21 - 29:25
-
29:25 - 29:26
-
29:26 - 29:30
-
29:30 - 29:32
-
29:32 - 29:35
-
29:35 - 29:39
-
29:39 - 29:40
-
29:40 - 29:41
-
29:41 - 29:48
-
29:48 - 29:51
-
29:51 - 29:57
-
29:57 - 30:01
-
30:01 - 30:02
-
30:02 - 30:07
-
30:07 - 30:12
-
30:12 - 30:13
-
30:13 - 30:17
-
30:17 - 30:19
-
30:19 - 30:22
-
30:22 - 30:23
-
30:23 - 30:27
-
30:27 - 30:31
-
30:31 - 30:33
-
30:33 - 30:34
-
30:34 - 30:37
-
30:37 - 30:39
-
30:39 - 30:42
-
30:42 - 30:46
-
30:46 - 30:47
-
30:47 - 30:50
-
30:50 - 30:52
-
30:52 - 30:56
-
30:56 - 31:00
-
31:00 - 31:02
-
31:02 - 31:07
-
31:07 - 31:09
-
31:09 - 31:13
-
31:13 - 31:14
-
31:14 - 31:16
-
31:16 - 31:18
-
31:18 - 31:23
-
31:23 - 31:26
-
31:26 - 31:28
-
31:28 - 31:30
-
31:30 - 31:34
-
31:34 - 31:36
-
31:36 - 31:37
-
31:37 - 31:41
-
31:41 - 31:46
-
31:46 - 31:48
-
31:48 - 31:51
-
31:51 - 31:55
-
31:55 - 31:57
-
31:57 - 31:59
-
31:59 - 32:01
-
32:01 - 32:03
-
32:03 - 32:05
-
32:05 - 32:09
-
32:09 - 32:15
-
32:15 - 32:22
-
32:22 - 32:25
-
32:25 - 32:31
-
32:31 - 32:31
-
32:31 - 32:34
-
32:34 - 32:41
-
32:41 - 32:47
-
32:47 - 32:54
-
32:59 - 33:04
-
33:04 - 33:10
-
33:10 - 33:11
-
33:11 - 33:13
-
33:13 - 33:20
-
33:29 - 33:34
-
33:34 - 33:37
-
33:37 - 33:41
-
33:41 - 33:46
-
33:46 - 33:50
-
33:50 - 33:53
-
33:53 - 33:56
-
33:56 - 33:58
-
33:58 - 34:01
-
34:01 - 34:04
-
34:04 - 34:08
-
34:08 - 34:11
-
34:11 - 34:13
-
34:13 - 34:16
-
34:16 - 34:20
-
34:20 - 34:24
-
34:24 - 34:31
-
34:38 - 34:43
-
34:43 - 34:47
-
34:47 - 34:50
-
34:50 - 34:54
-
34:54 - 34:56
-
34:56 - 35:00
-
35:00 - 35:03
-
35:03 - 35:06
-
35:06 - 35:08
-
35:08 - 35:11
-
35:11 - 35:15
-
35:15 - 35:19
-
35:19 - 35:21
-
35:21 - 35:23
-
35:23 - 35:26
-
35:26 - 35:29
-
35:29 - 35:33
-
35:33 - 35:37
-
35:37 - 35:39
-
35:39 - 35:42
-
35:42 - 35:45
-
35:45 - 35:49
-
35:49 - 35:52
-
35:52 - 35:53
-
35:53 - 35:57
-
35:57 - 36:04
-
36:06 - 36:07
-
36:07 - 36:10
-
36:10 - 36:12
-
36:12 - 36:16
-
36:16 - 36:18
-
36:18 - 36:19
-
36:19 - 36:23
-
36:23 - 36:28
-
36:28 - 36:30
-
36:30 - 36:35
-
36:35 - 36:37
-
36:37 - 36:40
-
36:40 - 36:44
-
36:44 - 36:48
-
36:48 - 36:54
-
36:54 - 36:55
-
36:55 - 36:58
-
36:58 - 37:02
-
37:02 - 37:05
-
37:05 - 37:10
-
37:10 - 37:14
-
37:14 - 37:19
-
37:19 - 37:23
-
37:23 - 37:27
-
37:27 - 37:29
-
37:29 - 37:30
-
37:30 - 37:37
-
37:40 - 37:44
-
37:44 - 37:48
-
37:48 - 37:49
-
37:49 - 37:54
-
37:54 - 37:56
-
37:56 - 38:00
-
38:00 - 38:02
-
38:02 - 38:06
-
38:06 - 38:07
-
38:07 - 38:11
-
38:11 - 38:13
-
38:13 - 38:16
-
38:16 - 38:19
-
38:19 - 38:22
-
38:22 - 38:25
-
38:25 - 38:27
-
38:27 - 38:31
-
38:31 - 38:34
-
38:34 - 38:40
-
38:40 - 38:43
-
38:43 - 38:46
-
38:46 - 38:49
-
38:49 - 38:50
-
38:50 - 38:52
-
38:52 - 38:57
-
38:57 - 39:00
-
39:00 - 39:03
-
39:03 - 39:08
-
39:08 - 39:09
-
39:09 - 39:16
-
39:36 - 39:38
-
39:38 - 39:41
-
39:41 - 39:43
-
39:43 - 39:48
-
39:48 - 39:50
-
39:50 - 39:54
-
39:54 - 39:57
-
39:57 - 40:04
-
40:04 - 40:11
-
40:11 - 40:14
-
40:14 - 40:18
-
40:18 - 40:22
-
40:22 - 40:25
-
40:25 - 40:28
-
40:28 - 40:32
-
40:32 - 40:36
-
40:36 - 40:39
-
40:39 - 40:42
-
40:42 - 40:46
-
40:46 - 40:49
-
40:49 - 40:50
-
40:50 - 40:57
-
40:59 - 41:04
-
41:04 - 41:10
-
41:10 - 41:14
-
41:14 - 41:20
-
41:20 - 41:24
-
41:24 - 41:26
-
41:26 - 41:30
-
41:30 - 41:32
-
41:32 - 41:36
-
41:36 - 41:40
-
41:40 - 41:45
-
41:45 - 41:47
-
41:47 - 41:51
-
41:51 - 41:55
-
41:55 - 41:57
-
41:57 - 42:00
-
42:00 - 42:02
-
42:02 - 42:05
-
42:05 - 42:10
-
42:10 - 42:13
-
42:13 - 42:15
-
42:15 - 42:18
-
42:18 - 42:25
-
42:30 - 42:31
-
42:31 - 42:33
-
42:33 - 42:36
-
42:36 - 42:37
-
42:37 - 42:40
-
42:40 - 42:46
-
42:46 - 42:53
-
42:58 - 43:01
-
43:01 - 43:02
-
43:02 - 43:09
-
43:09 - 43:13
-
43:13 - 43:20
-
43:20 - 43:27
-
43:27 - 43:29
-
43:29 - 43:33
-
43:33 - 43:36
-
43:36 - 43:39
-
43:39 - 43:43
-
43:43 - 43:46
-
43:46 - 43:53
-
43:53 - 43:57
-
43:57 - 44:01
-
44:01 - 44:06
-
44:06 - 44:09
-
44:09 - 44:14
-
44:14 - 44:16
-
44:16 - 44:23
-
44:24 - 44:31
-
44:35 - 44:38
-
44:38 - 44:39
-
44:39 - 44:43
-
44:43 - 44:44
-
44:44 - 44:47
-
44:47 - 44:52
-
44:52 - 44:53
-
44:53 - 45:00
-
45:01 - 45:08
-
45:12 - 45:16
-
45:16 - 45:21
-
45:21 - 45:28
-
45:32 - 45:39
-
45:46 - 45:50
-
45:50 - 45:53
-
45:53 - 45:58
-
45:58 - 46:02
-
46:02 - 46:09
-
46:22 - 46:26
-
46:26 - 46:26
-
46:26 - 46:33
-
46:33 - 46:35
-
46:35 - 46:42
-
46:43 - 46:44
-
46:44 - 46:48
-
46:48 - 46:50
-
46:50 - 46:55
-
46:55 - 46:56
-
46:56 - 46:58
-
46:58 - 47:05
-
47:06 - 47:09
-
47:09 - 47:10
-
47:10 - 47:12
-
47:12 - 47:14
-
47:14 - 47:17
-
47:17 - 47:17
-
47:17 - 47:21
-
47:21 - 47:21
-
47:21 - 47:26
-
47:26 - 47:30
-
47:30 - 47:33
-
47:33 - 47:34
-
47:34 - 47:39
-
47:39 - 47:42
-
47:42 - 47:45
-
47:45 - 47:47
-
47:47 - 47:51
-
47:51 - 47:52
-
47:52 - 47:59
-
48:43 - 48:50
-
48:51 - 48:52
-
48:52 - 48:53
-
48:53 - 48:55
-
48:55 - 48:57
-
48:57 - 49:01
-
49:01 - 49:05
-
49:05 - 49:09
-
49:09 - 49:12
-
49:12 - 49:14
-
49:14 - 49:17
-
49:17 - 49:19
-
49:19 - 49:22
-
49:22 - 49:29
-
49:33 - 49:38
-
49:38 - 49:43
-
49:43 - 49:43
-
49:43 - 49:46
-
49:46 - 49:50
-
49:50 - 49:53
-
49:53 - 49:57
-
49:57 - 50:01
-
50:01 - 50:04
-
50:04 - 50:07
-
50:07 - 50:10
-
50:10 - 50:14
-
50:14 - 50:15
-
50:15 - 50:18
-
50:18 - 50:21
-
50:21 - 50:25
-
50:25 - 50:29
-
50:29 - 50:34
-
50:34 - 50:37
-
50:37 - 50:40
-
50:40 - 50:44
-
50:44 - 50:50
-
50:50 - 50:55
-
50:55 - 50:59
-
50:59 - 51:06
-
51:06 - 51:08
-
51:08 - 51:14
-
51:14 - 51:15
-
51:15 - 51:18
-
51:18 - 51:21
-
51:21 - 51:25
-
51:25 - 51:26
-
51:26 - 51:30
-
51:30 - 51:31
-
51:31 - 51:32
-
51:32 - 51:36
-
51:36 - 51:37
-
51:37 - 51:41
-
51:41 - 51:47
-
51:47 - 51:51
-
51:51 - 51:53
-
51:53 - 51:55
-
51:55 - 51:58
-
51:58 - 52:02
-
52:02 - 52:02
-
52:02 - 52:04
-
52:04 - 52:06
-
52:06 - 52:11
-
52:11 - 52:16
-
52:16 - 52:17
-
52:17 - 52:19
-
52:19 - 52:21
-
52:21 - 52:26
-
52:26 - 52:31
-
52:31 - 52:33
-
52:33 - 52:39
-
52:39 - 52:43
-
52:43 - 52:45
-
52:45 - 52:50
-
52:50 - 52:52
-
52:52 - 52:55
-
52:55 - 52:56
-
52:56 - 52:59
-
52:59 - 53:01
-
53:01 - 53:04
-
53:04 - 53:07
-
53:07 - 53:10
-
53:10 - 53:13
-
53:13 - 53:15
-
53:15 - 53:22
-
53:26 - 53:30
-
53:30 - 53:31
-
53:31 - 53:36
-
53:36 - 53:38
-
53:38 - 53:42
-
53:42 - 53:47
-
53:47 - 53:49
-
53:49 - 53:51
-
53:51 - 53:54
-
53:54 - 53:57
-
53:57 - 54:00
-
54:00 - 54:01
-
54:01 - 54:04
-
54:04 - 54:05
-
54:05 - 54:11
-
54:11 - 54:13
-
54:13 - 54:17
-
54:17 - 54:20
-
54:20 - 54:24
-
54:24 - 54:27
-
54:27 - 54:29
-
54:29 - 54:33
-
54:33 - 54:39
-
54:39 - 54:41
-
54:41 - 54:44
-
54:44 - 54:47
-
54:47 - 54:50
-
54:50 - 54:52
-
54:52 - 54:55
-
54:55 - 54:59
-
54:59 - 55:03
-
55:03 - 55:08
-
55:08 - 55:10
-
55:10 - 55:12
-
55:12 - 55:13
-
55:13 - 55:17
-
55:17 - 55:18
-
55:18 - 55:20
-
55:20 - 55:22
-
55:22 - 55:25
-
55:25 - 55:27
-
55:27 - 55:32
-
55:32 - 55:38
-
55:38 - 55:41
-
55:41 - 55:48
-
55:48 - 55:50
-
55:50 - 55:56
-
55:56 - 55:58
-
55:58 - 56:04
-
56:04 - 56:05
-
56:05 - 56:07
-
56:07 - 56:09
-
56:09 - 56:12
-
56:12 - 56:15
-
56:15 - 56:17
-
56:17 - 56:19
-
56:19 - 56:24
-
56:24 - 56:27
-
56:27 - 56:30
-
56:30 - 56:35
-
56:35 - 56:37
-
56:37 - 56:38
-
56:38 - 56:42
-
56:42 - 56:43
-
56:43 - 56:46
-
56:46 - 56:49
-
56:49 - 56:51
-
56:51 - 56:52
-
56:52 - 56:54
-
56:54 - 56:55
-
56:55 - 56:57
-
56:57 - 56:58
-
56:58 - 57:00
-
57:00 - 57:02
-
57:02 - 57:07
-
57:07 - 57:08
-
57:08 - 57:15
-
57:15 - 57:17
-
57:17 - 57:20
-
57:20 - 57:25
-
57:25 - 57:30
-
57:30 - 57:33
-
57:33 - 57:35
-
57:35 - 57:38
-
57:38 - 57:39
-
57:39 - 57:42
-
57:42 - 57:45
-
57:45 - 57:47
-
57:47 - 57:54
-
57:56 - 57:59
-
57:59 - 58:02
-
58:02 - 58:04
-
58:04 - 58:11
-
58:11 - 58:15
-
58:15 - 58:19
-
58:19 - 58:22
-
58:22 - 58:24
-
58:24 - 58:25
-
58:25 - 58:28
-
58:28 - 58:31
-
58:31 - 58:33
-
58:33 - 58:34
-
58:34 - 58:37
-
58:37 - 58:42
-
58:42 - 58:44
-
58:44 - 58:48
-
58:48 - 58:51
-
58:51 - 58:54
-
58:54 - 58:55
-
58:55 - 58:59
-
58:59 - 59:03
-
59:03 - 59:05
-
59:05 - 59:08
-
59:08 - 59:09
-
59:09 - 59:14
-
59:14 - 59:15
-
59:15 - 59:17
-
59:17 - 59:18
-
59:18 - 59:20
-
59:20 - 59:22
-
59:22 - 59:29
-
59:31 - 59:35
-
59:35 - 59:38
-
59:38 - 59:41
-
59:41 - 59:46
-
59:46 - 59:48
-
59:48 - 59:50
-
59:50 - 59:54
-
59:54 - 59:56
-
59:56 - 59:59
-
59:59 - 60:01
-
60:01 - 60:08
-
60:09 - 60:16
-
60:17 - 60:19
-
60:19 - 60:26
-
60:29 - 60:35
-
60:35 - 60:42
-
60:51 - 60:53
-
60:53 - 60:57
-
60:57 - 60:58
-
60:58 - 61:03
-
61:03 - 61:08
-
61:08 - 61:09
-
61:09 - 61:11
-
61:11 - 61:14
-
61:14 - 61:17
-
61:17 - 61:19
-
61:19 - 61:20
-
61:20 - 61:22
-
61:22 - 61:24
-
61:24 - 61:27
-
61:27 - 61:34
-
61:58 - 61:59
-
61:59 - 62:03
-
62:03 - 62:05
-
62:05 - 62:11
-
62:11 - 62:18
-
62:21 - 62:27
-
62:27 - 62:28
-
62:28 - 62:32
-
62:32 - 62:34
-
62:34 - 62:37
-
62:37 - 62:40
-
62:40 - 62:41
-
62:41 - 62:42
-
62:42 - 62:45
-
62:45 - 62:48
-
62:48 - 62:48
-
62:48 - 62:51
-
62:51 - 62:54
-
62:54 - 62:56
-
62:56 - 62:58
-
62:58 - 63:01
-
63:01 - 63:03
-
63:03 - 63:08
-
63:08 - 63:09
-
63:09 - 63:13
-
63:13 - 63:14
-
63:14 - 63:16
-
63:16 - 63:20
-
63:20 - 63:23
-
63:23 - 63:24
-
63:24 - 63:25
-
63:25 - 63:27
-
63:27 - 63:32
-
63:32 - 63:35
-
63:35 - 63:36
-
63:36 - 63:41
-
63:41 - 63:43
-
63:43 - 63:48
-
63:48 - 63:52
-
63:52 - 63:58
-
63:58 - 64:00
-
64:00 - 64:02
-
64:02 - 64:09
-
64:09 - 64:13
-
64:13 - 64:17
-
64:17 - 64:19
-
64:19 - 64:21
-
64:21 - 64:27
-
64:27 - 64:29
-
64:29 - 64:36
-
64:45 - 64:47
-
64:47 - 64:50
-
64:50 - 64:53
-
64:53 - 64:55
-
64:55 - 64:57
-
64:57 - 64:58
-
64:58 - 65:00
-
65:00 - 65:04
-
65:04 - 65:06
-
65:06 - 65:08
-
65:08 - 65:13
-
65:13 - 65:15
-
65:15 - 65:19
-
65:19 - 65:21
-
65:21 - 65:24
-
65:24 - 65:25
-
65:25 - 65:27
-
65:27 - 65:34
-
65:46 - 65:50
-
65:50 - 65:56
-
65:56 - 65:59
-
65:59 - 66:02
-
66:02 - 66:06
-
66:06 - 66:07
-
66:07 - 66:11
-
66:11 - 66:13
-
66:13 - 66:19
-
66:19 - 66:23
-
66:23 - 66:25
-
66:25 - 66:30
-
66:30 - 66:33
-
66:33 - 66:40
-
66:44 - 66:46
-
66:46 - 66:48
-
66:48 - 66:49
-
66:49 - 66:51
-
66:51 - 66:54
-
66:54 - 66:55
-
66:55 - 66:58
-
66:58 - 66:59
-
66:59 - 67:03
-
67:03 - 67:06
-
67:06 - 67:09
-
67:09 - 67:11
-
67:11 - 67:14
-
67:14 - 67:17
-
67:17 - 67:20
-
67:20 - 67:23
-
67:23 - 67:25
-
67:25 - 67:29
-
67:29 - 67:32
-
67:32 - 67:34
-
67:34 - 67:35
-
67:35 - 67:39
-
67:39 - 67:42
-
67:42 - 67:44
-
67:44 - 67:48
-
67:48 - 67:51
-
67:51 - 67:56
-
67:56 - 67:59
-
67:59 - 68:01
-
68:01 - 68:02
-
68:02 - 68:05
-
68:05 - 68:06
-
68:06 - 68:09
-
68:09 - 68:13
-
68:13 - 68:14
-
68:14 - 68:18
-
68:18 - 68:20
-
68:20 - 68:23
-
68:23 - 68:26
-
68:26 - 68:32
-
68:32 - 68:36
-
68:36 - 68:40
-
68:40 - 68:41
-
68:41 - 68:44
-
68:44 - 68:45
-
68:45 - 68:49
-
68:49 - 68:53
-
68:53 - 68:55
-
68:55 - 68:57
-
68:57 - 69:02
-
69:02 - 69:06
-
69:06 - 69:09
-
69:09 - 69:11
-
69:11 - 69:14
-
69:14 - 69:17
-
69:17 - 69:19
-
69:19 - 69:22
-
69:22 - 69:26
-
69:26 - 69:28
-
69:28 - 69:32
-
69:32 - 69:36
-
69:36 - 69:39
-
69:39 - 69:46
-
69:55 - 69:58
-
69:58 - 69:59
-
69:59 - 70:01
-
70:01 - 70:08
-
70:09 - 70:11
-
70:11 - 70:13
-
70:13 - 70:13
-
70:13 - 70:16
-
70:16 - 70:20
-
70:20 - 70:23
-
70:23 - 70:27
-
70:27 - 70:27
-
70:27 - 70:30
-
70:30 - 70:32
-
70:32 - 70:37
-
70:37 - 70:38
-
70:38 - 70:39
-
70:39 - 70:41
-
70:41 - 70:43
-
70:43 - 70:46
-
70:46 - 70:48
-
70:48 - 70:52
-
70:52 - 70:54
-
70:54 - 71:01
-
71:02 - 71:07
-
71:07 - 71:13
-
71:13 - 71:14
-
71:14 - 71:17
-
71:17 - 71:20
-
71:20 - 71:21
-
71:21 - 71:24
-
71:24 - 71:28
-
71:28 - 71:30
-
71:30 - 71:32
-
71:32 - 71:39
-
71:44 - 71:49
-
71:49 - 71:51
-
71:51 - 71:53
-
71:53 - 71:56
-
71:56 - 72:00
-
72:00 - 72:01
-
72:01 - 72:05
-
72:05 - 72:09
-
72:09 - 72:11
-
72:11 - 72:18
-
72:19 - 72:23
-
72:23 - 72:25
-
72:25 - 72:28
-
72:28 - 72:31
-
72:31 - 72:33
-
72:33 - 72:36
-
72:36 - 72:41
-
72:41 - 72:42
-
72:42 - 72:45
-
72:45 - 72:49
-
72:49 - 72:54
-
72:54 - 72:56
- Title:
- Lecture 3 | Machine Learning (Stanford)
- Description:
-
Lecture by Professor Andrew Ng for Machine Learning (CS 229) in the Stanford Computer Science department. Professor Ng delves into locally weighted regression, probabilistic interpretation and logistic regression and how it relates to machine learning.
This course provides a broad introduction to machine learning and statistical pattern recognition. Topics include supervised learning, unsupervised learning, learning theory, reinforcement learning and adaptive control. Recent applications of machine learning, such as to robotic control, data mining, autonomous navigation, bioinformatics, speech recognition, and text and web data processing are also discussed.
Complete Playlist for the Course:
http://www.youtube.com/view_play_list?p=A89DCFA6ADACE599CS 229 Course Website:
http://www.stanford.edu/class/cs229/Stanford University:
http://www.stanford.edu/Stanford University Channel on YouTube:
http://www.youtube.com/stanford - Video Language:
- English
- Duration:
- 01:13:14
rocharhs edited Portuguese, Brazilian subtitles for Lecture 3 | Machine Learning (Stanford) | ||
rocharhs edited Portuguese, Brazilian subtitles for Lecture 3 | Machine Learning (Stanford) |