< Return to Video

Lecture 3 | Machine Learning (Stanford)

  • 0:09 - 0:10
  • 0:10 - 0:13
    Esta apresentação é disponibilizada pelo centro Standford para desenvolvimento
  • 0:13 - 0:20
    profissional
  • 0:23 - 0:26
    Ok. Bom dia e bem vindos de volta
  • 0:26 - 0:30
    a terceira palestra para esta classe. Então,
  • 0:30 - 0:33
    aqui está o que quero fazer hoje
  • 0:33 - 0:34
    E... em alguns dos
  • 0:34 - 0:37
    tópicos que eu irei fazer hoje podem parecer um pouco que eu esteja meio que, pulando
  • 0:37 - 0:41
    de um tópico a outro, mas aqui está, mais ou menos, o roteiro para hoje e o
  • 0:41 - 0:44
    fluxo lógico de idéias.
  • 0:44 - 0:48
    Na última palestra falamos sobre regressão linear e hoje eu quero falar sobre
  • 0:48 - 0:52
    um tipo de adaptação dela chamada (locally weighted regression). É um algoritmo
  • 0:52 - 0:57
    muito popular, na verdade este provavelmente é um dos algoritmos de aprendizado de máquina
  • 0:57 - 0:59
    favoritos de um de meus antigos mentores. Então
  • 0:59 - 1:02
    iremos falar sobre uma provável segunda interpretação da regressão linear
  • 1:02 - 1:07
    E usá-la para nos mover ao nosso primeiro algoritmo de classificação
  • 1:07 - 1:08
    que é regressão logística
  • 1:08 - 1:12
    Tomaremos uma pequena digressão para falar sobre uma coisa chamada algoritmo 'perceptron'
  • 1:12 - 1:15
    que é algo que nós iremos voltar a discutir, novamente, mais tarde neste trimestre
  • 1:15 - 1:17
    e
  • 1:17 - 1:21
    Se o tempo permitir, eu espero chegar ao método de Newton, o qual é um algoritmo para
  • 1:21 - 1:23
    ajustar modelos de
  • 1:23 - 1:24
    regressão logística.
  • 1:24 - 1:30
    Então, recapitulando onde nós paramos na palestra anterior,
  • 1:30 - 1:33
    lembrem-se que a notação que eu defini foi que
  • 1:33 - 1:35
    eu usei isto
  • 1:35 - 1:37
    X, i sobrescrito
  • 1:37 - 1:44
    Y, i sobrescrito, para denotaro exemplo de treinamento i
  • 1:47 - 1:49
    e
  • 1:49 - 1:51
    quando estávamos falando sobre regressão linear
  • 1:51 - 1:52
  • 1:52 - 1:54
    ou método dos mínimos quadrados
  • 1:54 - 1:56
    Nós usamos isto para denotar
  • 1:56 - 1:58
    o valor predito resultado
  • 1:58 - 2:00
    da aplicação de minha "hipótese" H
  • 2:00 - 2:02
    na entrada Xi
  • 2:02 - 2:04
    E minha hipótese
  • 2:04 - 2:06
    era parametrizada pelo
  • 2:06 - 2:08
    vetor de parâmetros theta
  • 2:08 - 2:13
    E então dizemos que isto era igual à soma de j = 0 á n
  • 2:13 - 2:15
    da multiplicação de theta j por xj
  • 2:15 - 2:19
    i superscrito
  • 2:19 - 2:22
    que é produto de theta transposto por X
  • 2:22 - 2:25
    E temos a convenção que X
  • 2:25 - 2:29
    zero subscrito, é igual a 1, Então isto conta para a intersecção no nosso
  • 2:29 - 2:31
    modelo de regressão linear
  • 2:31 - 2:33
    E o n minúsculo aqui
  • 2:33 - 2:36
    era a notação que eu estava usando para
  • 2:36 - 2:40
    o número de 'features' no meu conjunto de Treinamento. Ok? Então
  • 2:40 - 2:43
    no exemplo quando tentamos predizer o preço de casas, nós tínhamos duas 'features, o tamanho
  • 2:43 - 2:45
    da casa e o número de quartos
  • 2:45 - 2:50
    Nós tínhamos duas features, portanto, n-zinho era igual a 2
  • 2:50 - 2:51
  • 2:51 - 2:54
    Então, apenas para
  • 2:54 - 2:57
    terminar de recapitular a palestra anterior
  • 2:57 - 3:01
    nós definimos esta função de custo quadrática J de theta
  • 3:01 - 3:05
    era igual a 1/2, soma de i = 1 à m ....
  • 3:05 - 3:07
    ...
  • 3:07 - 3:10
    ...
  • 3:10 - 3:12
    ao quadrdado
  • 3:12 - 3:16
    onde esta é a soma sobre nossos m exemplos de treinamento e meu conjunto de treinamento. Então
  • 3:16 - 3:17
    m minúsculo
  • 3:17 - 3:21
    era a notação que eu estava usando para denotar o número de exemplos de treinamento que eu tinha
  • 3:21 - 3:23
    e o tamanho do meu conjunto de treinamento
  • 3:23 - 3:25
    E no fim da última palestra
  • 3:25 - 3:26
    nós derivamos
  • 3:26 - 3:30
    o valor de theta que minimiza isto na forma fechada, que era X
  • 3:30 - 3:32
    transposto X
  • 3:32 - 3:35
    inverso X transposto
  • 3:35 - 3:38
    Y. Ok?
  • 3:38 - 3:42
    Então
  • 3:42 - 3:46
    A medida que continuarmos a palestra de hoje, Eu continuarei a usar esta anotação e, novamente,
  • 3:46 - 3:50
    Eu percebo que é uma grande quantidade de notações para todos lembrarem,
  • 3:50 - 3:55
    Então se durante esta palestra você se esquecer - se você tiver problemas para se lembrar
  • 3:55 - 4:02
    o que m minúsculo é ou o que n minúsculo é ou qualquer coisa, por favor levante sua mão e pergunte.
  • 4:04 - 4:07
    Quando nós falamos sobre regressão linear da última vez
  • 4:07 - 4:10
    nós usamos duas features. Uma delas era
  • 4:10 - 4:14
    o tamanho das casas em 'pés' quadrados, Então a área de convivência da casa
  • 4:14 - 4:18
    e a outra feature era o número de quartos na casa
  • 4:18 - 4:22
    Geralmente, nós aplicamos um algoritmo de aprendizado de máquina a um problema que
  • 4:22 - 4:23
    importa para você
  • 4:23 - 4:28
    A escolha de features irá depender muito de você, certo?
  • 4:28 - 4:32
    E o modo como você escolhe suas features para dar ao algoritmo, frequentemente irá
  • 4:32 - 4:34
    causar um grande impacto na maneira como ele funciona.
  • 4:34 - 4:40
    Então, por exemplo
  • 4:40 - 4:44
    a escolha que nós fizemos da última vez era x1 igual ao tamanho.
  • 4:44 - 4:47
    e vamos deixar esta idéia de feature do número de quartos por enquanto. Vamos dizer que nós não temos dados
  • 4:47 - 4:50
    que nos digam quantos quartos há nestas casas
  • 4:50 - 4:54
    Uma coisa que você poderia fazer é definir - oh, vamos
  • 4:54 - 4:56
    desenhar isto
  • 4:56 - 5:03
    E então...
  • 5:04 - 5:07
    Então digamos que isto era o tamanho da casa e que este é o preço da casa, então
  • 5:07 - 5:10
    Se você usar
  • 5:10 - 5:14
    isto como uma feature, talvez você tenha theta0 mais theta1
  • 5:14 - 5:19
    x1, é um tipo de, modelo linear.
  • 5:19 - 5:21
    Se você escolher - deixe-me apenas copiar
  • 5:21 - 5:26
    os mesmos dados de novo, certo?
  • 5:26 - 5:30
    Você pode definir o conjunto de features onde x1 é igual ao tamanho da casa
  • 5:30 - 5:34
    e x2 é
  • 5:34 - 5:36
    o quadrado
  • 5:36 - 5:37
    do tamanho
  • 5:37 - 5:38
    da casa, ok?
  • 5:38 - 5:43
    Então x1 é o tamanho da casa em, digamos, uma medida quadrada (e.g. m²) e x2 é
  • 5:43 - 5:45
    qualquer medida quadrada da casa e apenas
  • 5:45 - 5:49
    eleve esse número ao quadrado, e isto seria outro modo de escolher uma feature
  • 5:49 - 5:51
    e se você fizer isto então
  • 5:51 - 5:55
    o mesmo algoritmo irá se ajustar
  • 5:55 - 5:59
    a uma função quadrática para você
  • 5:59 - 6:01
    theta2, x1 ao quadrado
  • 6:01 - 6:06
    ok? Porque isto
  • 6:06 - 6:09
    na verdade é x2. E
  • 6:09 - 6:12
    dependendo da aparência dos dados, talvez isto se ajuste
  • 6:12 - 6:16
    levemente melhor aos dados. Na verdade você pode levar isto
  • 6:16 - 6:23
    ainda mais adiante
  • 6:25 - 6:26
    O que é - vamos ver
  • 6:26 - 6:30
    Eu tenho sete exemplos de treinamento aqui, então na verdade você pode
  • 6:30 - 6:34
    ,talvez, ajustar até um polinômio de grau 6. Você poderia ajustar um modelo
  • 6:34 - 6:35
    theta0 mais
  • 6:35 - 6:38
    theta1, x1 mais theta2
  • 6:38 - 6:42
    x ao quadrado mais etc...
  • 6:42 - 6:48
    até theta6. X à
  • 6:48 - 6:52
    potência de 6 e theta é o polinômio
  • 6:52 - 6:55
    para estes sete pontos de dados
  • 6:55 - 6:58
    E se você fizer isto, você vai descobrir que
  • 6:58 - 7:01
    você criou um modelo que se ajusta exatamente aos seus dados. É aí que, eu acho,
  • 7:01 - 7:06
    neste exemplo que eu desenhei, nós temos 7 pontos de dados, então se você ajusta um
  • 7:06 - 7:08
    modelo de polinômio de grau 6, você pode, meio que, ajustar
  • 7:08 - 7:11
    uma linha que passa por estes sete pontos perfeitamente
  • 7:11 - 7:14
    e você provavelmente encontra uma curva que
  • 7:14 - 7:17
    você iria conseguir algo
  • 7:17 - 7:20
    parecido com isto
  • 7:20 - 7:23
    E por um lado, é um ótimo modelo no sentido que ele
  • 7:23 - 7:25
    se ajusta perfeitamente aos dados de treinamento
  • 7:25 - 7:26
    Mas por outro, este provavelmente não é
  • 7:26 - 7:28
    um bom modelo no sentido que
  • 7:28 - 7:31
    nenhum de nós, realmente pensa que esta seja uma boa predição dos preços
  • 7:31 - 7:36
    das casas, como uma função do tamanho da casa, certo? Então
  • 7:36 - 7:39
    Na verdade, nós voltaremos a isto mais tarde. Acontece que
  • 7:39 - 7:41
    nos modelos que nós temos aqui;
  • 7:41 - 7:45
    Eu sinto que talvez o modelo quadrático se ajuste melhor
  • 7:45 - 7:46
    Enquanto que
  • 7:46 - 7:47
  • 7:47 - 7:52
    O modelo linear parece que possui um pouco de componente quadrático nestes
  • 7:52 - 7:52
    dados
  • 7:52 - 7:56
    que a função linear não está capturando
  • 7:56 - 7:59
    Então nós iremos voltar a isto um pouco mais tarde e falar sobre os problemas
  • 7:59 - 8:03
    associados com ajuste de modelos que são, ou muito simples, usam dos pequenos
  • 8:03 - 8:04
    conjuntos de features, ou
  • 8:04 - 8:08
    em modelos que são muito complexos e talvez
  • 8:08 - 8:11
    usem um conjunto muito grande de featurees
  • 8:11 - 8:12
    apenas para dar-lhes
  • 8:12 - 8:13
    um nome,
  • 8:13 - 8:14
    nós chamamos isto de
  • 8:14 - 8:19
    o problema de 'underfitting' (subajuste)
  • 8:19 - 8:23
    e, muito informalmente, isto se refere a uma configuração onde
  • 8:23 - 8:26
    existem padrões óbvios que - onde há padrões nos dados que
  • 8:26 - 8:28
    o algoritmo está falhando a se ajustar
  • 8:28 - 8:32
    E a este problema aqui nós nos referimos como sendo
  • 8:32 - 8:34
    overfitting (sobreajuste)
  • 8:34 - 8:36
    e, novamente, muito informalmente,
  • 8:36 - 8:41
    isto acontece quando o algoritmo está ajustando às Idiossincrasias de um conjunto de dados específicos
  • 8:41 - 8:43
    certo? Isto acontece apenas porque
  • 8:43 - 8:48
    das sete casas que tiramos amostras em Portland, ou de onde quer que você esteja coletando dados,
  • 8:48 - 8:51
    esta casa acaba por ser um pouco mais cara, esta outro um pouco menos
  • 8:51 - 8:54
    cara, e por
  • 8:54 - 8:57
    ajustar seis ao polinômio nós, meio que, ajustamos características individuais
  • 8:57 - 8:58
    deste conjunto de dados,
  • 8:58 - 9:01
    Ao invés das verdadeiras tendências subjacentes
  • 9:01 - 9:04
    de como o preço das casas varia como uma função do tamanho da casa. Ok?
  • 9:04 - 9:08
    Então, estes são dois problemas muito diferentes. Nós iremos definí-los mais formalmente mais tarde.
  • 9:08 - 9:12
    e falar sobre como atacar cada um destes problemas.
  • 9:12 - 9:13
    Mas por agora eu
  • 9:13 - 9:20
    espero apreciar que há este assunto de seleção de features.
  • 9:22 - 9:23
    Então se você quiser apenas
  • 9:23 - 9:26
    ensinar-nos os problemas de aprendizado, existem poucas maneiras de fazê-lo
  • 9:26 - 9:27
    Então
  • 9:27 - 9:29
    Nós iremos falar sobre
  • 9:29 - 9:32
    algoritmos de seleção de features, mais tarde neste trimestre também. Então algoritmos automáticos
  • 9:32 - 9:33
    para escolher
  • 9:33 - 9:35
    que features usar em um
  • 9:35 - 9:37
    problema de regressão como este
  • 9:37 - 9:41
    O que eu quero fazer hoje é falar sobre uma classe de algoritmos
  • 9:41 - 9:44
    chamados de algoritmos de aprendizado não paramétricos que irão ajudar
  • 9:44 - 9:49
    de alguma forma, a aliviar a necessidade de você escolher features muito cuidadosamente. Ok?
  • 9:49 - 9:56
    E isto nos leva a nossa discussão sobre (locally weighted regression).
  • 9:56 - 10:03
    E só pra definir o termo
  • 10:12 - 10:16
    A regressão linear, da medida que definimos até agora, é um exemplo de um algoritmo de aprendizado paramétrico
  • 10:16 - 10:17
    e
  • 10:17 - 10:19
    algoritmo de aprendizado paramétrico
  • 10:19 - 10:21
    da maneira como é definido é
  • 10:21 - 10:24
    um algoritmo que tem um número fixo de parâmetros
  • 10:24 - 10:27
    Que se ajustam aos dados, Então
  • 10:27 - 10:28
    Na regressão linear
  • 10:28 - 10:32
    nós temos um conjunto fixo de parâmetros theta. Que deve
  • 10:32 - 10:39
    se ajustar aos dados
  • 10:39 - 10:46
    Em contraste, o que eu vou falar sobre agora é nosso primeiro algoritmo de aprendizado não-paramétrico.
  • 10:58 - 11:02
    A definição formal, a qual não é muito intuitiva, eu substitui por uma
  • 11:02 - 11:04
    segunda, digamos, mais
  • 11:04 - 11:06
    intuitiva.
  • 11:06 - 11:10
    O tipo de definição formal do algoritmo de aprendizado não paramétrico é de um algoritmo
  • 11:10 - 11:17
    onde o número de paramâmetros
  • 11:18 - 11:22
    cresce
  • 11:22 - 11:25
    com M, com o tramanho do conjunto de treinamento. E geralmente é
  • 11:25 - 11:30
    definido como um número de parâmetros cresce linearmente com o tamanho do conjunto de treinamento.
  • 11:30 - 11:32
    Esta é a definição formal
  • 11:32 - 11:33
    Uma
  • 11:33 - 11:36
    definição levemente menos formal é que
  • 11:36 - 11:37
    A quantidade de coisa que seu algoritmo de aprendizado precisa
  • 11:37 - 11:40
    para se manter funcionando
  • 11:40 - 11:44
    irá crescer linearmente com o conjunto de treinamento ou, outra forma de dizer isto, é um
  • 11:44 - 11:45
    algoritmo que
  • 11:45 - 11:51
    Nós iremos precisar manter o conjunto de treinamento inteiro, mesmo depois do aprendizado. Ok? Então
  • 11:51 - 11:53
    Não se preocupe demais sobre esta definição. Mas
  • 11:53 - 11:55
    O que eu quero agora é
  • 11:55 - 11:58
    descrever um algoritmo de aprendizado não-paramétrico específico
  • 11:58 - 12:05
    chamado "locally weighted regression"
  • 12:09 - 12:16
    O qual também recebe um par de outros nomes
  • 12:17 - 12:20
    O qual também é nomeado como Loess, por razões meio históricas. Loess
  • 12:20 - 12:23
    Geralmente é soletrado L-O-E-S-S
  • 12:23 - 12:24
    algumas vezes falando assim,
  • 12:24 - 12:27
    também. Eu só chamo de "locally weighted regression"
  • 12:27 - 12:34
    Então aqui está
  • 12:34 - 12:37
    a idéia. Este será um algoritmo que vai nos permitir
  • 12:37 - 12:42
    nos preocupar um pouco menos sobre ter que escolher features muito cuidadosamente.
  • 12:42 - 12:48
    Então
  • 12:48 - 12:55
    Para meu exemplo de motivação vamos dizer que eu
  • 12:55 - 12:59
    tenho um
  • 12:59 - 13:00
    conjunto de terinamento que parece com este, ok?
  • 13:00 - 13:04
    Então isto é X e isto é Y
  • 13:04 - 13:07
    Se você executar
  • 13:07 - 13:10
    regressão linear nisto e você ajustar talvez, uma função linear a isto
  • 13:10 - 13:12
    você acaba com uma
  • 13:12 - 13:13
    mais ou menos
  • 13:13 - 13:16
    linha reta, a qual não é um ajuste muito bom para esses dados.
  • 13:16 - 13:19
    Você ainda pode sentar e encarar isto e tentar decidir que features são usadas certo
  • 13:19 - 13:22
    Então talvez você queira jogar uma função quadrática
  • 13:22 - 13:25
    Mas ela não é realmente quadrática também. Então talvez você queira
  • 13:25 - 13:27
    modelar isto como um X
  • 13:27 - 13:31
    mais X ao quadrado mas talvez alguma função do seno de X ou algo do tipo
  • 13:31 - 13:33
    Na verdade você pode sentar e perder tempo com features
  • 13:33 - 13:37
    E depois de um tempo você provavelmente virá com um conjunto de features cujo modelo está
  • 13:37 - 13:39
    ok, mas vamos falar de um algoritmo que
  • 13:39 - 13:46
    você pode usar sem necessidade de fazer isso
  • 13:50 - 13:52
    Então
  • 13:52 - 13:54
    Se - bem
  • 13:54 - 13:56
    suponha que você quer avaliar
  • 13:56 - 13:59
    sua hipótese H
  • 13:59 - 14:03
    em um certo ponto.
  • 14:03 - 14:06
    Com um certo ponto de requisição em X. ok? e
  • 14:06 - 14:07
    vamos dizer que
  • 14:07 - 14:10
    você quer saber qual o valor predito de
  • 14:10 - 14:11
    Y
  • 14:11 - 14:16
    nesta posição de X, certo? Então
  • 14:16 - 14:18
    para a regressão linear
  • 14:18 - 14:22
    O que nós estamos fazemos era ajustar
  • 14:22 - 14:25
    theta
  • 14:25 - 14:28
    para minimizar
  • 14:28 - 14:30
    a soma sobre i
  • 14:30 - 14:34
    Yi menos theta, transposto Xi
  • 14:34 - 14:38
    ao quadrado e retornando theta
  • 14:38 - 14:41
    transposto X. Ok?
  • 14:41 - 14:46
    Então esta era regressão linear
  • 14:46 - 14:49
    Em contraste, em "locally weighted linear regression" você irá fazer as coisas levemente
  • 14:49 - 14:51
    diferente. ok?
  • 14:51 - 14:54
    vamos olhar para este ponto X
  • 14:54 - 14:58
    e então eu irei olhar no meu conjunto de dados e levar em consideração
  • 14:58 - 15:03
    apenas o conjunto de pontos, meio que, em uma pequena vizinhança de X. Ok?
  • 15:03 - 15:07
    Então nós iremos olhar onde Eu quero avaliar minha hipótese. Eu vou olhar
  • 15:07 - 15:10
    apenas a vizinhança
  • 15:10 - 15:13
    deste ponto. Onde eu quero avaliar minha hipótese
  • 15:13 - 15:16
    E então eu vou pegar,
  • 15:16 - 15:19
    digamos, apenas estes poucos pontos
  • 15:19 - 15:21
    e Irei
  • 15:21 - 15:22
    aplicar regressão linear
  • 15:22 - 15:26
    para ajustar uma linha reta apenas para este subcojunto dos dados, ok? Eu
  • 15:26 - 15:29
    irei usar este sub-termo subconjunto onde nós iremos voltar novamente
  • 15:29 - 15:32
    Então nós temos este conjunto de dados e Eu ajustei uma linha reta
  • 15:32 - 15:36
    a ele e talvez eu tenha uma linha como esta
  • 15:36 - 15:40
    e O que eu irei fazer então é
  • 15:40 - 15:45
    avaliar este valor particular na linha reta
  • 15:45 - 15:47
    e este será o valor que eu retorno para meu algoritmo
  • 15:47 - 15:50
    Eu acho que isto seria o valor predito
  • 15:50 - 15:53
    para
  • 15:53 - 15:57
    Isto seria o valor que minha hipótese retornaria
  • 15:57 - 16:04
    em "locally weighted regression" ok? Então
  • 16:05 - 16:10
    nós iremos seguir em frente. Deixe me continuar e formalizar isto
  • 16:10 - 16:15
  • 16:15 - 16:18
  • 16:18 - 16:25
  • 16:27 - 16:32
  • 16:32 - 16:36
  • 16:36 - 16:37
  • 16:37 - 16:41
  • 16:41 - 16:42
  • 16:42 - 16:45
  • 16:45 - 16:49
  • 16:49 - 16:54
  • 16:54 - 16:57
  • 16:57 - 17:04
  • 17:06 - 17:10
  • 17:10 - 17:14
  • 17:14 - 17:15
  • 17:15 - 17:19
  • 17:19 - 17:21
  • 17:21 - 17:25
  • 17:25 - 17:27
  • 17:27 - 17:30
  • 17:30 - 17:31
  • 17:31 - 17:34
  • 17:34 - 17:41
  • 17:42 - 17:43
  • 17:43 - 17:48
  • 17:48 - 17:51
  • 17:51 - 17:51
  • 17:51 - 17:56
  • 17:56 - 18:02
  • 18:02 - 18:05
  • 18:05 - 18:12
  • 18:12 - 18:13
  • 18:13 - 18:16
  • 18:16 - 18:21
  • 18:21 - 18:24
  • 18:24 - 18:28
  • 18:28 - 18:32
  • 18:32 - 18:35
  • 18:35 - 18:37
  • 18:37 - 18:39
  • 18:39 - 18:44
  • 18:44 - 18:47
  • 18:47 - 18:48
  • 18:48 - 18:54
  • 18:54 - 18:55
  • 18:55 - 18:58
  • 18:58 - 19:00
  • 19:00 - 19:02
  • 19:02 - 19:05
  • 19:05 - 19:06
  • 19:06 - 19:10
  • 19:10 - 19:17
  • 19:17 - 19:22
  • 19:22 - 19:26
  • 19:26 - 19:29
  • 19:29 - 19:33
  • 19:33 - 19:35
  • 19:35 - 19:37
  • 19:37 - 19:41
  • 19:41 - 19:42
  • 19:42 - 19:45
  • 19:45 - 19:47
  • 19:47 - 19:49
  • 19:49 - 19:51
  • 19:51 - 19:53
  • 19:53 - 19:55
  • 19:55 - 19:59
  • 19:59 - 20:02
  • 20:02 - 20:06
  • 20:06 - 20:07
  • 20:07 - 20:12
  • 20:12 - 20:13
  • 20:13 - 20:16
  • 20:16 - 20:21
  • 20:21 - 20:23
  • 20:23 - 20:28
  • 20:28 - 20:32
  • 20:32 - 20:33
  • 20:33 - 20:36
  • 20:36 - 20:39
  • 20:39 - 20:42
  • 20:42 - 20:44
  • 20:44 - 20:48
  • 20:48 - 20:50
  • 20:50 - 20:53
  • 20:53 - 20:54
  • 20:54 - 20:56
  • 20:56 - 20:58
  • 20:58 - 21:01
  • 21:01 - 21:04
  • 21:04 - 21:07
  • 21:07 - 21:10
  • 21:10 - 21:11
  • 21:11 - 21:15
  • 21:15 - 21:17
  • 21:17 - 21:21
  • 21:21 - 21:24
  • 21:24 - 21:27
  • 21:27 - 21:32
  • 21:32 - 21:33
  • 21:33 - 21:40
  • 21:40 - 21:47
  • 21:47 - 21:49
  • 21:49 - 21:53
  • 21:53 - 21:55
  • 21:55 - 21:57
  • 21:57 - 22:00
  • 22:00 - 22:04
  • 22:04 - 22:08
  • 22:08 - 22:09
  • 22:09 - 22:16
  • 22:17 - 22:21
  • 22:21 - 22:25
  • 22:25 - 22:27
  • 22:27 - 22:30
  • 22:30 - 22:32
  • 22:32 - 22:39
  • 22:41 - 22:44
  • 22:44 - 22:45
  • 22:45 - 22:46
  • 22:46 - 22:50
  • 22:50 - 22:51
  • 22:51 - 22:52
  • 22:52 - 22:55
  • 22:55 - 22:56
  • 22:56 - 22:58
  • 22:58 - 23:00
  • 23:00 - 23:04
  • 23:04 - 23:06
  • 23:06 - 23:08
  • 23:08 - 23:09
  • 23:09 - 23:13
  • 23:13 - 23:15
  • 23:15 - 23:17
  • 23:17 - 23:22
  • 23:22 - 23:25
  • 23:25 - 23:27
  • 23:27 - 23:29
  • 23:29 - 23:31
  • 23:31 - 23:37
  • 23:37 - 23:42
  • 23:42 - 23:43
  • 23:43 - 23:48
  • 23:48 - 23:49
  • 23:49 - 23:51
  • 23:51 - 23:55
  • 23:55 - 23:57
  • 23:57 - 23:59
  • 23:59 - 24:01
  • 24:01 - 24:04
  • 24:04 - 24:07
  • 24:07 - 24:10
  • 24:10 - 24:15
  • 24:15 - 24:16
  • 24:16 - 24:19
  • 24:19 - 24:20
  • 24:20 - 24:24
  • 24:24 - 24:29
  • 24:29 - 24:31
  • 24:31 - 24:37
  • 24:37 - 24:42
  • 24:42 - 24:44
  • 24:44 - 24:45
  • 24:45 - 24:49
  • 24:49 - 24:51
  • 24:51 - 24:52
  • 24:52 - 24:54
  • 24:54 - 24:58
  • 24:58 - 25:00
  • 25:00 - 25:01
  • 25:01 - 25:03
  • 25:03 - 25:07
  • 25:07 - 25:08
  • 25:08 - 25:13
  • 25:13 - 25:14
  • 25:14 - 25:18
  • 25:18 - 25:23
  • 25:23 - 25:24
  • 25:24 - 25:27
  • 25:27 - 25:32
  • 25:32 - 25:34
  • 25:34 - 25:37
  • 25:37 - 25:40
  • 25:40 - 25:45
  • 25:45 - 25:52
  • 25:56 - 25:58
  • 25:58 - 25:59
  • 25:59 - 26:01
  • 26:01 - 26:06
  • 26:06 - 26:09
  • 26:09 - 26:15
  • 26:15 - 26:15
  • 26:15 - 26:17
  • 26:17 - 26:21
  • 26:21 - 26:23
  • 26:23 - 26:27
  • 26:27 - 26:29
  • 26:29 - 26:31
  • 26:31 - 26:36
  • 26:36 - 26:41
  • 26:41 - 26:43
  • 26:43 - 26:50
  • 26:51 - 26:53
  • 26:53 - 26:57
  • 26:57 - 26:59
  • 26:59 - 27:02
  • 27:02 - 27:04
  • 27:04 - 27:07
  • 27:07 - 27:11
  • 27:11 - 27:13
  • 27:13 - 27:17
  • 27:17 - 27:19
  • 27:19 - 27:20
  • 27:20 - 27:22
  • 27:22 - 27:25
  • 27:25 - 27:28
  • 27:28 - 27:32
  • 27:32 - 27:34
  • 27:34 - 27:36
  • 27:36 - 27:37
  • 27:37 - 27:39
  • 27:39 - 27:42
  • 27:42 - 27:44
  • 27:44 - 27:51
  • 28:00 - 28:05
  • 28:05 - 28:07
  • 28:07 - 28:10
  • 28:10 - 28:11
  • 28:11 - 28:15
  • 28:15 - 28:19
  • 28:19 - 28:22
  • 28:22 - 28:29
  • 28:39 - 28:43
  • 28:43 - 28:46
  • 28:46 - 28:50
  • 28:50 - 28:52
  • 28:52 - 28:56
  • 28:56 - 28:59
  • 28:59 - 29:02
  • 29:02 - 29:08
  • 29:08 - 29:10
  • 29:10 - 29:12
  • 29:12 - 29:14
  • 29:14 - 29:18
  • 29:18 - 29:21
  • 29:21 - 29:25
  • 29:25 - 29:26
  • 29:26 - 29:30
  • 29:30 - 29:32
  • 29:32 - 29:35
  • 29:35 - 29:39
  • 29:39 - 29:40
  • 29:40 - 29:41
  • 29:41 - 29:48
  • 29:48 - 29:51
  • 29:51 - 29:57
  • 29:57 - 30:01
  • 30:01 - 30:02
  • 30:02 - 30:07
  • 30:07 - 30:12
  • 30:12 - 30:13
  • 30:13 - 30:17
  • 30:17 - 30:19
  • 30:19 - 30:22
  • 30:22 - 30:23
  • 30:23 - 30:27
  • 30:27 - 30:31
  • 30:31 - 30:33
  • 30:33 - 30:34
  • 30:34 - 30:37
  • 30:37 - 30:39
  • 30:39 - 30:42
  • 30:42 - 30:46
  • 30:46 - 30:47
  • 30:47 - 30:50
  • 30:50 - 30:52
  • 30:52 - 30:56
  • 30:56 - 31:00
  • 31:00 - 31:02
  • 31:02 - 31:07
  • 31:07 - 31:09
  • 31:09 - 31:13
  • 31:13 - 31:14
  • 31:14 - 31:16
  • 31:16 - 31:18
  • 31:18 - 31:23
  • 31:23 - 31:26
  • 31:26 - 31:28
  • 31:28 - 31:30
  • 31:30 - 31:34
  • 31:34 - 31:36
  • 31:36 - 31:37
  • 31:37 - 31:41
  • 31:41 - 31:46
  • 31:46 - 31:48
  • 31:48 - 31:51
  • 31:51 - 31:55
  • 31:55 - 31:57
  • 31:57 - 31:59
  • 31:59 - 32:01
  • 32:01 - 32:03
  • 32:03 - 32:05
  • 32:05 - 32:09
  • 32:09 - 32:15
  • 32:15 - 32:22
  • 32:22 - 32:25
  • 32:25 - 32:31
  • 32:31 - 32:31
  • 32:31 - 32:34
  • 32:34 - 32:41
  • 32:41 - 32:47
  • 32:47 - 32:54
  • 32:59 - 33:04
  • 33:04 - 33:10
  • 33:10 - 33:11
  • 33:11 - 33:13
  • 33:13 - 33:20
  • 33:29 - 33:34
  • 33:34 - 33:37
  • 33:37 - 33:41
  • 33:41 - 33:46
  • 33:46 - 33:50
  • 33:50 - 33:53
  • 33:53 - 33:56
  • 33:56 - 33:58
  • 33:58 - 34:01
  • 34:01 - 34:04
  • 34:04 - 34:08
  • 34:08 - 34:11
  • 34:11 - 34:13
  • 34:13 - 34:16
  • 34:16 - 34:20
  • 34:20 - 34:24
  • 34:24 - 34:31
  • 34:38 - 34:43
  • 34:43 - 34:47
  • 34:47 - 34:50
  • 34:50 - 34:54
  • 34:54 - 34:56
  • 34:56 - 35:00
  • 35:00 - 35:03
  • 35:03 - 35:06
  • 35:06 - 35:08
  • 35:08 - 35:11
  • 35:11 - 35:15
  • 35:15 - 35:19
  • 35:19 - 35:21
  • 35:21 - 35:23
  • 35:23 - 35:26
  • 35:26 - 35:29
  • 35:29 - 35:33
  • 35:33 - 35:37
  • 35:37 - 35:39
  • 35:39 - 35:42
  • 35:42 - 35:45
  • 35:45 - 35:49
  • 35:49 - 35:52
  • 35:52 - 35:53
  • 35:53 - 35:57
  • 35:57 - 36:04
  • 36:06 - 36:07
  • 36:07 - 36:10
  • 36:10 - 36:12
  • 36:12 - 36:16
  • 36:16 - 36:18
  • 36:18 - 36:19
  • 36:19 - 36:23
  • 36:23 - 36:28
  • 36:28 - 36:30
  • 36:30 - 36:35
  • 36:35 - 36:37
  • 36:37 - 36:40
  • 36:40 - 36:44
  • 36:44 - 36:48
  • 36:48 - 36:54
  • 36:54 - 36:55
  • 36:55 - 36:58
  • 36:58 - 37:02
  • 37:02 - 37:05
  • 37:05 - 37:10
  • 37:10 - 37:14
  • 37:14 - 37:19
  • 37:19 - 37:23
  • 37:23 - 37:27
  • 37:27 - 37:29
  • 37:29 - 37:30
  • 37:30 - 37:37
  • 37:40 - 37:44
  • 37:44 - 37:48
  • 37:48 - 37:49
  • 37:49 - 37:54
  • 37:54 - 37:56
  • 37:56 - 38:00
  • 38:00 - 38:02
  • 38:02 - 38:06
  • 38:06 - 38:07
  • 38:07 - 38:11
  • 38:11 - 38:13
  • 38:13 - 38:16
  • 38:16 - 38:19
  • 38:19 - 38:22
  • 38:22 - 38:25
  • 38:25 - 38:27
  • 38:27 - 38:31
  • 38:31 - 38:34
  • 38:34 - 38:40
  • 38:40 - 38:43
  • 38:43 - 38:46
  • 38:46 - 38:49
  • 38:49 - 38:50
  • 38:50 - 38:52
  • 38:52 - 38:57
  • 38:57 - 39:00
  • 39:00 - 39:03
  • 39:03 - 39:08
  • 39:08 - 39:09
  • 39:09 - 39:16
  • 39:36 - 39:38
  • 39:38 - 39:41
  • 39:41 - 39:43
  • 39:43 - 39:48
  • 39:48 - 39:50
  • 39:50 - 39:54
  • 39:54 - 39:57
  • 39:57 - 40:04
  • 40:04 - 40:11
  • 40:11 - 40:14
  • 40:14 - 40:18
  • 40:18 - 40:22
  • 40:22 - 40:25
  • 40:25 - 40:28
  • 40:28 - 40:32
  • 40:32 - 40:36
  • 40:36 - 40:39
  • 40:39 - 40:42
  • 40:42 - 40:46
  • 40:46 - 40:49
  • 40:49 - 40:50
  • 40:50 - 40:57
  • 40:59 - 41:04
  • 41:04 - 41:10
  • 41:10 - 41:14
  • 41:14 - 41:20
  • 41:20 - 41:24
  • 41:24 - 41:26
  • 41:26 - 41:30
  • 41:30 - 41:32
  • 41:32 - 41:36
  • 41:36 - 41:40
  • 41:40 - 41:45
  • 41:45 - 41:47
  • 41:47 - 41:51
  • 41:51 - 41:55
  • 41:55 - 41:57
  • 41:57 - 42:00
  • 42:00 - 42:02
  • 42:02 - 42:05
  • 42:05 - 42:10
  • 42:10 - 42:13
  • 42:13 - 42:15
  • 42:15 - 42:18
  • 42:18 - 42:25
  • 42:30 - 42:31
  • 42:31 - 42:33
  • 42:33 - 42:36
  • 42:36 - 42:37
  • 42:37 - 42:40
  • 42:40 - 42:46
  • 42:46 - 42:53
  • 42:58 - 43:01
  • 43:01 - 43:02
  • 43:02 - 43:09
  • 43:09 - 43:13
  • 43:13 - 43:20
  • 43:20 - 43:27
  • 43:27 - 43:29
  • 43:29 - 43:33
  • 43:33 - 43:36
  • 43:36 - 43:39
  • 43:39 - 43:43
  • 43:43 - 43:46
  • 43:46 - 43:53
  • 43:53 - 43:57
  • 43:57 - 44:01
  • 44:01 - 44:06
  • 44:06 - 44:09
  • 44:09 - 44:14
  • 44:14 - 44:16
  • 44:16 - 44:23
  • 44:24 - 44:31
  • 44:35 - 44:38
  • 44:38 - 44:39
  • 44:39 - 44:43
  • 44:43 - 44:44
  • 44:44 - 44:47
  • 44:47 - 44:52
  • 44:52 - 44:53
  • 44:53 - 45:00
  • 45:01 - 45:08
  • 45:12 - 45:16
  • 45:16 - 45:21
  • 45:21 - 45:28
  • 45:32 - 45:39
  • 45:46 - 45:50
  • 45:50 - 45:53
  • 45:53 - 45:58
  • 45:58 - 46:02
  • 46:02 - 46:09
  • 46:22 - 46:26
  • 46:26 - 46:26
  • 46:26 - 46:33
  • 46:33 - 46:35
  • 46:35 - 46:42
  • 46:43 - 46:44
  • 46:44 - 46:48
  • 46:48 - 46:50
  • 46:50 - 46:55
  • 46:55 - 46:56
  • 46:56 - 46:58
  • 46:58 - 47:05
  • 47:06 - 47:09
  • 47:09 - 47:10
  • 47:10 - 47:12
  • 47:12 - 47:14
  • 47:14 - 47:17
  • 47:17 - 47:17
  • 47:17 - 47:21
  • 47:21 - 47:21
  • 47:21 - 47:26
  • 47:26 - 47:30
  • 47:30 - 47:33
  • 47:33 - 47:34
  • 47:34 - 47:39
  • 47:39 - 47:42
  • 47:42 - 47:45
  • 47:45 - 47:47
  • 47:47 - 47:51
  • 47:51 - 47:52
  • 47:52 - 47:59
  • 48:43 - 48:50
  • 48:51 - 48:52
  • 48:52 - 48:53
  • 48:53 - 48:55
  • 48:55 - 48:57
  • 48:57 - 49:01
  • 49:01 - 49:05
  • 49:05 - 49:09
  • 49:09 - 49:12
  • 49:12 - 49:14
  • 49:14 - 49:17
  • 49:17 - 49:19
  • 49:19 - 49:22
  • 49:22 - 49:29
  • 49:33 - 49:38
  • 49:38 - 49:43
  • 49:43 - 49:43
  • 49:43 - 49:46
  • 49:46 - 49:50
  • 49:50 - 49:53
  • 49:53 - 49:57
  • 49:57 - 50:01
  • 50:01 - 50:04
  • 50:04 - 50:07
  • 50:07 - 50:10
  • 50:10 - 50:14
  • 50:14 - 50:15
  • 50:15 - 50:18
  • 50:18 - 50:21
  • 50:21 - 50:25
  • 50:25 - 50:29
  • 50:29 - 50:34
  • 50:34 - 50:37
  • 50:37 - 50:40
  • 50:40 - 50:44
  • 50:44 - 50:50
  • 50:50 - 50:55
  • 50:55 - 50:59
  • 50:59 - 51:06
  • 51:06 - 51:08
  • 51:08 - 51:14
  • 51:14 - 51:15
  • 51:15 - 51:18
  • 51:18 - 51:21
  • 51:21 - 51:25
  • 51:25 - 51:26
  • 51:26 - 51:30
  • 51:30 - 51:31
  • 51:31 - 51:32
  • 51:32 - 51:36
  • 51:36 - 51:37
  • 51:37 - 51:41
  • 51:41 - 51:47
  • 51:47 - 51:51
  • 51:51 - 51:53
  • 51:53 - 51:55
  • 51:55 - 51:58
  • 51:58 - 52:02
  • 52:02 - 52:02
  • 52:02 - 52:04
  • 52:04 - 52:06
  • 52:06 - 52:11
  • 52:11 - 52:16
  • 52:16 - 52:17
  • 52:17 - 52:19
  • 52:19 - 52:21
  • 52:21 - 52:26
  • 52:26 - 52:31
  • 52:31 - 52:33
  • 52:33 - 52:39
  • 52:39 - 52:43
  • 52:43 - 52:45
  • 52:45 - 52:50
  • 52:50 - 52:52
  • 52:52 - 52:55
  • 52:55 - 52:56
  • 52:56 - 52:59
  • 52:59 - 53:01
  • 53:01 - 53:04
  • 53:04 - 53:07
  • 53:07 - 53:10
  • 53:10 - 53:13
  • 53:13 - 53:15
  • 53:15 - 53:22
  • 53:26 - 53:30
  • 53:30 - 53:31
  • 53:31 - 53:36
  • 53:36 - 53:38
  • 53:38 - 53:42
  • 53:42 - 53:47
  • 53:47 - 53:49
  • 53:49 - 53:51
  • 53:51 - 53:54
  • 53:54 - 53:57
  • 53:57 - 54:00
  • 54:00 - 54:01
  • 54:01 - 54:04
  • 54:04 - 54:05
  • 54:05 - 54:11
  • 54:11 - 54:13
  • 54:13 - 54:17
  • 54:17 - 54:20
  • 54:20 - 54:24
  • 54:24 - 54:27
  • 54:27 - 54:29
  • 54:29 - 54:33
  • 54:33 - 54:39
  • 54:39 - 54:41
  • 54:41 - 54:44
  • 54:44 - 54:47
  • 54:47 - 54:50
  • 54:50 - 54:52
  • 54:52 - 54:55
  • 54:55 - 54:59
  • 54:59 - 55:03
  • 55:03 - 55:08
  • 55:08 - 55:10
  • 55:10 - 55:12
  • 55:12 - 55:13
  • 55:13 - 55:17
  • 55:17 - 55:18
  • 55:18 - 55:20
  • 55:20 - 55:22
  • 55:22 - 55:25
  • 55:25 - 55:27
  • 55:27 - 55:32
  • 55:32 - 55:38
  • 55:38 - 55:41
  • 55:41 - 55:48
  • 55:48 - 55:50
  • 55:50 - 55:56
  • 55:56 - 55:58
  • 55:58 - 56:04
  • 56:04 - 56:05
  • 56:05 - 56:07
  • 56:07 - 56:09
  • 56:09 - 56:12
  • 56:12 - 56:15
  • 56:15 - 56:17
  • 56:17 - 56:19
  • 56:19 - 56:24
  • 56:24 - 56:27
  • 56:27 - 56:30
  • 56:30 - 56:35
  • 56:35 - 56:37
  • 56:37 - 56:38
  • 56:38 - 56:42
  • 56:42 - 56:43
  • 56:43 - 56:46
  • 56:46 - 56:49
  • 56:49 - 56:51
  • 56:51 - 56:52
  • 56:52 - 56:54
  • 56:54 - 56:55
  • 56:55 - 56:57
  • 56:57 - 56:58
  • 56:58 - 57:00
  • 57:00 - 57:02
  • 57:02 - 57:07
  • 57:07 - 57:08
  • 57:08 - 57:15
  • 57:15 - 57:17
  • 57:17 - 57:20
  • 57:20 - 57:25
  • 57:25 - 57:30
  • 57:30 - 57:33
  • 57:33 - 57:35
  • 57:35 - 57:38
  • 57:38 - 57:39
  • 57:39 - 57:42
  • 57:42 - 57:45
  • 57:45 - 57:47
  • 57:47 - 57:54
  • 57:56 - 57:59
  • 57:59 - 58:02
  • 58:02 - 58:04
  • 58:04 - 58:11
  • 58:11 - 58:15
  • 58:15 - 58:19
  • 58:19 - 58:22
  • 58:22 - 58:24
  • 58:24 - 58:25
  • 58:25 - 58:28
  • 58:28 - 58:31
  • 58:31 - 58:33
  • 58:33 - 58:34
  • 58:34 - 58:37
  • 58:37 - 58:42
  • 58:42 - 58:44
  • 58:44 - 58:48
  • 58:48 - 58:51
  • 58:51 - 58:54
  • 58:54 - 58:55
  • 58:55 - 58:59
  • 58:59 - 59:03
  • 59:03 - 59:05
  • 59:05 - 59:08
  • 59:08 - 59:09
  • 59:09 - 59:14
  • 59:14 - 59:15
  • 59:15 - 59:17
  • 59:17 - 59:18
  • 59:18 - 59:20
  • 59:20 - 59:22
  • 59:22 - 59:29
  • 59:31 - 59:35
  • 59:35 - 59:38
  • 59:38 - 59:41
  • 59:41 - 59:46
  • 59:46 - 59:48
  • 59:48 - 59:50
  • 59:50 - 59:54
  • 59:54 - 59:56
  • 59:56 - 59:59
  • 59:59 - 60:01
  • 60:01 - 60:08
  • 60:09 - 60:16
  • 60:17 - 60:19
  • 60:19 - 60:26
  • 60:29 - 60:35
  • 60:35 - 60:42
  • 60:51 - 60:53
  • 60:53 - 60:57
  • 60:57 - 60:58
  • 60:58 - 61:03
  • 61:03 - 61:08
  • 61:08 - 61:09
  • 61:09 - 61:11
  • 61:11 - 61:14
  • 61:14 - 61:17
  • 61:17 - 61:19
  • 61:19 - 61:20
  • 61:20 - 61:22
  • 61:22 - 61:24
  • 61:24 - 61:27
  • 61:27 - 61:34
  • 61:58 - 61:59
  • 61:59 - 62:03
  • 62:03 - 62:05
  • 62:05 - 62:11
  • 62:11 - 62:18
  • 62:21 - 62:27
  • 62:27 - 62:28
  • 62:28 - 62:32
  • 62:32 - 62:34
  • 62:34 - 62:37
  • 62:37 - 62:40
  • 62:40 - 62:41
  • 62:41 - 62:42
  • 62:42 - 62:45
  • 62:45 - 62:48
  • 62:48 - 62:48
  • 62:48 - 62:51
  • 62:51 - 62:54
  • 62:54 - 62:56
  • 62:56 - 62:58
  • 62:58 - 63:01
  • 63:01 - 63:03
  • 63:03 - 63:08
  • 63:08 - 63:09
  • 63:09 - 63:13
  • 63:13 - 63:14
  • 63:14 - 63:16
  • 63:16 - 63:20
  • 63:20 - 63:23
  • 63:23 - 63:24
  • 63:24 - 63:25
  • 63:25 - 63:27
  • 63:27 - 63:32
  • 63:32 - 63:35
  • 63:35 - 63:36
  • 63:36 - 63:41
  • 63:41 - 63:43
  • 63:43 - 63:48
  • 63:48 - 63:52
  • 63:52 - 63:58
  • 63:58 - 64:00
  • 64:00 - 64:02
  • 64:02 - 64:09
  • 64:09 - 64:13
  • 64:13 - 64:17
  • 64:17 - 64:19
  • 64:19 - 64:21
  • 64:21 - 64:27
  • 64:27 - 64:29
  • 64:29 - 64:36
  • 64:45 - 64:47
  • 64:47 - 64:50
  • 64:50 - 64:53
  • 64:53 - 64:55
  • 64:55 - 64:57
  • 64:57 - 64:58
  • 64:58 - 65:00
  • 65:00 - 65:04
  • 65:04 - 65:06
  • 65:06 - 65:08
  • 65:08 - 65:13
  • 65:13 - 65:15
  • 65:15 - 65:19
  • 65:19 - 65:21
  • 65:21 - 65:24
  • 65:24 - 65:25
  • 65:25 - 65:27
  • 65:27 - 65:34
  • 65:46 - 65:50
  • 65:50 - 65:56
  • 65:56 - 65:59
  • 65:59 - 66:02
  • 66:02 - 66:06
  • 66:06 - 66:07
  • 66:07 - 66:11
  • 66:11 - 66:13
  • 66:13 - 66:19
  • 66:19 - 66:23
  • 66:23 - 66:25
  • 66:25 - 66:30
  • 66:30 - 66:33
  • 66:33 - 66:40
  • 66:44 - 66:46
  • 66:46 - 66:48
  • 66:48 - 66:49
  • 66:49 - 66:51
  • 66:51 - 66:54
  • 66:54 - 66:55
  • 66:55 - 66:58
  • 66:58 - 66:59
  • 66:59 - 67:03
  • 67:03 - 67:06
  • 67:06 - 67:09
  • 67:09 - 67:11
  • 67:11 - 67:14
  • 67:14 - 67:17
  • 67:17 - 67:20
  • 67:20 - 67:23
  • 67:23 - 67:25
  • 67:25 - 67:29
  • 67:29 - 67:32
  • 67:32 - 67:34
  • 67:34 - 67:35
  • 67:35 - 67:39
  • 67:39 - 67:42
  • 67:42 - 67:44
  • 67:44 - 67:48
  • 67:48 - 67:51
  • 67:51 - 67:56
  • 67:56 - 67:59
  • 67:59 - 68:01
  • 68:01 - 68:02
  • 68:02 - 68:05
  • 68:05 - 68:06
  • 68:06 - 68:09
  • 68:09 - 68:13
  • 68:13 - 68:14
  • 68:14 - 68:18
  • 68:18 - 68:20
  • 68:20 - 68:23
  • 68:23 - 68:26
  • 68:26 - 68:32
  • 68:32 - 68:36
  • 68:36 - 68:40
  • 68:40 - 68:41
  • 68:41 - 68:44
  • 68:44 - 68:45
  • 68:45 - 68:49
  • 68:49 - 68:53
  • 68:53 - 68:55
  • 68:55 - 68:57
  • 68:57 - 69:02
  • 69:02 - 69:06
  • 69:06 - 69:09
  • 69:09 - 69:11
  • 69:11 - 69:14
  • 69:14 - 69:17
  • 69:17 - 69:19
  • 69:19 - 69:22
  • 69:22 - 69:26
  • 69:26 - 69:28
  • 69:28 - 69:32
  • 69:32 - 69:36
  • 69:36 - 69:39
  • 69:39 - 69:46
  • 69:55 - 69:58
  • 69:58 - 69:59
  • 69:59 - 70:01
  • 70:01 - 70:08
  • 70:09 - 70:11
  • 70:11 - 70:13
  • 70:13 - 70:13
  • 70:13 - 70:16
  • 70:16 - 70:20
  • 70:20 - 70:23
  • 70:23 - 70:27
  • 70:27 - 70:27
  • 70:27 - 70:30
  • 70:30 - 70:32
  • 70:32 - 70:37
  • 70:37 - 70:38
  • 70:38 - 70:39
  • 70:39 - 70:41
  • 70:41 - 70:43
  • 70:43 - 70:46
  • 70:46 - 70:48
  • 70:48 - 70:52
  • 70:52 - 70:54
  • 70:54 - 71:01
  • 71:02 - 71:07
  • 71:07 - 71:13
  • 71:13 - 71:14
  • 71:14 - 71:17
  • 71:17 - 71:20
  • 71:20 - 71:21
  • 71:21 - 71:24
  • 71:24 - 71:28
  • 71:28 - 71:30
  • 71:30 - 71:32
  • 71:32 - 71:39
  • 71:44 - 71:49
  • 71:49 - 71:51
  • 71:51 - 71:53
  • 71:53 - 71:56
  • 71:56 - 72:00
  • 72:00 - 72:01
  • 72:01 - 72:05
  • 72:05 - 72:09
  • 72:09 - 72:11
  • 72:11 - 72:18
  • 72:19 - 72:23
  • 72:23 - 72:25
  • 72:25 - 72:28
  • 72:28 - 72:31
  • 72:31 - 72:33
  • 72:33 - 72:36
  • 72:36 - 72:41
  • 72:41 - 72:42
  • 72:42 - 72:45
  • 72:45 - 72:49
  • 72:49 - 72:54
  • 72:54 - 72:56
Title:
Lecture 3 | Machine Learning (Stanford)
Description:

Lecture by Professor Andrew Ng for Machine Learning (CS 229) in the Stanford Computer Science department. Professor Ng delves into locally weighted regression, probabilistic interpretation and logistic regression and how it relates to machine learning.

This course provides a broad introduction to machine learning and statistical pattern recognition. Topics include supervised learning, unsupervised learning, learning theory, reinforcement learning and adaptive control. Recent applications of machine learning, such as to robotic control, data mining, autonomous navigation, bioinformatics, speech recognition, and text and web data processing are also discussed.

Complete Playlist for the Course:
http://www.youtube.com/view_play_list?p=A89DCFA6ADACE599

CS 229 Course Website:
http://www.stanford.edu/class/cs229/

Stanford University:
http://www.stanford.edu/

Stanford University Channel on YouTube:
http://www.youtube.com/stanford

more » « less
Video Language:
English
Duration:
01:13:14

Portuguese, Brazilian subtitles

Incomplete

Revisions