Return to Video

Linear Regression with Gradient Descent - Intro to Data Science

  • 0:01 - 0:04
    Ao fazer a regressão linear, temos uma série de pontos de dados.
  • 0:04 - 0:09
    Digamos que temos pontos de dados 1, 2, 3 e assim por diante, até M.
  • 0:09 - 0:12
    Cada ponto de dados tem uma variável de saída, Y,
  • 0:12 - 0:15
    e uma série de variáveis de entrada, X1 até XN.
  • 0:16 - 0:20
    No nosso exemplo de beisebol, Y é o número total de rebatidas.
  • 0:20 - 0:24
    E nossas X1 e XN são coisas como altura e peso.
  • 0:24 - 0:28
    Nossas amostras de 1 a M podem ser jogadores de beisebol diferentes.
  • 0:28 - 0:33
    Então, o ponto de dados 1 é Derek Jeter, o ponto de dados 2 é Barry Bonds
  • 0:33 - 0:35
    e o ponto de dados M é Babe Ruth.
  • 0:35 - 0:38
    De maneira genérica, estamos tentando prever os valores
  • 0:38 - 0:42
    da variável de saída para cada ponto de dados, multiplicando as variáveis de entrada
  • 0:42 - 0:46
    por algum conjunto de coeficientes que chamaremos de theta 1 até theta N.
  • 0:46 - 0:49
    Cada Teta, que de agora em diante chamaremos de parâmetros
  • 0:49 - 0:53
    ou pesos do modelo, nos indica a importância de uma variável de entrada
  • 0:53 - 0:56
    ao prever um valor para a variável de saída.
  • 0:56 - 0:57
    Portanto, se theta 1 for baixo,
  • 0:57 - 1:02
    X1 não deve ser muito importante, no geral, ao prever Y.
  • 1:02 - 1:04
    Ao passo que, se theta N for alto,
  • 1:04 - 1:07
    então XN geralmente será um grande contribuinte ao valor y.
  • 1:07 - 1:10
    Este modelo foi criado de tal forma que podemos multiplicar cada X
  • 1:10 - 1:14
    por seu Teta correspondente e somá-los para obter Y.
  • 1:14 - 1:17
    Então nossa equação final será algo parecido com esta equação aqui.
  • 1:17 - 1:20
    Theta 1 mais X1 mais Teta2 vezes X2,
  • 1:20 - 1:24
    até theta N mais XN igual a Y.
  • 1:24 - 1:27
    E seremos capazes de prever Y para cada um de nossos pontos de dados M.
  • 1:28 - 1:32
    Nesta ilustração, os pontos azuis representam nossos pontos de dados observados,
  • 1:32 - 1:35
    enquanto as linhas verdes mostram o valor previsto de Y
  • 1:35 - 1:38
    para cada valor x, devido ao modelo que criamos.
  • 1:38 - 1:41
    A melhor equação é a que vai minimizar a diferença
  • 1:41 - 1:44
    em todos os pontos de dados entre nosso Y previsto e nosso Y observado.
  • 1:45 - 1:49
    O que precisamos fazer é encontrar o Tetas que forneçam as melhores previsões.
  • 1:49 - 1:53
    Ou seja, reduzir essas diferenças o máximo possível.
  • 1:53 - 1:57
    Se quiséssemos criar um valor que descrevesse o total de erros do nosso modelo,
  • 1:57 - 1:58
    provavelmente somaríamos as áreas.
  • 1:58 - 2:02
    Ou seja, somar todos os nossos pontos de dados de I igual a 1 até M.
  • 2:02 - 2:05
    O Y previsto menos o Y real.
  • 2:05 - 2:08
    Porém, já que esses erros podem ser negativos e positivos,
  • 2:08 - 2:12
    se simplesmente os somarmos, poderíamos ter
  • 2:12 - 2:17
    um termo de total de erros muito próximo de zero, mesmo se nosso modelo estivesse muito errado.
  • 2:17 - 2:21
    Para corrigir isso, em vez de simplesmente somar os termos de erros,
  • 2:21 - 2:23
    vamos somar o quadrado dos termos de erros.
  • 2:23 - 2:27
    Isso garante que a magnitude de cada termo de erro individual,
  • 2:27 - 2:30
    Y previsto menos Y real seja positivo.
  • 2:31 - 2:34
    Por que não garantimos que a distinção entre as variáveis de entrada
  • 2:34 - 2:35
    e as variáveis de saída seja clara?
Title:
Linear Regression with Gradient Descent - Intro to Data Science
Description:

j5gs0m001Ak

more » « less
Video Language:
English
Team:
Udacity
Project:
ud359: Intro to Data Science
Duration:
02:36

Portuguese, Brazilian subtitles

Revisions Compare revisions