Portuguese, Brazilian subtitles

← Problem with Minimizing Absolute Errors - Intro to Machine Learning

Get Embed Code
4 Languages

Showing Revision 13 created 06/20/2016 by Udacity Robot.

  1. Agora que você já pensou sobre o assunto, mostrarei porque isso é importante.
  2. Vejamos primeiro o exemplo da linha do meio.
  3. Meus erros terão esta aparência.
  4. Estou esboçando-os agora.
  5. Esta é a distância de cada ponto para classificar o valor previsto
  6. desse ponto na linha de regressão.
  7. E se você somasse o valor absoluto dos erros,
  8. estaria somando todas estas distâncias em laranja e teria uma resposta.
  9. Vamos analisar a linha superior.
  10. Podemos fazer o mesmo aqui.
  11. Vamos começar a desenhar as distâncias.
  12. Apesar de nos aproximarmos de todos os pontos acima da linha,
  13. estamos nos afastando de todos os pontos abaixo dela.
  14. Considerando esses dois pontos como exemplos concretos,
  15. estamos nos aproximando do ponto superior e
  16. nos afastando do ponto inferior.
  17. Em geral, o erro total desses
  18. dois pontos de exemplo seria exatamente igual
  19. ao erro total desses dois pontos até a linha do meio.
  20. Na verdade, o mesmo vale para a
  21. linha de regressão inferior.
  22. E se o número de pontos acima e abaixo
  23. dessas linhas for igual, em geral, acontecerá a mesma coisa.
  24. Existe uma ambiguidade fundamental quando você usa o valor absoluto
  25. dos erros em termos do local exato da regressão.
  26. Ela pode estar em qualquer ponto neste intervalo.
  27. Ou seja, várias linhas podem minimizar os erros absolutos.
  28. Mas apenas uma linha minimiza o erro ao quadrado.
  29. Essa ambiguidade não existe quando a métrica empregada
  30. não é o valor absoluto da distância, o valor absoluto da distância ao quadrado.
  31. Quero fazer mais uma observação.
  32. É uma preocupação em termos práticos.
  33. Ao usarmos a soma do erro ao quadrado como uma forma de
  34. localizar a regressão, estamos facilitando a implementação da
  35. regressão subjacente.
  36. É bem mais fácil encontrar esta linha quando você tenta minimizar
  37. a soma dos erros ao quadrado, e não a soma dos erros absolutos.
  38. E temos o privilégio de não precisarmos nos preocupar tanto com isso
  39. quando usamos o SKlearn para fazer a maior parte dos cálculos para nós.
  40. É claro que, se você estiver escrevendo o código usado na
  41. álgebra linear para encontrar a regressão
  42. ou fazendo o cálculo para encontrar os resultados da resposta da regressão,
  43. sua preocupação será maior.
  44. Esse é outro motivo pelo qual as regressões tendem a ser
  45. minimizadas com algum tipo de erro ao quadrado.
  46. Porque, em termos de cálculos, é bem mais fácil fazer isso.