Portuguese, Brazilian subtitles

← Algorithms Requiring Rescaling Solution - Intro to Machine Learning

Get Embed Code
4 Languages

Showing Revision 9 created 06/20/2016 by Udacity Robot.

  1. O que você acha, Katie?
  2. Quais respostas estão corretas aqui?
  3. >> As respostas corretas, aquelas que precisam de recursos rescaled serão
  4. SVM e K-MEANS CLUSTERING.
  5. >> Então tanto nas máquinas de vetor de suporte quanto no agrupamento k-means, você
  6. troca uma dimensão pela outra quando calcula a distância.
  7. Vamos usar, por exemplo, máquinas de vetor de suporte.
  8. Você vê a linha de separação que aumenta a distância.
  9. Nela você calcula a distância.
  10. E esse cálculo de distância compensa uma dimensão com a outra.
  11. Criamos uma dimensão duas vezes maior que a outra, contada duas vezes.
  12. O mesmo ocorre, coincidentemente, para
  13. agrupamento K-MEANS, no qual você tem um centro do cluster.
  14. E você calcula a distância do centro do cluster para todos os pontos de dados.
  15. E essa distância tem exatamente a mesma caracterização.
  16. Se você criar uma variável duas vezes maior, ela vai exigir o dobro.
  17. Assim, as máquinas de vetor de suporte e o
  18. K-MEANS são afetados pelo redimensionamento de recurso.
  19. Katie, me fale sobre as árvores de decisão e a regressão linear.
  20. Por que elas não estão incluídas?
  21. As árvores de decisão não vão fornecer uma linha diagonal como essa, certo?
  22. Elas vão fornecer uma série de linhas verticais e horizontais.
  23. Então não há compensação.
  24. Basta fazer um corte em uma direção e um corte em outra.
  25. Você não precisa se preocupar com o que está acontecendo em uma dimensão
  26. quando está fazendo algo em outra.
  27. >> E se você comprimir esta pequena área aqui, para metade do tamanho,
  28. porque redimensiona o recurso onde a linha da imagem está?
  29. Ela ficará em um local diferente, mas
  30. a separação é cronologicamente igual à anterior.
  31. Ela pode ser expandida,
  32. não há compensação entre essas duas variáveis diferentes.
  33. E quanto à regressão linear?
  34. >> Algo semelhante acontece na regressão linear.
  35. Lembre-se de que na regressão linear,
  36. cada um de nossos recursos vai ter um coeficiente associado a ele.
  37. E esse coeficiente e esse recurso sempre ficam juntos.
  38. O que acontece no recurso A não afeta o
  39. coeficiente no recurso B.
  40. Então, eles estão separados da mesma forma.
  41. >> Na verdade, se você dobrou a escala variável de uma variável específica,
  42. esse recurso ficará com metade do tamanho.
  43. E a saída será exatamente igual à anterior.
  44. É muito interessante ver, e para alguns algoritmos,
  45. o redimensionamento realmente tem potencial se pudermos usá-lo, para outros não faz diferença.