Esta presentación es llevada hasta ustedes por el Stanford Center for Professional
development
Ok, buenos dias y bienvenidos nuevamente
a la tercer lectura de esta clase.
lo que quiero hacer el día de hoy
y algunos de
los temas que desarrollaré hoy pueden parecer que voy saltando, sin orden,
hablado acerca
de la regresión lineal y hoy quiero hablar sobre
un tipo de adaptación llamada "regresion de pesos locales". Es un algoritmo muy popular
Es uno de los algoritmos favoritos de mi mentor
Luego hablaremos de la interpretacion probabilistica de la regresion lineal.
Y usaremos esta en nuestro primer algoritmo de classificacion:
Regresion Lineal (Logistic Regression)
luego hablaremos del algoritmo de perceptron (perceptron algorithm)
el cual revizaremos de nuevo en este semestre
Y si el tiempo lo permite, espero explicar el metodo de Newton (Newton's method)
un algoritmo para entrenar la regression lineal
Repasemos, lo que deciamos en la clase anterior
Recuerden las definiciones que utilize
Yo utilize x sub i
para denotar la i-ava muestra de entramiento
Cuando hablamos de regresion lineal
o minimos cuadrados ordinarios (ordinary least squares)
utilizamos 'esto' para definir
el valor que predecimos
como resultado de evaluar mi hipotesis H con
la entrada x sub i