Esta presentación es llevada hasta ustedes por el Stanford Center for Professional development Ok, buenos dias y bienvenidos nuevamente a la tercer lectura de esta clase. lo que quiero hacer el día de hoy y algunos de los temas que desarrollaré hoy pueden parecer que voy saltando, sin orden, hablado acerca de la regresión lineal y hoy quiero hablar sobre un tipo de adaptación llamada "regresion de pesos locales". Es un algoritmo muy popular Es uno de los algoritmos favoritos de mi mentor Luego hablaremos de la interpretacion probabilistica de la regresion lineal. Y usaremos esta en nuestro primer algoritmo de classificacion: Regresion Lineal (Logistic Regression) luego hablaremos del algoritmo de perceptron (perceptron algorithm) el cual revizaremos de nuevo en este semestre Y si el tiempo lo permite, espero explicar el metodo de Newton (Newton's method) un algoritmo para entrenar la regression lineal Repasemos, lo que deciamos en la clase anterior Recuerden las definiciones que utilize Yo utilize x sub i para denotar la i-ava muestra de entramiento Cuando hablamos de regresion lineal o minimos cuadrados ordinarios (ordinary least squares) utilizamos 'esto' para definir el valor que predecimos como resultado de evaluar mi hipotesis H con la entrada x sub i