0:00:10.419,0:00:13.689 Esta presentación es llevada hasta ustedes por el Stanford Center for Professional 0:00:13.689,0:00:20.689 development 0:00:23.579,0:00:26.800 Ok, buenos dias y bienvenidos nuevamente 0:00:26.800,0:00:30.619 a la tercer lectura de esta clase. 0:00:30.619,0:00:33.360 lo que quiero hacer el día de hoy 0:00:33.360,0:00:34.320 y algunos de 0:00:34.320,0:00:37.920 los temas que desarrollaré hoy pueden parecer que voy saltando, sin orden, 0:00:41.980,0:00:44.360 hablado acerca 0:00:44.360,0:00:48.390 de la regresión lineal y hoy quiero hablar sobre 0:00:48.390,0:00:52.290 un tipo de adaptación llamada "regresion de pesos locales". Es un algoritmo muy popular 0:00:52.290,0:00:57.120 Es uno de los algoritmos favoritos de mi mentor 0:00:57.120,0:01:02.170 Luego hablaremos de la interpretacion probabilistica de la regresion lineal. 0:01:02.170,0:01:07.468 Y usaremos esta en nuestro primer algoritmo de classificacion: 0:01:07.468,0:01:10.698 Regresion Lineal (Logistic Regression) 0:01:11.046,0:01:13.426 luego hablaremos del algoritmo de perceptron (perceptron algorithm) 0:01:13.426,0:01:16.306 el cual revizaremos de nuevo en este semestre 0:01:16.306,0:01:19.636 Y si el tiempo lo permite, espero explicar el metodo de Newton (Newton's method) 0:01:19.731,0:01:23.151 un algoritmo para entrenar la regression lineal 0:01:23.340,0:01:28.120 Repasemos, lo que deciamos en la clase anterior 0:01:29.364,0:01:33.364 Recuerden las definiciones que utilize 0:01:33.773,0:01:38.333 Yo utilize x sub i 0:01:38.779,0:01:42.039 para denotar la i-ava muestra de entramiento 0:01:49.104,0:01:52.164 Cuando hablamos de regresion lineal 0:01:52.184,0:01:54.754 o minimos cuadrados ordinarios (ordinary least squares) 0:01:54.954,0:01:56.314 utilizamos 'esto' para definir 0:01:56.333,0:01:57.633 el valor que predecimos 0:01:57.745,0:02:00.695 como resultado de evaluar mi hipotesis H con 0:02:00.774,0:02:02.064 la entrada x sub i