[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:10.42,0:00:13.69,Default,,0000,0000,0000,,Esta presentación es llevada hasta ustedes por el Stanford Center for Professional Dialogue: 0,0:00:13.69,0:00:20.69,Default,,0000,0000,0000,,development Dialogue: 0,0:00:23.58,0:00:26.80,Default,,0000,0000,0000,,Ok, buenos dias y bienvenidos nuevamente Dialogue: 0,0:00:26.80,0:00:30.62,Default,,0000,0000,0000,,a la tercer lectura de esta clase. Dialogue: 0,0:00:30.62,0:00:33.36,Default,,0000,0000,0000,,lo que quiero hacer el día de hoy Dialogue: 0,0:00:33.36,0:00:34.32,Default,,0000,0000,0000,,y algunos de Dialogue: 0,0:00:34.32,0:00:37.92,Default,,0000,0000,0000,,los temas que desarrollaré hoy pueden parecer que voy saltando, sin orden, Dialogue: 0,0:00:41.98,0:00:44.36,Default,,0000,0000,0000,,hablado acerca Dialogue: 0,0:00:44.36,0:00:48.39,Default,,0000,0000,0000,,de la regresión lineal y hoy quiero hablar sobre Dialogue: 0,0:00:48.39,0:00:52.29,Default,,0000,0000,0000,,un tipo de adaptación llamada "regresion de pesos locales". Es un algoritmo muy popular Dialogue: 0,0:00:52.29,0:00:57.12,Default,,0000,0000,0000,,Es uno de los algoritmos favoritos de mi mentor Dialogue: 0,0:00:57.12,0:01:02.17,Default,,0000,0000,0000,,Luego hablaremos de la interpretacion probabilistica de la regresion lineal. Dialogue: 0,0:01:02.17,0:01:07.47,Default,,0000,0000,0000,,Y usaremos esta en nuestro primer algoritmo de classificacion: Dialogue: 0,0:01:07.47,0:01:10.70,Default,,0000,0000,0000,,Regresion Lineal (Logistic Regression) Dialogue: 0,0:01:11.05,0:01:13.43,Default,,0000,0000,0000,,luego hablaremos del algoritmo de perceptron (perceptron algorithm) Dialogue: 0,0:01:13.43,0:01:16.31,Default,,0000,0000,0000,,el cual revizaremos de nuevo en este semestre Dialogue: 0,0:01:16.31,0:01:19.64,Default,,0000,0000,0000,,Y si el tiempo lo permite, espero explicar el metodo de Newton (Newton's method) Dialogue: 0,0:01:19.73,0:01:23.15,Default,,0000,0000,0000,,un algoritmo para entrenar la regression lineal Dialogue: 0,0:01:23.34,0:01:28.12,Default,,0000,0000,0000,,Repasemos, lo que deciamos en la clase anterior Dialogue: 0,0:01:29.36,0:01:33.36,Default,,0000,0000,0000,,Recuerden las definiciones que utilize Dialogue: 0,0:01:33.77,0:01:38.33,Default,,0000,0000,0000,,Yo utilize x sub i Dialogue: 0,0:01:38.78,0:01:42.04,Default,,0000,0000,0000,,para denotar la i-ava muestra de entramiento Dialogue: 0,0:01:49.10,0:01:52.16,Default,,0000,0000,0000,,Cuando hablamos de regresion lineal Dialogue: 0,0:01:52.18,0:01:54.75,Default,,0000,0000,0000,,o minimos cuadrados ordinarios (ordinary least squares) Dialogue: 0,0:01:54.95,0:01:56.31,Default,,0000,0000,0000,,utilizamos 'esto' para definir Dialogue: 0,0:01:56.33,0:01:57.63,Default,,0000,0000,0000,,el valor que predecimos Dialogue: 0,0:01:57.74,0:02:00.70,Default,,0000,0000,0000,,como resultado de evaluar mi hipotesis H con Dialogue: 0,0:02:00.77,0:02:02.06,Default,,0000,0000,0000,,la entrada x sub i