이 프리젠테이션은 스텐포드 대학에서 제공합니다. 좋은 아침 입니다. 세번째 강의에 참여 감사드리고, 여기 오늘 강의 계획과 그 외 토론하고 싶은 토픽입니다. 토픽들이 서로 상관관계가 없어보일수도 있네요. 지난 강의에서 선형 리그레션을 배웠고, 오늘은 부분적인 리그레션이라는 방법을 논의할 것입니다. 이 방법은 매우 인기있는 알고리즘으로 제 멘토중의 한명이 매우 선호하는 학습 알고리즘입니다. 그럼 우리는 선형 리그레션의 두번째 해석으로 분류 알고리즘으로 사용되는 경우를 보겠습니다. 이를 로지스틱 리그레션이라고 합니다. 이 외 잠시 펄셉트론이라는 토픽으로 주위를 환기하겠습니다. 이 토픽은 이번 학기 말에 다시 토픽으로 나올 것입니다. 그 외 시간이 허락되면 뉴튼의 방법이라는 알고리즘을 공부하겠습니다. 여하간 우선 지난 강의의 복습을 하겠습니다. 지난번 X 와 Y 위에 사용한 i 가 트레이닝 예시를 가르친다는 것을 기억하시나요? 우리가 선형 리그레션에 관하여 말할때나 선형 최소 공차를 말할때 우리는 이 값을 가지고 예시된 H 의 추측값을 말합니다.