이 프리젠테이션은 스텐포드 대학에서 제공합니다.
좋은 아침 입니다.
세번째 강의에 참여 감사드리고, 여기 오늘 강의 계획과
그 외 토론하고 싶은 토픽입니다.
토픽들이 서로 상관관계가 없어보일수도 있네요.
지난 강의에서 선형 리그레션을 배웠고, 오늘은
부분적인 리그레션이라는 방법을 논의할 것입니다.
이 방법은 매우 인기있는 알고리즘으로 제 멘토중의 한명이 매우 선호하는
학습 알고리즘입니다.
그럼 우리는 선형 리그레션의 두번째 해석으로
분류 알고리즘으로 사용되는 경우를 보겠습니다. 이를 로지스틱 리그레션이라고 합니다.
이 외 잠시 펄셉트론이라는 토픽으로 주위를 환기하겠습니다.
이 토픽은 이번 학기 말에 다시 토픽으로 나올 것입니다.
그 외 시간이 허락되면 뉴튼의 방법이라는 알고리즘을 공부하겠습니다.
여하간 우선 지난 강의의 복습을 하겠습니다.
지난번 X 와 Y 위에 사용한
i 가 트레이닝 예시를 가르친다는 것을
기억하시나요?
우리가 선형 리그레션에 관하여 말할때나
선형 최소 공차를 말할때
우리는 이 값을 가지고
예시된 H 의 추측값을 말합니다.