(한글 번역: 박세민) 이 강좌는 Stanford Center for Professional Development 에서 제공됩니다. . . 오늘 할 이야기는 지난 강의에 이어 Naive Bayes에 대한 논의를 계속 해보도록 하고 지난 강의에 이어 Naive Bayes에 대한 논의를 계속 해보도록 하고 지난 강의에 이어 Naive Bayes에 대한 논의를 계속 해보도록 하고 Naive Bayes에서 몇가지 다양한 이벤트 모델에 대해 논의하고 옆길로 살짝 빠져서 뉴럴 네트워크에 대해서 잠시 이야기 할 시간을 잠깐하고, (뉴럴 네트워크에 많은 시간을 쓰지는 않을거에요.) 그리고 Support Vector Machine에 대해 이야기 할 거에요. Support Vector Machine은 Supervised learning algorithm인데, 많은 사람들이 Supervised learning algorithm 중에서 사람들이 가장 효과적이고 곧장 사용할 수 있다고 생각하는 supervised learning 알고리즘이에요 이런 견해는 논란이 있지만, 많은 사람들이 이러한 견해를 견지하고 있어요. 이런 것들에 대해 이야기를 시작해 볼것이구요, 이 이야기를 완성하기 위해서는 강의 몇 개를 더 해야 해요. 자, Naive Bayes에 대해 이야기 해보죠. 저번 시간에 했던 이야기를 다시 리마인드 해보자면, 가장 간단한 예제인 스팸 분류에 대해 시작했어요 가장 간단한 예제인 스팸 분류에 대해 시작했어요 가장 간단한 예제인 스팸 분류에 대해 시작했어요 사전의 단어에 대응하는 feature vector를 이렇게 만들었었죠. 사전의 단어에 대응하는 feature vector를 이렇게 만들었었죠. 알다시피 이메일에 등장하는 단어에 기반해서 feature vector를 represent 는데, 해당 자리에 0 또는 1로 채웠어요. Naive Bayses는 generative learning algorithm이고, 따라서 제말은,