인공지능 및 기계학습 개론 3강 요약

인공지능 및 기계학습 개론 . 3강 Naive Bayes Classifier

edwith 인공지능 및 기계학습개론 강의를 참고하여 만들어진 포스트입니다.

1. Optimal Classification

  • Optimal predictor of Bayes classifier

$f^* = argmin_f P(\hat{Y} \neq Y)$

classifier는 곡선형태인 확률분포를 통해 risk를 줄임 (logistic)

logistic을 해보기에 앞서 curve를 만들어보는게 Naive Classifier

두 개의 클래스일 경우:

$f^*(x) = argmax_{Y=y} P(Y=y X=x)$
$= argmax_{Y=y}P(X=x Y=y)P(Y=y)$
P(X=x Y=y): Class Conditional Density = Likelihood, P(Y=y) = Class Prior

주어진 x값에서 제대로 class를 판단하게끔 (극단적으로) 판단하기.(곡선형태)

  • X변수들이 많아진다면?

    변수들끼리의 interaction이 생긴다. 이 interaction이 없다고 가정하는 것이 naive bayes classifier

2. Naive Bayes Classifier

특성들 사이의 독립을 가정하는 베이즈 정리를 적용한 확률 분류기의 일종

image

다음과 같은 경우

P(X=x Y=y) 는 x변수가 너무 많아 구하기 힘들다.

즉 그래서 다음과 같은 가정을 사용한게 Naive Bayes Classifier이다.

image

  • conditional independece

관측치(Y)가 알려지지 않았을 때는 다른 X2변수가 X1에 영향 미칠 수 있다. 그러나 관측치(Y)가 알려졌을 때는 다른 X2변수가 X1에 영향 미치지 않는다는 것이 Conditional Independence

Marginal independence vs. Conditional Independence (A,B)

Marginal Indepdence:

X and Y and independent if and only if P(A)=P(A B)

Conditional Independence:

P(A B,Y) = P(A Y)

(2^d - 1) k

(2-1)dk

  • naive bayes classifier function 정리

image

  • 한계 1 : Naive Asssumption

  • 한계 2: incorrect Probability Estimations

    관측치가 별로 없을 경우(insufficient data) 제대로 못 구할 수 있다. MLE -> MAP(prior사용해서라도)

3. 예시: Sentimental Analysis using Naive Bayes Classifier

image

log 사용하는 이유: 0에 가까우면 곱하기를 많이하면 0. 000xxx 형태로 되는데, 이걸 컴퓨터에서는 0으로 인식하기 때문에 log씌어줌.

4. Naive Bayes Classifier 정의// sentimental analysis 간단한 코드 찾아보기