朴素贝叶斯法
在介绍朴素贝叶斯方法之前,首先回顾一下贝叶斯定理。通过全概率公式可以得到:
p(Bk∣A)=p(A)p(A∣Bk)p(Bk)=∑i=1np(A∣Bi)p(Bi)p(A∣Bk)p(Bk)
其中 P(Bk∣A) 称为后验概率, P(Bk) 称为先验概率, P(A∣Bk) 称为似然函数, {Bk} 是相互独立的。
贝叶斯公式实际上简单地揭示了我们是如何通过观察群体中某一特征来帮助我们进行分类的。在某一类别中某一特征出现的概率越高,自然的也认为携带该特征的样本更有可能属于这一类别。
朴素贝叶斯法
特征向量 x∈Rn , 输出空间为 {c1,c2,⋯,cK}。希望通过训练集进行学习,对于给定的特征向量进行分类工作。
源自贝叶斯公式的要求,我们假设特征向量 X 的 n 个分量是独立的, 且分量 X(j) 可以取到的值有 sj 个。有独立性假设有:
P(X=x∣Y=ck)==P(X(1)=x(1),⋯,X(n)=x(n)∣Y=ck)j=1∏nP(X(j)=x(j)∣Y=ck)
对于给定的输入 x,通过贝叶斯公式计算后验概率:
P(Y=ck∣X=x)==∑kP(X=x∣Y=ck)⋅P(Y=ck)P(X=x∣Y=ck)⋅P(Y=ck)∑kP(Y=ck)⋅∏j=1nP(X(j)=x(j)∣Y=ck)∏j=1nP(X(j)=x(j)∣Y=ck)⋅P(Y=ck)
将后验概率最大化,最大化的结果就是分类器的分类结果,可表示为:
y=ckargmax∑kP(Y=ck)⋅∏j=1nP(X(j)=x(j)∣Y=ck)∏j=1nP(X(j)=x(j)∣Y=ck)⋅P(Y=ck)
由于分母 ∑kP(Y=ck)⋅∏j=1nP(X(j)=x(j)∣Y=ck) 对于不同的 ck是一样的,因此优化问题可以简化为:
y=ckargmaxj=1∏nP(X(j)=x(j)∣Y=ck)⋅P(Y=ck)
优化问题的处理
参数估计
对于 P(Y=ck),P(X(j)=x(j)∣Y=ck) 利用极大似然法进行参数估计。
对于训练集 T={(x1,y1),(x2,y2),⋯,(xN,yN)} ,以 P(Y=ck)为例。为了估计 P(Y),可以得到对数似然函数:
lnL(P)===lni=1∏NP(Y=yi)lnk=1∏KP(Y=ck)∑i=1NI(yi=ck)k=1∑Ki=1∑NI(yi=ck)lnP(Y=ck)
由于有约束条件 ∑k=1KP(Y=ck)=1,利用拉格朗日乘数法可以得到
P(Y=ck)=λ∑i=1NI(yi=ck)
再反向利用约束条件:
k=1∑Kλ∑i=1NI(yi=ck)=k=1∑KP(Y=ck)=1
就得到 λ=∑k=1K∑i=1NI(yi=ck)=N ,因此最大似然条件下得到的参数估计结果为
P(Y=ck)=N∑i=1NI(yi=ck)
同理有
P(X(j)=ajl∣Y=ck)=∑i=1NI(yi=ck)∑i=1NI(xi(j)=ajl,yi=ck)
朴素贝叶斯方法是一个非常简单直观的分类器构建的方法,但是使用范围局限在小模型中,并且特征的独立前提要求较强,很难在实际问题中有很好的适用性。