贝叶斯决策论(后验概率最大化)的问题
在看待解决一分类问题时候,在相关概率已知的条件下,贝叶斯决策论考虑如何基于这些概率把(期望损失)风险 降到最低,从而得到最优的类别标记,即 期望风险最小化。
假设由 N种可能的类别标记为 y={c1,c2...cn}, λij是一个将真实标记为 cj误分类为 ci所产生的损失,则基于后验概率 P(ci∣x)可得到将样本分类为 ci的风险,即在样本上面的条件风险,可表示为: R(cj∣x)=j=1∑NλijP(ci∣x),其中λij=0,if i=j ;λij=1,otherwise;
显然 i=j时分类正确,风险为0,如若分类错误则在风险会随后验概率 P(ci∣x)的变化而变化,即基于后验概率 P(ci∣x)预测错误类别的概率越大风险越大。
以上为样本 x一条样本产生的风险, E表示总体样本集合,则总体风险可表示为: R(h)=Ex[R(h(x)∣x)]=Ex[j=1∑NλijP(ci∣x)]
显然我们如果能最小化条件风险,则总体风险自然也将最小化,下面是 x 样本期望风险最小化过程:
以上我么由 期望风险最小化 进而得出 后验概率最大化准则,这就是朴素贝叶斯法所采用的原理。即我们只需要去求: h∗(x)=argmaxP(c∣x)=argmaxP(x)P(c)P(x∣c),c∈y
即可求得最优的类别标记。
朴素贝叶斯详细内容可参考:https://blog.csdn.net/H_hei/article/details/84327975
仅为个人的浅显理解,欢迎大家指正交流。