0
朴素的贝叶斯分类器是贝叶斯分类器的近似值,其中我们假设要素在给定类别的情况下是条件独立的,而不是在给定类别的情况下对特征的完整条件分布进行建模。
最好将贝叶斯分类器解释为决策规则。假设我们试图在给定特征向量的情况下估计(“分类”)观察的类别。
表示班级C和特征向量(F1,F2,…,Fk)。表示C类和特征向量(F1,F2,...,Fk)。 给定一个数据的概率模型(即给定(C,F1,F2,...,Fk)的联合分布),Bayes分类函数通过将给定观测特征的类的最大概率来选择一个类:argmaxc P(C=c∣F1=f1,…,Fk=fk)
尽管这听起来似乎是一个非常简单的解决方案,但之所以使用“贝叶斯分类器”这个名字是因为该方法所基于的决策理论:当存在分类错误的可能性时,贝叶斯分类器可将损失降至最低。
虽然Bayes分类器似乎很有吸引力,但在实践中,P(C=c∣F1=F1、...、FK=FK)的数据很难计算。
我们可以通过应用Bayes定理,忽略得到的分母,使它变得更简单的一个常数。
然后我们有稍微好的 P(C=c)P(F1=f1,...,fk=fk∣c),
但这往往仍然是棘手的:需要大量的观测来估计这些条件分布,随着k的增加(维数的增加),这会变得更糟;如果数据中存在从未观察到特定的特征组合呢?
因此,我们假设 P(F1=F1,...,Fk=Fk∣C=c) ≈∏Ki=1P(Fi=FI∣C=c)。
这是一个相当粗略的近似,但在实践中,它的工作效果令人惊讶。
将其替换为Bayes分类器产生朴素Bayes分类器: Argmaxc P(C=c)∏Ki=1P(FI=FI,C=c)。
收藏