0
三种原因
1.朴素贝叶斯更简单。你可以在几个小时内实现它,并且没有要调整的参数(大概唯一需要调整的就是如何表示连续值)。它很容易计算。训练很简单。
相比之下,神经网络很复杂,要设定很多,隐藏层,拓扑,反向传播和变体等。
2.增量可更新。你可以轻松快速地更新Naive Bayes算法。这只需对参数进行细微调整。理论上,神经网络需要在单个实例后进行重新训练。
可以使它们递增,但是与对整个数据集进行再训练相比,不能保证它们是最佳的。
3.可以处理大量的属性和类。Naive Bayes已被证明可以处理大量的属性(例如,用于文本分类的词袋);对于类别也是如此。
[注意:还有其他使用神经网络的原因,但我的重点是为什么朴素贝叶斯仍然值得考虑]
更新:有人建议在违反独立性假设时不应使用朴素贝叶斯。令人惊讶的是,事实证明,独立性假设对于朴素贝叶斯来说并不是一个不好的事情,并且仍然可以很好地工作,特别是在用作分类器时,而不是用于估计正确性的实际可能性时。
收藏