0
回归
回归技术使用训练数据预测单个输出值。
示例:可以使用回归从训练数据预测房价。输入变量是位置,房屋大小等。
优点:输出始终具有概率解释,可以对算法进行正则化以避免过拟合。
缺点:当存在多个或非线性决策边界时,逻辑回归可能表现不佳。此方法不灵活,因此无法捕获更复杂的关系。
1、逻辑回归:
基于给定的一组独立变量来估计离散值的逻辑回归方法。通过将数据拟合到logit函数,可以预测事件发生的可能性。因此,这也称为逻辑回归。当它预测概率时,其输出值在0到1之间。
分类
分类是将输出分组到一个类中。如果该算法尝试将输入标记为两个不同的类,则称为二进制分类。在两个以上的类别之间进行选择称为多类别分类。
示例:确定某人是否将成为该笔贷款的拖欠人。
优点:分类树在实践中表现很好
缺点:不受约束的单个树很容易过度拟合。
1、朴素贝叶斯分类器
朴素贝叶斯模型(NBN)易于构建,对于大型数据集非常有用。此方法由具有一个父级和几个子级的直接非循环图组成。它假设与父节点分离出的子节点之间具有独立性。
2、决策树
决策树基于特征值对实例进行分类。在这种方法中,每种模式都是实例的功能。应该对其进行分类,并且每个分支都代表节点可以假定的值。这是一种广泛使用的分类技术。在这种方法中,分类称为决策树的树。
它可以估算实际价值(购买汽车的成本,通话次数,每月总销售额等)。
3、支持向量机
支持向量机(SVM)是1990年开发的一种学习算法。该方法基于Vap Nik引入的统计学习理论的结果。
SVM机器还与内核功能紧密相连,这是大多数学习任务的核心概念。内核框架和SVM被用于许多领域。它包括多媒体信息检索,生物信息学和模式识别。
收藏