特征选择算法中包裹式选择的原理是什么?
0 1470
0
该提问暂无详细描述
收藏
2021-02-01 17:00 更新 空心人 •  3374
共 1 个回答
高赞 时间
0

与过滤式特征选择不考虑后续学习器不同,包裹式特征选择直接把最终将要使用的学习器的性能作为特征子集的评价准则。换言之,包裹式特征选择的目的就是为给定学习器选择最有利于其性能、“量身定做”的特征子集 一般而言,由于包裹式特征选择方法直接针对给定学习器进行优化,因此从最终学习器性能来看,包裹式特征选择比过滤式特征选择更好 但另一方面,由于过滤式特征选择过程中需要多次训练学习器,因此包裹式特征选择的计算开销通常比过滤式特征选择大得多。

LVW算法

LVW是一个典型的包裹式特征选择方法。他在拉斯维加斯方法光加下使用随即策略来进行子集搜索,并以最终分类器的误差为特征子集评价准则。算法描述如下: 该算法第八行是通过在数据集D上,使用交叉验证法来估计学习器的误差,注意这个误差实在仅考虑特征子集A‘时得到的,即特征子集A’上的误差,若它比当前特征子集A上的误差更小,或误差相当但A‘中包含的特这个数更少,则A’将保留下来。 需要注意的是,由于LVW算法中特征子集搜索采用了随即策略,而每次特征子集评价都需要训练学习器,计算开销很大,因此算法设置了停止条件控制参数T。 然而,整个LVW算法是基于拉斯维加斯算法框架,若初始特征数很多(即|A|很大)、T设置较大,则算法可能运行很长时间都达不到停止条件。

收藏
2021-02-01 17:04 更新 小眼的铁板烧 •  3524