以下是我最常用的几种算法和模型: Perceptron算法: Rosenblatt及其同事在上世纪50年代开发了这种极其简单的算法,可以将其视为当今一些最成功的分类器的基础,包括支持向量机和logistic回归,它使用随机梯度下降法对其进行求解。 Perceptron算法的收敛性证明是我在ML中看到的最精美的数学作品之一。 增强(尤其是增强的决策树): 这种直观的方法允许通过组合许多简单模型来构建高度准确的ML模型。 Boosting是ML中最实用的方法之一,在业界广泛使用,可以处理多种数据类型,并且可以大规模实施。我建议你查看XGBoost学习真正可扩展的增强树实现方法。 深度学习的卷积神经网络: 这种神经网络自80年代初就出现了,尽管从90年代末到2000年代末期,它的应用频率有所下降,但在过去的5年中它卷土重来。卷积神经网络构成了深度学习模型的核心,尤其是在计算机视觉和语音识别方面,这些模型已经产生了巨大的影响。 动态规划(例如,Viterbi,前后向,变量消除和置信传播算法): 动态规划是计算机科学中最有用的算法技术之一,它能使你在指数级的空间中搜索来找到可选解决方案。该思想已在ML中以各种方式应用,尤其是图形模型(例如隐马尔可夫模型,贝叶斯网络和马尔可夫网络)。 最近邻算法: 通常,当尝试写论文时,你想表明“你的曲线比我的曲线更好”。做到这一点的一种方法是引入基线法,并证明你的方法更加准确。而最邻近的邻居是最简单的实施基准,因此人们通常会首先尝试它。实际上,如果你有足够的数据,最近邻算法将非常强大!而且,这种方法在实践中真的很有用。
转载自 Carlos Guestrin 亚马逊计算机科学机器学习教授,首席执行官