课程介绍
K-means算法:“k-means”最早是由James MacQueen在1967年提出的。这一观点能够追溯到1957年Hugo Steinhaus所提出的想法。1957年。斯图亚特·劳埃德最先提出这一标准算法,当初是作为一门应用于脉码调制的技术,直到1982年,这一算法才在贝尔实验室被正式提出。1965年。E.W.Forgy发表了一个本质上是同样的方法。1975年和1979年。HarTIgan和Wong分别提出了一个更高效的版本号。
朴素贝叶斯算法:贝叶斯分类的基础是概率推理。就是在各种条件的存在不确定。仅知其出现概率的情况下,怎样完毕推理和决策任务。概率推理是与确定性推理相相应的。而朴素贝叶斯分类器是基于独立如果的,即如果样本每一个特征与其它特征都不相关。举个样例,如果一种水果其具有红。圆,直径大概4英寸等特征。该水果能够被判定为是苹果。
K最近邻分类算法(KNN):是一个理论上比较成熟的的方法,也是最简单的机器学习方法之一。K近期邻(k-Nearest Neighbor。KNN)分类算法。是一个理论上比較成熟的方法。也是最简单的机器学习算法之中的一个。该方法的思路是:假设一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
EM*期望算法:*期望算法(Expectation-maximization algorithm。又译期望*化算法)在统计中被用于寻找,依赖于不可观察的隐性变量的概率模型中,參数的*似然预计。在统计计算中,*期望(EM)算法是在概率模型中寻找參数*似然预计或者*后验预计的算法。当中概率模型依赖于无法观測的隐藏变量(Latent Variable)。*期望经经常使用在机器学习和计算机视觉的数据聚类(Data Clustering)领域。
PageRank算法:是google的重要内容。网页排名,又称网页级别、Google左側排名或佩奇排名,是一种由搜索引擎依据网页之间相互的超链接计算的技术,而作为网页排名的要素之中的一个,以Google公司创办人拉里·佩奇(Larry Page)之姓来命名。Google用它来体现网页的相关性和重要性,在搜索引擎优化操作中是常常被用来评估网页优化的成效因素之中的一个。Google的创始人拉里·佩奇和谢尔盖·布林于1998年在斯坦福大学发明了这项技术。
AdaBoost:是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器然后把弱分类器集合起来,构成一个更强的最终分类器。AdaBoost。是英文“Adaptive Boosting”(自适应增强)的缩写,是一种机器学习方法。由Yoav Freund和Robert Schapire提出。AdaBoost方法的自适应在于:前一个分类器分错的样本会被用来训练下一个分类器。AdaBoost方法对于噪声数据和异常数据非常敏感。但在一些问题中。AdaBoost方法相对于大多数其他学习算法而言。不会非常easy出现过拟合现象。
Apriori算法:是一种最有影响的挖掘布尔关联规则频繁项集的算法。Apriori算法是种最有影响的挖掘布尔关联规则频繁项集的算法。它的核心是基于两阶段频集思想的递推算法。该关联规则在分类上属于单维、单层、布尔关联规则。在这里,全部支持度大于最小支持度的项集称为频繁项集(简称频集),也常称为*项目集。
SVM支持向量机:一种监督式学习的方法,广泛运用于统计分类以及回归分析中支持向量机,英文为Support Vector Machine,简称SV机(论文中一般简称SVM)。它是一种监督式学习的方法,它广泛的应用于统计分类以及回归分析中。支持向量机属于一般化线性分类器。他们也可以觉得是提克洛夫规范化(TIkhonov RegularizaTIon)方法的一个特例。这族分类器的特点是他们可以同一时候最小化经验误差与*化几何边缘区。
CART分类与回归树:分类与回归树,在分类树下面有两个关键的思想,*个是关于递归地划分自变量空间的想法,第二个是用验证数据进行减枝。决策树生长的核心是确定决策树的分枝准则。