-
核主成分分析 - 维基百科
核主成分分析维基百科,自由的百科全书跳到导航跳到搜索核主成分分析(英语:kernelprincipalcomponentanalysis,简称kernelPCA)是多变量统计领域中的一种分析方法,是使用核方法(英语:)对主成分分析的非线性扩展,即将原数据通过核映射到再生核希尔伯特空间(英语:)后再使用原本线性的主成分分析。[1]目录1背景:线性主成分分析2引入核方法3大数据集4示例5应用6参考文献背景:线性主成分分析线性PCA对于中心化后的数据进行分析,即1N∑i=1Nxi=0{\display…
-
概率图模型 - 维基百科
概率图模型维基百科,自由的百科全书跳到导航跳到搜索在概率论、统计学及机器学习中,概率图模型(GraphicalModel)是用图论方法以表现数个独立随机变量之关联的一种建模法。一个p{\displaystylep}个节点的图中,节点i{\displaystylei}对应一个随机变量,记为Xi{\displaystyleX_{i}}。概率图模型被广泛地应用于贝叶斯统计与机器学习中。目录1有向和无向概率图模型的定义2数据类型及研究课题3参见4参考资料有向和无向概率图模型的定义在一个无向概率图模型(U…
-
层次聚类 - 维基百科
层次聚类维基百科,自由的百科全书跳转到导航跳转到搜索在数据挖掘和统计中,层次聚类(也称为层次聚类分析或HCA)是一种聚类分析的方法,旨在建立聚类的层次。层次集群的策略通常分为两种:[1]聚集的:这是一种“自下而上”的方法:每个观察都从其自己的群集开始,并且随着一个群集向上移动,群集对将合并。分开的:这是一种“自上而下”的方法:所有观察都在一个簇中开始,并且随着一个人在层次结构中向下移动,递归执行拆分。通常,合并和拆分以贪婪的方式确定。层次聚类的结果[2]通常以树状图表示。分层聚集聚类(HAC)的…
-
等距特征映射 - 维基百科
等距特征映射维基百科,自由的百科全书跳到导航跳到搜索等距特征映射是一个非线性降维方法,被广泛使用的低维嵌入方法之一。[1]等距特征映射被用来计算准等距的高维数据到低维的嵌入方法。算法通过将每个数据点和临近的数据点连接构成图,用图论中的dijkstra距离来估计流形的测地距离。等距特征映射十分高效,可以广泛的应用到各种来源和维数不同的数据。目录1导言2运算法则3ISOMAP的拓展4可能问题5与其他的方法的关系6参见7参考资料8外部链接导言Isomap是保距映射算法的代表之一,是通过一个带权图引入测…
-
DQN深度Q网络-Jonathan Hui-中
@font-face{font-family:'medium-content-serif-font';font-weight:400;font-style:italic;src:url(data:application/font-woff;base64,d09GRgABAAAAAEAkABEAAAAAd1AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAABHUE9TAAA57AAABYsAABecCjIFpkdTVUIAAD94AAAArAAAATj9a/zxT1MvMgAALog…
-
Recurrent Neural Networks - Towards Data Science
水…
-
OPTICS - 维基百科
OPTICS维基百科,自由的百科全书跳到导航跳到搜索OPTICS(英语:Orderingpointstoidentifytheclusteringstructure)是由MihaelAnkerst,MarkusM.Breunig,Hans-PeterKriegel和JörgSander提出的基于密度的聚类分析算法。[1]OPTICS并不依赖全局变量来确定聚类,而是将空间上最接近的点相邻排列,以得到数据集合中的对象的线性排序。[2]排序后生成的序列存储了与相邻点之间的距离,并最终生成了一个dend…
-
mcculloch-pitts-neuron-vs-perceptron-model
@font-face{font-family:'medium-content-serif-font';font-weight:400;font-style:normal;src:url(data:application/font-woff;base64,d09GRgABAAAAAHtkABEAAAABJlgAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAABHUE9TAAB2zAAABFgAABM+/5UfHEdTVUIAAHskAAAAPgAAAEweFjR5T1MvMgAAaQA…
-
K-近邻算法 - 维基百科
K-近邻算法维基百科,自由的百科全书跳到导航跳到搜索在模式识别领域中,最近邻居法(KNN算法,又译K-近邻算法)是一种用于分类和回归的非参数统计方法[1]。在这两种情况下,输入包含特征空间(英语:)(FeatureSpace)中的k个最接近的训练样本。在k-NN分类中,输出是一个分类族群。一个对象的分类是由其邻居的“多数表决”确定的,k个最近邻居(k为正整数,通常较小)中最常见的分类决定了赋予该对象的类别。若k=1,则该对象的类别直接由最近的一个节点赋予。在k-NN回归中,输出是该对象的属性值。…
-
Illustrated Guide to Recurrent Neural Networks - Towards Data Science
Youhaveonefreestoryleftthismonth.UpgradeforunlimitedaccessOpeninappUpgradeDataScienceMachineLearningProgrammingVisualizationAIVideoAboutContributeTophighlightIllustratedGuidetoRecurrentNeuralNetworksUnderstandingtheIntuitionMichaelNguyenFollowSep20,2…