-
提升方法-维基百科
提升方法维基百科,自由的百科全书跳到导航跳到搜索提升方法(Boosting),是一种可以用来减小监督式学习中偏差的机器学习算法。面对的问题是迈可·肯斯(MichaelKearns)提出的:[1]一组“弱学习者”的集合能否生成一个“强学习者”?弱学习者一般是指一个分类器,它的结果只比随机分类好一点点;强学习者指分类器的结果非常接近真值。目录1提升算法2批评3相关条目4实现5参考文献5.1脚注5.2其他参考资料6外部链接提升算法大多数提升算法包括由迭代使用弱学习分类器组成,并将其结果加入一个最终的成…
-
长短期记忆 - 维基百科
长短期记忆维基百科,自由的百科全书跳到导航跳到搜索长短期记忆(英语:LongShort-TermMemory,LSTM)是一种时间循环神经网络(RNN)[1],论文首次发表于1997年。由于独特的设计结构,LSTM适合于处理和预测时间序列中间隔和延迟非常长的重要事件。LSTM的表现通常比时间循环神经网络及隐马尔科夫模型(HMM)更好,比如用在不分段连续手写识别上[2]。2009年,用LSTM构建的人工神经网络模型赢得过ICDAR手写识别比赛冠军。LSTM还普遍用于自主语音识别,2013年运用TI…
-
自编码器 - 维基百科
自编码器维基百科,自由的百科全书跳到导航跳到搜索一个具有3个全连接隐藏层的自动编码器网络结构。自编码,也称自动编码器,是一种人工神经网络,在无监督学习中用于有效编码。自编码的目的是对一组数据学习出一种表示(也称表征,编码),通常用于降维。最近,自编码的概念广泛地用于数据的生成模型。[1][2]自2010年以来,一些先进的人工智能在深度学习网络中采用了采用堆叠式稀疏自编码。[3]结构另见表征学习参考Auto-EncodingVariationalBayes,Kingma,D.P.andWellin…
-
逻辑回归-维基百科
逻辑回归维基百科,自由的百科全书跳转到导航跳转到搜索在统计中,逻辑模型(或logit模型)用于对特定类别或事件(例如通过/失败,胜利/失败,生死/健康或生病)的概率进行建模。这可以扩展为对几类事件建模,例如确定图像是否包含猫,狗,狮子等。图像中被检测到的每个对象都将被分配一个介于0和1之间的概率,并且其总和加一。Logistic回归是一种统计模型,其基本形式是使用Logistic函数对二进制因变量进行建模,尽管存在许多更复杂的扩展。在回归分析中,逻辑回归[1](或logit回归)正在估计逻辑模型…
-
支持向量机 - SVM
支持向量机维基百科,自由的百科全书跳到导航跳到搜索在机器学习中,支持向量机(英语:supportvectormachine,常简称为SVM,又名支持向量网络[1])是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法创建一个将新的实例分配给两个类别之一的模型,使其成为非概率二元(英语:)线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例…
-
感知器 - Perceptron
感知器维基百科,自由的百科全书跳到导航跳到搜索关于与“感知器”名称相近或相同的条目,请见“”。感知器(英语:Perceptron)是FrankRosenblatt在1957年就职于康奈尔航空实验室(CornellAeronauticalLaboratory)时所发明的一种人工神经网络。它可以被视为一种最简单形式的前馈神经网络,是一种二元线性分类器。FrankRosenblatt给出了相应的感知机学习算法,常用的有感知机学习、最小二乘法和梯度下降法。譬如,感知机利用梯度下降法对损失函数进行极...…