nvwo ml notes logo

nvwo ml notes

Some ML notes and artice collections

AI学习应用组织.


补天研究所

  • 全部
  • 目录
  • 标签
  • Weibo
  • Github
  • Twitter
  • Google Plus
  • RSS
  • Email
  1. 反向传播算法-维基百科

    反向传播(英语:Backpropagation,缩写为BP)是“误差反向传播”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。该方法对网络中所有权重计算损失函数的梯度。这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。反向传播要求有对每个输入值想得到的已知输出,来计算损失函数梯度。因此,它通常被认为是一种监督式学习方法,虽然它也用在一些无监督网络(如自动编码器)中。它是多层前馈网络的Delta规则的推广,可以用链式法则对每层迭代计算梯度。反向传...…

    2020-04-25 • 反向传播算法 BP继续阅读

  2. 隐式狄利克雷分布-维基百科

    隐式狄利克雷分布维基百科,自由的百科全书跳到导航跳到搜索隐式狄利克雷分布(英语:LatentDirichletallocation,简称LDA),是一种主题模型,它可以将文档集中每篇文档的主题按照概率分布的形式给出。同时它是一种无监督学习算法,在训练时不需要手工标注的训练集,需要的仅仅是文档集以及指定主题的数量k即可。此外LDA的另一个优点则是,对于每一个主题均可找出一些词语来描述它。LDA首先由DavidM.Blei、吴恩达和迈克尔·I·乔丹于2003年提出[1],目前在文本挖掘领域包括文本主…

    2020-04-20 • 隐式狄利克雷分布 LDA继续阅读

  3. 最大期望算法-维基百科

    最大期望算法维基百科,自由的百科全书跳到导航跳到搜索最大期望算法(Expectation-maximizationalgorithm,又译期望最大化算法)在统计中被用于寻找,依赖于不可观察的隐性变量的概率模型中,参数的最大似然估计。在统计计算中,最大期望(EM)算法是在概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐变量。最大期望算法经常用在机器学习和计算机视觉的数据聚类(DataClustering)领域。最大期望算法经过两个步骤交替进行计算,第一步是计算期…

    2020-04-20 • 最大期望算法 EM继续阅读

  4. 主成分分析-维基百科

    主成分分析维基百科,自由的百科全书跳到导航跳到搜索一个高斯分布,平均值为(1,3),标准差在(0.878,0.478)方向上为3、在其正交方向上为1的主成分分析。黑色的两个向量是此分布的协方差矩阵的特征向量,其长度为对应的特征值之平方根,并以分布的平均值为原点。在多元统计分析中,主成分分析(英语:Principalcomponentsanalysis,PCA)是一种统计分析、简化数据集的方法。它利用正交变换来对一系列可能相关的变量的观测值进行线性变换,从而投影为一系列线性不相关变量的值,这些不相…

    2020-04-20 • 主成分分析 PCA继续阅读

  5. 隐马尔可夫模型-维基百科

    隐马尔可夫模型维基百科,自由的百科全书跳到导航跳到搜索隐马尔可夫模型状态变迁图(例子)x—隐含状态y—可观察的输出a—转换概率(transitionprobabilities)b—输出概率(outputprobabilities)隐马尔可夫模型(HiddenMarkovModel;缩写:HMM)或称作隐性马尔可夫模型,是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别。在正常的马尔可夫模型中,状态…

    2020-04-20 • 隐马尔可夫模型继续阅读

  6. 深度学习-卷积神经网络简介| Vinod Sharma的博客1

    广告举报此广告人工智能人工智能即服务–AIaaS并非您所想-机器人与人工智能区块链与人工智能并非您所想-机器人与人工智能如果不是人工智能,风险就是真实的金融科技2017年的AI和数字支付NFC–快速的金融科技银行技术付款方式付款–创新与信息安全ISO-12812使MFS轻松实现金融科技付款方式的转变影片机器学习机器学习即服务–MLaaS金融科技中的机器学习–神秘化电讯PCRF移动数据收费解放者MNO计费和计费系统移动增值服务-未来将依赖AI和数据科学演进–电信计费与收费融合计费-作为一种产品目录…

    2020-04-20 • 卷积神经网络 CNN继续阅读

  7. 深度学习的循环神经网络算法

    单击以获取免费的LSTM速成课程开始使用博客主题电子书常问问题关于联系ReturntoContent深度学习的循环神经网络算法由JasonBrownlee于2017年7月5日在LongShort-TermMemoryNetworks中鸣叫分享分享最后更新时间:2019年8月14日循环神经网络或RNN是一种人工神经网络,它为网络增加了其他权重,以在网络图中创建循环,以维护内部状态。向神经网络添加状态的承诺是,它们将能够在序列预测问题(例如具有顺序或时间分量的问题)中显式学习和利用上下文。在本文中,…

    2020-04-20 • 循环神经网络 RNN继续阅读

  8. 深度强化学习系列 第一讲 DQN - 知乎

    首发于强化学习知识大讲堂写文章深度强化学习系列第一讲DQN天津包子馅儿​机器学习话题的优秀回答者130人赞同了该文章前言:深度强化学习系列是以强化学习入门为基础的,所以在学习本系列之前,请先学习强化学习入门第一讲到第五讲。另外,深度强化学习用到了深度学习(deeplearning),本讲默认读者已经对深度学习有所了解。强化学习逐渐引起公众的注意要归功于谷歌DeepMind公司。DeepMind公司最初是由DemisHassabis,ShaneLegg和MustafaSuleyman于2010年创…

    2020-04-20 • DQN继续阅读

  9. 深度强化学习成名作——DQN - 知乎

    首发于强化学习攻略写文章深度强化学习成名作——DQN郑思座控制科学与工程在读研究生,兴趣广泛,保持一颗求知心27人赞同了该文章前言:其实很早之前就想开始写写深度强化学习(Deepreinforcementlearning)了,但是一年前DQN没调出来,没好意思写哈哈,最近呢无意中把打砖块游戏Breakout训练到平均分接近40分,最高分随便上50(虽说也不算太好,但好歹也体现了DRL的优势),于是就写写吧~提到深度强化学习的成名作,很多人可能会觉得是2016年轰动一时的AlphaGo,从大众来看…

    2020-04-20 • DQN继续阅读

  10. 强化学习——从Q-Learning到DQN到底发生了什么? - 知乎

    首发于机器学习笔记写文章强化学习——从Q-Learning到DQN到底发生了什么?野风公众号:wildwind0112人赞同了该文章1学习目标1.复习Q-Learning;2.理解什么是值函数近似(FunctionApproximation);3.理解什么是DQN,弄清它和Q-Learning的区别是什么。2用Q-Learning解决经典迷宫问题现有一个5房间的房子,如图1所示,房间与房间之间通过门连接,编号0到4,5号是房子外边,即我们的终点。我们将agent随机放在任一房间内,每打开一个房门…

    2020-04-20 • DQN继续阅读


1 / 6 更早 →
本站点采用知识共享 署名-非商业性使用-相同方式共享 4.0 国际 许可协议 由 Jekyll 于 2020-04-27 生成,感谢 Digital Ocean 为本站提供稳定的 VPS 服务 本站由 @amrf000 创建,采用 Vno - Jekyll 作为主题,您可以在 GitHub 找到本站源码 - © 2020