首页
学习
活动
专区
工具
TVP
发布

云时之间

机器学习新兵经验合集,经济金融学习经验汇总
专栏作者
237
文章
241272
阅读量
67
订阅数
NLP系列学习:潜在语义牵引
关于主题模型这一块是比较特殊的,这期间也给我带来了一些困惑,因为其中的一些算法和我们在机器学习中使用的算法还是很不同的,在这篇文章里,我想简单介绍下LSI(潜在语义牵引)
云时之间
2018-12-06
5010
NLP系列学习:CNN文本分类
这一篇文章主要是记录下自己阅读《Convolutional Neural Networks for Sentence Classification》这篇文章思路的一个整理。这篇文章也可以算是CNN用于文本分类的开山之作了,尽管第一个使用CNN进行文本分类的不是Yoon Kim,但是Kim在这篇文章里提出来不少的方法,并且调参的过程也很详细,这些是我们应该学习的。
云时之间
2018-08-17
5760
深度学习与神经网络:调用数据集,完成应用(2)
在上一篇文章中,我们通过使用mnist上的图片和标签数据来去制作数据集,而今天这一篇文章我们将在反向传播过程中和测试过程中调用数据集. 一:反向传播获取文件(mnist_backward.py) 先上
云时之间
2018-07-11
2980
深度学习与神经网络:基于自建手写字体数据集上的模型测试
在上一篇文章中,我们使用mnist数据集去做了一个识别的小型神经网络,在今天的这篇文章里,我们将要通过使用自建数据集去检验上一篇文章的模型,从而真正的可以去应用神经网络. 先解决上一篇文章中一些不完美
云时之间
2018-07-04
4355
深度学习与TensorFlow:FCN论文翻译(三)
We test our FCN on semantic segmentation and scene parsing, exploring PASCAL VOC, NYUDv2, and SIFT Flow. Although these tasks have historically distinguished between objects and regions, we treat both uniformly as pixel prediction. We evaluate our FCN skip architecture on each of these datasets, and then extend it to multi-modal input for NYUDv2 and multi-task prediction for the semantic and geometric labels of SIFT Flow.
云时之间
2018-06-23
8760
深度学习与神经网络:AIC,BIC,L1,L2
在学习深度学习时,我们经常会听到AIC, BIC 还有l1, lasso 等regularization 的知识。 但是随之产生了一些问题,其中一个就是AIC,BIC和l1,l2的应用场景是不是相同或者有重叠的地方? 首先先让我们思考两个问题 1)实现参数的稀疏有什么好处吗? 一个好处是可以简化模型,避免过拟合。因为一个模型中真正重要的参数可能并不多,如果考虑所有的参数起作用,那么可以对训练数据可以预测的很好,但是对测试数据就只能呵呵了。另一个好处是参数变少可以使整个模型获得更好的可解释性。 2)参数值越小
云时之间
2018-06-20
7660
深度学习与TensorFlow:VGG论文复现
上一篇文章我们介绍了下VGG这一个经典的深度学习模型,今天便让我们通过使用VGG开源的VGG16模型去复现一下该论文. 话不多说,直接上代码: 一:了解结构 上述文件便是我们复现VGG时候的所有文件,
云时之间
2018-06-12
9563
深度学习与TensorFlow:VGG论文复现
上一篇文章我们介绍了下VGG这一个经典的深度学习模型,今天便让我们通过使用VGG开源的VGG16模型去复现一下该论文.
云时之间
2018-06-09
4.6K1
深度学习与神经网络:调用数据集,完成应用(2)
在上一篇文章中,我们通过使用mnist上的图片和标签数据来去制作数据集,而今天这一篇文章我们将在反向传播过程中和测试过程中调用数据集.
云时之间
2018-05-23
6123
深度学习与神经网络:基于自建手写字体数据集上的模型测试
在上一篇文章中,我们使用mnist数据集去做了一个识别的小型神经网络,在今天的这篇文章里,我们将要通过使用自建数据集去检验上一篇文章的模型,从而真正的可以去应用神经网络.
云时之间
2018-05-15
1.5K0
译 理解RNN和LSTM网络
循环神经网络(RNN) 人们的每次思考并不都是从零开始的。比如说你在阅读这篇文章时,你基于对前面的文字的理解来理解你目前阅读到的文字,而不是每读到一个文字时,都抛弃掉前面的思考,从头开始。你的记忆是有持久性的。 传统的神经网络并不能如此,这似乎是一个主要的缺点。例如,假设你在看一场电影,你想对电影里的每一个场景进行分类。传统的神经网络不能够基于前面的已分类场景来推断接下来的场景分类。 循环神经网络(Recurrent Neural Networks)解决了这个问题。这种神经网络带有环,可以将信息持久化。在
云时之间
2018-04-11
6530
什么是LSTM
哈喽,大家好,上一次我们了解了什么是卷积神经网络RNN,然后我又加上了我翻译的那一篇文章来简述了一下RNN和LSTM,今天,让我们来详细的了解下什么是LSTM。 首先提到RNN呢,我们自然会想到RNN所带来的弊端,因此人们为了解决这个弊端,因此人们引入了我们今天所要了解的对象LSTM。 LSTM是long short term memory的一种简称,中文名字呢又叫做长短期记忆,这是现在最流行的RNN的计算方式的其中的一种,在上一篇文章中,我介绍过RNN是在有序的数据中进行学习的,为了记住这些数据,RNN
云时之间
2018-04-11
1.1K0
对交叉验证的一些补充(转)
交叉验证是一种用来评价一个统计分析的结果是否可以推广到一个独立的数据集上的技术。主要用于预测,即,想要估计一个预测模型的实际应用中的准确度。它是一种统计学上将数据样本切割成较小子集的实用方法。于是可以先在一个子集上做分析, 而其它子集则用来做后续对此分析的确认及验证。 交叉验证的理论是由Seymour Geisser所开始的。 它对于防范testing hypotheses suggested by the data是非常重要的, 特别是当后续的样本是危险、成本过高或不可能(uncomfortable s
云时之间
2018-04-11
8350
支持向量机的简单理解
各位小伙伴们大家好,这几天弱弱的看了看老掉牙的支持向量机(Support Vector Machine, SVM)与支持向量回归(Support Vector Regression, SVR),发现知道的太少太弱了,基础知识要好好补一补。 SVM的原理参考 http://en.wikipedia.org/wiki/Support_vector_machine http://zh.wikipedia.org/wiki/%E6%94%AF%E6%8C%81%E5%90%91%E9%87%8F%E6%9C%BA
云时之间
2018-04-11
1.1K0
支持向量机笔记
本来要写支持向量机(SVM)的,后来又读了遍《统计方法学习》,还是等等吧,我现在理解黄老师说为什么很多人不能够理解SVM,这东西得悟,说简单也简单,说难也难。。 分享下关于支持向量机的笔记~
云时之间
2018-04-11
5710
网易面试题-间隔分类器
为什么选择最大间隔分类器,请从数学的角度说明?
云时之间
2018-04-11
6250
NLP系列学习:常用的语言平滑模型
语言模型常见的平滑算法就那几种,一般的教程都不提分几种的模式、分类。 不过在MIT的NLP课程ppt中总结说有三种模式:Discounting, Interpolationg, Back-off 有关这三种模式的描述可以见其PPT(http://people.csail.mit.edu/regina/6864/lec2-2.pdf) Discounting类包括: Add-One Smoothing(加法平滑) Good-Turing Discounting(图灵平滑) Katz Smoothing In
云时之间
2018-04-11
9460
机器学习面试题(二):微博天气预测
题目的要求是: 已知且仅知全国所有城市距今千年来的每天(包括今天)最高最低气温,阴晴雨雪和风力风向,要预测明天北京的最高气温,请详述如何构造样本点和几大类特征会使得预测会很准已知且仅知全国所有城市距今千年来的每天(包括今天)最高最低气温,阴晴雨雪和风力风向,要预测明天北京的最高气温,请详述如何构造样本点和几大类特征会使得预测会很准确。 我们首先从业务系统来去考虑,天气系统这样的强时序性系统最本质的特点其实是有很大的时空局限性和相互作用的局域性,时间和空间以及地域都会对天气的预测产生很大的影响.而我们要去做一
云时之间
2018-04-11
8150
没有更多了
社区活动
RAG七天入门训练营
鹅厂大牛手把手带你上手实战
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档