首页
学习
活动
专区
工具
TVP
发布

决胜机器学习

专栏作者
219
文章
274673
阅读量
104
订阅数
优化页面访问速度(一)——综述
优化页面访问速度,首先需要了解用户在浏览器输入url后,最终是如何看到所需的页面。在了解整个流程后,可以逐个步骤进行优化。
用户1327360
2018-07-27
1.1K0
优化页面访问速度(二) ——数据库优化
数据库优化,主要包括数据表设计、索引、sql语句、表拆分、数据库服务器架构等方向的优化。
用户1327360
2018-07-27
7870
优化页面访问速度(三) ——服务端优化
服务端的优化,主要可以通过消息队列、减少数据库请求(缓存)、并发处理、页面静态化等方式处理。
用户1327360
2018-07-27
5710
优化页面访问速度(四) ——前端优化
前端的优化,主要可以通过减少HTTP请求、非实时请求改异步、缓存、文件压缩、CDN加速、独立图片服务器等。
用户1327360
2018-07-27
1.3K0
动态规划算法 ——钢条切割问题
长度为n米的钢条,需要切割成x断来贩卖。假设没有切割成本,且每种长度能够销售的价格是一个确定的值(例如长度1米可以卖1元,长度2米可以卖5元,长度3米可以卖6元等)。
用户1327360
2018-07-27
7960
循环神经网络(四) ——words2vec、负采样、golve
循环神经网络(四) ——words2vec、负采样、golve (原创内容,转载请注明来源,谢谢) 一、概述 本文主要学习几种现有的流行的词嵌入算法,包括words2vec、负采样、golve,另外学
用户1327360
2018-06-07
1.1K0
循环神经网络(五) ——Bean搜索、bleu评分与注意力模型
循环神经网络(五) ——Bean搜索、bleu评分与注意力模型 (原创内容,转载请注明来源,谢谢) 一、概述 本文主要讲解机器翻译过程中涉及的算法,主要包括bean搜索算法及其改进与误差分析、bleu
用户1327360
2018-06-07
7840
卷积神经网络(二) ——LetNet-5、AlexNet、VGG-16、残差网络
卷积神经网络(二) ——LetNet-5、AlexNet、VGG-16、残差网络 (原创内容,转载请注明来源,谢谢) 一、概述 本文主要介绍几种卷积网络模型,学习它们的结构、组成、特点等。 二、Let
用户1327360
2018-03-29
2.6K0
卷积神经网络(三) ——inception网络、迁移学习
卷积神经网络(三) ——inception网络、迁移学习 (原创内容,转载请注明来源,谢谢) 一、Inception网络 1、简介 前面的文章中,有各种的卷积模型可以选择,而具体如何选择各种模型,实际
用户1327360
2018-03-29
1.6K0
卷积神经网络(四) ——目标检测与YOLO算法
卷积神经网络(四) ——目标检测与YOLO算法 (原创内容,转载请注明来源,谢谢) 一、概述 目标检测,主要目的是在图片中,分类确认是否有需要的物体,如果有则标出对应的物体。 二、目标定位 目标定位(
用户1327360
2018-03-29
5.3K0
卷积神经网络(五) ——面部验证与神经风格转换
卷积神经网络(五) ——面部验证与神经风格转换 (原创内容,转载请注明来源,谢谢) 一、概述 本文主要讨论面部验证和神经风格转换两种技术,都是CNN的实际应用。 二、面部验证 1、人脸识别与面部验证
用户1327360
2018-03-29
6610
循环神经网络(一) ——循环神经网络模型与反向传播算法
循环神经网络(一) ——循环神经网络模型与反向传播算法 (原创内容,转载请注明来源,谢谢) 一、概述 这一章开始讲循环神经网络(RNN,Recurrent Neural Network),是与卷积神经
用户1327360
2018-03-29
8280
循环神经网络(二) ——GRU、LSTM、BRNN、deep RNN
循环神经网络(二) ——GRU、LSTM、BRNN、deep RNN (原创内容,转载请注明来源,谢谢) 一、概述 本文主要讲述RNN的其他结构,这些结构比RNN更常用,而且对于自然语言处理,有更高效
用户1327360
2018-03-29
3.2K0
循环神经网络(三) ——词嵌入学习与余弦相似度
循环神经网络(三) ——词嵌入学习与余弦相似度 (原创内容,转载请注明来源,谢谢) 一、词汇表征 1、one-hot表示法 之前的学习中提到过,对于词汇库,可以用one-hot表示法来表示。即,假设词汇库单词量是10000个单词,则可以用1*10000的矩阵来表示每个单词,单词在对应词汇表中的位置是1,其他位置是0。 如man是第5391个单词,则矩阵为[0 0 0 ... 0 0 1 0 0 ... 0]T,这里的1就是在矩阵的第5391个位置。 这样做有个缺点,即词语之间无法建立任何联系,只有自身的位置
用户1327360
2018-03-29
1.3K0
深层神经网络参数调优(四) ——adam算法、α衰减与局部最优
深层神经网络参数调优(四)——adam算法、α衰减与局部最优 (原创内容,转载请注明来源,谢谢) 一、概述 本文主要讲解另外一种思想的梯度下降——adam,并且在此之前介绍动量梯度下降和RMSprop算法作为前置内容。 另外,本文讲到学习速率衰减方式,以及局部最优和鞍点问题等。 二、动量梯度下降法 1、当前问题 mini-batch、随机梯度下降等,在优化每个w和b时,是会优化一个部分最优值,故容易出现抖动,导致优化速度慢。因此可以结合接下来的算法,来加快学习速度。 2、主要思想 将一
用户1327360
2018-03-07
2.6K0
深层神经网络参数调优(三) ——mini-batch梯度下降与指数加权平均
深层神经网络参数调优(三)——mini-batch梯度下降与指数加权平均 (原创内容,转载请注明来源,谢谢) 一、mini-batch梯度下降 1、概述 之前提到的梯度下降,每优化一次的w和b,都要用到全部的样本集,把其称为批量梯度下降(batch),这里提出一个与其相对应的概念,叫做mini梯度下降。 mini-batch的目的,也是为了获取最优化代价函数的情况下的w和b,其主要改进的问题在于:当样本集数量太大,如果每次遍历整个样本集才完成一次的更新w和b,那运行时间太长。 2、主要做
用户1327360
2018-03-07
1.8K0
深层神经网络参数调优(二) ——dropout、题都消失与梯度检验
深层神经网络参数调优(二)——dropout、题都消失与梯度检验 (原创内容,转载请注明来源,谢谢) 一、dropout正则化 中文是随机失活正则化,这个是一种正则化的方式,之前学过L1、L2正则化,这个则是另一种思想的正则化。dropout,主要是通过随机减少一些神经元,来实现减少w和b,实现防止过拟合的。 1、主要做法 假设一个概率阈值p,对于神经网络中的所有神经元,在每一次FP、BP的时候,都有p的概率会被保留下来。没有被保留下来的神经元,则不参与本次的运算,即不接收输入,也不输出结果。 2、具体
用户1327360
2018-03-07
1.2K0
深层神经网络参数调优(一) ——方差、偏差与正则化
深层神经网络参数调优(一)——方差、偏差与正则化 (原创内容,转载请注明来源,谢谢) 一、概述 现在来到ng【深层神经网络参数调优】专题的学习,这部分主要是对深度学习过程中,需要涉及到的参数、超参数的调优的方法与技巧。 二、样本集的使用 1、三个集 在深度学习中,为了检验算法的效果,通常会设置训练集、验证集和测试集。 训练集用来训练分类器,得到最低代价函数情况下,各层网络对应的w、b。 验证集用来调试的,目的是为了获得最优的超参数,如学习速率α、正则化因子λ等。 测试集用来验证训练集得到的结果,确认错
用户1327360
2018-03-07
1.5K0
神经网络和深度学习(五) ——深层神经网络基础
神经网络和深度学习(五)——深层神经网络基础 (原创内容,转载请注明来源,谢谢) 一、概述 本文是对深层神经网络的基础,主要讨论深层神经网络的算法、公式推导以及一些注意事项。 首先,符号表示上和之
用户1327360
2018-03-07
1.4K0
神经网络和深度学习(四) ——浅层神经网络的激活函数与反向传播
神经网络和深度学习(四)——浅层神经网络的激活函数与反向传播 (原创内容,转载请注明来源,谢谢) 一、神经网络的表示 复习一下神经网络的表示,其主要是将单层的多个神经元,整合到一个矩阵中,调用nu
用户1327360
2018-03-07
1.5K0
点击加载更多
社区活动
Python精品学习库
代码在线跑,知识轻松学
热点技术征文第五期
新风口Sora来袭,普通人该如何把握机会?
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档