腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
小小挖掘机
专栏成员
举报
516
文章
918331
阅读量
237
订阅数
订阅专栏
申请加入专栏
全部文章(516)
编程算法(162)
神经网络(141)
深度学习(138)
机器学习(131)
人工智能(93)
推荐系统(68)
https(59)
python(52)
其他(41)
网络安全(40)
数据分析(31)
强化学习(27)
github(20)
tensorflow(17)
NLP 服务(15)
numpy(15)
决策树(14)
大数据(14)
特征工程(12)
数据挖掘(11)
spark(11)
hive(11)
embedding(11)
ide(10)
开源(10)
sql(9)
git(9)
卷积神经网络(9)
批量计算(8)
监督学习(8)
pytorch(8)
搜索引擎(7)
linux(7)
腾讯云测试服务(7)
http(7)
正则表达式(7)
数据结构(7)
java(6)
matlab(6)
黑石物理服务器(6)
存储(6)
windows(6)
css(5)
数据库(5)
api(5)
线性回归(5)
keras(5)
费用中心(4)
scala(4)
html(4)
jquery(4)
文件存储(4)
知识图谱(4)
游戏(4)
分布式(4)
layer(4)
self(4)
javascript(3)
xml(3)
打包(3)
mapreduce(3)
图像处理(3)
电商(3)
tcp/ip(3)
机器人(3)
系统架构(3)
excel(3)
field(3)
model(3)
prediction(3)
c 语言(2)
c++(2)
json(2)
unix(2)
apache(2)
容器镜像服务(2)
serverless(2)
爬虫(2)
hadoop(2)
markdown(2)
scikit-learn(2)
迁移学习(2)
微服务(2)
腾讯云开发者社区(2)
信息流(2)
label(2)
map(2)
matching(2)
search(2)
task(2)
vi(2)
vr(2)
笔记(2)
编码(2)
公众号(2)
流量(2)
论文(2)
iphone(1)
bash(1)
.net(1)
r 语言(1)
bootstrap(1)
android(1)
云数据库 SQL Server(1)
nosql(1)
jar(1)
ubuntu(1)
bash 指令(1)
日志服务(1)
短视频(1)
机器翻译(1)
mongodb(1)
网站(1)
vr 视频解决方案(1)
yarn(1)
容器(1)
缓存(1)
运维(1)
shell(1)
图像识别(1)
面向对象编程(1)
opencv(1)
openstack(1)
unity(1)
二叉树(1)
scrapy(1)
kernel(1)
uml(1)
数据可视化(1)
架构设计(1)
sas(1)
hbase(1)
云计算(1)
聚类算法(1)
分类算法(1)
flink(1)
学习方法(1)
Elasticsearch Service(1)
智能推荐平台(1)
alignment(1)
amazon(1)
backbone(1)
command(1)
cookie(1)
correlation(1)
decoding(1)
document(1)
dynamic(1)
effects(1)
element(1)
encoding(1)
error(1)
gif(1)
glob(1)
graph(1)
im(1)
image(1)
key(1)
mac(1)
mask(1)
matplotlib(1)
matrix(1)
mean(1)
module(1)
network(1)
next(1)
pdf(1)
png(1)
point(1)
ranking(1)
select(1)
selection(1)
selector(1)
session(1)
sharing(1)
size(1)
spaces(1)
target(1)
theory(1)
time(1)
youtube(1)
编辑器(1)
产品(1)
架构(1)
排序(1)
思维导图(1)
系统(1)
搜索文章
搜索
搜索
关闭
Batch Normalization的诅咒
批量计算
深度学习
神经网络
机器学习
人工智能
Batch Normalization确实是深度学习领域的重大突破之一,也是近年来研究人员讨论的热点之一。Batch Normalization是一种被广泛采用的技术,使训练更加快速和稳定,已成为最有影响力的方法之一。然而,尽管它具有多种功能,但仍有一些地方阻碍了该方法的发展,正如我们将在本文中讨论的那样,这表明做归一化的方法仍有改进的余地。
石晓文
2020-11-09
859
0
深度学习两大基础Tricks:Dropout和BN详解
批量计算
深度学习
神经网络
dropout作为目前神经网络训练的一项必备技术,自从被Hinton提出以来,几乎是进行深度学习训练时的标配。就像做菜时必须加料酒一样,无论何时,大家在使用全连接层的时候都会习惯性的在后面加上一个dropout层。通常情况下,dropout被作为一种防止神经网络过拟合的正则化方法,对神经网络的泛化性能有很大的帮助。每个人都会用dropout,但你真的理解它吗?本节我们就来看看dropout里的一些关键细节问题。
石晓文
2020-11-09
5.5K
0
Muti-Similarity Loss:考虑了batch中整体距离分布的对比损失函数
批量计算
其他
这是对比损失函数的一种变体,不再是使用绝对距离,还要考虑batch中其他样本对的整体距离分布来对损失进行加权,大家可以试试。
石晓文
2020-10-09
1.8K
0
提高GPU训练利用率的Tricks
批量计算
api
首先,如果你现在已经很熟悉tf.data+estimator了,可以把文章x掉了╮( ̄▽ ̄””)╭
石晓文
2020-02-25
3.8K
0
RS Meet DL(72)-[谷歌]采样修正的双塔模型
批量计算
本文介绍的论文题目是:《Sampling-Bias-Corrected Neural Modeling for Large Corpus Item Recommendations》 论文下载地址是:h
石晓文
2019-12-19
3.5K
0
调试神经网络的checklist,切实可行的步骤
机器学习
深度学习
人工智能
批量计算
神经网络
这篇文章提供了可以采取的切实可行的步骤来识别和修复机器学习模型的训练、泛化和优化问题。
石晓文
2019-10-31
568
0
十九种损失函数,你能认识几个?
批量计算
当训练有 C 个类别的分类问题时很有效. 可选参数 weight 必须是一个1维 Tensor, 权重将被分配给各个类别. 对于不平衡的训练集非常有效。
石晓文
2019-08-28
908
0
DQN三大改进(二)-Prioritised replay
https
网络安全
批量计算
github
git
Prioritised replay原文:https://arxiv.org/pdf/1511.05952.pdf 代码地址:https://github.com/princewen/tensorflow_practice/tree/master/Prioritized_Replay_DQN_demo 如果大家觉得代码排版较乱,可以参考原文:https://www.jianshu.com/p/db14fdc67d2c 1、背景 这篇文章我们会默认大家已经了解了DQN的相关知识,如果大家对于DQN还不是很了解
石晓文
2018-04-11
2.8K
0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档