腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
小小挖掘机
专栏成员
举报
516
文章
920892
阅读量
237
订阅数
订阅专栏
申请加入专栏
全部文章(516)
编程算法(162)
神经网络(141)
深度学习(138)
机器学习(131)
人工智能(93)
推荐系统(68)
https(59)
python(52)
其他(41)
网络安全(40)
数据分析(31)
强化学习(27)
github(20)
tensorflow(17)
NLP 服务(15)
numpy(15)
决策树(14)
大数据(14)
特征工程(12)
数据挖掘(11)
spark(11)
hive(11)
embedding(11)
ide(10)
开源(10)
sql(9)
git(9)
卷积神经网络(9)
批量计算(8)
监督学习(8)
pytorch(8)
搜索引擎(7)
linux(7)
腾讯云测试服务(7)
http(7)
正则表达式(7)
数据结构(7)
java(6)
matlab(6)
黑石物理服务器(6)
存储(6)
windows(6)
css(5)
数据库(5)
api(5)
线性回归(5)
keras(5)
费用中心(4)
scala(4)
html(4)
jquery(4)
文件存储(4)
知识图谱(4)
游戏(4)
分布式(4)
layer(4)
self(4)
javascript(3)
xml(3)
打包(3)
mapreduce(3)
图像处理(3)
电商(3)
tcp/ip(3)
机器人(3)
系统架构(3)
excel(3)
field(3)
model(3)
prediction(3)
c 语言(2)
c++(2)
json(2)
unix(2)
apache(2)
容器镜像服务(2)
serverless(2)
爬虫(2)
hadoop(2)
markdown(2)
scikit-learn(2)
迁移学习(2)
微服务(2)
腾讯云开发者社区(2)
信息流(2)
label(2)
map(2)
matching(2)
search(2)
task(2)
vi(2)
vr(2)
笔记(2)
编码(2)
公众号(2)
流量(2)
论文(2)
iphone(1)
bash(1)
.net(1)
r 语言(1)
bootstrap(1)
android(1)
云数据库 SQL Server(1)
nosql(1)
jar(1)
ubuntu(1)
bash 指令(1)
日志服务(1)
短视频(1)
机器翻译(1)
mongodb(1)
网站(1)
vr 视频解决方案(1)
yarn(1)
容器(1)
缓存(1)
运维(1)
shell(1)
图像识别(1)
面向对象编程(1)
opencv(1)
openstack(1)
unity(1)
二叉树(1)
scrapy(1)
kernel(1)
uml(1)
数据可视化(1)
架构设计(1)
sas(1)
hbase(1)
云计算(1)
聚类算法(1)
分类算法(1)
flink(1)
学习方法(1)
Elasticsearch Service(1)
智能推荐平台(1)
alignment(1)
amazon(1)
backbone(1)
command(1)
cookie(1)
correlation(1)
decoding(1)
document(1)
dynamic(1)
effects(1)
element(1)
encoding(1)
error(1)
gif(1)
glob(1)
graph(1)
im(1)
image(1)
key(1)
mac(1)
mask(1)
matplotlib(1)
matrix(1)
mean(1)
module(1)
network(1)
next(1)
pdf(1)
png(1)
point(1)
ranking(1)
select(1)
selection(1)
selector(1)
session(1)
sharing(1)
size(1)
spaces(1)
target(1)
theory(1)
time(1)
youtube(1)
编辑器(1)
产品(1)
架构(1)
排序(1)
思维导图(1)
系统(1)
搜索文章
搜索
搜索
关闭
2021年,还能入坑NLP吗?
NLP 服务
机器学习
pytorch
深度学习
神经网络
最近有粉丝私信我,NLP很难学,这条路能坚持走吗?有相同困惑的朋友可以一起探讨一下:
石晓文
2021-11-04
926
0
为什么机器学习算法难以优化?一文详解算法优化内部机制
机器学习
神经网络
深度学习
人工智能
在机器学习中,损失的线性组合无处不在。虽然它们带有一些陷阱,但仍然被广泛用作标准方法。这些线性组合常常让算法难以调整。
石晓文
2021-05-24
1K
0
10大算法工程师炼丹Tricks
https
网络安全
机器学习
神经网络
人工智能
针对类别不平衡问题,用预测概率对不同类别的loss进行加权。Focal loss对CE loss增加了一个调制系数来降低容易样本的权重值,使得训练过程更加关注困难样本。
石晓文
2021-03-24
944
0
机器学习最强调参方法!高斯过程与贝叶斯优化
机器学习
神经网络
深度学习
人工智能
机器学习模型中有大量需要事先进行人为设定的参数,比如说神经网络训练的batch-size,XGBoost等集成学习模型的树相关参数,我们将这类不是经过模型训练得到的参数叫做超参数(Hyperparameter)。人为的对超参数调整的过程也就是我们熟知的调参。
石晓文
2021-03-24
3.8K
0
机器学习领域读博这段旅程的一些感悟
机器学习
神经网络
深度学习
人工智能
一位来自Cornell大学的博士给出了他6年博士旅程的一些个人的经验和建议:小步迭代、策略性阅读、主动、专注、坚持、记笔记、重视社区、拓展视野,无论是工程还是研究,都很有用。
石晓文
2021-01-08
517
0
怎样将Embedding融入传统机器学习框架?
机器学习
深度学习
人工智能
神经网络
编程算法
LR本身是一个经典的CTR模型,广泛应用于推荐/广告系统。输入的特征大多数是离散型/组合型。那么对于Embedding技术,如何在不使用深度学习模型的情况下(假设就是不能用DNN),融入到LR框架中呢?让我们来看看清华大学的博士石塔西大佬是如何解答的。
石晓文
2020-12-23
1.8K
0
比监督学习做的更好:半监督学习
编程算法
linux
监督学习
机器学习
神经网络
监督学习是人工智能领域的第一种学习类型。从它的概念开始,无数的算法,从简单的逻辑回归到大规模的神经网络,都已经被研究用来提高精确度和预测能力。
石晓文
2020-12-08
1.2K
0
Batch Normalization的诅咒
批量计算
深度学习
神经网络
机器学习
人工智能
Batch Normalization确实是深度学习领域的重大突破之一,也是近年来研究人员讨论的热点之一。Batch Normalization是一种被广泛采用的技术,使训练更加快速和稳定,已成为最有影响力的方法之一。然而,尽管它具有多种功能,但仍有一些地方阻碍了该方法的发展,正如我们将在本文中讨论的那样,这表明做归一化的方法仍有改进的余地。
石晓文
2020-11-09
862
0
多目标学习在推荐系统中的应用
https
网络安全
机器学习
神经网络
人工智能
一般来说在搜索和推荐等信息检索场景下,最基础的一个目标就是用户的 CTR,即用户看见了一篇内容之后会不会去点击阅读。但其实用户在产品上的行为是多种多样的。比如在微信的订阅号中,用户可以对某个内容进行点赞,可以收藏这个内容,可以把它分享出去,甚至某篇文章如果他觉得比较符合他的兴趣,也可以进行留言。
石晓文
2020-11-09
3.7K
0
深度学习两大基础Tricks:Dropout和BN详解
批量计算
深度学习
神经网络
dropout作为目前神经网络训练的一项必备技术,自从被Hinton提出以来,几乎是进行深度学习训练时的标配。就像做菜时必须加料酒一样,无论何时,大家在使用全连接层的时候都会习惯性的在后面加上一个dropout层。通常情况下,dropout被作为一种防止神经网络过拟合的正则化方法,对神经网络的泛化性能有很大的帮助。每个人都会用dropout,但你真的理解它吗?本节我们就来看看dropout里的一些关键细节问题。
石晓文
2020-11-09
5.5K
0
DCN-M:Google提出改进版DCN,用于大规模排序系统的特征交叉学习(附代码)
神经网络
编程算法
“ 本文结合DeepCTR-Torch中的代码实现,介绍了DCN的改进版——DCN-M。该模型能更有效地学习特征交叉,并通过低秩矩阵分解对参数矩阵进行降维,降低计算成本。受MOE结构启发,作者还在多个子空间中建模特征交叉。实验表明,传统的基于ReLU的神经网络在学习高阶特征交叉时效率较低;DCN-M能够在保证效率较高的同时,取得优于SOTA方法的效果。”
石晓文
2020-11-09
3.5K
0
真正想做算法的,不要害怕内卷
编程算法
机器学习
深度学习
神经网络
人工智能
也不知道从啥时候开始,内卷这个词就火起来了。具体到数据和算法等技术岗位方面,内卷可以理解为一年比一年高的入行门槛以及愈发激烈的同行竞争。比如说前段时间知乎上的一个“如何看待2021年秋招算法岗灰飞烟灭?”问题,就引发了将近500万人的围观。
石晓文
2020-11-09
746
0
推荐系统中的排序学习
机器学习
深度学习
神经网络
人工智能
编程算法
“ 本文首先介绍排序学习的三种主要类别,然后详细介绍推荐领域最常用的两种高层排序学习算法框架:BPR和LambdaMART。因为排序学习的算法和实践大都来源于信息检索,一些理论也必须从信息检索的领域说起,所以本文也会涉及一些的信息检索、搜索方面的理论知识,但重点依然会放在推荐领域排序学习的应用思路。”
石晓文
2020-10-09
2.5K
0
one-hot encoding不是万能的,这些分类变量编码方法你值得拥有
数据分析
机器学习
神经网络
深度学习
人工智能
one-hot encoding 是一种被广泛使用的编码方法,但也会造成维度过高等问题。因此,medium 的一位博主表示,在编码分类变量方面,我们或许还有更好的选择。
石晓文
2020-10-09
1.3K
0
什么样的模型是好的模型?
数据分析
机器学习
神经网络
深度学习
人工智能
导读:什么样的模型是好的模型?相信这是每一个数据分析师和大数据AI算法工程师都曾经默默思考过的问题。
石晓文
2020-10-09
1.6K
0
无问西东 | 计算机科班小硕的秋招之路
分类算法
编程算法
c++
神经网络
强化学习
背景为211本硕&计算机科班,无论文无实习,去年趁着暑假时间做了两个竞赛,名次top20这样子,研究生主要是做城市计算的,涉及到机器学习、深度学习、强化学习和图方面的一些算法和内容,导师不怎么管,所以这些理论知识基本都是自学的,其中强化学习是因为疫情在家,觉得开学要找工作了,只靠机器学习和深度学习估计没啥竞争力,所以硬着头皮把强化学习的理论给啃了下来,希望能添加点亮点;剑指offer在家刷了一遍,6月份开学开始刷leetcode,大概刷了150道左右吧,刷的题不是很多,所以后面面试考算法题不是特别顺利,笔试难点的公司基本挂掉。
石晓文
2020-09-25
1K
0
秋招系列 | 推荐岗史上最强面经来袭(上)
编程算法
机器学习
神经网络
深度学习
人工智能
背景为985本硕&计算机科班,研究生期间方向主要为推荐算法,投递的方向主要为推荐/广告/机器学习。目前国内已从A收割到Z。本科做工程相关,研究生期间转算法,发表过CCF A类论文一作1篇,有过大厂实习经验、开源项目和机器学习比赛“划水“经历。
石晓文
2020-09-15
1.3K
0
【时间序列】DA-RNN: 基于双阶段注意力机制的循环神经网络
机器学习
神经网络
深度学习
人工智能
论文题目为《基于双阶段注意力机制的循环神经网络》,文章本质上还是基于Seq2Seq的模型,结合了注意力机制实现的时间序列的预测方法,文章的一大亮点是:不仅在解码器的输入阶段引入注意力机制,还在编码器阶段引入注意力机制,编码器的阶段的注意力机制实现了特征选取和把握时序依赖关系的作用。
石晓文
2020-09-15
1.6K
0
KDD 2020 | 多任务保量优化算法在优酷视频场景的实践
机器学习
神经网络
深度学习
人工智能
编程算法
导读:今天分享一下阿里优酷视频在KDD 2020上的一篇关于新热视频保量分发上的实践,建立了新热内容曝光敏感模型并给出了一种多目标优化保量的算法,推荐工业界实战干货论文,值得细读。
石晓文
2020-09-15
2.2K
0
机器学习模型什么时候需要做数据标准化?
线性回归
机器学习
决策树
神经网络
这个问题笔者也思考过,只不过不够系统,观点也比较单一,所以才有了上图中的【变量单位之间数量级差异过大】的回答。就着这个话题,笔者查阅相关资料,相对这个问题进行一个详细的阐述。
石晓文
2020-09-07
2.6K
0
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档