首页
学习
活动
专区
工具
TVP
发布

小小挖掘机

专栏作者
516
文章
859491
阅读量
237
订阅数
推荐系统遇上深度学习(一二七)-[谷歌]用于点击率预估消偏的交叉位置注意力机制
今天给大家分享的是谷歌发表的一篇用于点击率预估中消除位置偏差的论文,除考虑位置本身的影响外,还考虑了相邻位置及展示的item的交叉影响,一起来看一下。
石晓文
2021-12-27
1.1K0
Muti-Similarity Loss:考虑了batch中整体距离分布的对比损失函数
这是对比损失函数的一种变体,不再是使用绝对距离,还要考虑batch中其他样本对的整体距离分布来对损失进行加权,大家可以试试。
石晓文
2020-10-09
1.6K0
总结100个Pandas中序列的实用函数
本期将分享我认为比较常规的100个实用函数,这些函数大致可以分为六类,分别是统计汇总函数、数据清洗函数、数据筛选、绘图与元素级运算函数、时间序列函数和其他函数。
石晓文
2019-10-13
6020
推荐系统遇上深度学习(二十四)--深度兴趣进化网络DIEN原理及实战!
在本系列的推荐系统遇上深度学习(十八)--探秘阿里之深度兴趣网络(DIN)浅析及实现中,我们介绍了阿里的深度兴趣网络(Deep Interest Network,以下简称DIN),时隔一年,阿里再次升级其模型,提出了深度兴趣进化网络(Deep Interest Evolution Network,以下简称DIEN,论文地址:https://arxiv.org/pdf/1809.03672.pdf),并将其应用于淘宝的广告系统中,获得了20.7%的CTR的提升。本篇,我们一同来探秘DIEN的原理及实现。
石晓文
2018-12-07
1.9K0
时间序列预测模型-ARIMA原理及Python实现!
再介绍本篇的内容之前,我们先来看一下本文用到的数据。本文用到的中国银行股票数据下载:http://pan.baidu.com/s/1gfxRFbH。
石晓文
2018-12-06
13.5K1
残差网络ResNet网络原理及实现
论文地址:https://arxiv.org/pdf/1512.03385.pdf
石晓文
2018-11-30
2.4K0
查收一份附带答案的面经!
1.1.1 全量梯度下降(Batch gradient descent) 每次使用全量的训练集样本来更新模型参数,即θ=θ−η⋅∇θJ(θ)。 优点:每次更新都会朝着正确的方向进行,最后能够保证收敛于极值点(凸函数收敛于全局极值点,非凸函数可能会收敛于局部极值点), 缺点:在于每次学习时间过长,并且如果训练集很大以至于需要消耗大量的内存,并且全量梯度下降不能进行在线模型参数更新。
石晓文
2018-10-23
6300
推荐系统遇上深度学习(二十二)--DeepFM升级版XDeepFM模型强势来袭!
今天我们要学习的模型是xDeepFM模型,论文地址为:https://arxiv.org/abs/1803.05170。文中包含我个人的一些理解,如有不对的地方,欢迎大家指正!废话不多说,我们进入正题!
石晓文
2018-10-23
2K0
算法面试太难?反手就是一波面经
八月参加了一些提前批的面试,包括阿里、百度、头条、贝壳、一点资讯等。整理了一些面试题,分享给大家。
石晓文
2018-10-10
1.7K0
推荐系统遇上深度学习(七)--NFM模型理论和实践
在CTR预估中,为了解决稀疏特征的问题,学者们提出了FM模型来建模特征之间的交互关系。但是FM模型只能表达特征之间两两组合之间的关系,无法建模两个特征之间深层次的关系或者说多个特征之间的交互关系,因此学者们通过Deep Network来建模更高阶的特征之间的关系。
石晓文
2018-07-25
1.5K0
TensorFlow 和 NumPy 的 Broadcasting 机制探秘
在使用Tensorflow的过程中,我们经常遇到数组形状不同的情况,但有时候发现二者还能进行加减乘除的运算,在这背后,其实是Tensorflow的broadcast即广播机制帮了大忙。而Tensorflow中的广播机制其实是效仿的numpy中的广播机制。本篇,我们就来一同研究下numpy和Tensorflow中的广播机制。
石晓文
2018-07-25
6070
推荐系统遇上深度学习(八)--AFM模型理论和实践
在CTR预估中,为了解决稀疏特征的问题,学者们提出了FM模型来建模特征之间的交互关系。但是FM模型只能表达特征之间两两组合之间的关系,无法建模两个特征之间深层次的关系或者说多个特征之间的交互关系,因此学者们通过Deep Network来建模更高阶的特征之间的关系。
石晓文
2018-07-25
1.8K1
L1正则化似懂非懂?不妨戳进来看一看
想必大家对L1正则化已经是再熟悉不过了,而且大家也都知道L1正则化是可以得到稀疏解的,即具有特征选择的功能。本文就从几何和数学两个角度来复习以下L1正则化。
石晓文
2018-07-25
8030
推荐系统遇上深度学习(四)--多值离散特征的embedding解决方案
在本系列第三篇文章中,在处理DeepFM数据时,由于每一个离散特征只有一个取值,因此我们在处理的过程中,将原始数据处理成了两个文件,一个记录特征的索引,一个记录了特征的值,而每一列,则代表一个离散特征。
石晓文
2018-07-25
2.1K0
使用Tensorflow的DataSet和Iterator读取数据!
今天在写NCF代码的时候,发现网络上的代码有一种新的数据读取方式,这里将对应的片段剪出来给大家分享下。
石晓文
2018-07-25
2.1K0
推荐系统遇上深度学习(十二)--推荐系统中的EE问题及基本Bandit算法
Exploration and Exploitation(EE问题,探索与开发)是计算广告和推荐系统里常见的一个问题,为什么会有EE问题?简单来说,是为了平衡推荐系统的准确性和多样性。
石晓文
2018-07-25
1.7K0
从贝叶斯角度看L1及L2正则化
首先写一下为什么会写这个吧,之前在看linUCB的一篇博客的时候,看到了这么一段话:
石晓文
2018-07-25
1.2K0
推荐系统遇上深度学习(十四)--强化学习与推荐系统的强强联合!
之前学习了强化学习的一些内容以及推荐系统的一些内容,二者能否联系起来呢!今天阅读了一篇论文,题目叫《DRN: A Deep Reinforcement Learning Framework for News Recommendation》。该论文便是深度强化学习和推荐系统的一个结合,也算是提供了一个利用强化学习来做推荐的完整的思路和方法吧。本文便是对文章中的内容的一个简单的介绍,希望对大家有所启发。
石晓文
2018-07-25
1.8K0
论文笔记系列(一)-Seq2Seq与RL的结合综述!
这篇论文是一篇综述性质的文章吧,研究了现有的Seq2Seq模型的应用和不足,以及如何通过不同的强化学习方法解决不足,写的深入具体,mark一下。
石晓文
2018-07-25
1.6K0
推荐系统遇上深度学习(十五)--强化学习在京东推荐中的探索
强化学习在各个公司的推荐系统中已经有过探索,包括阿里、京东等。之前在美团做过的一个引导语推荐项目,背后也是基于强化学习算法。本文,我们先来看一下强化学习是如何在京东推荐中进行探索的。
石晓文
2018-07-25
1.6K0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档