首页
学习
活动
专区
工具
TVP
发布

刘笑江的专栏

专栏作者
34
文章
52070
阅读量
24
订阅数
在线学习方法概述
推荐系统算法常常用到逻辑回归算法,而传统的批量学习算法如 SGD 无法应对大规模、高维的数据集和实时数据流。为了解决这个问题,在线最优化算法如 TG [1]、FOBOS [2]、RDA [3]、FTRL [4,5,6] 应运而生,下面将介绍、对比这些算法。
刘笑江
2019-12-30
7610
HTML
机器学习笔记 评估指标 准确率 查准率 How many relevant items are selected? accuracy=TP(TP+FN) 召回率 查全率 How many sel
刘笑江
2018-05-28
2.7K0
Reinforce Learning
强化学习笔记。 K-摇臂赌博机 赌徒投币后选择一个摇臂,每个摇臂以一定概率吐出硬币。 算法需要最小化累计遗憾 \begin{align} R_T &= \sum_{i=1}^{T} \bigg(w_{opt} - w_{B(i)} \bigg) \\ &=Tw^* - \sum_{i=1}^{T} w_{B(i)} \end{align} 其中 wB(i)w_{B(i)}w​B(i)​​ 是第 iii 次实验被选中臂的期望收益,w∗w^*w​∗​​ 是最佳选择臂的收益。 基于规则
刘笑江
2018-05-28
6360
在线学习方法概述
推荐系统算法常常用到逻辑回归算法,而传统的批量学习算法如 SGD 无法应对大规模、高维的数据集和实时数据流。为了解决这个问题,在线最优化算法如 TG [1]、FOBOS [2]、RDA [3]、FTRL [4,5,6] 应运而生,下面将介绍、对比这些算法。 TODO TG L1 正则化在 online 不能产生较好的稀疏性,而稀疏性对于高维特征向量以及大数据集又特别的重要。为解决这个问题,John Langford 等人在 2009 年提出 Truncated Gradient [1]。 SGD 对于传
刘笑江
2018-05-28
7540
笔记:软件开发的转折——并发化
——文章The Free Lunch Is Over: A Fundamental Turn Toward Concurrency in Software By Herb Sutter的读书笔记 免费午餐的结束 近年来,摩尔定律失效、主频提速放缓,下一代CPU设计提高性能的方法:超线程(Hyperthreading)、多线程、缓存。 从1990年代至今,面向对象编程成为主流的原因,是其优势明显——能解决更大型的问题、更好的依赖解决;而其劣势——性能代价大,由摩尔定律——不断提速的CPU性能,所补偿,作者成
刘笑江
2018-05-28
3370
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档