首页
学习
活动
专区
工具
TVP
发布

AlgorithmDog的专栏

专栏作者
46
文章
78069
阅读量
41
订阅数
一个特殊场景的 LR 预测优化 Trick
我们的业务碰到了一个很特殊的场景:用户数量巨大,上亿;物品数目比较少,不超过 500 个。针对这个特点,我们设计了一个小程序 Trick。这个程序 Trick 极大地提高了 LR 的预测性能,预测耗时减为原来的 120 分之一。
AlgorithmDog
2018-02-07
1.2K0
动手写一个 DQN 的棋牌 AI
深度强化学习是学术界研制游戏 AI 的主流算法。这篇文章我们将用深度强化学习早期代表算法 DQN 算法探索棋牌 AI。
AlgorithmDog
2018-02-07
4.1K1
游戏智能系列之二:再次进行准备
AlgorithmDog
2018-01-08
7860
遗传算法系列之三:数学摆摆手,“很惭愧,只做了一点微小的工作”
本文介绍了遗传算法的基本概念、工作原理和应用,并分析了遗传算法中的模式定理和马尔科夫链分析方法。作者通过实例讲解了遗传算法在解决实际问题中的应用,并探讨了遗传算法的发展趋势和未来研究方向。
AlgorithmDog
2018-01-08
1.3K0
强化学习系列之三:模型无关的策略评价
本文介绍了模型无关的策略评价,包括蒙特卡罗算法和时差学习算法,适用于不知道马尔科夫决策过程转移概率和奖励函数的场景。代码示例基于机器人找金币问题,可以在Github上找到。
AlgorithmDog
2018-01-08
1K0
遗传算法系列之四:遗传算法的变种
本文介绍了遗传算法的发展历程、应用案例、变种以及未来展望。
AlgorithmDog
2018-01-08
3.5K0
强化学习系列之一:马尔科夫决策过程
文章目录 [隐藏] 1. 马尔科夫决策过程 2. 策略和价值 3. 最优策略存在性和贝尔曼等式 强化学习系列系列文章 机器学习一共有三个分支,有监督学习、无监督学习和强化学习。强化学习是系
AlgorithmDog
2018-01-08
1.2K0
工欲善其事必先利其器——游戏 AI 环境对比
本文探讨了游戏 AI 环境的四个主要特点:环境交互、策略、学习和适应。作者详细介绍了这些特点,并通过一个简化版的星际争霸 II 游戏来演示这些特点在实际游戏中的应用。
AlgorithmDog
2017-12-29
9840
自我对弈的 AlphaGo Zero
本文介绍了 AlphaGo Zero 的核心思想,通过自我对弈学习围棋,在不使用人类棋谱的情况下,三天内以 100 比 0 的战绩战胜 AlphaGo Lee;同时,对 AlphaGo Master 的提升也显示出强化学习在围棋领域的潜力。
AlgorithmDog
2017-12-29
8990
人工智能当前,棋牌游戏留给人类的堡垒不多了
本文介绍了人工智能在棋类游戏中的一些进展,特别是在围棋和德州扑克这两个领域。作者分析了AlphaGo和Libratus等人工智能系统,并讨论了这些技术在未来的可能发展方向。
AlgorithmDog
2017-12-29
2K0
游戏智能系列之三:有限状态自动机
游戏智能是很传统的领域,有限状态机和行为树是两种主要方法。今天这篇博客主要介绍有限状态自动机。 1. 有限状态机 有限状态机 (Finite-state machine,FSM),又称有限
AlgorithmDog
2017-12-29
1.5K0
取代人类工作?人工智能也创造工作
本文介绍了人工智能、机器学习、深度学习和大数据等概念及其相关技术,并探讨了这些技术对经济活动和社会生活的影响。文章还介绍了相关技术的工作职位及其对经济活动的影响。
AlgorithmDog
2017-12-29
6860
迟蹭一个热点:自我对弈的 AlphaGo Zero
AlgorithmDog
2017-10-26
1.9K0
XGBoost + LR 就是加特征而已
《XGBoost + LR 就是加特征而已》一文通过实验验证了 XGBoost + LR 无法超越 LR,并且 XGBoost 叶子节点不能取代特征工程。因此,XGBoost + LR 并不能像深度学习那样带来自动特征工程的故事和逻辑。
AlgorithmDog
2017-09-22
6.9K1
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档