首页
学习
活动
专区
工具
TVP
发布

ArrayZoneYour的专栏

专栏作者
17
文章
82329
阅读量
45
订阅数
微服务革命:应用,数据的容器化
近几年来,微服务架构和基于容器的虚拟化技术已经越来越多地在软件开发社区中被提及。Adrian Cockcroft就是这方面公认的极有远见者之一,他在2014年欧洲的Dockercon上就提到微服务和Docker的结合将是一枚利器( 引PPT原文39页:the combination of microservices and Docker a “disruptor”),即微服务架构与Docker结合使用时,其优势将得到成倍的放大。微服务鼓励软件开发者将软件解耦为多个小的功能部件(部件运行时可能会出错)。容器技术承接了这一愿景,将软件与软件依赖的硬件部分分离开来。这使得我们在保证应用的高质量时,应用的构建和维护更加方便快捷。
ArrayZoneYour
2018-06-25
8400
借助Babel 7和Webpack构建React Toolchain
React不是完全开箱即用的。它使用了一些最近node才支持的关键字和语法(在本教程中我使用了v 9.3.0版本)。因此需要一些很麻烦的设置,但是Facebook为此提供了一个可以轻松创建React应用的方案。这听起来不错,那我为什么要说这一点呢?
ArrayZoneYour
2018-05-25
1.1K0
TensorFlow强化学习入门(5)—— 可视化Agent的“所思所想”
在我的强化学习系列的文章中,我想要深入探究我们基于神经网络的agent在训练过程中习得的表达形式。尽管我们的直接目的是希望我们的agent能够获得更高的分数,或者完成某一具体的任务,但是了解agent如何做到,或者更进一步,agent为什么可以做到对于我们来说是同等甚至更加重要的。为了更加清楚地看到agent的学习过程,我使用了d3.js制作了一个网页来展示agent学习的各种信息。我称之为 强化学习控制中心。在本文中,我会用它来进一步讲解agent的原理。
ArrayZoneYour
2018-03-03
2.3K0
TensorFlow强化学习入门(4)——深度Q网络(DQN)及其扩展
本文中我们将一起创建一个深度Q网络(DQN)。它基于我们系列文章中(0)的单层Q网络,如果你是强化学习的初学者,我推荐你到文末跳转到(0)开始阅读。尽管简单的Q网路已经可以在简单的问题上和Q表表现一样出色,但是深度Q网络可以使其变得更强。要将简单的Q网络转化为深度Q网路,我们需要以下改进:
ArrayZoneYour
2018-03-01
7.7K1
TensorFlow强化学习入门(3)——构建仿真环境来进行强化学习
在上一篇文章中,我演示了如何设计一个基于策略的强化学习agent来解决CartPole任务。在本文中,我们将从另一个角度重新审视这个问题——如何构建仿真环境来提升agent在当前环境下的性能。
ArrayZoneYour
2018-02-27
5.1K0
TensorFlow强化学习入门(2)——基于策略的Agents
在本教程系列的(1)中,我演示了如何构建一个agent来在多个选择中选取最有价值的一个。在本文中,我将讲解如何得到一个从现实世界中获取 观测值 ,并作出 长期收益 最大的 行动 的agent。正如前文所说,本文解决的问题将是一个完备的强化学习问题。
ArrayZoneYour
2018-02-25
1.5K0
TensorFlow强化学习入门(1.5)——上下文赌博机
在上一篇文章中我们简要介绍了强化学习并构建了一个简单的agent来解决多臂赌博机问题。在多臂赌博机问题中agent不需要考虑所处环境的状态,只要通过学习确定那一个行动是最优的即可。在不考虑环境状态时,任一时间点上的最优决策是所有时刻最优的决策。在本文结束后,我们会建立一个完备的强化学习问题:问题中存在环境状态并且下一时刻的状态取决于上一步的行动,决策的收益也是延迟发放的。
ArrayZoneYour
2018-02-24
1.7K0
TensorFlow强化学习入门(1)——双臂赌博机
强化学习不仅仅赋予了我们教会人工agent如何行动的能力,还使得agent可以通过我们提供的交互式环境进行学习。通过结合深度神经网络习得的复杂表示和RL agent的目标驱动型学习,计算机取得了很多令人惊叹的成绩:在很多中雅达利游戏中击败人类,打败围棋世界冠军等等。
ArrayZoneYour
2018-02-22
1.7K0
TensorFlow强化学习入门(0)——Q-Learning的查找表实现和神经网络实现
在我这系列的强化学习教程中,我们将探索强化学习大家族中的Q-Learning算法,它和我们后面的教程(1-3)中基于策略的算法有一些差异。在本节中,我们先放下复杂而笨重的深度神经网络,首先在一个简单的查找表基础上实现第一个算法版本,随后我们再考虑如何使用TensorFlow将神经网络的形式集成进来。考虑到该节主要是回顾基础知识,所以我把它归为第0部分。对Q-Learning中发生的细节有所了解对于我们后面学习将策略梯度(policy gradient)和Q-Learning结合来构建先进的RL agent大有裨益。(如果你对策略网络更感兴趣或者已经掌握了Q-Learning相关知识,可以等译者后面的翻译或者查阅原文)
ArrayZoneYour
2018-02-21
5.1K1
使用TensorFlow实现股票价格预测深度学习模型
Sebastian Heinz. A simple deep learning model for stock price prediction using TensorFlow
ArrayZoneYour
2018-02-18
11.3K1
如何用Python将时间序列转换为监督学习问题
像深度学习这样的机器学习方法可以用于时间序列预测。
ArrayZoneYour
2018-02-13
24.6K0
用Python从零开始构建反向传播算法
在本教程中,你将探索如何使用Python从零开始构建反向传播算法。
ArrayZoneYour
2018-02-13
4.8K9
单单知道分类正确率是不够的,你可以使用更多的性能评估指标
当你为某个分类问题建立了一个模型时,一般来说你会关注该模型的所有预测结果中正确预测的占比情况。这个性能指标就是分类正确率。
ArrayZoneYour
2018-02-07
1.3K0
周期序预测列问题中的朴素模型——周期跟随模型(Seasonal Persistence)
在处理时间序列问题时,人们通常使用跟随算法(将前一个时间单位的观测值作为当前时间的预测值)预测的结果作为预测性能的基准。
ArrayZoneYour
2018-02-06
2.2K0
机器学习的Boosting技术(以AdaBoost为例)
Boosting(提升,提高)是一种集成技术,它通过综合多个弱分类器来获得一个强的分类器。
ArrayZoneYour
2018-02-06
1.8K0
Kubernetes的服务网格(第1部分):获取关键的服务指标
看到这个标题,你可能会问:什么是服务网格?在云服务广泛应用的现在又如何应用?马上我们就会在本文中将向您展示如何在Kubernetes上使用linkerd作为服务网格。
ArrayZoneYour
2018-01-10
3.1K1
如何偷懒地用 PHP 搭建一个班级网站
ArrayZoneYour
2016-09-20
6.2K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档