腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
处理大数据集
c#
、
visual-studio
、
neural-network
、
kinect
、
bigdata
我正在开发一个使用kinect设备
捕捉
人类情绪的应用程序。因此,我从8个人中捕获了6个
动作
单元值,每个
动作
单元值为30帧。所以现在我有了很多数据,我想根据这些数据来识别情绪(请注意,每种情绪对于每个
动作
单元都有不同的
动作
值)。这是我捕获的数据集的快照:
浏览 0
提问于2017-03-21
得票数 0
1
回答
基于
神经网络
的Q表在线估计
machine-learning
、
neural-network
、
q-learning
当我在强化学习中使用Q表来保存状态
动作
时,一些状态(或很少)永远不会发生,状态-
动作
值在最大迭代之前保持为零,所以我决定
用
神经网络
来估计Q-表,而不是使用Q-Table。哪种类型的
神经网络
可以更准确地估计这类问题,这个解对我有帮助吗?
浏览 2
提问于2013-10-28
得票数 0
回答已采纳
1
回答
基于
神经网络
的强化学习函数逼近
machine-learning
、
neural-network
、
artificial-intelligence
、
reinforcement-learning
我试图
用
神经网络
作为函数逼近器来实现用于估计q*的片段式半梯度Sarsa。我的问题是: q(S,A,w)中的权向量w是指
神经网络
中的权值吗?如果不是,我将如何在算法中使用它?我的建议是将其附加到状态和
动作
a中,并将其插入到
神经网络
中,以得到与所选
动作
的状态近似。这是正确的吗?
浏览 0
提问于2018-03-28
得票数 2
回答已采纳
1
回答
怎样才能查看到BVH格式的骨骼数据?
数据
怎样才能查看到BVH格式的骨骼数据?我已经下载了Kinect2bvh的那个代码,就是这个 。并且在Visual Studio中运行了,只显示骨骼图像,我怎么样才能看到BVH格式的骨骼数据?
浏览 538
提问于2018-04-11
5
回答
让C#和Python为这个机器学习任务
进行
通信的最佳方法是什么?
c#
、
python
、
unity3d
、
tensorflow
、
machine-learning
这个游戏利用机器学习,所以我需要TensorFlow来建立一个
神经网络
( NN ),根据
神经网络
的预测来完成游戏中的某些
动作
。可悲的是,我很困惑如何让C#和Python
进行
交流。
浏览 2
提问于2018-02-27
得票数 1
回答已采纳
1
回答
如何使用nltk regex模式提取特定的短语块?
python
、
regex
、
nlp
、
nltk
、
text-chunking
我编写了以下正则表达式来标记某些短语模式 P2: {<JJ>+ <RB>? <JJ>* <NN>+ <VB>* <JJ>*} P3: {<NP1><IN><NP2>} P4: {<NP2&g
浏览 4
提问于2015-12-04
得票数 11
回答已采纳
1
回答
利用
神经网络
进行
Q学习的几个问题
machine-learning
、
artificial-intelligence
、
neural-network
、
reinforcement-learning
、
q-learning
Q(S,A)我使用如下的
神经网络
结构, 我计算了一个Q-目标值然后用, error = QTarget - LastQValueReturnedFromNN并通过
神经网络
向后传播误差。我看过一些文章,它们实现了一个
神经网络
,每个
动作
都有一个输出神经
浏览 0
提问于2014-12-07
得票数 8
回答已采纳
1
回答
在java中
捕捉
pascal鼠标的移动
java
、
macros
、
pascal
、
mouse-hook
我
用
java编写了一个基本的鼠标记录器,它用慢
动作
来绘制
动作
和点击,这样就可以更容易地使用jnative钩子
进行
分析。当我手动移动鼠标时,它工作得很好,但是它不会从pascal中
捕捉
到鼠标的移动。如何利用Java中的pascal宏工具
进行
鼠标移动?
浏览 2
提问于2016-07-16
得票数 0
回答已采纳
2
回答
朴素贝叶斯与
神经网络
artificial-intelligence
我选择的特征是我自己和对手的前几个
动作
(我为每个
动作
创建了3个节点,每个节点都是真假的,所以之前的
动作
有6个节点),以及我是否赢了最后一轮。这使得总共有7个特性作为输入。你认为哪种人工智能技术最能
捕捉
到这一点?
神经网络
或天真的贝叶斯..。甚至是另一个?
浏览 5
提问于2013-10-01
得票数 1
回答已采纳
1
回答
当某个
动作
不可执行时,如何减少
神经网络
输出
tensorflow
、
neural-network
、
output
、
reinforcement-learning
我正在使用
神经网络
和tensorflow在Q学习方法的各种东西上
进行
强化学习,我想知道当特定输出对应的特定操作在特定状态下无法在环境中实现时,降低输出可能性的解决方案是什么。例如,我的网络正在学习玩一个执行了4个
动作
的游戏。但有一种特定的状态下,
动作
1在环境中是不可执行的,但我的
神经网络
Q值表明,
动作
1是最好的选择。在这种情况下,我必须做些什么?
浏览 16
提问于2019-05-16
得票数 3
回答已采纳
1
回答
基于强化学习的
神经网络
输出约束的最佳方法
tensorflow
、
machine-learning
、
artificial-intelligence
、
pytorch
、
reinforcement-learning
我正在训练一个
神经网络
(前馈,Tanh隐藏层),它接收状态作为输入,并将
动作
作为输出。我遵循策略梯度强化学习的强化算法.我知道回归(因此我猜是强化学习)线性输出是最好的,虽然乙状结肠有一个线性部分,我担心网络无法正确地
捕捉
到这种线性输出行为,或者它
捕捉
它的速度太慢
浏览 0
提问于2018-08-05
得票数 1
回答已采纳
1
回答
在深入强化学习的背景下,批量大小的含义是什么?
reinforcement-learning
、
batchsize
批次大小是指在监督学习中接受神经工作训练的样本数,但是,在强化学习的背景下,批次大小的意义是什么?它也是指样品吗?如果是的话,在强化学习的背景下,样本的意义是什么?
浏览 0
提问于2019-04-02
得票数 3
回答已采纳
1
回答
深度强化学习网络的Q值个数
neural-network
、
deep-learning
、
reinforcement-learning
、
q-learning
我目前正在开发一个深入的强化学习网络,但是,我对在NN输出时Q值的数量有一个小小的疑问。我总有150个Q值,这对我个人来说似乎太过了.我在几本报纸和书上读到,这可能是个问题。我知道这将取决于我将构建的NN类型,但是你们认为Q值的数量太高了吗?我应该减少吗?
浏览 0
提问于2018-04-23
得票数 1
回答已采纳
1
回答
Q学习-如何使用经验回放,当与其他代理人比赛?
machine-learning
、
neural-network
、
q-learning
我目前正在尝试创建一个tic tac学习
神经网络
,向我介绍强化学习,但是它没有起作用,所以我决定尝试一个更简单的项目,它需要一个网络来训练静态数据,而不是另一个
神经网络
。我有100批的限制,其中一批是
神经网络
训练的对象。我想知道这是否是一个适当的数额,或是否可能有任何共同的问题,执行经验重播,我可能已经做了。我目前对经验回放的看法是: 1.运行程序2.每次运行后,用于对网络
进行
训练的数据被保存为一批3.当批数达到x(100)个批次时,从中挑出一个并在其上
进行
训练。4.
用
新批次覆盖最老的批
浏览 0
提问于2018-02-01
得票数 5
回答已采纳
1
回答
“确定性=真”在盒子、多二进制或多离散环境中是有意义的吗?
reinforcement-learning
、
policy
、
deterministic
、
stable-baselines
使用稳定的基线3: 假设deterministic=True总是以最高的概率返回
动作
,那么对于
动作
空间为"box“、”多二进制“或”多离散“的环境,代理应该同时选择多个操作,这意味着什么?
浏览 4
提问于2022-07-22
得票数 0
回答已采纳
1
回答
具有近似意义的政策预测函数的选择
reinforcement-learning
、
approximation
我目前正在阅读萨顿关于强化学习的介绍。在进入第10章(基于近似的政策预测)之后,我现在想知道如何选择函数q的形式,其中最优权重w将被近似。
浏览 6
提问于2017-07-25
得票数 4
回答已采纳
1
回答
如何在非常大的州中使用DeepQLearning?
machine-learning
、
julia
我认为,当
动作
和状态空间非常大时,深度Q学习可以提供帮助。
浏览 12
提问于2020-05-28
得票数 1
回答已采纳
1
回答
XCode还是Visual Studio?使用iPhone摄像头构建人体运动检测iOS应用
python
、
ios
、
swift
、
xcode
、
visual-studio
我是一名生物工程师,需要在我的iPhone 8上构建一个
动作
捕捉
验证应用程序。我的目标是让我的应用程序
捕捉
人体全身的运动,并对其
进行
分析,以确认这个人是否表现良好,它本应完成的
动作
。应用程序流程非常简单:只需有一个“欢迎”页面,然后转到锻炼页面,用户将在那里记录其鼠标
动作
。
动作
是2D的,非常简单:例如,前面的人将直腿向一侧抬起45度。要为iOS构建应用程序,我知道唯一的方法是
用
Swift编写代码,所以我正在考虑使用XCode来做这件事。然而,我的<em
浏览 1
提问于2020-04-05
得票数 0
1
回答
如何在redux中写入登录逻辑?
reactjs
、
redux
、
middleware
、
react-redux
、
redux-middleware
我有三个选择来实施这一点: 如何将登录逻辑应用到我的应用程序。
浏览 3
提问于2016-11-18
得票数 0
1
回答
随机梯度下降和Q-学习中的极小批处理
machine-learning
、
neural-network
、
reinforcement-learning
、
q-learning
背景(可略去): 在训练
神经网络
时,通常采用随机梯度下降(SGD)方法,而不是
用
梯度下降来计算训练集中所有成员的误差,而不是
用
梯度下降来更新权值(这意味着每次更新权值之前都要等很长时间),而是每次使用最小的一批成员在强化学习中,有时Q-学习是
用
神经网络
实现的(如深度Q-学习),并且使用经验重放:而不是根据代理的前一次(状态、
动作
、奖励)更新权重,而是使用一小批旧的随机样本(状态、
动作
、奖励)
进行
更新,这样后续更新之间就没有关联了
浏览 0
提问于2016-12-24
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
普林斯顿大学用AI神经网络从视频中对动物展开动作捕捉
技术讲解:用人工智能进行人物动作捕捉
CMU提出基于学习的动作捕捉模型,用自监督学习实现人类3D动作追踪
程序员深夜用Python跑神经网络,只为用中二动作关掉台灯
重新考虑用简单神经网络进行知识表示学习
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券