腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
CreateAMind
专栏成员
举报
1002
文章
638907
阅读量
56
订阅数
订阅专栏
申请加入专栏
全部文章(999+)
其他(347)
模型(219)
https(98)
人工智能(96)
神经网络(93)
系统(87)
深度学习(83)
数据(77)
编程算法(72)
框架(68)
机器学习(60)
编码(58)
网络(49)
算法(46)
函数(44)
强化学习(42)
网络安全(40)
github(38)
开源(36)
架构(34)
代理(33)
原理(33)
对象(29)
工作(29)
连接(29)
论文(26)
机器人(24)
游戏(21)
变量(21)
自动驾驶(20)
git(18)
基础(18)
python(17)
存储(17)
memory(17)
设计(17)
优化(17)
http(14)
测试(14)
华为(13)
tensorflow(12)
html(12)
linux(12)
无人驾驶(12)
model(12)
效率(12)
models(10)
程序(10)
数学(10)
性能(10)
网站(8)
大数据(8)
统计(8)
分布式(7)
keras(7)
free(7)
解决方案(7)
图表(7)
数据分析(6)
nat(6)
abstract(6)
theory(6)
搜索(6)
硬件(6)
NLP 服务(5)
pytorch(5)
无监督学习(5)
安全(5)
agent(5)
bayesian(5)
code(5)
编程(5)
地图(5)
工具(5)
集合(5)
事件(5)
ios(4)
微信(4)
数据结构(4)
action(4)
epoch(4)
message(4)
openai(4)
self(4)
配置(4)
视频(4)
java(3)
.net(3)
ide(3)
自动化(3)
监督学习(3)
迁移(3)
algorithm(3)
data(3)
distribution(3)
logic(3)
network(3)
object(3)
set(3)
state(3)
后端(3)
内存(3)
同步(3)
异常(3)
c++(2)
go(2)
node.js(2)
api(2)
文件存储(2)
容器(2)
iis(2)
windows(2)
processing(2)
教育(2)
coding(2)
com(2)
constraints(2)
debug(2)
function(2)
gan(2)
gaussian(2)
gpt(2)
gradient(2)
gwt(2)
maze(2)
output(2)
pdf(2)
position(2)
probability(2)
process(2)
scale(2)
simulation(2)
slide(2)
structure(2)
task(2)
this(2)
time(2)
using(2)
笔记(2)
部署(2)
翻译(2)
计算机(2)
镜像(2)
开发(2)
内核(2)
前端(2)
全栈(2)
软件(2)
协议(2)
芯片(2)
压缩(2)
语法(2)
语音(2)
objective-c(1)
mac os(1)
php(1)
lua(1)
css(1)
json(1)
arm(1)
硬件开发(1)
云数据库 Redis(1)
ubuntu(1)
容器镜像服务(1)
spring(1)
批量计算(1)
访问管理(1)
腾讯云测试服务(1)
图像处理(1)
高性能计算(1)
医疗(1)
企业(1)
缓存(1)
ssh(1)
卷积神经网络(1)
erp(1)
gui(1)
面向对象编程(1)
自动化测试(1)
tcp/ip(1)
模式识别(1)
迁移学习(1)
数据处理(1)
数据可视化(1)
架构设计(1)
fpga(1)
信息流(1)
云计算(1)
分类算法(1)
es(1)
学习方法(1)
abstraction(1)
analysis(1)
architecture(1)
area(1)
binary(1)
build(1)
chatgpt(1)
classification(1)
config(1)
core(1)
correlation(1)
cpu(1)
dataset(1)
detection(1)
diff(1)
directory(1)
dynamic(1)
email(1)
error(1)
event(1)
events(1)
feed(1)
file(1)
fixed(1)
focus(1)
form(1)
format(1)
formatting(1)
frameworks(1)
global(1)
gmail(1)
google(1)
gpu(1)
hidden(1)
hpc(1)
identity(1)
input(1)
julia(1)
key(1)
linkedin(1)
local(1)
matrix(1)
meta(1)
mnist(1)
modeling(1)
mpi(1)
paypal(1)
permutation(1)
physics(1)
ps(1)
reduce(1)
reference(1)
repeat(1)
return(1)
rgb(1)
rules(1)
sampling(1)
semantics(1)
sharing(1)
simulator(1)
size(1)
sort(1)
spaces(1)
statistics(1)
subset(1)
survey(1)
target(1)
testing(1)
title(1)
torch(1)
vector(1)
version(1)
vr(1)
wiki(1)
workspace(1)
递归(1)
动态规划(1)
二进制(1)
反射(1)
高性能(1)
工程师(1)
工作流(1)
开源软件(1)
开源硬件(1)
可视化(1)
量化(1)
模块化(1)
实践(1)
调试(1)
学习笔记(1)
音频(1)
指针(1)
字符串(1)
数据转换(1)
深度学习框架(1)
搜索文章
搜索
搜索
关闭
忆阻器玩Atari游戏
函数
内存
网络
硬件
游戏
Single Neuromorphic Memristor closely Emulates Multiple Synaptic Mechanisms for Energy Efficient Neural Networks
CreateAMind
2024-04-26
90
0
超越OpenAI,我们是认真的:几千步就能学习游戏玩法,参数是现有模型1%的新AGI
模型
效率
游戏
openai
测试
不列颠哥伦比亚省温哥华 / 2024 年 2 月 22 日 / VERSES AI Inc. (CBOE:VERS) (OTCQB:VRSSF)(“VERSES”或“公司”)是一家开发下一代智能软件系统的认知计算公司,今天提供了研究路线图概述了衡量公司研发工作的进展和重要性的关键里程碑和基准,与传统的深度学习相比,以造福工业界、学术界和公众。
CreateAMind
2024-02-26
204
0
一个框架整合大脑理论 7 三层智能:有目的的行为,精确同步外部世界
框架
模型
同步
游戏
编码
从动力系统的角度来看,这可以解读为广义同步的出现——或者混沌的同步——就像联合系统收敛于一个同步流形
CreateAMind
2024-01-11
181
0
世界模型仅用 1 小时训练一个四足机器人从头开始翻滚、站立和行走,无需重置。10 分钟内适应扰动或快速翻身站立
游戏
机器人
华为
模型
视频
DayDreamer: World Models for Physical Robot Learning
CreateAMind
2023-09-01
288
0
2000行AlphaZero算法通用简单快速实现
编程算法
游戏
由于 AlphaZero 非常耗费资源,因此成功的开源实现(例如Leela Zero)是用低级语言(例如 C++)编写的,并针对高度分布式计算环境进行了优化。这使得学生、研究人员和黑客很难访问它们。
CreateAMind
2023-02-14
378
0
生命主动推理的数学描述
神经网络
机器学习
深度学习
人工智能
游戏
那些我们可以归类为“控制论的”、“适应性的”或“活的”的系统都显示出一个基本的属性 :它们抵制将它们推离目标或使它们的存在不可持续的扰动。为了做到这一点,这样的系统能够以某种方式感知它们当前的状态(通过感知)并做出适当的反应(通过行动)。在第一部分的系列论文中,我们试图为足以描述这种系统的主动推理理论提供新的组成基础,特别关注在组成神经科学和人工生命社区中被称为自由能原理的框架[1],我们试图使其结构精确。
CreateAMind
2022-03-14
415
0
组合游戏系列4: AlphaGo Zero 强化学习算法原理深度分析
神经网络
游戏
编程算法
AlphaGo Zero是Deepmind 最后一代AI围棋算法,因为已经达到了棋类游戏AI的终极目的:给定任何游戏规则,AI从零出发只通过自我对弈的方式提高,最终可以取得超越任何对手(包括顶级人类棋手和上一代AlphaGo)的能力。换种方式说,当给定足够多的时间和计算资源,可以取得无限逼近游戏真实解的能力。这一篇,我们深入分析AlphaGo Zero的设计理念和关键组件的细节并解释组件之间的关联。下一篇中,我们将在已有的N子棋OpenAI Gym 环境中用Pytorch实现一个简化版的AlphaGo Zero算法。
CreateAMind
2020-10-22
1.5K
0
Google Research Football (scenario 2) 实验
游戏
谷歌足球环境(Google Research Football )的介绍可以参看之前的公众号文章:
CreateAMind
2019-08-30
1.1K
0
RND 笔记
游戏
http
RND: https://blog.openai.com/reinforcement-learning-with-prediction-based-rewards/
CreateAMind
2019-04-28
667
0
巨量奇幻炫酷照片来袭 - 人工智能艺术照片赏析
人工智能
神经网络
游戏
神经网络在计算机视觉取得了巨大的发展,让我们在图片效果上面的想象力有了更好的展示方式,想象力从图片效果扩展开来,人类的想象力有了更好的表达。从场景到人物,从游戏到动漫,从可爱动物到奇幻森林,烈火浓烟效果滚滚,从稀奇古怪到恐怖科幻。各种效果等你来实现。
CreateAMind
2018-07-25
395
0
智能机器的现实风险
深度学习
自动驾驶
人工智能
图像处理
游戏
当人们问我是干什么的,我常常对回答的深度感到困惑。说“人工智能”我很满意,但太宽泛,而说“图像处理”可能又太具体。然而,一听到接下的来的毫不相干的问题我总是气不打一处来。
CreateAMind
2018-07-25
270
0
模拟赛车torcs论文翻译
游戏
.net
开源
摘要:本手册介绍了模拟赛车锦标赛的比赛软件,在进化计算领域和计算智能与游戏领域的大型会议上举办的国际比赛。 它提供了架构的概述、安装软件的说明以及运行包中提供的简单驱动程序、传感器和执行器的描述。 1.介绍: 本手册介绍了模拟赛车锦标赛的比赛软件,在进化计算领域和计算智能与游戏领域的大型会议上举办的国际比赛。 比赛的目标是为赛车设计一个控制器,用于首次单独在未知轨道比赛中同其他赛车比赛。 控制器通过多个传感器来感知赛车环境,这些传感器描述了汽车状态(燃料水平,发动机转速,当前档位等),汽车周围环境的
CreateAMind
2018-07-24
1.5K
0
Keras和DDPG玩赛车游戏(自动驾驶)
keras
游戏
自动驾驶
python
这里,s是状态,a是行为/动作,θ是策略网络的模型参数,π是常见的表示策略的符号。我们可以设想策略是我们行为的代理人,即一个从状态到动作的映射函数。
CreateAMind
2018-07-24
1.6K
0
代码+视频 - 卡车强化学习自动驾驶模拟 - 玩游戏看风景
强化学习
自动驾驶
游戏
https
https://github.com/aleju/self-driving-truck
CreateAMind
2018-07-24
461
0
代码开源---强化学习赛车视频2
开源
强化学习
游戏
人工智能
https://github.com/createamind/a3c333 更复杂 参考README.md
CreateAMind
2018-07-24
429
0
代码+视频 - 卡车强化学习自动驾驶模拟 - 玩游戏看风景
强化学习
自动驾驶
游戏
https
https://github.com/aleju/self-driving-truck
CreateAMind
2018-07-24
641
0
AGI:我与世界的互动是不是如我所愿。动作条件CycleGAN好奇心探索 代码开源
开源
ios
游戏
https
Curiosity-driven Exploration by Self-supervised Prediction
CreateAMind
2018-07-24
372
0
动作CycleGAN好奇心探索 代码开源
开源
ios
游戏
https
Curiosity-driven Exploration by Self-supervised Prediction 一项好的勘探政策是允许代理人访问尽可能多的国家,即使没有任何目标。我们期望良好的勘探政策能够覆盖尽可能多的地图;我们期望它访问尽可能多的游戏状态。令我们吃惊的是,我们发现在这两种情况下,无奖励代理都能很好地执行报价(请参见视频)。 https://github.com/pathak22/noreward-rl https://pathak22.github.io/noreward-rl/
CreateAMind
2018-07-20
309
0
AGI:我与世界的互动是不是如我所愿。动作条件CycleGAN好奇心探索 代码开源
开源
ios
游戏
https
Curiosity-driven Exploration by Self-supervised Prediction 一项好的勘探政策是允许代理人访问尽可能多的国家,即使没有任何目标。我们期望良好的勘探政策能够覆盖尽可能多的地图;我们期望它访问尽可能多的游戏状态。令我们吃惊的是,我们发现在这两种情况下,无奖励代理都能很好地执行(请参见视频)。 https://github.com/pathak22/noreward-rl https://pathak22.github.io/noreward-rl/ r
CreateAMind
2018-07-20
431
0
深度神经网络惊人的'注意力'能力-附论文解读
神经网络
游戏
深度网络在计算机视觉、语言、翻译、玩游戏等等方面都取得了巨大的进步,在动物的注意力方面也开始逐步取得进展! 看图: paper 《Top-down Neural Attention by Excita
CreateAMind
2018-07-20
486
0
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档