腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
GiantPandaCV
专栏成员
举报
722
文章
994383
阅读量
100
订阅数
订阅专栏
申请加入专栏
全部文章(722)
https(213)
网络安全(176)
编程算法(166)
神经网络(164)
深度学习(157)
人工智能(110)
模型(105)
机器学习(98)
图像识别(85)
github(67)
数据(63)
git(51)
pytorch(50)
开源(43)
python(36)
论文(33)
性能(33)
优化(32)
卷积神经网络(29)
图像处理(27)
批量计算(25)
kernel(25)
腾讯云测试服务(23)
函数(23)
存储(22)
网络(21)
ide(20)
c++(17)
数据结构(17)
翻译(17)
工作(17)
算法(17)
opencv(15)
数据分析(14)
框架(14)
css(13)
node.js(12)
内存(12)
人脸识别(11)
api(11)
linux(11)
block(11)
架构(11)
打包(10)
部署(10)
测试(10)
对象(10)
量化(10)
笔记(9)
编译(9)
单片机(8)
编码(8)
教程(8)
html(7)
文件存储(7)
分布式(7)
缓存(7)
监督学习(7)
cuda(7)
设计(7)
压缩(7)
LLM(7)
tcp/ip(6)
openai(6)
self(6)
tensor(6)
视频(6)
系统(6)
对象存储(5)
自动驾驶(5)
c#(5)
网站(5)
http(5)
ssh(5)
迁移(5)
channel(5)
lm(5)
models(5)
token(5)
tensorflow(4)
.net(4)
android(4)
mapreduce(4)
渲染(4)
决策树(4)
windows(4)
bit(4)
image(4)
model(4)
text(4)
编译器(4)
后端(4)
脚本(4)
内核(4)
通信(4)
线程(4)
图像分割(4)
NLP 服务(3)
arm(3)
容器镜像服务(3)
容器(3)
chatgpt(3)
epoch(3)
gpu(3)
mask(3)
max(3)
size(3)
state(3)
time(3)
torch(3)
变量(3)
接口(3)
连接(3)
入门(3)
索引(3)
效率(3)
学习笔记(3)
原理(3)
javascript(2)
日志服务(2)
企业(2)
html5(2)
无人驾驶(2)
面向对象编程(2)
keras(2)
二叉树(2)
flash(2)
markdown(2)
迁移学习(2)
fpga(2)
ghost(2)
学习方法(2)
智能推荐平台(2)
auto(2)
chat(2)
data(2)
embedding(2)
free(2)
input(2)
int(2)
key(2)
layer(2)
map(2)
nas(2)
normalization(2)
object(2)
patch(2)
profiler(2)
random(2)
rgb(2)
row(2)
scale(2)
set(2)
程序(2)
递归(2)
地图(2)
服务(2)
高性能(2)
工具(2)
基础(2)
集合(2)
解决方案(2)
进程(2)
开发者(2)
腾讯(2)
统计(2)
硬件(2)
语法(2)
源码(2)
重构(2)
负载均衡(1)
java(1)
bash(1)
jquery(1)
opengl(1)
汇编语言(1)
flask(1)
apache(1)
nginx(1)
bash 指令(1)
黑石物理服务器(1)
访问管理(1)
命令行工具(1)
SSL 证书(1)
高性能计算(1)
vr 视频解决方案(1)
出行(1)
serverless(1)
shell(1)
强化学习(1)
rpc(1)
无监督学习(1)
anaconda(1)
大数据(1)
数据处理(1)
腾讯云开发者社区(1)
网站渗透测试(1)
聚类算法(1)
分类算法(1)
汽车(1)
小程序·云开发(1)
alpha(1)
architecture(1)
backbone(1)
bi(1)
branch(1)
class(1)
core(1)
cpu(1)
crop(1)
cube(1)
dataset(1)
detection(1)
dsl(1)
encoding(1)
export(1)
file(1)
fold(1)
func(1)
gan(1)
google(1)
gpt(1)
gradient(1)
im(1)
kaggle(1)
label(1)
lambda(1)
leetcode(1)
llvm(1)
load(1)
local(1)
location(1)
mac(1)
mapping(1)
matrix(1)
mean(1)
memory(1)
meta(1)
mutable(1)
offset(1)
outlook(1)
output(1)
pdf(1)
position(1)
post(1)
prefix(1)
profile(1)
reshape(1)
rotation(1)
sap(1)
scaling(1)
schedule(1)
scope(1)
search(1)
sequence(1)
shared(1)
spatial(1)
sse(1)
std(1)
stream(1)
streaming(1)
sum(1)
table(1)
tail(1)
thread(1)
transform(1)
vector(1)
worker(1)
zero(1)
编程(1)
插件(1)
读书笔记(1)
多线程(1)
互联网(1)
开发(1)
流媒体(1)
排序(1)
排序算法(1)
配置(1)
日志(1)
事件(1)
手机(1)
数据存储(1)
异常(1)
原型(1)
字符串(1)
LoRa(1)
搜索文章
搜索
搜索
关闭
nndeploy:一款最新上线的支持多平台、简单易用、高性能的机器学习部署框架
机器学习
部署
高性能
框架
模型
nndeploy是一款最新上线的支持多平台、高性能、简单易用的机器学习部署框架,一套实现可在多端(云、边、端)完成模型的高性能部署。
BBuf
2023-09-19
481
0
用于ARM Cortex-M系列的芯片的神经网络推理库CMSIS-NN详解
企业
机器学习
神经网络
深度学习
人工智能
论文题目:《CMSIS-NN: Effificient Neural Network Kernels for Arm Cortex-M CPUs》, 2018年
BBuf
2022-09-28
2.5K
0
时间序列预测paper、应用汇总
编程算法
深度学习
机器学习
神经网络
人工智能
Optiver是全球顶尖的量化交易公司。10个月前,Optiver在Kaggle上面办的一场预测股票市场波动率的比赛。
BBuf
2022-09-28
291
0
Instance-Conditioned GAN
机器学习
神经网络
深度学习
人工智能
https
作者:Arantxa Casanova, Marlene Careil, Jakob Verbeek, Michal Drozdzal, Adriana Romero Soriano
BBuf
2022-09-28
892
0
CVPR2022:计算机视觉中长尾数据平衡对比学习
学习方法
机器学习
神经网络
深度学习
人工智能
现实中的数据通常存在长尾分布,其中一些类别占据数据集的大部分,而大多数稀有样本包含的数量有限,使用交叉熵的分类模型难以很好的分类尾部数据。在这篇论文中,作者专注不平衡数据的表示学习。通过作者的理论分析,发现对于长尾数据,它无法形成理想的几何结构(在下文中解释该结构)。为了纠正 SCL(Supervised Contrastive Learning,有监督对比学习) 的优化行为并进一步提高长尾视觉识别的性能,作者提出了一种新的BCL(Balanced Contrastive Learning,平衡对比学习)损失。
BBuf
2022-09-28
2.3K
0
MLSys 15-884: Course Introduction
编程算法
机器学习
深度学习
神经网络
人工智能
本来是在找一些有趣的关于mlsys的paper,突然发现,相比我刚刚读Ph.D.那会,这个domain变得越来越火了,包括MLSys2022,OSDI2022好多这方面的paper,目测9月开WLK前,我都有大把的时间来搞这些东西,所以,这次肯定是能够把坑填完的。同时也发现爱丁堡的麦络老师也写了一本不错的关于mlsys的书籍:
BBuf
2022-05-27
824
0
Tokens-to-token ViT: 对token做编码的纯transformer ViT,T2T算引入了CNN了吗?
css
机器学习
神经网络
深度学习
人工智能
T2T-ViT是纯transformer的形式,先对原始数据做了token编码后,再堆叠Deep-narrow网络结构的transformer模块,实际上T2T也引入了CNN。
BBuf
2022-04-06
647
0
Kaggle Tensorflow StarFish挑战赛金牌分享
机器学习
神经网络
深度学习
人工智能
在去年,陆陆续续和队友@willer共同参加了一些计算机视觉竞赛(图像检测、分类竞赛),取得了一些不错的成绩。在年底,偶然得知Kaggle上有一个热度很高的还行检测的比赛,于是简单参考了一下。今天榜单揭晓,非常幸运,在比赛切换到了私榜后,分数大幅度提升,从初赛Public Leaderboard的1100多名直接上分到了Top10,很幸运的荣获了人生中的第一个Kaggle Gold。
BBuf
2022-04-06
677
0
ViTAE:引入归纳偏置,浅层用CNN,深层用self-attention
机器学习
神经网络
深度学习
人工智能
css
引入归纳偏置,即局部性和尺度不变性,浅层用CNN编码token,深层用多头注意力机制做transformer的模块堆叠,是一次CNN和transformer结合探索,也是一个对送进多头注意力机制的token编码的探索,送进更信息更加聚合的token,来降低模型大小,提高分类任务的效果。
BBuf
2022-02-11
1.2K
0
当可变形注意力机制引入Vision Transformer
node.js
https
网络安全
机器学习
神经网络
通过在Transformer基础上引入Deformable CNN中的可变性能力,在降低模型参数量的同时提升获取大感受野的能力,文内附代码解读。
BBuf
2022-02-11
677
0
CvT: 如何将卷积的优势融入Transformer
机器学习
神经网络
深度学习
人工智能
https
与之前BoTNet不同,CvT虽然题目中有卷积的字样,但是实际总体来说依然是以Transformer Block为主的,在Token的处理方面引入了卷积,从而为模型带来的局部性。最终CvT最高拿下了87.7%的Top1准确率。
BBuf
2022-01-27
825
0
BoTNet:Bottleneck Transformers for Visual Recognition
机器学习
神经网络
深度学习
人工智能
https
基于Transformer的骨干网络,同时使用卷积与自注意力机制来保持全局性和局部性。模型在ResNet最后三个BottleNeck中使用了MHSA替换3x3卷积。属于早期的结合CNN+Transformer的工作。简单来讲Non-Local+Self Attention+BottleNeck = BoTNet
BBuf
2021-12-29
654
0
CNN、Transformer、MLP架构的经验性分析
机器学习
神经网络
深度学习
人工智能
ViT的兴起挑战了CNN的地位,随之而来的是MLP系列方法。三种架构各有特点,为了公平地比较几种架构,本文提出了统一化的框架SPACH来对比,得到了具有一定insight的结论。论文来自微软的A Battle of Network Structures: An Empirical Study of CNN, Transformer, and MLP
BBuf
2021-12-27
886
0
计算机视觉三大经典应用,你学废了吗?
编程算法
图像识别
深度学习
数据结构
机器学习
计算机视觉研究的最终目标是使计算机能通过视觉观察和理解世界,具有自主适应环境的能力,在深度学习发展起来后,卷积神经网络被广泛应用到图像定位、目标检测、目标分割、目标跟踪、行为识别等应用方面。
BBuf
2021-11-12
759
0
Deepfake视频中时空不一致学习
编程算法
机器学习
神经网络
深度学习
人工智能
针对Deepfake Video检测任务上的时空不一致问题,提出了三种模块对时间信息、空间信息、时间差异进行建模,能够灵活地即插即用到2D CNN中。
BBuf
2021-10-08
811
0
Involution再思考:三大任务涨点明显
kernel
https
网络安全
机器学习
神经网络
【GiantPandaCV导语】在被Transformer结构刷榜之前,CNN一直都是CV任务的标配。卷积有两个基本性质,分别是空间不变性 (spatial-agnostic)和通道特异性 (channel-specific)。空间不变性使得卷积能够在所有位置共享参数,并充分利用视觉特征的“平移等变性”。通道特异性使得卷积能够充分建模通道之间的关系,提高模型的学习能力。
BBuf
2021-07-23
672
0
OutLook Attention:具有局部信息感知能力的ViT
linux
https
机器学习
神经网络
深度学习
近段时间,Transformer-based模型在Visual Recognition领域取得了非常大的进展。但是如果不借助额外的训练数据,Transformer-based模型离CNN-based模型还是具有一定的差距(NFNet-F5(CNN-based):86.8%,CaiT(Transformer-based):86.5%)。作者认为,这是因为token embedding并没有进行细粒度特征表示,因此本文提出了一种新的Attention方式,通过局部信息的感知,能够获得更加细粒度的特征表示。
BBuf
2021-07-23
648
0
思考NLP和CV中的Local和Global建模
机器学习
神经网络
深度学习
人工智能
CNN的感受野受卷积核大小的限制,导致了CNN实际上是一种Local的信息建模;而Self-Attention(SA)是将每个位置和所有位置计算attention weight,考虑了每个点之间的联系,因此SA是一种Global的建模。
BBuf
2021-07-23
540
0
图解 RepMLP
机器学习
神经网络
深度学习
人工智能
本文提出了一个由多个全连接层构成的用于图像分类的模块RepMLP。全连接层能够高效地建模长距离依赖和位置模式,但不能很好地捕捉局部信息(擅长这件事情的是卷积)。我们在RepMLP中引入了卷积操作来捕捉局部信息,并在推理阶段将卷积核权重融入到全连接层中。该模块能充分利用全连接层的全局表征能力以及卷积层的局部捕捉特性,在图像分类任务上有不错的提升。
BBuf
2021-07-01
619
0
A Survey of Transformer 一篇Transformer综述(上)
编程算法
机器学习
神经网络
深度学习
人工智能
Transformer现在是一种在各个领域被广泛使用的模型,包括NLP,CV,语音领域。随着这几年发展,一些Transformer的变体在以下几个方面进行改进:
BBuf
2021-07-01
1.7K
0
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档