前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >每日学术速递5.16

每日学术速递5.16

作者头像
AiCharm
发布2023-06-07 14:18:42
1810
发布2023-06-07 14:18:42
举报
文章被收录于专栏:AiCharm

CV - 计算机视觉 | ML - 机器学习 | RL - 强化学习 | NLP 自然语言处理

Subjects: cs.CV

1.Locally Attentional SDF Diffusion for Controllable 3D Shape Generation

标题:用于可控 3D 形状生成的局部注意 SDF 扩散

作者:Xin-Yang Zheng, Hao Pan, Peng-Shuai Wang, Xin Tong, Yang Liu, Heung-Yeung Shum

文章链接:https://arxiv.org/abs/2305.04461

项目代码:https://zhengxinyang.github.io/projects/LAS-Diffusion.html

摘要:

虽然最近 3D 生成神经网络的快速发展大大提高了 3D 形状的生成,但普通用户仍然不方便创建 3D 形状和控制生成形状的局部几何形状。为了应对这些挑战,我们提出了一个基于扩散的 3D 生成框架——局部注意力 SDF 扩散,通过 2D 草图图像输入来模拟合理的 3D 形状。我们的方法建立在两阶段扩散模型之上。第一阶段称为占用扩散,旨在生成一个低分辨率的占用场来近似形状壳。第二阶段,称为 SDF 扩散,在第一阶段确定的占用体素内合成高分辨率符号距离场,以提取精细几何形状。我们的模型由一种用于图像条件形状生成的新型视图感知局部注意机制提供支持,该机制利用 2D 图像块特征来指导 3D 体素特征学习,极大地提高了局部可控性和模型的通用性。通过在草图条件和类别条件 3D 形状生成任务中进行大量实验,我们验证并展示了我们的方法提供合理且多样化的 3D 形状的能力,以及其优于现有工作的可控性和普遍性。我们的代码和经过训练的模型可在此 https URL 上获得

2.EfficientViT: Memory Efficient Vision Transformer with Cascaded Group Attention

标题:EfficientViT:具有级联组注意力的高效内存视觉转换器

作者:Xinyu Liu, Houwen Peng, Ningxin Zheng, Yuqing Yang, Han Hu, Yixuan Yuan

文章链接:https://arxiv.org/abs/2305.07027

项目代码:https://github.com/microsoft/Cream/tree/main/EfficientViT

摘要:

视觉转换器因其高模型能力而取得了巨大的成功。然而,它们卓越的性能伴随着沉重的计算成本,这使得它们不适合实时应用。在本文中,我们提出了一个名为 EfficientViT 的高速视觉转换器系列。我们发现现有 Transformer 模型的速度通常受内存低效操作的限制,尤其是 MHSA 中的张量重塑和逐元素函数。因此,我们设计了一种具有三明治布局的新构建块,即在高效 FFN 层之间使用单个内存绑定 MHSA,从而提高内存效率,同时增强通道通信。此外,我们发现注意力图在头部之间具有高度相似性,从而导致计算冗余。为了解决这个问题,我们提出了一个级联的组注意力模块,为注意力头提供不同的完整特征分割,这不仅节省了计算成本,而且提高了注意力的多样性。综合实验表明 EfficientViT 优于现有的高效模型,在速度和准确性之间取得了良好的平衡。例如,我们的 EfficientViT-M5 在精度上比 MobileNetV3-Large 高出 1.9%,同时在 Nvidia V100 GPU 和英特尔至强 CPU 上的吞吐量分别高出 40.4% 和 45.2%。与最近的高效模型 MobileViT-XXS 相比,EfficientViT-M2 的精度提高了 1.8%,同时在 GPU/CPU 上的运行速度提高了 5.8 倍/3.7 倍,转换为 ONNX 格式时速度提高了 7.4 倍。此 https URL 上提供了代码和模型。

3.The emergence of clusters in self-attention dynamics

标题:自注意力动力学中集群的出现

作者:Borjan Geshkovski, Cyril Letrouit, Yury Polyanskiy, Philippe Rigollet

文章链接:https://arxiv.org/abs/2304.05977

项目代码:https://github.com/THUDM/ImageReward

摘要:

将变形金刚视为相互作用的粒子系统,当权重不依赖于时间时,我们描述了学习表示的几何形状。我们表明,随着时间趋于无穷大,代表标记的粒子倾向于聚集到特定的限制对象。出现的限制对象的类型取决于值矩阵的范围。此外,在一维情况下,我们证明自注意力矩阵收敛到低秩布尔矩阵。这些结果的组合在数学上证实了 Vaswani 等人所做的经验观察。在 Transformers 处理时出现在一系列标记中。

推荐阅读

竞争白热化!ChatGPT大更新!联网/插件功能无需排队,Plus用户下周即可体验

2023-05-14

每日学术速递5.14

2023-05-14

OpenAI原班人马、GPT4最强对手Claude史诗升级,百页资料一分钟总结完毕

2023-05-13

每日学术速递5.13

2023-05-13

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-05-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AiCharm 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 推荐阅读
相关产品与服务
GPU 云服务器
GPU 云服务器(Cloud GPU Service,GPU)是提供 GPU 算力的弹性计算服务,具有超强的并行计算能力,作为 IaaS 层的尖兵利器,服务于生成式AI,自动驾驶,深度学习训练、科学计算、图形图像处理、视频编解码等场景。腾讯云随时提供触手可得的算力,有效缓解您的计算压力,提升业务效率与竞争力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档