首页
学习
活动
专区
工具
TVP
发布

机器之心

专栏成员
9145
文章
6900836
阅读量
281
订阅数
推理速度数倍提升,大幅简化多GPU后端部署:Meta发布全新推理引擎AITemplate
机器之心报道 机器之心编辑部 刚刚,Meta 发布了革命性的推理引擎 AITemplate。测试结果显示,相比 PyTorch Eager,AITemplate 在 NVIDIA GPU 上实现了最高 12 倍的性能提升,在 AMD GPU 上实现了高达 4 倍的性能提升。 众所周知,GPU 在各种视觉、自然语言和多模态模型推理任务中都占据重要位置。然而,对于高性能 GPU 推理引擎,AI 从业者几乎没有选择权,必须使用一些平台专有的黑盒系统。这意味着如果要切换 GPU 供应商,就必须重新实现一遍部署系统
机器之心
2022-10-08
1.2K0
新版Linux在M2 MacBook Air可用,Linus Torvalds发布最新内核
机器之心报道 编辑:陈萍 更多人使用 Arm 硬件将带来更好的 Arm 软件。 在搭载 M1 芯片的 Mac 上成功运行 Linux 之后,现在 M2 芯片也能跑 Linux 系统了! 通常来讲,Linux kernel 更新版本,发布者不会过多介绍,部分原因是大多数更新都是非常常规的。即任何给定的 Linux kernel 更新都会解决一些错误,改进对现有硬件的支持,并对新硬件的预期做出一些前瞻性的改变。 本次 Linux kernel 5.19 的到来也不例外。 但是 Linux kernel 创建
机器之心
2022-08-25
1K0
IEEE TPAMI | 火山语音提出多源迁移高斯回归模型,效果超越多个SOTA方法
机器之心专栏 机器之心编辑部 火山语音团队提出了一种能够有效建模不同领域之间相关性的迁移核函数(transfer kernel),在一些多源但低资源回归场景下显著提升了迁移效果。 一直以来,高斯过程回归模型(Gaussian process regression model, i.e., GP)作为一类基础的贝叶斯机器学习模型,在工程与统计等领域的回归问题中有着广泛应用;传统的高斯过程回归模型需要大量的有监督数据进行训练才可发挥好的效果,但在具体实践中,收集和标记数据是一项昂贵且费时的工程。相比之下,迁移高
机器之心
2022-07-12
3110
这两位中国学者,刚刚斩获了机器人顶会RSS最佳论文奖
机器之心报道 编辑:蛋酱 刚刚,RSS 2022 大会圆满落幕,最佳论文、最佳学生论文等多个奖项同时出炉。 RSS 会议全称为「Robotics: Science and Systems」,迄今已是第十八届。相比于人工智能领域动辄接收上千篇论文的顶会,RSS 显得更加小众,每年接收的论文只有几十篇,录取难度比较高。从方向来看,RSS 接收的论文也更偏重算法和数学。 据公开信息,RSS 2022 总共接收了 74 篇论文,在接收列表中,我们也看到了很多熟悉的中国学者的名字,包括朱玉可、吴佳俊、孙富春、范楚楚
机器之心
2022-07-04
5190
卷积越大性能越强!RepLKNet一作在线分享:Transformer阴影下的超大卷积核复兴
你有多久没调过 kernel size 了?在下游任务上,Transformer 明显优于传统 CNN,这是因为 Transformer 本质更强吗?传统堆叠大量 3x3 卷积的 CNN 设计模式是最优的吗? 最近,清华大学、旷视科技等机构的一项工作表明,CNN 中的 kernel size 其实是一个非常重要但总是被人忽略的设计维度:在现代模型设计的加持下,卷积核越大越暴力,既涨点又高效,甚至大到 31x31 都非常 work。即便在大体量下游任务上,超大卷积核模型 RepLKNet 与 Swin 等
机器之心
2022-03-24
6170
7 Papers & Radios | MIT深度学习框架登Nature封面;2010年以来,ML算力需求增100亿倍
机器之心 & ArXiv Weekly Radiostation 参与:杜伟、楚航、罗若天 本周论文包括来自阿伯丁大学、MIT 等机构的研究者对 ML 三要素中的算力需求进行了研究,发现自 2010 年以来,ML 算力需求增长 100 亿倍,每 6 个月翻番,深度学习成分水岭;CMU 创建一个开源的 AI 代码生成模型,C 语言表现优于 Codex。 目录: Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs 
机器之心
2022-03-21
5470
大到31x31的超大卷积核,涨点又高效,一作解读RepLKNet
机器之心转载 来源:知乎 作者:丁霄汉 你有多久没调过 kernel size 了?虽然常常被人忽略,但只要将其简单加大,就能给人惊喜。 当你在卷积网络(CNN)的深度、宽度、groups、输入分辨率上调参调得不可开交的时候,是否会在不经意间想起,有一个设计维度 kernel size,一直如此显而易见却又总是被忽视,总是被默认设为 3x3 或 5x5? 当你在 Transformer 上调参调得乐不思蜀的时候,是否希望有一种简单、高效、部署容易、下游任务性能又不弱于 Transformer 的模型,带
机器之心
2022-03-18
1.6K0
将大核卷积分三步,清华胡事民、南开程明明团队全新视觉骨干VAN,超越SOTA ViT和CNN
机器之心报道 编辑:小舟、杜伟 来自清华大学和南开大学的研究者提出了一种新型大核注意力(large kernel attention,LKA)模块,并在 LKA 的基础上构建了一种性能超越 SOTA 视觉 transformer 的新型神经网络 VAN。 作为基础特征提取器,视觉骨干(vision backbone)是计算机视觉领域的基础研究课题。得益于卓越的特征提取性能,CNN 成为过去十年中不可或缺的研究课题。在 AlexNet 重新开启深度学习十年之后,通过使用更深的网络、更高效的架构、更强的多尺度
机器之心
2022-03-04
3680
7 Papers & Radios | 吴尚哲新作:从视频中学习可变形3D对象;谷歌提出基于GAN的神经视频压缩
论文 1:DOVE: Learning Deformable 3D Objects by Watching Videos
机器之心
2021-08-06
4750
「冰冻荒原」版Linux内核有bug,不要使用!Linux之父紧急警告并发布5.12-rc2版本
2 月份,受恶劣天气影响,美国多个地区出现大规模断电。Linux 之父 Linus Torvalds 所在的俄勒冈州波特兰地区也没有幸免。但比较励志的是,即使经历了六天的断电生活,Linus Torvalds 还是赶出了新一版的 Linux 内核(候选版本)—Linux 5.12 rc1。
机器之心
2021-03-15
1K0
OS开发爱好者福利来了:树莓派上编译C语言,顺便掌握一波硬件知识
近日,有人在 GitHub 上开源了一个关于树莓派的教程。不同于以往的树莓派开发,这篇教程的核心内容是讨论如何在树莓派上进行裸机编程。
机器之心
2020-10-09
1.3K0
CPU推理性能提高数十倍,旷视天元计算图、MatMul优化深度解读
在深度学习大规模落地边缘端场景的今天,如何最大程度降本增效,是企业与开发者共同关注的话题。其中,模型的训练与推理是两个关键环节。
机器之心
2020-08-10
4740
2020年搞深度学习需要什么样的GPU:请上48G显存
众所周知,当今业界性能最强(SOTA)的深度学习模型都会占用巨大的显存空间,很多过去性能算得上强劲的 GPU,现在可能稍显内存不足。在 lambda 最新的一篇显卡横向测评文章中,开发者们探讨了哪些 GPU 可以再不出现内存错误的情况下训练模型。当然,还有这些 GPU 的 AI 性能。
机器之心
2020-02-24
2.9K0
多硬件支持、轻量化部署等,百度Paddle Lite特性全解读
在技术革新的浪潮下,智能硬件结合人工智能越来越广地进入了我们的生活。小到智能手机、手表,大到智能交通系统、工业自动检测平台等,无不渗透了人工智能的威力。此外,为人工智能深度学习定制的硬件近年来也有井喷之势。人工智能在多种服务平台,多种硬件下得到了越来越多的应用。这里的应用一般指的是深度学习模型在实际场景中的推理计算。虽然硬件的快速发展带来了计算性能的提升,但多样化的硬件平台也给应用开发带来了挑战。同时,对深度学习任务而言,实际应用中的算力和内存的限制仍然显得非常苛刻。
机器之心
2019-09-29
1.4K0
有钱任性:英伟达训练80亿参数量GPT-2,1475块V100 53分钟训练BERT
2)将 BERT 的推理时间缩短到了 2.2 毫秒(10 毫秒已经是业界公认的高水平);
机器之心
2019-08-20
1.8K0
Jupyter Notebook界面也可以如此炫酷?有人把Notebook玩出了新花样
对全世界的 Python 高手而言,Jupyter Notebook 是目前最流行的编程环境,尤其是对那些从事机器学习和数据科学的人而言。数月前我第一次开始认真研究机器学习时发现了 Jupyter Notebook。刚开始,我因这一切可以在我的浏览器中运行而感到惊讶和开心。但是,不久后我就失望了,老套的 Jupyter Notebook 的界面非常基础,缺乏很多有用的功能。那时候我就决定去寻找一些 Jupyter Notebook 的黑客技术。
机器之心
2019-07-29
1.5K0
ICML 2019 | Hinton等人新研究:如何更好地测量神经网络表示相似性
作者:Simon Kornblith、Mohammad Norouzi、Honglak Lee、Geoffrey Hinton
机器之心
2019-05-21
1.2K0
入门 | 一文概览深度学习中的卷积结构
选自Medium 作者:Paul-Louis Prove 机器之心编译 参与:路雪、李亚洲 本文对三种不同的卷积进行了介绍,同时讲解了各自的优点,对初学者而言,是理解卷积的一篇好文章。 卷积 首先,我
机器之心
2018-05-09
1.2K3
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档