首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

当前深度神经网络模型压缩和加速方法速览

导读: 本文全面概述了深度神经网络的压缩方法,主要可分为参数修剪与共享、低秩分解、迁移/压缩卷积滤波器和知识精炼,本论文对每一类方法的性能、相关应用、优势和缺陷等进行独到的分析。机器之心简要介绍了该论文,更详细的内容请查看原论文。 大型神经网络具有大量的层级与结点,因此考虑如何减少它们所需要的内存与计算量就显得极为重要,特别是对于在线学习和增量学习等实时应用。此外,近来智能可穿戴设备的流行也为研究员提供了在资源(内存、CPU、能耗和带宽等)有限的便携式设备上部署深度学习应用提供了机会。高效的深度学习方法可以

06
您找到你想要的搜索结果了吗?
是的
没有找到

BIB | 基于图卷积网络和深度神经网络的药物靶点相互作用识别

今天为大家介绍的是哈尔滨工业大学计算机科学与技术学院臧天仪教授等人发表在Briefings in Bioinformatics上的文章“Identifying drug–target interactions based ongraph convolutional network and deep neural network”。识别新的药物靶点相互作用(DTIs)是药物发现中一个重要但耗时且昂贵的步骤。然而,现有的方法大多是分别构建药物网络和靶点网络,然后根据已知的药物和靶点之间的关联来预测新的DTI,而没有考虑药物-蛋白质对之间的关联(DPP)。为了将DPP纳入到DTI建模中,本文构建了一个基于多种药物和蛋白质的DPP网络,以DPP为节点,DPP之间的关联为网络的边缘。然后,提出了一个新的基于深度学习的框架:图卷积网络DTI预测框架(GCN-DTI)用于新的药物-靶点相互作用识别。

04

基于BCI的脑电信号系统控制无人机运动

脑机接口能够通过脑电图(EEG)信号与设备进行通信。有实验提出了一种使用EEG波的新算法,通过眨眼和注意力水平信号来控制无人机的运动。通过使用支持向量机算法对眨眼进行分类和通过人工神经将其转换为4位代码网络。线性回归方法用于将注意力分类为低级别或高级别一个动态阈值,产生一个1位代码。算法中的运动控制结构为两个控制层。第一层提供控制眨眼信号,第二层同时包含眨眼信号并感知注意力水平。提取脑电信号并使用单通道NeuroSkyMindWave2设备进行处理。所提出的算法已经通过对五个不同年龄的个体的实验测试得到验证。结果表明它的高性能与现有算法相比,精度为91.85%用于9个控制命令。具有以下能力多达16个命令及其高精度,该算法可以适用于许多应用。

02

【犀牛鸟论道】深度哈希方法及其在移动视觉搜索中的应用

1. 简介 移动视觉搜索技术是多媒体搜索领域中一个前沿的研究课题。近年来,移动设备的飞速发展,改变了互联网上图像和视频等视觉内容的产生,以及人们检索和观看的方式。移动设备的便携性和无处不在的网络接入能力使其逐渐成为主要的互联网图像和视频内容的访问和查询入口。而移动设备上丰富的传感器原件,也使得移动视觉搜索的过程更加自然、有效——用户可以直接通过拍摄图像和视频进行搜索。因此,移动视觉搜索具有巨大的市场需求和应用前景。但是,不同于传统的桌面搜索,移动视觉搜索主要面临如下挑战:1)查询图像\视频受拍摄环境干扰严重

010

你也可以训练超大神经网络!谷歌开源GPipe库

深度神经网络(DNN)推动了许多机器学习任务的发展,包括语音识别、视觉识别、语言处理。BigGan、Bert、GPT2.0取得的近期进展表明,DNN模型越大,其在任务中的表现越好。视觉识别领域过去取得的进展也表明,模型大小和分类准确率之间存在很强的关联。例如,2014年ImageNet视觉识别挑战赛的冠军GoogleNet以400万的参数取得了74.8%的top-1准确率,但仅仅过了三年,冠军的宝座就被Squeeze-and-ExcitationNetworks抢去,后者以1.458亿(前者的36倍还多)的参数量取得了82.7%的top-1准确率。然而,在这段时间里,GPU的内存只提高了3倍左右,当前最优的图像模型却已经达到了谷歌云 TPUv2的可用内存。因此,我们急需一个能够实现大规模深度学习并克服当前加速器内存局限的可扩展高效架构。

02

你也可以训练超大神经网络!谷歌开源GPipe库

深度神经网络(DNN)推动了许多机器学习任务的发展,包括语音识别、视觉识别、语言处理。BigGan、Bert、GPT 2.0取得的近期进展表明,DNN模型越大,其在任务中的表现越好。视觉识别领域过去取得的进展也表明,模型大小和分类准确率之间存在很强的关联。例如,2014年ImageNet视觉识别挑战赛的冠军GoogleNet以400万的参数取得了74.8%的top-1准确率,但仅仅过了三年,冠军的宝座就被Squeeze-and-ExcitationNetworks抢去,后者以1.458亿(前者的36倍还多)的参数量取得了82.7%的top-1准确率。然而,在这段时间里,GPU的内存只提高了3倍左右,当前最优的图像模型却已经达到了谷歌云 TPUv2的可用内存。因此,我们急需一个能够实现大规模深度学习并克服当前加速器内存局限的可扩展高效架构。

03
领券