首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

对标Google,微软开源其人工智能CNTK

根据微软研究人员的描述,由于具备更为优秀的交互能力,CNTK工具包中的语音和图像识别速度比另外四个当下主流的计算工具包都更加受开发者的欢迎。...为了开发CNTK,微软就必须深入研究神经网络,探究如何更好的复制人脑的学习过程。...该公司还依靠其强大的计算处理能力与图形处理(GPU)能力来运行CNTK,从而处理更为复杂的算法,提高人工智能和识别能力。...但据微软首席语音科学家黄学东称,微软的CNTK工具包比我们此前所见过的任何工具包都更加疯狂,同时性能也更加强悍。...事实上,CNTK还具有着更为强大的可扩展性——开发者可以用多台计算机实现GPU的扩展,从而能够更加灵活的应对大规模的实验。

50530
您找到你想要的搜索结果了吗?
是的
没有找到

微软为什么要用英伟达的GPU来支持CNTK

今天下午,在北京举行的GTC CHINA 2016(GPU技术大会)中,英伟达深度学习研究院对CNTK中图像识别功能进行了简单介绍。 首先,我们来了解下CNTK。...CNTK的总体架构如上图所示,这里我们可以简单地分几部分进行理解,分别是上中下和左中右两种理解逻辑。先说上中下部分,最下面的包含IDataReader这一层可以理解为基础的数据。...可以说CNTK的总体架构,描述了一个典当行学徒的从入门到精通的学习过程。从样本训练自己,形成自己的能力,然后使用其所学。...根据研究人员的描述,由于具备更为优秀的交互能力,CNTK工具包中图像识别速度比另外四个当下主流的计算工具包都更加受开发者的欢迎。 ?...在微软最新发布的CNTK1.7版本中,CNTK已经支持英伟达的最新的深度神经网络资料库cuDNN5.1。 其实在Facebook、百度等巨头的人工智能研究中,经常用到英伟达的GPU。

85630

CNTK

原标题:当TensorFlow遇见CNTK CNTK是微软用于搭建深度神经网络的计算网络工具包,此项目已在Github上开源。...CNTK有一套极度优化的运行系统来训练和测试神经网络,它是以抽象的计算图形式构建。如此看来,CNTK和TensorFlow长得非常相似。但是,它们有一些本质上的区别。...你是否注意到我们使用了与CNTK相同的一组变量,只不过这里我们把它称作变量,而在CNTK称作参数。维度也略有不同。...16核(没有GPU)的Linux VM需要消耗62.95分钟来执行训练和测试过程,999.01分钟的用户时间和4分钟的系统时间。...我却无法用CNTK来实现,不过这可能是由于我的无知,而不是CNTK的局限性。如果有人能提示我该怎么做,我会很感激的)。 在LSTM递归神经网络的例子里,我发现CNTK的版本相当的透明。

64570

测试运行 - 使用 CNTK 的 DNN 图像分类简介

文件 mnist_test_100_cntk.txt 具有 100 个映像,并使用相同的 CNTK 友好格式。 在大多数神经网络问题中,你想要规范化预测因子值。...由于 CNTK 正年轻和持续开发,它最好添加注释,详述使用哪一版本 (在此情况下 2.4)。 安装 CNTK 可能会需要一些技巧,如果您是初次接触 Python 世界。...请注意;我见过的几乎所有 CNTK 安装失败都是由于 ANACONDA-CNTK 版本不兼容。...这是 CNTK 的不同寻常之处,因为 CNTK 定型函数需要使用未激活的原始值。Dnn 对象是只是便捷别名。model 对象包含 softmax 激活函数,以便在定型后用于预测。...在 CNTK 中,保存所示: mdl_name = ".\\Models\\mnist_dnn.model" model.save(mdl_name) 这会保存使用默认的 CNTK v2 格式。

93320

微软开源深度学习工具包CNTK更新2.3版,带来多重性能改进

近日微软更新了自家开源深度学习工具包CNTK,新的版本号为2.3,带来了多项性能改进。...对于某些模型,训练速度可以提升5倍以上; 提升验证性能,移除了许多不需要的验证检查; CPU 卷积中更多地使用MKL-ML,AlexNet的训练速度可以提升4倍; Linux的正式版CNTK-GPU会默认使用...对于Python用户来说没有什么影响,Linux的Python自己就带有NCCL支持。BrainScript版本的用户需要先自己手工安装NCCL库作为CNTK的运行环境,就像CUDA和CUDNN一样。...CPU版本和Windows版本都不受影响,因为目前NCCL只支持Linux。 提升了梯度稀疏时Adadelta的更新速度。现在每次更新的运行时间和梯度中不为零的元素的数量成正比。...Windows下的CPU、GPU、GPU+1bit-SGD、UWP等多个版本以及运行在Linux下的CPU、GPU、GPU+1bit-SGD三个版本,都支持64位系统。

1.1K50

微软开源人工智能工具包CNTK,解锁深度学习技术

对此,微软做出了一个举动,26日正式宣布已经在Github上向外部开发人员开源了它的人工智能工具包CNTK(Computational Network Toolkit)。...我们不得不承认的是,微软在深度学习和人工智能领域确实投入了相当大的成本,这些现代化开发工具被叫做计算网络工具包(CNTK),此举是希望能够在机器学习领域上取得更多的突破。...微软研究人员表示:由于其本身优秀的交互能力,CNTK工具包中的语音和图像识别速度比目前市场上主流的另外四个计算机工具包更受开发者的欢迎。深度学习仅需要数周就可以完成,因此这算是微软一个很不错的成就。...2015年,谷歌开源了用于图片搜索功能的TensorFlow机器学习系统,对此,微软的首席语音科学家黄学东表示,微软的这一款CNTK工具包比之前见过的任何一款工具包都好都疯狂,性能上更为强悍。...此外,CNTK还具有非常强大的可扩展性,开发人员可以使用多台计算机实现CPU的扩展,可以在大规模的试验中表现的更加灵活。

1.1K50

分布式深度学习框架PK:Caffe-MPI, CNTK, MXNet ,TensorFlow性能大比拼

用CNN评估Caffe- MPI, CNTK, MXNet 和 TensorFlow四个深度学习框架性能 近年来,深度学习技在许多AI应用上获得了巨大的成功。...亚马逊采纳了MXNet作为亚马逊云服务(AWS)主要的深度学习框架,谷歌在谷歌云上使用TensorFlow,微软在Amazon Azure上部署CNTK。...这篇论文扩展了此前的工作——用DNN 评估了四个分布式深度学习工具(即,Caffe-MPI, CNTK, MXNet 和 TensorFlow)在GPU集群上的表现。...CNTK 和 MXNet都展示了cuDNN的autotune configuration,在前向或者反向传播中,这都能带来更好的性能。...我们首先构建了性能模型来测量同步SGD的加速,包括Caffe-MPI, CNTK, MXNet 和 TensorFlow的不同实现。

1.4K70

从三大神经网络,测试对比TensorFlow、MXNet、CNTK、Theano四个框架

Keras 配置文件中有一个参数决定了使用哪一个深度学习框架作为后端,因此我们可以构建一个相同的模型在不同的深度学习框架(如 TensorFlow、CNTK、Theano)上直接运行。...而按照准确度/收敛速度来说,CNTK 在前 25 个 epoch 中领先一点,而在 50 个 epoch 后,其他框架都到达相近的准确度,而 CNTK 却略微下降。 ? ?...该测试并没有使用 MXNet,TensorFlow 和 Theano 在每一个 epoch 上要比 CNTK 要快了一倍多。 ? ? 结语 ?...CNTK 在 Babi RNN 和 MNIST RNN 测试上要比 TensorFlow 和 Theano 好得多,但是在 CNN 测试上要比 TensorFlow 差一些。...MXNet 在 RNN 测试上要比 CNTK 和 TensorFlow 要好一点,此外它在 MLP 上要比所有框架的性能都要好。

1.4K70
领券