首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

软硬组合,搭起宝德AI赋能框架,重拳出击!

深度学习概念已经被提出多年,人工智能在近几年逐渐升温,但受限于软硬件平台,进展缓慢,直到以GPU为核心的协处理加速的应用,人工智能应用效率才得以提升。GPU/FPGA等协处理加速设备就是一个庞大的计算矩阵,动辄具有数以千计的计算核心,可实现10-100倍应用吞吐量,而且还支持对深度学习至关重要的并行计算,比传统处理器更加快速,大大加快了训练过程。

目前,高性能的CPU+GPU架构服务器已经成为实现深度学习必不可少的基础硬件。如何做好选择,搭建最合理的训练架构,是开启深度学习之路的第一步,这一步也关系到后期训练的性能。人工智能技术迅速成熟、产品井喷、落地场景多种多样,可以预见相关智能应用将在未来数年内持续保持高速发展态势。这一方面意味着对服务器计算力提出更加强劲的需求,同时也对服务器性能提出新的挑战。

宝德AI服务器发挥硬件最强性能

宝德AI加速训练服务器PR4910P,面向深度学习训练用户,采用全新处理器架构给系统带来了性能上的飙升,可支持10张英伟达Tesla V100加速卡,轻松获得最高达300GB/s的GPU内部互联带宽。高带宽、低延迟的GPU互联将为训练提供更高的加速比,成倍提升AI开发效率。

宝德AI推理服务器PR2715P2,基于通用服务器开发,具备通用服务器的高扩展、高性价比特性。可支持搭载2张NVIDIA T4加速卡,并设计了强力散热系统,控制GPU使用的温度。作为第三代专业线上异构服务解决方案,PR2715P2专门设计用于AI推理服务。

宝德PLStack软件平台调优

针对目前人工智能市场最突出的计算服务成本、研发技术门槛两大痛点,同时聚焦图像识别、语音识别、自然语言处理、智能驾驶、科研教育等应用方向,宝德发布了PLStack人工智能管理平台,进一步为用户优化容器化的集群调度以及深度学习私有云服务方案,通过PLStack软件平台为用户提供卓越的解决方案,以帮助用户将更多的精力集中到垂直应用的工作领域。

宝德PLStack平台构建在通用x86服务器上,底层使用Kubernetes及Docker实现基于容器的计算资源(CPU、内存、GPU)调度。用户登录平台后,可以通过Web界面自行创建基于不同深度学习框架的训练集群。基于开源计算框架,目前支持TensorFlow、Caffe、Mxnet三大深度学习框架,为深度学习技术的研发和应用提供可靠性高、扩展灵活的服务。通过搭建训练框架的集群池,为算法工程师和数据科学家提供模型托管平台,便于在 该平台上进行模型训练、评估及预测。解决了深度学习框架在使用中学习成本高、管理难、监控难、上线难等问题,帮助用户快速接入人工智能快车道,释放数据潜力。

宝德作为信息基础设施的建设者,不断结合自身技术优势和市场需求深化产品和服务能力,为用户提供智能计算支撑。以AI加速训练服务器、AI推理服务器为代表的智能硬件,与人工智能平台PLStack相得益彰,搭起宝德面向AI赋能的整体框架。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200409A0C7UX00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券