首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

软硬配置,全方位加速人工智能计算

从深蓝到AlphaGo

再到AlphaStar

过去10年,人工智能在机器视觉、

深度学习、自然语言处理

等领域取得了重大突破

而在这条道路上

计算力是最重要的推动力

有研究报告显示:2012年起,AI消耗的计算力平均每3.43个月增长一倍,过去6年的时间内已经增长30万倍。CPU+GPU异构计算是当下AI深度学习训练的首选,FPGA与ASIC亦在积蓄力量。

宝德持续投入到AI计算解决方案的研究,并将研究成果、效能测试、技术白皮书分享给用户。在AI加速服务器PR4910P、AI推理服务器PR2710P、边缘计算服务器PR2530P等多款服务器上,提供多种AI加速配置方案支持,总有一款可以满足您的需求。

全方位的AI加速配置方案总有一款可以满足您

AI加速服务器PR4910P是宝德设计的一款动态机器学习加速平台,4U机箱可以支持最多10张NVIDIA当前性能最高的V100加速卡,适合于各种AI计算环境下深度学习模型训练。PR4910P提供更强的环境适应能力,支持在35℃环境下205W CPU以及GPU加速器。

当前很多复杂的AI应用场景,往往使用多种算法的集成学习,以达到更好的模型精度,解决小数据样本下的机器学习,比如工业产品外观缺陷检测。而不同算法可能会选择不同的计算介质,比如深度学习选择GPU,经典机器学习使用CPU。此时,PR4910P的CPU与GPU的黄金配比,可以帮助用户应对复杂集成学习环境下模型训练加速。

同时,随着AI产业不断深入,推理计算需求增速明显。宝德AI推理服务器PR2710P也在推理计算场景中广泛采用,2U机箱可以支持2张T4或P4卡。PR2710P提供多矢量散热技术,可针对不同加速卡运行工作负载智能调节风扇转速。

此外,随着AI计算朝向边缘端进展,很多场景下如工业生产线、移动通信基站、变电站等,对散热、防尘等环境参数要求更加苛刻。而宝德边缘计算服务器PR2530P可搭载两张半高加速卡,采用工业加固型服务器设计。机箱深度仅为18英寸,符合严格的工业和军用标准,可以适应复杂严苛环境下AI边缘计算需求。

宝德集群管理平台PLStack为用户构建数据中心级AI计算资源

IT软件及硬件,一文一武,相得益彰。好的硬件设施,也需要好的资源管理与调度软件,以实现AI计算资源的按需分配和随需扩展。

PLStack专业计算平台为各类大算力需求的应用提供管理、计算和共享服务,解决科学研究、仿真模拟、人工智能等高性能计算场景中的大数据处理运算、分析存储以及数据分享问题,帮助用户更高效地使用本地和云端的计算资源,并在更短的时间内完成高性能和人工智能计算任务。

PLStack提供了多种资源管理和调度功能,能够协调多个用户同时提交学习任务,高效管理每个用户的学习任务,同时高效合理的利用整个计算资源。通过平台,用户可以动态创建自己的人工智能环境,平台提供了基于容器的多种学习算法和框架,提供了可视化的用户学习任务管理、编排、数据管理等功能。

通过适用于不同场景、不同应用负载的AI加速服务器硬件,以及提供创新AI计算资源管理平台,宝德为企业提供一套高效经济的AI计算平台。未来的AI计算平台,将如同我们儿时手中的魔方,快速变换出应用所需的AI计算资源,为拓展人工智能边界提供有利的计算利器。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200717A0LYJI00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券