运算加速!IBM推出人工智能专用服务器

IBM发布了专门用于数据中心人工智能系统运算的Power Systems Servers服务器,新服务器使用了IBM的高负荷人工智能运算专用Power9处理器,能够使深度学习人工神经网络的训练时间缩短4倍。

AC922 Power Systems服务器是第一个集成PCI-Express 4.0、新一代NVIDIA NVLink及OpenCAPI技术的服务器系统,使这个系统比基于Intel x86晶元组的PCI-E 3.0系统快9.5倍,能够提高目前流行的人工智能框架(如Chainer、TensorFlow和Caffe等)性能,也能够加速Kinetica等数据库。

越来越多芯片及服务器厂商都为适应人工智能高度运算需求,设计出人工智能专用之创新变革

除了IBM推出AI专用服务器外,面对机器学习、人工智能应用与日俱增,不少芯片厂商除了透过研发效能更强大的CPU、GPU以因应运算需求之外,也投入FPGA(Field-Programmable Gate Array)应用行列。以Intel为例,在2015年并购Altera得到的FPGA运算技术,在2017年10月便推出首款可程序化的加速卡,能安装在服务器当中,协助提升系统处理能力。

运用FPGA原理是中央处理器在面临资料处理的繁重负担时,可将这些作业移交给FPGA,FPGA和中央处理器间是以在线连接方式形成处理架构,所以能达到加速效果,无论I/O负载是从网络传入,或是处理器本身负载,均可直接卸载到FPGA执行。

为适应人工智能运算需求,目前在异质运算进程上,最常见的还是以CPU搭配GPU进行,但其实像CPU搭配专用的加速器芯片ASIC,或是CPU搭配多用途的加速器芯片FPGA,在未来人工智能推理、机器学习、大数据分析、5G连网、软件定义储存、网络功能虚拟化等,都需要借助这些加速运算技术。

系统方面,宏碁也推出专为人工智慧的深度学习推论应用所打造的高效能运算多节点之高密度服务器Altos W2200h-W670h F4系列,2U机架式空间可容纳4个运算节点,并提供水冷式的散热解决方案,能支援需要更大热设计功耗的处理器,进而提升功耗使用效率、降低PUE(Power Usage Effectiveness)值。

台系供应链机会

全球兴建资料中心热潮持续发烧,2018年全球服务器产业发展仍将持续走向高速传输、高速运算及云端服务,服务器相关芯片市场成长动能也跟着水涨船高,服务器相关芯片解决方案规格将持续加速。

台系芯片厂商包括联发科、瑞昱、谱瑞、慧荣、群联、祥硕、信骅及新唐等台系供应链具机会点。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171220G0KT8700?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券