首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >【专家说】罗翀:专有云该不该用超融合架构?一文讲透超融合架构适用边界

【专家说】罗翀:专有云该不该用超融合架构?一文讲透超融合架构适用边界

作者头像
腾讯专有云
发布2025-10-20 18:34:44
发布2025-10-20 18:34:44
2880
举报
文章被收录于专栏:腾讯专有云腾讯专有云

作者:罗翀 腾讯专有云TCE 专家架构师

在Infra领域深耕十多年,精通计算、存储、网络等方向,持有Nvidia、AWS、Microsoft、VMware、Cisco等十几种专家级认证。早年曾服务于IBM、字节跳动等知名企业,加入腾讯后为中国人保、中国体彩、博世中国、南方电网、OPPO等业界头部企业设计落地过Infra解决方案。

导读

在企业加速迈向数字化的关键阶段,专有云架构的选择直接影响业务发展的走向。当下,超融合架构因概念热炒成为选型焦点,但不少企业因缺乏深入了解,盲目采用后在核心业务场景中暴露出性能瓶颈与扩展难题,严重阻碍数字化转型进程。

本文特邀腾讯专有云 TCE 专家架构师——罗翀,一步一步剥开技术hype,用工程师视角还原超融合的真实能力边界客观解析超融合的本质、优势与局限。


超融合架构的前世今生

超融合架构(Hyper-Converged Infrastructure),是通过软件定义(Software-defined)的方式,将计算、存储、网络等资源整合到标准化的工业服务器当中。根据纯软件方案和软硬一体方案的不同,它又常被称为超融合系统(Hyper-Converged System)或者超融合一体机(Hyper-Converged Appliance)。

起点:传统 DIY 系统的复杂性困境

回溯 IT 架构的发展历程,在超融合之前,有融合系统(Converged System),也被称作集成系统(Integrated Systems)、专家系统(Expert System)等。而融合系统的出现,还要从传统 DIY 系统的复杂性说起。

自从 EMC 将存储从计算中分离,企业高端基础架构方案在很长时间内由前端计算与网络(如 Cisco、Juniper 的以太网交换机 + IBM、HP、Dell 的服务器 )、后端存储与网络(Cisco、Brocade 的 FC SAN 交换机 + EMC、IBM、HDS 的 SAN 存储 ),再加上运行的 Microsoft、Oracle 和 VMware 软件组成 DIY 系统。

这种系统需要企业客户自行选择软硬件组合,分别管理各个软硬件组成,不仅交付周期长、管理复杂,还缺乏统一的技术支持,使得整体交付难度高、成本大。

传统DIY系统架构

探索:融合系统的改进与局限

为解决传统 DIY 系统的问题,融合系统应运而生。它提供了相对标准和经过验证的软硬件组成,并进行了预集成,像 IBM 的 PureSystem、Cisco&NetApp 的 FlexPod 以及 DellEMC 的 vBlock 等,都是各厂商主导的融合系统解决方案。

尽管融合系统在一定程度上改善了 DIY 系统的问题,但本质上仍是多个厂商的软硬件散装方案,仍需分别管理各个厂商的软硬件组成,统一技术支持的问题依旧没有得到解决。

突破:超融合系统的诞生与核心定位

随着虚拟化、云计算以及软件定义技术的发展,超融合系统诞生了。最初由 Nutanix、SimpliVity 等厂商率先推出,其主要目标是在企业虚拟化环境中取代传统的 SAN 存储三层架构,直接竞争对手是中端 SAN 存储。早期 Nutanix 的市场活动资料上就打着 “No SAN” 的字眼。

传统SAN存储三层架构

超融合系统源于 GFS(Google File System)思想的 NDFS(Nutanix Distributed File System),并支持 vSphere、Hyper-V 等多种虚拟化。

超融合的多面剖析

超融合架构,从本质上来说,是一种独特的部署架构。它将计算软件,也就是我们常见的虚拟化软件(vSphere、Hyper-V、KVM 等)与存储软件(分布式存储 NDFS、vSAN、Ceph 等),巧妙地部署到同一台服务器硬件上 。这一架构并非凭空出现的神奇技术,而是顺应技术发展潮流的产物。在它诞生之后,相应厂商针对这种部署架构做了大量优化工作。

随着时间的推移和市场的不断迭代,不同的超融合厂商陆续为其增加了网络软件(SDN、NFV 等)、安全软件以及容器软件(K8S)等功能。尽管功能不断丰富,但超融合架构将计算与存储软件融合部署在同一服务器硬件上的本质从未改变。这种本质特性,使得超融合架构在资源整合和管理方面具有独特的优势,同时也带来了一些局限性,这些都需要我们在实际应用中深入分析和理解。

核心优势:成本与管理的双重革新

超融合架构具有诸多核心优势,在成本和管理方面实现了双重革新。与传统的 SAN 存储架构相比,超融合架构去掉了专用的 FC SAN 交换机,转而采用更加廉价通用的以太网交换机。这种替换不仅降低了硬件采购成本,还减少了因专用设备带来的高昂维护费用。同时,超融合架构摒弃了专用的 FC SAN 存储,采用软件定义存储部署在标准化的工业服务器上。软件定义存储的使用,使得存储资源的调配更加灵活,能够根据实际需求进行动态分配,进一步提高了资源利用率,降低了存储成本

在管理方面,超融合架构极大地减少了企业客户的建设、使用和维护复杂性。传统架构中,企业需要分别管理计算、存储和网络等多个组件,涉及多个厂商的设备和技术支持,管理难度大。而超融合架构将这些资源整合到一个统一的平台,通过单一的管理界面即可实现对所有资源的监控和管理,大大简化了管理流程,提高了管理效率。

此外,超融合架构还提供了更少甚至是单一的技术支持,企业无需再与多个厂商沟通协调解决技术问题,降低了技术支持的成本和难度。

现存不足:超融合架构在多维度的适配局限

尽管超融合架构有显著优势,但也存在一定的能力边界,需要我们理性审视。

  • 功能 公有云厂商方案往往是全栈云定位,能提供 IaaS(计算、存储、网络)、PaaS(容器、数据库、中间件)、安全、大数据、AI 等全方面的软件产品和服务。而超融合厂商的核心主要集中在虚拟化和分布式存储,在数据库、中间件等 PaaS 功能上相对薄弱,很多时候连基础的 IaaS 裸金属功能也不具备或者不完善。
  • 性能 超融合架构将虚拟化和分布式存储部署在一起,甚至还有网络、安全等功能,硬件资源由计算和存储等共享,无法充分发挥各自的最大性能。在部署大规模数据库、大数据、AI 等对性能要求较高的应用或者业务时,超融合架构可能会出现性能瓶颈
  • 规模 公有云厂商的方案一般需要十几台设备,而超融合架构往往只需要两、三台即可最小起步,这是超融合架构的一大优势,使其在小型企业或分支机构等场景中具有较高的适用性。 但在大规模扩展方面,超融合架构存在一定局限。它必须同时扩容计算和存储,无法单独扩容计算或者存储,这就导致在实际情况中一定会有一种资源存在浪费。在极小或者较小规模情况下,这种资源浪费可能不太明显,但随着规模的扩大,资源浪费问题会逐渐凸显。 同时,超融合架构在节点规模方面也有不小限制,业界实际落地案例普遍在十几台的规模,少有几百上千台乃至上万台规模。
  • 场景适用性 非虚拟化环境(如裸金属部署)或高性能计算(HPC)、大数据、AI 场景下,超融合架构可能并不适用。它主要适合纯虚拟化环境(VM 或容器)、分支机构 / 边缘节点、敏捷开发测试环境等。
  • 可用性 超融合架构的计算存储融合部署存在一定风险。一旦出现节点故障,往往会同时涉及计算和存储,甚至还有网络、安全等多个方面,故障的爆炸半径过大。 而且,超融合架构往往无法应对二次故障的情况。其容灾技术主要围绕着分布式存储的同步复制、异步复制等存储技术。相比之下,公有云厂商方案除了存储之外,还在网络、数据库等各个层面做了高可用和容灾设计,可以支持地域级以及业务层面的高可用和容灾。
  • 兼容性 超融合一体机依赖特定的厂商和硬件配置,这就导致其无法兼容适配不同配置的硬件,也难以利旧各种已有硬件。后续进行扩展或替换时,成本会相对较高。

综上,超融合架构作为创新 IT 架构,有独特优势与适用场景,但并非所有专有云建设都适用。它在纯虚拟化环境(VM 或容器)、分支机构 / 边缘节点、敏捷开发测试场景中,能通过资源整合、简化管理和低成本,为企业提供高效灵活的 IT 支持。

然而,面对核心及复杂业务云平台,其局限性较明显,在性能、功能完整性、扩展性、可用性及兼容性上,可能无法满足企业高要求。因此,企业建设专有云时,不可盲目采用,需先明确自身需求与技术特点,全面评估对比方案,兼顾当前需求与未来发展。

总之,超融合是实现企业数字化转型的一种工具而非最终目的。真正成功的专有云建设,始于对业务场景的敬畏,成于对技术本质的洞察!

END

关注腾讯专有云公众号,了解更多云与 AI 应用的最佳实践!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-10-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯专有云 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档