年前新业务要上线,说好的诗和远方在哪儿?

美好的事物使人憧憬,

就好像那诗和远方的田野。

而小明心里也正在默默地

盘算着该如何度过一个月后的假期...

回想我5年的程序猿生活,每天和机器打交道,日复一日,难免枯燥。还记得去年国庆节,服务器设备出现故障,业务宕机,结果假期提前结束。前年新业务上线,预估3天时间,结果整整用了1个多星期,占用假期一半时间。然后,据说年前又有新业务要上线,不好的预感涌上心间,说好的诗和远方在哪儿啊……

公司不少硬件设备已经进入“淘汰期”,领导要求尽快出一套新的规划方案。“要结合实际,着眼于未来,稳定压倒一切”,当然还有最重要的是“预算紧张”。想想这些,小明心里苦啊。

不过,办法总比困难多!小明突然想到上次参加D公司会议,他们有不少案例可以借鉴,抓起电话,打给小D说明情况后,小D同学娓娓道来......

1

虚拟化平台的两种实现方式

传统应用系统与底层硬件之间存在“竖井式”结构。而虚拟化技术打破传统,将分散的硬件改为虚拟化的共享资源池,实现了资源的弹性计算。原有多台老旧服务器可以整合到几台高性能服务器上。通过虚拟化计算、存储、网络等IT资源,提高资源利用率、实现IT资源动态按需分配、提供业务的高可用和连续性。小明对此表示肯定:“这个毋庸置疑,VMware虚拟化我们也在使用,我们本期还是会考虑的”。

综合平台架构的性能,安全,可扩展性等。虚拟化平台有两种实现方式,传统共享存储方案和超融和Server-SAN方案。

01

共享存储方案

多台服务器组成计算资源池,至少两台存储组成集群,架构成熟稳定。

02

Server-SAN方案

最新的超融和技术趋势,是指在同一套单元设备(x86服务器)中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括缓存加速、重复数据删除、在线数据压缩、备份软件、快照技术等元素,而多节点可以通过网络聚合起来,实现模块化的无缝横向扩展(scale-out),形成统一的资源池。

其实两种方案各有优势。小D连连说到,当然考虑预算情况,

Server-SAN前期投入较少,后期性能和容量都可以线形扩展。作为虚拟化平台的领导者VMware ,就有VMware vSAN超融和解决方案,可以与现有vCenter实现统一管理。

2

一体机方案才是“诗和远方”

vSAN可在所有服务器节点之间提供一个数据存储,数据可以与供虚拟机及其VMDK磁盘文件使用。可以在同一个vSAN数据存储实施多种策略(冗余、性能)。同时vSAN提供数据服务:快照、链接克隆、复制、VMware HA、DRS、VDP等。

vSAN集群配置中支持两种Server-SAN结构。它们可以为各种正常的应用工作负载提供支持。

1

混合架构解决方案

SSD充当分布式读写缓存,并不用于永久保存数据。每个磁盘组只支持一个SDD:70%的SSD容量用于缓存读取,其余30%用于写入。在两个或两个以上节点之间镜像缓存写入来对该缓存写入进行保护。也可以使用多节点镜像来防止发生磁盘故障和节点故障。

2

全闪存架构解决方案

全闪存架构的存储容量也用固态硬盘实现,性能往往不存在瓶颈,缓存层SSD 100%用于写入。借助于全闪存架构,支持更关键,更核心的应用。

当然数据安全还是要从整体架构上考虑,比如数据容灾。vSAN能够在位于不同地理位置上的两个站点间创建延伸集群并同步复制数据(RPO=0),一个站点发生故障时系统会自动切换到另外一个站点,从而实现站点层面的保护,几乎能够实现零停机,延伸集群架构图如下所示。

vSAN的延伸集群需要Witness节点,这个节点只存放元数据,不存储业务数据,它的作用是和两个站点建立心跳机制。

在延伸集群上,vSAN支持跨站点的实现vMotion,灵活的迁移虚拟机,同时支持HA高可用,进而实现灾难规避和恢复。

此外,vSAN延伸集群还可以结合VMware Replication和SRM实现两地三中心的高级容灾。

说到这里,小明有些心动,前期投入少,后期灵活扩展,架构成熟稳定,数据安全有保证。不过这个谁能来实施。如果以后出现问题,软件和硬件“踢皮球”怎么办。

小D说,这个当然不用担心,我们提供vSAN Ready Node一体机整体解决方案。作为一个集团下的两个公司,硬件和软件我们结合最好,出厂就预装相应的操作系统,最大限度避免硬件兼容性问题。同时,专业技术工程师服务,上门安装,同时开箱即用,保证业务系统快速上线。一揽子解决后续软件/硬件问题。

我们还提供Dell OpenManage管理工具,可以与VMware vCenter集成,可以通过vCenter直接查看OpenManage,实时关注主机等硬件资源运行状况,最大限度保证平台稳定。

明白了,一体机方案才是“诗和远方”!

梦想总是要有的,万一实现了呢,

想到这里,小明对假期又充满信心。

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20171226A0F7N300?refer=cp_1026

相关快讯

扫码关注云+社区