引言:新的数据中心架构提出了新的数据挑战——数据捕获是如何驱动边缘到核心的数据中心架构的。
数据显然不是以前的样子了!各种组织都在寻找数据的新用途,这已经成为他们数字化转型的一部分。从喷气式发动机到杂货店,各行各业都有例子可以证明,数据正在成为竞争优势的关键之所在。我们将这些称为新数据,因为它们与我们最熟悉的财务数据或者ERP数据截然不同。那些旧的数据大部分都是交易性的,并且是从内部来源私下捕获的。
新的数据既是交易型的,也是非结构化的,公开可用的和私人收集的,其价值来源于我们对数据进行汇总和分析的能力。大致来说,我们可以将这些新数据分为两类:
1,大数据:用于批量分析的大量聚合数据集。
2,快数据:来源非常广泛的数据集,这些数据用于做出快速性的决策。
大数据和快数据的新模式正在推动数据中心(无论是公共的还是私有的)建立一种全新的架构。
图片来源于网络
在接下来的文章中,我将介绍新数据中心架构提出的前五大数据挑战:
新的数据正在从源头被捕获。这个源头可能来自于海面之下,或者来自于石油和天然气的勘探过程中,或者来自于在轨道运行的卫星,及天气预报的应用,或者来自于你的手机上的照片,视频和推文,或者来源于一组电影。从源头收集的数据量将会比我们今天所熟悉的数据量高出几个数量级。
大型云提供商的数据规模已经迫使他们必须大量地投资于自动化和智能化,用来管理其基础设施。任何人工的管理在这种运行的规模上都是成本高昂的。
如果数据无处不在,那么我们就必须移动数据,才能实现对其的汇总和分析。正当我们认为(但愿如此)网络的速度将从40Gbps上升到100 Gbps,从而快于互联网带宽的要求时,数据的移动可能会增加100至1000倍。
在之前的文章“衡量数据的经济价值”(下文有链接)中,我们介绍了一种思考和衡量数据价值的方法。毫无疑问,数据对组织来说变得越来越有价值,数据在较长时间内的实用性正在随着机器学习和基于分析的人工智能(AI)的发展而日益增长。这意味着更多的数据需要被存储更长的时间,并且这些数据必须是可以整体处理的,以使分析变得有效。
通过分析性质和特别化的机器学习,组织不得不保留更多的数据,以便将其聚合到大数据存储库中。当其应用于多个更大的数据源时,这些分析类型提供了更好的答案。
分析和机器学习是计算密集型操作。因此,它们对大数据集的分析,驱动了大量的高速进程。与此同时,分析的计算密集性推动着我们使用更多新的方式来存储和访问数据,从小型的内存数据库到100 PB级别的对象存储器。
《衡量数据的经济价值》:https://www.networkworld.com/article/3221387/data-center/measuring-the-economic-value-of-data.html
本文系外文翻译,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文系外文翻译,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。