互联网的发展,带来了各种数据的爆发式增长,所有接入互联网的相关操作行为,都化为虚拟的数据被记录了下来。大数据时代的带来,一个明显的变化就是全样本数据分析,面对TB/PB级及以上的数据规模,Hadoop成为主流选择。
企业要进行大规模的数据分析,基于开源的Hadoop及其生态圈来搭建起大数据系统平台,无疑是一种低成本高效率的选择。
Hadoop在大数据技术生态圈,经过这么多年的发展,基础核心架构的地位,依然稳固。Hadoop系统的可伸缩性、健壮性、计算性能以及低成本,使得它事实上已成为当前互联网企业主流的大数据分析平台解决方案。
基于Hadoop,可以根据企业实际的业务需求,来进行数据系统的规划和设计。针对不同的具体需求,采用不同的数据分析架构和框架组件来解决实际问题。
按照数据分析的时效性需求,大数据分析可分为实时数据分析和离线数据分析两种。
实时数据分析一般用于金融、移动和互联网B2C等产品,往往要求在数秒内返回上亿行数据的分析,从而达到不影响用户体验的目的。
在Hadoop生态圈,这些需求可以进行合理的规划。对于大多数反馈时间要求不是那么严苛的应用,比如离线统计分析、机器学习、搜索引擎的反向索引计算、推荐引擎的计算等,可采用离线分析的方式,通过数据采集工具将日志数据导入专用的分析平台。
主流的海量数据采集工具,有Facebook开源的Scribe、LinkedIn开源的Kafka、淘宝开源的Timetunnel、Hadoop的Chukwa等,均可以满足每秒数百MB的日志数据采集和传输需求,并将这些数据上载到Hadoop中央系统上。
另外,按照大数据的数据量,分为内存级别、BI级别、海量级别三种,也需要分别考量,采取合适的方案。
这里的内存级别指的是数据量不超过集群的内存最大值,通常可以采用一些内存数据库,将热点数据常驻内存之中,从而取得非常快速的分析能力,非常适合实时分析业务。在这方面,MongoDB的应用很普遍。
BI级别指的是那些对于内存来说太大的数据量,主流的BI产品都有支持TB级以上的数据分析方案。种类繁多,就不具体列举了。
海量级别指的是对于数据库和BI产品已经完全失效或者成本过高的数据量。在这类场景下,Hadoop无疑是就是低成本的高效解决方案了。
关于大数据平台搭建,基于Hadoop的数据分析平台,以上就是今天的分享内容了。在大数据的发展当中,Hadoop历经多年,仍然占据重要的市场地位,掌握相关技术,仍然是行业工作者们重要能力要求。
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。