腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
浪淘沙
专栏成员
举报
86
文章
81360
阅读量
18
订阅数
订阅专栏
申请加入专栏
全部文章(86)
其他(46)
java(10)
sql(10)
spark(10)
数据库(8)
xml(7)
apache(7)
http(6)
存储(6)
mapreduce(4)
开源(4)
分布式(4)
hadoop(4)
hive(4)
python(3)
servlet(3)
云数据库 SQL Server(3)
云数据库 Redis(3)
api(3)
jdk(3)
jvm(3)
hbase(3)
access(2)
git(2)
jar(2)
tomcat(2)
spring(2)
编程算法(2)
jdbc(2)
安全(2)
费用中心(1)
php(1)
go(1)
.net(1)
scala(1)
node.js(1)
mvc(1)
ide(1)
eclipse(1)
github(1)
maven(1)
unix(1)
访问管理(1)
腾讯优客(1)
xslt & xpath(1)
容器(1)
serverless(1)
游戏(1)
缓存(1)
网络安全(1)
ssh(1)
mybatis(1)
sql server(1)
面向对象编程(1)
zookeeper(1)
aop(1)
tcp/ip(1)
数据分析(1)
数据处理(1)
windows(1)
kafka(1)
搜索文章
搜索
搜索
关闭
Flume学习笔记
apache
存储
分布式
hbase
hive
一、什么是Flume? Apache Flume 是一个从可以收集例如日志,事件等数据资源,并将这些数量庞大的数据从各项数据资源中集中起来存储的工具/服务,或者数集中机制。flume具有高可用,分布式,配置工具,其设计的原理也是基于将数据流,如日志数据从各种网站服务器上汇集起来存储到HDFS,HBase等集中存储器中。 二、flume特性 Flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。 Flume可以采集文件,socket数据包、文件、文件夹、kafka等各种形式源数据,又可以将采集到的数据(下沉sink)输出到HDFS、hbase、hive、kafka等众多外部存储系统中 一般的采集需求,通过对flume的简单配置即可实现 Flume针对特殊场景也具备良好的自定义扩展能力,因此,flume可以适用于大部分的日常数据采集场景 三、flume组件解析 对于每一个Agent来说,它就是一共独立的守护进程(JVM),它从客户端接收数据 1、Flume分布式系统中最核心的角色是agent,flume采集系统就是由一个个agent所连接起来形成 2、每一个agent相当于一个数据(被封装成Event对象)传递员,内部有三个组件: a)Source:采集组件,用于跟数据源对接,以获取数据 b)Sink:下沉组件,用于往下一级agent传递数据或者往最终存储系统传递数据 c)Channel:传输通道组件,用于从source将数据传递到sink d)event(所传的消息就是event)一行文本内容会被反序列化成一个event(event的最大定义为2048字节,超过,则会切割,剩下的会被放到下一个event中,默认编码是UTF-8。 四、flume安装 1)解压
曼路
2018-10-18
876
0
SparkSql学习笔记一
spark
sql
分布式
hive
mapreduce
1.简介 Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个编程抽象叫做DataFrame并且作为分布式SQL查询引擎的作用。 为什么要学习Spark SQL? 我们已经学习了Hive,它是将Hive SQL转换成MapReduce然后提交到集群上执行,大大简化了编写MapReduce的程序的复杂性,由于MapReduce这种计算模型执行效率比较慢。所以Spark SQL的应运而生,它是将Spark SQL转换成RDD,然后提交到集群执行,执行效率非常快!同时Spark SQL也支持从Hive中读取数据。 2.特点 *容易整合 *统一的数据访问方式 *兼容Hive *标准的数据连接 3.基本概念 *DataFrame DataFrame(表) = schema(表结构) + Data(表结构,RDD) 就是一个表 是SparkSql 对结构化数据的抽象 DataFrame表现形式就是RDD DataFrame是组织成命名列的数据集。它在概念上等同于关系数据库中的表,但在底层具有更丰富的优化。DataFrames可以从各种来源构建, DataFrame多了数据的结构信息,即schema。 RDD是分布式的Java对象的集合。DataFrame是分布式的Row对象的集合。 DataFrame除了提供了比RDD更丰富的算子以外,更重要的特点是提升执行效率、减少数据读取以及执行计划的优化 *Datasets Dataset是数据的分布式集合。Dataset是在Spark 1.6中添加的一个新接口,是DataFrame之上更高一级的抽象。它提供了RDD的优点(强类型化,使用强大的lambda函数的能力)以及Spark SQL优化后的执行引擎的优点。一个Dataset 可以从JVM对象构造,然后使用函数转换(map, flatMap,filter等)去操作。 Dataset API 支持Scala和Java。 Python不支持Dataset API。 4.创建表 DataFrame 方式一 使用case class 定义表 val df = studentRDD.toDF 方式二 使用SparkSession直接生成表 val df = session.createDataFrame(RowRDD,scheme) 方式三 直接读取一个带格式的文件(json文件) spark.read.json("") 5.视图(虚表) 普通视图 df.createOrReplaceTempView("emp") 只对当前对话有作用 全局视图 df.createGlobalTempView("empG") 在全局(不同会话)有效 前缀:global_temp 6.操作表: 两种语言:SQL,DSL spark.sql("select * from t ").show df.select("name").show
曼路
2018-10-18
844
0
Spark Core 学习笔记
spark
mapreduce
数据分析
分布式
sql
1:Spark Core:内核,也是Spark中最重要的部分,相当于Mapreduce SparkCore 和 Mapreduce都是进行离线数据分析 SparkCore的核心:RDD(弹性分布式数据集),由分区组成 2:Spark Sql:相当于Hive 支持Sql和DSL语句 -》Spark任务(RDD)-》运行
曼路
2018-10-18
2.2K
0
Hbase学习笔记
hbase
分布式
存储
go
开源
一、Hbase简介 1.什么是Hbase HBASE是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBASE技术可在廉价PC Server上搭建起大规模结构化存储集群。 HBASE的目标是存储并处理大型的数据,更具体来说是仅需使用普通的硬件配置,就能够处理由成千上万的行和列所组成的大型数据。 HBASE是Google Bigtable的开源实现,但是也有很多不同之处。比如:Google Bigtable利用GFS作为其文件存储系统,HBASE利用Hadoop HDFS作为其文件存储系统;Google运行MAPREDUCE来处理Bigtable中的海量数据,HBASE同样利用Hadoop MapReduce来处理HBASE中的海量数据;Google Bigtable利用Chubby作为协同服务,HBASE利用Zookeeper作为对应。 2.与传统数据库的对比 传统数据库遇到的问题: 1)数据量很大的时候无法存储 2)没有很好的备份机制 3)数据达到一定数量开始缓慢,很大的话基本无法支撑 HBASE优势: 1)线性扩展,随着数据量增多可以通过节点扩展进行支撑 2)数据存储在hdfs上,备份机制健全 3)通过zookeeper协调查找数据,访问速度块。 3.hbase集群中的角色 1、一个或者多个主节点,Hmaster 2、多个从节点,HregionServer
曼路
2018-10-18
765
0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档