前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Kettle与Hadoop(四)导入导出Hadoop集群数据

Kettle与Hadoop(四)导入导出Hadoop集群数据

作者头像
用户1148526
发布2020-06-02 15:00:10
1.1K0
发布2020-06-02 15:00:10
举报
文章被收录于专栏:Hadoop数据仓库Hadoop数据仓库

1. 向HDFS导入数据

  • 从下面的地址下载web日志示例文件,解压缩后的weblogs_rebuild.txt文件放到/root/big_data目录下。

http://wiki.pentaho.com/download/attachments/23530622/weblogs_rebuild.txt.zip?version=1&modificationDate=1327069200000

  • 建立一个作业,把文件导入HDFS中。

(1)打开PDI,新建一个作业,如图1所示。

图1

(2)编辑'Hadoop Copy Files'作业项,如图2所示。

图2

说明:CDH631是已经建立好的Hadoop Clusters对象,建立过程参见https://wxy0327.blog.csdn.net/article/details/106406702#%E4%BA%8C%E3%80%81%E8%BF%9E%E6%8E%A5Hadoop%E9%9B%86%E7%BE%A4

(3)保存并执行作业,日志如图3所示。

图3

从图3可以看到,作业已经成功执行。

(4)检查HDFS,结果如图4所示。

图4

从图4可以看到,weblogs_rebuild.txt已经传到了HDFS的/root/big_data目录下。

2. 向Hive导入数据

  • 从下面的地址下载web日志示例文件,解压缩后的weblogs_parse.txt文件放到Hadoop的/user/grid/目录下。

http://wiki.pentaho.com/download/attachments/23530622/weblogs_parse.txt.zip?version=1&modificationDate=1327068013000

  • 建立一个作业,将文件导入到hive表中。

(1)执行下面的HSQL建立一个hive表,表结构与weblogs_parse.txt文件的结构相同。

代码语言:javascript
复制
create table test.weblogs (
client_ip         string,
full_request_date string,
day               string,
month             string,
month_num         int,
year              string,
hour              string,
minute            string,
second            string,
timezone          string,
http_verb         string,
uri               string,
http_status_code  string,
bytes_returned    string,
referrer          string,
user_agent        string)
row format delimited fields terminated by '\t';

(2)打开PDI,新建一个作业,如图1所示。 (3)编辑'Hadoop Copy Files'作业项,如图5所示。

图5

(4)保存并执行作业,日志如图6所示。

图6

从图6可以看到,作业已经成功执行。

(5)查询test.weblogs表,结果如图7所示。

图7

从图7可以看到,向test.weblogs表中导入了445454条数据。

二、从Hadoop集群抽取数据

1. 把数据从HDFS抽取到RDBMS

(1)从下面的地址下载示例文件。 http://wiki.pentaho.com/download/attachments/23530622/weblogs_aggregate.txt.zip?version=1&modificationDate=1327067858000

(2)用hdfs用户执行下面的命令,把解压缩后的weblogs_aggregate.txt文件放到HDFS的/user/root/目录下,并修改读写权限。

代码语言:javascript
复制
hdfs dfs -put -f /root/weblogs_aggregate.txt /user/root/
hdfs dfs -chmod -R 777 /

(3)打开PDI,新建一个转换,如图8所示。

图8

(4)编辑'Hadoop File Input'步骤,如图9到图11所示。

图9

图10

图11

说明:在“File”标签指定Hadoop集群和要抽取的HDFS文件;在“Content”标签指定文件的属性,以TAB作为字段分隔符;在“Fields”指定字段属性。

(5)编辑'Table Output'步骤,如图12所示。

图12

说明:

(6)执行下面的脚本建立mysql的表。

代码语言:javascript
复制
use test;
create table aggregate_hdfs (
    client_ip varchar(15),
    year smallint,
    month_num tinyint,
    pageviews bigint
);

(7)保存并执行转换,日志如图13所示。

图13

从图13可以看到,转换已经成功执行。

(8)查询mysql表,结果如图14所示。

图14

从图14可以看到,数据已经从HDFS抽取到了mysql表中。

2. 把数据从Hive抽取到RDBMS

(1)执行下面的脚本建立mysql的表

代码语言:javascript
复制
use test;
create table aggregate_hive (
    client_ip varchar(15),
    year varchar(4),
    month varchar(10),
    month_num tinyint,
    pageviews bigint
);

(2)打开PDI,新建一个转换,如图15所示。

图15

(3)编辑'Table input'步骤,如图16所示。

图16

说明:hive_cdh631是已经建好的一个hive数据库连接,参见https://wxy0327.blog.csdn.net/article/details/106406702#%E4%B8%89%E3%80%81%E8%BF%9E%E6%8E%A5Hive

(4)编辑'Table output'步骤,如图17所示。

图17

说明:mysql_node3是已经建好的一个本地数据库连接;“Database fields”标签不需要设置。

(5)保存并执行转换,日志如图18所示。

图18

从图18可以看到,转换已经成功执行。

(6)查询mysql表,结果如图19所示。

图19

参考:

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2020-06-01 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 向HDFS导入数据
    • 2. 向Hive导入数据
    • 二、从Hadoop集群抽取数据
      • 1. 把数据从HDFS抽取到RDBMS
        • 2. 把数据从Hive抽取到RDBMS
        • 参考:
        相关产品与服务
        云数据库 SQL Server
        腾讯云数据库 SQL Server (TencentDB for SQL Server)是业界最常用的商用数据库之一,对基于 Windows 架构的应用程序具有完美的支持。TencentDB for SQL Server 拥有微软正版授权,可持续为用户提供最新的功能,避免未授权使用软件的风险。具有即开即用、稳定可靠、安全运行、弹性扩缩等特点。
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档