前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Pentaho Work with Big Data(四)—— 转换Hive里的数据

Pentaho Work with Big Data(四)—— 转换Hive里的数据

作者头像
用户1148526
发布2022-05-07 13:04:55
2630
发布2022-05-07 13:04:55
举报
文章被收录于专栏:Hadoop数据仓库

1. 建立hive表,导入原始数据,过程参考 http://blog.csdn.net/wzy0623/article/details/51133760 2. 建立一个作业,查询hive表,并将聚合数据写入一个hive表 (1)打开PDI,新建一个作业,如图1所示。

图1 (2)建立一个hive的数据库连接,如图2所示。

图2 说明: kettle连接hive的相关配置参考 http://blog.csdn.net/wzy0623/article/details/50903133。 (3)共享数据库连接(可选) (4)编辑'SQL'作业项,如图3所示。

图3 (5)保存并执行作业,日志如图4所示。

图4 从图4可以看到,作业已经成功执行。 (6)检查hive表,结果如图5所示。

图5 从图5可以看到,新建了weblogs_agg表,并装载了聚合数据。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2016-04-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
数据库
云数据库为企业提供了完善的关系型数据库、非关系型数据库、分析型数据库和数据库生态工具。您可以通过产品选择和组合搭建,轻松实现高可靠、高可用性、高性能等数据库需求。云数据库服务也可大幅减少您的运维工作量,更专注于业务发展,让企业一站式享受数据上云及分布式架构的技术红利!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档