前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >sqoop导入hive

sqoop导入hive

作者头像
Dlimeng
发布2023-06-28 16:48:53
2720
发布2023-06-28 16:48:53
举报
文章被收录于专栏:开源心路开源心路

1.1hive-import参数

使用--hive-import就可以将数据导入到hive中,但是下面这个命令执行后会报错,报错信息如下:

sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --table person -m 1 --hive-import

报错是因为在用户的家目录下已经存在了一个person目录。

原因是因为sqoop导数据到hive会先将数据导入到HDFS上,然后再将数据load到hive中,最后吧这个目录再删除掉。当这个目录存在的情况下,就会报错。

1.2target-dir参数来指定临时目录

为了解决上面的问题,可以把person目录删除掉,也可以使用target-dir来指定一个临时目录

sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --table person -m 1 --hive-import --target-dir temp

1.3hive-overwrite参数

如果上面的语句执行多次,那么会产生这个表数据的多次拷贝

1.4fields-terminated-by

当吧mysql中的数据导入到hdfs中,默认使用的分隔符是空格

sqoop import  --connect jdbc:oracle:thin:@172.17.x.xxx:1521:ORCL   --username ICO --password ico  --table C1_DIM_01216 --hive-table default.c1_dim_01216  --hive-import  --fields-terminated-by ","  -m 1;

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017-03-31,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档