腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
更改
sqoop
导入
临时
目录
、
、
、
、
sqoop
导入
...我试着做了以下几件事,但很费力。它仍会在hdfs:/user/
目录
中创建
临时
目录
sqoop</em
浏览 17
提问于2018-08-23
得票数 0
6
回答
sqoop
中仓库dir命令和目标dir命令之间的区别
我无法理解
sqoop
中以下命令之间的区别。如果有人能用一些小例子来解释,那就更好了。谢谢
浏览 4
提问于2016-05-24
得票数 11
回答已采纳
1
回答
使用
sqoop
在HDFS中显示
导入
的表
、
、
、
现在,当我使用以下命令(使用
sqoop
)
导入
mysql表时,我已经设置了单个节点hadoop集群,并将其配置为与apache一起工作。
sqoop
导入
--连接jdbc:mysql://localhost/dwhadoop -table orders -用户名root密码123456 -hive- import 它没有列出orders表 如果我再次运行
导入
命令,它将给出orders dir已经存在的错
浏览 2
提问于2012-08-04
得票数 0
回答已采纳
1
回答
sqoop
无法覆盖
、
、
我正在使用以下命令将数据从sqlserver
导入
Azure blob存储
sqoop
import -Dorg.apache.
sqoop
.splitter.allow_text_splitter=true
浏览 0
提问于2018-01-30
得票数 0
2
回答
Sqoop
append命令在hadoop中
如何
工作
我有一个关于
Sqoop
的问题--append命令,因为我们知道append命令会将一个值添加到现有的表或记录中,但是在hadoop或hdfs中,更新选项是被禁止的,它是
如何
工作的?
浏览 4
提问于2016-04-27
得票数 0
1
回答
在
sqoop
中执行增量“全有或全无”
导入
的正确方法是什么?
根据的说法,为了对RDMS执行“全有或全无”加载,可以使用
临时
表。 但是,此选项似乎仅在导出中可用。在执行(从SQLServer)到HDFS的
导入
时,选项--staging-table不存在。默认情况下,
Sqoop
导入
使用read committed事务隔离策略。如果其中一个
导入
映射器失败了怎么办?如果我正在执行的
导入
是增量
导入
,
sqoop
是否会执行整个操作的“回滚”,从而不
导入
任何数据?我们已经实现了一个工作流,该工作流通过
浏览 0
提问于2016-06-17
得票数 1
4
回答
oozie
Sqoop
操作无法将数据
导入
到单元格中。
、
、
、
、
我在执行oozie
sqoop
操作时面临问题。在日志中,我可以看到
sqoop
能够将数据
导入
临时
目录
,然后
sqoop
创建用于
导入
数据的单元脚本。 </
sqoop
> <ok t
浏览 3
提问于2014-06-05
得票数 3
回答已采纳
1
回答
在parallal中为不同模式查询同一表失败
我们计划从oracle到Hive ware house中的一些表进行
sqoop
。但是如果我们把一个oltp的表的sqooping是顺序的,那么它是有效的。但为了更好地使用,我们计划并行地
sqoop
不同的oltps表,但它正在并行
sqoop
同一个表。似乎在
sqoop
表的同时,
sqoop
会在hdfs中创建一个
临时
表,并从那里将数据移动到hive表,因为这个原因我们不能并行
sqoop
。 有没有办法让我们并行地对相同的表进行
sqoop
操作。
浏览 2
提问于2013-10-22
得票数 0
1
回答
Sqoop
导入
奇怪错误
、
、
现在,当我尝试将n1 (MySQL)作为n2 (配置单元)
导入
时,我得到了这个奇怪的错误/user/cloudera/n1 already exists。[cloudera@quickstart ~]$
sqoop
import --table n1 --connect jdbc:mysql://localhost/retail_db --username
浏览 3
提问于2018-02-08
得票数 0
1
回答
清除
目录
/tmp/
sqoop
-hadoop/编译/
、
我想删除
sqoop
编译
目录
(例如:/tmp/
sqoop
-hadoop/compile/cebe706d23ebb1fd99c1f063ad51ebd7 )中的许多旧
目录
来清理空间。
sqoop
是否只在编译
目录
/tmp/
sqoop
-hadoop/compile/中存储
临时
文件? 删除超过某一天的所有
目录
会引起任何问题吗?
浏览 3
提问于2016-01-05
得票数 1
回答已采纳
3
回答
Sqoop
蜂巢进口
、
、
我正在尝试将一个表从MySql数据库
导入
到hive表,以了解表名
如何
是我已经在HDFS主
目录
中
导入
的设备。我使用下面的语句在hive中创建了一个表。create table device_hive (device_num int,device_name varchar(255));--table device -
浏览 6
提问于2016-09-25
得票数 0
回答已采纳
1
回答
sqoop
导入
到与配置单元仓库
目录
不同的
目录
、
、
当我使用
sqoop
将表
导入
到Hive时,这些表会转到与HDFS Hadoop中的/user/hive/warehouse不同的
目录
。我对Hive metastore使用默认的Derby数据库。
如何
将此
目录
默认
更改
为Hive仓库
目录
?
浏览 3
提问于2015-12-29
得票数 0
1
回答
Sqoop
是个好主意吗
、
、
、
实现这一目标似乎有几种可能的方法: 使用SQL读取数据并存储在本地文件系统中。完成后,复制(ftp?)我担心的是,当
Sqoop
开始查询数据时,
Sqoop
可能会取出数据库上的锁,并且在将所有数据复制到HDFS之前不会释放这个锁。
浏览 7
提问于2016-02-16
得票数 2
1
回答
hadoop tmp
目录
没有空间(设备tmp
目录
上没有空间)
、
在运行
sqoop
命令时,它运行java代码并将它们存储到/tmp
目录
中,因此,它给出了以下错误: 我可
浏览 2
提问于2016-12-04
得票数 0
1
回答
复制表时的散列
在
sqoop
中有内置选项吗? 目前,我可以想出一种非常粗糙的方法来实现这一点: (而不是表名),如
sqoop
下面所示。
浏览 0
提问于2018-07-16
得票数 0
回答已采纳
1
回答
Sqoop
增量
导入
到S3的FS错误
、
、
incremental append --check-column id 不带--incremental' and--check-column` `的完全相同的命令可以正常工作,并按照预期上传到正确的s3
目录
我希望能够运行增量
导入
并将其上传到s3。jar:/usr/lib/
sqoop
/
sqoop
-1.4.1-cdh4.1.3.jar:/usr/lib/
sqoop
/
sqoop
-test-1.4.1-c
浏览 3
提问于2013-02-23
得票数 4
1
回答
导入
Sqoop
后无法查询配置单元表
、
、
我通过
sqoop
将oracle db的几个表
导入
到hive中。命令看起来像这样: ./
sqoop
import --connect jdbc:oracle:thin:@//185.2.252.52:1521/orcl --username USER_NAME --password test我没有在这方面
更改
默认的配置文件)。当我在HIVE中显示表格时,
导入
的表格不会显示,但我通过命令行创建的一些用于测试的表格会显示出来。这些表都位于hdfs上的同一仓库
目录<
浏览 1
提问于2013-01-11
得票数 1
回答已采纳
1
回答
在sqooping数据之后,配置单元抛出错误
、
、
、
、
我想将数据从数据库
导入
到HDFS中,然后填充hive表。我不能使用
sqoop
import --hive-import,因为
sqoop
会将数据从--target-dir移动到配置单元的metastore
目录
。因此,我必须创建hive模式
sqoop
create-hive-table,将hive表转换为parquet SET FILEFORMAT parquet,将hive表的位置
更改
为指向HDFS中合适的文件,最后使用
sqoop
import --as-parquet-
浏览 1
提问于2017-05-12
得票数 0
1
回答
在
Sqoop
1.99.6中
导入
数据
通过创建链接和作业,我已经能够在
Sqoop
1.99.6中从Oracle
导入
数据。但是,我想知道是否可以使用以下语法来
导入
数据:--connect jdbc:mysql://mysql.example.com/
sqoop
\--password
sqoop
\在/<
sqoop
_home>/b
浏览 2
提问于2016-04-28
得票数 0
1
回答
将查询结果从mysql
导入
到现有的hive表时出现的问题
当我试图将一个MySQL表
导入
到现有的hive表中时,下面的命令运行良好。但是,当我试图使用一个查询将结果
导入
到同一个hive表时,它是在请求--target-dir和--split-by。是否必须在
导入
查询结果时提供它们?为什么直接从表
导入
时不需要这些? 警告: /usr/lib/
sqoop
/../accumulo不存在!Accumulo的进口将失败。请将$ACCUMULO_HOME设置为Accumulo安装的根
目录</e
浏览 0
提问于2019-03-29
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券