腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
高效
地
将同
一
路径
下
的
多个
文件
加
载到
hadoop
?
shell
、
hdfs
、
hadoop2
例如:我在
路径
/home/doc/data/中有超过10个
文件
: 202012.txt,202101.txt,202102.txt.如果我想加载2021
的
所有
文件
,我必须使用:
hadoop
fs -copyFromLocal /home/doc/data/202101.txt /home/doc/data/202102.txt /$HDFSLOCATION 有没有什么有效<e
浏览 16
提问于2021-04-07
得票数 1
1
回答
是否可以将蜂巢数据加
载到
Vora中?
hive
、
sap
、
hana
、
vora
到目前为止,我能够将CSV和ORC
文件
从HDFS加
载到
Vora,但能够从Hive加载吗?在没有将Hive指定为源
的
情况
下
,我尝试使用等于/app/hive/仓库/tablename/00000_0
的
“
路径
”(或任何部分
文件
名)。但是,如果
一
个Hive表是由/tablename/目录中
的
多个
文件
表示
的
,我必须将它们
浏览 2
提问于2016-06-02
得票数 0
回答已采纳
1
回答
将
多个
文件
输送到HDFS
hadoop
、
pipe
、
hdfs
我正在尝试将gzipped
文件
从远程计算机上
的
目录加
载到
本地计算机
的
HDFS上。我希望能够从远程机器读取pipe
文件
,并将它们直接输送到本地计算机上
的
HDFS中。/
hadoop
" 这显然将所有gzipped
文件
从指定
的
远程
路径
复制到我执行命令
的
路径
,并将
一
个空
文件
-加
载到
HDFS中。如果我在没有tar
浏览 1
提问于2014-12-19
得票数 2
回答已采纳
1
回答
安装后
Hadoop
2.6中没有
文件
夹
hadoop
、
mapreduce
、
apache-pig
、
hdfs
、
bigdata
我是
Hadoop
的
新手。我通过下面的链接成功
地
在我
的
Ubuntu 12.04中安装了
Hadoop
2.6。 hduse@vijee-Lenovo-IdeaPad-S510p:~$ jps 4163 SecondaryNameNode/share
浏览 0
提问于2015-12-22
得票数 0
2
回答
正在解密HDFS上
的
PGP
文件
scala
、
apache-spark
、
encryption
、
hdfs
、
pgp
我们是在scala
的
"com.didisoft.pgp.PGPLib“
的
帮助
下
解密PGP
文件
的
。这可以很好地处理本地
文件
,但是当我们为HDFS
文件
运行它时,我们会遇到类似"File not found exception for securingkey“
的
问题。即使用unix
的
gpg工具做同样
的
事情,当传递HDFS
文件
的
路径
时,我们也会遇到<e
浏览 1
提问于2017-05-02
得票数 1
2
回答
具有数百万条记录插入
的
Hadoop
后端
hadoop
、
hive
、
hiveql
我是
hadoop
的
新手,有人能建议我
如何
上传数百万条记录到
hadoop
吗?我能用蜂箱做这件事吗?我在哪里能看到我
的
hadoop
记录?到目前为止,我
一
直使用hive在
hadoop
上创建数据库,并使用localhost 50070访问它。但是我无法将数据从csv
文件
从终端加
载到
hadoop
。因为它给了我错误: 失败:语义分析错误:第2:0行无效
路径
‘/用户/本地&
浏览 0
提问于2015-09-29
得票数 1
回答已采纳
1
回答
使用python在
一
个
文件
中搜索
多个
字符串,这非常节省时间。
python
、
string
、
list
、
performance
、
file
我有
一
个很长
的
字符串列表来查看
一
个非常大
的
文件
。line in file: if word in line::然而,我正在寻找
一
种有效
的
方法来完成这项工作
浏览 0
提问于2020-06-25
得票数 2
3
回答
LoadIncrementalHFile怎么了?
java
、
csv
、
hadoop
、
hbase
我是个新手对
hadoop
和Hbase。我想将.csv
文件
导入到Hfile中。我在HDFS中有
一
个csv
文件
"testcsv.csv“。hbase org.apache.
hadoop
.hbase.mapreduce.ImportTsv '-Dimporttsv.separator=,' -Dimporttsv.columns=HBASE_ROW_KEY,basic:G1,basic:G2, testTSV /user/
hadoop
/
浏览 1
提问于2015-07-05
得票数 0
回答已采纳
4
回答
将大型XML解析为TSV
hadoop
、
xml-parsing
、
saxparser
、
bigdata
我需要将很少
的
XML解析成TSV,XML
文件
的
大小是50 GB,我基本上对实现有疑问,我应该选择解析这个--我有两个选项我对
Hadoop
的
实现有相当
的
了解,但我认为如果能够访问
Hadoop
集群,我应该使用
hadoop
,因为这就是
hadoop
用于大数据
的
目的。如果有人能提供
一
个提示/文档来说明
如何
在
Hado
浏览 5
提问于2012-02-24
得票数 0
回答已采纳
1
回答
将
多个
客户端数据加
载到
Hadoop
的
最佳实践
sql-server
、
hadoop
、
hive
、
sqoop
、
cloudera-quickstart-vm
我们正在使用Cloudera在
Hadoop
框架上创建POC。我们希望将
多个
客户端
的
数据加
载到
Hive表中。 到目前为止,我们对Server上
的
每个客户端都有单独
的
数据库。
Hadoop
将用于OLAP。我们有
一
些主维度表,它们对每个客户端都是相同
的
。所有客户端数据库都有完全相同
的
架构。这些表具有相同
的
主键值。到目前为止,这是很好
的
,因为我们有单独
的
客户数据库。现在,我
浏览 4
提问于2016-01-27
得票数 2
回答已采纳
1
回答
Krb5.执行器吊舱上
的
Kubernetes和
hadoop
.configMap :Kubernetes上
的
火花
apache-spark
、
kubernetes
所需
的
是,集群可能需要连接到启用了外部Kerberos
的
Hadoop
集群,或者任何其他启用Kerberos
的
数据源,如Kafka。根据文档( ),我通过设置scapk.kubernetes.kerberos.krb5.configMapName和
Hadoop
配置来提供krb5配置,方法是使用适当
的
配置映射设置spark.kubernetes.
hadoop
.configMapName在连接到启用Kerberos
的
数据源(如Kafka或JDBC上
的
浏览 18
提问于2022-01-09
得票数 0
3
回答
使用或不使用Hive处理Amazon EMR中
的
日志
hadoop
、
hive
、
hadoop-streaming
、
emr
我
的
EMR集群中有很多日志
文件
位于
路径
‘hdfs://logs’。每个日志条目都是多行
的
,但是有
一
个开始和结束标记在两个条目之间划分。现在, 并非日志
文件
中
的
所有条目都有用。需要转换有用
的
条目,并将输出存储在输出
文件
中,以便以后能够
高效
地
查询(使用Hive)输出日志。我有
一
个python脚本,它可以简单
地
接受
一
个日志<em
浏览 5
提问于2012-12-21
得票数 0
回答已采纳
1
回答
hadoop
dfs有问题(没有
文件
)
linux
、
hadoop
当我运行start-dfs.sh时,server3
的
路由是/home/xxx/
hadoop
-3.3.3/bin/hdfs(不是这样
的
文件
)。实际上应该是/home/student/student8/
hadoop
-3.3.3
浏览 6
提问于2022-10-17
得票数 0
1
回答
我有
一
个csv
文件
,其中包含需要将s3
文件
移动到新位置
的
位置
bash
、
csv
、
amazon-s3
、
aws-lambda
我有兴趣将我
的
数据加
载到
AWS ATHENA DB中雅典娜希望按表而不是按source_video加载为此,我必须根据表名而不是source_video将这些
文件
移动到
文件
夹中。我精通python和bash,我知道
如何
使用aws cli。我想知道是否有比运行4Million+ mv命令并在几台机器上
的
不同进程中并行执行它
浏览 1
提问于2017-07-12
得票数 0
1
回答
hadoop
(sqoop)加载oracle
的
速度会比SQL加载程序快吗?
oracle
、
hadoop
、
apache-spark
、
data-warehouse
、
sqoop
我们目前使用bash脚本和带有
多个
线程
的
SQL加载器组合将CDR加
载到
oracle仓库。我们希望将这
一
过程卸载给
hadoop
,因为我们预计,由于用户群
的
增加,数据
的
增加将很快使当前
的
系统达到最大值。进
一
步
的
信息:我们通常会通过ftp获取管道分隔文本
文件
的
contunoius流到
文件
夹中,在每个记录中再添加两个字段,加
载到
oracle中
的<
浏览 1
提问于2015-03-06
得票数 0
2
回答
在Ubuntu中运行
Hadoop
Jar
java
、
eclipse
、
ubuntu
、
hadoop
、
jar
我正在尝试在
Hadoop
中运行jar
文件
。我已经使用Eclipse导出函数转换了jar
文件
。现在
的
问题是,当我运行jar
文件
时,它显示classnotfoundexception。我在子
文件
夹中
的
主类,例如WordCount->count->src->countFunction->wordCount.谁能告诉我在这种情况
下
如何
正确
地
给出
路径
。我使用这个命令。/bin
浏览 7
提问于2014-07-15
得票数 0
3
回答
将数据加
载到
配置单元
的
HDFS
路径
hadoop
、
hive
我将
hadoop
作为单节点发行版运行。在帖子之后,我使用以下命令将
一
个
文件
移动到HDFS
hadoop
fs -put <local path> </usr/tmp/fileNAme.txt> .现在我正在尝试使用下面的命令将HDFS
文件
中
的
数据加
载到
Hive表中。找不到我应该在下面的命令中提供
的
相对于本地
文件
系统
的
HDFS
路径
。我在jav
浏览 1
提问于2015-11-27
得票数 1
2
回答
从ftp并行复制
文件
到hdfs,distcp失败
ftp
、
hdfs
比方说,我有
一
个ftp服务器,用来存储
一
些数据。我认为
hadoop
distcp就是我所需要
的
。(DistCp.java:641)at org.apache.
hadoop
.tools.DistCp.run(ToolRunner.java:79) at
浏览 5
提问于2013-07-08
得票数 0
26
回答
Hadoop
命令
hadoop
、
hdfs
我在这个位置安装了
Hadoop
Found 3 items-rw-
浏览 18
提问于2014-03-26
得票数 6
1
回答
在spark中并行加载
多个
文件
的
最有效方法?
apache-spark
、
pyspark
、
google-cloud-dataproc
给出大约30k个
文件
(250个部分
文件
,每个部分长达10年,每个部分大约200MB),我想将它们加
载到
RDD/DataFrame中,并根据
一
些任意
的
过滤器过滤掉项目。为了
高效
地
列出
文件
(我使用
的
是google dataproc/云存储,所以执行通配符glob
的
驱动程序非常串行且非常慢),我预先计算了
文件
名
的
RDD,然后将它们加
载到
RDD中(我使
浏览 1
提问于2016-06-30
得票数 3
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券