腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Curl
下
载到
HDFS
hadoop
、
curl
、
hdfs
我有这样的代码:当我执行这段代码时,
curl
将request中的值放入fileName.csv中,文件被移动到
HDFS
中。我想知道我是否可以,在内存中维护
curl
输出,发送到管道,然后在
HDFS
中写入值?
curl
url | xargs
hdfs
dfs -put
浏览 12
提问于2017-07-06
得票数 4
回答已采纳
1
回答
将数据直接下
载到
HDFS
?
hadoop
、
hdfs
有人问过类似的问题(here和here),但我的问题不同,因为我想知道是否有一种方法可以直接将数据(从REST API或
cURL
)下
载到
HDFS
集群中。 我正在尝试避免将文件保存在本地。
浏览 21
提问于2019-06-26
得票数 1
1
回答
如何通过集群中的oozie工作流将文本文件加
载到
hdfs
中
hadoop
、
hdfs
、
oozie
在执行oozie工作流中的hive脚本之前,我需要将这些文本文件放入
hdfs
。有人能给我提供解决方案吗。 提前谢谢。
浏览 2
提问于2015-08-15
得票数 0
1
回答
Hadoop:无法使用python连接到
HDFS
(Hadoop)
python
、
hadoop
、
hdfs
、
webhdfs
我正在尝试使用windows10的python jupyter工具连接到VM中的
HDFS
。有人能帮我解决下面的连接错误吗?谢谢。ubuntu 18.0.4 windows 10 “”“ from pywebhdfs.webhdfs import PyWebHdfsClient
浏览 89
提问于2020-04-08
得票数 0
回答已采纳
1
回答
在
HDFS
中插入数据
hive
、
hdfs
、
webhdfs
我需要在配置单元中创建一些表,为此,我想在
hdfs
中插入数据,以便自动创建配置单元表。我需要把这些信息存储在蜂巢里。你能告诉我一个例子,我是如何在
HDFS
中插入数据的吗?
浏览 1
提问于2015-07-14
得票数 2
1
回答
Dir的迁移到Flume
apache
、
hadoop
、
flume
、
flume-ng
我想使用flume API或java API将包含子目录和文件列表的DIR加
载到
/flume/events
下
的
HDFS
中。我使用的是cloudera cdh5.1提前感谢
浏览 2
提问于2014-12-01
得票数 1
3
回答
Apache Livy
cURL
不工作火花提交命令。
scala
、
apache-spark
、
curl
、
hdfs
、
livy
我最近开始使用Scala、
HDFS
、sbt和Livy。目前我试图创建livy batch。Warning: Skip remote jar
hdfs
://localhost:9001/jar/project.jar. java.lang.ClassNotFoundException: SimpleAppspark-submit --class "SimpleApp" --master local target/scala-2.11/simple-project_2.11-1.0.
浏览 0
提问于2018-06-21
得票数 1
1
回答
使用
Curl
从
HDFS
发布文件
hadoop
、
curl
、
hdfs
如何使用
Curl
从
HDFS
发布文件?
curl
--data-binary @/user/file.txt 'http://127.0.0.1/update' 这是可行的,但是现在我已经将我的文件放在
HDFS
中,他们是否有办法使用
curl
在
hdfs
中发布文件
浏览 0
提问于2016-10-19
得票数 0
1
回答
Kafka Connect分布式系统不起作用
apache-kafka
、
apache-kafka-connect
我试图运行卡夫卡连接的分布式模式,从主题读取和写入
HDFS
。请看下面的完整日志。
浏览 2
提问于2018-06-26
得票数 0
2
回答
从Kafka主题中读取消息并将其转储到
HDFS
中
java
、
scala
、
apache-spark
、
apache-kafka
、
hdfs
我正在尝试使用Kafka主题中的数据,将其加
载到
Dataset中,然后在加
载到
Hdfs
之前执行过滤。我可以从kafka主题中消费,将其加
载到
dataset中并保存为
HDFS
中的拼图文件,但无法执行过滤条件。你能分享一
下
在保存到
hdfs
之前进行过滤的方法吗?
浏览 6
提问于2020-05-05
得票数 1
1
回答
Oozie shell操作: exec和文件标记
oozie
argument>A</argument> <file>${EXEC}#${EXEC}</file>我也看到过路径的位置(
HDFS
<argument>B</argument></shell&
浏览 1
提问于2016-01-27
得票数 7
回答已采纳
7
回答
将数据加
载到
表中
hive
、
dbvisualizer
我希望将数据从其中一个文件加
载到
一个在hive中创建的表中。FAILED: Error in semantic analysis: Line 1:17 Invalid path "D:\data files\sample.txt": only "file" or "
hdfs
浏览 8
提问于2013-02-15
得票数 3
回答已采纳
3
回答
Hadoop :为什么在RecordReader实现中使用FileSplit
hadoop
在Hadoop中,考虑一个大文件已经加
载到
hdfs
文件系统的场景,使用
hdfs
dfs put或
hdfs
dfs CopyFromLocal命令,大文件将被拆分成块(64MB)。在这种情况
下
,当需要创建customRecordReader来读取bigfile时,请解释使用FileSplit的原因,因为bigfile在文件加载过程中已经被拆分,并且以拆分的块的形式存在。
浏览 3
提问于2014-12-31
得票数 0
1
回答
使用水槽的日志数据未正确存储在蜂巢中
logging
、
hadoop
、
hive
、
flume
、
avro
一个运行hive的
HDFS
服务器。服务器上的Flume conf:
hdfs
-agent.channels = memoryChannel
hdfs
-agent.sources.avro-collect.bind = localhost
hdfs
浏览 2
提问于2014-07-17
得票数 0
回答已采纳
1
回答
Flume -将文件从文件服务器加
载到
HDFS
hadoop
、
mapreduce
、
flume
我希望经常将文件从文件服务器加
载到
HDFS
。较小的文件(2 MB到20 MB)经常被加
载到
文件服务器。这些文件必须加
载到
HDFS
中,以便进行MR处理。如果这些文件在运行MR作业时被选中并加
载到
HDFS
中,那么将这些文件加
载到
HDFS
本身需要很长时间。 是否可以使用Flume更频繁地在文件服务器中读取这些较小的文件并存储在
HDFS
中?我知道有CombineFile
浏览 4
提问于2013-07-29
得票数 0
1
回答
如何将目录数据加
载到
配置单元中
file
、
hive
、
load
、
hdfs
如何将
hdfs
文件加
载到
配置单元中。在我的项目中,它需要将
hdfs
文件加
载到
hive中。我的
hdfs
文件结构类似于`/flume/topic/date/hour/file.
hdfs
,,问题是如何自动加载目录数据。
浏览 0
提问于2016-05-13
得票数 1
1
回答
如何将数据加
载到
Cloudera Impala表中?
sql
、
uri
、
cloudera
、
impala
我使用post SQL语句将数据加
载到
Cloudera Impala ODBC表中,但是我得到了一个"URI路径必须是绝对的“错误。下面是我的SQL。我在没有Compute函数的情况
下
尝试了相同的语句,但仍然得到了相同的错误。提前谢谢你。
浏览 7
提问于2022-02-01
得票数 0
1
回答
如何在不同模式中将csv文件导入hbase表
csv
、
hadoop
、
hbase
、
bulk-load
我最近开始研究hbase,但对此知之甚少。我有多个csv文件(大约20000),我希望将它们导入到hbase表中,使每个文件都是HBase中的一行,并且文件的名称将是行键。这意味着csv文件的每一行都是hbase中的一个单元格,我需要将它们放在一个struct数据类型(由25个字段组成)中。不幸的是,我对这个问题一无所知。如果有人愿意给我一些建议,我很感激。time, a, b, c, d, ..., x60.000,80.100,113.200,54.500,72.100,
浏览 0
提问于2018-07-08
得票数 0
1
回答
麻省理工学院StarCluster和S3
hadoop
、
amazon-web-services
、
amazon-ec2
、
amazon-s3
、
starcluster
我没有问题上传数据,然后将其放入
HDFS
,然后将结果从
HDFS
复制回来。我的问题是,是否有方法直接从s3加载数据并将结果推回s3?(我不想手动将数据从s3
下
载到
HDFS
,并将结果从
HDFS
推送到s3,在后台有方法吗)? 我使用的是标准的麻省理工学院星团
浏览 2
提问于2015-05-02
得票数 0
回答已采纳
2
回答
配置单元-外部表创建
hadoop
、
hive
查询存储在外部系统(如amazon )中的数据-避免将该数据引入s3是否可以访问
HDFS
之外的数据?
浏览 1
提问于2018-02-21
得票数 1
点击加载更多
相关
资讯
curl在windows下的安装和curl命令详解
0512-使用Python访问Kerberos环境下的HDFS
为什么有时候用迅雷下东西,在下载到99.99%时总要卡一会
R语言获取ArrayExpress数据库数据
在Linux中使用curl命令参数详解
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
智聆口语评测
活动推荐
运营活动
广告
关闭
领券