腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Bash
脚本
循环
访问
hdfs
上
的
文件
、
、
我有一个简单
的
bash
script..to将
HDFS
上
的
所有
文件
路径连接到一个变量中,我想出了以下代码: for filename in `
hdfs
dfs -ls /user/kmob/ctp_modules/conf | awk '{print $NF}' | tr '\n' ' '`echo $filename; $var=$var',
浏览 15
提问于2019-09-16
得票数 0
1
回答
Hadoop重命名命令
、
、
如何在
HDFS
中重命名多个
文件
有什么办法一次做到这一点吗?
浏览 7
提问于2016-12-02
得票数 1
1
回答
我可以逐行读取hadoop
文件
吗?
、
、
、
我想从hadoop
文件
系统中逐行读取unix框中
的
记录:while read line ###some other logic
浏览 1
提问于2014-04-08
得票数 0
回答已采纳
3
回答
将参数传递给存储在
HDFS
中
的
shell
脚本
、
、
、
我希望执行一个存储在
HDFS
中
的
shell
脚本
,并选择将参数传递给
脚本
。我已经验证了以下
的
工作我想做以下工作 hadoop fs -cat
hdfs
://path_to_script/sample.sh param1 param2 param3 param4 | exec <
浏览 7
提问于2017-05-19
得票数 0
回答已采纳
1
回答
如何在oozie工作流中使用日期
、
、
我
的
工作流程中
的
一个操作是运行
bash
脚本
文件
,我需要在
bash
脚本
中使用年、月和日。据我所知,${year}、${month}等变量在协调器中是可用
的
,但是如何使它们在我
的
bash
脚本
中也可用呢?
浏览 19
提问于2019-11-13
得票数 0
1
回答
将内联参数传递给在
HDFS
上
执行
的
shell
脚本
、
、
我正在运行一个存储在
HDFS
上
的
shell
脚本
(以便我
的
oozie工作流能够识别它)。来运行我正在使用
的
这个
脚本
但是,我需要将内联参数传递给
脚本
。在CLI
上
,我只需用 .我正在努力弄清楚如何对存储在
HDFS
中
的
脚本
做同样
的
事情。
浏览 0
提问于2017-07-06
得票数 0
1
回答
如何使用Oozie调度Rscript
、
、
我正在使用Hortonworks Sandbox
上
的
Rhadoop读取
HDFS
到R
的
数据,在读取R中
的
数据后,我将对该
文件
执行特定
的
操作。谢谢
浏览 3
提问于2015-10-27
得票数 1
回答已采纳
2
回答
执行
bash
脚本
时,忽略“没有这样
的
文件
或目录”错误
、
我有这个
bash
脚本
,当
文件
夹为空时,我想忽略“没有这样
的
文件
或目录”错误,这样
脚本
就可以执行其余
的
代码。
hdfs
dfs -copyToLocal $TEMP_
HDFS
/input/files
浏览 0
提问于2020-01-19
得票数 0
1
回答
Hadoop NFS挂载问题
、
、
、
我正在尝试将windows Server 2012中
的
一个NFS共享挂载到我
的
Hadoop集群(运行Hadoop2.7.3)
上
,这样它就可以对上传到Windows server
的
文件
运行MapReduceHadoop集群在raspberry pi 2(其中8个)
上
运行,我已经了解了Hadoop
上
的
配置 我尝试将NFS挂载到主服务器
上
的
HDFS
目录(/
hdfs
/
浏览 15
提问于2017-03-15
得票数 0
1
回答
如何使用Airflow将
文件
放入
HDFS
?
、
、
、
我需要使用airflow dag任务将
文件
放入
hdfs
中。因此,基本
上
,我已经安装了docker,在其中,我已经安装了airflow,namenode,datanode,resourcemanager等。因此,通过在namenode
上
执行ssh,我能够将
文件
放入
hdfs
集群中。 但是我想使用airflow dag任务将
文件
放到
hdfs
中,这样我就可以在管道中编排一切。任何人都可以使用airflow dag任务帮助我从
hdfs
上传和获取
浏览 66
提问于2021-07-20
得票数 1
2
回答
使用
bash
脚本
和两个参数获取
hdfs
中csv
文件
的
路径
、
、
假设我在
HDFS
中有这个csv
文件
:我应该使用
bash
脚本
获得这个路径,并将其作为参数: #!/bin/
bash</e
浏览 1
提问于2019-09-03
得票数 0
回答已采纳
2
回答
将
hdfs
命令输出存储到shell变量
、
我试图将
hdfs
命令输出到一个shell变量,但得到了错误。我
的
脚本
如下:default=$1
HDFS
_PATH='/data/max_emp_value' (This is a directory) date = "`hadoop fs -cat <
浏览 1
提问于2016-08-22
得票数 0
回答已采纳
3
回答
HDFS
和Spark:编写
文件
并从另一个程序重用它
的
最佳方式
、
、
我在
HDFS
中保存了一些来自Spark应用程序
的
结果,
文件
名为part-r-0000X (X= 0,1等)。而且,因为我想将整个内容连接到一个
文件
中,所以我使用以下命令:前面的命令在一个
bash
脚本
中使用,该
脚本
将输出目录(保存part-r-...
文件
的
位置)设为空,并在一个
循环
中执行上面的getmerge命令。问题是
浏览 12
提问于2018-07-21
得票数 1
回答已采纳
1
回答
Bash
循环
在第一次迭代后停止
、
、
虽然有很多方法可以做到这一点,但由于服务器属于不同
的
集群(一个被截断了另一个不属于另一个),我
的
同事建议我使用一个简单
的
bash
脚本
将数据从远程位置流式传输到本地机器(在本地机器
上
,数据将被流式传输到
hdfs
下面的代码适用于第一次迭代,创建一个目录,一个正确命名
的
文件
,并向其中添加正确
的
内容。但是,它会在第一个
文件
之后停止(在此测试场景中,有三个名为a、b和c
的
文件</em
浏览 0
提问于2021-04-01
得票数 0
2
回答
Cron日志显示sh: 1:
hdfs
: not
、
、
我正在用python编写一个内务处理
脚本
,该
脚本
将3天前
的
文件
存储到
hdfs
中,
hdfs
正常工作,但它不适用于cron。这是我
的
密码if os.system('
hdfs
dfstmp-archive') == 0: print('Archive locat
浏览 2
提问于2020-07-25
得票数 0
回答已采纳
1
回答
如何监视
hdfs
目录并将
hdfs
中到达
的
最新
文件
复制到本地?
、
、
、
我想在
bash
/python中写一个
脚本
,这样
脚本
就可以复制到达
hdfs
目录
的
最新
文件
。我知道我可以在本地使用inotify,但如何在
hdfs
?中实现它可以请您分享它
的
示例代码。当我在谷歌
上
搜索它时,它给我提供了一个比inotify更简单
的
长codes.Is (如果它太复杂了)。
浏览 5
提问于2019-08-26
得票数 0
2
回答
oozie错误“没有这样
的
文件
或目录”
、
、
、
我试着学习Oozie,我想做一个非常简单
的
工作流程。为此,我使用色调创建了第一个oozie工作流。#!/bin/sh当我尝试将这段代码放入Oozie
的
shell图标中时,在执行时得到:没有这样
的
文件
或目录more Oozie
浏览 2
提问于2017-06-20
得票数 2
1
回答
bash
+监视磁盘空间
的
使用情况,并在使用空间达到阈值时执行
脚本
、
、
、
、
我们希望遵循/var/hadoop/
hdfs
分区
的
使用空间,如果使用
的
空间更多地是50%,那么作为结果,我们运行
脚本
- do_action.
bash
,最后这个命令应该在crontab中,并且应该每1小时运行一次,我们所做
的
是打印"run the script do_action.
bash
"
的
以下语法,如果阈值大于50%使用的话, df -Ph | grep '
hdfs
浏览 0
提问于2022-08-04
得票数 2
回答已采纳
3
回答
错误:
HDFS
未准备好(数据洪流RTS沙箱)
HDFS
尚未准备好,
HDFS
可能仍在启动,或者您
的
hadoop服务可能存在其他配置问题。 控制台每10秒检查一次这些服务状态
的
更改,但也可以手动触发刷新。
浏览 3
提问于2016-04-29
得票数 1
1
回答
如何在
HDFS
上部署和运行Samza作业?
、
、
我想让Samza作业在远程系统
上
运行,Samza作业存储在
HDFS
上
。在煤机上运行Samza作业
的
示例()涉及构建一个tar
文件
,然后解压缩tar
文件
,然后运行位于tar
文件
中
的
shell
脚本
。这里
的
HDFS
示例完全没有详细说明()。它说要将tar
文件
复制到
HDFS
,然后遵循非
HDFS
示例中
的
其他步骤。这意味着,现在驻留在<em
浏览 3
提问于2015-10-28
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Bash基础训练指南
40个简单但有效的Linux Shell脚本示例
Linux Shell脚本必知必会
在Linux中批量改变文件名的方法
自媒体良器:音频文件批处理,FFmpeg一行搞定!果断收藏
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券