首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何使用hadoop fs -copyToLocal命令覆盖现有文件

如何使用hadoop fs -copyToLocal命令覆盖现有文件
EN

Stack Overflow用户
提问于 2013-05-08 17:50:58
回答 8查看 79.8K关注 0票数 52

有没有什么方法可以覆盖现有的文件,同时从HDFS中使用:

代码语言:javascript
运行
复制
hadoop fs -copyToLocal <HDFS PATH> <local path>
EN

回答 8

Stack Overflow用户

发布于 2014-07-26 00:33:19

代码语言:javascript
运行
复制
fs -copyFromLocal -f $LOCAL_MOUNT_SRC_PATH/yourfilename.txt your_hdfs_file-path

所以-f选项可以帮你解决这个问题。

它也适用于-copyToLocal

票数 46
EN

Stack Overflow用户

发布于 2013-05-10 22:54:37

您可以先删除,再写入。

hadoop fs -rmr <path>会删除hdfs中给定路径下的所有内容,包括路径本身

rm -rf <path>在本地文件系统中删除。

确保目录中没有其他文件。

票数 14
EN

Stack Overflow用户

发布于 2015-01-07 16:54:47

我使用了下面的命令,它很有帮助:

代码语言:javascript
运行
复制
hadoop fs -put -f <<local path>> <<hdfs>>

但是来自put文档:

将单个源或多个源从本地文件系统拷贝到目标文件系统。

票数 7
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/16437548

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档