首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >检查HDFS目录大小的方法?

检查HDFS目录大小的方法?
EN

Stack Overflow用户
提问于 2011-06-28 17:07:09
回答 7查看 185.7K关注 0票数 114

我在常见的Linux文件系统中知道du -sh。但是如何使用HDFS做到这一点呢?

EN

回答 7

Stack Overflow用户

发布于 2015-02-18 21:51:04

hadoop fs -du -s -h /path/to/dir以可读的形式显示目录的大小。

票数 79
EN

Stack Overflow用户

发布于 2016-06-24 19:43:55

这样你就可以得到GB大小了

代码语言:javascript
复制
hdfs dfs -du PATHTODIRECTORY | awk '/^[0-9]+/ { print int($1/(1024**3)) " [GB]\t" $2 }'
票数 13
EN

Stack Overflow用户

发布于 2018-07-24 21:37:51

当尝试计算目录中特定文件组的总数时,-s选项不起作用(在Hadoop2.7.1中)。例如:

目录结构:

代码语言:javascript
复制
some_dir
├abc.txt    
├count1.txt 
├count2.txt 
└def.txt    

假设每个文件的大小为1 KB。您可以使用以下命令汇总整个目录:

代码语言:javascript
复制
hdfs dfs -du -s some_dir
4096 some_dir

然而,如果我想要包含"count“的所有文件的总和,该命令就不能满足要求。

代码语言:javascript
复制
hdfs dfs -du -s some_dir/count*
1024 some_dir/count1.txt
1024 some_dir/count2.txt

为了解决这个问题,我通常通过awk传递输出。

代码语言:javascript
复制
hdfs dfs -du some_dir/count* | awk '{ total+=$1 } END { print total }'
2048 
票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/6504107

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档