腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(8804)
视频
沙龙
1
回答
HDFS
空间
释放
-
最佳
解决方案
hdfs
、
cloudera
我想在
HDFS
中
释放
一些
空间
,因此我需要找出一些不需要/不使用的
HDFS
块/文件,并需要删除或存档。那么到目前为止,什么才是最优的
解决方案
呢?我使用的是Clouder发行版。(我的集群
HDFS
容量为900 TB,使用了700 TB)
浏览 4
提问于2017-08-04
得票数 0
回答已采纳
1
回答
HDFS
磁盘已满
hadoop
、
hbase
、
hdfs
、
ambari
在我们的Ambari集群中,
HDFS
磁盘的使用率达到了100%。我想删除HBase中的表来
释放
磁盘,但是hbase (主版)没有启动。有正确的方法
释放
磁盘
空间
吗?还是我应该重新安装ambari集群?HDP版本为2.4.2,
HDFS
版本为2.7.1,Hbase版本为1.1.2
浏览 3
提问于2017-02-16
得票数 1
回答已采纳
1
回答
为什么
HDFS
的很大一部分是未使用和不可用的?
hadoop
、
hdfs
、
amazon-emr
在EMR中,我遇到了一些问题,在专用于
HDFS
的分区中,某些节点的使用率达到90%,但失败。我怎样才能提供免费
浏览 5
提问于2022-06-13
得票数 0
1
回答
在HBase中截断表不会为
HDFS
释放
空间
。
hadoop
、
hdfs
、
hbase
、
ambari
我在使用HBase和
HDFS
时遇到了问题,因为我知道HBase运行在
HDFS
之上,因此我认为它使用
HDFS
来存储数据。问题是
HDFS
接近其最大
空间
利用率,并且它和HBase不断崩溃。以下是
HDFS
选项卡中的监控工具Ambari的图片: ? 在相当长的一段时间内,我甚至不能运行正常的HBase外壳命令,比如list和scan,所以我甚至不能尝试从表中删除一些数据。但是,当我设法重新启动在单个节点上运行的HBase时,我截断了使用该最大
空间
量的表,并且当我通过du (磁
浏览 59
提问于2021-08-23
得票数 0
回答已采纳
1
回答
何时从数据节点删除数据在
hdfs
文件夹中-rmr的情况下?
hdfs
、
hadoop-yarn
、
hadoop2
只是想了解
HDFS
是如何编辑的,这样您就可以对磁盘大小进行大幅度的更改。“
hdfs
dfs -du -s -h /folder”和“
hdfs
dfsadmin -report”将需要多长时间才能反映缩小的大小?
浏览 1
提问于2014-10-08
得票数 2
回答已采纳
1
回答
从
hdfs
中删除文件是否也会从复制的datanodes中删除该文件?
hadoop
、
hdfs
为了
释放
内存
空间
,我计划从
hdfs
中删除一些文件。我有一个3节点集群。 如果我从
hdfs
中删除一个文件,它是否也会自动从复制的datanodes中删除该文件?
浏览 0
提问于2018-10-08
得票数 0
回答已采纳
1
回答
更改
HDFS
复制因子
filesystems
、
hadoop
、
distributed-filesystems
、
hdfs
对于一些使用命令的目录,我已经将复制因子从3更改为2:但是我的
HDFS
空闲
空间
还是一样的。我应该做些别的事情来
释放
我的磁盘吗?
浏览 0
提问于2020-09-29
得票数 0
1
回答
从
hdfs
中删除文件是否会删除相应的hive外部表分区?
hadoop
、
hive
为了
释放
内存
空间
,我计划从
hdfs
中删除一些文件。 从
hdfs
中删除文件是否也会删除相应的hive表的分区?(或者)我们是否需要显式地删除hive表的分区?
浏览 0
提问于2018-10-08
得票数 0
回答已采纳
1
回答
使用Flume/Hadoop时Ubuntu中的Java内存不足异常
java
、
hadoop
、
heap-memory
、
flume
当我尝试使用Flume下载tweet并将其输送到Hadoop时,由于缺少Java堆
空间
,我得到了内存不足的异常。我已经将Hadoop的mapred-site.xml中的堆
空间
设置为4GB,如下所示: <name>mapred.child.java.opts</name> <value因为我确实有足够的磁盘
空间
来保存所有这些,所以我假设错误来自Java,必须同时处理这么多事情。有没有办法让我放慢这些推文下载的速度,或者做些其他的事情来解决这个问题?= MemCh
浏览 3
提问于2013-07-29
得票数 2
回答已采纳
3
回答
运行hadoop时磁盘已满
hadoop
、
mapreduce
、
diskspace
有些地方出了问题,它几乎消耗了C驱动器中所有可用的磁盘
空间
。因此,我关闭了资源管理器、节点管理器、名称Node、数据节点控制台。现在我有一个C驱动器,它几乎已经满了,我不知道如何清空磁盘
空间
,并使我的C驱动器像以前一样。我现在该怎么办。任何帮助都是非常感谢的。
浏览 7
提问于2015-04-17
得票数 0
2
回答
由于启用了安全模式,无法从dfs中删除文件
hadoop
、
hdfs
、
cloudera
dfs
空间
的99%已用完。因此,我需要删除文件,但要删除文件,需要关闭安全模式。我尝试使用以下命令关闭安全模式,它说它已经关闭,但由于
空间
不足,它会自动打开它。要关闭安全模式,我需要
释放
空间
!那么,如何清理文件以获得更多
空间
呢?
浏览 2
提问于2014-04-28
得票数 5
1
回答
HDFS
是否可以成为datanode中的孤立文件?
hadoop
、
hdfs
、
cloudera
通常,日志修剪作业会
释放
大约40%的
HDFS
可用存储
空间
。然而,在升级过程中,数据节点宕机,重新启动,各种疯狂。已知的是,
HDFS
接收到了delete命令,因为
HDFS
文件/文件夹已不存在,但磁盘利用率仍未改变。我的问题是,
HDFS
是否已经从NameNode的元数据中删除了文件,而没有实际完成DataNodes中的文件块删除,从而有效地孤立了文件块?
浏览 0
提问于2013-07-17
得票数 0
3
回答
Hadoop namenode无法脱离安全模式
hadoop
当我强制hadoop退出安全模式时,使用
hdfs
dfsadmin -safemode leave,它显示Safe mode is OFF,但我仍然无法删除目录中的文件,结果显示:rm: Cannot我使用命令'
hdfs
dfsadmin -report',它显示: Configured Capacity: 52710469632 (49.09 GB)
浏览 0
提问于2015-10-14
得票数 6
2
回答
是否有关于专用sql服务器上页面文件大小的规则?
sql-server
、
sql-server-2005
、
memory
、
configuration
大家好,我们一直在深入研究my_server上关于低磁盘
空间
的C: disk。我们可以看到,没有多少文件可以删除,以
释放
存储。但是,我们注意到这个磁盘上的页面文件正在使用32 GB的存储
空间
。通过手动将页面文件大小减少到8GB,我们将在C:磁盘上
释放
24 GB的
空间
,这将是解决磁盘
空间
问题的
最佳
长期
解决方案
。 我真的应该禁用页面文件吗?把它减到8GB?
浏览 0
提问于2016-08-15
得票数 1
回答已采纳
1
回答
如何
释放
非DFS使用的
空间
与Hortonworks hdp SSH客户端?
hadoop
、
hdfs
、
hortonworks-data-platform
今天,我遇到了以下问题:
HDFS
磁盘使用率为91%。非DFS使用31.2 GB / 41.6 GB (74.96%)。 我应该怎么做才能
释放
磁盘
空间
呢?从沙箱hdp SSH客户端可以做到吗?我已经从沙箱hdp SSH客户端执行了命令:
hdfs
dfs -du -h /,但这显然是
HDFS
数据的使用。
浏览 0
提问于2018-04-09
得票数 1
回答已采纳
2
回答
为什么Hadoop -rmr命令非常快?
hadoop
、
hdfs
在
HDFS
的一个文件夹中,我有大约37 of的数据。 该命令在一瞬间执行。
浏览 5
提问于2013-10-10
得票数 1
回答已采纳
2
回答
HDFS
的
最佳
底层文件系统类型和配置
partitioning
、
filesystem
、
hadoop
我想重新格式化一个本地驱动器分区,并将其转换为
HDFS
的分区。在此基础上运行
HDFS
的
最佳
文件系统是哪个?我应该对这个文件系统进行任何优化吗? 这是一个Ubuntu 14.04
浏览 0
提问于2014-10-21
得票数 3
2
回答
HDFS
-与块大小相关的
hadoop
、
mapreduce
、
hdfs
我认为在
HDFS
中,第一个文件消耗10 MB,其余54 MB被
释放
到广告到可用的
空间
。
浏览 3
提问于2015-11-04
得票数 0
回答已采纳
1
回答
teradata中的动态假脱机
空间
分配
hdfs
、
teradata
、
sqoop
我有大量数据,正在将其从teradata导入
hdfs
。在执行此操作时,通常会出现假脱机
空间
不足,因此作业会失败。对此有什么
解决方案
吗?是否可以根据数据大小动态分配假脱机
空间
?或者,我们是否可以将数据从sqoop import加载到临时缓冲区,然后将其写入
hdfs
?
浏览 28
提问于2018-02-06
得票数 0
回答已采纳
1
回答
纱线报告节点已满,尽管它们有空闲
空间
。
hadoop
、
hadoop-yarn
检查我的唯一节点的状态会告诉我,使用以下消息它是不健康的: 1/1本地-dirs可用
空间
低于配置利用率/不再有可用
空间
/tmp/hadoop-usr/no dir:超过阈值90.0%的使用
空间
;1/1日志迪尔可用
空间
低于配置利用率/不再可用
空间
/Users/usr/Documents/hadoop-3.3.1/logs/userlogs :使用
空间
超过90.0
浏览 5
提问于2022-02-10
得票数 0
点击加载更多
相关
资讯
Greenplum释放表的空间
释放NAS异常空间占用攻略
MongoDB如何释放空闲磁盘空间?
还在为C盘空间烦恼?用这方法快速释放C盘空间
释放大量Mac内存空间的方法
热门
标签
更多标签
云服务器
ICP备案
即时通信 IM
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券