前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >完美解决Hadoop集群无法正常关闭的问题!

完美解决Hadoop集群无法正常关闭的问题!

作者头像
大数据梦想家
发布2021-01-27 10:49:03
1.6K0
发布2021-01-27 10:49:03
举报

相信对于大部分的大数据初学者来说,一定遇见过hadoop集群无法正常关闭的情况。有时候当我们更改了hadoop内组件的配置文件后,必须要通过重启集群来使配置文件生效。 但往往一stop-all.sh,集群下方总会出现下面的提示:

[root@master ~]# stop-dfs.sh Stopping namenodes on [master] master: no namenode to stop slave2: no datanode to stop slave1: no datanode to stop …

最开始的时候,我也是看了一个头两个大,这都是啥么情况???

但问题都出来了,只有迎面解决了~

我们都知道在Hadoop中控制脚本启动和停止hadoop后台程序的是哪个脚本。

没错,就是hadoop-daemon.sh

先让我们利用find命令找到它的位置

find / -name hadoop-daemon.sh

在这里插入图片描述
在这里插入图片描述

通过vim /export/servers/hadoop-2.6.0-cdh5.14.0/sbin/hadoop-daemon.sh 在文件的最后几行,我们终于找到了答案:

在这里插入图片描述
在这里插入图片描述

初步分析,如果pid文件不存在就会打印:no xxx to stop

那我们上述出现的情况无非就是hadoop集群关闭的时候,Namenode或者DataNode的pid文件找不着。 通过配置文件最初的描述,我们大概知道pid文件默认是保存在tmp目录下

# HADOOP_PID_DIR The pid files are stored. /tmp by default.

那这个pid文件是啥?根据查阅资料,方知Hadoop启动后,会把进程的PID号存储在一个文件中,这样执行stop-dfs脚本时就可以按照进程PID去关闭进程了。

现在问题原因很明确了,就是/tmp目录下的hadoop-*.pid的文件找不到了。

我们知道/tmp是临时目录,系统会定时清理该目录中的文件。显然把pid文件放在这里是不靠谱的,pid文件长时间不被访问,早被清理了!

所以我们只需要在配置文件中更改默认的pid存放位置即可。但注意,需要先通过kill等方法把进程杀死,等集群关闭之后再更改!!!

在这里插入图片描述
在这里插入图片描述

同样的道理,你还需要修改yarn-daemon.sh配置文件

在这里插入图片描述
在这里插入图片描述

好了,从此再也不用担心出现no xxx to stop的警告了!

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-02-16 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档