首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >启动Hadoop DFS -在$HADOOP_HOME/bin/hdfs中没有这样的文件或目录?

启动Hadoop DFS -在$HADOOP_HOME/bin/hdfs中没有这样的文件或目录?
EN

Stack Overflow用户
提问于 2017-01-25 04:40:02
回答 1查看 2.7K关注 0票数 1

我正在设置一个$HADOOP_HOME/bin/hdfs节点,但是在运行Hadoop时,它会打印出找不到Hadoop。不过,该位置的文件是存在的,我可以很好地读取它。

从start-dfs.sh脚本进行日志记录:

代码语言:javascript
运行
复制
root@hadoop:/opt/hadoop-2.7.3# sbin/start-dfs.sh
Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf
Starting namenodes on []
localhost: starting namenode, logging to /opt/hadoop-2.7.3/logs/hadoop-root-namenode-hadoop.out
localhost: nice: ‘$HADOOP_HOME/bin/hdfs’: No such file or directory
localhost: starting datanode, logging to /opt/hadoop-2.7.3/logs/hadoop-root-datanode-hadoop.out
localhost: nice: ‘$HADOOP_HOME/bin/hdfs’: No such file or directory
Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf

据我所知,我所有的path变量都设置正确了(echo $HADOOP_HOME返回正确的目录)。

EN

Stack Overflow用户

发布于 2017-01-25 06:39:26

通常,/etc/environment文件专门用于系统范围的环境变量设置。它不是脚本文件,而是由赋值表达式组成,每行一个。

它不是由shell脚本处理的。

请在.bashprofile.bashrc中设置您的环境变量,并启动hadoop进程。

请参阅有关environment variables.的详细信息

票数 0
EN
查看全部 1 条回答
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/41838590

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档