首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >无法在hadoop中使用dfs创建目录

无法在hadoop中使用dfs创建目录
EN

Stack Overflow用户
提问于 2014-10-06 07:20:44
回答 2查看 2.1K关注 0票数 0

我正在尝试使用下面的命令创建一个文件夹

代码语言:javascript
运行
复制
manoj@ubuntu:/usr/local/hadoop/bin$ hadoop dfs -mkdir /tmp

但是,我遇到了以下错误:

代码语言:javascript
运行
复制
mkdir: unknown host: hadoop

我已经发布了日志文件,希望能得到一些帮助。我已经在hadoop上安装了单节点。它看起来像是java未知的主机异常错误。请告诉我该怎么做才能纠正这个问题。

代码语言:javascript
运行
复制
manoj@ubuntu:/usr/local/hadoop/logs$ cat hadoop-manoj-datanode-ubuntu.log
2014-10-05 13:08:30,621 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: STARTUP_MSG: 
/************************************************************
STARTUP_MSG: Starting DataNode
STARTUP_MSG:   host = ubuntu/127.0.1.1
STARTUP_MSG:   args = []
STARTUP_MSG:   version = 1.2.0
STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1479473; compiled by 'hortonfo' on Mon May  6 06:59:37 UTC 2013
STARTUP_MSG:   java = 1.7.0_65
************************************************************/
2014-10-05 13:08:32,449 INFO org.apache.hadoop.metrics2.impl.MetricsConfig: loaded properties from hadoop-metrics2.properties
2014-10-05 13:08:32,514 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source MetricsSystem,sub=Stats registered.
2014-10-05 13:08:32,519 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Scheduled snapshot period at 10 second(s).
2014-10-05 13:08:32,519 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: DataNode metrics system started
2014-10-05 13:08:34,173 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source ugi registered.
2014-10-05 13:08:34,191 WARN org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Source name ugi already exists!
2014-10-05 13:08:36,439 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.net.UnknownHostException: unknown host: hadoop
    at org.apache.hadoop.ipc.Client$Connection.<init>(Client.java:233)
    at org.apache.hadoop.ipc.Client.getConnection(Client.java:1233)
    at org.apache.hadoop.ipc.Client.call(Client.java:1087)
    at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229)
    at com.sun.proxy.$Proxy5.getProtocolVersion(Unknown Source)
    at org.apache.hadoop.ipc.RPC.checkVersion(RPC.java:422)
    at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:414)
    at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:392)
    at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:374)
    at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:453)
    at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:335)
    at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:300)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:383)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:319)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1698)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1637)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1655)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:1781)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1798)

2014-10-05 13:08:36,443 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down DataNode at ubuntu/127.0.1.1
************************************************************/
EN

回答 2

Stack Overflow用户

发布于 2014-10-06 15:53:33

看起来像是配置问题。我假设您使用的是Hadoop的最新版本-如果是这样的话,您应该使用hdfs命令。因此,尝试使用bin/hdfs dfs -ls来查看您的fs命令是否有效。我猜他们是行不通的。在这种情况下,您应该检查core-site.xml中的HDFS设置(fs.defaultFS)。

票数 0
EN

Stack Overflow用户

发布于 2014-10-07 23:07:49

转到$HADOOP_HOME并试用$bin/hadoop fs -mkdir /tmp

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/26208245

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档