首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >数据节点,任务跟踪器在执行hadoop fs -put命令时死机

数据节点,任务跟踪器在执行hadoop fs -put命令时死机
EN

Stack Overflow用户
提问于 2012-10-31 14:40:20
回答 3查看 490关注 0票数 0

我有一个hadoop集群,其中有1个主服务器(运行namenode和jobtracker)和2个从服务器(分别运行datanode和tasktracker )。现在每当我执行

代码语言:javascript
运行
复制
hadoop fs -put localfile /user/root/tmp/input

对于4-8 GB的数据,该命令可以完美执行。

但是当我将数据增加到30 to时,其中一个从机就死了。就像在中一样,我得到了一个java.io.noRouteToHost异常,命令不能成功退出。我立即ping了那个从站,发现连以太网连接都断了。所以我必须手动完成

代码语言:javascript
运行
复制
ifup eth0

使主机重新启动。我不能弄清楚这里的问题。我还更改了以下属性

代码语言:javascript
运行
复制
dfs.socket.timeout,  for read timeout
dfs.datanode.socket.write.timeout, for write timeout

我将读取超时设置为600000,将写入超时设置为0,以使其为无穷大。请提出任何建议。我已经被困在这个问题上好几天了

EN

回答 3

Stack Overflow用户

回答已采纳

发布于 2012-11-02 17:38:41

找到解决方案了。问题出在硬件上。虽然我的NIC卡是千兆位的,但所有节点都插在其中的交换机支持100 my。将开关更改为千兆位,并且工作正常。

票数 0
EN

Stack Overflow用户

发布于 2012-10-31 23:11:38

尝试使用"distCp“复制大数据。

票数 0
EN

Stack Overflow用户

发布于 2014-10-24 05:30:45

我遇到了一个笑脸问题,我用-copyFromLocal代替了-put,它解决了这个问题。

hadoop fs -copyFromLocal localfile /user/root/tmp/input

票数 -1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/13152540

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档