首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Hadoop异常处理之exceeds the limit of concurrent xcievers 256

Hadoop异常处理之exceeds the limit of concurrent xcievers 256

作者头像
星哥玩云
发布2022-06-29 21:45:09
发布2022-06-29 21:45:09
2910
举报
文章被收录于专栏:开源部署开源部署

异常描述

java.io.IOException: xceiverCount 258 exceeds the limit of concurrent xcievers 256         at org.apache.Hadoop.hdfs.server.datanode.DataXceiver.run(DataXceiver.java:165)

查看datanode日志存在*:50010:DataXceiver error processing WRITE_BLOCK operation  src

异常分析

文件操作超租期,实际上就是data stream操作过程中文件被删掉了。之前也遇到过,通常是因为Mapred多个task操作同一个文件,一个task完成后删掉文件导致。

不过这次在hdfs上传文件时发生了这个异常,导致上传失败

解决方案

修改hdfs-site.xml   <property>         <name>dfs.datanode.max.xcievers</name>         <value>8192</value> </property> 拷贝到各datanode节点并重启datanode即可

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档