前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >干货--安装eclipse-hadoop-plugin插件及HDFS API编程两个遇到的重要错误的解决

干货--安装eclipse-hadoop-plugin插件及HDFS API编程两个遇到的重要错误的解决

作者头像
汤高
发布2018-01-11 16:45:55
9220
发布2018-01-11 16:45:55
举报
文章被收录于专栏:积累沉淀积累沉淀积累沉淀

在Windows的eclipse上写hdfs的API程序,都会遇到两个错误,在网上查了很多资料,都没有解决的办法,经过了很多时间的研究,终于把这个问题解决了

错误是 1.java.io.IOException :HADOOP_HOME or hadoop.home.dir are not set. 2.java.io.IOException:could not locate executable D:\hadoop-2.6.4\hadoop-2.6.4\bin/winutils.exe in the Hadoop binaries.

先来讲安装,安装完后再测试,那才是重点部分,因为错误就会发生在那,难倒了不知道多少人,网上很多求助的都没有解决

首先来安装eclipse-hadoop-plugin插件(安装了的可以跳过,直接看下面错误是怎么解决的)需要用到下面这个Jar包,具体所有用到的包我后面会上传,会把地址写到这篇文章的最后

过程看下图

接着重启eclipse,然后按下图操作

接着OK

接着再按下图操作

创建一个location位置

编辑一下内容

完成后,可以看到下面错误(可能会弹出一个对话框,有错,不要管,没事)

看到这个图就说明你成功了

接着要进行测试了,测试怎么能少jar包了,看下面的图,加入jar包到Hadoop工程来

 OK,jar包引入到eclipse后就来测试了,重点部分来了

看见没,报了一个错,是不是很多人都遇到了,看下面的解决方案

配置一些HADOOP_HOME的环境变量,把它加入到PATH系统环境变量中,具体看图

往PATH中加入%HADOOP_HOME%\bin;%HADOOP_HOME%\sbin;(注意,每个人的解压路径都不同,不要完全照我的来,除非你的解压路径和我一样,我的解压到D盘了)

重启eclipse,然后再测试,注意,又报了一个错,是不是很奇怪,因为少了一个东西,具体看图

少什么就加什么,看jar包解压后加入到解压的那个文件的bin目录下即可

再重启eclipse后运行,测试

终于成功了!!!

需要jar包的朋友可以去  http://download.csdn.net/detail/tanggao1314/9500056和  http://download.csdn.net/detail/tanggao1314/9500061下载找到相关对应的包,因为文件上传不能太大,有一个hadoop-2.6.4.tar.gz不能上传,有需要的朋友可以联系我,我单独发

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016-04-23 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档