首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >Hadoop :无法加载本机hadoop库

Hadoop :无法加载本机hadoop库
EN

Stack Overflow用户
提问于 2017-06-21 16:33:41
回答 1查看 354关注 0票数 0

我知道,这是一个著名的问题在互联网上,有大量的网站显示如何解决这个问题,有地狱的许多质量保证也是如此。但是,没有一个帮助我,我现在很沮丧。所以我会给出我所能提供的每一个细节,如果我忽略了什么,我很感谢你的帮助。

代码语言:javascript
运行
复制
**OS** : Ubuntu 16.04 32 bit
**Hadoop version** : Hadoop 3.0.0-alpha3
**bashrc** : 

export HADOOP_HOME=/usr/local/hadoopec/hadoop
export HADOOP_CONF_DIR=/usr/local/hadoopec/hadoop/etc/hadoop
export HADOOP_MAPRED_HOME=/usr/local/hadoopec/hadoop
export HADOOP_COMMON_HOME=/usr/local/hadoopec/hadoop
export HADOOP_HDFS_HOME=/usr/local/hadoopec/hadoop
export PATH=$PATH:/usr/local/hadoopec/hadoop/bin

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-i386

export LD_LIBRARY_PATH=/usr/local/hadoopec/hadoop/lib/native/:$LD_LIBRARY_PATH
#export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

**core-site.xml** : 

<property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/hadoopec/hadoop/tmp</value>
  <description>Temporary Directory.</description>
</property>

<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:9000</value>
  <description>Use HDFS as file storage engine</description>
</property>

 **hdfs-env.sh**

export HADOOP_OPTS="$HADOOP_OPTS -Djava.library.path=$HADOOP_HOME/lib/native"
export HADOOP_OPTS="$HADOOP_OPTS -XX:-PrintWarnings -Djava.net.preferIPv4Stack=true"
export LD_LIBRARY_PATH=/usr/local/hadoopec/hadoop/lib/native/:$LD_LIBRARY_PATH

**hdfs-site.xml**

<property>
<name>dfs.replication</name>
<value>3</value>
</property>

<property>
<name>dfs.permission</name>
<value>false</value>
</property>

 <property>
  <name>dfs.namenode.name.dir</name>
  <value>/usr/local/hadoopec/hadoop/tmp/hdfs/name</value>
  </property>

<property>
  <name>dfs.datanode.data.dir</name>
  <value>/usr/local/hadoopec/hadoop/tmp/hdfs/data</value>
  </property>

如果有人需要更多的信息,可以问我。

EN

回答 1

Stack Overflow用户

发布于 2017-06-21 16:48:26

我通过下载Hadoop2.8.0并执行与以前的hadoop一样的所有精确配置来解决问题,尽管我不知道究竟是什么导致了错误或警告?localhost:50070给了我unable to connect错误。如果有人能指出原因,我将心存感激。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/44681653

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档