专栏首页闵开慧hadoop配置文件

hadoop配置文件

(1)配置$HADOOP_HOME/conf/hadoop-env.sh

切换到Hadoop的安装路径找到hadoop-0.20.2下的conf/hadoop-env.sh文件

将:# export JAVA_HOME=/usr/lib/j2sdk1.5-sun

改为:export JAVA_HOME=/usr/lib/jvm/java-6-openjdk

(2) 配置$HADOOP_HOME/conf/core-site.xml

切换到Hadoop的安装路径找到hadoop-0.20.2下的conf/core-site.xml文件

   <configuration>  
   <property>  
     <name>fs.default.name</name>  
     <value>hdfs://192.168.0.118:9000</value>  
   </property>  
   <property>  
     <name>hadoop.tmp.dir</name>  
     <value>/home/hadoop/tmp</value>  
   </property>  
   -- 配置第二名称节点  
   <property>  
     <name>fs.checkpoint.dir</name>  
     <value>/home/hadoop/secondname</value>   
   </property>  
   -- 设置回收站保留时间  
   <property>  
     <name>fs.trash.interval</name>  
     <value>10080</value>  
     <description>  
         Number of minutes between trash checkpoints. If zero, the trash feature is disabled  
     </description>  
   </property>  
   </configuration>  

(3) 配置$HADOOP_HOME/conf/hdfs-site.xml

切换到Hadoop的安装路径找到hadoop-0.20.2下的conf/hdfs-site.xml文件内容如下:

   <configuration>  
   <property>  
   <name>dfs.name.dir</name>  
   <value>/home/hadoop/name</value>  
   </property>   
   <property>  
   <name>dfs.data.dir</name>  
   <value>/home/hadoop/data</value>  
   </property>  
   <property>  
   <name>dfs.replication</name>  
   <value>2</value>  
   </property>   
   <property>  
   <name>dfs.http.address</name>  
   <value>192.168.0.118:50070</value>  
   </property>   
   <property>  
   <name>dfs.secondary.http.address</name>  
   <value>192.168.0.118:50070</value>  
   </property>   
   </configuration>  

(4) 配置$HADOOP_HOME/conf/mapred-site.xml

切换到hadoop的安装路径找到hadoop-0.20.2下的conf/mapred-site.xml文件内容如下:

   <configuration>  
   <property>  
   <name>mapred.local.dir</name>  
   <value>/home/hadoop/temp</value>  
   </property>   
   <property>  
   <name>mapred.job.tracker</name>  
   <value>192.168.0.118:9001</value>  
   </property>   
   <property>  
   <name>mapred.map.tasks</name>  
   <value>7</value>  
   </property>   
   <property>  
   <name>mapred.tasktracker.map.tasks.maximum</name>  
   <value>4</value>  
   </property>   
   <property>  
   <name>mapred.tasktracker.reduce.tasks.maximum  
   </name>  
   <value>3</value>  
   </property>   
   <property>  
     <name>mapred.child.java.opts</name>  
    <value>-Xmx512m</value>  
   </property>  
   </configuration>  

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • hadoop安装配置过程总结

     一、Jdk安装 系统已经默认有安装,但不完全,所以需要自己安装 配置环境变量: 在usr下新建java文件夹,将Java7压缩文件解压在该文件夹中,并配置系统...

    闵开慧
  • ubuntu_hadoop 部署笔记

    单机模式部署 一、Jdk安装 命令:sudo apt-get install openjdk-6-jdk 目录:/usr/l...

    闵开慧
  • com.mysql.jdbc.exceptions.jdbc4.CommunicationsE...

    com.mysql.jdbc.exceptions.jdbc4.CommunicationsException: Communications link ...

    闵开慧
  • 基于druid和spring的动态数据库以及读写分离

    spring与druid可以实现动态数据源,夸库查询,读写分离等功能。现在说一下配置:

    一笠风雨任生平
  • druid简介与运用

    Druid首先是一个数据库连接池。Druid是目前最好的数据库连接池,在功能、性能、扩展性方面,都超过其他数据库连接池,包括DBCP、C3P0、BoneCP、P...

    Java架构师历程
  • 基于SSM的数据库连接池框架druid的使用

    可以先去druid的官网下载jar:http://druid.io/downloads.html

    SmileNicky
  • Hadoop完全分布式安装

    完全分布式安装部署,其实步骤上来说与伪分布式没有太大的区别,主要增加2台虚拟机部署称为一个3台的集群

    我脱下短袖
  • Zookeeper + Hadoop2.6 集群HA + spark1.6完整搭建与所有参数解析

    yum install autoconfautomake libtool cmake

    用户3003813
  • Hadoop 2.6.0集群搭建

    yum install autoconfautomake libtool cmake

    用户3003813
  • Spring MVC多个视图解析器及优先级

    如果应用了多个视图解析器策略,那么就必须通过“order”属性来声明优先级,order值越低,则优先级越高

    試毅-思伟

扫码关注云+社区

领取腾讯云代金券