首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    hadoop-2.0.0-cdh4.5.0安装

    1、创建Hadoop用户【所有操作都是root,在所有master和slaver上】 1)、创建hadoop用户:adduser hadoop 2)、更换密码:passwd hadoop ==================================================================================== 2、安装jdk【所有操作都是root,在所有master和slaver上】 1)、将jdk.tar.gz解压到/et/local/:tar –zxvf jdk.tar.gz 2)、配置java环境变量,在/etc/profile中添加: export JAVA_HOME=/usr/local/jdk export JRE_HOME=/usr/local/jdk/jre export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$JAVA_HOME/bin 3)、使环境变量有效:source /etc/profile 4)、测试jdk安装是否成功:java -version ==================================================================================== 3、免密码登陆 1)、进入hadoop的家目录:su – hadoop【root】 2)、创建空密码登陆,在家目录的.ssh文件夹下生成id_rsa和id_rsa.pub文件:ssh-keygen –t rsa –P ''【hadoop】 3)、把id_rsa.pub追加到授权key中[特别注意:如果没有修改hostname,将id_rsa.pub中的localhost修改为ip,否则在authorized_keys中全部是localhost]: cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys【hadoop】 4)、[特别注意]修改authorized_keys文件的权限为600:chmod 600 ~/.ssh/authorized_keys【hadoop】 5)、使用root用户修改/etc/ssh/sshd_config文件:【root】 RSAAuthentication yes # 启用 RSA 认证 PubkeyAuthentication yes # 启用公钥私钥配对认证方式 AuthorizedKeysFile .ssh/authorized_keys # 公钥文件路径(和上面生成的文件同) 6)、重启sshd:service sshd restart【root】 7)、验证是否hadoop能无密码登陆,使用hadoop用户:ssh localhost【hadoop,在slave机器上重复1-7】 8)、把master/slave的公钥scp到所有slave/master上:scp id_rsa.pub hadoop@ip:~/ 【hadoop】 9)、将master/slave的公钥追加到slave/master的authorized_keys中:cat id_rsa.pub>>.ssh/authorized_keys【hadoop】 10)、验证无密码登陆:ssh ip【hadoop】 ==================================================================================== 4、安装hadoop【所有操作都是root,在master上】 1)、下载hadoop代码到/usr/local下:wget http://archive.cloudera.com/cdh4/cdh/4/hadoop-2.0.0-cdh4.6.0.tar.gz 2)、解压缩:tar –zxvf hadoop-2.0.0.tar.gz 3)、修改文件夹名称:mv hadoop-2.0.0 hadoop 4)、修改权限:chown -R hadoop:hadoop hadoop ==================================================================================== 5、配置hadoop【在master上】 1)、创建存储临时文件temp、data和name节点数据的目录【hadoop】: mkdir /usr/local/hadoop/temp mkdir /usr/local/hadoop/dfs/data mkdir /usr/local/hadoop/dfs/name 2)、配置/usr/local/hadoop/etc/hadoop/co

    01
    领券