Hadoop 2.7 伪分布式环境搭建

1、安装环境

①、一台Linux CentOS6.7 系统

  hostname                ipaddress                subnet mask                  geteway    

   Node1     192.168.139.150    255.255.255.0      192.168.139.2

  ②、hadoop 2.7 安装包

    百度云下载链接:http://pan.baidu.com/s/1gfaKpA7 密码:3cl7

2、安装 JDK

  教程:https://cloud.tencent.com/developer/article/1012685

3、配置本机 ssh 免密码登录

  教程:https://cloud.tencent.com/developer/article/1012740

  上面教程是配置多台机器 ssh 免秘钥登录的配置。那么本机配置的话。输入如下命令即可:

ssh-keygen -t rsa -P ''
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys

  完成之后,以 root 用户登录,修改 ssh 配置文件

vi /etc/ssh/sshd_config

  把文件中的下面几条信息的注释去掉: 

  RSAAuthentication yes # 启用 RSA 认证   PubkeyAuthentication yes # 启用公钥私钥配对认证方式   AuthorizedKeysFile .ssh/authorized_keys # 公钥文件路径(和上面生成的文件同)

  然后重启服务

service sshd restart

  验证出现如下界面,中间不需要输入密码,即配置完成。

4、安装 hadoop-2.7.3.tar.gz

  ①、将下载的 hadoop-2.7.3.tar.gz  复制到 /home/hadoop 目录下(可以利用工具 WinSCP)

  ②、解压,进入/home/hadoop 目录下,输入下面命令

tar -zxvf hadoop-2.7.3.tar.gz

  ③、给 hadoop-2.7.3文件夹重命名,以便后面引用

mv hadoop-2.7.3 hadoop2.7

  ④、删掉压缩文件 hadoop-2.7.3.tar.gz,并在/home/hadoop 目录下新建文件夹 tmp

mv hadoop-2.7.3 hadoop2.7

  ⑤、配置 hadoop 的环境变量(注意要使用 root 用户登录)

vi /etc/profile

  输入如下信息:

  然后输入如下命令保存生效:

source /etc/profile

  ⑥、验证

  在任意目录下,输入 hadoop,出现如下信息即配置成功

5、修改配置文件

  ①、/home/hadoop/hadoop-2.7.0/etc/hadoop目录下hadoop-env.sh

  输入命令

  修改 hadoop-env.sh 的 JAVA_HOME 值

  ②、/home/hadoop/hadoop2.7/etc/hadoop目录下的core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.139.150:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/tmp</value>
    </property>
</configuration>

  ③、/home/hadoop/hadoop-2.7.0/etc/hadoop目录下的hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

到此我们便配置完成一个 hdfs 伪分布式环境  

  启动 hdfs Single Node

  ①、初始化 hdfs 文件系统

bin/hdfs namenode -format

②、启动 hdfs 

sbin/start-dfs.sh

③、输入 jps 应该会有如下信息显示,则启动成功

  那么我们就可以 通过 http://192.168.139.150:50070 来访问 NameNode

  我们点开 Datanodes ,发现就一个 datanode ,而且 IP 是 NameNode 的

   我们使用命令创建一个文件

  那么在网页上我们就能看到这个文件

④、关闭 hdfs

 sbin/stop-dfs.sh

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏瓜大三哥

HLS Lesson9-c/c++ testbench书写

目的: l验证C函数的正确性 l提高效率 1.main()函数返回0则表明结果是正确的,如果是非0则表明结果是不正确的。 2.输入激励(stimulus) 输入...

28010
来自专栏WindCoder

Git命令小记

[git] warning: LF will be replaced by CRLF | fatal: CRLF would be replaced by LF

781
来自专栏惨绿少年

route命令实例练习

第1章 命令配置 虚拟服务器 网卡配置信息 虚拟网卡名称 虚拟网卡模式 服务器01 eth1 10.0.0.1...

2190
来自专栏大前端_Web

webpack相关问题记录

版权声明:本文为吴孔云博客原创文章,转载请注明出处并带上链接,谢谢。 https://blog.csdn.net/wkyseo/articl...

1262
来自专栏Pythonista

windows下vmware配置nat网络

1603
来自专栏IT笔记

Java 导入包正确依旧报错的处理方法

今天想要测试某个方法,开始打开项目的时候是没问题的,然后写了两行代码就报错了,提示本包下的要导入,然后导入无效,其实同一个包下调用是不需要导入的。 解决发方法...

4105
来自专栏iKcamp

基于Koa2搭建Node.js实战项目教学(含视频)☞ 环境准备

文章 Koa 起手 - 环境准备 由于 koa2 已经开始使用 async/await 等新语法,所以请保证 node 环境在 7.6 版本以上。 安装node...

60910
来自专栏Python、Flask、Django

我博客图片存在哪里的?

1404
来自专栏一枝花算不算浪漫

[常见问题]在Linux下执行Redis命令不起作用.

3608
来自专栏岑玉海

Hbase 学习(十) HBase Snapshots

HBase Snapshots允许你对一个表进行快照(即可用副本),它不会对Region Servers产生很大的影响,它进行复制和 恢复操作的时候不包括数据拷...

4928

扫码关注云+社区

领取腾讯云代金券