前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Hadoop学习笔记一:单节点安装

Hadoop学习笔记一:单节点安装

作者头像
大江小浪
发布2018-07-25 10:02:20
4500
发布2018-07-25 10:02:20
举报
文章被收录于专栏:小狼的世界小狼的世界

通过本节的学习,可以掌握如何在单节点上使用Hadoop进行Map/Reduce以及HDFS存储的实现。

环境要求:

支持的平台:

     支持GNU/Linux平台,可以作为测试和生产环境使用。Hadoop在2000个节点的生产环境中经受过考验。

     支持Win32平台作为测试环境,正式环境的测试还不够充分,所以发布版暂时不能支持Win32环境。

需要的软件:

     1、Java 1.6.x,必须。

     2、ssh、sshd,必须。

     如果是在Windows环境下,你也许需要 Cygwin。

安装必要的软件

     如果服务器没有必要的软件,就必须进行安装。不同的发行版本,有不同的安装方法。例如Ubuntu下:

     $ sudo apt-get install ssh

     $ sudo apt-get install rsync

下载Hadoop

     从 这里 下载一个Hadoop的稳定版本。

开始我们的Hadoop之旅

     解压下载的软件,在解压后的目录中,编辑 conf/hadoop-env.sh 脚本设置服务器的JAVA_HOME目录。

     我的环境是 Centos6.0,yum安装了OPEN-JDK,对应的目录为:

          /usr/lib/jvm/java-1.6.0-openjdk-1.6.0.0/jre/

     执行 bin/hadoop 命令,如果如下图所示,我们就做好使用 Hadoop 的准备了。

Image(1)
Image(1)

     可以用三种方式使用Hadoop:

          本地模式(Local Standalone Mode);

          伪分布式模式(Pseudo-Distributed Mode);

          完全分布式模式;

本地模式

     默认情况下,Hadoop是配置为本地运行的,以一个单独的Java进程运行,这种方式非常适合Debug。

     在本地,我选择了对 194Mb 的访问日志进行分析,如下代码:

         bin/hadoop jar hadoop-examples-0.20.203.0.jar grep input/ output/ 'favicon[a-z.]+'

     这个任务是分析日志中出现的favicon的次数,统计结果如下:

Image(2)
Image(2)

     其中part文件中存储了我要查找的favicon字符串出现的次数。

伪分布式模式

配置:

     参照官方的配置进行,分别对conf/core-site.xml、conf/hdf-site.xml、conf/mapred-site.xml进行配置。配置的内容都比较类似,主要是配置一个服务器的主机名,然后配置对应的IP或值。

设置无需密码的SSH:

     按照官方的设置

     $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

     $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

     但是第一次登陆的时候始终需要提示是否保存,这个有点不得其解。

执行:

     首先格式化一个新的分布式文件系统

     $ bin/hadoop namenode -format

     完成后,会有一些提示,根据提示可以在 /tmp/hadoop-root/dfs 中找到两个文件夹。

     然后启动 Hadoop 的守护进程

     $ bin/start-all.sh

我在安装的过程中提示了未知的jvm参数,但是并没有重大的影响,启动仍正常结束了,不知道什么原因

     这个问题是因为用root用户启动造成的,可以参考参考资料6中的方法,为hadoop这个文件打一个patch就可以解决。然后重新格式化namenode,进行测试。

      bin/hadoop jar hadoop-examples-0.20.203.0.jar grep logs output 'favicon'    

     执行上面的语句,可以对日志进行 WordCount 的分析。

     测试完成后,可以关闭所有的服务

bin/stop-all.sh

参考资料:

1、Single Node Setup

2、Hdfs Shell Handbook

3、Hdfs error:could only be replicated to 0 nodes instead of 1

4、Hadoop:Could not create Java Virtual Machine

5、Namenode not starting

6、Faile to start datanode while start-dfs.sh is executed by root user

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2011-12-20 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
云 HDFS
云 HDFS(Cloud HDFS,CHDFS)为您提供标准 HDFS 访问协议,您无需更改现有代码,即可使用高可用、高可靠、多维度安全、分层命名空间的分布式文件系统。 只需几分钟,您就可以在云端创建和挂载 CHDFS,来实现您大数据存储需求。随着业务需求的变化,您可以实时扩展或缩减存储资源,CHDFS 存储空间无上限,满足您海量大数据存储与分析业务需求。此外,通过 CHDFS,您可以实现计算与存储分离,极大发挥计算资源灵活性,同时实现存储数据永久保存,降低您大数据分析资源成本。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档