前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Hadoop数据分析平台实战——010hadoop介绍安装

Hadoop数据分析平台实战——010hadoop介绍安装

作者头像
Albert陈凯
发布2018-04-08 10:58:26
7740
发布2018-04-08 10:58:26
举报
文章被收录于专栏:Albert陈凯Albert陈凯

本课程目标

本课程有以下几个目标:

  1. 第一:对hadoop没有了解的学员来说,可以帮助其了解在一般工作中hadoop的基本用法,以及对如何用hadoop有一定的了解。
  2. 第二:对hadoop有了解的学员来说,其一可以帮助学员加深对hadoop的了解,其二可以让学员对hadoop的实际应用场景有一个比较深入的了解。

Hadoop的主要应用场景

这里说的hadoop指的是以hadoop为中心的hadoop生态圈。 场景1:数据分析平台 场景2:推荐系统 场景3:业务系统的底层存储系统 场景4:业务监控系统 ...............................

什么是数据分析平台

数据分析的主要目标是为公司提供一系列的网站指标,期望能够帮助到运维、技术等各个不同部门了解公司网站的情况。比如:当一个网站的注册方式修改后,我们发现访客转会员的比例降低了,那么我们可能就可以得出一个结论:“可能是用户觉得这种注册方式太麻烦而导致,不想注册了。”,这个时候我们可能就需要重新设计注册页面了。 数据分析这种平台比较适合电商类的网站,其他类型的相比较而言对这种类型的平台需求就低一点。主要原因是影响电商的主要因素有以下几个:第一,访客转会员率;第二,会员留存率;第三,会员购买率(复购率)。

数据分析平台主体架构

数据分析平台主体架构.png

数据平台的最终产出

分析报表

Hadoop简单介绍

Hadoop是apache基金会组织的一个顶级项目, 其核心为HDFS和MapReduce,HDFS为海量的数据提供存储,而MapReduce为海量的数据提供计算, 官网:http://hadoop.apache.org。 在Apache Hadoop的基础上,Cloudera公司将其进行商业化改进和更新,它的发行版本就是CDH(Cloudera Distribution Hadoop), CDH官网:http://www.cloudera.com

hadoop2.5.0-cdh5.3.6 CDH4.x: http://archive.cloudera.com/cdh4/cdh/4/ CDH5.x: http://archive.cloudera.com/cdh5/cdh/5/ CDH5.3.6文档:http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.5.0-cdh5.3.6/ Apache Hadoop :http://archive.apache.org/dist/hadoop/common Apache Hadoop文档:http://hadoop.apache.org/docs

JDK下载地址 :http://www.oracle.com/technetwork/java/javase/archive-139210.html

Hadoop伪分布式环境搭建

安装步骤:
代码语言:javascript
复制
1. 创建用户,使用hadoop用户
2. 修改主机名以及ssh免密码登录
3. jdk安装
4. hadoop安装

Hadoop环境搭建-创建用户

步骤:(root用户密码为123456)

代码语言:javascript
复制
1. 使用useradd hadoop添加用户
2. 使用passwd hadoop设置用户密码,密码为abc123_
3. 给用户赋予使用sudo命令的权限。
4. chmod u+w /etc/sudoers
6. vim /etc/sudoers
7. 在root ALL=(ALL) ALL下面加上一行hadoop ALL=(ALL) ALL。(分隔的是制表符)
8. chmod u-w /etc/sudoers

image.png

image.png

image.png

Hadoop环境搭建-修改主机名以及ssh免密码登录

步骤:(使用hadoop用户登录)

代码语言:javascript
复制
1. 使用sudo hostname hh修改主机名,当前生效,重启后失效。
2. 使用vim /etc/sysconfig/network修改主机名,重启生效。
3. 在/etc/hosts文件中添加主机名对于的ip地址。
4. 使用ssh-keygen -t rsa生成ssh秘钥。dsa
5. 进入.ssh文件夹,创建authorized_keys文件,并将id_rsa.pub的内容添加到文件中去,修改文件权限为600(必须)。
6. ssh hh验证

image.png

image.png

Hadoop环境搭建-JDK安装

步骤:

代码语言:javascript
复制
1. 复制jdk压缩包到softs文件夹中
2. 解压tar -zxvf softs/jdk-7u79-linux-x64.tar.gz
3. 创建软连接sudo ln -s /home/hadoop/bigdater/jdk1.7.0_79 /usr/local/jdk
4. 配置相关环境变量vim ~/.bash_profile: JAVA_HOME, CLASSPATH, PATH。全局生效配置文件/etc/profile。
5. 使环境变量生效 source ~/.bash_profile
7. 验证java version/ javac version

image.png

image.png

Hadoop环境搭建-hadoop安装

步骤: 1. 下载hadoop安装包并复制到到softs文件夹中。 2. 解压tar -zxvf softs/hadoop-2.5.0-cdh5.3.6.tar.gz,并创建数据保存文件hdfs(~/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/)。 3. 配置hadoop-env.sh mapred-env.sh yarn-env.sh文件 4. 配置基本环境变量core-site.xml文件 5. 配置hdfs相关变量hdfs-site.xml文件 7. 配置mapre相关环境变量mapred-site.xml文件 8. 配置yarn相关环境变量yarn-site.xml文件 9. 配置datanode相关变量slaves文件 10. 配置hadoop相关环境变量

image.png

Hadoop环境搭建-hadoop启动

步骤:

代码语言:javascript
复制
1. 第一次启动hadoop之前需要格式化namenode节点,命令为hadoop namenode -format。
2. 两种方式启动start-all.sh或者start-hdfs.sh start-yarn.sh。
3. 查看是否启动成功。

格式化提示信息

格式化提示信息.png

Hadoop环境搭建-验证hadoop是否启动成功

步骤:

代码语言:javascript
复制
1. 验证hadoop是否启动成功有两种方式,第一种:通过jps命令查看hadoop的进行是否启动,第二种:查看web界面是否启动显示正常内容。
 2. 验证hadoop对应的yarn(MapReduce)框架是否启动成功:直接运行hadoop自带的example程序。

创建一个test.txt

代码语言:javascript
复制
echo "welcome to join us bjsxt 尚学堂 优效学院 优效聚名师 学习更有效" >> test.txt
hadoop dfs -put test.txt /
代码语言:javascript
复制
使用hadoop自带的mapreduce程序验证:/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0-cdh5.3.6.jar
将文件内容添加上去后执行:hadoop jar hadoop-mapreduce-examples-2.5.0-cdh5.3.6.jar wordcount /test.txt output/wordcount

执行完成以后运行 hadoop dfs -text output/wordcount/part-*

中途遇到了一个问题

hadoop Unhealthy Nodes问题解决 http://www.jianshu.com/p/a01c0bf5dd6a 是磁盘空间不足导致的,清空回收站之后就好了,晕死

代码语言:javascript
复制
AlbertMP:mapreduce Albert$ hadoop dfs -text output/wordcount/part-*
DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.

17/08/27 23:49:15 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
bjsxt   1
join    1
to  1
us  1
welcome 1
优效学院    1
优效聚名师   1
学习更有效   1
尚学堂 1

问题:

代码语言:javascript
复制
1.如果virtualbox无法选择64位操作系统安装,问题就是机器没有开始cpu虚拟化。bios需要设置一些信息。参考网站:http://jingyan.baidu.com/article/8ebacdf0df465b49f65cd5d5.html

配置信息参考

代码语言:javascript
复制
第一步:配置hadoop-env.sh
    export JAVA_HOME=/usr/local/jdk
    export HADOOP_PID_DIR=/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/tmp
第二步:配置mapred-env.sh
    export HADOOP_MAPRED_PID_DIR=/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/tmp
第三步:配置yarn-env.sh
    export YARN_PID_DIR=/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/tmp
第四步:配置core-site.xml文件
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hh:8020</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/tmp</value>
    </property>
第五步:配置hdfs-site.xml文件
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/name</value>
    </property>
    <property>
        <name>dfs.namenode.data.dir</name>
        <value>/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/data</value>
    </property>
    <property>
        <name>dfs.permissions.enabled</name>
        <value>false</value>
    </property>
第六步:创建mapred-site.xml文件,直接执行命令cp mapred-site.xml.templete mapred-site.xml
第七步:配置mapred-site.xml文件
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
第八步:配置yarn-site.xml文件
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
第九步:配置slaves指定datanode节点,将localhost改成主机名
第十步:修改环境变量文件".base_profile",并使其生效
    ###### hadoop 2.5.0
    export HADOOP_HOME=/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/
    export HADOOP_PREFIX=$HADOOP_HOME
    export HADOOP_COMMON_HOME=$HADOOP_PREFIX
    export HADOOP_CONF_DIR=$HADOOP_PREFIX/etc/hadoop
    export HADOOP_HDFS_HOME=$HADOOP_PREFIX
    export HADOOP_MAPRED_HOME=$HADOOP_PREFIX
    export HADOOP_YARN_HOME=$HADOOP_PREFIX
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017.08.27 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 本课程目标
    • 本课程有以下几个目标:
      • Hadoop的主要应用场景
        • 什么是数据分析平台
          • 数据分析平台主体架构
            • 数据平台的最终产出
              • Hadoop简单介绍
                • Hadoop伪分布式环境搭建
                  • 安装步骤:
                • Hadoop环境搭建-创建用户
                  • Hadoop环境搭建-修改主机名以及ssh免密码登录
                    • Hadoop环境搭建-JDK安装
                      • Hadoop环境搭建-hadoop安装
                        • Hadoop环境搭建-hadoop启动
                          • Hadoop环境搭建-验证hadoop是否启动成功
                          • 中途遇到了一个问题
                            • 问题:
                            • 配置信息参考
                            相关产品与服务
                            对象存储
                            对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
                            领券
                            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档