Apache Hbase 快速入门

本文节选自《Netkiller Database 手札》

第 62 章 Apache Hbase

目录

  • 62.1. 安装 Apache Hbase
    • 62.1.1. 单机安装
  • 62.2. Hbase Shell
  • 62.3. Web UI
  • 62.4. 配置 Apache Hbase
    • 62.4.1. hbase-env.sh
  • 62.5. FAQ
    • 62.5.1. HBaseConfTool : Unsupported major.minor version 51.0
    • 62.5.2. ignoring option PermSize=128m; support was removed in 8.0

62.1. 安装 Apache Hbase

注意:Apache Hbase 不能使用 OpenJDK 启动,需要去 Oracle 网站下载 Server JRE

62.1.1. 单机安装

如果你是第一次安装Hbase,建议你从单机安装开始,这样成功率比较高,不会受挫。Hbase 不比关系型数据库复杂,只是安装比较麻烦,一旦安装号使用起来还是很容易上手的,请直接粘贴复制下面的命令即可完成安装:

			cd /usr/local/src
wget http://mirrors.hust.edu.cn/apache/hbase/stable/hbase-1.2.6-bin.tar.gz

tar zxf hbase-1.2.6-bin.tar.gz
cp hbase-1.2.6/conf/hbase-site.xml{,.original}
mv hbase-1.2.6 /srv/apache-hbase-1.2.6
ln -s /srv/apache-hbase-1.2.6 /srv/apache-hbase

cp /srv/apache-hbase/conf/hbase-env.sh{,.original}
cat > /srv/apache-hbase/conf/hbase-env.sh <<EOF
export JAVA_HOME=/srv/java
#export HBASE_CLASSPATH=
export HBASE_MANAGES_ZK=true
EOF

cat > /srv/hbase/conf/hbase-site.xml <<EOF
<?xml version="1.0"?>  
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>  
<configuration>  
	<property>  
		<name>hbase.rootdir</name>  
		<value>file:///tmp/hbase-${user.name}</value>  
	</property>  
</configuration>
EOF			

启动 Apache Hbase

/srv/apache-hbase/bin/start-hbase.sh			

进入 Hbase shell

/srv/apache-hbase/bin/hbase shell

62.2. Hbase Shell

安装完Apache hbase启动后就可以进入 hbase shell了,hbase shell 是与Hbase交互的界面。

首先我们做几个基本操作,例如创建表,写入数据,读取数据等等,你会发现Hbase被神话了,操作其实没有那么复杂,远没有关系型数据库复杂。

		[root@localhost bin]# hbase shell
2017-06-27 21:07:35,524 WARN  [main] util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
HBase Shell; enter 'help<RETURN>' for list of supported commands.
Type "exit<RETURN>" to leave the HBase Shell
Version 1.2.6, rUnknown, Mon May 29 02:25:32 CDT 2017

hbase(main):001:0>		

创建一个名为 t1 的表,使用默认命名空间 namespace=default,这个表有一个column family 为 f1。后面会解释什么是 column family,这里你只要对着操作就可以了。

		hbase(main):002:0> create 't1', 'f1'
0 row(s) in 1.2190 seconds

=> Hbase::Table - t1		

向t1表插入数据字段名(key)是r1,数据值 value 是 ‘value’

		hbase(main):014:0> put 't1', 'r1', 'f1', 'value'
0 row(s) in 0.0060 seconds		

获取表 t1 ,字段名(key)为 r1 的数据

		hbase(main):032:0> get 't1', 'r1'
COLUMN                                              CELL                                                                                                                                                  
 f1:                                                timestamp=1498613275013, value=value                                                                                                                  
1 row(s) in 0.0240 seconds		

扫描表相当于 select * from t1

		hbase(main):034:0> scan 't1'
ROW                                                 COLUMN+CELL                                                                                                                                           
 r1                                                 column=f1:, timestamp=1498613275013, value=value                                                                                                      
1 row(s) in 0.0140 seconds		

删除表,删除表之前需要先禁用该表,然后使用drop命令删除。

		hbase(main):036:0> disable 't1'
0 row(s) in 2.2460 seconds

hbase(main):037:0> drop 't1'
0 row(s) in 1.2310 seconds

hbase(main):038:0>		

退出 Hbase shell

		hbase(main):038:0> exit
[root@localhost bin]# 

62.3. Web UI

除了 Web Shell Hbase 还提供了 Web UI 地址是:

http://localhost:16010/master-status

请确保你的防火墙放行了 16010 端口

[root@localhost conf]# iptables-save | grep 16010
-A INPUT -p tcp -m state --state NEW -m tcp --dport 16010 -j ACCEPT

62.4. 配置 Apache Hbase

62.4.1. hbase-env.sh

环境变量配置文件

HBASE_MANAGES_ZK=true 仅用于单机运行,true表示不使用 Zookeeper

62.5. FAQ

62.5.1. HBaseConfTool : Unsupported major.minor version 51.0

错误提示

Exception in thread "main" java.lang.UnsupportedClassVersionError: org/apache/hadoop/hbase/util/HBaseConfTool : Unsupported major.minor version 51.0			

解决方案,Hbase 不支持 OpenJDK 更换 Oracle Server JRE 后可以解决。

62.5.2. ignoring option PermSize=128m; support was removed in 8.0

jvm 1.8 之后不再支持PermSize和MaxPermSize选项

[root@localhost hbase]# bin/start-hbase.sh
starting master, logging to /srv/hbase/bin/../logs/hbase-root-master-localhost.localdomain.out
Java HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was removed in 8.0
Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; support was removed in 8.0			

解决方案:"-server -Xms2048m -Xmx4096m"

原文发布于微信公众号 - Netkiller(netkiller-ebook)

原文发表时间:2017-06-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏Hadoop实操

Cloudera Manager Server服务在RedHat7状态显示异常分析

在RedHat7.x上启动了Cloudera Manager Server服务,Web界面访问正常,集群各个服务均正常,集群状态正常如下图所示:

3686
来自专栏Netkiller

Apache Hive 快速入门

本文节选自《Netkiller Database 手札》 CentOS 7.3 + Server JRE 1.8 + Hadoop-2.8.0 + Hive-...

2817
来自专栏Hadoop实操

如何使用Hue通过数据文件创建Collections

在CDH5.9版本及更新版本中,Hue新增一个全新工具从数据文件中创建Apache Solr的Collections,可以通过该工具轻松的将数据加载到Solr的...

3526
来自专栏Jerry的SAP技术分享

使用脚本在Linux服务器上自动安装Kubernetes的包管理器Helm

Helm之于Kubernetes好比yum之于Red Hat Enterprise Linux,或者apt-get之于Ubuntu。

963
来自专栏散尽浮华

Centos6.9下RocketMQ3.4.6高可用集群部署记录(双主双从+Nameserver+Console)

之前的文章已对RocketMQ做了详细介绍,这里就不再赘述了,下面是本人在测试和生产环境下RocketMQ3.4.6高可用集群的部署手册,在此分享下:

793
来自专栏Hadoop实操

如何在CDH中安装Kudu&Spark2&Kafka

在CDH的默认安装包中,是不包含Kafka,Kudu和Spark2的,需要单独下载特定的Parcel包才能安装相应服务。本文档主要描述在离线环境下,在CentO...

9458
来自专栏挖掘大数据

Standalone模式安装Spark

前言:本篇文章是学习spark的开篇,搭建一个spark的完全分布式集群,与大家共勉。

1860
来自专栏Hadoop实操

如何使用Sentry管理Hive外部表权限

使用如下命令在HDFS的根目录下创建Hive外部表的数据目录/extwarehouse

8728
来自专栏Hadoop实操

如何在Kerberos环境下使用Spark2通过JDBC访问Impala

1782
来自专栏Hongten

python开发_logging_日志处理

============================================================

843

扫码关注云+社区