hadoop01-hadoop04:hadoop集群
hadoop01:MySQL服务器
hadoop02:Hive服务端
hadoop03-hadoop04:Hive客户端
[hadoop@hadoop02 ~]$ tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /home/hadoop/apps/
[hadoop@hadoop02 ~]$ scp -r /home/hadoop/apps/hive-1.2.1 hadoop03:/home/hadoop/apps/
[hadoop@hadoop02 ~]$ scp -r /home/hadoop/apps/hive-1.2.1 hadoop04:/home/hadoop/apps/
export HIVE_HOME=/home/hadoop/apps/hive-1.2.1
export PATH=$PATH:$HIVE_HOME/bin
该文件在HIVE_HOME/conf/下
# 如果没有该文件,复制hive-default.xml.template为hive-site.xml
[hadoop@hadoop02 conf]$ cp hive-default.xml.template hive-site.xml
[hadoop@hadoop02 conf]$ vim hive-site.xml
<configuration>
<!--可选,配置hive数据存放的位置,是一个HDFS路径,默认就是/user/hive/warehouse-->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<!--以下4个配置是mysql的基本配置-->
<!--数据库hivedb是存放元数据的mysql数据库,可以自定义名称-->
<!--
注意:
如果hive服务器与mysql在同一台机器,把hadoop01换成localhost
一定是localhost,不能写mysql那台的服务器的主机名或IP
-->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop01/hivedb?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
</property>
</configuration>
<configuration>
<!--要与服务端配置的这个路径一样-->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<property>
<name>hive.metastore.local</name>
<value>false</value>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://hadoop02:9083</value>
</property>
</configuration>
hadoop的jline jar包存放位置:HADOOP_HOME/share/hadoop/yarn/lib/
下
其中的jline包为:jline-0.9.94.jar(hadoop-2.6.5)
hive的jline jar包存放位置:HIVE_HOME/lib/
下
其中的jline包为:jline-2.12.jar(hive-1.2.1)
删除hadoop的jline包,把hive的jline包放进去
[hadoop@hadoop02 conf]$ schematool -dbType mysql -initSchema
上图代表初始化成功!
[hadoop@hadoop02 conf]$ hive --service metastore
[hadoop@hadoop03 ~]$ hive
hive>
[hadoop@hadoop04 ~]$ hive
hive>
Hive多用户模式安装成功!