hive安装包scp在所有需要安装impala的节点上,因为impala需要引用hive的依赖包。
yum -y install nc
因为impala安装包大于4G,所有需要另行上传 登录ip
选择对应的安装包,上传到虚拟机
cd /export/servers/
tar -zxvf /export/softwares/cdh5.14.0-centos6.tar.gz
解压的安装包
安装httpd服务,启动httpd服务,并设置开机自启
yum -y install httpd
service httpd start
chkconfig httpd on
设置软连接
cd /var/www/html/
ln -s /export/servers/cdh/5.14.0/ cdh
修改配置文件
cd /etc/yum.repos.d/
mkdir bk
mv *.repo bk
cp bk/CentOS-Media.repo cdh.repo
vim cdh.repo
内容如下
其他两个节点也配置
在主节点安装(node03)
yum install -y impala impala-server impala-state-store impala-catalog impala-shell
在从节点安装的(node01,node02)
yum install -y impala-server
vim /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml
在文件里添加如下配置
<property>
<name>hive.metastore.uris</name>
<value>thrift://node03:9083</value>
</property>
将配置文件cp给其他两个机器。
cd /export/servers/hive-1.1.0-cdh5.14.0/conf/
scp hive-site.xml node02:$PWD
scp hive-site.xml node03:$PWD
注意:这里配置的是那个节点,最后启动metastore时,必须在这个节点启动
所有节点先创建 hdfs-sockets 文件夹
mkdir -p /var/run/hdfs-sockets
vim /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop//hdfs-site.xml
在文件里添加如下配置
<property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.domain.socket.path</name>
<value>/var/run/hdfs-sockets/dn</value>
</property>
<property>
<name>dfs.client.file-block-storage-locations.timeout.millis</name>
<value>10000</value>
</property>
<property>
<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
<value>true</value>
</property>
把更新hadoop的配置文件,scp给其他机器。
cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/
scp hdfs-site.xml node02:$PWD
scp hdfs-site.xml node03:$PWD
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml /etc/impala/conf
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml /etc/impala/conf
cp /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml /etc/impala/conf
vim /etc/default/impala
修改内容如下
IMPALA_CATALOG_SERVICE_HOST=node03
IMPALA_STATE_STORE_HOST=node03
添加mysql驱动
取消MYSQL_CONNECTOR_JAR前面的注释 创建有效的软连接
ln -s /export/servers/hive-1.1.0-cdh5.14.0/lib/mysql-connector-java-5.1.38.jar /usr/share/java/mysql-connector-java.jar
vim /etc/default/bigtop-utils
在集群的主节点node01上启动集群
start-all.sh
在node03启动hive、metastore
hive --service hiveserver2 &
hive --service metastore &
启动: 在impala的主节点node03启动以下三个服务进程
service impala-state-store start
service impala-catalog start
service impala-server start
在从节点node01、node02上启动以下服务进程
service impala-server start
关闭: 在impala的主节点node03停止以下三个服务进程
service impala-state-store stop
service impala-catalog stop
service impala-server stop
在从节点node01、node02上停止以下服务进程
service impala-server stop
删除 /usr/bin/hive 就可以了
rm -rf /usr/bin/hive
删除 /usr/bin/hadoop 就可以了
rm -rf /usr/bin/hadoop