在篇1忘记说编译的环境了,是在 dockerhub 的 centos:7 镜像里执行的操作,各位参考一下。下面继续排雷过程。
执行一下 buildall.sh,看下基本的日志。
先会把所有环节变量都打一下(挺好的,以后自己项目),后面就是一堆下载东西的日志了。这些操作,可以理解成用 shell 调的 python 里用的 wget 去下载的。
报错了。讲道理,这种错,真的挺难查的,但是还是能查的。
拉出来分析一下。大概意思是 HDFS
CMake Error at cmake_modules/FindHDFS.cmake:78 (message):
HDFS includes and libraries NOT found. HDFS_INCLUDE_DIR-NOTFOUND, )
Call Stack (most recent call first):
CMakeLists.txt:204 (find_package)
-- Configuring incomplete, errors occurred!
impala 项目里全局搜一下,发现这里是需要找 HDFS 的本地库,但是这个环境变量没配,所以找不到。不是很了解 cmake,但是我理解既然 Hadoop 都下了,为啥这个会找不到呢。
看来 export DOWNLOAD_CDH_COMPONENTS=true
是不行的…所以还是改为 true
重新试一下。
可以 ps -ef
看下具体的进程。
下载完的软件包,就会解压到这个位置。
走到这里就算依赖下载完了,开始编译了。
今天讲到这里,下篇再继续。