1.下载 presto-server-0.166.tar.gz 和 presto-cli-0.166-executable.jar, 也可以直接到 http://mvnrepository.com 寻找 jar 包
2. 解压 presto-server-0.166.tar.gz , 然后在 presto-server-0.166 目录下创建 etc 目录
3. 在 etc 目录下创建 catalog 目录 , 在 catalog 目录下创建文件 hive.properties 内容如下
connector.name=hive-hadoop2
hive.metastore.uri=thrift://bigdata:9083
hive.config.resources=/opt/hadoop-2.7.4/etc/hadoop/core-site.xml,/opt/hadoop-2.7.4/etc/hadoop/hdfs-site.xml
4. 在 etc 目录下创建 config.properties 内容如下
coordinator=true
node-scheduler.include-coordinator=true
http-server.http.port=8080
query.max-memory=512MB
query.max-memory-per-node=512MB
discovery-server.enabled=true
discovery.uri=http://bigdata:8080
5. 在 etc 目录下创建 jvm.config 内容如下
-server
-Xmx1G
-XX:+UseG1GC
-XX:G1HeapRegionSize=32M
-XX:+UseGCOverheadLimit
-XX:+ExplicitGCInvokesConcurrent
-XX:+HeapDumpOnOutOfMemoryError
-XX:OnOutOfMemoryError=kill -9 %p
6. 在 etc 目录下创建 node.properties 内容如下
node.environment=production
node.id=bigdata
node.data-dir=/opt/presto-server-0.166/presto_data
7. 配置 presto client
chmod +x presto
export PRESTO_HOME=/opt/presto-server-0.166
export PATH=$PRESTO_HOME/bin:$PATH
source ~/.bash_profile
8. 启动 presto , presto 依赖 HDFS 和 Hive metastore
启动 HDFS
/opt/hadoop-2.7.4/sbin/start-dfs.sh
启动 Hive metastore
sudo service mysqld start
nohup hive --service metastore >> /opt/apache-hive-2.1.1-bin/metastore.log 2>&1 &
启动 presto
/opt/presto-server-0.166/bin/launcher start
查看 presto WEB UI
http://bigdata:8080
启动 presto 客户端
presto --server bigdata:8080 --catalog hive --schema default