前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Hive数据源实战

Hive数据源实战

作者头像
编程那点事
发布2023-02-25 15:55:47
6520
发布2023-02-25 15:55:47
举报
文章被收录于专栏:java编程那点事

Spark SQL支持对Hive中存储的数据进行读写。操作Hive中的数据时,必须创建HiveContext,而不是SQLContext。HiveContext继承自SQLContext,但是增加了在Hive元数据库中查找表,以及用HiveQL语法编写SQL的功能。除了sql()方法,HiveContext还提供了hql()方法,从而用Hive语法来编译sql。

使用HiveContext,可以执行Hive的大部分功能,包括创建表、往表里导入数据以及用SQL语句查询表中的数据。查询出来的数据是一个Row数组。

将hive-site.xml拷贝到spark/conf目录下,将mysql connector拷贝到spark/lib目录下

代码语言:javascript
复制
HiveContext sqlContext = new HiveContext(sc); 
sqlContext.sql("CREATE TABLE IF NOT EXISTS students (name STRING, age INT)");

sqlContext.sql("LOAD DATA LOCAL INPATH '/usr/local/spark-study/resources/students.txt' INTO TABLE students");

Row[] teenagers = sqlContext.sql("SELECT name, age FROM students WHERE age<=18").collect();

将数据保存到表中

Spark SQL还允许将数据保存到Hive表中。调用DataFrame的saveAsTable命令,即可将DataFrame中的数据保存到Hive表中。与registerTempTable不同,saveAsTable是会将DataFrame中的数据物化到Hive表中的,而且还会在Hive元数据库中创建表的元数据。

默认情况下,saveAsTable会创建一张Hive Managed Table,也就是说,数据的位置都是由元数据库中的信息控制的。当Managed Table被删除时,表中的数据也会一并被物理删除。

registerTempTable只是注册一个临时的表,只要Spark Application重启或者停止了,那么表就没了。而saveAsTable创建的是物化的表,无论Spark Application重启或者停止,表都会一直存在。

调用HiveContext.table()方法,还可以直接针对Hive中的表,创建一个DataFrame。

案例:查询分数大于80分的学生的完整信息

创建一个student_infos.txt

leo18

marry17

jack19

创建一个student_scores.txt

leo88

marry99

jack76

代码语言:javascript
复制
package cn.spark.study.sql;

import org.apache.spark.SparkConf;

import org.apache.spark.api.java.JavaSparkContext;

import org.apache.spark.sql.DataFrame;

import org.apache.spark.sql.Row;

import org.apache.spark.sql.hive.HiveContext;

/**

* Hive数据源

* @author Administrator

*

*/

public class HiveDataSource {

​@SuppressWarnings("deprecation")
public static void main(String[] args) {

​​// 首先还是创建SparkConf

​​SparkConf conf = new SparkConf().setAppName("HiveDataSource");

​​// 创建JavaSparkContext

​​JavaSparkContext sc = new JavaSparkContext(conf);

​​// 创建HiveContext,注意,这里,它接收的是SparkContext作为参数,不是JavaSparkContext

HiveContext hiveContext = new HiveContext(sc.sc());

// 第一个功能,使用HiveContext的sql()方法,可以执行Hive中能够执行的HiveQL语句
​​// 判断是否存在student_infos表,如果存在则删除
​​hiveContext.sql("DROP TABLE IF EXISTS student_infos");

// 判断student_infos表是否不存在,如果不存在,则创建该表
hiveContext.sql("CREATE TABLE IF NOT EXISTS student_infos (name STRING, age INT)");

​​// 将学生基本信息数据导入student_infos表

​​hiveContext.sql("LOAD DATA " + "LOCAL INPATH '/usr/local/spark-study/resources/student_infos.txt' " ​​​​+ "INTO TABLE student_infos");

​​// 用同样的方式给student_scores导入数据

​​hiveContext.sql("DROP TABLE IF EXISTS student_scores"); 

​​hiveContext.sql("CREATE TABLE IF NOT EXISTS student_scores (name STRING, score INT)");  

hiveContext.sql("LOAD DATA " ​​​​+ "LOCAL INPATH '/usr/local/spark-study/resources/student_scores.txt' " ​​​​+ "INTO TABLE student_scores");

​​// 第二个功能,执行sql还可以返回DataFrame,用于查询
​​// 执行sql查询,关联两张表,查询成绩大于80分的学生
DataFrame goodStudentsDF = hiveContext.sql("SELECT si.name, si.age, ss.score " ​​​​+ "FROM student_infos si " ​​​​+ "JOIN student_scores ss ON si.name=ss.name " ​​​​+ "WHERE ss.score>=80");

// 第三个功能,可以将DataFrame中的数据,理论上来说,DataFrame对应的RDD的元素,是Row即可

​​// 将DataFrame中的数据保存到hive表中

​​// 接着将DataFrame中的数据保存到good_student_infos表中

​​hiveContext.sql("DROP TABLE IF EXISTS good_student_infos");  

​​goodStudentsDF.saveAsTable("good_student_infos");  

​​// 第四个功能,可以用table()方法,针对hive表,直接创建DataFrame
​​// 然后针对good_student_infos表,直接创建DataFrame

​​Row[] goodStudentRows = hiveContext.table("good_student_infos").collect();  

​​for(Row goodStudentRow : goodStudentRows) {

​​​System.out.println(goodStudentRow);  
}
sc.close();
​}
}

测试:

hive

show tables;

select * from table1

Scala版本

代码语言:javascript
复制
import org.apache.spark.SparkConf

import org.apache.spark.SparkContext

import org.apache.spark.sql.hive.HiveContext

/**

* @author Administrator

*/

object HiveDataSource {

 def main(args: Array[String]): Unit = {

val conf = new SparkConf().setAppName("HiveDataSource");

val sc = new SparkContext(conf);

val hiveContext = new HiveContext(sc);

hiveContext.sql("DROP TABLE IF EXISTS student_infos");

hiveContext.sql("CREATE TABLE IF NOT EXISTS student_infos (name STRING, age INT)");

hiveContext.sql("LOAD DATA "

   + "LOCAL INPATH '/usr/local/study/sql/student_infos.txt' "

   + "INTO TABLE student_infos");

hiveContext.sql("DROP TABLE IF EXISTS student_scores"); 

hiveContext.sql("CREATE TABLE IF NOT EXISTS student_scores (name STRING, score INT)");  

hiveContext.sql("LOAD DATA "

   + "LOCAL INPATH '/usr/local/study/sql/student_scores.txt' "

   + "INTO TABLE student_scores");

val goodStudentsDF = hiveContext.sql("SELECT si.name, si.age, ss.score "

   + "FROM student_infos si "

   + "JOIN student_scores ss ON si.name=ss.name "

   + "WHERE ss.score>=80");

hiveContext.sql("DROP TABLE IF EXISTS good_student_infos");  

goodStudentsDF.saveAsTable("good_student_infos");  

val goodStudentRows = hiveContext.table("good_student_infos").collect();  

for(goodStudentRow <- goodStudentRows) {

 println(goodStudentRow);  
}
}
}
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019-02-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
数据库
云数据库为企业提供了完善的关系型数据库、非关系型数据库、分析型数据库和数据库生态工具。您可以通过产品选择和组合搭建,轻松实现高可靠、高可用性、高性能等数据库需求。云数据库服务也可大幅减少您的运维工作量,更专注于业务发展,让企业一站式享受数据上云及分布式架构的技术红利!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档