首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Hive-beeline服务

Hive客户端工具后续使用了Beeline 替代HiveCLI ,并且后续版本也会废弃掉HiveCLI 客户端工具,Beeline是 Hive 0.11版本引入的新命令行客户端工具,它是基于SQLLine...在嵌入式模式下,运行嵌入式的Hive(类似Hive CLI),而远程模式可以通过Thrift连接到独立的HiveServer2进程上。...启动hiveserver2与beeline 服务 bin/hiveserver2 在启动hiveserver2服务以后,会发现光标静止不动,这不是执行完了的标志,是等待在等待 beeline -u jdbc...:hive2://localhost:10000/default -n root 启动beeline服务 通过jdbc 连接到beeline 就可以对 hive 进行操作了 2、beeline 的常用参数...connect url –连接不同的Hive2服务器 2、!exit –退出shell 3、!help –显示全部命令列表 4、!verbose –显示查询追加的明细

67820
您找到你想要的搜索结果了吗?
是的
没有找到

Hive元数据服务MetaStore

hive.metastore.uris 远程元数据存储的 Thrift URI。元数据服务客户端通过该配置连接远程元数据。...3.1 内嵌MetaStore 默认情况下,MetaStore 服务Hive 服务运行在同一个 JVM 中,包含一个内嵌的以本地磁盘作为存储的 Derby 数据库实例。 ?...这种配置方式成为本地配置,因为 MetaStore 服务仍然和 Hive 服务运行在同一个进程中,但连接的却是另一个进程中运行的数据库,在同一台机器上或者远程机器上。 ?...3.3 远程MetaStore 在远程模式下,MetaStore 服务Hive 服务运行在不同进程中。...启动服务 我们可以通过执行以下命令来启动MetaStore服务hive --service metastore -p 9083 & 如果我们在 hive-site.xml 配置文件中指定了 hive.metastore.uris

8.9K42

HiveHive简介

存储原理: hive的数据存储在HDFS上,hive的表其实就是HDFS的目录,hive没有自己的数据存储格式,存储结构主要包括:数据库、文件、表、视图、索引。...hive默认可以直接加载text文本文件等。创建表时,指定hive的数据的列分隔符与行分隔符,hive即可解析数据。...表: Hive中的表和关系型数据库中的表在概念上很类似,每个表在HDFS中都有相应的目录用来存储表的数据,这个目录可以通过${HIVE_HOME}/conf/hive-site.xml配置文件中的hive.metastore.warehouse.dir...如果我有一个表table1,那么在HDFS中会创建/user/hive/warehouse/table1目录(这里假定hive.metastore.warehouse.dir配置为/user/hive/...由于Hive的元数据需要不断的更新、修改,而HDFS系统中的文件是多读少改的,这显然不能将Hive的元数据存储在HDFS中。目前Hive将元数据存储在数据库中,如Mysql、Derby中。

1.1K50

Hive thrift服务(将Hive作为一个服务器,其他机器可以作为客户端进行访问)

:     bin/beeline -u jdbc:hive2://master:10000 -n hadoop 接下来就可以做正常sql查询了 1:将Hive作为一个服务器,其他机器可以作为客户端进行访问...2:然后寻找符合thrift的这种协议的客户端来连这个服务,然而hive自带这种客户端(我这里复制本台机器,弄了两个窗口): ? 然后呢,就是开启了命令行客户端了,然后了连接你的hive即可。...connect jdbc:hive2//master:10000写成!connect jdbc:hive2//localhost:10000即可。...1 [root@master apache-hive-1.2.1-bin]# cd bin/ 2 [root@master bin]# ls 3 beeline ext hive hive-config.sh...connect jdbc:hive2://localhost:10000 2 Connecting to jdbc:hive2://localhost:10000 3 Enter username

3.6K90

Hive篇---Hive使用优化

一.前述 本节主要描述Hive的优化使用,Hive的优化着重强调一个 把Hive SQL 当做Mapreduce程序去优化 二.主要优化点 1.Hive运行方式: 本地模式 集群模式 本地模式 开启本地模式...: set hive.exec.mode.local.auto=true; 注意: hive.exec.mode.local.auto.inputbytes.max默认值为128M 表示加载文件的最大值...对于小表可以直接从从hdfs直接拿到本地计算 2.并行计算 通过设置以下参数开启并行模式: set hive.exec.parallel=true; 注意:hive.exec.parallel.thread.number...= true; (该参数为true时,Hive自动对左边的表统计量,如果是小表就加入内存,即对小表使用Map join)(默认左边的加载到内存中去) 相关配置参数: hive.mapjoin.smalltable.filesize...sum,count时使用) 通过设置以下参数开启在Map端的聚合: set hive.map.aggr=true; 相关配置参数: hive.groupby.mapaggr.checkinterval

3.4K10

HiveHive 的基本认识

; 适合处理大数据:; 可扩展性强:可以自由扩展集群的规模,不需要重启服务而进行横向扩展; 容错性强:可以保障即使有节点出现问题,SQL 语句也可以完成执行; 1.2.2 缺点 Hive 不支持记录级别的增删改操作...如上图所示: Hive 提供了 CLI(hive shell)、JDBC/ODBC(Java 访问 hive)、WeibGUI 接口(浏览器访问 hive); Hive 中有一个元数据存储(Metastore...元数据包括表名、表所在数据库、表的列名、分区及属性、表的属性、表的数据所在的目录等; Thrift Server 为 Facebook 开发的一个软件框架,可以用来进行可扩展且跨语言的服务开发,Hive...通过集成了该服务能够让不同编程语言调用 Hive 的接口; Hadoop 使用 HDFS 进行存储,并使用 MapReduce 进行计算; Diver 中包含解释器(Interpreter)、编译器(...6.Reference 尚硅谷Hive教程(新版hive框架详解) Hive学习之路 (一)Hive初识 Hive内部表与外部表的区别

1.2K40

hive(2)——hive基本操作

前提:开启hadoop,关闭safe模式(关闭safe模式命令:hdfs dfsadmin -safemode leave) (1)创建一个数据库hive_test ?...(2)切换到hive_test ? (3)在数据库里面创建表hive_table ?...注意:这里的数据类型的写法和mysql不是很像,因为我们是从一个结构数据直接导入到我们的hive中,所以不需要在后面加括号写多大的数据,并且后面的row format跟的东西是我们以逗号将数据分开。...在hive目录下: ? 在warehouse目录下: ? 找到了我们的hive_test表,并且在hive_test.db目录下能找到我们创建的hive_table表: ?...(6)将此文件导入hive_table中 ? (7)查看数据是否加入成功 ? ? ? 可见导入成功 (8)再次查看hdfs ? 可见,相当于将此文件复制到了hdfs下

42910

Hive基础06、Hive引入数组

Hive基础06、Hive引入数组 目录 Hive基础05、Hive引入数组 1、建表语句 2、创建【arrayInfo.txt】 3、上传到【/soft/temp/】 4、引入数组操作 ----...外部表在建表的同时必须指定一个指向实际数据的路径(LOCATION),Hive在创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。...5、CLUSTERED BY 对于每一个表(table)或者分区, Hive 可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分,Hive采用对列值哈希,然后除以桶的个数求余的方式决定该条记录存放在哪个桶当中...8、LOCATION 定义 hive 表的数据在 hdfs 上的存储路径,一般管理表(内部表不不要自定义),但是如果定义的是外部表,则需要直接指定一个路径。

61310

Hive

Hive降低了将这些应用程序转移到Hadoop系统上的难度。凡是会使用SQL语言的开发人员都可以很轻松的学习并使用Hive。...如果没有Hive,那么这些用户就必须学习新的语言和工具,然后才能应用到生产环境中。另外,相比其他工具,Hive更便于开发人员将基于SQL的应用程序转移到Hadoop中 。...如果没有Hive,那么开发者将面临一个艰巨的挑战,如何将他们的SQL应用程序移植到Hadoop上。 Hive不是一个完整的数据库。...Hadoop以及HDFS的设计本身约束和局限性地限制了Hive所能胜任的工作。其中最大的限制就是Hive不支持记录级别的更新、插入或者删除操作。但是用户可以通过查询生成新表或者将查询结果导入到文件中。...传统数据库中在秒级别可以完成的查询,在Hive中,即使数据集相对较小,往往也需要执行更长的时间。 引自Hive编程指南

59810

通过hiveserver远程服务构建hive web查询分析工具

(1)hive 三种启动方式及用途,本文主要关注通过hiveserver(可jdbc连接)的方式启动  1, hive  命令行模式,直接输入/hive/bin/hive的执行程序,或者输入 hive...--service cli        用于linux平台命令行查询,查询语句基本跟mysql查询语句类似  2, hive  web界面的启动方式,hive --service hwi  ...      用于通过浏览器来访问hive,提供基本的基于web的hive查询服务,可以看作是hive数据平台的demo, 具体用法可见:http://www.cnblogs.com/gpcuster.../archive/2010/02/25/1673480.html   使用HIVE的WEB界面:HWI 3, hive  远程服务 (端口号10000) 启动方式,nohup ....开源工具phphiveadmin就采用的这种方式,这种方式其实启动了一个 Hive Thrift Server ,允许你使用任意语言 与hive server通信,所以如果你不会java,语言将不会成为问题

1.1K50

扫码

添加站长 进交流群

领取专属 10元无门槛券

手把手带您无忧上云

扫码加入开发者社群

相关资讯

热门标签

活动推荐

    运营活动

    活动名称
    广告关闭
    领券