我正在为直接连接到配置单元服务器而挣扎。在我的服务器(名为Sun,此服务器上的所有操作)的hive文件夹中,我可以作为./bin/beeline启动beeline,然后连接到hive:!connect jdbc:hive2://,然后我成功地连接到我的hive,并且可以运行hive-sql语句。 但是,当我尝试./bin/beeline -u jdbc:hive2://localhost:10000 -n hive -p mypassword时,我无法直接连接到配置单元,并显示错误消息" error : can not open client transport with JDBC
假设在"g“集群中安装了Hive。我没有访问黄金集群的权限。我正在"s“集群中执行python开发工作。我可以从"s“集群访问Hive并运行查询。
下面的代码可以从运行在"s“集群中的Python脚本连接到Hive。
some_table是一个已经存在于Hive中的表。我想执行一个简单的select * from some_table命令来获得一些结果。
import sys
sys.path.append("/usr/lib/hive/lib/py")
from hive_service import ThriftHive
from hive
当在HDInsight集群( Microsoft的Hadoop发行版)上启动Hive亚稳态时,我得到了以下错误:
org.apache.thrift.transport.TTransportException: Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083.
at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:93)
at org.apache.thrift.transport.TSe
我是蜂巢,MapReduce和Hadoop的新手。我使用Putty连接到hive表并访问表中的记录。所以我做的是-打开Putty,在主机名中输入- vip.name.com,然后单击Open。然后,我输入了我的用户名和密码,然后输入了几个命令来访问Hive。下面是我所做的事情
$ bash
bash-3.00$ hive
Hive history file=/tmp/rkost/hive_job_log_rkost_201207010451_1212680168.txt
hive> set mapred.job.queue.name=mdhi-technology;
hive> s
我添加了这个项目所需的所有jars,但是我无法解决这个exception.can --任何人都会对此提出建议。您还能告诉我如何给予hive数据库访问权限吗?提前谢谢。
java.lang.ClassNotFoundException: org.apache.hadoop.hive.jdbc.HiveDriver
at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
at java.securit
我想通过Talend Open Studio for Big Data (7.2.1)连接到Hive。
如果我只使用标准属性,连接看起来还可以,但是如果我尝试使用一些高级属性,我就会遇到一个问题:
例如,如果我尝试通过专用复选框/字段设置namenode URI:
然后我在执行过程中出现了一个错误:
Talend在生成的代码中设置的点有一个语法错误:
System.setProperty("fs.default.name", "mynamenode");
我试过逃避“,但没有成功。性格。要在tHiveConnection中使用属性,我可以做些什么?
在Hue中的Impala查询编辑器中,您应该能够检查查询完成。但这在某种程度上是不可靠的,因为它有时会卡住(即36%,即使查询可能正在进行),并且在这一点上您不知道查询是否已经完成。在Hue Job Browser中,我可以看到Hive ans Spark作业,但不能看到impala。在Hue的任何地方,我可以找到可靠的Impala查询完成状态进度?
使用此链接尝试连接到远程蜂箱。下面是使用的代码。收到的错误消息也在下面给出。
代码
from pyhive import hive
conn = hive.Connection(host="10.111.22.11", port=10000, username="user1" ,database="default")
误差信息
Could not connect to any of [('10.111.22.11', 10000)]
Traceback (most recent call last):
File
我以这种方式从命令行调用hive -e数百次:
cat hive_script.hql | parallel --gnu hive -e '{}'
其中hive_script.hql中的每一行都可以以任何顺序独立运行。
有没有可以减少启动时间的--hiveconf参数?Apache网页似乎暗示可能存在于
"This is frustrating as Hive becomes closely coupled with scripting languages. The Hive startup time of a couple seconds is non-trivi
我在试着让GeoIP和hive一起工作。我找到了这个:,这似乎正是我想要的。
我构建了jars (我没有java经验,所以我只希望我做对了这一部分),将它们添加到我的查询中,并得到以下结果:
hive> ADD jar hive-udf-geo-ip-jtg.jar;
Added hive-udf-geo-ip-jtg.jar to class path
Added resource: hive-udf-geo-ip-jtg.jar
hive> ADD jar geo-ip-java.jar;
Added geo-ip-java.jar to class path
Added re
当我在hive命令行中运行时:
hive > select count(*) from alogs;
在终端上,它显示以下内容:
Total jobs = 1
Launching Job 1 out of 1
Number of reduce tasks determined at compile time: 1
In order to change the average load for a reducer (in bytes):
set hive.exec.reducers.bytes.per.reducer=<number>
In order to lim
多亏了关于tutorialspoint和stackoverflow的好信息,我几乎完成了在Oracle VirtualBox上的Ubuntu上安装Hive 3.1.1和Hadoop3.0.3的工作。
我尝试从$HIVE_HOME运行"bin/hive“,并收到以下错误:
"Cannot find hadoop installation: $HADOOP_HOME or $HADOOP_PREFIX must be set or hadoop must be in the path."
我编辑了bashrc以包括:
export HADOOP_HOME=/usr/
许多搜索指向pyspark代码,以便在hive metastore中创建表,如下所示:
hivecx.sql("...create table syntax that matches the dataframe...") df.write.mode("overwrite").partitionBy('partition_colname').insertInto("national_dev.xh_claimline")
我尝试过许多不同的write/save/insertinto和mode,但总是得到:
Caused by: ja
我使用Hadoop1.1.2,hbase 0.94.8和hive 0.14。我试图使用hive在hbase中创建一个表,然后通过插入覆盖加载其中的数据。
目前,我能够创建该表:
CREATE TABLE hbase_table_emp(id int, name string, role string)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,cf1:name,cf1