我正在为直接连接到配置单元服务器而挣扎。在我的服务器(名为Sun,此服务器上的所有操作)的hive文件夹中,我可以作为./bin/beeline启动beeline,然后连接到hive:!connect jdbc:hive2://,然后我成功地连接到我的hive,并且可以运行hive-sql语句。 但是,当我尝试./bin/beeline -u jdbc:hive2://localhost:10000 -n hive -p mypassword时,我无法直接连接到配置单元,并显示错误消息" error : can not open client transport with JDBC
假设在"g“集群中安装了Hive。我没有访问黄金集群的权限。我正在"s“集群中执行python开发工作。我可以从"s“集群访问Hive并运行查询。
下面的代码可以从运行在"s“集群中的Python脚本连接到Hive。
some_table是一个已经存在于Hive中的表。我想执行一个简单的select * from some_table命令来获得一些结果。
import sys
sys.path.append("/usr/lib/hive/lib/py")
from hive_service import ThriftHive
from hive
我是蜂巢,MapReduce和Hadoop的新手。我使用Putty连接到hive表并访问表中的记录。所以我做的是-打开Putty,在主机名中输入- vip.name.com,然后单击Open。然后,我输入了我的用户名和密码,然后输入了几个命令来访问Hive。下面是我所做的事情
$ bash
bash-3.00$ hive
Hive history file=/tmp/rkost/hive_job_log_rkost_201207010451_1212680168.txt
hive> set mapred.job.queue.name=mdhi-technology;
hive> s
当在HDInsight集群( Microsoft的Hadoop发行版)上启动Hive亚稳态时,我得到了以下错误:
org.apache.thrift.transport.TTransportException: Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083.
at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:93)
at org.apache.thrift.transport.TSe
我添加了这个项目所需的所有jars,但是我无法解决这个exception.can --任何人都会对此提出建议。您还能告诉我如何给予hive数据库访问权限吗?提前谢谢。
java.lang.ClassNotFoundException: org.apache.hadoop.hive.jdbc.HiveDriver
at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
at java.securit
我想通过Talend Open Studio for Big Data (7.2.1)连接到Hive。
如果我只使用标准属性,连接看起来还可以,但是如果我尝试使用一些高级属性,我就会遇到一个问题:
例如,如果我尝试通过专用复选框/字段设置namenode URI:
然后我在执行过程中出现了一个错误:
Talend在生成的代码中设置的点有一个语法错误:
System.setProperty("fs.default.name", "mynamenode");
我试过逃避“,但没有成功。性格。要在tHiveConnection中使用属性,我可以做些什么?
在Hue中的Impala查询编辑器中,您应该能够检查查询完成。但这在某种程度上是不可靠的,因为它有时会卡住(即36%,即使查询可能正在进行),并且在这一点上您不知道查询是否已经完成。在Hue Job Browser中,我可以看到Hive ans Spark作业,但不能看到impala。在Hue的任何地方,我可以找到可靠的Impala查询完成状态进度?
使用此链接尝试连接到远程蜂箱。下面是使用的代码。收到的错误消息也在下面给出。
代码
from pyhive import hive
conn = hive.Connection(host="10.111.22.11", port=10000, username="user1" ,database="default")
误差信息
Could not connect to any of [('10.111.22.11', 10000)]
Traceback (most recent call last):
File
Hive正在中止执行和日志记录:
No rows affected (0.005 seconds)
No rows affected (0.059 seconds)
Error: Error while processing statement: FAILED: Error in acquiring locks: Locks on the underlying objects cannot be acquired. retry after some time (state=42000,code=10)
Closing: 0: jdbc:hive2://
有人能给出一些提示吗?如何解决这个问题
我试图在现有的Hbase表上创建一个Hive表,如下所示:
create external table h2h (
key int -- int or string?
col1 string
)
stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
with serdeproperties ('hbase.columns.mapping' = ':key,info:col1');
演示了key的几种数据类型。
如何确定列key的数据类型,该列映射到Hbase表中的
我正在尝试使用spring data hadoop将hive集成到我的应用程序中,但遇到了一些问题。首先我不确定的是<hdp:hive-server host="some-other-host" port="10001" />是连接到现有的配置单元服务器,还是像创建一个新的配置单元服务器这样的东西,然后能够连接到它。其次,我的配置没有抛出任何错误,所以它看起来不错,甚至hiveTemplate自动装配也工作得很好,但是当我执行查询时,似乎没有得到任何响应。应用程序在这一点上有点卡住了。
以下是配置
<hive-client-factory ho
我以这种方式从命令行调用hive -e数百次:
cat hive_script.hql | parallel --gnu hive -e '{}'
其中hive_script.hql中的每一行都可以以任何顺序独立运行。
有没有可以减少启动时间的--hiveconf参数?Apache网页似乎暗示可能存在于
"This is frustrating as Hive becomes closely coupled with scripting languages. The Hive startup time of a couple seconds is non-trivi