我面临这个问题,同时连接塔伦德开放工作室和蜂巢。以下是错误:
线程"main“中的异常: org/apache/hive/service/cli/thrift/TCLIService$Iface at org.apache.hive.jdbc.HiveDriver.connect(HiveDriver.java:105) at java.sql.DriverManager.getConnection(DriverManager.java:664) at java.sql.DriverManager.getConnection(DriverManager.java:247) at mt
每次运行带有java程序OR条件的hive查询时,都会得到以下错误:
由: org.apache.hadoop.hive.serde2.objectinspector.primitive.WritableStringObjectInspector : org.apache.hadoop.hive.serde2.objectinspector.primitive.BooleanObjectInspector无法在org.apache.hadoop.hive.ql.udf.generic.GenericUDFOPOr.initialize(GenericUDFOPOr.java:53) at o
我有Hadoop1.2.1,在单个节点上安装了hive0.14.0
$ hive
Logging initialized using configuration in jar:file:/usr/local/hive/lib/hive-common-0.14.0.jar!/hive-log4j.properties
Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS should b
我无法创建带有约束的表,就像主键或非null一样。没有约束,我可以成功地创建表。 我发现配置单元在2.1.0版本中支持主键/外键约束作为create table命令的一部分,而我的版本是2.3.0。以下是示例代码: create table test3(a int primary key) 这将返回以下错误消息: MismatchedTokenException(221!=347)
at org.antlr.runtime.BaseRecognizer.recoverFromMismatchedToken(BaseRecognizer.java:617)
at org.ant
当在命令行中发出像count或or这样的命令时,我会得到一个异常,并从控制台启动,不知道在哪里检查整个日志,但下面是摘录
Exception in thread "main" java.lang.NoClassDefFoundError: scala/collection/Iterable
at org.apache.hadoop.hive.ql.optimizer.spark.SetSparkReducerParallelism.process(SetSparkReducerParallelism.java:117)
at org.apache
JobTracker和TaskTracker正在运行,而som简单的查询也在工作!其亚稳态为mysql,与hbase-0.94.16结合。我的桌子是外部的
我的join查询:
SELECT * FROM t1 JOIN t2 ON (t1.key = t2.key);
或
SELECT * FROM t1 x JOIN t2 y ON (x.key = y.key)
或
SELECT t1.* FROM t1 JOIN t2 ON (t1.key = t2.key);
它们中的任何一个都不起作用,它们都返回此异常:
org.apache.hadoop.hive.ql.parse.Seman
成功地创建了表,方法是:
CREATE TABLE movie_example
(title STRING, id BIGINT, director STRING,
year BIGINT, genres ARRAY<STRING>)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
COLLECTION ITEMS TERMINATED BY '$' MAP KEYS
TERMINATED BY '#' LINES
TERMI
我正在尝试使用配置单元,并使用'use db‘命令切换数据库。我的设置是Hadoop 2.4.0和Hive 0.13.1。我将以下3个属性添加到一个.settings文件中
set hive.exec.failure.hooks=org.apache.hadoop.hive.ql.hooks.ATSHook;
set hive.exec.post.hooks=org.apache.hadoop.hive.ql.hooks.ATSHook;
set hive.exec.pre.hooks=org.apache.hadoop.hive.ql.hooks.ATSHook;
然后我打开hive
我使用的是hadoop 3.2.1和hive 2.3.6。当我运行show databases时,它显示以下错误 '''
hive> show databases;
Exception in thread "main" java.lang.IllegalAccessError: tried to access method com.google.common.collect.Iterators.emptyIterator()Lcom/google/common/collect/UnmodifiableIterator; from class or
我正在尝试将引擎从mr切换到Hive的spark。对于没有UDF的SQL,所有操作都很好,但是当涉及到任何包含UDF的SQL时:
set hive.execution.engine=spark;
add jar viewfs:///path_to_the_jar/aaa.jar;
create temporary function func_name AS 'com.abc.ClassName';
select func_name(col_a) from table_name limit 100;
它总是抛出异常,如下火花-集群模式(在火花-客户端模式,它运行良好)。
ERR
我已经在hive中创建了一个表,现在我正在尝试使用替换列来替换列名。是:
**ALTER TABLE emp1 REPLACE COLUMNS (
id INT eid int,
name STRING ename string,
sal INT esal int,
city string ecity string,
country string ecountry string);**
org.antlr.runtime.BaseRecognizer.recoverFromMismatchedToken(BaseRecognizer.java:617) at org.antlr.runtime
我已经成功安装了Java,Hadoop MySQL。我在运行hive时遇到了这个错误。我之前得到了文件权限错误,通过将hive文件夹下的metastore_db文件夹设置为777权限模式,修复了这个错误。如何解决此问题。
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/lib/hive/lib/log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found bin
我在拼图文件(使用Spark创建)上运行了一个Hive插件。配置单元插入正在使用partitioned子句。但在屏幕打印消息的末尾,例如“正在加载分区{=xyz,=123,=abc}”,Java堆空间异常即将到来。
java.lang.OutOfMemoryError: Java heap space
at java.util.HashMap.createEntry(HashMap.java:901)
at java.util.HashMap.addEntry(HashMap.java:888)
at java.util.HashMap.p
当我尝试访问hive shell时,它显示了一些错误日志。我使用的是CDH 5.12版本。
[cloudera@quickstart ~]$ hive
Logging initialized using configuration in file:/etc/hive/conf.dist/hive-log4j.properties
WARN: The method class org.apache.commons.logging.impl.SLF4JLogFactory#release() was invoked.
WARN: Please see http://www.slf4j.org/c
我们无法解决以下问题:我们试图使用Apache将数据保存到存储区。问题是当我们上传一个包含依赖项中的org.json包的胖jar时,df.save()应用程序正在失败。
java.lang.NoClassDefFoundError: org/json/JSONException
at org.apache.hadoop.hive.ql.parse.SemanticAnalyzer.analyzeCreateTable(SemanticAnalyzer.java:10847)
at org.apache.hadoop.hive.ql.parse.SemanticAnalyzer.
当我尝试启动hive时,我得到以下错误:
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/ezhil/hadoop-ecosystem/hive/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/ezhil/hadoop-ecosystem/hadoop/share/hadoop/com
似乎也有类似的要求:
然而,当我尝试问题描述中建议的语法- 'ALTER DATABASE dbname RENAME TO newdbname‘时,它给出了以下错误:
ALTER DATABASE testdb RENAME TO testdb1;
NoViableAltException(26@[])
at org.apache.hadoop.hive.ql.parse.HiveParser.alterDatabaseStatementSuffix(HiveParser.java:7881)
at org.apache.hadoop.hive.ql.parse.H