我正在安装Hadoop-2.8.0的Mac os上安装HIVE-2.1.1。我按照的指示安装了hive。我可以毫无错误地完成前5个步骤。我将hive-site.xml配置为
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hiveuser</value>
<description>Username to use against metastore database </description>
<
这是我们的设置-我们有一个配置单元,它使用另一台计算机上的MySQL作为中间存储。我可以启动Hive命令行shell并创建一个表并对其进行描述。但是,当我登录到另一台使用MySQL作为转储存储的计算机时,我无法在MySQL上看到配置单元表的详细信息。
例如,这里有hive命令-
hive> create table student(name STRING, id INT);
OK
Time taken: 7.464 seconds
hive> describe student;
OK
name string
id int
Time taken: 0.408 seco
我们在Ubuntu 12.04 LTS中安装Cloudera CDH4,在安装步骤中,我们停留在hive元商店start。我们已经按照下载文档中的建议使用MySQL配置了meta-store。
它给了我们以下错误:
/usr/lib/hive/conf$ sudo service hive-metastore status
* Hive Metastore is dead and pid file exists
在日志文件中,它显示以下错误:
ERROR metastore.HiveMetaStore (HiveMetaStore.java:main(4153)) - Metastore T
我试着在窗口上安装蜂箱。我几乎完成了我的install.But,而盯着蜂箱命令Im得到了下面的错误。
Error applying authorization policy on hive configuration: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
Beeline version 2.1.1 by Apa
我试图使用CentOS6.8 on macOS构建VMware融合环境。
我以前安装过jdk-10.0.1、和MySQL。他们成功地工作了。
然而,当我试图格式化matadata存储库时,
schematool -dbType mysql -initSchema
发生了以下错误:
which: no hbase in (/opt/hive/bin:/usr/local/hive/bin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/usr/java/latest/bin:/usr/local/hadoop/s
我安装了本地hadoop单节点和配置单元,并将一些配置单元表存储在hdfs中。然后,我使用MySQL元存储区配置配置单元。现在我安装了spark,我正在对hive表进行一些查询,就像这样(在scala中):
var hiveContext = new org.apache.spark.sql.hive.HiveContext(sc)
result = hiveContext.sql("SELECT * FROM USERS");
result.show
你知道如何配置spark来显示查询的执行时间吗?因为默认情况下,它不显示..
我在单节点centos7上安装了Hadoop 3.2.1和hadoop顶部安装了hive 3.1.2,并希望与Presto搜索引擎集成,这样我就可以看到hive的数据库进入presto- server- 0.229。hive工作得很好,能够创建表,我已经在官方文档的帮助下完成了presto- server-0.229的安装和配置。但是我不能从presto访问数据库。
Here are my all configuration details:
Hive-site.xml:
<property>
<name>javax.jdo.optio
我在本地机器上安装了Hadoop(伪分布式模式)、Hive、sqoop和mysql。
但是,当我试图运行sqoop时,它会给出以下错误
Error: /usr/lib/hadoop does not exist!
Please set $HADOOP_COMMON_HOME to the root of your Hadoop installation.
然后,我用所有信息设置sqoop-env-template.sh文件。下面是sqoop-env-template.sh文件的快照。
即使在提供hadoop路径之后,我也面临同样的错误。
我在/home/hduser/hadoop版本
我已经在Hbase上安装了hadoop的配置单元,我将数据库驱动程序的配置从derby更改为MySQL,但是我得到了这个异常
FAILED: Error in metadata: javax.jdo.JDOFatalDataStoreException: Access denied for user 'DBAUSER'@'linux-96' (using password: YES)
NestedThrowables:
java.sql.SQLException: Access denied for user 'DBAUSER'@'l