我使用以下命令创建了hive外部表:
use hive2;
create external table depTable (depId int comment 'This is the unique id for each dep', depName string,location string) comment 'department table' row format delimited fields terminated by ","
stored as textfile location '/dataDir/';
我看到了一个存储HBase数据的外部Hive表:
CREATE EXTERNAL TABLE IF NOT EXISTS ods.demo_table(
rowkey String COMMENT 'rowkey of hbase',
....
)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' WITH SERDEPROPERTIES ("hbase.columns.mapping" = "info:...") TBLPROPER
hduser@Connected:~$ hive
Logging initialized using configuration in jar:file:/usr/local/hive/lib/hive-common-0.14.0.jar!/hive-log4j.properties
Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS should be writable. Curren
我正在尝试构建一个Apache多维数据集,但是在步骤3中使用以下日志msg失败了:
NoSuchObjectException(message:default.kylin_intermediate_t3cube_47ec8760_55ce_445d_a91b_0c33957690bf表未找到) org.apache.kylin.source.hive.HiveMRInput$HiveTableInputFormat.configureJob(HiveMRInput.java:110) at org.apache.kylin.engine.mr.steps.FactDistinctColumn
这是我们的设置-我们有一个配置单元,它使用另一台计算机上的MySQL作为中间存储。我可以启动Hive命令行shell并创建一个表并对其进行描述。但是,当我登录到另一台使用MySQL作为转储存储的计算机时,我无法在MySQL上看到配置单元表的详细信息。
例如,这里有hive命令-
hive> create table student(name STRING, id INT);
OK
Time taken: 7.464 seconds
hive> describe student;
OK
name string
id int
Time taken: 0.408 seco