我正在使用以下脚本将数据从DynamoDB导出到S3:
CREATE EXTERNAL TABLE TableDynamoDB(col1 String, col2 String)
STORED BY 'org.apache.hadoop.hive.dynamodb.DynamoDBStorageHandler' TBLPROPERTIES (
"dynamodb.table.name" = "TableDynamoDB",
"dynamodb.column.mapping" = "col1:col1,col2:col2"
);
CREATE EXTERNAL TABLE TableS3(col1 String, col2 String)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
LOCATION 's3://myBucket/DataFiles/MyData.txt';
INSERT OVERWRITE TABLE TableS3
SELECT * FROM TableDynamoDB;在S3中,我想将输出写到一个给定的文件名(MyData.txt),但它目前的工作方式是上面的脚本创建了一个名为'MyData.txt‘的文件夹,然后在这个文件夹下生成了一个随机名称的文件。
有没有可能使用HIVE在S3中指定一个文件名?
谢谢!
发布于 2012-07-26 08:21:56
以下是一些事情:
hadoop
hadoop fs -getmerge的内容来读取单个流中的所有文件。
https://stackoverflow.com/questions/11658632
复制相似问题