腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
将SAP BO连接到
配置
单元
时出错
odbc
、
hive
、
sap
我已经
使用
ODBC驱动程序将SAP BO连接到Hive。我可以看到
配置
单元
中
的
数据库和
表
。但是,当我从
配置
单元
中
获取数据时,它给出
的
错误是你能建议我应该把
csvserde
浏览 1
提问于2014-05-19
得票数 0
1
回答
如何
使用
CSVSERDE
加载
同一
配置
单元
表
中
的
2个
CSV
文件
amazon-web-services
、
hadoop
、
amazon-s3
、
hive
、
create-table
我正在尝试从HDFS
文件
夹
加载
2个
CSV
文件
, Create Table Click_data ( A Timestamp, B string, C int, D BIGINT, E string,OpenCSVSerde' tblproperties ("skip.header.line.count"="1"); 有两个
CSV
格式<em
浏览 17
提问于2021-01-10
得票数 1
3
回答
自定义SerDe不支持Impala,用双引号查询
CSV
文件
的
最好方法是什么?
csv
、
hadoop
、
double-quotes
、
impala
我有一个
CSV
数据,每个字段都用双引号括起来。当我
使用
serde 'com.bizo.hive.serde.
csv
.
CSVSerde
‘创建
配置
单元
表
时,当在Impala
中
查询上面的
表
时,我得到错误SerDe not found。我在/usr/lib/impala/lib
文件
夹
中
添加了
CSV
Serde JAR
文件
。
浏览 0
提问于2014-09-03
得票数 6
3
回答
在
配置
单元
中上传.
csv
数据,格式为封闭格式
csv
、
hadoop
、
hive
我
的
.
csv
文件
是一个封闭
的
格式。9827304969","0","D","2" "13","9827702373","0","A","2" 就像在mysql中一样,我尝试
使
浏览 1
提问于2014-07-23
得票数 0
3
回答
将
配置
单元
导出到
CSV
csv
、
hive
、
libreoffice
如何
导出此数据,然后在Libreoffice上导入
浏览 4
提问于2012-08-16
得票数 8
1
回答
HIVE ALTER SERDE命令
hive
配置
单元
中
是否有一个命令可以更改现有
表
的
serde属性。这些
表
是
使用
需要更改为org.apache.hadoop.hive.serde2.OpenCSVSerde
的
com.bizo.hive.serde.
csv
.
CSVSerde
创建
的
,我正在寻找类似如下
的
内容
浏览 13
提问于2016-08-04
得票数 1
回答已采纳
5
回答
如何
将带有双引号和制表符分隔
的
CSV
数据
加载
到HIVE
表
中
?
hadoop
、
hive
我试图从
csv
文件
中
加载
数据,其中
的
值由双引号'"‘和制表符'\t’分隔。但是当我尝试将该
文件
加载
到hive
中
时,它没有抛出任何错误,数据
加载
没有任何错误,但我认为所有数据都被
加载
到单个列
中
,并且大多数值显示为NULL.。下面是我
的
create table语句。00:00:00" "5" "UK" "
浏览 3
提问于2015-06-04
得票数 22
1
回答
使用
csv
-serde时自动选择分隔符
hadoop
、
hive
、
hiveql
、
hive-serde
、
hiveddl
已
使用
以下方法创建了一个
表
:ROW FORMAT SERDE 'com.bizo.hive.serde.
csv
.
CSVSerde
'"field.delim"="|"当我试图上传一个
文件
,也就是用逗号分隔
的
文件
时,它已经被正确上传了。如果我将管道
配置
为数据
的
分隔符,那么怎么可能呢?
csv
有
浏览 0
提问于2018-07-02
得票数 1
回答已采纳
3
回答
如何
在
配置
单元
中
处理分隔符
hadoop
、
hive
当\t在值
中
并且分隔符也是\t时,我们
如何
处理
配置
单元
中
的
数据。例如,假设有一列为Street,数据类型为String,值为XXX\tYYY,在创建
表
时,我们
使用
了字段分隔符\t。分隔符是
如何
工作
的
?在这种情况下,值
中
的
\t是否也将被分隔?
浏览 1
提问于2014-11-26
得票数 0
1
回答
配置
单元
加载
带有逗号和时间戳
的
csv
csv
、
hive
、
timestamp
、
comma
、
amazon-athena
我尝试将
csv
文件
加载
到
配置
单元
中
。问题是我有datetime列和包含逗号
的
列。分隔符也是逗号。=leboncoin.fr,pag=https%3A//www.leboncoin.fr/materiel_agricoles/%3Fth%3D1%2ot%3D0;ord=909215572" 我不能
使用
open
CSVSerDe
,因为我需要datetime格式
的
日期列。l
浏览 4
提问于2017-07-17
得票数 0
1
回答
为什么蜂巢没有MySQL
中
的
like包围
的
字段呢?
hadoop
、
hive
这是我
的
案子:"vijay" <\t> "a-b-c","a-c-d","a-d-c" 我创建了这样
的
表
:TERMINATED BY ',' LINE
浏览 1
提问于2014-01-16
得票数 0
3
回答
配置
单元
从
csv
导入以"yyyy-mm-dd HH:MM:SS“形式给出
的
字符串日期作为时间戳
timestamp
、
hive
、
csv-import
我
的
csv
文件
如下所示:"NXEX","JS","FIM",1.99,"2014-01-14 09:52:11"我通
浏览 0
提问于2014-02-25
得票数 2
1
回答
如何
使用
apache nifi将多个json
文件
加载
到具有正确映射
的
多个hive
表
中
?
hadoop
、
hive
、
bigdata
、
apache-nifi
我需要
使用
apache nifi将基于
表
名
的
多个
csv
文件
摄取到它们各自
的
配置
单元
表
中
。源json
文件
中
的
table_address数据应该转到
配置
单元
中
的
table_address,其他
表
也是如此。简而言之,需要将源json
文件
中
浏览 6
提问于2019-04-10
得票数 0
1
回答
十六进制上
的
CsvSerde
表格分隔
csv
、
hadoop
、
hive
我正在尝试
使用
csvserde
创建一个由十六进制值1F分隔
的
文件
目录下
的
外部
单元
表
。
csvserde
在分隔
的
普通逗号上工作得很好。我不知道
如何
在分隔符中表示十六进制值。
浏览 2
提问于2017-01-19
得票数 0
回答已采纳
7
回答
在
使用
电子病历/
配置
单元
将数据从S3导入DynamoDB时,
如何
处理用引号括起
的
字段
amazon-web-services
、
amazon-s3
、
hive
、
amazon-dynamodb
、
amazon-emr
我正在尝试
使用
电子病历/
配置
单元
将数据从S3导入DynamoDB。我
的
CSV
文件
包含用双引号括起来并用逗号分隔
的
字段。在
配置
单元
中
创建外部
表
时,我可以将分隔符指定为逗号,但
如何
指定将字段括在引号
中
?如果我没有指定,我会看到DynamoDB
中
的
值被填充在两个双引号“”value“”
中
,这似乎是错误<em
浏览 8
提问于2012-12-28
得票数 17
回答已采纳
4
回答
如何
在hive中
使用
外部关键字创建
表
hive
我想在hdfs
中
处理数据,我正在尝试
使用
外部关键字创建
表
,然后我得到了以下错误,请您提供解决方案。hive> create EXTERNAL table samplecv(id INT, name STRING) "escapeChar" = "\
浏览 0
提问于2013-12-10
得票数 1
1
回答
pyspark一次读取多个
csv
文件
apache-spark
、
pyspark
、
hive
我正在
使用
SPARK读取hdfs
中
的
文件
。有一个场景,我们以
csv
格式从遗留系统
中
获取
文件
块。ID1_FILENAMEA_1.
csv
ID1_FILENAMEA_3.
csv
ID2_FILENAMEA_1.
csv
ID2_FILENAMEA_3.
浏览 228
提问于2021-09-27
得票数 1
回答已采纳
2
回答
配置
单元
中
的
` `load data inpath‘和`location`之间
的
区别?
sql
、
hadoop
、
hive
、
hdfs
、
hiveql
在我
的
公司,我看到这两个命令经常被
使用
,我想知道其中
的
区别,因为对我来说,它们
的
功能似乎是一样
的
: 1 create table number double); (name string, location'/directory-p
浏览 134
提问于2016-02-18
得票数 14
1
回答
从MySql转储导入到
配置
单元
mysql
、
hive
、
sqoop
、
bigdata
我在将MySql转储导入
配置
单元
时遇到问题。因此,我希望将MySql转储
中
的
数据直接导入到hive
中
,而无需恢复到MySql
中
。那么它会为每个插入创建多个
文件<
浏览 0
提问于2016-11-14
得票数 0
1
回答
如何
sqoop导入将新数据追加到分区
的
hive
表
中
,从而在相同
的
分区列上创建新
的
分区
文件
夹?下面是我
的
场景
hadoop
、
hive
、
hdfs
、
sqoop
、
partition
我在hive
中
的
date列上有一个分区
表
,可以第一次将数据sqoop导入到hive分区
表
中
。当我执行此操作时,它会正确创建所有日期
文件
夹,并将数据
加载
到
配置
单元
表
的
hdfs位置
中
的
每个
文件
夹
中
。现在,当我想要sqoop导入新数据并将其再次附加到具有新
的
更新日期
的
同一
配
浏览 45
提问于2017-08-30
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
卓象程序员:电子表格导入PhpSpreadsheet
从Excel到Python
如何在Weka中加载CSV机器学习数据
使用sqlldr工具导入oracle数据库方法
【大数据】Hive 分区和分桶的区别及示例讲解
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券