腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5081)
视频
沙龙
1
回答
在
Apache
Hive
中将
"
2017-10-31
20
:
42
:
00
“
字符串
转换
为
时间
戳
、
、
我最近上传了一个csv文件到
Apache
Hive
表,该文件有3列带有
时间
戳
"2017-10-23 11:07:
00
","
2017-10
-31
20
:27:02","
2017-10-31
20
:27:02" "2017-10-17 09:54:
00
","2017
浏览 0
提问于2018-01-16
得票数 0
回答已采纳
1
回答
在
Hive
HQL
中将
字符串
转换
为
时间
戳
、
、
、
、
我有一个
字符串
,如"08/03/2018 02:
00
:
00
“,我正试图将其
转换
为
时间
戳
值。我使用以下代码:当我使用上面的代码时,它会抛出一个空值。如何在
Hive
/Hue编辑器<
浏览 3
提问于2018-04-13
得票数 2
回答已采纳
3
回答
蜂箱当前日期函数
、
、
、
我想直接得到现在的日期。FROM_UNIXTIME(UNIX_TIMESTAMP())16-03-212016-03-21 09:34但这对我没什么用。
浏览 3
提问于2016-03-21
得票数 2
回答已采纳
1
回答
为
“yyyy:mm:ss”格式的
时间
戳
创建表格语句
我
在
HDFS中有一个JSON数据集,其中包含
时间
戳
和计数。我能够创建一个表,前提是我将
时间
戳
列作为一个
字符串
: `timestamp` string, ROW FORMAT SERD
浏览 1
提问于2015-03-13
得票数 2
回答已采纳
2
回答
如何将"2019-11-02T
20
:18:
00
Z“
转换
为HQL中的
时间
戳
?
、
、
、
、
我有日期
时间
字符串
"2019-11-02T
20
:18:
00
Z"。如何将其
转换
为
Hive
HQL中的
时间
戳
?
浏览 2
提问于2019-11-05
得票数 1
回答已采纳
1
回答
unix_timestamp函数计算失配
、
、
我正在尝试编写一个
Hive
查询,它将为一个
时间
戳
值增加6个小时,然后将它与其他
时间
戳
进行比较。我使用的方法是使用unix_timestamp()函数
转换
时间
戳
,然后向其添加21600秒,以便最终值比初始值提前6小时。
hive
> select unix_timestamp('2014-11-02
00
:58:
20
') from unix_tmp limit 1;141
浏览 2
提问于2015-09-11
得票数 1
1
回答
Hive
/SparkSQL:如何将Unix
时间
戳
转换
为
时间
戳
(而不是
字符串
)?
、
在
Hive
/SparkSQL中,如何将unix
时间
戳
Note 1
转换
为timestamp数据类型?(注1:即1970年1月1日以来的秒数/毫秒数)
在
UTC
中将
时间
戳
*隐藏到给定的时区(从
Hive
0.8.0开始)。*<e
浏览 6
提问于2017-10-21
得票数 2
回答已采纳
2
回答
在
不更改数据类型
字符串
的情况下计算单元中
字符串
类型的两列之间的
时间
差。
、
、
、
、
我试图计算
字符串
数据类型的行的两列之间的
时间
差。如果它们之间的
时间
差小于2小时,则选择该行的第一列,否则,如果时差大于2小时,则选择该行的第二列。这可以通过将列
转换
为datetime格式来完成,但我希望结果仅在
字符串
中。我怎么能这么做?数据如下:2018-07-16 02:23:
00
2018-07-26 15:32:
00
20
浏览 0
提问于2018-07-30
得票数 2
回答已采纳
1
回答
AWS雅典娜查询输出格式
、
, ROW FORMAT DELIMITED STORED AS INPUTFORMAT OUTPUTFORMAT LOCATION 's3:/&
浏览 1
提问于2019-03-03
得票数 3
2
回答
我
在
csv文件中有格式
为
1989-09-26T09:
00
:00.000+05:30的日期格式
在
加载
hive
表中的数据时,当我从
Hive
表中获取行时,所有日期列中的数据都为NULL。 另外,我只想获取日期,而不是
时间
戳
,所以任何可能的解决方案。
浏览 2
提问于2018-08-22
得票数 0
1
回答
用
时间
戳
列将csv加载到雅典娜表
、
、
我已经开始
在
我的S3文件之上使用雅典娜查询引擎,其中有些是
时间
戳
格式列。OUTPUTFORMAT LOCATION"2018-08-09 06:
00
:00.
浏览 0
提问于2018-04-29
得票数 5
回答已采纳
2
回答
星星之火SQL到蜂巢表-日期-
时间
域小时错误
、
、
、
我面临这样的问题:当我输入一个带有spark.sql数据的
Hive
时间
戳
字段时,
时间
被奇怪地更改为21:
00
:
00
!我有一个用spark.sql读取的csv文件。我读取该文件,将其
转换
为dataframe并将其存储
在
一个
Hive
表中。此文件中的一个字段是日期,格式
为
"3/10/2017“。我想输入的
Hive
字段是格式的(我使用此数据类型而不是日期的原因
浏览 1
提问于2017-11-22
得票数 1
回答已采纳
1
回答
能否将具有相同数据类型的多列映射到sqoop中的新数据类型?
、
、
例如,如果我想将一个表从RDBMS导入到
hive
,并且我的表有10列类型
为
datetime,并且我想在hadoop
中将
所有这些列
转换
为
时间
戳
,那么如何一次
转换
所有列。这将将一个列
转换
为
时间
戳
数据类型: --usernameuser --password
浏览 1
提问于2016-09-29
得票数 1
回答已采纳
2
回答
如何在scala
中将
current_timestamp()值
转换
为
字符串
、
、
我一直
在
尝试将
时间
戳
添加到我的数据帧中,并将其持久化到配置单元中。但这里有一个问题:因为我不能在
hive
版本0.13中使用
时间
戳
作为数据类型,所以我想将timestamp数据类型的current_timestamp()
转换
为
字符串
,这样我就可以将它加载到我的
hive
表中以下是我的
时间
戳
列: [2017-01-12 12:55:55.278] [2017-01-12 12:55:55.278] [20
浏览 4
提问于2017-01-12
得票数 2
2
回答
如何解决蜂巢文本文件格式与拼图文件格式之间的日期差异
、
、
我们
在
单元格中创建了一个外部拼板表,使用insert覆盖将现有的文本文件数据插入到外部拼花表中。但我们确实观察到,现有文本文件中的日期与拼花文件不匹配。从数据到文件问题: 1)如何解决这一问题。( 2)为什么我们会得到这些数据上的差异。
浏览 2
提问于2016-01-21
得票数 0
回答已采纳
3
回答
通过带有TimeStamp数据类型的HCatalog问题对猪使用配置单元
、
、
、
、
在
我的开发框中,我有MapR 3.0.2、
Hive
0.11、HCatLog 0.4.1和Pig 0.12。我使用HCatlog从Pig (Pig Latin)读取和写入
Hive
表,使用标准查询,我的
Hive
表包含TIMTESTAMP数据类型(几列),因此紧跟在GRUNT中的这条语句之后,我得到的错误是 ERROR org.
apach
浏览 1
提问于2014-05-27
得票数 3
1
回答
从猪生成的CurrentTime()
在
配置单元日期
时间
列中显示
为
NULL
、
、
、
在
Pig脚本中,我生成了datetime列,其值
为
CurrentTime()。 当从配置单元表读取PigScript生成的输出的数据时,它显示
为
NULL。有没有办法从PIG加载当前的datetime列以显示
在
Hive
Table中?文件中的数据类似于2020-07-24T14:38:26.748-04:
00
,而在配置单元表中,该列的数据类型
为
timestamp
浏览 22
提问于2020-07-25
得票数 2
1
回答
如何将"2021-09-01T14:37:40.537Z“
转换
为"2021-09-01T14:37:40.5370000+
00
:
00
”?
、
如何将
字符串
"2021-09-01T14:37:40.537Z“
转换
为"2021-09-01T14:37:40.5370000+
00
:
00
”格式的python.we有一个
hive
表,该表的日期
时间
格式
为
"2021-09-01T14:37:40.537Z“,但我们希望
在
python
中将
其
转换
为"2021-09-01T14:37:40.5370000+
00
:<em
浏览 1
提问于2022-06-20
得票数 -1
2
回答
蜂巢中的拼花
字符串
到
时间
戳
转换
、
、
我
为
该数据创建了一个DDL,
在
hive
中添加了表,并指出了hdfs中的那些拼花文件。当我试图查询表时,所有字段看起来都很完美。但是,对于
时间
戳
字段,
hive
提供了一个例外。HiveException: java.lang.ClassCastException: org.
apache
.hadoop.io.Text cannot be cast to org.
apache
.hadoop.
hive
.serde2.io.TimestampWr
浏览 0
提问于2019-03-22
得票数 2
回答已采纳
2
回答
从Spark Python到Pandas的
时间
戳
往返
、
、
、
如何实现
时间
戳
数据从Spark Python到Pandas的往返
转换
?我从Spark中的
Hive
表中读取数据,希望
在
Pandas中进行一些计算,然后将结果写回
Hive
。只有最后一部分失败了,将Pandas
时间
戳
转换
回Spark DataFrame
时间
戳
。'2017-03-04 08:
00
:
00
') , ('next Thursda
浏览 14
提问于2017-03-04
得票数 7
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python模块之time
Flink SQL FileSystem Connector 分区提交与自定义小文件合并策略
Python3中常用模块-time模块
Python中级教程——time、datetime、calendar模块的使用介绍
python常用时间处理方法
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券