腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
3
回答
Spark
根据
时间
戳
中
的
时间
间
隔向
数据
集中
添加
列
、
、
我有以下
数据
集: list.add(new SAMPLE("1", "2018-01list.add(new SAMPLE("2", "2018-01-01 00:04:35.0")); JavaRDD<SAMPLE> rdd = new JavaSparkContext(
spark
.sparkContext(
浏览 2
提问于2018-07-23
得票数 1
回答已采纳
1
回答
在所有
列
spark
上应用函数
、
、
我已经做了这段代码,我
的
问题是关于函数转换
数据
类型,我如何在同一
时间
转换
数据
集中
包含
的
所有
列
(除了
列
时间
戳
),另一个问题是如何对除
列
时间
戳
之外
的
所有
列
应用函数avg。非常感谢 val df =
spark
.read.option("header",true).option("inf
浏览 0
提问于2017-03-01
得票数 1
回答已采纳
2
回答
如何升级Azure
数据
库
中
的
Hive版本
、
、
、
、
org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.UnsupportedOperationException:不支持
时间
戳
。见蜂箱-6384; 在
中
执行下面的代码时出现以上错误。hive,当我运行命令
spark
_session.conf.get("
spark
.sql.hive.metastore.version")时,它显示为Hive 0.13版本。Hive0.13将不支持
时间
戳
浏览 4
提问于2020-09-13
得票数 1
2
回答
将64位
时间
戳
转换为可读值
、
、
、
在我
的
数据
集中
,我有两个
时间
戳
列
。第一个是自应用程序启动以来
的
微秒-例如,1400805323。第二个被描述为64位
时间
戳
,我希望它将指示时钟
时间
,使用从1/1/1901开始
的
NTP格式
的
秒数。64位
时间
戳
示例: 129518309081725000 129518309082059000 129518309082393000
浏览 2
提问于2011-06-07
得票数 4
回答已采纳
2
回答
Spark
将TimestampType转换为yyyyMMddHHmm格式
的
字符串
、
、
、
、
在我
的
数据
帧
中
,我有一个TimestampType格式
的
列
'2019-03-16T16:54:42.968Z‘,我想将其转换为格式为'201903161654’
的
StringType
列
,而不是通用
的
时间
戳
列
这是因为我需要
根据
字符串格式
的
时间
戳
对几个目录进行分区,如果我对
时间
戳</em
浏览 79
提问于2019-03-18
得票数 1
回答已采纳
1
回答
时间
戳
转换使值为空
、
将
列
数据
类型从字符串转换为
时间
戳
时,值变为null。我有以下格式
的
值当我执行以下操作时,我希望将该类型转换为"timestamp“ df.withColumn('arrivetime', df['arrivetime如何在不影响值及其格式
的
情况下将
列
转换为
时间
戳
?
浏览 12
提问于2018-12-13
得票数 0
1
回答
如何从现有的
时间
戳
列
向
spark
dataFrame
添加
新
的
datetime
列
、
我在
Spark
中有一个
数据
帧,它有一个
列
时间
戳
。我想在此
数据
框
中
添加
一个新
列
,该
数据
框具有从此现有
时间
戳
列
创建
的
以下格式
的
DateTime。 “YYYY-MM-DD HH:MM:SS”
浏览 35
提问于2021-06-24
得票数 0
1
回答
Spark
从oracle导入时将oracle日期
数据
类型转换为
时间
戳
(java.sql)不正确
、
、
、
、
我正在使用
Spark
从Oracle导入
数据
,如下所示-var info : java.util.Properties(jdbcURL, tableFullName, info) 导入时将具有“日期”
数据
类型
的
列
转换为"java.sql.timestamp“
数据
类型。在这个转换过程
中
,我面
浏览 1
提问于2017-11-28
得票数 0
回答已采纳
1
回答
根据
PySpark
中
的
时区将协调时
时间
戳
转换为本地
时间
、
、
我有一个PySpark DataFrame df,它有一些
列
,如下所示。hour
列
采用UTC
时间
,我想创建一个基于time_zone
列
的
具有本地
时间
的
新
列
。我如何在PySpark
中
做到这一点?
浏览 2
提问于2019-12-03
得票数 5
回答已采纳
3
回答
按键从Dataset
中
的
Map中排序
、
、
我想按
时间
戳
订购一些从HDFS检索
的
avro文件。所以我在地图上有这样
的
时间
戳
: case class Root(headers : Map[String,Strin
浏览 0
提问于2019-05-01
得票数 1
回答已采纳
1
回答
PySpark -创建带有
时间
戳
列
数据
类型
的
Dataframe
、
、
我想在上
的
笔记本中使用PySpark创建一个简单
的
数据
格式。dataframe只有3
列
: stringStartTimeStanp - 'HH:MM:SS:MI'*EndTimeStanp -
数据
类型,例如“
时间
戳
”或可以在表单‘HH:MM:SS:MI’*EndTimeStanp
中
持有
时间
戳
(无日期部分)
的
数据
类型--类似于“
时间
戳</
浏览 2
提问于2021-06-22
得票数 4
回答已采纳
2
回答
是否有可能从foundry code authoring中找到
数据
集
的
最后一次foundry同步日期?
、
我想通过编程来确定
数据
集
的
上次同步日期是否在某个
时间
范围内,我想知道是否可以将上次同步日期作为一
列
放入
数据
集中
?
浏览 42
提问于2021-11-19
得票数 1
1
回答
用Python编辑Parquet文件会导致日期
时间
格式错误
、
、
、
、
我正在尝试编辑一组用parquet编写
的
Spark
文件。我使用Pyarrow将它们加载到Python
中
的
Pyarrow
数据
格式
中
。其目标是用一些
数据
追加新行,并输出一组新
的
拼花文件。我遇到
的
问题是日期/
时间
列
,在加载python
中
的
parquet文件后,该
列
显示为dtype('<M8[ns]'。在
添加<
浏览 2
提问于2019-09-05
得票数 1
回答已采纳
1
回答
HBase火花-与
Spark
2.0
的
连接
、
、
一直试图使用
Spark
&Scala将
数据
写入HBase。需求是-我必须
根据
来自业务
的
列
的
时间
戳
为HBase记录设置TTL。 将
列
的
时间
戳
值转换为Epoch
时间<
浏览 1
提问于2018-11-21
得票数 3
2
回答
根据
时间
间隔在R
数据
框
中
添加
新
的
列
。白天/黑夜
我想
根据
时间
间
隔向
我
的
数据
帧
中
添加
一个新
列
。对于10:00 - 15:00,我想在新
列
中
添加
"day“,对于22:00-03:00,我想
添加
"night”。此外,我希望排除不在其中一个间隔内
的
所有行hour D_N01:10 night
浏览 0
提问于2019-11-07
得票数 0
1
回答
如何从SQLite3行
中
获取日期或日期
时间
?
、
、
、
、
没有我需要
的
sqlite3_column_date函数:for (NSString *key in [self valuesWithTypes]) { } i++;SQLite3表可以有一个日期/日期
时间
类型
的
列
但是,看在上帝
的
份上,我怎么才能从一行
中
获得一个日期
列
浏览 1
提问于2010-10-03
得票数 3
回答已采纳
1
回答
结合基于I.D字段
的
两个Dataframe
时间
戳
、
、
、
、
我正试图找出一种方法,
根据
几个因素,我可以将熊猫/蟒蛇
的
两个dfs组合成一个。 与df_2
中
的
时间
戳
相比,df_1
时间
戳
始终是最早
的</em
浏览 0
提问于2019-02-27
得票数 0
回答已采纳
2
回答
Spark
Structured Streaming如何确定事件是否迟到?
我通读了
spark
structured streaming文档,我想知道
spark
structured是如何确定事件已经迟到
的
?它是否将事件
时间
与处理
时间
进行比较?1)这个处理
时间
是从哪里来
的
?由于它
的
流,它是否假设有人可能正在使用具有处理
时间
戳
的
上游源,或者
spark
<e
浏览 0
提问于2018-02-26
得票数 4
1
回答
使用
Spark
对拼花
数据
集进行排序,并将排序结果存储为S3
中
的
多个文件
、
、
在s3://my-bucket/events/date=X/
中
,我将一个拼花
数据
集存储在多个部件文件
中
: part001.snappy.parquetdataset
中
的
事件有一个timestamp
列
,一个在ISO8601
中
的
字符串。
数据
集中
的
事件完全没有排序。使用
spark
,我想
浏览 6
提问于2017-08-30
得票数 0
回答已采纳
1
回答
如何以分钟为间
隔向
数据
帧
添加
时间
戳
索引
、
、
、
我有一个以
时间
戳
为索引
的
数据
帧。我希望以分钟为间
隔向
数据
集
的
开头和结尾
添加
更多行。例如:如果
数据
集在早上6: 00开始,我希望每分钟在
数据
集开始时从5: 00 am到6: 00 am
的
条目。
浏览 25
提问于2019-05-09
得票数 0
回答已采纳
点击加载更多
相关
资讯
数据质量和验证检查
教程:Apache Spark SQL入门及实践指南!
HBase篇(2)-数据模型与操作
Uber是如何低成本构建开源大数据平台的?
Apache Spark 2.4 内置的 Avro 数据源实战
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券