腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(66)
视频
沙龙
1
回答
pyspark
to_timestamp
()返
回空
值
、
我试过了:还有这个:df= df.withColumn("timestamp", col("Time").cast(TimestampType())) 但两者都返
回空
值
。难道
to_timestamp
()不应该只起作用吗?
浏览 20
提问于2019-10-22
得票数 0
回答已采纳
1
回答
spark将日期时间转换为时间戳
、
、
、
我在
pyspark
dataframe中有一个列,它的格式是2021-10-28T22:19:03.0030059Z (字符串数据类型)。如何在
pyspark
中将其转换为时间戳数据类型?我正在使用下面的代码片段,但它返
回空
值
,因为它无法转换它。有没有人能推荐一下如何转换这个?df3.select(
to_timestamp
(df.DateTime, 'yyyy-MM-ddHH:mm:ss:SSS').alias('dt'),col('DateTime
浏览 173
提问于2021-11-05
得票数 1
2
回答
将字符串(带时间戳)转换为
pyspark
中的时间戳
、
我正在将其转换为时间戳,但
值
正在更改。以下是我的代码,有没有人可以帮助我在不改变
值
的情况下进行转换。,"input_timestamp"])df = df.withColumn("timestamp",
to_timestamp
")) df.withColumn('timestamp_s
浏览 3
提问于2021-09-28
得票数 0
2
回答
Spark SQL:如何将"yyyy-MM-dd HH:mm:ss.SSSSSSSSS“格式的时间字符串列转换为时间戳保留纳秒?
、
、
、
、
此强制转换操作应保留纳秒
值
。 通过指定时间戳格式,我尝试使用unix_timestamp()和
to_timestamp
()方法,但返
回空
值
。
浏览 143
提问于2019-06-24
得票数 0
回答已采纳
2
回答
0小时/午夜的
Pyspark
日期到时间戳
、
、
这是我尝试过的:start_date= datetime.date.today()>>> Column<b'
to_timestamp
(`2020
浏览 22
提问于2020-02-10
得票数 1
1
回答
用毫秒“YYYY-MM-DD hh:mm:ss.SSS”作为来自蜂巢的火花数据的日期
、
、
、
、
我将日期字段作为字符串存储在单元表中,格式如下:例如:但是,我们看到了以下行为:查询、提取作为字符串存储的日期的正确方法是什么?
浏览 4
提问于2020-06-12
得票数 1
1
回答
带有时区的
pyspark
时间戳
、
我正在尝试使用
pyspark
从表中提取一个
值
,我需要以下格式的
值
: 2020-06-17T15:08:24z df = spark.sql('select max(lastModDt)as lastModDatefrom db.tbl') jobMetadata = existingMaxModifiedDate.withColumn("maxDate", date_format(
to_timestamp
(
浏览 16
提问于2020-06-30
得票数 1
回答已采纳
1
回答
检查“空”时间戳
值
、
、
、
我想检查一个字段是否有"null“
值
。如果是这样的话,我想用空
值
替换" NULL“。TO_COLLECTED_DATE_TIME",SQL Error [100035] [22007]: Timestamp 'null' is not recognized 如何在时间戳字段中检查相同的空
值
?
浏览 9
提问于2022-02-21
得票数 1
2
回答
PySpark
中的插
值
抛出java.lang.IllegalArgumentException
、
、
当DataFrame包含很多列时,我不知道如何在
PySpark
中进行插
值
。让我解释一下。from
pyspark
.sql.functions import
to_timestamp
("John", "A", "20182017-06-04 01:11:00", 40), ], ("webID", "aType", "timestamp"
浏览 102
提问于2020-12-01
得票数 0
回答已采纳
1
回答
Pyspark
列:将字符串格式的数据转换为时间戳格式
、
我正在尝试将字符串格式的
pyspark
列转换为时间戳格式。Example data: 06/19/17 00:00:00 df = df.withColumn("date",
to_timestamp
(col("date"), "MM/dd/yyy
浏览 0
提问于2020-11-13
得票数 0
回答已采纳
1
回答
AWS glue作业用于将字符串映射到日期和时间格式,同时从csv转换为parquet
、
、
、
当从csv转换为parquet时,使用AWS glue ETL作业跟随csv中的映射字段读取为字符串到日期和时间类型。 映射转换后,日期字段为空,时间与当天日期拼接 如何转换为合适的日期和时间格式?
浏览 5
提问于2019-01-14
得票数 2
回答已采纳
4
回答
在dataframe中用null替换所有出现的
值
。
、
、
最初,我用-1填充了所有空
值
,以完成我在
Pyspark
中的联接。'Letter': ['A', '-1', 'B', 'A'], | -1| B| 30|+------+------+-----+ 在处理数据集之后,我需要将
浏览 6
提问于2020-06-29
得票数 5
回答已采纳
2
回答
SparkSQL -两个时间戳之间的差异(以分钟为单位,不计秒)
、
、
、
我正在尝试将sql版本的代码转换为
pyspark
版本。有一个要求,以分钟为单位的差异,从两个时间戳。date_time_opened, date_time_closed)) as avg_wait_timespark:我已经尝试了下面的spark代码来获得
值
,unix_timestamp(date_time_opened))/(60)) as INT)作为avg_wait_timeCAST(avg(((bigint(
to_timestamp
(d
浏览 1
提问于2022-05-19
得票数 0
1
回答
没有来自eventhub的产出
、
、
、
我试着读取eventhub中的数据,但是结果是它只返
回空
值
。nullable = true)|-- severity: double (nullable = true)from
pyspark
.sqlimport functions as FStringTypeimport from_json,
浏览 9
提问于2022-01-05
得票数 0
7
回答
PySpark
错误: AttributeError:'NoneType‘对象没有属性_jvm
、
、
我有时间戳数据集,它的格式为+--------------------+>>> def on_time(ts_list):.../worker.py”,第172行,主进程()文件“/usr/lib/ main /python/
pyspark
/worker.py”,第167行,进程中的文件
浏览 4
提问于2016-10-28
得票数 32
1
回答
pyspark
.sql.functions最大逆
、
能得到多列的最小
值
吗?谢谢!
浏览 1
提问于2018-02-05
得票数 3
回答已采纳
1
回答
将带有UTC偏移量的字符串转换为spark时间戳
、
、
、
已在下面尝试newDf= df.withColumn("newtimestamp",
to_timestamp
(col('timestamp'), "yyyy-MM-dd HH:mm:ss XXX")这将打印newtimesta
浏览 2
提问于2021-02-17
得票数 4
1
回答
当所有
值
为空时,concat_ws将返
回空
值
,当所有
值
为空时,则需要空
值
。
、
、
我正在用
pyspark
编写一个脚本,在那里我们正在进行数据转换。我正在使用contact_ws函数来联系
值
,而在做group by.The问题时,我面临的问题是如果concat_ws中的所有
值
都是null,而不是它将返
回空
白
值
。为了解决这个问题,当null函数中的所有
值
都是null时,我们需要有null
值
。
浏览 0
提问于2019-07-25
得票数 0
2
回答
PySpark
字符串列到时间戳转换
、
现在,我想我可以使用q1.withColumn("timestamp",
to_timestamp
("ts")) \ .show() ( q1是我的dataframe,ts是我们正在讨论的专栏)来将输入转换为DD/MM/YYYY :MM格式,但是返回的
值
仅为null。因此,我意识到我需要一个
PySpark
时间戳格式的输入(MM HH:mm:ss.SSSS)来将其转换为适当的时间戳。
浏览 6
提问于2021-09-24
得票数 0
回答已采纳
2
回答
返
回空
值
的
PySpark
DateTime函数
from
pyspark
.sql import SparkSessionfrom
pyspark
.sql import typesfrom
pyspark
.sql.functions import unix_timestamp, from_unixtime from
pyspark
.sql.window import Window我的模式显示日期,并且它有字符串
值
。数据列中没有空
值
。###
浏览 32
提问于2021-11-11
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Excel双向交叉定位查找:Xlookup并列公式能进行不固定区域返值
一个Python大数据处理利器:PySpark入门指南
PySpark,大数据处理的Python加速器!
一文读懂PySpark数据框
一文读懂 PySpark 数据框
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券