腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
过滤
Spark
数据
帧
中
特定
小时
、
分钟
和
秒
之间
的
记录
、
、
假设我有一个
数据
框我想要
的
记录
只在1到1:10
之间
的
时间,无论日期
和
时间在unix_timestamp中表示为&q
浏览 19
提问于2016-08-08
得票数 0
回答已采纳
2
回答
优化PySpark与pandas DataFrames
之间
的
转换
、
、
、
、
我有一个13M行
的
pyspark
数据
帧
,我想把它转换成pandas
数据
帧
。然后,将根据其他参数以不同
的
频率(例如1
秒
、1
分钟
、10
分钟
)对
数据
帧
进行重新采样以进行进一步分析。从文献[,]
中
,我发现使用以下任何一行都可以加快pyspark到pandas
数据
帧
之间
的
转换:
spark
.conf.s
浏览 11
提问于2021-11-19
得票数 0
1
回答
Pyspark
中
的
宽
数据
帧
操作速度太慢
、
、
我是一名
Spark
新手,正在尝试使用pyspark (
Spark
2.2)在非常广泛
的
特征集(大约1300万行,15000列)上执行
过滤
和
聚合操作。要素集作为地块文件存储在S3驱动器上。我正在运行一个测试脚本来加载
数据
帧
中
的
特征集,选择几千条
记录
,按
特定
的
区域代码分组,并对15k个特征集进行平均。问题是作业要么出错,要么耗时太长(对于5%
的
记录
样
浏览 0
提问于2018-10-22
得票数 3
1
回答
需要按时间间隔(1
秒
、1分、10
分钟
、1
小时
、2
小时
)
过滤
SQL
数据
库
数据
、
、
、
我希望按时间间隔(1
秒
、1Min、10 Min、1
小时
、2
小时
)
过滤
SQL
数据
库
数据
,我希望在开始日期
和
结束日期
之间
从"ProDataTable“中提取
数据
,间隔为(1 sec,1 Min,10 Min📷 为了从
数据
库
中
获取
数据
,我使用以下查询。* from ProDataTable Where Date_Time between '2017-11-17 19
浏览 0
提问于2017-11-20
得票数 1
2
回答
存储过程,它将结果
过滤
为每n
秒
读取一次。
、
我需要查询一个包含时间序列
记录
的
表,并
过滤
结果以每n
秒
返回一次读取。但是,我不想返回数百万条
记录
,然后每
小时
或每30<
浏览 7
提问于2015-07-18
得票数 1
回答已采纳
2
回答
使用java
中
的
帧
的
时间
、
、
、
我必须以hh:mm:ss:ff格式存储时间,即
小时
、
分钟
、
秒
和
帧
,其中每秒有25
帧
。 哪种
数据
类型适合,或者我应该为
小时
、
分钟
、
秒
、
帧
创建单独
的
列?
浏览 1
提问于2013-09-05
得票数 0
1
回答
带时间间隔
的
数据
库调度
过滤
器
、
、
我们有一个叫Weather
的
科学实验,它
记录
有关天气
的
一般信息,其中之一就是每
分钟
记录
一次humidity。比方说10个
小时
后,您将存储600个
数据
库值。Weather.objects.filter().exclude(time__lt = commence).exclude(time__gt = cease) 这将为Weather表创建一个介于commence
和
cease时间
之间
的
过滤
器。假设时间
浏览 0
提问于2009-11-17
得票数 1
回答已采纳
2
回答
如何有效地
过滤
datetime列来提取
数据
?
、
我使用sqlite每5
分钟
将
数据
记录
到一个列
中
,该列
的
时间戳是Unix时间
的
整数。用户界面使用php代码来提取各种用户可选时间
帧
中
的
数据
,然后使用javascript绘制这些
数据
。图表通常有12个
数据
/时间点,我需要提取
数据
来绘制不同
的
时间段,比如1
小时
/12
小时
/24
小时
浏览 0
提问于2011-09-27
得票数 0
1
回答
TCP套接字
数据
消耗
、
、
、
我每5
秒
从我
的
TCP套接字向我
的
服务器发送
数据
。在这种发送消息
的
速率下,一
小时
内会消耗多少
数据
。 每次打开套接字时,
数据
都会从客户端传输到服务器。我在客户端使用
的
是3G GSM调制解调器。我
的
消息是,ID1$Socket$Open$timestamp。全部都是字符串
浏览 5
提问于2015-04-01
得票数 1
1
回答
如何在使用
Spark
Java向Kafka Producer写入
Spark
Dataframe时控制
记录
数
、
、
、
、
我有一个包含两列
的
spark
数据
帧
,'keyCol‘列
和
'valCol’列。
数据
帧
的
大小非常巨大,接近1亿行。我想以小批量
的
方式向kafka主题写入/产生
数据
帧
,即每
分钟
10000条
记录
。此
spark
作业将每天运行一次,从而创建此
数据
帧
如何在下面的代码
中
实现每<
浏览 10
提问于2020-04-27
得票数 1
1
回答
Spark
-如何按键合并2个
数据
帧
并通过createdTime进行重复
数据
消除
、
、
我是
Spark
和
mapreduce
的
新手。我想寻求帮助,有没有什么优雅
的
方法可以这样做呢?因为我有一个
数据
帧
A,那么我希望有一个
数据
帧
R,它
的
记录
通过
特定
的
键在
数据
帧
A
和
新
的
数据
帧
B
之间
合并,条件类似于A
的
record.createdTim
浏览 4
提问于2019-11-04
得票数 0
1
回答
查询较低频率
的
高频火灾
数据
、
我们目前每3
秒
将测量
数据
记录
到Firebase
数据
库。但是我想要绘制不同时期
的
数据
,有时是5
分钟
,在这种情况下,3
秒
的
分辨率是可以
的
( ~100点)。然而,如果我想看看它在3
秒
分辨率下12
小时
内
的
变化,我会得到14,400点。对于较长
的
时间段,我想放弃分辨率以减少
数据
点。由于我们使用
的
是Firebase,所以没
浏览 2
提问于2016-07-25
得票数 0
2
回答
无法在SQL
中
检索
特定
日期
的
数据
、
我正在尝试使用查询检索
特定
日期
的
数据
:但是我没有得到任何结果但当我在下面查询时:我获取
的
天数大于2017
浏览 1
提问于2017-09-15
得票数 0
1
回答
Oracle SQL:
特定
日期格式
的
条件
、
、
我有一个日期列,它通常包含
数据
+
小时
+
分钟
。有时候只是个约会。我想在where子句中设置一个条件,只在
记录
有
数据
、
小时
和
分钟
时才提取
记录
。我怎么能这么做?
浏览 6
提问于2022-06-29
得票数 0
1
回答
使用
Spark
流
的
红移
、
、
、
我有一个Kafka -
Spark
流应用程序,可以每
分钟
摄取
和
处理60K个事件。我需要一个
数据
库来存储我转换后
的
数据
帧
,以供可视化层访问。Redshift可以与
Spark
Streaming一起使用吗?还是应该使用Cassandra?我将在每30
秒
的
spark
窗口中处理
和
存储
数据
帧
。另外,我需要从每个窗口
的
数据
浏览 0
提问于2017-09-28
得票数 0
1
回答
在databricks SQL中将字符串转换为日期
、
、
有没有办法将上述
数据
转换为yyyy-mm-dd格式?
浏览 31
提问于2021-07-09
得票数 0
3
回答
如何在sql server
中
获取每
小时
的
数据
(特别是
分钟
)
、
如何在sql server
中
获得每
小时
的
数据
(无论日期是什么),我知道这可以用datePart(
小时
,列名)来实现,但具体地说,我需要
特定
时间间隔
的
数据
,包括
分钟
而不考虑日期。场景:'TestTable‘包含
数据
类型为(DateTime)
的
column - DBTimestamp 我需要从'TestTable‘
的
所有
记录
,其中'DBT
浏览 130
提问于2018-01-16
得票数 1
回答已采纳
2
回答
DataFrame错误:“重载方法值select with alternatives”
、
、
我尝试通过从
数据
帧
中选择
小时
+
分钟
/60
和
其他列来创建新
的
数据
帧
,如下所示: val logon11 = logon1.select("User","PC","Year","Month","Day","Hour","Minute",$"Hour"+$"Minute"
浏览 0
提问于2017-02-12
得票数 2
回答已采纳
1
回答
Spark
Dataframe
的
过滤
操作
、
我有一个
Spark
,我希望根据一个
特定
列
的
匹配值从它们中选择几个行/
记录
。我想我可以使用
过滤
器操作或在映射转换中选择操作来实现这一点。但是,我想针对那些在应用
过滤
器时没有选择
的
行/
记录
更新一个status列。那么,如何知道
和
更新未被选中
的
行
浏览 0
提问于2018-07-25
得票数 1
1
回答
spark
.read.format("csv")与
spark
.read.csv
的
不同性能
、
有人知道
spark
.read.format("csv")
和
spark
.read.csv
之间
的
区别吗?有些人说"
spark
.read.csv“是"
spark
.read.format("csv")”
的
别名,但我看到了两者
之间
的
区别。我用一个新
的
difference会话执行了下面的每个命令,这样就没有缓存了。 DF1花了42
秒
,
浏览 0
提问于2019-07-05
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Flink+ 数据湖 Iceberg 的体验
数据质量和验证检查
黑客教程:交换机的基本知识
如何从Pandas迁移到Spark?这8个问答解决你所有疑问
Go 程序的持续分析
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券