腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
scala
spark
数据
帧
中
提取
时间
间隔
、
、
、
我正在尝试从
scala
和
spark
中
提取
基于
时间
序列的组合
数据
间隔
我
在
一个
数据
框中有以下
数据
: Id | State | StartTime | EndTime 1 | R | 2019-01-02T18:30:00 | 2019-01-02T22:45:00 我需要根据id和state将
数据
提
浏览 24
提问于2019-03-09
得票数 1
回答已采纳
2
回答
在
设定频率后刷新缓存的
Spark
数据
帧
、
、
我正在开发一个SparkStreaming解决方案,在这个解决方案
中
,一个配置单元表被缓存为一个
数据
帧
,然后流事件将与缓存的
数据
帧
结合起来,以产生结果。有没有任何方法,比如说TTL或任何其他围绕缓存
数据
帧
的机制,其中
数据
以特定的
时间
间隔
自动刷新更新的Hive表记录。
浏览 0
提问于2018-07-04
得票数 0
1
回答
spark
-cassandra-connector -从Dataframe创建表格- StructType?
、
、
我正试着从
Spark
数据
帧
中
写给Cassandra。当我有一个简单的
数据
帧
模式时,如示例中所示,它可以工作: |-- id: string (nullable = true)但是,当我尝试编写包含StructTypes的
数据
帧
时,其模式如下: |-- crawl: struct (nullable = true) | |-- id: string (
浏览 4
提问于2016-06-27
得票数 1
1
回答
spark
vs pandas dataframe (具有大列) jupyter笔记本
中
的head(n)
、
、
、
、
几天后,
数据
带来了大量的功能。为了获得简短的
数据
摘要,人们将
数据
加载到
数据
框
中
,并使用head()方法显示
数据
。使用Jupyter Notebook( Toree for
scala
)进行实验是很常见的。
Spark
(
scala
)很适合处理大量
数据
,但是它的head()方法不能在水平滚动的notebook
中
显示列标题。熊猫
数据
帧
头
Spark
浏览 3
提问于2018-06-13
得票数 2
3
回答
如何比较SQL语句中两种
数据
的模式?
、
、
在
spark
(如 )
中
,有许多方法来验证两个
数据
帧
的架构。但是我只想在SQL
中
验证两个
数据
帧
的模式,我指的是SparkSQL。
中
没有
数据
库(模式)的概念,但是我读到了包含模式信息等的亚稳态。我们可以
在
SparkSQL
中
编写像上面这样的SQL查询吗?我只是
在
检查为什么显示create没有使用
spark
,是因为它是一个临时表吗?
s
浏览 6
提问于2018-09-04
得票数 1
1
回答
reduceByKeyAndWindow
在
Spark
streaming
中
是如何工作的?
、
、
我正在学习
spark
streaming,并从一些生产日志
中
找出一些散列标签。
在
一些示例
中
,我发现了以下代码: val words = statuses.flatMap(line => line.split(" ")) val tags = words.filter(w =>为什么我们要递减第二个参数
中
的值呢?
浏览 29
提问于2019-03-17
得票数 0
1
回答
如何在pyspark中使用azure-sqldb-
spark
连接器
、
、
、
我想每天写大约10 GB的
数据
到Azure SQL server DB,使用PySpark.Currently,使用JDBC driver,这需要花费数小时逐个制作insert语句。我计划使用azure-sqldb-
spark
连接器,它声称可以使用批量插入来加速写入。import com.microsoft.azure.sqldb.
spark
.config.Config import com.microsoft.azure.
浏览 2
提问于2018-10-27
得票数 7
3
回答
字符串列包含通过
spark
scala
进行精确匹配的单词
、
、
我有两个
数据
帧
,第一个
数据
帧
包含实际
数据
(从CSV文件读取),第二个
数据
帧
包含一个具有多个关键字的列。即下面的Dataframe-1外观相似(我们必须搜索的地方):
数据
帧
-2:我想要的输出:我在这里使用
spark
scala
。我想要一个与dataframe-1
中
的dataframe-2完全匹配的单词。我使用了like、rlike、contains
浏览 1
提问于2021-02-12
得票数 0
1
回答
java.lang.UnsupportedOperationException:‘不允许写入非空的Cassandra表
、
、
、
、
我有这样的场景,我将接收由我的
spark
流程序处理的流
数据
,并且每个
间隔
的输出被附加到我现有的cassandra表
中
。目前,我的
spark
流程序将生成一个
数据
帧
,我需要将其保存在我的cassandra表
中
。我目前面临的问题是,当我使用下面的命令时,我无法将
数据
/行附加到现有的cassandra表
中
dff.write.format("org.apache.
spark
.sql.ca
浏览 0
提问于2016-02-11
得票数 5
1
回答
df.select()和df.agg()有什么区别?
、
、
、
我有一个
数据
帧
,我想从其中
提取
最大值、最小值并计算其中的记录数。
数据
帧
是:df: org.apache.
spark
.sql.Dataset[Long] = [id: bigint]
scala
> df.select(min("id"), max("id"
浏览 3
提问于2017-06-19
得票数 1
回答已采纳
2
回答
向流式
数据
帧
添加ROW_NUMBER列
、
、
、
、
我是
Spark
和SQL的新手。我正在尝试向我的df
中
添加一列(然后将其保存到Delta表
中
),该列为每条记录/行提供唯一的id,并在每次更新特定记录时递增该列。
浏览 1
提问于2020-08-19
得票数 3
1
回答
数据
帧
的
scala
joinWithCassandraTable结果
、
、
我正在使用Datastax
spark
- Cassandra -connector来访问Cassandra
中
的一些
数据
。我的需求是将RDD与Cassandra表连接起来,获取结果并将其存储
在
hive表
中
。 我正在使用joinWithCassandraTable加入cassadra表。] = CassandraJoinRDD[17] at RDD at CassandraRDD.
scala
:19 我尝试了以下步骤来转换为
数据
帧
,但所有方法都不起作用。t
浏览 20
提问于2020-07-17
得票数 0
2
回答
通过向Dataframe应用函数向Tinkerpop图(gremlin)添加顶点
、
、
、
、
正如问题所表明的那样,我已经尝试了相当一段
时间
来编写一些可以读取
数据
帧
的代码,并将顶点添加到gremlin图中,并从dataframe
提取
属性。:304) at org.apac
浏览 0
提问于2018-02-14
得票数 1
1
回答
无法将CSV文件加载为
spark
中
的
数据
、
我试图在
数据
帧
中加载一个CSV文件,我的目标是将第一行显示为CSV文件的列名。但是
在
使用下面的代码时,我得到了错误 at
scala
.collection.TraversableLike='true') // .map(line
浏览 0
提问于2018-12-31
得票数 2
回答已采纳
2
回答
如何在dsx中使用
Scala
2.11 with
Spark
2.0笔记本的"display“功能
、
、
在
dsx
中
,有一种方法可以
在
Scala
2.11和
Spark
2.0笔记本中使用"display“(我知道可以
在
python笔记本中使用pixiedust)。例如: WHEREstate = 'CA' GROUP BY city ORDER BY
浏览 3
提问于2017-01-28
得票数 3
1
回答
使用ffmpeg pyspark和hadoop逐
帧
处理视频
、
、
、
我想使用
spark
和hadoop并行处理mp4视频
帧
。我不想在处理之前
提取
所有
帧
。我正在寻找的是一种顺序读取帧
数据
w.r.t的方法。视频
时间
,然后
在
帧
到达使用yarn的hadoop集群上的
spark
executors时馈送
帧
。mp4视频文件可以
在
本地文件系统上,也可以
在
HDFS上。我可以使用ffmpeg创建一个管道,然后读取原始
帧
字节(例如,image =np.
浏览 11
提问于2019-07-13
得票数 2
2
回答
使用dataframe
scala
创建文件名为
时间
戳的csv文件
、
、
、
我有一个
数据
帧
,
数据
如下。|1.0 ||football |2.0 |我想将上面的
数据
帧
写入一个csv文件,其中的文件名将使用当前
时间
戳创建。给出了以下错误有没有更好的方式来使用
scala
和
spark
来实现这一点?而且,即
浏览 29
提问于2021-03-02
得票数 2
回答已采纳
2
回答
Spark
SQL过滤多个相似字段
、
有没有更好的方法
在
spark
数据
帧
上编写多个条件的过滤器,这些条件
在
本质上是相似的。 假设df是具有
时间
戳列t1、t2、t3、t4的
spark
数据
帧
。因为我是
scala
的新手,所以我还不知道用
scala
编写代码的最佳实践。感谢任何人的帮助。
浏览 43
提问于2019-01-19
得票数 0
1
回答
如何在
Spark
Dataframe中将一个时区转换为另一个时区
、
、
我正在从PostgreSQL读取
Spark
Dataframe,并在PostgreSQL中有日期列,如下所示: last_upd_date"2021-04-21 22:33:06.308639-05" 但在
spark
dataframe
中
,它添加了小
时间隔
。但我希望输出为2021-04-21 22:33:06.308639 有人能帮我解决这个
spark
数据
帧
吗?
浏览 28
提问于2021-06-24
得票数 2
1
回答
如何删除星火(
SCALA
)
中
的整个
数据
帧
?
有一些函数可以删除
Spark
(
SCALA
)
中
的列和行,但是却找不到任何函数来删除整个
数据
frame.Is,有一种方法可以删除
Spark
(
SCALA
)
中
的
数据
帧
吗?
浏览 0
提问于2016-10-15
得票数 3
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券