腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
从
Spark
2.2
到
2.3
的
结构化
流媒体
有
什么
不同
?
我在
Spark
2.3
的
发布说明中看到了
结构化
流媒体
的
公告/揭幕,但我知道它已经存在了一段时间了。由于一些依赖,我需要在系统实现中使用
Spark
2.2
,但我也想开始将面向批处理
的
工作转移到流范例中。在没有
Spark
2.3
的
过程中,我是否遗漏了
什么
重要
的
东西,或者这仅仅是
结构化
流媒体
成为“官方”而不
浏览 13
提问于2018-07-25
得票数 0
2
回答
是否可以直接将数据
从
Nifi发送到
Spark
结构化
流/Storm,而不丢失数据?
、
、
、
在我当前
的
场景中,Nifi收集数据,然后发送给Kafka。然后,任何
流媒体
引擎都会消耗卡夫卡
的
数据,并对其进行分析。在这种情况下,我不想在Nifi和
流媒体
引擎之间使用卡夫卡。因此,我想将数据
从
Nifi直接发送到流引擎。但是,我不知道一些细节。 例如,
结构化
流;如果我直接将数据
从
Nifi发送到
Spark
结构化
流,
Spark
收到了这些数据,但是
Spark
的
节点被关闭了。火花节点中<em
浏览 0
提问于2019-02-14
得票数 0
回答已采纳
1
回答
火花结构流检查点兼容性
、
、
、
在必须升级
Spark
库或更改查询时,我是否可以安全地使用带检查点
的
Kafka和
Spark
结构化
流(SSS) (SSS)?即使在这种情况下,我也想无缝地继续进行所留下
的
补偿。在搜索网络中
的
SSS (>=
2.2
)检查点机制中
的
兼容性问题时,我找到了
不同
的
答案。也许外面的人能缓解这种局面..。在最好
的
情况下,以事实/参考资料或第一人称经验作为后盾?在斯派克
的
编程指南(cu
浏览 0
提问于2018-10-25
得票数 6
3
回答
如何获取Kafka offset,用于
结构化
查询,实现手动、可靠
的
offset管理?
、
、
、
、
Spark
2.2
引入了Kafka
的
结构化
流媒体
源代码。据我所知,它依靠HDFS检查点目录来存储偏移量,并保证“只传递一次”消息。但旧
的
docks (如)表示,
Spark
Streaming检查点不能跨应用程序或
Spark
升级恢复,因此不太可靠。作为一种解决方案,
有
一种做法是支持将偏移量存储在支持MySQL或RedshiftDB等事务
的
外部存储中。 如果要将Kafka源
的
偏移量存储
到</em
浏览 1
提问于2017-09-11
得票数 28
回答已采纳
1
回答
kafka与Apache
spark
的
集成
、
、
我正在学习apache
spark
与kafka
的
集成,这样当新消息到达Kafka
的
主题时,我
的
代码就可以自动运行。我也读过官方文档 https://
spark
.apache.org/docs/latest/structured-streaming-programming-guide.html 但我仍然对它
的
工作原理感到困惑我
有
我
的
字数统计写
的
程序在java火花和另一边卡夫卡正在运行。
浏览 15
提问于2019-12-10
得票数 1
1
回答
Spark
流媒体
与
结构化
流媒体
、
、
在过去
的
几个月里,我使用了相当多
的
结构化
流媒体
来实现Stream Jobs (在使用了很多Kafka之后)。在阅读了“使用Apache
Spark
进行流处理”一书后,我
有
了这样一个问题:有没有
什么
要点或用例可以让我使用
Spark
流而不是
结构化
流?我是不是应该花点时间去了解它,或者既然我已经在使用
Spark
Structured Streaming了,我应该坚持使用它,并且之前
的
API没有任何好处。将
浏览 17
提问于2020-04-06
得票数 2
1
回答
在
Spark
2.1
的
Spark
-kafka集成中,
有
多少个执行者被指派去听一个kafka话题?
、
、
我
有
一个
Spark
集群,总共有17个executors。我已经将
Spark
2.1与Kafka集成在一起,并从topic中读取数据,例如: .readStream .options(kafka.bootstrap.servers","localhost:9092") .load 现在我想知道,
浏览 0
提问于2018-09-05
得票数 2
1
回答
如何处理JSON文档(来自MongoDB)并在
结构化
流中写入HBase?
、
、
、
我正在获取mongoDB文档,然后在处理之后,我想使用Bson.Document库将其存储
到
Hbase中在
结构化
流媒体
中,我得到了DatasetDocument scala> val stream =
spark
.readStream.format("k
浏览 15
提问于2019-11-09
得票数 2
1
回答
有没有理由选择Flink而不是
Spark
2.3
结构化
流媒体
?
、
、
当
Spark
2.3
带来延迟为1ms
的
“连续处理”时,选择Flink而不是新
的
Spark
2.3
用于
流媒体
应用
有
什么
好处吗?
浏览 1
提问于2018-06-12
得票数 3
2
回答
Amazon EMR和
Spark
streaming
、
、
、
、
Amazon EMR,Apache
Spark
2.3
,Apache Kafka,每天约1000万条记录。Apache
Spark
用于以5分钟
的
时间批量处理事件,每天一次工作节点正在死亡,AWS自动重新配置节点。查看日志消息时,节点中看起来没有空间,但它们在那里
有
大约1Tb
的
存储。有没有人在存储空间应该足够
的
情况下遇到了问题?我应该提供<e
浏览 4
提问于2018-10-19
得票数 8
1
回答
多个kafka集群
的
Spark
结构化
流
我正在尝试从
不同
集群
的
多个主题中获取一些关于
spark
结构化
流媒体
和阅读
的
基本信息。我找到了一些教程,这些教程展示了如何
从
同一集群上
的
多个kafka主题中拉出数据,但如果这些主题位于
不同
的
集群中呢?如何将多个kafka集群中
的
主题读入
spark
?
浏览 14
提问于2018-07-18
得票数 0
回答已采纳
1
回答
如何通过
spark
结构流在Kafka中以编程方式创建主题
、
、
我想在我
的
Spark
结构化
流媒体
应用程序中创建多个kafka主题运行时。我发现Java API中有各种可用
的
方法。但我找不到任何
有
Spark
结构
的
流媒体
。如果有
什么
方法可以使用或者我需要使用java库,请告诉我。 我
的
apache
Spark
版本是2.4.4,Kafka库依赖是
spark
-sql-kafka-0-10_2.12
浏览 17
提问于2019-11-28
得票数 0
1
回答
如何解决akka版本兼容性问题?
、
、
如果我注释掉火花依赖项,如果包括我得到
的
火花依赖项,它就运行得很好:我怎么才能避开这一切?
浏览 1
提问于2014-11-26
得票数 1
回答已采纳
1
回答
与RabbitMQ
的
Spark
结构化
流媒体
集成
、
、
我想使用
Spark
structured来聚合
从
RabbitMQ消费
的
数据。我知道与apache kafka
有
官方
的
spark
结构化
流媒体
集成,我想知道是否也存在与RabbitMQ
的
集成?由于我不能切换现有的消息传递系统(RabbitMQ),我想使用kafka-connect在消息传递系统(Rabbit to kafka)之间移动数据,然后使用
Spark
structured streaming有人知道更好
的
浏览 0
提问于2018-04-16
得票数 0
1
回答
使用
Spark
Structured Streaming读取目录时,如何实现只读一次处理?
、
、
我想使用流处理
的
概念
从
本地目录读取文件,然后发布
到
Apache Kafka。我考虑过使用
Spark
Structured Streaming。此外,如果我们在
结构化
流媒体
中使用检查点,当代码
有
任何升级或任何更改时,我们是否会有任何问题。
浏览 0
提问于2019-02-25
得票数 2
1
回答
无法使用
spark
结构流计算文档数量
、
、
我正在尝试使用couchbase作为
spark
structured使用
spark
connector
的
流媒体
来源。val records =
spark
.readStream.load() 我
有
一个问题 records.writeStream.format(“console”).awaitTermi
浏览 21
提问于2020-04-14
得票数 1
2
回答
星火结构流和DStreams
有
什么
区别?
、
我一直在网上寻找材料--两者都是基于微批次
的
--那么
有
什么
区别呢?
浏览 0
提问于2018-03-15
得票数 13
回答已采纳
1
回答
通过读取具有两个
不同
spark
结构化
流
的
相同主题来调试Kafka流水线
、
、
、
我
有
一个Kafka主题,就是在我
的
产品中流式传输数据。我希望使用相同
的
数据流进行调试,而不影响现有管道
的
偏移量。我记得在早期版本中为此目的使用了创建
不同
的
消费者组,但我使用
Spark
structured
从
Kafka读取数据,它不鼓励在从kafka读取数据时使用groupID。
浏览 27
提问于2020-10-16
得票数 1
回答已采纳
1
回答
将Cassandra查询
的
数据合并/更新为
从
Kafka接收
的
结构化
流
、
、
、
我正在创建一个
Spark
结构
的
流媒体
应用程序,它将每10秒计算一次
从
Kafka收到
的
数据。目前,我使用Datastax
Spark
-Cassandra-connector在本地启动
Spark
后立即查询数据库 .read .load 从现在开始,我可以通
浏览 1
提问于2018-04-17
得票数 8
2
回答
Spark
结构化
流媒体
应用阅读多个Kafka主题
、
、
我
有
一个
Spark
结构化
流媒体
应用(v2.3.2),它需要从一些Kafka主题读取,做一些相对简单
的
处理(主要是聚合和一些连接),并将结果发布
到
其他一些Kafka主题。我想知道
从
资源
的
角度(内存、执行器、线程、Kafka侦听器等)它是否会有所
不同
。就像这样 df =
spark
.readStream.format("kafka").option("subscribe", &qu
浏览 28
提问于2019-05-01
得票数 11
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
云直播
活动推荐
运营活动
广告
关闭
领券