腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
将星火流与Tensorflow集成?
、
、
、
、
目标:不断地将嗅探
的
网络包提供给卡夫卡生产商,将其与星火流连接起来,以便能够
处理
包
数据
,然后
使用
Tensorflow或Keras中
的
预
处理
数据
。我正在
处理
来自
卡夫卡
的
火花流(
PySpark
)中
的
连续
数据
,现在我想将
处理
过
的
数据
发送到Tensorflow。
如何
用Python在Tensorflow
浏览 0
提问于2018-12-18
得票数 3
1
回答
如何
使用
PySpark
处理
来自
Kafka
的
数据
?
、
、
我想
处理
从
Kafka
流到
PySpark
的
日志
数据
并保存到拼图文件中,但我不知道
如何
将
数据
输入到Spark。请帮帮我谢谢。
浏览 68
提问于2020-07-04
得票数 0
1
回答
Databricks与
Kafka
架构注册表
的
集成
、
、
、
我已经开发了一个databricks管道,它
使用
Kafka
主题中
的
数据
。目前,我正在通过在
Pyspark
中手动定义模式来进行
处理
。我知道
Kafka
模式注册表也是由
Kafka
团队设置
的
,我收到了注册表URL。 请指导我
如何
通过Databricks中
的
pyspark
程序连接到模式注册表。谢谢
浏览 12
提问于2021-05-20
得票数 1
1
回答
PySpark
-Streaming作业已停滞,无法进一步
处理
、
、
、
、
我有一个
Kafka
流作业(Spark version2.4.5)在kubernetes上运行,有一个驱动程序和4个executors.The,该作业
的
目的是消费
来自
PySpark
主题
的
数据
,并对它们进行
处理
问题: 有时,我们会遇到
Kafka
集群
的
问题。因此,
PySpark
流作业将不会获得任何要
处理
/消费
的
数据
,即acceptable.However,即使
浏览 15
提问于2021-11-25
得票数 1
1
回答
数据
帧
如何
与窗口函数获得相同分组
、
、
我正在
使用
PySpark
的
DataFrame部分来分析
来自
Apache
Kafka
的
数据
。我遇到一些麻烦,需要一些帮助。from
pyspark
.sql import functions # selected_df is dataframe come from
kafka
use spark.readStream.format("
kafka
")...").groupBy(fun
浏览 21
提问于2019-03-14
得票数 1
1
回答
多个接收器
的
pyspark
并行
处理
、
、
、
我正在尝试用Spark实现并行
处理
。我想在spark中创建多个接收器(而不仅仅是线程)来接收
来自
kafka
的
流
数据
。我找到了一个链接,说明了
如何
使用
scala实现这一点(参见下面的链接)。但我找不到类似的
pyspark
代码。有人能帮帮忙吗?
浏览 2
提问于2015-09-09
得票数 1
2
回答
只捕捉到
的
有效载荷
的
CDC在火花结构化
的
流?
、
、
、
、
为了捕捉Server中
的
数据
更改,我尝试执行从Server到
Pyspark
的
管道,我已经准备好了一切: 从SQL Server到
Kafka
进行生产,并
使用
Pyspark
结构化流中
的
Kafka
主题。问题是:当我试图用控制台
使用
者检查
数据
更改是否经过
Kafka
时,它会向我显示JSON格式
的
消息,分为两个记录: Schema和Paylo
浏览 0
提问于2021-06-30
得票数 0
回答已采纳
1
回答
如何
以编程方式将
Kafka
主题加载和流到
PySpark
数据
、
、
、
卡夫卡有许多读/写火花
数据
的
方法。我试着阅读
来自
卡夫卡主题
的
信息,并从中创建一个
数据
框架。可以从主题中提取消息,但无法将其转换为
数据
文件。任何建议都会有帮助。import
pyspark
from
pyspark
.context import SparkContextdf = spark \
浏览 1
提问于2020-06-12
得票数 1
3
回答
如何
将
Kafka
主题
数据
加载到Python中
的
火花Dstream中
、
、
我在Python中
使用
Spark3.0.0。我有一个卡夫卡
的
test_topic,正在生产从一个csv。import jsonfrom
kafka
import KafkaConsumerfrom<
kafka
.consumer.group.KafkaConsumer at 0x13bf55b0>
如何
编辑上面的代码给我一个DStream?我是新来
的</e
浏览 5
提问于2020-08-06
得票数 1
回答已采纳
1
回答
在火花流/结构化流中阅读
Kafka
的
avro消息
、
、
、
、
我第一次
使用
火花放电。火花版本: 2.3.0卡夫卡版本: 2.2.0 我有一个卡夫卡生产者,它以avro格式发送嵌套
数据
,我正在尝试用火花流/结构化流写代码,这将反序列化从
kafka
到dataframe
的
avro,做转换,把它以拼花格式写成我能够在spark/scala中找到avro转换器,但是还没有增加对
pyspark
的
支持。
如何
在火花放电中转换相同
的
内容。谢谢。
浏览 3
提问于2019-05-02
得票数 3
回答已采纳
1
回答
我可以
使用
spark 2.3.0和
pyspark
来做
Kafka
的
流
处理
吗?
、
、
我将
使用
pyspark
进行流
处理
,并
使用
Kafka
作为
数据
源。 我发现Spark Python API不支持
Kafka
0.10连接器。我可以在Spark 2.3.0中
使用
Kafka
0.8连接器吗?
浏览 14
提问于2018-03-02
得票数 4
1
回答
Pyspark
结构化流
处理
、
、
我正在尝试用spark做一个结构化
的
流媒体应用程序,主要思想是从
kafka
源读取,
处理
输入,写回另一个主题。我已经成功地让spark读写了
kafka
,但是我
的
问题出在
处理
部分。我尝试过foreach函数来捕获每一行并在写回
kafka
之前对其进行
处理
,但是它总是只做foreach部分,而不会写回
kafka
。但是,如果我从writestream中删除foreach部分,它将继续写入,但现在我丢失了
处理
。 如果有人能给我举
浏览 37
提问于2019-07-17
得票数 0
回答已采纳
1
回答
如何
优化卡夫卡主题
的
结构化流消费分区策略?
、
、
、
我对
kafka
非常陌生,我试图将
数据
写到一个主题中,并从同一个主题中读取
数据
(我们现在作为一个源团队来摄取
数据
)。因此,我们在对Kafk主题进行写操作,并从相同
的
主题中
使用
)。&我们还可以指定要将
数据
拆分为
使用
的
分区数。代码中看到了自定义分区类,但我
使用
的
是火花流,甚至不确定
如何
集成它。我对
Kafka
主题分区
的
困惑有以下几点: <em
浏览 3
提问于2021-09-08
得票数 1
回答已采纳
1
回答
如何
在流式spark时抑制stdout 'batch‘?
、
、
、
如何
更改或完全抑制此批
处理
元
数据
而仅显示我
的
内容?import SparkSessionimport time .builder \ .appName("
PySpark
Structured Streaming with
浏览 10
提问于2020-07-27
得票数 1
1
回答
带有
pyspark
结构流
的
kafka
自定义分割器
、
、
我想为我
的
pyspark
应用程序
使用
kafka
自定义分割器,从
kafka
推送到另一个
kafka
主题。
使用
pyspark
处理
将
数据
从源转换到宿。我希望能够根据data/message中
的
某个键控制应该将
数据
推送到哪个分区。在中,我找不到此类用例
的
任何参考资料或示例。我正在
使用
python
处理
和
pyspark</e
浏览 1
提问于2021-11-01
得票数 1
1
回答
使用
pyspark
- stucked将
数据
从
kafka
写入hive
、
、
我对spark非常陌生,并从
pyspark
开始,我正在学习
使用
pyspark
将
数据
从
kafka
推送到hive。from
pyspark
.sql import SparkSessionfrom
pyspark
.sql.functionsimport * from
pyspark
.streaming.
kafka
import Kafka
浏览 2
提问于2020-02-17
得票数 0
1
回答
使用
python将
数据
从
kafka
发送到s3
、
、
对于我的当前项目,我正在
使用
Kafka
(python),并想知道是否有任何方法可以将流式
Kafka
数据
发送到AWS S3桶(而不
使用
汇流)。我从Reddit API获得我
的
源
数据
。我甚至想知道
Kafka
+s3是否是一个很好
的
组合,用于存储
数据
,这些
数据
将
使用
pyspark
进行
处理
,或者我应该跳过s3步骤,直接从
Kafka
读取<
浏览 5
提问于2022-08-28
得票数 0
2
回答
如何
使用
pyspark
读取hdfs
kafka
数据
?
、
、
、
、
我正在尝试读取通过
Kafka
和SparkStreaming获取
的
HDFS存储
的
数据
。我
使用
的
是一个Java应用程序,它
使用
JavaRDD.saveAsTextFile方法将一些任意
数据
保存到Hadoop。
数据
保存在本地主机:50070
的
默认hadoop浏览器中。 然后,在
pyspark
应用程序中,我尝试
使用
sparkContext.textFile读取
数据
。问题是
浏览 0
提问于2018-01-22
得票数 0
回答已采纳
1
回答
如何
使用
火花python在cassandra表中保存
数据
?
、
、
应用程序
的
生产者将产生一些关于特定主题
的
数据
。
使用
者将
使用
来自
同一主题
的
数据
,并
使用
spark对其进行
处理
,并存储这些
数据
为cassandra表。输入
的
数据
以字符串格式开始,如下所示- 100=NO|101=III|102=0.0771387731911|103=-0.7076915761 100=NO|101=AAA|102=0.8961325446464|10
浏览 2
提问于2017-04-04
得票数 1
1
回答
Spark流式
数据
以更新SQL Server (事务)
、
目前我有一些
pyspark
代码,它是从
kafka
主题读取
数据
(readStream),我计划
使用
事务更新SQL Server表。流
数据
将具有所有三个插入、更新、删除事务。
浏览 2
提问于2020-01-29
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python大数据处理库PySpark实战——使用PySpark处理文本多分类问题
PySpark算子处理空间数据全解析(5):如何在PySpark里面使用空间运算接口
使用Spark Streaming处理Kafka数据流
PySpark,大数据处理的Python加速器!
PySpark,一个大数据处理利器的Python库!
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券