腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(8757)
视频
沙龙
1
回答
数据
转换
后
,
将
kafka
流
数据
帧
保
存到
Databricks
中
的
Redis
、
、
、
、
在对
数据
执行聚合
后
,我使用pyspark
将
kafka
流
定向到
redis
。最终输出是一个
流
数据
名。 .select(from_json(col("value").cast("string"), app_schema).alias("mob_apps")) 由于订阅到代理,这给了我
流
浏览 15
提问于2021-02-27
得票数 0
1
回答
如何使用Spark-streaming进行实时日志分析??(我附加架构镜像)
、
、
Spark streaming应用程序实时接收来自大量IoT设备
的
数据
。但它们都是少量
的
数据
。整体流程看起来像是-> Iot ->
Kafka
(1个主题/所有
数据
) ->火花
流
(过滤错误日志) -> DB(保存) ->警报屏幕 有没有使用spark或python进行实时日志分析
的
好方法?
浏览 13
提问于2020-11-19
得票数 0
回答已采纳
1
回答
开发和测试Python代码以连接本地计算机上
的
kafka
streams
、
、
、
、
我是在本地机器上使用Python
的
新手。到目前为止,我可以在Azure
Databricks
中
编写代码。我想创建和部署连接到confluent
kafka
的
库,并将
数据
保
存到
增量表。我弄糊涂了- 1]我是否需要通过如下设置从本地计算机连接到
Databricks
Delta,使用python
将
流
存储到增量或
将
流
存储到本地增量(我可以创建增量表 spark = pyspark.sql.
浏览 0
提问于2021-01-08
得票数 1
1
回答
使用
Kafka
和Spark
流
为web应用程序服务
、
、
、
、
让我们假设我有一个具有表单
的
网站,用户可以在其中通过一些值。现在,我想获取这些值,使用Spark处理这些值,并将结果返回给用户。就像这样:详细
的
设置并不重要-星火
流
可以做一些建议或预测,可以坐在
Databricks
之上;后端可以是一个烧瓶应用程序.我
的
问题是: 这条管道漏掉了哪些碎片?一些中间DB,如
Redis
/Mongo/SQL?像卡夫卡这样
浏览 0
提问于2018-06-16
得票数 3
1
回答
是否有可能实现一个可靠
的
接收器,支持不优雅
的
关闭?
、
我很好奇,如果一个星火
流
应用程序被优雅地击落是绝对必须
的
,还是它有通过预写日志导致重复
数据
的
风险。在下面的场景
中
,我概述了队列接收器与队列交互时需要确认消息
的
步骤序列。火花队列接收器
将
批消息存储到预写日志
中
。 预写日志
中
的
消息通过
流
应用程序进行处理。火花队列接收器从队列中提取一批消息,这些消息已经
浏览 3
提问于2015-07-29
得票数 9
2
回答
Databricks
:
转换
数据
框并导出为xls / xlsx
、
对于
Databricks
:
转换
数据
帧
并导出到xls / xlsx并保
存到
blob存储
中
是可能
的
吗?使用Python
浏览 41
提问于2019-09-30
得票数 0
2
回答
ModuleNotFoundError:
数据
库
中
没有名为“”xlsxwriter“”
的
模块
、
我正在尝试
将
pandas dataframe
的
内容保
存到
windows/azure
databricks
的
excel文件
中
。
将
熊猫作为pd导入 根据
数据
创建一个Pandas
数据
帧
。writer = pd.ExcelWriter('pandas_simple.xlsx',engine='xlsxwriter')
将
数据
帧</e
浏览 234
提问于2020-07-03
得票数 2
2
回答
如何在Spark Structured Streaming
中
读取
Kafka
和查询外部存储,如Cassandra?
、
如何在Spark Structured Streaming
中
读取
Kafka
和查询外部存储,如Cassandra?我从
Kafka
获得消息
流
,我想对它应用Map操作,对于每个键,我想查询像Cassandra这样
的
数据
存储,并获得该键
的
更多信息,并在流上应用进一步
的
操作。
浏览 2
提问于2017-09-07
得票数 1
1
回答
从
Kafka
流式传输
后
对列值应用函数
、
、
我需要在从
Kafka
主题读取
流
之后,并在将其写入任何平台或表之前,对某些列应用函数。 .option("
kafka
.bootstrap.servers", bootStrapServers) .option("subscribe", topicName)AS STRING)").withColumn("jsonData",from_json
浏览 25
提问于2021-02-21
得票数 0
回答已采纳
2
回答
卡夫卡
流
州立商店干什么?
、
正如我从书中得到
的
,
Kafka
流
状态存储是一种存储键/值存储,用于
将
数据
存储到
Kafka
或过滤
后
。 为什么主题不能替代状态存储?
浏览 3
提问于2020-06-27
得票数 0
回答已采纳
1
回答
在Scala中使用dataset创建CSV
、
、
我已经从scala
中
的
数据
集创建了CSV文件。它正在创建CSV文件,但是它是0字节
的
。当通过dbutils.fs.head(csv_path)读取时,其给出
的
错误 "java.lang.IllegalArgumentException:无法指向目录: csv_path“ ```result_dataset.coalesce(1) .write.format("com.
databricks
.spark.csv") .option(“字符集”,"UTF
浏览 35
提问于2020-10-15
得票数 0
1
回答
使用Apache和kfaka
的
实时
数据
库
流
、
、
、
我正在设计一个火花
流
应用与卡夫卡。我有以下几个问题:
将
RDBMS表
中
的
数据
流到
kafka
,并使用Spark使用者使用Spark处理消息和处理。问题: 1.我
将
数据
从表流到
kafka
(键作为tablename,值作为表
数据
形式
的
JSON记录) --这是正确
的
体系结构吗?在spark使用者
中
,我试图使用DStream.foreachRDD(x =>
转换
浏览 0
提问于2017-01-31
得票数 0
1
回答
如何从PySpark DStream写到
Redis
?
、
、
、
、
我正在使用
Redis
2.3.1从
Kafka
中
读取一系列
的
值作为DStreams,我想对这些
数据
进行一些
转换
,比如取一个移动平均值,然后将其保
存到
PySpark
中
。说只有
数据
帧
可以从PySpark写入。幸运
的
是,DStream在运行时会定期生成RDD -所以我必须弄清楚如何
将
RDD
转换
为Dataframe。我试过了 total.foreachRDD(lambda r
浏览 32
提问于2019-06-22
得票数 0
1
回答
数据
库
中
csv格式到
Redis
散列格式
的
数据
传输
、
、
、
、
我有一个Azure系统,分为三个部分: 在
databricks
文件系统
中
安装存储
后
,需要处理一些
数据
。如何
将
位于
databricks
文件系统
中</e
浏览 11
提问于2020-11-09
得票数 1
回答已采纳
1
回答
将
DataStream
数据
保
存到
MongoDB /
将
DS
转换
为DF
、
、
、
我可以
将
数据
帧
保
存到
mongoDB,但是我在spark streaming
中
的
程序提供了
数据
流
( kafkaStream ),并且我无法将其保存在mongodb
中
,我也无法将此
数据
流
转换
为
数据
流
。我们非常感谢您提供
的
任何意见。org.apache.spark.streaming.StreamingContext import org.apache
浏览 0
提问于2016-05-10
得票数 0
1
回答
使用JDBC Source和
Redis
Stream
的
Spark
流
、
、
、
现在,这两个对象都在Spark上运行,但我似乎不能确定为什么
流
不工作。 也许是
redis
在写入流端时实现它
的
接收器
的
方式,也可能是我尝试做这项工作
的
方式。我在流媒体上找到
的
几乎所有示例都与Spark samples有关,比如文本流媒体或TCP,而我在关系
数据
库上找到
的
唯一解决方案是基于
Kafka
connect
的
,我现在不能使用它,因为该公司没有在
kafka
我每天加载Oracle
数据</em
浏览 21
提问于2020-08-12
得票数 2
1
回答
获取示例形式
的
流
数据
、
、
、
我正在尝试
将
一个函数(它与常规
的
火花
数据
处理)应用于
流
数据
。在应用此函数之前,我需要对给定
的
数据
使用.rdd.takeSample(),但这当然不适用于
流
数据
。我使用以下结构化
流
代码获取
流
数据
: .readStream \ .format("
kafka
") \.op
浏览 4
提问于2020-04-02
得票数 0
回答已采纳
1
回答
卡夫卡连接与溪流对决
、
、
我试着理解Connect给你买了什么
流
不给你
的
东西。我们有一个应用程序
的
一部分,我们想要使用一个主题并写到mariadb。为什么这是个坏主意?JDBC连接器给你买了什么?
浏览 0
提问于2019-01-18
得票数 11
回答已采纳
1
回答
Spark structured streaming -联合两个或多个流媒体源
、
、
、
我使用
的
是spark 2.3.2,在对来自
Kafka
的
2个或更多流媒体资源进行联合时遇到了一个问题。这些都是来自
Kafka
的
流媒体源,我已经将它们
转换
并存储在Dataframes
中
。理想情况下,我希望将此UNIONed
数据
帧
的
结果以parquet格式存储在HDFS
中
,甚至可能存储回
Kafka
中
。最终目标是以尽可能低
的
延迟存储这些合并
的</
浏览 52
提问于2019-07-02
得票数 1
回答已采纳
1
回答
Kafka
消费者诉Apache Flink
、
、
、
、
我做了一个poc,在其中我使用火花
流
读取来自
Kafka
的
数据
。但是我们
的
组织要么使用Apache或者
Kafka
使用者来读取Apache
中
的
数据
作为一个标准过程。在我
的
应用程序用例
中
,我需要从
kafka
读取
数据
,过滤json
数据
,并在cassandra中放置字段,因此建议使用
Kafka
使用者,而不是flink/其他<em
浏览 4
提问于2017-03-26
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券