腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
Scala
中
使用
SinkFunction
创建
我
自己
的
接收器
、
我
想
使用
scala
for Flink
创建
我
自己
的
Sink,为此
我
需要扩展接口
SinkFunction
。 但是
我
不能覆盖下面的调用方法。
我
是
Scala
的
新手,有没有什么可以弥补
我
缺失
的
东西呢?
我
在
scala
中看到
的
所有examples都
使用
浏览 48
提问于2019-12-20
得票数 0
回答已采纳
1
回答
如何在
使用
RowData时将DynamicTableSink转换成行
、
关于Flink
中
的
新sourceSinks接口,
我
有一个问题。
我
目前实现了一个新
的
自定义DynamicTableSinkFactory、DynamicTableSink、
SinkFunction
和OutputFormat。
我
以JDBC连接器为例,
使用
Scala
。 输入到
接收器
的
所有数据都具有Row类型。该框架提供运行时转换器,以便
接收器
仍然可以
在
公共数据结构上工作
浏览 5
提问于2021-01-15
得票数 0
回答已采纳
2
回答
如何在Flink
中
调试可序列化
的
异常?
、
、
我
遇到了几个可序列化
的
异常(),
我
在
Flink
的
internet和文档上做了一些搜索;有一些著名
的
解决方案,比如瞬态、扩展序列化等等。每次异常
的
来源都非常清楚,但在
我
的
例子
中
,
我
无法找到它到底在哪里没有序列化。class executor ( val sink:
SinkFunction
[List[
浏览 1
提问于2017-12-22
得票数 5
1
回答
是否可以将flink数据流
的
输出捕获到列表
、
我
是flink
的
新手,不知道这是正确
的
方法还是愚蠢
的
事情,
我
有一个字符串数据类型
的
数据流,
我
正在尝试将数据流
中
的
数据捕获到一个列表
中
,
我
正在尝试类似下面的方法 } }
我
浏览 10
提问于2020-10-09
得票数 0
1
回答
无法初始化自定义DataSink上
的
字段(Flink CEP)
、
、
、
我
对Apache Flink流API有一个问题。@RequiredArgsConstructor public class EventDataConsumer extends RichSinkFunction<EventData,将一个方法引用传
浏览 4
提问于2017-08-24
得票数 0
回答已采纳
1
回答
Flink检查点模式ExactlyOnce没有按预期工作
、
、
如果
我
的
理解是错误
的
,
我
将向flink道歉,
我
正在构建一个数据流应用程序,并且该流包含多个数据流,这些数据流检查传入
的
DataStream
中
是否存在所需
的
字段。
我
试图模拟在一个DataStream
中
是否发生任何异常,其他数据流不应该受到影响,因为
我
在其中一个流
中
显式抛出一个异常。在下面的示例
中
,为了简单起见,
我
使用
windows
浏览 1
提问于2020-10-27
得票数 0
回答已采纳
1
回答
生成
自己
的
数据
的
Flink流示例
、
早些时候
我
问过Flink
的
一个简单
的
hello world example。这给了我一些很好
的
例子! 然而,
我
想要一个更“流”
的
例子,我们每秒都会生成一个输入值。这在理想情况下是随机
的
,但即使每次都是相同
的
值也是可以
的
。 其目标是获得一个没有/最少外部接触
的
“移动”流。 因此
我
的
问题是: 如何在没有外部依赖
的
情况下显示Flink实际流数据?
我</
浏览 22
提问于2020-04-27
得票数 0
回答已采纳
1
回答
Apache异常: java.lang.IllegalStateException:尝试
使用
卸载
的
序列化洗牌描述符
、
、
我
在
集群上
使用
Flink。
在
提交任务时,
我
得到了以下例外:Kafka版本: 2.2.2object batchProcess { valbatch2feature_userId
浏览 5
提问于2022-06-26
得票数 0
1
回答
火花流卡夫卡
接收器
API - numPartitions
、
、
我们正在
使用
火花流-卡夫卡-0-8
接收器
。我们无法通过增加numPartitions来增加消耗事件
的
数量。增加numPartitions似乎不影响性能。KafkaUtils.createStream方法有一个topic_name到numPartitions映射,而每个分区应该在
自己
的
线程中
使用
。(topic -> 1),
我
希望
使用
scala
.collection.
浏览 4
提问于2017-12-26
得票数 0
1
回答
从
Scala
代码调用java泛型Java方法时类型不匹配
、
、
、
我
有一个有一个超类数据模型
的
n个Java类。类
的
列表是
Scala
方法
的
输入参数,
我
想在该方法
中
创建
resultStreams,并必须从process方法
创建
调用。你能写一下怎么解决吗?
我
试图
在
方法调用中
使用
_ <:SpecificRecordBase,SpecificRecordBase,但结果相同。extends SpecificRecordBase> getClas
浏览 2
提问于2020-02-06
得票数 0
回答已采纳
1
回答
Flink
中
卡桑德拉
的
RichSinkFunction
、
、
我
阅读了
使用
RichSinkFunction比直接调用DB方法
的
优点。因此,
我
决定写
我
自己
的
RichSinkFunction。
我
想在一个单独
的
类下调用这个方法,这个类应该传递代码中提到
的
3个参数。记录采用JSON格式。
我
可以通过解析和获取属性来管理这一点。但是如何将它传递给invoke方法,以及如何在整个类
中
传递session对象。而且,这是一种正确
的
方法吗?因为
浏览 4
提问于2022-01-05
得票数 1
1
回答
带有反馈环
的
Apache Flink流
如何在Flink流
中
实现反馈循环。换句话说,
我
如何才能编写一个也是
SinkFunction
的
SourceFunction?DataStream<Output> outputStream = controlSignal.flapMap(FlatMapFunction) 现在,
我
希望将outputStream发送到
接收器
,并根据一些逻辑将数据发送到ControlStream。一种方法是让ControlStream从卡夫卡和我可以从卡夫
浏览 0
提问于2018-05-17
得票数 1
回答已采纳
1
回答
无法
在
spark streaming应用程序
的
首选位置启动
接收器
我
计划在首选
的
位置发射
接收器
。
我
有一个包含10个工作节点
的
spark独立集群。
我
想根据我
的
规范在所有工作节点中启动4个
接收器
。为此,
我
在
客户
接收器
中
使用
以下代码。@Override
scala
.Option<String&g
浏览 3
提问于2016-12-23
得票数 0
1
回答
使用
Java OutputFormat发出
Scala
元组
、
、
、
我
正在尝试为ArangoDB编写一个自定义
的
ArangoDB。
我
使用
CassandraOutputFormat.java作为灵感,交换了相关
的
驱动程序和调用等等。
我
用Java编写了这篇文章,因为
我
找不到OutputFormat
的
Scala
示例。因此,该类
的
定义如下: public class ArangoOutputFormat<OUT extends Tuple> extends RichOutputF
浏览 3
提问于2016-09-09
得票数 1
回答已采纳
2
回答
如何从连续
的
RDDs构造DStream?
、
、
我
每隔5分钟就会从ElasticSearch读取数据到Spark。因此,每5分钟就会有一个RDD。
我
希望在这些RDDs
的
基础上构建一个DStream,这样
我
就可以得到过去1天,过去1小时,过去5分钟等数据
的
报告。为了构建DStream,
我
在
考虑
创建
我
自己
的
接收器
,但是spark
的
官方文档只提供了
使用
scala
或java来实现<e
浏览 0
提问于2016-03-15
得票数 0
2
回答
动态调用Flink运算符
、
、
最近,
我
开始学习流处理,并尝试
使用
Apache。
我
试图编写一个作业,从Kafka主题读取事件,可能执行一些无状态链式转换,并对另一个应用程序进行REST调用,以发布每个转换后
的
事件。RestSinkFunction<>()); //Custom sink function implementing org.apache.flink.streaming.api.functions.sink.
SinkFunction
env.execute("Confused Job&
浏览 2
提问于2019-12-10
得票数 0
1
回答
通过C# .NET Framework托管数据工厂将数据从Blob复制到Azure SQL时忽略坏行
、
、
、
我
跟随从Blob
中
的
平面文件加载Azure
中
的
数据。 此方法需要一个C# .NET框架控制台应用程序来
创建
/管理Blob、AzureSQL
接收器
和dataset。唯一
的
问题是,对于大
的
、杂乱
的
数据文件,
我
不可避免地会遇到一些行,这些行包含一个额外
的
分隔符,或者以某种方式出现格式错误。数据太大,无法在上传到blob之前
在
本地进行清理。有一个如何
使用
浏览 1
提问于2020-04-04
得票数 1
1
回答
有没有办法了解java/
scala
代码
中
的
作业
使用
了哪些执行器?
我
在
一个纱线集群
的
所有执行器之间均匀分配流
接收器
时遇到了问题。
我
有一个包含8个执行器
的
yarn集群,
我
创建
了8个流自定义
接收器
,spark应该为每个执行器启动一个
接收器
。然而,这并不总是发生,有时所有的
接收器
都是
在
同一个执行器上启动
的
(这里是jira
的
bug:)。所以我
的
想法是运行一个虚拟作业,获取该作业
中
涉及
浏览 1
提问于2015-09-22
得票数 1
1
回答
在
Scala
中
创建
我
自己
的
Functor类型类
、
、
、
所以我想做一个
自己
的
Functor来解决类型化问题。然而,
我
遇到了一堆问题。最终
的
目标是能够说出像Seq(1,2,3).fmap(2*_)这样
的
东西。
我
想出了这个trait,
我
在
谷歌上
的
所有搜索都(差不多)都同意: def fmap[A, B](r: F[A], f: A => B): F[B]
我
假设没有简单
的
方法将但我
在
浏览 0
提问于2017-10-10
得票数 1
1
回答
如何将流聚集
在
完全输出模式下保存到Parquet?
、
、
、
我
已经
使用
完全模式将聚合应用于流数据格式。为了
在
本地保存数据格式,
我
实现了foreach
接收器
。
我
能够以文本形式保存数据。但我需要用Parquet格式保存它。columnName))
我
怎样才能做到这一点
浏览 0
提问于2017-09-26
得票数 5
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
我推荐一下我自己在使用的软件(1)
在微信中,你会创建自己的视频号吗?不会我来教你!
Flink 支持哪些数据源和数据接收器?
在Scratch中也可以使用列表?教你如何创建一个好用的列表!
Spark Streaming 2.2.0 Input DStreams和Receivers
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券