我试图为每个绑定设置valueSerde,但是只考虑默认的值。
AppSerde类
public class AppSerdes {
public static final class DepartmentSerde extends WrapperSerde<Department> {
public DepartmentSerde() {
super(new ProtobufSerializer<>(), new ProtobufDeserializer<>(Department.class));
启动流应用程序(使用卡夫卡流)失败时使用"java.lang.IllegalStateException:这不应该发生,因为headers()应该只在处理记录时调用“
这似乎只有当我启动应用程序时,在主题中已经有数据时才会发生。如果主题是空的,并且我开始将数据推送给它,那么一切都很好。
有人知道为什么会发生这种事吗?
谢谢
This should not happen as headers() should only be called while a record is processed
java.lang.IllegalStateException: This should no
我们在kotlin中有一个org.apache.kafka:kafka-streams:3.2.3应用程序,并从org.apache.kafka:kafka-streams:3.3.1切换到KStreams,现在在运行时收到以下警告:
WARN org.apache.kafka.streams.internals.metrics.ClientMetrics - Error while loading kafka-streams-version.properties
java.lang.NullPointerException: inStream parameter is null
a
我们正在运行kafka流应用程序和频率,运行在堆外内存问题上。我们的应用程序被部署,kubernetes吊舱继续重新启动。
我正在做一些调查,发现我们可以通过实现RocksDBConfigSetter来限制堆外内存,如下面的示例所示。
public static class BoundedMemoryRocksDBConfig implements RocksDBConfigSetter {
// See #1 below
private static org.rocksdb.Cache cache = new org.rocksdb.LRUCache(TOTAL_OFF_HEAP_
我使用openjdk:8-高寒来部署Kafka应用程序。我使用的是窗口,它崩溃时有以下错误:
Exception in thread "app-4a382bdc55ae-StreamThread-1" java.lang.UnsatisfiedLinkError: /tmp/librocksdbjni94709417646402513.so: Error loading shared library ld-linux-x86-64.so.2: No such file or directory (needed by /tmp/librocksdbjni9470941764640
我有一个本地的码头实例,3个动物园管理员和3个卡夫卡经纪人运行1.0.0,以确保更新我们的环境将如预期的那样工作。我在kafka 1.0.0上创建了一个流处理器,它不消耗也不产生任何主题--它只是简单地初始化自己。
当我试图运行这个处理器时,我会收到以下错误消息:
Exception in thread "main" org.apache.kafka.streams.errors.BrokerNotFoundException:
Could not find any available broker.
Check your StreamsConfig set
我正在尝试构建一个事件驱动的应用程序。这是一个要求,一些服务将只使用Kafka事件来存储信息,所以我使用Kafka表。
我有两个服务共享相同的Kafka表,这是一个复杂的业务逻辑,所以我希望确保相同的代码构建表。
我的问题是:同一个Kafka Table的不同实例可以共享同一个客户端id吗?
我已经构建了这个示例,它只运行过一次。但现在我遇到了一些问题。它总是被赋予一个异常:The state store, topic-name, may have migrated to another instance.
我的两个服务都运行在同一台机器上,没有容器。
我正在配置我的Kafka流:
Prope
对于Kafka streams,我面临着一个非常奇怪的问题,当重平衡发生时,我的kafka streams应用程序一直被以下错误反复出现在日志中:
org.apache.kafka.streams.errors.LockException: stream-thread [metricsvc-metric-space-aggregation-9f4389a2-85de-43dc-a45c-3d4cc66150c4-StreamThread-1] task [0_13] Failed to lock the state directory for task 0_13
at org.apac
我正在运行一个有7个节点和大量流处理的Kafka集群。现在我在我的Kafka Streams应用程序中看到了不常见的错误,比如在高输入率下:
[2018-07-23 14:44:24,351] ERROR task [0_5] Error sending record to topic topic-name. No more offsets will be recorded for this task and the exception will eventually be thrown (org.apache.kafka.streams.processor.internals.RecordC
我有一个由主题'A‘消耗的Kafka Streams应用程序,它有10个分区,每秒大约有10k条消息。我不知道什么对我的申请会更好。
To run multiple Kafka Streams application instances with same consumer group.
OR
To run single kafka streams application with more num.stream.threads
在启动应用程序时,在Kafka流上出现了一些奇怪的错误。
java.lang.IllegalArgumentException: Illegal base64 character 7b
at java.base/java.util.Base64$Decoder.decode0(Base64.java:743)
at java.base/java.util.Base64$Decoder.decode(Base64.java:535)
at java.base/java.util.Base64$Decoder.decode(Base64.java:558)
at o