我有一个部署到src/main/resources的jks文件。在我的global.xml中,我将密码设置为server_truststore.jks和path。当我部署到任意点时,我得到以下错误: 1 or more replicas in unexpected state: [Kubernetes] CrashLoopBackOff
- Resource server_truststore.jks could not be found 运行时: 4.3平台:运行时Fabric 在这一点上我不知道该怎么做。我想我无法配置我的TLS..。 global.xml代码片段: <kafka
我是新来的。Im编写一个python程序来读取kafka主题的数据,并将数据打印到stdout。我跟踪了链接。但由于版本错配,我一直看到NoSuchMethodError。我添加了在上可用的flink-sql连接器。有人能帮我举个合适的例子来做这个吗?以下是我的代码
import json
import os
from pyflink.common import SimpleStringSchema
from pyflink.datastream import StreamExecutionEnvironment
from pyflink.datastream.connectors impo
我在centos 7(汇合)上安装了Apache,我试图在分布式模式下运行filestream连接,但是我得到了以下错误:
[2017-08-10 05:26:27,355] INFO Added alias 'ValueToKey' to plugin 'org.apache.kafka.connect.transforms.ValueToKey' (org.apache.kafka.connect.runtime.isolation.DelegatingClassLoader:290)
Exception in thread "main" o
我正在尝试编写一个kafka连接器,将kafka主题中的数据移动到mongodb(接收器)中。因为我已经在连接-json-Standalone.properties文件中添加了所需的配置,而且还在kafka文件夹中的connec-mongo-sink.properties文件中添加了所需的配置。在此过程中,在启动连接器时,我将获得以下异常
[2019-07-23 18:07:17,274] INFO Started o.e.j.s.ServletContextHandler@76e3b45b{/,null,AVAILABLE} (org.eclipse.jetty.server.handler
我有一个码头形象,位于这里的,其中有所有的好东西,我正在使用的开发。我尝试添加一个JDBC连接器,以插入Kafka主题,但是我得到了这个错误。我用Java做了一个很好的消费者,但是我想使用KafkaConnect
Invalid value java.sql.SQLException: No suitable driver found for jdbc:sqlserver://servername for configuration Couldn't open connection to jdbc:sqlserver://servername
name=JdbcSourceConnec
我正在尝试使用Kafka Connect Elasticsearch连接器,但没有成功。它正因以下错误而崩溃:
[2018-11-21 14:48:29,096] ERROR Stopping after connector error (org.apache.kafka.connect.cli.ConnectStandalone:108)
java.util.concurrent.ExecutionException: org.apache.kafka.connect.errors.ConnectException: Failed to find any class that impleme
我们有一个Kafka Connect项目,我们依赖于一个从gitlab获取数据的。这个图书馆依赖于泽西。Kafka也使用Jersey。当启动连接器时,我们收到一个类转换错误,这似乎是由于jersey具有某种全局发现模式导致的,当server和client在同一个类路径中时,该模式会发生冲突。
org.gitlab4j.api.GitLabApiException: org.glassfish.jersey.server.wadl.internal.WadlAutoDiscoverable cannot be cast to org.glassfish.jersey.internal.spi.A
试图连接到Kafka集群并从一个主题向雪花写入数据。
我得到的错误是:
java.util.concurrent.ExecutionException: org.apache.kafka.connect.errors.ConnectException: Failed to find any class that implements Connector and which name matches com.snowflake.kafka.connector.SnowflakeSinkConnector
available connectors are: PluginDesc{klass=cl
当数据库关闭时,我试图测试和评估Kafka JDBC Sink连接器的行为。
当数据库关闭时,在Kafka中收到新消息时,将报告以下错误:
INFO Unable to connect to database on attempt 1/3. Will retry in 10000 ms. (io.confluent.connect.jdbc.util.CachedConnectionProvider:91)
com.microsoft.sqlserver.jdbc.SQLServerException: Unable to access availability database 'G