使用JDBC同步连接器获取以下错误。
ERROR WorkerSinkTask{id=12sink-0} Task threw an uncaught and unrecoverable exception. Task is being killed and will not recover until manually restarted. Error: Cannot ALTER TABLE "new1501"."test"."patient3" to add missing field SinkRecordField{schema=Sche
我正在尝试使用kafka connect jdbc从DB2源数据到kafka主题,但在尝试运行应用程序时,我看到下面的错误,我认为这是执行已配置的连接器查询的原因,这就是kafka主题为空的原因,下面是完整的错误详细信息 [2019-05-20 09:56:16,832] ERROR Failed to get current time from DB using query values(CURRENT_TIMESTAMP) on database DB2 (io.confluent.connect.jdbc.util.JdbcUtils:264) 下面是更多异常堆栈跟踪 io.confl
我使用的是kafka jdbc接收器连接器,它从主题插入数据到SQL Server数据库。由于mssql中的某些问题,连接器已停止,并出现错误:
Caused by: org.apache.kafka.connect.errors.ConnectException: com.microsoft.sqlserver.jdbc.SQLServerException: The TCP/IP connection to the host mssql_ip , port 1433 has failed. Error: "connect timed out.
我的问题是,一旦SQL Server启
在阅读documentation of this connector时,并没有提到这个特性。 那么,这个连接器能保证它不会在代理崩溃或任何可能发生的情况下产生重复的记录吗? 我们是否必须像使用any other Kafka Producer (enable.idempotence: true)一样配置一些东西来获得补偿?
当数据库关闭时,我试图测试和评估Kafka JDBC Sink连接器的行为。
当数据库关闭时,在Kafka中收到新消息时,将报告以下错误:
INFO Unable to connect to database on attempt 1/3. Will retry in 10000 ms. (io.confluent.connect.jdbc.util.CachedConnectionProvider:91)
com.microsoft.sqlserver.jdbc.SQLServerException: Unable to access availability database 'G
我正在尝试使用Redshift Sink Connector将Redshift连接到Kafka集群。我目前正在使用独立模式进行测试。
然而,我一直收到下面的错误。我相信配置文件是正确的,因为JdbcDbWriter连接成功。我还检查了来自Kafka的消息不是空的。我还有什么要检查的吗?非常提前感谢您。
[2020-05-18 08:08:30,915] INFO Attempting to open connection #1 to Redshift (io.confluent.connect.aws.redshift.jdbc.util.CachedConnectionProvider:87