使用JDBC同步连接器获取以下错误。
ERROR WorkerSinkTask{id=12sink-0} Task threw an uncaught and unrecoverable exception. Task is being killed and will not recover until manually restarted. Error: Cannot ALTER TABLE "new1501"."test"."patient3" to add missing field SinkRecordField{schema=Sche
我想在confluent上使用JDBC连接器。当我开始与合流CLI连接时,它就不起作用了。
confluent local start connect
它给出了这样的错误:
Caused by: java.sql.SQLException: No suitable driver found for jdbc:oracle:thin:@10.10.10.10:1954/MYSERVICE
我停止连接并手动启动connect-distributed或独立,这会产生相同的错误
./bin/connect-distributed etc/schema-registry/connect-avro-di
我正在尝试使用kafka connect jdbc从DB2源数据到kafka主题,但在尝试运行应用程序时,我看到下面的错误,我认为这是执行已配置的连接器查询的原因,这就是kafka主题为空的原因,下面是完整的错误详细信息 [2019-05-20 09:56:16,832] ERROR Failed to get current time from DB using query values(CURRENT_TIMESTAMP) on database DB2 (io.confluent.connect.jdbc.util.JdbcUtils:264) 下面是更多异常堆栈跟踪 io.confl
我尝试在sqlite中建立一个包含两个表的数据库。我的表中有一次有一个时间戳列。我正在尝试实现时间戳模式来捕获数据库中的增量更改。Kafka连接失败,错误如下:
ERROR Failed to get current time from DB using Sqlite and query 'SELECT
CURRENT_TIMESTAMP'
(io.confluent.connect.jdbc.dialect.SqliteDatabaseDialect:471)
java.sql.SQLException: Error parsing time stamp
Caused
当数据库关闭时,我试图测试和评估Kafka JDBC Sink连接器的行为。
当数据库关闭时,在Kafka中收到新消息时,将报告以下错误:
INFO Unable to connect to database on attempt 1/3. Will retry in 10000 ms. (io.confluent.connect.jdbc.util.CachedConnectionProvider:91)
com.microsoft.sqlserver.jdbc.SQLServerException: Unable to access availability database 'G
我正在尝试使用Redshift Sink Connector将Redshift连接到Kafka集群。我目前正在使用独立模式进行测试。
然而,我一直收到下面的错误。我相信配置文件是正确的,因为JdbcDbWriter连接成功。我还检查了来自Kafka的消息不是空的。我还有什么要检查的吗?非常提前感谢您。
[2020-05-18 08:08:30,915] INFO Attempting to open connection #1 to Redshift (io.confluent.connect.aws.redshift.jdbc.util.CachedConnectionProvider:87
我正在尝试使用JDBC连接器将数据写入雪花,但我一直收到下面的错误,提示在数据库中找不到表(由于雪花不支持自动创建,所以我禁用了它)。
[2021-11-08 18:52:19,300] INFO [test-connector-jdbc|task-0] Checking Generic dialect for existence of TABLE "test_database"."test_schema"."test_table" (io.confluent.connect.jdbc.dialect.GenericDatabaseDialect
我的汇流接收器属性:
name=sink-oracle
connector.class=io.confluent.connect.jdbc.JdbcSinkConnector
tasks.max=1
# The topics to consume from - required for sink connectors like this one
topics=ersin_test
# Configuration specific to the JDBC sink connector.
# We want to connect to a SQLite database stored in t
我正在尝试使用并配置JDBC接收器连接器。
但是连接器正在抛出错误:
[2022-08-31 00:21:21,583] INFO Unable to connect to database on attempt 1/3. Will retry in 10000 ms. (io.confluent.connect.jdbc.util.CachedConnectionProvider)
java.sql.SQLException: **No suitable driver** found for **jdbc:hive2**://XX.XX.XX.XX:10002/test;auth=noSas
我正在尝试将数据从json (SFTPJsonSourceConnector)提取到MySQL DB (JdbcSinkConnector)。请在输入和配置文件下面找到并得到以下错误。
[2022-07-31 00:03:20,239] ERROR [local-mysql-snik|task-2] WorkerSinkTask{id=local-mysql-snik-2} Task threw an uncaught and unrecoverable exception. Task is being killed and will not recover until manually re