在kafka源连接器属性文件中有以下sql查询:
query=SELECT * FROM JENNY.WORKFLOW where ID = '565231'
如果我在中运行相同的查询,它可以很好地工作并获取结果。但是,如果我在"jdbc_workflow_connect.properties“中使用相同的查询,则会得到以下错误:
(io.confluent.connect.jdbc.source.JdbcSourceTaskConfig:223)
[2018-09-19 12:32:15,130] INFO WorkerSourceTask{id=Workflow-D
我尝试在sqlite中建立一个包含两个表的数据库。我的表中有一次有一个时间戳列。我正在尝试实现时间戳模式来捕获数据库中的增量更改。Kafka连接失败,错误如下:
ERROR Failed to get current time from DB using Sqlite and query 'SELECT
CURRENT_TIMESTAMP'
(io.confluent.connect.jdbc.dialect.SqliteDatabaseDialect:471)
java.sql.SQLException: Error parsing time stamp
Caused
我有一个Oracle SQL查询:
SELECT * FROM
(SELECT SO_ORDER_KEY,QUEUE_TYPE,SYS_NO,
DENSE_RANK() OVER (PARTITION BY SO_ORDER_KEY ORDER BY SYS_NO DESC) ORDER_RANK
FROM TSY940)
WHERE ORDER_RANK=1;
在中运行时,它返回所需的结果。
由于某些原因,当我在kafka-connect属性中使用此查询时,我将得到
ERROR Failed to run query for table TimestampInc
我使用的是kafka jdbc接收器连接器,它从主题插入数据到SQL Server数据库。由于mssql中的某些问题,连接器已停止,并出现错误:
Caused by: org.apache.kafka.connect.errors.ConnectException: com.microsoft.sqlserver.jdbc.SQLServerException: The TCP/IP connection to the host mssql_ip , port 1433 has failed. Error: "connect timed out.
我的问题是,一旦SQL Server启
使用JDBC同步连接器获取以下错误。
ERROR WorkerSinkTask{id=12sink-0} Task threw an uncaught and unrecoverable exception. Task is being killed and will not recover until manually restarted. Error: Cannot ALTER TABLE "new1501"."test"."patient3" to add missing field SinkRecordField{schema=Sche
我正在尝试使用Redshift Sink Connector将Redshift连接到Kafka集群。我目前正在使用独立模式进行测试。
然而,我一直收到下面的错误。我相信配置文件是正确的,因为JdbcDbWriter连接成功。我还检查了来自Kafka的消息不是空的。我还有什么要检查的吗?非常提前感谢您。
[2020-05-18 08:08:30,915] INFO Attempting to open connection #1 to Redshift (io.confluent.connect.aws.redshift.jdbc.util.CachedConnectionProvider:87
我正在使用KSQL进行聚合,需要在MariaDB中持久化输出表。我已经建立了MariaDB和JdbcSinkConnector。不幸的是,水槽对我不起作用。
这是KSQL中的表结构,我想在MariaDB中转储它:
Field | Type
--------------------------------------------
a | VARCHAR(STRING) (primary key)
b | VARCHAR(STRING) (primary key)
c | VARC