您能提供一个使用SparklyR stream_read_jdbc()
的示例吗
列名(sc,
,stream_read_jdbc= NULL,列= NULL,选项=列表(),...)
checkpoint stream_write_jdbc(x,
= c("append","complete","update"),stream_write_jdbc= stream_trigger_interval(),checkpoint= file.path("checkpoints",random_string("")),options = list(),...)
最好是连接到Oracle?如果示例使用任何其他可以使用的数据库。为什么在从JDBC读取数据时会有一个文件的路径参数?它不是指向来自数据库而不是来自文件系统的源吗?
发布于 2018-10-25 23:57:17
而spakrlyr
确实提供了以下功能:
stream_read_jdbc
stream_write_jdbc
这实际上是一段死代码,因为Spark Structured Streaming不支持使用JDBC源代码进行流式读写。
https://stackoverflow.com/questions/52990268
复制相似问题