我是Scala和Apache的初学者,但到目前为止,一切都对我有利。我正在尝试使用从我的Flink应用程序序列化到AVRO的Kafka事件。我阅读了文档()并搜索了许多小时,但我仍然在同一页上。我有一个case类case class URLResponse(status: int, domain: String, url: String, queue: String, html: Stringschemas.URLResponse] do not conform to method fo
我使用泛型不是为了重用代码,而且我对类型泛型缺乏理解。我有一个类编写器(来自另一个库的java代码)。public class Writer<T>public class FileWriter<D>{
FileWriter(WriterfunDoSomethingExtra(writer: FileWriter<in <
我正在使用Flink,并且有一个JSON字符串流到达我的系统,其中包含动态变化的字段和嵌套字段。所以我不能模拟这个传入的JSON并将其转换为静态POJO,而必须依赖于Map。我的第一个转换是使用GSON解析将JSON字符串流转换为Map对象流,然后将map包装在一个名为Data的DTO中。Data(map); // Data has getters, setters for the map and implements Serial
我正在使用一些API,它确实接受DataStream[T],如果我传递给他们一个DataStream[T] with Product with Serializable,我就会得到一个编译时错误。* found : org.apache.flink.streaming.api.scala.DataStream[Either[String,Int] with Product with Serializable]
* [error] required: org.apache.flink.streaming.api.scala.D