at org.codehaus.jackson.map.ObjectMapper.:1065) at org.apache.avro.Schema.parse(Schema.java:895)
at org.avro.example.SimpleAvro.AvroExample.avrocreate(AvroDataE
val schema: Schema = ...val sink: StreamingFileSink[GenericRecordorg.apache.flink.streaming.api.scala.DataStream.clean(DataStream.scala:1168)
at org.apache.flink.streaming.api.scala.DataStream.mapcom.att.vdcs.StreamingJobKafk
我一直在尝试在oozie上运行一个Avromap-reduce。我在workflow.xml中指定了映射器和减法器类,并提供了其他配置。但是它给出了一个
java.lang.RunTime Exception - class mr.sales.avro.etl.SalesMapper not org.apache.hadoop.mapred.Mapper我从这个异常中猜测到的是,oozie要求映射器是org.apache.hadoop.mapred.Mapper的子类,但是Avro映射器有一个不同的签名-它们扩展了org
我有一个表示avro模式的ArrayByte。我正试着把它写到Hdfs作为avro文件与spark。代码如下: .saveAsHadoopFile(<init>(StringReader.java:50) at org.apache.avro.Schema$Parser.parse(Schema.java:95