当将事件发布到kafka主题时,我会遇到以下异常
org.apache.kafka.common.errors.RecordTooLargeException: The message is 2063239 bytes when serialized which is larger than the maximum request size you have configured with the max.request.size configuration.我看了https://github.com/spring-cloud/spring-cloud-stream/issues/587
我正在使用下面的spring云版本,没有在我的pom中为spring-cloud-stream-kafka-binder提供任何版本。
<spring-cloud-stream.version>Brooklyn.SR3</spring-cloud-stream.version>
<spring-cloud.version>Brixton.SR7</spring-cloud.version>,为了使用这个属性,我应该使用什么spring云流版jar?
发布于 2017-03-22 21:59:23
对于布鲁克林(binder 1.1.2),使用通用的configuration属性地图.
spring.cloud.stream.kafka.binder.configuration.max.request.size=对于全局设置或
spring.cloud.stream.kafka.bindings.<dest>.producer.configuration.max.request.size=对于特定的目的地(例如output)。
https://stackoverflow.com/questions/42962552
复制相似问题