消费记录

在上述 uppercase 函数中,我们将记录作为 Flux<String> 消费,然后将其作为 Flux<String> 生成。有时您可能需要以原始接收格式(即 ReceiverRecord)接收记录。下面就是一个这样的函数。

@Bean
public Function<Flux<ReceiverRecord<byte[], byte[]>>, Flux<String>> lowercase() {
    return s -> s.map(rec -> new String(rec.value()).toLowerCase());
}

在此函数中,请注意,我们将记录作为 Flux<ReceiverRecord<byte[], byte[]>> 消费,然后将其作为 Flux<String> 生成。ReceiverRecord 是基本的接收记录,它是 Reactor Kafka 中专用的 Kafka ConsumerRecord。当使用响应式 Kafka 绑定器时,上述函数将使您能够访问每个传入记录的 ReceiverRecord 类型。但是,在这种情况下,您需要为 RecordMessageConverter 提供自定义实现。默认情况下,响应式 Kafka 绑定器使用 MessagingMessageConverter,它从 ConsumerRecord 转换有效负载和头部。因此,当您的处理器方法接收到它时,有效负载已经从接收到的记录中提取并传递给方法,就像我们上面看到的第一个函数一样。通过在应用程序中提供自定义 RecordMessageConverter 实现,您可以覆盖默认行为。例如,如果您想将记录作为原始 Flux<ReceiverRecord<byte[], byte[]>> 消费,那么您可以在应用程序中提供以下 bean 定义。

@Bean
RecordMessageConverter fullRawReceivedRecord() {
    return new RecordMessageConverter() {

        private final RecordMessageConverter converter = new MessagingMessageConverter();

        @Override
        public Message<?> toMessage(ConsumerRecord<?, ?> record, Acknowledgment acknowledgment,
                Consumer<?, ?> consumer, Type payloadType) {
            return MessageBuilder.withPayload(record).build();
        }

        @Override
        public ProducerRecord<?, ?> fromMessage(Message<?> message, String defaultTopic) {
            return this.converter.fromMessage(message, defaultTopic);
        }

    };
}

然后,您需要指示框架为所需的绑定使用此转换器。以下是基于我们的 lowercase 函数的示例。

spring.cloud.stream.kafka.bindings.lowercase-in-0.consumer.converterBeanName=fullRawReceivedRecord"

lowercase-in-0 是我们 lowercase 函数的输入绑定名称。对于出站(lowercase-out-0),我们仍然使用常规的 MessagingMessageConverter

在上面的 toMessage 实现中,我们接收原始的 ConsumerRecord(由于我们在响应式绑定器上下文中,因此是 ReceiverRecord),然后将其包装在 Message 中。然后,作为 ReceiverRecord 的该消息有效负载将提供给用户方法。

如果 reactiveAutoCommitfalse(默认),则调用 rec.receiverOffset().acknowledge()(或 commit())以使偏移量被提交;如果 reactiveAutoCommittrue,则 flux 提供 ConsumerRecord。有关更多信息,请参阅 reactor-kafka 文档和 javadoc。

© . This site is unofficial and not affiliated with VMware.