Springboot使用kafka的两种方式

 更新时间:2023年11月08日 09:02:15   作者:香菜菜  
在公司用kafka比较多,今天整理下Springboot使用kafka的两种方式,Kafka作为一个消息发布订阅系统,就包括消息生成者和消息消费者,文中通过代码示例介绍的非常详细,具有一定的参考价值,需要的朋友可以参考下

1、创建实验项目

第一步创建一个Springboot项目,引入spring-kafka依赖,这是后面的基础。

        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka</artifactId>
        </dependency>

kafka配置

spring:
  kafka:
    bootstrap-servers: kafka.tyjt.com:9092
    consumer:
      auto-offset-reset: earliest
      group-id: sharingan-group
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.ByteArrayDeserializer

2、自动档

为了方便使用kafka,Springboot提供了spring-kafka 这个包,在已开始我们已经导入了,下面直接使用吧

Spring项目里引入Kafka非常方便,使用kafkaTemplate(Producer的模版)+@KafkaListener(Consumer的监听器)即可完成生产者-消费者的代码开发

2.1 监听listener

为了使创建 kafka 监听器更加简单,Spring For Kafka 提供了 @KafkaListener 注解,

@KafkaListener 注解配置方法上,凡是此注解的方法就会被标记为是 Kafka 消息监听器,所以可以用

@KafkaListener 注解快速创建消息监听器。

@Configuration
@EnableKafka
public class ConsumerConfigDemo {
    @KafkaListener(topics = {"test"},groupId = "group1")
    public void kafkaListener(String topic,String message){
        System.out.println("消息:"+message);
    }
}

2.2 发布消息

发布消息通过kafkaTemplate,kafkaTemplate是spring-kafka 的封装

@Slf4j
@Service
public class KafkaProducerService {
    @Autowired
    private KafkaTemplate<String, String> kafkaTemplate;
    public void sendMessage(String topic, String key, String message) throws Exception {
        kafkaTemplate.send(topic,key,message);
    }
}

kafkaTemplate 有很多不同的发送方法,根据自己的需求使用,这里只记录最简单的状况。

3、手动档

3.1 手动创建consumer

关于consumer的主要的封装在ConcurrentKafkaListenerContainerFactory这个里头,

本身的KafkaConsumer是线程不安全的,无法并发操作,这里spring又在包装了一层,根据配置的spring.kafka.listener.concurrency来生成多个并发的KafkaMessageListenerContainer实例

package com.tyjt.sharingan.kafka;
 
import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.Consumer;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.listener.AcknowledgingConsumerAwareMessageListener;
import org.springframework.kafka.listener.ConcurrentMessageListenerContainer;
import org.springframework.kafka.listener.ContainerProperties;
import org.springframework.kafka.support.Acknowledgment;
import org.springframework.stereotype.Component;
 
import javax.annotation.Resource;
import java.util.Map;
import java.util.concurrent.ConcurrentHashMap;
 
/**
 * 启动kafka consumer
 *
 * @author 种鑫
 * @date 2023/10/18 17:26
 */
@EnableKafka
@Component
@Slf4j
public class KafkaConsumerMgr {
    @Resource
    ConcurrentKafkaListenerContainerFactory<String, byte[]> containerFactory;
 
    Map<String, ConcurrentMessageListenerContainer<?, ?>> containerMap = new ConcurrentHashMap<>();
    public void startListener(KafkaProtoConsumer kafkaConsumer) {
        //  停止相同的
        if (containerMap.containsKey(kafkaConsumer.getTopic())) {
            containerMap.get(kafkaConsumer.getTopic()).stop();
        }
        ConcurrentMessageListenerContainer<String, byte[]> container = createListenerContainer(kafkaConsumer);
        container.start();
        containerMap.put(kafkaConsumer.getTopic(), container);
    }
 
    private ConcurrentMessageListenerContainer<String, byte[]> createListenerContainer(KafkaProtoConsumer consumer) {
        ConcurrentMessageListenerContainer<String, byte[]> container = containerFactory.createContainer(consumer.topic());
        container.setBeanName(consumer.group() + "-" + consumer.topic());
        container.setConcurrency(consumer.getPartitionCount());
        consumer.deployContainer(container);
        // 防止被修改的配置
        ContainerProperties containerProperties = container.getContainerProperties();
        containerProperties.setMessageListener(new Listener<>(consumer));
        containerProperties.setAsyncAcks(false);
        containerProperties.setAckMode(ContainerProperties.AckMode.MANUAL_IMMEDIATE);
        containerProperties.setGroupId(consumer.group());
        return container;
    }
 
    /**
     * 定义监听
     */
    private static class Listener<T> implements AcknowledgingConsumerAwareMessageListener<String, T> {
        private final KafkaConsumer<T> kafkaConsumer;
 
        public Listener(KafkaConsumer<T> consumer) {
            this.kafkaConsumer = consumer;
        }
 
        @Override
        public void onMessage(ConsumerRecord<String, T> data, Acknowledgment acknowledgment, Consumer<?, ?> consumer) {
            log.info("group【{}】接收到来自topic【{}】的消息", kafkaConsumer.group(), data.topic());
            // 处理数据
            kafkaConsumer.process(data.value());
            // 提交offset
            log.info("group【{}】提交topic【{}】的offset", kafkaConsumer.group(), data.topic());
            consumer.commitSync();
        }
    }
}

这个可以根据需要动态的启动消费者

3.2 手动创建KafkaProducer

@Bean
    public KafkaProducer<String, byte[]> kafkaProducer() {
 
        Properties props = new Properties();
 
        // 这里可以配置几台broker即可,他会自动从broker去拉取元数据进行缓存
        props.put("bootstrap.servers", bootstrapServers);
        // 这个就是负责把发送的key从字符串序列化为字节数组
        props.put("key.serializer", keySerializer);
        // 这个就是负责把你发送的实际的message从字符串序列化为字节数组
        props.put("value.serializer", valueSerializer);
        // 默认是32兆=33554432
        props.put("buffer.memory", bufferMemory);
        // 一般来说是要自己手动设置的,不是纯粹依靠默认值的,16kb
        props.put("batch.size", batchSize);
        // 发送一条消息出去,100ms内还没有凑成一个batch发送,必须立即发送出去
        props.put("linger.ms", lingerMs);
        // 这个是说你可以发送的最大的请求的大小 默认是1m=1048576
//        props.put("max.request.size", 10485760);
        // follower有没有同步成功你就不管了
        props.put("acks", acks);
        // 这个重试,一般来说,给个3次~5次就足够了,可以cover住一般的异常场景
        props.put("retries", retries);
        // 每次重试间隔100ms
        props.put("retry.backoff.ms", retryBackOffMs);
 
        props.put("max.in.flight.requests.per.connection", maxInFlightRequestsPerConnection);
 
        return new KafkaProducer<>(props);
    }

4、总结

4.1 区别

KafkaProducer是Kafka-client提供的原生Java Kafka客户端发送消息的API。

KafkaTemplate是Spring Kafka中提供的一个高级工具类,用于可以方便地发送消息到Kafka。它封装了KafkaProducer,提供了更多的便利方法和更高级的消息发送方式。

org.apache.kafka.clients.producer.KafkaProducer

org.springframework.kafka.core.KafkaTemplate

4.2 场景选择

在spring应用中如果需要订阅kafka消息,通常情况下我们不会直接使用kafka-client, 而是使用更方便的一层封装spring-kafka。

不需要动态的选择时候可以使用Spring-kafka,在需要动态创建时可以使用kafka-client的api进行处理

4.3 ConsumerRecord和ProducerRecord

两者都是kafka-client的类,在Spring-kafka中依然可以使用,可以发送和接受

以上就是Springboot使用kafka的两种方式的详细内容,更多关于Springboot使用kafka的资料请关注脚本之家其它相关文章!

相关文章

  • Window中安装构建神器Jenkins详解

    Window中安装构建神器Jenkins详解

    Jenkins是一款开源 CI&CD 软件,用于自动化各种任务,包括构建、测试和部署软件。支持各种运行方式,可通过系统包、Docker 或者通过一个独立的 Java 程序。是解放人工集成部署的自动化构建神器
    2021-07-07
  • Java C++实现相同MD5加密算法的方式

    Java C++实现相同MD5加密算法的方式

    这篇文章主要介绍了Java与C++实现相同MD5加密算法的方法,需要的朋友可以参考下面文章内容
    2021-09-09
  • 老生常谈设计模式之动态代理

    老生常谈设计模式之动态代理

    下面小编就为大家带来一篇老生常谈设计模式之动态代理。小编觉得挺不错的,现在就分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2017-06-06
  • 使用Java应用程序添加或删除 PDF 中的附件

    使用Java应用程序添加或删除 PDF 中的附件

    当我们在制作PDF文件或者PPT演示文稿的时候,为了让自己的文件更全面详细,就会在文件中添加附件,那么如何添加或删除PDF中的附件呢,今天通过本文给大家详细讲解,需要的朋友参考下吧
    2023-01-01
  • java.lang.annotation包详细介绍

    java.lang.annotation包详细介绍

    java.lang.annotation 包是 Java 标准库中的一个核心包,专门用于定义和支持 Java 注解(Annotation),这篇文章主要介绍了java.lang.annotation包介绍,需要的朋友可以参考下
    2024-07-07
  • Java设计模式之浅谈外观模式

    Java设计模式之浅谈外观模式

    这篇文章主要介绍了Java设计模式之外观模式的相关资料,需要的朋友可以参考下
    2022-09-09
  • Java实现图片翻转以及任意角度旋转

    Java实现图片翻转以及任意角度旋转

    这篇文章主要为大家详细介绍了Java实现图片翻转以及任意角度旋转,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2019-01-01
  • Java编程实现游戏中的简单碰撞检测功能示例

    Java编程实现游戏中的简单碰撞检测功能示例

    这篇文章主要介绍了Java编程中的简单碰撞检测功能,涉及java针对坐标点的相关数学运算操作技巧,需要的朋友可以参考下
    2017-10-10
  • 举例讲解Java中Piped管道输入输出流的线程通信控制

    举例讲解Java中Piped管道输入输出流的线程通信控制

    Java中的PipedWriter、PipedReader类管道的读写依赖于PipedOutputStream、PipedInputStream两个管道输入输出类,这里我们将来举例讲解Java中Piped管道输入输出流的线程通信控制:
    2016-06-06
  • Java判断ip是否为IPV4或IPV6地址的多种方式

    Java判断ip是否为IPV4或IPV6地址的多种方式

    本文主要介绍了Java判断ip是否为IPV4或IPV6地址的多种方式,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2023-03-03

最新评论