SpringBoot集成Kafka的步驟
SpringBoot集成Kafka
本篇主要講解SpringBoot 如何集成Kafka ,并且簡單的 編寫了一個(gè)Demo 來測試 發(fā)送和消費(fèi)功能
前言
選擇的版本如下:
springboot : 2.3.4.RELEASE
spring-kafka : 2.5.6.RELEASE
kafka : 2.5.1
zookeeper : 3.4.14
本Demo 使用的是 SpringBoot 比較高的版本 SpringBoot 2.3.4.RELEASE 它會(huì)引入 spring-kafka 2.5.6 RELEASE ,對應(yīng)了版本關(guān)系中的
Spring Boot 2.3 users should use 2.5.x (Boot dependency management will use the correct version).
spring和 kafka 的版本 關(guān)系
https://spring.io/projects/sp...
1.搭建Kafka 和 Zookeeper 環(huán)境
搭建kafka 和 zookeeper 環(huán)境 并且啟動(dòng) 它們
2.創(chuàng)建Demo 項(xiàng)目引入spring-kafka
2.1 pom 文件
<dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> </dependency> <dependency> <groupId>com.google.code.gson</groupId> <artifactId>gson</artifactId> </dependency>
2.2 配置application.yml
spring:
kafka:
bootstrap-servers: 192.168.25.6:9092 #bootstrap-servers:連接kafka的地址,多個(gè)地址用逗號分隔
consumer:
group-id: myGroup
enable-auto-commit: true
auto-commit-interval: 100ms
properties:
session.timeout.ms: 15000
key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
auto-offset-reset: earliest
producer:
retries: 0 #若設(shè)置大于0的值,客戶端會(huì)將發(fā)送失敗的記錄重新發(fā)送
batch-size: 16384 #當(dāng)將多個(gè)記錄被發(fā)送到同一個(gè)分區(qū)時(shí), Producer 將嘗試將記錄組合到更少的請求中。這有助于提升客戶端和服務(wù)器端的性能。這個(gè)配置控制一個(gè)批次的默認(rèn)大?。ㄒ宰止?jié)為單位)。16384是缺省的配置
buffer-memory: 33554432 #Producer 用來緩沖等待被發(fā)送到服務(wù)器的記錄的總字節(jié)數(shù),33554432是缺省配置
key-serializer: org.apache.kafka.common.serialization.StringSerializer #關(guān)鍵字的序列化類
value-serializer: org.apache.kafka.common.serialization.StringSerializer #值的序列化類
2.3 定義消息體Message
/**
* @author johnny
* @create 2020-09-23 上午9:21
**/
@Data
public class Message {
private Long id;
private String msg;
private Date sendTime;
}
2.4 定義KafkaSender
主要利用 KafkaTemplate 來發(fā)送消息 ,將消息封裝成Message 并且進(jìn)行 轉(zhuǎn)化成Json串 發(fā)送到Kafka中
@Component
@Slf4j
public class KafkaSender {
private final KafkaTemplate<String, String> kafkaTemplate;
//構(gòu)造器方式注入 kafkaTemplate
public KafkaSender(KafkaTemplate<String, String> kafkaTemplate) {
this.kafkaTemplate = kafkaTemplate;
}
private Gson gson = new GsonBuilder().create();
public void send(String msg) {
Message message = new Message();
message.setId(System.currentTimeMillis());
message.setMsg(msg);
message.setSendTime(new Date());
log.info("【++++++++++++++++++ message :{}】", gson.toJson(message));
//對 topic = hello2 的發(fā)送消息
kafkaTemplate.send("hello2",gson.toJson(message));
}
}
2.5 定義KafkaConsumer
在監(jiān)聽的方法上通過注解配置一個(gè)監(jiān)聽器即可,另外就是指定需要監(jiān)聽的topic
kafka的消息再接收端會(huì)被封裝成ConsumerRecord對象返回,它內(nèi)部的value屬性就是實(shí)際的消息。
@Component
@Slf4j
public class KafkaConsumer {
@KafkaListener(topics = {"hello2"})
public void listen(ConsumerRecord<?, ?> record) {
Optional.ofNullable(record.value())
.ifPresent(message -> {
log.info("【+++++++++++++++++ record = {} 】", record);
log.info("【+++++++++++++++++ message = {}】", message);
});
}
}
3.測試 效果
提供一個(gè) Http接口調(diào)用 KafkaSender 去發(fā)送消息
3.1 提供Http 測試接口
@RestController
@Slf4j
public class TestController {
@Autowired
private KafkaSender kafkaSender;
@GetMapping("sendMessage/{msg}")
public void sendMessage(@PathVariable("msg") String msg){
kafkaSender.send(msg);
}
}
3.2 啟動(dòng)項(xiàng)目
監(jiān)聽8080 端口
KafkaMessageListenerContainer中有 consumer group = myGroup 有一個(gè) 監(jiān)聽 hello2-0 topic 的 消費(fèi)者

3.3 調(diào)用Http接口
http://localhost:8080/sendMessage/KafkaTestMsg

至此 SpringBoot集成Kafka 結(jié)束 。。
以上就是SpringBoot集成Kafka的步驟的詳細(xì)內(nèi)容,更多關(guān)于SpringBoot集成Kafka的資料請關(guān)注腳本之家其它相關(guān)文章!
- 如何使用SpringBoot集成Kafka實(shí)現(xiàn)用戶數(shù)據(jù)變更后發(fā)送消息
- SpringBoot3集成Kafka的方法詳解
- SpringBoot集成Kafka 配置工具類的詳細(xì)代碼
- springboot集成kafka消費(fèi)手動(dòng)啟動(dòng)停止操作
- Springboot集成kafka高級應(yīng)用實(shí)戰(zhàn)分享
- Springboot 2.x集成kafka 2.2.0的示例代碼
- SpringBoot集成kafka全面實(shí)戰(zhàn)記錄
- Springboot集成Kafka實(shí)現(xiàn)producer和consumer的示例代碼
- SpringBoot集成Kafka的實(shí)現(xiàn)示例
相關(guān)文章
SpringBoot使用Flyway進(jìn)行數(shù)據(jù)庫管理的操作方法
Flyway是一個(gè)開源的數(shù)據(jù)庫版本管理工具,并且極力主張“約定大于配置”,簡單、專注、強(qiáng)大。接下來通過本文給大家介紹SpringBoot使用Flyway進(jìn)行數(shù)據(jù)庫管理的方法,感興趣的朋友一起看看吧2021-09-09
MyBatis-Plus枚舉和自定義主鍵ID的實(shí)現(xiàn)步驟
這篇文章主要給大家介紹了關(guān)于MyBatis-Plus枚舉和自定義主鍵ID的相關(guān)資料,文中通過實(shí)例代碼以及圖文介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2022-02-02
IntelliJ IDEA(2019)之mybatis反向生成的實(shí)現(xiàn)
這篇文章主要介紹了IntelliJ IDEA(2019)之mybatis反向生成,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2019-10-10
multi-catch和try-catch異常處理知識(shí)點(diǎn)詳解
在本篇文章里我們給大家分享了一篇關(guān)于multi-catch和try-catch異常處理知識(shí)點(diǎn)內(nèi)容,有需要的朋友們可以參考學(xué)習(xí)下。2019-11-11
解決Nacos成功啟動(dòng)但是無法訪問 (Connection refused)
這篇文章主要介紹了解決Nacos成功啟動(dòng)但是無法訪問 (Connection refused)問題,具有很好的參考價(jià)值,希望對大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2024-06-06
Springboot?Filter中注入bean無效為null問題
這篇文章主要介紹了Springboot?Filter中注入bean無效為null問題,具有很好的參考價(jià)值,希望對大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2024-05-05
詳解Java七大阻塞隊(duì)列之SynchronousQueue
SynchronousQueue不需要存儲(chǔ)線程間交換的數(shù)據(jù),它的作用像是一個(gè)匹配器,使生產(chǎn)者和消費(fèi)者一一匹配。本文詳細(xì)講解了Java七大阻塞隊(duì)列之一SynchronousQueue,需要了解的小伙伴可以參考一下這篇文章2021-09-09

