Java分布式學習之Kafka消息隊列
介紹
Apache Kafka 是分布式發(fā)布-訂閱消息系統(tǒng),在 kafka官網(wǎng)上對 kafka 的定義:一個分布式發(fā)布-訂閱消息傳遞系統(tǒng)。 它最初由LinkedIn公司開發(fā),Linkedin于2010年貢獻給了Apache基金會并成為頂級開源項目。Kafka是一種快速、可擴展的、設計內(nèi)在就是分布式的,分區(qū)的和可復制的提交日志服務。
注意:Kafka并沒有遵循JMS規(guī)范(),它只提供了發(fā)布和訂閱通訊方式。
kafka中文官網(wǎng):http://kafka.apachecn.org/quickstart.html
Kafka核心相關(guān)名稱
- Broker:Kafka節(jié)點,一個Kafka節(jié)點就是一個broker,多個broker可以組成一個Kafka集群
- Topic:一類消息,消息存放的目錄即主題,例如page view日志、click日志等都可以以topic的形式存在,Kafka集群能夠同時負責多個topic的分發(fā)
- massage: Kafka中最基本的傳遞對象。
- Partition:topic物理上的分組,一個topic可以分為多個partition,每個partition是一個有序的隊列。Kafka里面實現(xiàn)分區(qū),一個broker就是表示一個區(qū)域。
- Segment:partition物理上由多個segment組成,每個Segment存著message信息
- Producer : 生產(chǎn)者,生產(chǎn)message發(fā)送到topic
- Consumer : 消費者,訂閱topic并消費message, consumer作為一個線程來消費
- Consumer Group:消費者組,一個Consumer Group包含多個consumer
- Offset:偏移量,理解為消息 partition 中消息的索引位置
主題和隊列的區(qū)別:
隊列是一個數(shù)據(jù)結(jié)構(gòu),遵循先進先出原則
kafka集群安裝
參考官方文檔:https://kafka.apachecn.org/quickstart.html
- 每臺服務器上安裝jdk1.8環(huán)境
- 安裝Zookeeper集群環(huán)境
- 安裝kafka集群環(huán)境
- 運行環(huán)境測試

安裝jdk環(huán)境和zookeeper這里不詳述了。
kafka為什么依賴于zookeeper:kafka會將mq信息存放到zookeeper上,為了使整個集群能夠方便擴展,采用zookeeper的事件通知相互感知。
kafka集群安裝步驟:
1、下載kafka的壓縮包,下載地址:https://kafka.apachecn.org/downloads.html
2、解壓安裝包
tar -zxvf kafka_2.11-1.0.0.tgz
3、修改kafka的配置文件 config/server.properties
配置文件修改內(nèi)容:
- zookeeper連接地址:
zookeeper.connect=192.168.1.19:2181 - 監(jiān)聽的ip,修改為本機的ip
listeners=PLAINTEXT://192.168.1.19:9092 - kafka的brokerid,每臺broker的id都不一樣
broker.id=0
4、依次啟動kafka
./kafka-server-start.sh -daemon config/server.properties
kafka使用
kafka文件存儲
topic是邏輯上的概念,而partition是物理上的概念,每個partition對應于一個log文件,該log文件中存儲的就是Producer生成的數(shù)據(jù)。Producer生成的數(shù)據(jù)會被不斷追加到該log文件末端,為防止log文件過大導致數(shù)據(jù)定位效率低下,Kafka采取了分片和索引機制,將每個partition分為多個segment,每個segment包括:“.index”文件、“.log”文件和.timeindex等文件。這些文件位于一個文件夾下,該文件夾的命名規(guī)則為:topic名稱+分區(qū)序號。
例如:執(zhí)行命令新建一個主題,分三個區(qū)存放放在三個broker中:
./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 3 --topic kaico


- 一個partition分為多個segment
- .log 日志文件
- .index 偏移量索引文件
- .timeindex 時間戳索引文件
- 其他文件(partition.metadata,leader-epoch-checkpoint)
Springboot整合kafka
maven依賴
<dependencies>
<!-- springBoot集成kafka -->
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>
<!-- SpringBoot整合Web組件 -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
</dependencies>
yml配置
# kafka
spring:
kafka:
# kafka服務器地址(可以多個)
# bootstrap-servers: 192.168.212.164:9092,192.168.212.167:9092,192.168.212.168:9092
bootstrap-servers: www.kaicostudy.com:9092,www.kaicostudy.com:9093,www.kaicostudy.com:9094
consumer:
# 指定一個默認的組名
group-id: kafkaGroup1
# earliest:當各分區(qū)下有已提交的offset時,從提交的offset開始消費;無提交的offset時,從頭開始消費
# latest:當各分區(qū)下有已提交的offset時,從提交的offset開始消費;無提交的offset時,消費新產(chǎn)生的該分區(qū)下的數(shù)據(jù)
# none:topic各分區(qū)都存在已提交的offset時,從offset后開始消費;只要有一個分區(qū)不存在已提交的offset,則拋出異常
auto-offset-reset: earliest
# key/value的反序列化
key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
producer:
# key/value的序列化
key-serializer: org.apache.kafka.common.serialization.StringSerializer
value-serializer: org.apache.kafka.common.serialization.StringSerializer
# 批量抓取
batch-size: 65536
# 緩存容量
buffer-memory: 524288
# 服務器地址
bootstrap-servers: www.kaicostudy.com:9092,www.kaicostudy.com:9093,www.kaicostudy.com:9094
生產(chǎn)者
@RestController
public class KafkaController {
/**
* 注入kafkaTemplate
*/
@Autowired
private KafkaTemplate<String, String> kafkaTemplate;
/**
* 發(fā)送消息的方法
*
* @param key
* 推送數(shù)據(jù)的key
* @param data
* 推送數(shù)據(jù)的data
*/
private void send(String key, String data) {
// topic 名稱 key data 消息數(shù)據(jù)
kafkaTemplate.send("kaico", key, data);
}
// test 主題 1 my_test 3
@RequestMapping("/kafka")
public String testKafka() {
int iMax = 6;
for (int i = 1; i < iMax; i++) {
send("key" + i, "data" + i);
}
return "success";
}
}消費者
@Component
public class TopicKaicoConsumer {
/**
* 消費者使用日志打印消息
*/
@KafkaListener(topics = "kaico") //監(jiān)聽的主題
public void receive(ConsumerRecord<?, ?> consumer) {
System.out.println("topic名稱:" + consumer.topic() + ",key:" +
consumer.key() + "," +
"分區(qū)位置:" + consumer.partition()
+ ", 下標" + consumer.offset());
//輸出key對應的value的值
System.out.println(consumer.value());
}
}到此這篇關(guān)于Java分布式學習之Kafka消息隊列的文章就介紹到這了,更多相關(guān)Java Kafka內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
使用Spring Security和JWT實現(xiàn)安全認證機制
在現(xiàn)代 Web 應用中,安全認證和授權(quán)是保障數(shù)據(jù)安全和用戶隱私的核心機制,Spring Security 是 Spring 框架下專為安全設計的模塊,具有高度的可配置性和擴展性,而 JWT則是當前流行的認證解決方案,所以本文介紹了如何使用Spring Security和JWT實現(xiàn)安全認證機制2024-11-11
Springboot如何實現(xiàn)Web系統(tǒng)License授權(quán)認證
這篇文章主要介紹了Springboot如何實現(xiàn)Web系統(tǒng)License授權(quán)認證,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-05-05
Spring?@bean和@component注解區(qū)別
本文主要介紹了Spring?@bean和@component注解區(qū)別,文中通過示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下2022-01-01
在Idea2020.1中使用gitee2020.1.0創(chuàng)建第一個代碼庫的實現(xiàn)
這篇文章主要介紹了在Idea2020.1中使用gitee2020.1.0創(chuàng)建第一個代碼庫的實現(xiàn),文中通過圖文示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-07-07

