kafka保证数据可靠
时间: 2023-10-03 08:03:30 浏览: 101
kafka 数据可靠性深度解读.pdf
Kafka提供了三种可靠性级别,可以根据对可靠性和延迟的要求进行权衡。对于某些不太重要的数据,对数据的可靠性要求不是很高,且能够容忍少量数据的丢失,可以不需要等待ISR中的follower全部接收成功。 Kafka使用副本数据同步策略来保证数据的可靠性。同时,Kafka还使用了ack应答机制来确保数据的可靠性。ack机制是指在消息发送过程中,生产者会等待来自broker的确认消息,以确保消息已经被成功接收和复制到副本中。根据不同的配置,可以设置生产者在收到多少个副本的确认消息后才视为消息发送成功。
对于数据可靠性,Kafka可以提供At Least Once和At Most Once的语义保证。At Least Once可以保证数据不丢失,但不能保证数据不重复;相对的,At Most Once可以保证数据不重复,但不能保证数据不丢失。然而,对于一些非常重要的信息,比如交易数据,下游数据消费者要求数据既不重复又不丢失,即需要Exactly Once的语义。在Kafka 0.11以前的版本,无法提供Exactly Once的语义保证,只能保证数据不丢失,再在下游消费者对数据做全局去重。对于下游的每个应用来说,都需要单独地做全局去重,这会对性能造成很大影响。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *3* [【kafka】七、kafka数据可靠性保证](https://blog.csdn.net/sinat_33151213/article/details/128044280)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
- *2* [Kafka如何保证数据可靠性](https://blog.csdn.net/u014310499/article/details/103254866)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
阅读全文