Kafka 是如何保证数据可靠性和一致性

2022-09-05 14:36:23

Kafka 是如何保证数据可靠性和一致性

1、kafka的可靠性

为了保证数据可靠性,

https://blog.csdn.net/mengfeichuan2013/article/details/117355162

1.1 Topic 分区副本

1.2 Producer 往 Broker 发送消息

kafka使用了ack机制。

1.3 Leader 选举

为了保证数据的可靠性,我们最少需要配置一下几个参数:
•producer 级别:acks=all(或者 request.required.acks=-1),同时发生模式为同步 producer.type=sync
•topic 级别:设置 replication.factor>=3,并且 min.insync.replicas>=2;
•broker 级别:关闭不完全的 Leader 选举,即 unclean.leader.election.enable=false;

Kafka 的分区多副本架构是 Kafka 可靠性保证的核心,把消息写入多个副本可以使 Kafka 在发生崩溃时仍能保证消息的持久性。

  1. kafka的一致性

  2. 精确一致的实现

https://baijiahao.baidu.com/s?id=1727873723062902531&wfr=spider&for=pc

  • 作者:不积跬步,无以致千里
  • 原文链接:https://blog.csdn.net/weixin_43975771/article/details/124623359
    更新时间:2022-09-05 14:36:23