kafka手动提交无限重试

对于一些很强调分区内有序,并且0丢失的场景,比如增量同步数据,(先insert再delete,先delete再insert,结果是不一样的,又或者用了唯一索引,然而delete失败了,消息丢失了,后面的插入唯一性冲突了),解决方案是无限重试,失败了发送信息通知。

 @KafkaListener(topics = {"cgbOrderDetail"},groupId = "c2",concurrency ="5",containerFactory = "kafkaListenerContainerFactory")
    public void consum(ConsumerRecord<String, String> record, Acknowledgment ack) throws Exception {
        while (true){
            try {
                this.test(record,ack);
                break;
            }catch (Exception e){
                e.printStackTrace();
                Thread.sleep(5000);
            }
        }
    }
public void test(ConsumerRecord<String, String> record, Acknowledgment ack) throws Exception {
      doSomething();
        ack.acknowledge();
    }

不过当你一个分区的消费者无限循环的时候,时间超过了max.poll.interval.ms,就会rebalance,然后分配到别的消费者,然后别的消费者也开始死循环,产生雪崩问题

 

 

 隔了一段时间后

 

 不过还可以更加暴力一些,抛出异常后直接stop,这样可以避免rebalance

 

 后面可以弄个接口重新start

 

 

kafka提交时机?

conn.setAutoCommit(false);

.......

kafka.commit();

conn.commit();

上面这种方案可能会丢失消息,因为kafka有可能提交成功,但是响应超时,于是我本地事务回滚,因为该消息已经提交了,所以下次就没了。

应该是先conn.commit()在执行kafka.commit();不过这样有可能消费重复,不过宁可重复也不要丢失。
————————————————
版权声明:本文为CSDN博主「vickyhwj」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/u011982711/article/details/115973288

posted @ 2023-02-15 09:50  八方鱼  阅读(309)  评论(0)    收藏  举报