kafka 重复消费问题

winnie123321 · 2019-11-27 10:40:40 · 1956 次点击 · 大约8小时之前 开始浏览    置顶
这是一个创建于 2019-11-27 10:40:40 的主题,其中的信息可能已经有所发展或是发生改变。

关于kafka重复消费的问题你们是怎么解决的?我看网上说引入第三方中间键redis, 每次消费前先判断该消息是否存在Redis, 没有则进行消费, 消费完再将该条记录的唯一标识存入Redis中。 重复消费是因为业务处理完后偏移量修改失败的导致的, 但是引入Redis的也话会出现Redis写失败啊, 问题就没解决啊


有疑问加站长微信联系(非本文作者)

入群交流(和以上内容无关):加入Go大咖交流群,或添加微信:liuxiaoyan-s 备注:入群;或加QQ群:692541889

1956 次点击  ∙  1 赞  
加入收藏 微博
3 回复  |  直到 2019-12-19 21:04:04
Fack131421
Fack131421 · #1 · 5年之前

同一个group, 你是如何做到重复消费的

winnie123321
winnie123321 · #2 · 5年之前

业务处理成功时, 修改偏移量失败, 数据就会被重复消费

stepGitHub
stepGitHub · #3 · 5年之前

kafka消息队列消费模式有两种 1、OffsetOldest 会产生重复消费, 2、OffsetNewest 会丢失信息 重复消费要保证系统幂等性,确保消息唯一

添加一条新回复 (您需要 登录 后才能回复 没有账号 ?)
  • 请尽量让自己的回复能够对别人有帮助
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`
  • 支持 @ 本站用户;支持表情(输入 : 提示),见 Emoji cheat sheet
  • 图片支持拖拽、截图粘贴等方式上传