Connection to node -1 could not be established. Broker may not be available.

it2024-07-10  42

微服务项目配置继承kafka报错

Connection to node -1 could not be established. Broker may not be available. 可能是配置文件出现了问题。下面我贴出错误的和正确的配置

错误的配置

server: port: 6060 spring: application: name: ams-manager-system datasource: url: jdbc:mysql://127.0.0.1:3306/ams_system?useUnicode=true&characterEncoding=UTF-8&serverTimezone=GMT%2B8 driver-class-name: com.mysql.cj.jdbc.Driver username: root password: 123 eureka: client: service-url: defaultZone: http://localhost:10086/eureka swagger: base-package: com.ams.manager.system.impl.service title: SpringCloud2.x构建微服务家庭专区项目-系统服务接口 description: 该项目“基于SpringCloud2.x构建微服务项目”吴坚版权所有,未经过允许的情况下,私自分享视频和源码属于违法行为。 version: 1.1 terms-of-service-url: www.wujian.com contact: name: 全网最帅架构师-吴坚 email: 1239133508@qq.com url: www.wujian.com enabled: true # kafka kafka: # kafka服务器地址(可以多个) bootstrap-servers: 192.168.103.42:9092 consumer: # 指定一个默认的组名 group-id: kafka2 # earliest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费 # latest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据 # none:topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常 auto-offset-reset: earliest # key/value的反序列化 key-deserializer: org.apache.kafka.common.serialization.StringDeserializer value-deserializer: org.apache.kafka.common.serialization.StringDeserializer producer: # key/value的序列化 key-serializer: org.apache.kafka.common.serialization.StringSerializer value-serializer: org.apache.kafka.common.serialization.StringSerializer # 批量抓取 batch-size: 65536 # 缓存容量 buffer-memory: 524288 # 服务器地址 bootstrap-servers: 192.168.103.42:9092 listener: missing-topics-fatal: false #如果主题不存在,就会自动创建

正确的配置

# kafka spring: datasource: url: jdbc:mysql://127.0.0.1:3306/ams_system?useUnicode=true&characterEncoding=UTF-8&serverTimezone=GMT%2B8 driver-class-name: com.mysql.cj.jdbc.Driver username: root password: 123 kafka: # kafka服务器地址(可以多个) bootstrap-servers: 192.168.103.42:9092 consumer: # 指定一个默认的组名 group-id: kafka2 # earliest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费 # latest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据 # none:topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常 auto-offset-reset: earliest # key/value的反序列化 key-deserializer: org.apache.kafka.common.serialization.StringDeserializer value-deserializer: org.apache.kafka.common.serialization.StringDeserializer producer: # key/value的序列化 key-serializer: org.apache.kafka.common.serialization.StringSerializer value-serializer: org.apache.kafka.common.serialization.StringSerializer # 批量抓取 batch-size: 65536 # 缓存容量 buffer-memory: 524288 # 服务器地址 bootstrap-servers: 192.168.103.42:9092 listener: missing-topics-fatal: false #如果主题不存在,就会自动创建 cloud: sentinel: transport: dashboard: 127.0.0.1:8718 eager: true application: name: jm-kafka swagger: base-package: com.ams.manager.system.impl.service title: SpringCloud2.x构建微服务家庭专区项目-系统服务接口 description: 该项目“基于SpringCloud2.x构建微服务项目”仙仙版权所有,未经过允许的情况下,私自分享视频和源码属于违法行为。 version: 1.1 terms-of-service-url: www.wujian.com contact: name: 全网最帅架构师-仙仙 email: 1239133508@qq.com url: www.wujian.com enabled: true server: port: 8083

结论

为什么会出现错误呢? 我们对比两个配置文件发现,kafka的配置中间穿插了eureka的配置和swagger的配置。但是kafak的配置是属于spring下面的配置。我们eureka和swagger得配置,将他折成了两段。我们以后这样的配置需要注意了,将同一分段下的配置放到一起。

最新回复(0)