Skip to content

bodanesemateus/kafka

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Produzindo e Consumindo dados com Kafka e Spring Boot

Este repositorio e composto por duas API's em Java + Spring, API-SUB & API-PUB

A api-pub e responsavel por produzir dados para o kafka, de acordo com algumas configuracoes no applicaation.properties sera o destino no kafka.

- topic.name.producer - sera o nome do topico onde os dados seram inseridos
- auto.create.topics.enable - caso o topico nao existe ira criar se estiver ***true***

A mesma ideia segue a api-sub onde ela e responsavel por consumir estes dados, tambem de acordo com as configuracoes do application.properties.

- topic.name.consumer - sera o topico que ela ira consumir os dados

Para iniciar as aplicacoes criei um docker compose responsavel por gerenciar estes carinhas, ao analisar existem a criacao de 5 container

- zookeeper
- kafka
- kafdrop (plugin para visualizar topicos e mensagens que estao no kafka)
- api-pub
- api-sub
Referencias
- https://medium.com/azure-na-pratica/apache-kafka-kafdrop-docker-compose-montando-rapidamente-um-ambiente-para-testes-606cc76aa66
- https://mmarcosab.medium.com/criando-consumer-e-produkafka-com-spring-boot-b427cc2f841d

About

Criacao de stack kafka com api onde publica e consome dados do kafka.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages