Este repositorio e composto por duas API's em Java + Spring, API-SUB & API-PUB
A api-pub e responsavel por produzir dados para o kafka, de acordo com algumas configuracoes no applicaation.properties sera o destino no kafka.
- topic.name.producer - sera o nome do topico onde os dados seram inseridos
- auto.create.topics.enable - caso o topico nao existe ira criar se estiver ***true***
A mesma ideia segue a api-sub onde ela e responsavel por consumir estes dados, tambem de acordo com as configuracoes do application.properties.
- topic.name.consumer - sera o topico que ela ira consumir os dados
Para iniciar as aplicacoes criei um docker compose responsavel por gerenciar estes carinhas, ao analisar existem a criacao de 5 container
- zookeeper
- kafka
- kafdrop (plugin para visualizar topicos e mensagens que estao no kafka)
- api-pub
- api-sub
- https://medium.com/azure-na-pratica/apache-kafka-kafdrop-docker-compose-montando-rapidamente-um-ambiente-para-testes-606cc76aa66
- https://mmarcosab.medium.com/criando-consumer-e-produkafka-com-spring-boot-b427cc2f841d