Resultados da pesquisa a pedido "apache-kafka"
Acessando a coleção de DStreams
Estou tentando acessar uma coleção de DStreams filtrados obtidos como na solução para esta pergunta:Spark Streaming - Melhor maneira de dividir o fluxo de entrada com base no filtro ...
Como o commit automático do consumidor kafka funciona?
estou lendoeste [https://www.safaribooksonline.com/library/view/kafka-the-definitive/9781491936153/ch04.html#callout_kafka_consumers__reading_data_from_kafka_CO2-1] : Confirmação automática A maneira mais fácil de cometer compensações é ...
Streaming de mensagens de um Kafka Cluster para outro
Atualmente, estou tentando, facilmente, transmitir mensagens de um Tópico em um cluster Kafka para outro (Remoto -> Cluster Local). A idéia é usar o Kafka-Streams imediatamente, para que não seja necessário replicar as mensagens reais no cluster ...
Filtragem de fluxos Kafka: lado do corretor ou consumidor?
Eu estou olhando para córregos kafka. Quero filtrar meu fluxo usando um filtro com seletividade muito baixa (um em poucos milhares). Eu estava olhando para este ...
Kafka Streams e RPC: chamar o serviço REST no operador map () é considerado um antipadrão?
A abordagem ingênua para implementar o caso de uso de enriquecer um fluxo de eventos de entrada armazenado no Kafka com dados de referência - é chamarmap() operador uma API REST de serviço externo que fornece esses dados de referência para cada ...
Os grupos de consumidores podem abranger nós diferentes em um cluster?
Eu já vi muitos exemplos de como usar o consumidor de alto nível (grupo de consumidores) para consumir um tópico usando muitos threads no mesmo processo. Você pode ter vários processos (em máquinas diferentes) dividir as partições e consumir em ...
EDIÇÃO DE FORMATO DO KSQL AVRO para a Pesquisa Elástica do Kafka Connect: org.apache.kafka.connect.errors.DataException: de ****** ense
A seguinte exceção está sendo lançada para o Elastic Search Connector: [2018-05-07 11:40:38,975] ERROR WorkerSinkTask{id=elasticsearch-sink-0} Task threw an uncaught and unrecoverable ...
Como Kafka garante zero tempo de inatividade e zero perda de dados?
Passou por Kafka. Mas não saiba como ele atinge zero tempo de inatividade e zero perda.
API do processador Kafka: chave diferente para Source e StateStore?
No momento, estamos implementando um processo (usando a API do processador Kafka) onde precisamos combinar informações de 2 eventos correlatos (mensagens) sobre um tópico e encaminhar essas informações combinadas. Os eventos são originários de ...