Resultados da pesquisa a pedido "apache-kafka"

1 a resposta

Acessando a coleção de DStreams

Estou tentando acessar uma coleção de DStreams filtrados obtidos como na solução para esta pergunta:Spark Streaming - Melhor maneira de dividir o fluxo de entrada com base no filtro ...

2 a resposta

Consumidor Kafka. commitSync vs commitAsync

A citação ...

2 a resposta

Como o commit automático do consumidor kafka funciona?

estou lendoeste [https://www.safaribooksonline.com/library/view/kafka-the-definitive/9781491936153/ch04.html#callout_kafka_consumers__reading_data_from_kafka_CO2-1] : Confirmação automática A maneira mais fácil de cometer compensações é ...

1 a resposta

Streaming de mensagens de um Kafka Cluster para outro

Atualmente, estou tentando, facilmente, transmitir mensagens de um Tópico em um cluster Kafka para outro (Remoto -> Cluster Local). A idéia é usar o Kafka-Streams imediatamente, para que não seja necessário replicar as mensagens reais no cluster ...

2 a resposta

Filtragem de fluxos Kafka: lado do corretor ou consumidor?

Eu estou olhando para córregos kafka. Quero filtrar meu fluxo usando um filtro com seletividade muito baixa (um em poucos milhares). Eu estava olhando para este ...

2 a resposta

Kafka Streams e RPC: chamar o serviço REST no operador map () é considerado um antipadrão?

A abordagem ingênua para implementar o caso de uso de enriquecer um fluxo de eventos de entrada armazenado no Kafka com dados de referência - é chamarmap() operador uma API REST de serviço externo que fornece esses dados de referência para cada ...

1 a resposta

Os grupos de consumidores podem abranger nós diferentes em um cluster?

Eu já vi muitos exemplos de como usar o consumidor de alto nível (grupo de consumidores) para consumir um tópico usando muitos threads no mesmo processo. Você pode ter vários processos (em máquinas diferentes) dividir as partições e consumir em ...

1 a resposta

EDIÇÃO DE FORMATO DO KSQL AVRO para a Pesquisa Elástica do Kafka Connect: org.apache.kafka.connect.errors.DataException: de ****** ense

A seguinte exceção está sendo lançada para o Elastic Search Connector: [2018-05-07 11:40:38,975] ERROR WorkerSinkTask{id=elasticsearch-sink-0} Task threw an uncaught and unrecoverable ...

1 a resposta

Como Kafka garante zero tempo de inatividade e zero perda de dados?

Passou por Kafka. Mas não saiba como ele atinge zero tempo de inatividade e zero perda.

1 a resposta

API do processador Kafka: chave diferente para Source e StateStore?

No momento, estamos implementando um processo (usando a API do processador Kafka) onde precisamos combinar informações de 2 eventos correlatos (mensagens) sobre um tópico e encaminhar essas informações combinadas. Os eventos são originários de ...