Результаты поиска по запросу "spark-streaming"

3 ответа

Ограничить размер пакетов Kafka при использовании Spark Streaming

Можно ли ограничить размер пакетов, возвращаемых потребителем Kafka для Spark Streaming?Я спрашиваю, потому что у первой партии, которую я получаю, есть сотн...

1 ответ

Динамическое чтение файлов из HDFS из функций искрового преобразования

Как можно прочитать файл из HDFS в функции spark, не используя sparkContext внутри функции.Пример:

2 ответа

Могут ли SparkContext и StreamingContext сосуществовать в одной программе?

Я пытаюсь настроить код Sparkstreaming, который читает строку с сервера Kafka, но обрабатывает ее, используя правила, записанные в другом локальном файле. Я ...

ТОП публикаций

2 ответа

Как преобразовать JavaPairInputDStream в DataSet / DataFrame в Spark

Я пытаюсь получить потоковые данные отКафка, В этом процессе я могу получать и хранить потоковые данные вJavaPairInputDStream, Теперь мне нужно проанализиров...

1 ответ

установить spark.streaming.kafka.maxRatePerPartition для createDirectStream

1 ответ

Не волнуйтесь. Было бы интересно услышать, как вы поживаете, для дальнейшего использования. Только если вы получите свободную минуту: о)

1 ответ

Большое спасибо. Сработало после перехода на версию 2.11

1 ответ

, но не в подходе к этому вопросу. Попробуйте и задайте новые вопросы, если они возникнут. StructuredStreaming - еще один вариант в семействе Spark.

2 ответа

Вы проверяли это? Я думаю, что он добавляет новые файлы в каталог / путь

некоторой обработки у меня есть DStream [String, ArrayList [String]], поэтому, когда я записываю его в hdfs, используя saveAsTextFile, и после каждого пакета...

1 ответ

, Мне даже удалось отфильтровать RDD, присвоить их набору Status и затем выполнить итерацию по этому набору для окончательной обработки.

аюсь получить доступ к коллекции отфильтрованных DStreams, полученных как в решении этого вопроса:Spark Streaming - лучший способ разделения входного потока на основе фильтра ...