Как рабочие места назначаются исполнителям в Spark Streaming?

Допустим, у меня есть 2 или более исполнителей в приложении Spark Streaming.

Я установил время пакетной обработки в 10 секунд, поэтому каждые 10 секунд задание запускается при чтении ввода из моей HDFS.

Если каждое задание длится более 10 секунд, то новое запущенное задание присваивается свободному исполнителю, верно?

Даже если предыдущий не закончил?

Я знаю, что это кажется очевидным ответом, но я не нашел ничего о планировании работы на веб-сайте или на бумаге, связанной с Spark Streaming.

Если вы знаете ссылки, где объясняются все эти вещи, я был бы очень рад увидеть их.

Спасибо.

Ответы на вопрос(1)

Ваш ответ на вопрос