Кафка разделов разделов к Spark streaming
У меня есть несколько вариантов использования, которые я хотел бы прояснить, о разделении тем Kafka -> использование ресурсов потоковой передачи.
Я использую спарк автономный режим, поэтому у меня есть только «общее количество исполнителей» и «память исполнителя». Насколько я знаю и согласно документации, способ ввести параллелизм в потоковую передачу Spark - использовать раздел Kafka с разделами -> RDD будет иметь такое же количество разделов, что и kafka, когда я использую прямую интеграцию потоков spark-kafka.
Так что, если у меня есть 1 раздел в теме и 1 ядро исполнителя, это ядро будет последовательно считываться с Kafka.
Что произойдет, если у меня есть:
2 раздела в теме и только 1 ядро исполнителя? Будет ли это ядро читать сначала из одного раздела, а затем со второго, поэтому разделение темы не принесет никакой пользы?
2 раздела в теме и 2 ядра? Будет ли 1 ядро исполнителя читать из 1 раздела, а второе ядро из второго раздела?
1 раздел кафка и 2 ядра исполнителя?
Спасибо.