Wie werden Executoren in Spark Streaming Jobs zugewiesen?

Angenommen, ich habe zwei oder mehr Executoren in einer Spark-Streaming-Anwendung.

Ich habe die Batch-Zeit auf 10 Sekunden eingestellt, sodass alle 10 Sekunden ein Job gestartet wird, der Eingaben von meinem HDFS liest.

Wenn jeder Job länger als 10 Sekunden dauert, wird der neu gestartete Job einem freien Executor zugewiesen, oder?

Auch wenn der vorherige nicht fertig war?

Ich weiß, es scheint eine offensichtliche Antwort zu sein, aber ich habe auf der Website oder in der Veröffentlichung zu Spark Streaming nichts über die Jobplanung gefunden.

Wenn Sie einige Links kennen, in denen all diese Dinge erklärt werden, würde ich mich sehr freuen, sie zu sehen.

Danke.

Antworten auf die Frage(1)

Ihre Antwort auf die Frage