Какой тип кластера мне выбрать для Spark?

Я новичок в Apache Spark, и я только что узнал, что Spark поддерживает три типа кластеров:

Автономный - это означает, что Spark будет управлять своим собственным кластеромYARN - используя менеджер ресурсов Hadoop YARNMesos - проект менеджера ресурсов Apache

Так как я новичок в Spark, я думаю, что я должен попробоватьStandalone первый. Но мне интересно, какой из них рекомендуется. Скажем, в будущем мне нужно построить большой кластер (сотни экземпляров), к какому типу кластеров мне следует перейти?

Ответы на вопрос(1)

Ваш ответ на вопрос