Какой тип кластера мне выбрать для Spark?
Я новичок в Apache Spark, и я только что узнал, что Spark поддерживает три типа кластеров:
Автономный - это означает, что Spark будет управлять своим собственным кластеромYARN - используя менеджер ресурсов Hadoop YARNMesos - проект менеджера ресурсов ApacheТак как я новичок в Spark, я думаю, что я должен попробоватьStandalone первый. Но мне интересно, какой из них рекомендуется. Скажем, в будущем мне нужно построить большой кластер (сотни экземпляров), к какому типу кластеров мне следует перейти?