TaskSchedulerImpl: o trabalho inicial não aceitou nenhum recurso;

Aqui está o que estou tentando fazer.

Criei dois nós do cluster corporativo DataStax, além dos quais criei um programa java para obter a contagem de uma tabela (tabela de banco de dados Cassandra).

Este programa foi construído em eclipse, que é realmente de uma caixa de janelas.

No momento de executar este programa no Windows, está falhando com o seguinte erro em tempo de execução:

O trabalho inicial não aceitou nenhum recurso; verifique a interface do usuário do cluster para garantir que os trabalhadores estejam registrados e tenham memória suficiente

O mesmo código foi compilado e executado com êxito nesses clusters sem nenhum problema. Qual poderia ser o motivo pelo qual estou ficando acima do erro?

Código:

import org.apache.spark.SparkConf;

import org.apache.spark.SparkContext;

import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.SchemaRDD;
import org.apache.spark.sql.cassandra.CassandraSQLContext;
import com.datastax.bdp.spark.DseSparkConfHelper;

public class SparkProject  {

    public static void main(String[] args) {

        SparkConf conf = DseSparkConfHelper.enrichSparkConf(new SparkConf()).setMaster("spark://10.63.24.14X:7077").setAppName("DatastaxTests").set("spark.cassandra.connection.host","10.63.24.14x").set("spark.executor.memory", "2048m").set("spark.driver.memory", "1024m").set("spark.local.ip","10.63.24.14X");

        JavaSparkContext sc = new JavaSparkContext(conf);

        CassandraSQLContext cassandraContext = new CassandraSQLContext(sc.sc());
        SchemaRDD employees = cassandraContext.sql("SELECT * FROM portware_ants.orders");

        //employees.registerTempTable("employees");
        //SchemaRDD managers = cassandraContext.sql("SELECT symbol FROM employees");
        System.out.println(employees.count());

        sc.stop();
    }
}

questionAnswers(5)

yourAnswerToTheQuestion