Spark: espaço insuficiente para armazenar em cache o vermelho no contêiner enquanto ainda resta muita memória total de armazenamento

Eu tenho um cluster de 30 nós, cada nó tem 32 núcleos, 240 G de memória (instância da AWS cr1.8xlarge). Eu tenho as seguintes configurações:

--driver-memory 200g --driver-cores 30 --executor-memory 70g --executor-cores 8 --num-executors 90 

Eu posso ver no rastreador de tarefas que ainda tenhoMuito de memória total de armazenamento restante, mas em um dos contêineres, recebi a seguinte mensagem dizendo Limite de armazenamento = 28,3 GB. Eu estou querendo saber de onde vem esse 28,3 GB? A fração de memória é 0,45

E como eu resolvo issoNão há espaço suficiente para armazenar em cache o rdd questão? Devo fazer mais partição ou alterar o paralelismo padrão ... pois ainda tenho muita memória de armazenamento total não utilizada. Obrigado!

15/12/05 22:39:36 WARN storage.MemoryStore: Not enough space to cache rdd_31_310 in memory! (computed 1326.6 MB so far)
15/12/05 22:39:36 INFO storage.MemoryStore: Memory use = 9.6 GB (blocks) + 18.1 GB (scratch space shared across 4 tasks(s)) = 27.7 GB. Storage limit = 28.3 GB.
15/12/05 22:39:36 WARN storage.MemoryStore: Not enough space to cache rdd_31_136 in memory! (computed 1835.8 MB so far)
15/12/05 22:39:36 INFO storage.MemoryStore: Memory use = 9.6 GB (blocks) + 18.1 GB (scratch space shared across 5 tasks(s)) = 27.7 GB. Storage limit = 28.3 GB.
15/12/05 22:39:36 INFO executor.Executor: Finished task 136.0 in stage 12.0 (TID 85168). 1272 bytes result sent to driver

questionAnswers(0)

yourAnswerToTheQuestion