Spark 1.4 увеличивает maxResultSize память

Я использую Spark 1.4 для своих исследований и борюсь с настройками памяти. На моей машине 16 ГБ памяти, поэтому проблем нет, так как размер моего файла составляет всего 300 МБ. Хотя, когда я пытаюсь преобразовать Spark RDD в panda, используйтеtoPandas() Функция я получаю следующую ошибку:

serialized results of 9 tasks (1096.9 MB) is bigger than spark.driver.maxResultSize (1024.0 MB)

Я попытался исправить это, изменив файл spark-config и все еще получая ту же ошибку. Я слышал, что это проблема со свечой 1.4, и мне интересно, знаете ли вы, как решить эту проблему. Буду признателен за любую оказанную помощь.

Ответы на вопрос(7)

Ваш ответ на вопрос