Я напишу образец и скоро поделюсь.

троил модель H2O в R и сохранил код POJO. Я хочу записывать файлы паркета в формате hdf, используя POJO, но я не уверен, как это сделать. Я планирую читать файлы паркета в spark (scala / SparkR / PySpark) и оценивать их там. Ниже приведена выдержка, которую я нашел наСтраница документации H2O.

"Как запустить POJO на кластере Spark?

POJO предоставляет только математическую логику для предсказаний, поэтому вы не найдете там никакого кода, специфичного для Spark (или даже H2O). Если вы хотите использовать POJO для прогнозирования набора данных в Spark, создайте карту для вызова POJO для каждой строки и сохраните результат в новый столбец, строка за строкой »

У кого-нибудь есть пример кода, как я могу это сделать? Я был бы очень признателен за любую помощь. Я кодирую в основном в R и SparkR, и я не уверен, как я могу «сопоставить» POJO с каждой строкой.

Заранее спасибо.

Ответы на вопрос(2)

Ваш ответ на вопрос