https://github.com/ZuInnoTe/spark-hadoopoffice-ds
аю файл Excel, используяcom.crealytics.spark.excel пакет. Ниже приведен код для чтения файла Excel в спарк Java.
Dataset<Row> SourcePropertSet = sqlContext.read()
.format("com.crealytics.spark.excel")
.option("location", "D:\\5Kto10K.xlsx")
.option("useHeader", "true")
.option("treatEmptyValuesAsNulls", "true")
.option("inferSchema", "true")
.option("addColorColumns", "false")
.load("com.databricks.spark.csv");
Но я попробовал с тем же(Com.crealytics.spark.excel) пакет для записи объекта набора данных в файл Excel в spark Java.
SourcePropertSet.write()
.format("com.crealytics.spark.excel")
.option("useHeader", "true")
.option("treatEmptyValuesAsNulls", "true")
.option("inferSchema", "true")
.option("addColorColumns", "false").save("D:\\resultset.xlsx");
Но я получаю ниже ошибки.
java.lang.RuntimeException: com.crealytics.spark.excel.DefaultSource не позволяет создавать таблицы как выбранные.
И даже я пытался сorg.zuinnote.spark.office.excel Пакет также. ниже приведен код для этого.
SourcePropertSet.write()
.format("org.zuinnote.spark.office.excel")
.option("write.locale.bcp47", "de")
.save("D:\\result");
я добавил следующие зависимости в моемpom.xml
<dependency>
<groupId>com.github.zuinnote</groupId>
<artifactId>hadoopoffice-fileformat</artifactId>
<version>1.0.0</version>
</dependency>
<dependency>
<groupId>com.github.zuinnote</groupId>
<artifactId>spark-hadoopoffice-ds_2.11</artifactId>
<version>1.0.3</version>
</dependency>
Но я получаю ошибку ниже.
java.lang.IllegalAccessError: попытался получить доступ к методу org.zuinnote.hadoop.office.format.mapreduce.ExcelFileOutputFormat.getSuffix (Ljava / lang / String;) Ljava / lang / String; из класса org.zuinnote.spark.office.excel.ExcelOutputWriterFactory
Помогите, пожалуйста, записать объект набора данных в файл excel в spark java.