Jackson-Version ist zu alt

Ich habe die folgendenbuild.sbt Datei

name := "myProject"

version := "1.0"

scalaVersion := "2.11.8"

javaOptions ++= Seq("-Xms512M", "-Xmx2048M", "-XX:MaxPermSize=2048M", "-XX:+CMSClassUnloadingEnabled")


dependencyOverrides ++= Set(
  "com.fasterxml.jackson.core" % "jackson-core" % "2.8.1"
)

// additional libraries
libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "2.0.0" % "provided",
  "org.apache.spark" %% "spark-sql" % "2.0.0" % "provided",
  "org.apache.spark" %% "spark-hive" % "2.0.0" % "provided",
  "com.databricks" %% "spark-csv" % "1.4.0",
  "org.scalactic" %% "scalactic" % "2.2.1",
  "org.scalatest" %% "scalatest" % "2.2.1" % "test",
  "org.scalacheck" %% "scalacheck" % "1.12.4",
  "com.holdenkarau" %% "spark-testing-base" % "2.0.0_0.4.4" % "test",
)

Wenn ich den Code ausführe, erhalte ich jedoch den folgenden Fehler:

An exception or error caused a run to abort. 
java.lang.ExceptionInInitializerError
Caused by: com.fasterxml.jackson.databind.JsonMappingException: Jackson version is too old 2.4.4
    at com.fasterxml.jackson.module.scala.JacksonModule$class.setupModule(JacksonModule.scala:56)
    at com.fasterxml.jackson.module.scala.DefaultScalaModule.setupModule(DefaultScalaModule.scala:19)
    at com.fasterxml.jackson.databind.ObjectMapper.registerModule(ObjectMapper.java:549)
    at org.apache.spark.rdd.RDDOperationScope$.<init>(RDDOperationScope.scala:82)
    at org.apache.spark.rdd.RDDOperationScope$.<clinit>(RDDOperationScope.scala)
    ... 58 more

Warum ist das so? Ich habe @ eine neuere Version von Jackson hinzugefüdependencyOverrides (nach hier schauenSpark Parallelize? (Erstellereigenschaft mit dem Namen 'id' konnte nicht gefunden werden.)), daher sollte keine ältere Version verwendet werden.

Antworten auf die Frage(2)

Ihre Antwort auf die Frage