Maneira correta de fazer um Spark Fat Jar usando SBT

Preciso de um Fat Jar com Spark porque estou criando um nó personalizado para o Knime. Basicamente, é um jar independente executado dentro do Knime e presumo que um Jar Jar é a única maneira de gerar um Spark Job local. Eventualmente, continuaremos enviando um trabalho para um cluster remoto, mas, por enquanto, preciso que ele seja gerado dessa maneira.

Dito isto, fiz um Jarra Gorda usando isso:https://github.com/sbt/sbt-assembly

Eu fiz um projeto sbt vazio, incluí o Spark-core nas dependências e montei o Jar. Adicionei-o ao manifesto do meu nó Knime personalizado e tentei gerar um trabalho simples (pararellize uma coleção, colete-a e imprima-a). Começa, mas recebo este erro:

Nenhuma configuração encontrada para a chave 'akka.version'

Não tenho ideia de como resolvê-lo.

Edit: este é o meu build.sbt

name := "SparkFatJar"

version := "1.0"

scalaVersion := "2.11.6"

libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "1.3.0"
)


libraryDependencies +=  "com.typesafe.akka" %% "akka-actor" % "2.3.8"

assemblyJarName in assembly := "SparkFatJar.jar"

assemblyMergeStrategy in assembly := {
  case PathList("META-INF", xs @ _*) => MergeStrategy.discard
  case x => MergeStrategy.first
}

Encontrei essa estratégia de fusão para o Spark em algum lugar da internet, mas não consigo encontrar a fonte no momento.

questionAnswers(1)

yourAnswerToTheQuestion