Guardar / exportar DataFrame transformado de nuevo a JDBC / MySQL

Estoy tratando de descubrir cómo usar el nuevoDataFrameWriter para volver a escribir datos en una base de datos JDBC. Parece que no puedo encontrar ninguna documentación para esto, aunque mirando el código fuente parece que debería ser posible.

Un ejemplo trivial de lo que estoy intentando se ve así:

sqlContext.read.format("jdbc").options(Map(
  "url" -> "jdbc:mysql://localhost/foo", "dbtable" -> "foo.bar")
).select("some_column", "another_column")
.write.format("jdbc").options(Map(
  "url" -> "jdbc:mysql://localhost/foo", "dbtable" -> "foo.bar2")
).save("foo.bar2")

Esto no funciona, termino con este error:

java.lang.RuntimeException: org.apache.spark.sql.execution.datasources.jdbc.DefaultSource does not allow create table as select.
    at scala.sys.package$.error(package.scala:27)
    at org.apache.spark.sql.execution.datasources.ResolvedDataSource$.apply(ResolvedDataSource.scala:200)

No estoy seguro de si estoy haciendo algo mal (¿por qué se resuelve en DefaultSource en lugar de JDBCRDD, por ejemplo?) O si escribir en una base de datos MySQL existente simplemente no es posible utilizando la API DataFrames de Spark.

Respuestas a la pregunta(1)

Su respuesta a la pregunta