Resultados de la búsqueda a petición "scala"

3 la respuesta

Lea desde una tabla de colmena y escríbale usando spark sql

Estoy leyendo una tabla de Hive usando Spark SQL y asignándola a un scala val val x = sqlContext.sql("select * from some_table")Luego estoy procesando un poco con el marco de datos x y finalmente obtengo un marco de datos y, que tiene el esquema ...

1 la respuesta

¿Qué logra el patrón Aux en Scala?

Tengo un poco de sentido del patrón Auxiliar (como se usa sin forma y en otros lugares) en el que un miembro de tipo se extrae en un parámetro de tipo, y sé que es una solución el hecho de que los argumentos en la misma lista de argumentos no ...

1 la respuesta

Value join no es miembro de org.apache.spark.rdd.RDD [(Long, T)]

Esta función parece válida para mi IDE: def zip[T, U](rdd1:RDD[T], rdd2:RDD[U]) : RDD[(T,U)] = { rdd1 .zipWithIndex .map(_.swap) .join( rdd2 .zipWithIndex .map(_.swap)) .values }Pero cuando compilo, obtengo: value join no es miembro de ...

2 la respuesta

No se ha vinculado ninguna implementación para play.api.db.slick.DatabaseConfigProvider

No puedo ser hábil para trabajar con play 2.5.x Me sale el siguiente error de tiempo de ejecución: ProvisionException: Unable to provision, see the following errors: 1) No implementation for play.api.db.slick.DatabaseConfigProvider was bound. ...

1 la respuesta

Compilación dinámica de archivos de clase scala en tiempo de ejecución en Scala 2.11

Tengo el siguiente código que funciona en Scala 2.10 para compilar clases externas en tiempo de ejecución en Scala /** * Compile scala files and keep them loaded in memory * @param classDir Directory storing the generated scala files * @throws ...

2 la respuesta

Evaluación dinámica de código en scala

¿Cuál es la mejor manera de inyectar un fragmento de código en scala? algo así como eval en javascript y GroovyScriptEngine. Quiero mantener mis reglas / cálculos / fórmulas fuera de la clase de procesamiento de datos real. Tengo cerca de más de ...

2 la respuesta

Spark no imprime salidas en la consola dentro de la función de mapa

Tengo una aplicación Spark simple que se ejecuta en modo de clúster. val funcGSSNFilterHeader = (x: String) => { println(!x.contains("servedMSISDN") !x.contains("servedMSISDN") } val ssc = new StreamingContext(sc, Seconds(batchIntervalSeconds)) ...

5 la respuesta

¿Cómo mezclar un rasgo con la instancia?

Dado un rasgoMyTrait: trait MyTrait { def doSomething = println("boo") }se puede mezclar en una clase conextends owith: class MyClass extends MyTraitTambién se puede mezclar al instanciar una nueva instancia: var o = new MyOtherClass with ...

2 la respuesta

Trabaje con Jupyter en Windows y Apache Toree Kernel para compatibilidad con Spark

Estoy tratando de instalar el kernel de Apache Toree por compatibilidad de chispas y me encuentro con un extraño mensaje medioambiental. Este es el proceso que seguí: Instale la última versión de Anaconda con Jupyter 4.1.0Ejecutar: pip ...

1 la respuesta

Tipo de borrado en Scala

Estoy bastante confundido acerca de lo que está sucediendo aquí: import scala.collection.immutable._ object Main extends App { sealed trait Node sealed trait Group case class Sheet( val splat: String, val charname: String, val children: ...