Resultados de la búsqueda a petición "scala"
¿Cómo puedo calcular la mediana exacta con Apache Spark?
Estapágina [https://spark.apache.org/docs/0.7.0/api/core/spark/api/java/JavaDoubleRDD.html] contiene algunas funciones estadísticas (media, stdev, varianza, etc.) pero no contiene la mediana. ¿Cómo puedo calcular la mediana exacta? Gracias
Usando futuros y Thread.sleep
Al ejecutar este código scala, no tengo ningún resultado en la consola. (Realmente no entiendo lo que está pasando) Si quitoConsole.println("Console.println OK!") => todo parece estar bien. Si quitoThread.sleep(2000) => todo parece estar ...
¿Cómo convertir la fila de un Scala DataFrame en clase de caso de la manera más eficiente?
Una vez que tengo en Spark alguna clase de fila, ya sea Dataframe o Catalyst, quiero convertirla en una clase de caso en mi código. Esto se puede hacer haciendo coincidir someRow match {case Row(a:Long,b:String,c:Double) => ...
¿Cómo pasar el parámetro -D o la variable de entorno al trabajo de Spark?
quiero cambiarConfiguración de Typesafe [https://github.com/typesafehub/config] de un trabajo de Spark en un entorno de desarrollo / producción. Me parece que la forma más fácil de lograr esto es pasar-Dconfig.resource=ENVNAME al trabajo Entonces ...
Conversión de mapa mutable a inmutable
private[this]object MMMap extends HashMap[A, Set[B]] with MultiMap[A, B]¿Cómo convertirlo a inmutable?
Caso Scala que tiene 22 campos pero que tiene problemas con play-json en scala 2.11.5
Con Scala 2.11, ¿podemos tener más de 22 campos en una clase de caso, verdad? case class SomeResponse( var compositeKey: String, var id1: String, var id2: String, var firstName: String, var lastName: String, var email: String, var email2: ...
Adición de dos RDD [mllib.linalg.Vector]
Necesito agregar dos matrices que se almacenan en dos archivos. El contenido delatest1.txt ylatest2.txt tiene el siguiente str: 1 2 3 4 5 6 7 8 9Estoy leyendo esos archivos de la siguiente manera: scala> val rows = ...
la compilación scalac produce "el objeto apache no es miembro de la organización del paquete"
Mi código es: import org.apache.spark.SparkContextPuede ejecutarse en modo interactivo, pero cuando uso scalac para compilarlo, recibo el siguiente mensaje de error: object apache no es miembro de la organización del paquete Este parece ser el ...
conversión implícita en múltiples niveles, ¿por qué int to double funciona automáticamente?
Siempre pensé que las conversiones implícitas en varios niveles no son posibles en scala (a menos que defina los límites de la ...
¿Cómo requerir una matriz de tamaño constante typesafe en scala?
Necesito algo como esto: def encryptBlock(arr: FixedArray[Size16]) = ??? val blocks = arr.splitFixed[Size16] val encrypted = encryptBlock(FixedArray[Size16]()) Entonces, para asegurarme de que solo recibo una matriz de 128 bits como entrada.