Resultados de la búsqueda a petición "scala"
Spark Scala - java.util.NoSuchElementException & Data Cleaning
He tenido unproblema similar antes [https://stackoverflow.com/questions/38002753/scala-spark-dataframe-show-throws-java-util-nosuchelementexception-after-a] , pero estoy buscando una respuesta generalizable. estoy ...
Inferencia de tipo con tipo existencial
Tengo un rasgo genéricoSomeTrait definido como tal: trait SomeTrait[T] { def foo(t: T): String }Y métodosbar yqux como tal: def bar[T](t: SomeTrait[T]): T def qux: List[SomeTrait[_]]No tengo control sobre lo anterior. Estoy tratando de operar ...
Forma más limpia de actualizar estructuras anidadas
Digamos que tengo dos siguientescase classes: case class Address(street: String, city: String, state: String, zipCode: Int) case class Person(firstName: String, lastName: String, address: Address)y la siguiente instancia dePerson clase: val raj ...
Barreras de memoria y estilo de codificación sobre una máquina virtual Java
Supongamos que tengo un objeto complejo estático que se actualiza periódicamente por un grupo de subprocesos y se lee más o menos continuamente en un subproceso de larga ejecución. El objeto en sí mismo es siempre inmutable y refleja el estado ...
¿Definir un UDF que acepte una matriz de objetos en un Spark DataFrame?
Al trabajar con los marcos de datos de Spark, se requieren funciones definidas por el usuario (UDF) para asignar datos en columnas. Las UDF requieren que los tipos de argumento se especifiquen explícitamente. En mi caso, necesito manipular una ...
Reproducir / Formato JSON de Scala para cualquiera
Tengo una clase de valor que acepta unEither, que me gustaría generar un Play for Scala v2.5.6 JSONFormat para: import org.joda.time.{DateTime, Duration} case class When(when: Either[DateTime, Duration]) extends AnyValCreo que tengo elwrites ...
¿Qué nuevas características se agregarán a Scala 2.9?
Sé que las colecciones paralelas estarán disponibles. ¿Qué forma tomarán, y qué más es probable que veamos?
Lectura en múltiples archivos comprimidos en el archivo tar.gz en Spark [duplicado]
Esta pregunta ya tiene una respuesta aquí: Leer archivos de texto completos desde una compresión en Spark [/questions/36604145/read-whole-text-files-from-a-compression-in-spark] 2 respuestasEstoy tratando de crear un Spark RDD a partir de varios ...
Spark Dataset select with typedcolumn
Mirando a laselect() En la función Spark DataSet hay varias firmas de funciones generadas: (c1: TypedColumn[MyClass, U1],c2: TypedColumn[MyClass, U2] ....)Esto parece insinuar que debería poder hacer referencia a los miembros de ...
¿Por qué los métodos estáticos no se consideran una buena práctica de OO? [cerrado]
Estoy leyendoScala de programación [https://rads.stackoverflow.com/amzn/click/com/193435631X]. Al comienzo del capítulo 4, el autor comenta que Java admite métodos estáticos, que son "conceptos OO no tan puros". ¿Por qué esto es tan?