Resultados de la búsqueda a petición "window-functions"
Funciones de ventana o expresiones de tabla comunes: contar filas anteriores dentro del rango
Me gustaría usar una función de ventana para determinar, para cada fila, el número total de registros anteriores que cumplan con ciertos criterios.Un ejemplo...
Cálculo del ROW_NUMBER () OVER () de SQL Server para una tabla derivada
En algunas otras bases de datos (por ejemplo, DB2 u Oracle con
Los pandas obtienen los n registros más altos dentro de cada grupo.
Supongamos que tengo pandas DataFrame como esto:
Recuperar el último valor conocido para cada columna de una fila
No estoy seguro acerca de las palabras correctas para hacer esta pregunta, así que lo desglosaré.Tengo una tabla de la siguiente manera:
Particionamiento por múltiples columnas en Spark SQL
Con las funciones de ventana de Spark SQL, necesito particionar en varias columnas para ejecutar mis consultas de datos, de la siguiente manera: val w = Window.partitionBy($"a").partitionBy($"b").rangeBetween(-100, 0) Actualmente no tengo un ...
Spark Task no serializable con la función de ventana de retraso
Me di cuenta de que después de usar una función de ventana sobre un DataFrame si llamo a un mapa () con una función, Spark devuelve una excepción "Tarea no serializable" Este es mi código: val hc:org.apache.spark.sql.hive.HiveContext = ...
Problema complejo de 'brechas e islas'
Tengo una tabla en un DB de Postgres como esta: person | eventdate | type -------------------------------------- <uuid-1> | 2016-05-14 | 300 <uuid-3> | 2016-05-14 | 300 <uuid-1> | 2016-05-15 | 301 <uuid-1> | 2016-05-16 | 301 <uuid-1> | ...
Cómo filtrar datos usando funciones de ventana en spark
Tengo los siguientes datos: rowid uid time code 1 1 5 a 2 1 6 b 3 1 7 c 4 2 8 a 5 2 9 c 6 2 9 c 7 2 10 c 8 2 11 a 9 2 12 cAhora quería filtrar los datos de tal manera que pueda eliminar las filas 6 y 7, para un uid en particular, quiero mantener ...
Pyspark: función de ventana personalizada
Actualmente estoy tratando de extraer series de ocurrencias consecutivas en un marco de datos PySpark y ordenarlas / clasificarlas como se muestra a continuación (por conveniencia, he ordenado el marco de datos inicial ...
retraso de la función de ventana de sql spark
Estoy mirando la función de diapositiva de ventana para un Spark DataFrame en Spark SQL, Scala. Tengo un marco de datos con columnas Col1, Col1, Col1, fecha. Col1 Col2 Col3 date volume new_col 201601 100.5 201602 120.6 100.5 201603 450.2 120.6 ...