Resultados de la búsqueda a petición "window-functions"

2 la respuesta

Funciones de ventana o expresiones de tabla comunes: contar filas anteriores dentro del rango

Me gustaría usar una función de ventana para determinar, para cada fila, el número total de registros anteriores que cumplan con ciertos criterios.Un ejemplo...

1 la respuesta

Cálculo del ROW_NUMBER () OVER () de SQL Server para una tabla derivada

En algunas otras bases de datos (por ejemplo, DB2 u Oracle con

2 la respuesta

Los pandas obtienen los n registros más altos dentro de cada grupo.

Supongamos que tengo pandas DataFrame como esto:

3 la respuesta

Recuperar el último valor conocido para cada columna de una fila

No estoy seguro acerca de las palabras correctas para hacer esta pregunta, así que lo desglosaré.Tengo una tabla de la siguiente manera:

1 la respuesta

Particionamiento por múltiples columnas en Spark SQL

Con las funciones de ventana de Spark SQL, necesito particionar en varias columnas para ejecutar mis consultas de datos, de la siguiente manera: val w = Window.partitionBy($"a").partitionBy($"b").rangeBetween(-100, 0) Actualmente no tengo un ...

1 la respuesta

Spark Task no serializable con la función de ventana de retraso

Me di cuenta de que después de usar una función de ventana sobre un DataFrame si llamo a un mapa () con una función, Spark devuelve una excepción "Tarea no serializable" Este es mi código: val hc:org.apache.spark.sql.hive.HiveContext = ...

1 la respuesta

Problema complejo de 'brechas e islas'

Tengo una tabla en un DB de Postgres como esta: person | eventdate | type -------------------------------------- <uuid-1> | 2016-05-14 | 300 <uuid-3> | 2016-05-14 | 300 <uuid-1> | 2016-05-15 | 301 <uuid-1> | 2016-05-16 | 301 <uuid-1> | ...

1 la respuesta

Cómo filtrar datos usando funciones de ventana en spark

Tengo los siguientes datos: rowid uid time code 1 1 5 a 2 1 6 b 3 1 7 c 4 2 8 a 5 2 9 c 6 2 9 c 7 2 10 c 8 2 11 a 9 2 12 cAhora quería filtrar los datos de tal manera que pueda eliminar las filas 6 y 7, para un uid en particular, quiero mantener ...

2 la respuesta

Pyspark: función de ventana personalizada

Actualmente estoy tratando de extraer series de ocurrencias consecutivas en un marco de datos PySpark y ordenarlas / clasificarlas como se muestra a continuación (por conveniencia, he ordenado el marco de datos inicial ...

2 la respuesta

retraso de la función de ventana de sql spark

Estoy mirando la función de diapositiva de ventana para un Spark DataFrame en Spark SQL, Scala. Tengo un marco de datos con columnas Col1, Col1, Col1, fecha. Col1 Col2 Col3 date volume new_col 201601 100.5 201602 120.6 100.5 201603 450.2 120.6 ...