Resultados de la búsqueda a petición "dataframe"
Python pandas: creación de una columna que mantiene un recuento continuo de valores consecutivos
Estoy tratando de crear una columna ("consec") que mantendrá un recuento continuo de valores consecutivos en otro ("binario") sin usar el bucle. Así es como se vería el resultado deseado: . binary consec 1 0 0 2 1 1 3 1 2 4 1 3 5 1 4 5 0 0 6 1 1 ...
Conversión de varias columnas diferentes a la columna Mapa con la escala de Spark Dataframe
Tengo un marco de datos con columna:user, address1, address2, address3, phone1, phone2 y así. Quiero convertir este marco de datos a -user, address, phone where address = Map("address1" -> address1.value, "address2" -> address2.value, "address3" ...
Convierta filas en columnas haciendo coincidir cadenas en R
Tengo varias filas en una lista como ' [1,] "Home" [2,] "A" [3,] "B" [4,] "C" [5,] "Home" [6,] "D" [7,] "E" [8,] "Home" [9,] "F" [10,] "G" [11,] "H" [12,] "I"estas filas están llegando dinámicamente ... después de "Inicio" puede haber dos, tres, ...
Python: obtenga un recuento de frecuencia basado en dos columnas (variables) en el marco de datos de pandas, algunas líneas aparecen
Hola, tengo el siguiente marco de datos. Group Size Short Small Short Small Moderate Medium Moderate Small Tall Large Quiero contar la frecuencia de cuántas veces aparece la misma fila en el marco de datos. Group Size Time Short Small 2 ...
Cómo encontrar el número de identificadores únicos correspondientes a cada fecha en un programa de datos
Tengo un marco de datos que se ve así: date time id datetime 1 2015-01-02 14:27:22.130 999000000007628 2015-01-02 14:27:22 2 2015-01-02 14:41:27.720 989001002807730 2015-01-02 14:41:27 3 2015-01-02 14:41:27.940 989001002807730 2015-01-02 ...
marco de datos de pandas: loc vs rendimiento de la consulta
Tengo 2 marcos de datos en python que me gustaría consultar para obtener datos. DF1: 4M registros x 3 columnas. La función de consulta parece más eficiente que la función loc. DF2: registros 2K x 6 columnas. La función loc parece mucho más ...
Reemplazar valores nulos en Spark DataFrame
Vi una solución aquí, pero cuando lo intenté no me funciona. Primero importo un archivo cars.csv: val df = sqlContext.read .format("com.databricks.spark.csv") .option("header", "true") .load("/usr/local/spark/cars.csv")Que se parece a lo ...
En R, ¿cómo recorre las filas de un marco de datos realmente rápido?
Suponga que tiene un marco de datos con muchas filas y muchas columnas. Las columnas tienen nombres. Desea acceder a las filas por número y a las columnas por nombre. Por ejemplo, una forma (posiblemente lenta) de recorrer las filas es for (i ...
¿Cómo maneja Spark DataFrame el Pandas DataFrame que es más grande que la memoria?
Ahora estoy aprendiendo Spark, y parece ser la solución de Big Data para Pandas Dataframe, pero tengo esta pregunta que me hace inseguro. Actualmente estoy almacenando marcos de datos Pandas que son más grandes que la memoria usando HDF5. HDF5 ...
R: convertir datos XML a trama de datos
Para una tarea, estoy tratando de convertir un archivo XML en un marco de datos en R. He intentado muchas cosas diferentes, y he buscado ideas en Internet pero no he tenido éxito. Aquí está mi código hasta ahora: library(XML) url <- ...