Resultados de la búsqueda a petición "pyspark-sql"

1 la respuesta

Cómo implementar el incremento automático en spark SQL (PySpark)

Necesito implementar una columna de incremento automático en mi tabla spark sql, ¿cómo podría hacer eso? Amablemente guíame. estoy usando pyspark 2.0 Gracias kalyan

1 la respuesta

¿Cómo crear un json anidado en Pyspark?

Estoy tratando de crear un json anidado a partir de los datos a continuación. Solo los nombres de campo comosegid yval son constantes, el resto no es constante. Necesito ponerlos en la lista de categorías. Podrias ayudarme por favor ...

1 la respuesta

pyspark mysql jdbc load Se produjo un error al llamar a o23.load No hay controlador adecuado

Yo uso docker imagesecuencia / chispa [https://hub.docker.com/r/sequenceiq/spark/]en mi Mac para estudiar estos ejemplos de chispa [http://spark.apache.org/examples.html], durante el proceso de estudio, actualizo la chispa dentro de esa imagen a ...

2 la respuesta

PySpark: obtenga el número de fila para cada fila de un grupo

Con pyspark, me gustaría poder agrupar un marco de datos de chispa, ordenar el grupo y luego proporcionar un número de fila. Entonces Group Date A 2000 A 2002 A 2007 B 1999 B 2015Se convertiría Group Date row_num A 2000 0 A 2002 1 A 2007 2 B ...

1 la respuesta

mplementación de @Pyspark de DATEADD

Tengo mi código T-SQL como se muestra a continuación cast( dateadd(minute, - 240, tmp_view_tos_lenelgate_qry11.eventdate) as date Cómo implementarDATE_ADD funtion en PYSPARK?

1 la respuesta

Spark 2.0: ruta relativa en URI absoluto (almacén de chispas)

Estoy tratando de migrar de Spark 1.6.1 a Spark 2.0.0 y recibo un error extraño al intentar leer un archivo csv en SparkSQL. Anteriormente, cuando leía un archivo del disco local en pyspark, hacía: Spark 1.6 df = sqlContext.read \ ...

1 la respuesta

GroupByKey y cree listas de valores pyspark sql dataframe

Entonces tengo un marco de datos de chispa que se parece a: a | b | c 5 | 2 | 1 5 | 4 | 3 2 | 4 | 2 2 | 3 | 7Y quiero agrupar por columnaa, cree una lista de valores de la columna b, y olvídese de c. El marco de datos de salida sería: a | ...

2 la respuesta

PySpark: ¿Cómo crear un JSON anidado a partir del marco de datos de chispa?

Estoy tratando de crear un json anidado a partir de mi marco de datos de chispa que tiene datos en la siguiente estructura. El siguiente código está creando un json simple con clave y valor. Podrias ayudarme por ...

5 la respuesta

PySpark Dataframe del Diccionario Python sin Pandas

Estoy tratando de convertir el siguiente Pythondict en PySpark DataFrame pero no obtengo el resultado esperado. dict_lst = {'letters': ['a', 'b', 'c'], 'numbers': [10, 20, 30]} df_dict = sc.parallelize([dict_lst]).toDF() # Result not as ...

1 la respuesta

Spark 2.0: redefiniendo los parámetros de SparkSession a través de GetOrCreate y NO viendo cambios en WebUI

Estoy usando Spark 2.0 con PySpark. Estoy redefiniendoSparkSession parámetros a través de unGetOrCreate Método que se introdujo en 2.0: Este método primero comprueba si hay una SparkSession predeterminada global válida y, en caso afirmativo, ...