Как мне задать хороший вопрос?

кли проблемы с получением функции округления в pyspar, k для работы - у меня есть блок кода ниже, где я пытаюсь округлитьnew_bid столбец с двумя десятичными разрядами и переименуйте столбец вbid потом - я импортируюpyspark.sql.functions AS func для справки, и используяround функция, содержащаяся в нем:

output = output.select(col("ad").alias("ad_id"),
                       col("part").alias("part_id"),
                       func.round(col("new_bid"), 2).alias("bid"))

new_bid здесь столбец имеет тип float - результирующий информационный кадр не имеет недавно названногоbid столбец, округленный до 2 знаков после запятой, как я пытаюсь сделать, скорее это все еще 8 или 9 знаков после запятой.

Я пробовал разные вещи, но, кажется, не могу получить результирующий фрейм данных с округленным значением - любые указатели будут с благодарностью! Спасибо!

Ответы на вопрос(1)

Решение Вопроса

spark.version
# u'2.2.0'

import pyspark.sql.functions as func

df = spark.createDataFrame(
        [(0.0, 0.2, 3.45631),
         (0.4, 1.4, 2.82945),
         (0.5, 1.9, 7.76261),
         (0.6, 0.9, 2.76790),
         (1.2, 1.0, 9.87984)],
         ["col1", "col2", "col3"])

df.show()
# +----+----+-------+ 
# |col1|col2|   col3|
# +----+----+-------+
# | 0.0| 0.2|3.45631| 
# | 0.4| 1.4|2.82945|
# | 0.5| 1.9|7.76261| 
# | 0.6| 0.9| 2.7679| 
# | 1.2| 1.0|9.87984| 
# +----+----+-------+

# round 'col3' in a new column:
df2 = df.withColumn("col4", func.round(df["col3"], 2)).withColumnRenamed("col4","new_col3")
df2.show()
# +----+----+-------+--------+ 
# |col1|col2|   col3|new_col3|
# +----+----+-------+--------+
# | 0.0| 0.2|3.45631|    3.46|
# | 0.4| 1.4|2.82945|    2.83|
# | 0.5| 1.9|7.76261|    7.76|
# | 0.6| 0.9| 2.7679|    2.77|
# | 1.2| 1.0|9.87984|    9.88|
# +----+----+-------+--------+

# round & replace existing 'col3':
df3 = df.withColumn("col3", func.round(df["col3"], 2))
df3.show()
# +----+----+----+ 
# |col1|col2|col3| 
# +----+----+----+ 
# | 0.0| 0.2|3.46| 
# | 0.4| 1.4|2.83| 
# | 0.5| 1.9|7.76| 
# | 0.6| 0.9|2.77| 
# | 1.2| 1.0|9.88| 
# +----+----+----+ 

Это личный вкус, но я не очень весело ниcol ниalias - Я предпочитаюwithColumn а такжеwithColumnRenamed вместо. Тем не менее, если вы хотите придерживатьсяselect а такжеcolВот как вы должны адаптировать свой собственный фрагмент кода:

from pyspark.sql.functions import col

df4 = df.select(col("col1").alias("new_col1"), 
                col("col2").alias("new_col2"), 
                func.round(df["col3"],2).alias("new_col3"))
df4.show()
# +--------+--------+--------+ 
# |new_col1|new_col2|new_col3| 
# +--------+--------+--------+
# |     0.0|     0.2|    3.46|
# |     0.4|     1.4|    2.83|
# |     0.5|     1.9|    7.76|
# |     0.6|     0.9|    2.77|
# |     1.2|     1.0|    9.88|
# +--------+--------+--------+

PS Это всегда хорошая идея, чтобы предоставить некоторые примеры данных и желаемый результат с вашим вопросом, а также любой соответствующий импорт - см.Как мне задать хороший вопрос?.

Ваш ответ на вопрос