PySpark: Como preencher valores no dataframe para colunas específicas?

Eu tenho o seguinte exemplo DataFrame:

a    | b    | c   | 

1    | 2    | 4   |
0    | null | null| 
null | 3    | 4   |

E eu quero substituir valores nulos apenas nas 2 primeiras colunas - coluna "a" e "b":

a    | b    | c   | 

1    | 2    | 4   |
0    | 0    | null| 
0    | 3    | 4   |

Aqui está o código para criar um dataframe de amostra:

rdd = sc.parallelize([(1,2,4), (0,None,None), (None,3,4)])
df2 = sqlContext.createDataFrame(rdd, ["a", "b", "c"])

Eu sei como substituir todos os valores nulos usando:

df2 = df2.fillna(0)

E quando tento isso, perco a terceira coluna:

df2 = df2.select(df2.columns[0:1]).fillna(0)

questionAnswers(2)

yourAnswerToTheQuestion