SparkR chinesisches Zeichen falsch anzeigen
Ich bin neu bei SparkR. Heutzutage ist ein Problem aufgetreten, das nach dem Konvertieren einer Datei mit chinesischen Zeichen in SparkR nicht mehr richtig angezeigt wird. So was
city=c("北京","上海","杭州")
A <- as.data.frame(city)
A
city
1 北京
2 上海
3 杭州
Dann habe ich einen DataFram in SparkR darauf basierend erstellt und ihn gesammelt, alles was sich geändert hat.
collect(createDataFrame(sqlContext,A))
city
1 \027\xac
2 \nw
3 m\xde
Ich weiß nicht, wie ich sie wieder auf ein lesbares chinesisches Zeichen übertragen soll, oder ich hoffe sogar, dass ich ein lesbares Zeichen in SparkR bekomme, was für mich zum Debuggen praktisch sein sollte.
Ich verwende einen Linux-Server, bin mir nicht sicher, ob es damit zusammenhängt. Weiß jemand etwas darüber?
Below ist die sessionInfo ()
> sessionInfo()
R version 3.2.2 (2015-08-14)
Platform: x86_64-redhat-linux-gnu (64-bit)
Running under: Red Hat Enterprise Linux Server 7.2 (Maipo)
locale:
[1] LC_CTYPE=en_US.UTF-8 LC_NUMERIC=C LC_TIME=en_US.UTF-8 LC_COLLATE=en_US.UTF-8
[5] LC_MONETARY=en_US.UTF-8 LC_MESSAGES=en_US.UTF-8 LC_PAPER=en_US.UTF-8 LC_NAME=C
[9] LC_ADDRESS=C LC_TELEPHONE=C LC_MEASUREMENT=en_US.UTF-8 LC_IDENTIFICATION=C
attached base packages:
[1] stats graphics grDevices utils datasets methods base
other attached packages:
[1] SparkR_1.5.2
loaded via a namespace (and not attached):
[1] tools_3.2.2