SparkR chinesisches Zeichen falsch anzeigen

Ich bin neu bei SparkR. Heutzutage ist ein Problem aufgetreten, das nach dem Konvertieren einer Datei mit chinesischen Zeichen in SparkR nicht mehr richtig angezeigt wird. So was

city=c("北京","上海","杭州")
A <- as.data.frame(city)
A
  city
1 北京
2 上海
3 杭州

Dann habe ich einen DataFram in SparkR darauf basierend erstellt und ihn gesammelt, alles was sich geändert hat.

collect(createDataFrame(sqlContext,A))
      city
1 \027\xac
2      \nw
3    m\xde

Ich weiß nicht, wie ich sie wieder auf ein lesbares chinesisches Zeichen übertragen soll, oder ich hoffe sogar, dass ich ein lesbares Zeichen in SparkR bekomme, was für mich zum Debuggen praktisch sein sollte.

Ich verwende einen Linux-Server, bin mir nicht sicher, ob es damit zusammenhängt. Weiß jemand etwas darüber?

Below ist die sessionInfo ()

> sessionInfo()
R version 3.2.2 (2015-08-14)
Platform: x86_64-redhat-linux-gnu (64-bit)
Running under: Red Hat Enterprise Linux Server 7.2 (Maipo)

locale:
 [1] LC_CTYPE=en_US.UTF-8       LC_NUMERIC=C               LC_TIME=en_US.UTF-8        LC_COLLATE=en_US.UTF-8    
 [5] LC_MONETARY=en_US.UTF-8    LC_MESSAGES=en_US.UTF-8    LC_PAPER=en_US.UTF-8       LC_NAME=C                 
 [9] LC_ADDRESS=C               LC_TELEPHONE=C             LC_MEASUREMENT=en_US.UTF-8 LC_IDENTIFICATION=C       

attached base packages:
[1] stats     graphics  grDevices utils     datasets  methods   base     

other attached packages:
[1] SparkR_1.5.2

loaded via a namespace (and not attached):
[1] tools_3.2.2

Antworten auf die Frage(2)

Ihre Antwort auf die Frage