Change block size of dfs file

Meine Map ist derzeit ineffizient, wenn ein bestimmter Satz von Dateien analysiert wird (insgesamt 2 TB). Ich möchte die Blockgröße von Dateien im Hadoop-DFS ändern (von 64 MB auf 128 MB). Ich kann in der Dokumentation nicht feststellen, wie dies nur für einen Satz von Dateien und nicht für den gesamten Cluster durchgeführt wird.

Welcher Befehl ändert die Blockgröße beim Hochladen? (Zum Beispiel Kopieren von lokal nach dfs.)

Antworten auf die Frage(5)

Ihre Antwort auf die Frage