Suchergebnisse für Anfrage "hdfs"

2 die antwort

Verhalten des Parameters „mapred.min.split.size“ in HDFS

2 die antwort

Festlegen von fs.default.name in core-site.xml Setzt HDFS auf Safemode

Ich habe die Cloudera CDH4-Distribution auf einem einzelnen Computer im Pseudo-Distributed-Modus installiert und erfolgreich getestet, ob sie ordnungsgemäß f...

8 die antwort

Datenblockgröße in HDFS, warum 64 MB?

TOP-Veröffentlichungen

11 die antwort

Skalierbarer Bildspeicher

Derzeit entwerfe ich eine Architektur für eine webbasierte Anwendung, die auch eine Art Bildspeicher bieten soll. Benutzer können Fotos als eines der Hauptme...

2 die antwort

Hadoop-Methode zum Senden der Ausgabe an mehrere Verzeichnisse

2 die antwort

Hadoop FileSystem hat beim Ausführen von BufferedReader.close () eine Ausnahme geschlossen

In der Reduce-Setup-Methode versuche ich, a zu schließen

4 die antwort

Analysieren Sie CSV als DataFrame / DataSet mit Apache Spark und Java

Ich bin neu in der Funkenbildung und möchte Group-by & Reduce verwenden, um Folgendes aus CSV zu ermitteln (eine Zeile pro Angestelltem): Department, Designation, costToCompany, State Sales, Trainee, 12000, UP Sales, Lead, 32000, AP Sales, Lead, ...

2 die antwort

Welcher Unterschied besteht zwischen der Ausführung eines Auftrags zur Kartenreduzierung mit dem Befehl hadoop und dem Befehl java?

Hier finden Sie viele Optionen zum Ausführen eines Programms zur Kartenreduzierung. Kann jemand den Unterschied zwischen diesen Befehlen erklären? Und welche Auswirkungen auf die Kartenreduzierung? java -jar MyMapReduce.jar [args] hadoop jar ...

2 die antwort

Der Befehl "hadoop fs -ls." Funktioniert nicht

Ich denke ich habe Hadoop richtig installiert. Wenn ich machejps Ich kann den namenode und den datanode sehen, kein Problem. Wenn ich tippehadoop fs -ls . Ich erhalte den Fehler: Java HotSpot(TM) 64-Bit Server VM warning: You have loaded ...

2 die antwort

Wie verwende ich Hadoop InputFormats in Apache Spark?

ich habe ein klasseImageInputFormat in Hadoop, das Bilder von HDFS liest. Wie verwende ich mein InputFormat in Spark? Hier ist meinImageInputFormat: public class ImageInputFormat extends FileInputFormat<Text, ImageWritable> { @Override public ...