Suchergebnisse für Anfrage "cassandra-2.0"
Wie findet Cassandra den Knoten, der die Daten enthält?
Ich habe einige Artikel und viele Fragen / Antworten zu Cassandra auf SO gelesen, aber ich kann immer noch nicht herausfinden, wie Cassandra entscheidet, zu welchem Knoten er gehen soll, wenn er die Daten liest. Zunächst einige Annahmen zu ...
Warum Apache Spark die Filter auf dem Client durchführt
Neuling bei Apache Spark, Probleme beim Abrufen von Cassandra-Daten bei Spark. List<String> dates = Arrays.asList("2015-01-21","2015-01-22"); CassandraJavaRDD<A> aRDD = CassandraJavaUtil.javaFunctions(sc). cassandraTable("testing", ...
Cassandra hat Zeitüberschreitung gelesen
Ich ziehe große Datenmengen von Cassandra 2.0, bekomme aber leider eine Timeout-Ausnahme. Mein Tisch: CREATE KEYSPACE StatisticsKeyspace WITH REPLICATION = { 'class' : 'SimpleStrategy', 'replication_factor' : 3 }; CREATE ...
Cassandra CQL-Auswahlabfrage gibt keine Datensätze mit Zeitstempel als Clusterschlüssel zurück
Cassandra CQL: Tabelle erstellt mit zusammengesetztem Schlüssel und Clusterschlüssel. Wenn ich versuche, select * vom Partitionsschlüssel auszuführen, kann ich alle Daten abrufen und es funktioniert auch für den relationalen Operator (<oder>). ...
Cassandra: Zeitüberschreitung des Koordinatorknotens beim Warten auf die Antworten der Replikatknoten
Ich habe mit COPY ungefähr 4 Millionen Zeilen aus CSV importiert. Nach 90 Minuten habe ich die folgende Fehlermeldung erhalten, die auf ein Problem beim Warten auf Replikatknoten hinweist. Der Keyspace wird mit dem Replikationsfaktor 1 ...
Exportieren Sie große Datenmengen von Cassandra nach CSV
Ich verwende Cassandra 2.0.9 zum Speichern ziemlich großer Datenmengen, sagen wir 100 GB, in einer Spaltenfamilie. Ich möchte diese Daten schnell in CSV exportieren. Ich habe es versucht: sstable2json- Es werden ziemlich große JSON-Dateien ...
Spark Senden schlägt mit java.lang.NoSuchMethodError fehl: scala.Predef $. $ Conforms () Lscala / Predef $$ less $ colon $ less;
Ich verwende spark 1.3.1 vorab erstellte Version spark-1.3.1-bin-hadoop2.6.tgz Ausnahme im Thread "main" java.lang.NoSuchMethodError: scala.Predef $. $ Conforms () Lscala / Predef $ less $ colon $ less; bei org.apache.spark.util.Utils $ ...
Konsistenzniveau von Cassandra Lightweight-Transaktionen
Ich habe über Cassandra 2s schlanke Transaktionen gelesen. Ist das Konsistenzniveau eines solchen Schreibensimmer bei QUORUM? Würde dies bedeuten, dass das Quorum des gesamten Clusters (der Großteil der Replikate der Zeile in allen Rechenzentren) ...
ResponseError: 4 oder 0 Byte int @ erwart
Ich versuche es mit dem Cassandra-Knotentreiber und stecke beim Einfügen eines Datensatzes fest. Es sieht so aus, als ob der Cassandra-Treiber keine Gleitkommawerte einfügen kann. Problem: When passing int value for insertion in db, api gives ...
Operation in Cassandra auf Konsistenzstufe des Quorums lesen?
Ich lese dasPost [http://www.datastax.com/documentation/cassandra/1.2/cassandra/architecture/architectureClientRequestsRead_c.html] auf Leseoperationen und Konsistenzniveau in Cassandra. Nach diesem Beitrag: In einem Cluster mit einem ...