Suchergebnisse für Anfrage "spark-cassandra-connector"

10 die antwort

How to fix java.lang.ClassCastException: Instanz von scala.collection.immutable.List kann nicht dem Feldtyp scala.collection.Seq zugewiesen werden?

Dieser Fehler war am schwierigsten nachzuvollziehen. Ich bin nicht sicher, was los ist. Auf meinem Standortcomputer wird ein Spark-Cluster ausgeführt. so ist der gesamte Funken-Cluster unter einem Host, der @ i127.0.0.1 und ich laufe ...

2 die antwort

Spark 1.5.1, Cassandra Connector 1.5.0-M2, Cassandra 2.1, Scala 2.10, NoSuchMethodError-Guavenabhängigkeit

Neu in der Spark-Umgebung (und ziemlich neu für Maven), daher habe ich Probleme damit, die Abhängigkeiten, die ich benötige, richtig zu senden. Es sieht so aus, als hätte Spark 1.5.1 eine Guava-14.0.1-Abhängigkeit, die es zu verwenden versucht, ...

6 die antwort

Was passiert - NoSuchMethodError: com.datastax.driver.core.ResultSet.fetchMoreResults

cassandra-connector-assembly-2.0.0 gebaut ausgithub project. mitScala 2.11.8, cassandra-driver-core-3.1.0 sc.cassandraTable("mykeyspace", "mytable").select("something").where("key=?", key).mapPartitions(par => { par.map({ row => ...

TOP-Veröffentlichungen

22 die antwort

java.lang.NoClassDefFoundError: org / apache / spark / Logging

Ich erhalte immer die folgende Fehlermeldung. Kann mir bitte jemand helfen? Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/Logging at java.lang.ClassLoader.defineClass1(Native Method) ...

4 die antwort

Datastax Cassandra Driver wirft CodecNotFoundException

Die genaue Ausnahme ist wie folgt com.datastax.driver.core.exceptions.CodecNotFoundException: Codec für angeforderte Operation nicht gefunden: [varchar <-> java.math.BigDecimal] Dies sind die Versionen der Software, die ich verwende. Spark ...

4 die antwort

Lesen von Cassandra mit Spark Streaming

Ich habe ein Problem, wenn ich Spark-Streaming verwende, um von Cassandra ...

4 die antwort

Apache Spark benötigt 5 bis 6 Minuten für die einfache Zählung von 1 Billon Zeilen von Cassandra

Ich verwende den Spark Cassandra-Anschluss. Das Abrufen von Daten von der Cassandra-Tabelle dauert 5-6 Minuten. In Spark habe ich viele Aufgaben und Executor im Log gesehen. Der Grund könnte sein, dass Spark den Prozess in viele Aufgaben ...

2 die antwort

Leiten Sie columnNames dynamisch an cassandraTable () weiter. Select ()

Ich lese die Abfrage einer Datei zur Laufzeit und führe sie in der SPark + Cassandra-Umgebung aus. Ich führe aus: sparkContext.cassandraTable.("keyspaceName", "colFamilyName").select("col1", "col2", "col3").where("some condition = ...

6 die antwort

Warum Apache Spark die Filter auf dem Client durchführt

Neuling bei Apache Spark, Probleme beim Abrufen von Cassandra-Daten bei Spark. List<String> dates = Arrays.asList("2015-01-21","2015-01-22"); CassandraJavaRDD<A> aRDD = CassandraJavaUtil.javaFunctions(sc). cassandraTable("testing", ...