Suchergebnisse für Anfrage "spark-cassandra-connector"
How to fix java.lang.ClassCastException: Instanz von scala.collection.immutable.List kann nicht dem Feldtyp scala.collection.Seq zugewiesen werden?
Dieser Fehler war am schwierigsten nachzuvollziehen. Ich bin nicht sicher, was los ist. Auf meinem Standortcomputer wird ein Spark-Cluster ausgeführt. so ist der gesamte Funken-Cluster unter einem Host, der @ i127.0.0.1 und ich laufe ...
Spark 1.5.1, Cassandra Connector 1.5.0-M2, Cassandra 2.1, Scala 2.10, NoSuchMethodError-Guavenabhängigkeit
Neu in der Spark-Umgebung (und ziemlich neu für Maven), daher habe ich Probleme damit, die Abhängigkeiten, die ich benötige, richtig zu senden. Es sieht so aus, als hätte Spark 1.5.1 eine Guava-14.0.1-Abhängigkeit, die es zu verwenden versucht, ...
Was passiert - NoSuchMethodError: com.datastax.driver.core.ResultSet.fetchMoreResults
cassandra-connector-assembly-2.0.0 gebaut ausgithub project. mitScala 2.11.8, cassandra-driver-core-3.1.0 sc.cassandraTable("mykeyspace", "mytable").select("something").where("key=?", key).mapPartitions(par => { par.map({ row => ...
java.lang.NoClassDefFoundError: org / apache / spark / Logging
Ich erhalte immer die folgende Fehlermeldung. Kann mir bitte jemand helfen? Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/Logging at java.lang.ClassLoader.defineClass1(Native Method) ...
Datastax Cassandra Driver wirft CodecNotFoundException
Die genaue Ausnahme ist wie folgt com.datastax.driver.core.exceptions.CodecNotFoundException: Codec für angeforderte Operation nicht gefunden: [varchar <-> java.math.BigDecimal] Dies sind die Versionen der Software, die ich verwende. Spark ...
Lesen von Cassandra mit Spark Streaming
Ich habe ein Problem, wenn ich Spark-Streaming verwende, um von Cassandra ...
Apache Spark benötigt 5 bis 6 Minuten für die einfache Zählung von 1 Billon Zeilen von Cassandra
Ich verwende den Spark Cassandra-Anschluss. Das Abrufen von Daten von der Cassandra-Tabelle dauert 5-6 Minuten. In Spark habe ich viele Aufgaben und Executor im Log gesehen. Der Grund könnte sein, dass Spark den Prozess in viele Aufgaben ...
Leiten Sie columnNames dynamisch an cassandraTable () weiter. Select ()
Ich lese die Abfrage einer Datei zur Laufzeit und führe sie in der SPark + Cassandra-Umgebung aus. Ich führe aus: sparkContext.cassandraTable.("keyspaceName", "colFamilyName").select("col1", "col2", "col3").where("some condition = ...
Warum Apache Spark die Filter auf dem Client durchführt
Neuling bei Apache Spark, Probleme beim Abrufen von Cassandra-Daten bei Spark. List<String> dates = Arrays.asList("2015-01-21","2015-01-22"); CassandraJavaRDD<A> aRDD = CassandraJavaUtil.javaFunctions(sc). cassandraTable("testing", ...