Suchergebnisse für Anfrage "apache-zeppelin"
Apache Zeppelin Tutorial, Fehler "SQL Interpreter nicht gefunden"
In dem "Zeppelin Tutorial "Notebook, ich kann das @ nicht verwend% sql interpreter. Es wird "sql interpreter not found ". Aber die Funkenbefehle funktionieren genauso gut wie%md und%sh. Hier ist das Protokoll: ERROR [2015-10-20 10: 13: 35,045] ...
Temporäre Tabellen aus Apache SQL Spark entfernen
Ich haberegistertemptable imApache Spark usingZeppelin unten: val hvacText = sc.textFile("...") case class Hvac(date: String, time: String, targettemp: Integer, actualtemp: Integer, buildingID: String) val hvac = hvacText.map(s => ...
erschieben von Spark DataFrame von Python nach Scala mit Zeppel
Ich habe einen Funken DataFrame in einem Python-Absatz in Zeppelin erstellt. sqlCtx = SQLContext(sc) spDf = sqlCtx.createDataFrame(df)unddf ist ein Pandas-Datenrahmen print(type(df)) <class 'pandas.core.frame.DataFrame'>was ich tun möchte, ...
Ist es möglich, den Skin auf Zeppelin anzupassen?
Ist es möglich, den Skin auf Zeppelin anzupassen? Mit anderen Worten, ersetzen Sie das Zeppelin-Logo durch etwas anderes?
Keine Dolmetscher in Zeppelin verfügbar
Ich habe gerade Folgendes auf meinem Mac (Yosemite 10.10.3) installiert: oracle java 1.8 Update 45scala 2.11.6spark 1.4 (vorkompilierte ...
Warum Zeppelin Notebook keine Verbindung zu S3 herstellen kann
Ich habe installiertZeppeli [https://github.com/apache/incubator-zeppelin], auf meinem aws EC2-Computer, um eine Verbindung zu meinem Spark-Cluster herzustellen. Spark Version: Standalone: spark-1.2.1-bin-hadoop1.tgz Ich kann eine Verbindung ...
Lesen von csv-Dateien in Zeppelin mit spark-csv
Ich möchte CSV-Dateien in Zeppelin lesen und möchte das Spark-CSV-Paket von Databricks verwenden:https: //github.com/databricks/spark-cs [https://github.com/databricks/spark-csv] In der Spark-Shell kann ich Spark-CSV mit @ verwend spark-shell ...
Ist es möglich, globale Variablen in einem Zeppelin Notebook zu setzen?
Ich versuche, mit einem Zeppelin-Notizbuch ein Dashboard mit mehreren Absätzen zu erstellen. Ich möchte, dass Personen, die das Dashboard verwenden, bestimmte Parameter nur einmal eingeben müssen. Z.B. Wenn ich ein Dashboard mit Informationen zu ...
Registrieren Sie UDF in SqlContext von Scala zur Verwendung in PySpark
Ist es möglich, eine in Scala geschriebene UDF (oder Funktion) für die Verwendung in PySpark zu registrieren? Z.B. val mytable = sc.parallelize(1 to 2).toDF("spam") mytable.registerTempTable("mytable") def addOne(m: Integer): Integer = m + 1 ...
Zeppelin: Scala Dataframe zu Python
Wenn ich einen Scala-Absatz mit einem DataFrame habe, kann ich diesen mit Python teilen und verwenden. (Wie ich es verstehe, verwendet pyspark py4j [https://www.py4j.org/advanced_topics.html#array]) Ich habe es versucht: Scala ...
Seite 1 von 2