Suchergebnisse für Anfrage "apache-zeppelin"
Warum Zeppelin Notebook keine Verbindung zu S3 herstellen kann
Ich habe installiertZeppeli [https://github.com/apache/incubator-zeppelin], auf meinem aws EC2-Computer, um eine Verbindung zu meinem Spark-Cluster herzustellen. Spark Version: Standalone: spark-1.2.1-bin-hadoop1.tgz Ich kann eine Verbindung ...
Keine Dolmetscher in Zeppelin verfügbar
Ich habe gerade Folgendes auf meinem Mac (Yosemite 10.10.3) installiert: oracle java 1.8 Update 45scala 2.11.6spark 1.4 (vorkompilierte ...
Temporäre Tabellen aus Apache SQL Spark entfernen
Ich haberegistertemptable imApache Spark usingZeppelin unten: val hvacText = sc.textFile("...") case class Hvac(date: String, time: String, targettemp: Integer, actualtemp: Integer, buildingID: String) val hvac = hvacText.map(s => ...
Wie richte ich Zeppelin so ein, dass es mit einem entfernten EMR-Garncluster zusammenarbeitet?
Ich habe einen Amazon EMR Hadoop v2.6-Cluster mit Spark 1.4.1 und Yarn Resource Manager. Ich möchte Zeppelin auf einem separaten Computer bereitstellen, damit der EMR-Cluster deaktiviert werden kann, wenn keine Jobs ausgeführt werden. Ich habe ...
Ist es möglich, den Skin auf Zeppelin anzupassen?
Ist es möglich, den Skin auf Zeppelin anzupassen? Mit anderen Worten, ersetzen Sie das Zeppelin-Logo durch etwas anderes?
Lesen von csv-Dateien in Zeppelin mit spark-csv
Ich möchte CSV-Dateien in Zeppelin lesen und möchte das Spark-CSV-Paket von Databricks verwenden:https: //github.com/databricks/spark-cs [https://github.com/databricks/spark-csv] In der Spark-Shell kann ich Spark-CSV mit @ verwend spark-shell ...
Apache Zeppelin Tutorial, Fehler "SQL Interpreter nicht gefunden"
In dem "Zeppelin Tutorial "Notebook, ich kann das @ nicht verwend% sql interpreter. Es wird "sql interpreter not found ". Aber die Funkenbefehle funktionieren genauso gut wie%md und%sh. Hier ist das Protokoll: ERROR [2015-10-20 10: 13: 35,045] ...
Zeppelin: Scala Dataframe zu Python
Wenn ich einen Scala-Absatz mit einem DataFrame habe, kann ich diesen mit Python teilen und verwenden. (Wie ich es verstehe, verwendet pyspark py4j [https://www.py4j.org/advanced_topics.html#array]) Ich habe es versucht: Scala ...
Registrieren Sie UDF in SqlContext von Scala zur Verwendung in PySpark
Ist es möglich, eine in Scala geschriebene UDF (oder Funktion) für die Verwendung in PySpark zu registrieren? Z.B. val mytable = sc.parallelize(1 to 2).toDF("spam") mytable.registerTempTable("mytable") def addOne(m: Integer): Integer = m + 1 ...
erschieben von Spark DataFrame von Python nach Scala mit Zeppel
Ich habe einen Funken DataFrame in einem Python-Absatz in Zeppelin erstellt. sqlCtx = SQLContext(sc) spDf = sqlCtx.createDataFrame(df)unddf ist ein Pandas-Datenrahmen print(type(df)) <class 'pandas.core.frame.DataFrame'>was ich tun möchte, ...
Seite 1 von 2