Spark SQL-Abfrageausführung auf Hive

Ich bin neu in Spark SQL, kenne aber das Framework für die Ausführung von Hive-Abfragen. Ich möchte verstehen, wie Spark SQL-Abfragen ausführt (technische Beschreibung).

Wenn ich unter Befehl feuere

val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
sqlContext.sql("select count(distinct(id)) from test.emp").collect

In Hive wird es in einen Map-Reduce-Job konvertiert, aber wie wird es in Spark ausgeführt?

Wie kommt der Bienenstock-Metastore ins Bild?

Danke im Voraus

Antworten auf die Frage(2)

Ihre Antwort auf die Frage