Spark scala: SELECT in einer foreach-Schleife gibt java.lang.NullPointerException @ zurü

Ich muss den Inhalt eines DF mit verschiedenen SELECT-Anweisungen in einer foreach-Schleife durchlaufen und die Ausgabe in Textdateien schreiben. Jede SELECT-Anweisung in der foreach-Schleife gibt eine NullPointerException zurück. Ich kann nicht verstehen, warum das so ist. Eine SELECT-Anweisung in einer "for" -Schleife gibt diesen Fehler nicht zurück.

Dies ist der Testfall.

// step 1 of 6: create the table and load two rows
vc.sql(s"""CREATE TEMPORARY TABLE TEST1 (
 c1       varchar(4)
,username varchar(5)
,numeric integer) USING com.databricks.spark.csv OPTIONS (path "/tmp/test.txt")""")

// step 2 of 6: confirm that the data is queryable
vc.sql("SELECT * FROM TEST1").show()
+----+--------+-------+
|  c1|username|numeric|
+----+--------+-------+
|col1|   USER1|      0|
|col1|   USER2|      1|
+----+--------+-------+

// Step 3 of 6: create a dataframe for the table
var df=vc.sql("""SELECT * FROM TEST1""")


// step 4 of 6: create a second dataframe that we will use as a loop iterator
var df_usernames=vc.sql(s"""SELECT DISTINCT username FROM TEST1 """)

// step 5 of 6: first foreach loop works ok:
df_usernames.foreach(t => 
    {
      println("(The First foreach works ok: loop iterator t is " + t(0).toString() )
    }
)
(The First foreach works ok: loop iterator t is USER1
(The First foreach works ok: loop iterator t is USER2

// step 6 of 6: second foreach with any embedded SQL returns an error
df_usernames.foreach(t => 
    {
      println("(The second foreach dies: loop iterator t is " +     t(0).toString() )
      vc.sql("""SELECT c1 FROM TEST1""").show()
    }
)    
The second foreach dies: loop iterator t is USER1
org.apache.spark.SparkException: Job aborted due to stage failure: Task 158     in stage 94.0 failed 1 times, most recent failure: Lost task 158.0 in stage 94.0 (TID 3525, localhost): java.lang.NullPointerException
    at org.apache.spark.sql.SQLContext.parseSql(SQLContext.scala:195)

Antworten auf die Frage(2)

Ihre Antwort auf die Frage