Erstellen / Schreiben in eine parititoned BigQuery-Tabelle über Google Cloud Dataflow

Ich wollte die neue BigQuery-Funktionalität zeitpartitionierter Tabellen nutzen, bin mir jedoch nicht sicher, ob dies derzeit in der Version 1.6 des Dataflow SDK möglich ist.

Mit Blick auf dieBigQuery JSON API, um eine partitionierte Tagestabelle zu erstellen, muss ein @ übergeben werd

"timePartitioning": { "type": "DAY" }

option, aber in der Schnittstelle com.google.cloud.dataflow.sdk.io.BigQueryIO kann nur eine TableReference angegeben werden.

Ich dachte, ich könnte die Tabelle vielleicht vorab erstellen und einen Partitionsdekorator über ein BigQueryIO.Write.toTableReference-Lambda einbinden ..? Hat noch jemand Erfolg beim Erstellen / Schreiben partitionierter Tabellen über Dataflow?

Dies scheint ein ähnliches Problem zu sein wie das Festlegen destable Ablaufzeit was momentan auch nicht verfügbar ist.

Antworten auf die Frage(12)

Ihre Antwort auf die Frage