ETL и анализ CSV-файлов в облачном потоке данных

Я новичок в облачном потоке данных и Java, поэтому надеюсь, что это правильный вопрос.

У меня есть CSV-файл с n количеством столбцов и строк, которые могут быть строкой, целым числом или отметкой времени. Нужно ли создавать новую коллекцию PC для каждой колонки?

Большая часть документации, которую я нашел в примерах, выглядит примерно так:

PCollection<String> data = p.apply(TextIO.Read.from("gs://abc/def.csv"));

Но для меня не имеет смысла импортировать весь CSV-файл в виде строки. Чего мне здесь не хватает и как мне настроить PCollections?

Ответы на вопрос(2)

Ваш ответ на вопрос