Спасибо за ваш ответ. Начиная с новой версии SDK 2.x, источник Pub / Sub находится только в потоковом режиме. Так что это решение не будет возможно в этом случае. :-(

ользую потоковые конвейеры Cloud Dataflow для вставки событий, полученных из Pub / Sub, в набор данных BigQuery. Мне нужно несколько, чтобы каждая работа была простой и легкой в ​​обслуживании.

Меня беспокоит глобальная стоимость. Объем данных не очень большой. И в течение нескольких периодов дня нет никаких данных (никаких сообщений в pub / sub).

Я бы хотел, чтобы этот поток данных масштабировался до 0 рабочих, пока не будет получено новое сообщение. Но кажется, что минимальный рабочий - 1.

Таким образом, минимальная цена за каждую работу в течение дня будет составлять: 24 часа в час. Так что минимум 50 долларов в месяц за работу. (без скидки при ежемесячном использовании)

Я планирую запускать и дренировать свою работу через API несколько раз в день, чтобы избежать одного работника, работающего полный рабочий день. Но это не похоже на правильную форму для управляемого сервиса, такого как DataFlow.

Я что-то пропустил?

Ответы на вопрос(1)

Ваш ответ на вопрос