Спасибо за ваш ответ. Начиная с новой версии SDK 2.x, источник Pub / Sub находится только в потоковом режиме. Так что это решение не будет возможно в этом случае. :-(
ользую потоковые конвейеры Cloud Dataflow для вставки событий, полученных из Pub / Sub, в набор данных BigQuery. Мне нужно несколько, чтобы каждая работа была простой и легкой в обслуживании.
Меня беспокоит глобальная стоимость. Объем данных не очень большой. И в течение нескольких периодов дня нет никаких данных (никаких сообщений в pub / sub).
Я бы хотел, чтобы этот поток данных масштабировался до 0 рабочих, пока не будет получено новое сообщение. Но кажется, что минимальный рабочий - 1.
Таким образом, минимальная цена за каждую работу в течение дня будет составлять: 24 часа в час. Так что минимум 50 долларов в месяц за работу. (без скидки при ежемесячном использовании)
Я планирую запускать и дренировать свою работу через API несколько раз в день, чтобы избежать одного работника, работающего полный рабочий день. Но это не похоже на правильную форму для управляемого сервиса, такого как DataFlow.
Я что-то пропустил?