Stream Analytics: динамический выходной путь, основанный на полезной нагрузке сообщения

Я работаю над решением для IoT-аналитики, которое использует сообщения в формате Avro, отправленные на концентратор IoT Azure, и (надеюсь) использует Stream Analytics для хранения сообщений в Data Lake и хранилище больших двоичных объектов. Ключевым требованием является то, что контейнеры Avro должны отображаться в хранилище точно так же, как они были представлены при представлении в IoT Hub, в интересах последующих потребителей.

Я сталкиваюсь с ограничением в Stream Analytics с детальным контролем над созданием отдельных файлов. При настройке нового пути потока вывода я могу указать только дату / день и час в префиксе пути, в результате один файл на каждый час вместо одного файла для каждого полученного сообщения. Заказчику требуются отдельные контейнеры BLOB-объектов для каждого устройства и отдельные BLOB-объекты для каждого события. Точно так же требование Data Lake требует, по крайней мере, разумного соглашения об именах, которое определяется устройством, с отдельными файлами для каждого принятого события.

Кто-нибудь успешно настроил Stream Analytics для создания нового файла каждый раз, когда он выводит сообщение из ввода? Это жесткое ограничение продукта?

Ответы на вопрос(1)

Ваш ответ на вопрос