Stream Analytics: ruta de salida dinámica basada en la carga útil del mensaje

Estoy trabajando en una solución de análisis de IoT que consume mensajes formateados de Avro disparados en un Azure IoT Hub y (con suerte) usa Stream Analytics para almacenar mensajes en Data Lake y el almacenamiento de blobs. Un requisito clave es que los contenedores de Avro deben aparecer exactamente igual en el almacenamiento que cuando se presentaron al IoT Hub, para beneficio de los consumidores intermedios.

Me encuentro con una limitación en Stream Analytics con control granular sobre la creación de archivos individuales. Al configurar una nueva ruta de flujo de salida, solo puedo proporcionar fecha / día y hora en el prefijo de ruta, lo que da como resultado un archivo por cada hora en lugar de un archivo por cada mensaje recibido. El cliente requiere contenedores de blobs separados para cada dispositivo y blobs separados para cada evento. Del mismo modo, el requisito de Data Lake dicta al menos una convención de nomenclatura sensata que está delineada por dispositivo, con archivos separados para cada evento ingerido.

¿Alguien ha configurado correctamente Stream Analytics para crear un nuevo archivo cada vez que aparece un mensaje fuera de la entrada? ¿Es esta una limitación difícil del producto?

Respuestas a la pregunta(1)

Su respuesta a la pregunta