Django + Postgres + Series de tiempo grandes

Estoy explorando un proyecto con datos de series de tiempo grandes, en su mayoría incompresibles, y me pregunto si Django + Postgres con SQL sin procesar es la decisión correcta.

Tengo datos de series de tiempo que son ~ 2K objetos / hora, cada hora. Esto es alrededor de 2 millones de filas por año que almaceno, y me gustaría 1) poder cortar datos para el análisis a través de una conexión, 2) poder hacer un trabajo de resumen general en la web, servido por Django. Creo que la mejor idea es usar Django para los objetos en sí mismos, pero recurrir a SQL sin procesar para tratar con los datos de grandes series de tiempo asociados. Veo esto como un enfoque híbrido; eso puede ser una señal de alerta, pero usar el ORM completo para una larga serie de muestras de datos parece excesivo. ¿Hay una mejor manera?

Respuestas a la pregunta(4)

Su respuesta a la pregunta