Servidor de transmisión en vivo HTTP en iPhone

Estoy tratando de ejecutar un servidor HTTP de transmisión en vivo en el iPhone, que captura el flujo de video de la cámara y lo alimenta al cliente HTML5 (que admite HTTP Live Streaming).

Hasta ahora, tengo que seguir trabajando.

Servidor de transmisión HTTP Live en iOS (escrito en Node.js), que actualiza dinámicamente el archivo de índice de la lista de archivos Transport Stream (video / MP2T) generados por el módulo de captura de video.El módulo de captura de video, que usa AVCaptureMovieFileOutput para producir una serie de archivos QuickTime de 10 segundos de forma continua (hay un pequeño espacio entre ellos, pero es lo suficientemente pequeño para mi aplicación).

Lo que necesito es un convertidor sobre la marcha que convierta cada archivo QuickTime en un archivo Transport Stream (no es necesario cambiar la codificación, solo necesito un contenedor diferente), que une los dos módulos anteriores.

Estoy tomando este enfoque porque es la única forma de aprovechar el codificador de video de hardware del iPhone (que he investigado bastante sobre este tema aquí, y estoy 99% seguro. Déjeme) saber si estoy equivocado).

Algunas personas sugirieron ffmpeg, pero preferiría usar un código mucho más pequeño con la licencia MIT (si corresponde) o escribir algo desde cero (y de código abierto con la licencia MIT).

Soy bastante nuevo en este tema del contenedor de medios, y realmente apreciaría si alguien pudiera indicarme la dirección correcta (código de muestra, código abierto, documentos, ...).

Respuestas a la pregunta(1)

Su respuesta a la pregunta