Servidor de transmissão ao vivo HTTP no iPhone

Eu estou tentando executar um servidor de transmissão ao vivo HTTP no iPhone, que captura o fluxo de vídeo da câmera e alimentá-lo para o cliente HTML5 (que suporta HTTP Live Streaming).

Até agora eu tenho seguido o trabalho.

HTTP Live Streaming Server no iOS (escrito em Node.js), que atualiza dinamicamente o arquivo de índice da lista de arquivos de fluxo de transporte (vídeo / MP2T) gerados pelo módulo de captura de vídeo.Módulo de captura de vídeo, que usa o AVCaptureMovieFileOutput para produzir continuamente uma série de arquivos QuickTime de 10 segundos (há um pequeno espaço entre eles, mas é pequeno o suficiente para meu aplicativo).

O que eu preciso é de um conversor on-the-fly que converta cada arquivo do QuickTime em um arquivo de fluxo de transporte (não é necessário alterar a codificação, eu só preciso de um contêiner diferente), que conecta dois módulos acima.

Estou adotando essa abordagem porque esta é a única maneira de aproveitar o codificador de vídeo por hardware do iPhone, tanto quanto eu sei (já fiz bastante pesquisa sobre esse assunto aqui, e tenho 99% de certeza. Por favor, deixe-me sei se estou errado).

Algumas pessoas sugeriram o ffmpeg, mas prefiro usar um código muito menor com a licença do MIT (se houver) ou escrever algo do zero (e abrir o código com a licença do MIT).

Eu sou muito novo nessa coisa de contêiner de mídia, e eu realmente aprecio se alguém puder me apontar na direção certa (código de exemplo, código aberto, documentos, ...).

questionAnswers(1)

yourAnswerToTheQuestion