Serwer przesyłania strumieniowego na żywo HTTP na iPhone

Próbuję uruchomić serwer przesyłania strumieniowego na żywo HTTP na iPhonie, który przechwytuje strumień wideo z kamery i przekazuje go do klienta HTML5 (który obsługuje HTTP Live Streaming).

Do tej pory mam pracę.

HTTP Live streaming server na iOS (napisany w Node.js), który dynamicznie aktualizuje plik indeksu z listy plików Transport Stream (wideo / MP2T) generowanych przez moduł przechwytywania wideo.Moduł przechwytywania wideo, który używa AVCaptureMovieFileOutput do ciągłego tworzenia serii 10-sekundowych plików QuickTime (między nimi jest niewielka przerwa, ale jest ona wystarczająco mała dla mojej aplikacji).

Potrzebuję konwertera „w locie”, który przekształca każdy plik QuickTime w plik strumienia transportowego (nie ma potrzeby zmiany kodowania, potrzebuję tylko innego kontenera), który łączy dwa powyższe moduły.

Przyjmuję to podejście, ponieważ jest to jedyny sposób, aby wykorzystać sprzętowy koder wideo iPhone'a, o ile mi wiadomo (przeprowadziłem tu dość obszerne badania na ten temat i mam 99% pewności. Proszę pozwolić mi wiem, czy się mylę).

Kilka osób zasugerowało ffmpeg, ale wolałbym używać znacznie mniejszego kodu z licencją MIT (jeśli istnieje) lub napisać coś od zera (i otworzyć go z licencją MIT).

Jestem całkiem nowy w tym kontenerze multimedialnym i naprawdę byłbym wdzięczny, gdyby ktoś wskazał mi właściwy kierunek (przykładowy kod, open source, dokumenty, ...).

questionAnswers(1)

yourAnswerToTheQuestion