HTTP Live Streaming Server auf dem iPhone

Ich versuche, einen HTTP-Live-Streaming-Server auf dem iPhone auszuführen, der den Videostream von der Kamera aufzeichnet und ihn an den HTML5-Client weiterleitet (der HTTP-Live-Streaming unterstützt).

Bisher habe ich folgende Arbeiten.

HTTP Live-Streaming-Server unter iOS (in Node.js geschrieben), der die Indexdatei dynamisch aus der Liste der vom Videoerfassungsmodul generierten Transport Stream-Dateien (Video / MP2T) aktualisiert.Videoaufnahmemodul, das AVCaptureMovieFileOutput verwendet, um eine Reihe von QuickTime-Dateien mit einer Länge von 10 Sekunden fortlaufend zu erstellen (zwischen ihnen besteht eine kleine Lücke, die jedoch für meine Anwendung klein genug ist).

Was ich brauche, ist ein on-the-fly-Konverter, der jede QuickTime-Datei in eine Transport Stream-Datei konvertiert (keine Änderung der Codierung, ich brauche nur einen anderen Container), der zwei Module überbrückt.

Ich gehe diesen Ansatz ein, da dies meines Wissens nach die einzige Möglichkeit ist, den Hardware-Video-Encoder des iPhones zu nutzen (ich habe mich hier eingehend mit diesem Thema befasst und bin mir zu 99% sicher. Lassen Sie es mich bitte wissen Ich weiß, ob ich falsch liege.

Ein paar Leute schlugen ffmpeg vor, aber ich würde lieber viel kleineren Code mit MIT-Lizenz (falls vorhanden) verwenden oder etwas von Grund auf neu schreiben (und mit MIT-Lizenz als Open-Source-Version).

Ich bin ziemlich neu in dieser Mediencontainer-Sache und würde mich sehr freuen, wenn jemand mich in die richtige Richtung lenken könnte (Beispielcode, Open Source, Dokumente, ...).

Antworten auf die Frage(1)

Ihre Antwort auf die Frage