Creación de un cliente rtsp para transmisión de audio y video en vivo en el objetivo C

Estoy tratando de crear un cliente RTSP que transmita en vivo audio y video. Modifiqué el código de iOS en el enlacehttp://www.gdcl.co.uk/downloads.htm y capaz de transmitir el video al servidor correctamente. Pero ahora tengo problemas para transmitir la parte de audio. En el ejemplo de enlace, el código está escrito de tal manera que escribe los datos de video en el archivo y luego lee los datos del archivo y carga los paquetes de video de la NALU en el servidor RTSP.

Para la parte de audio, no estoy seguro de cómo proceder. En este momento, lo que he intentado es obtener el búfer de audio del micrófono y luego transmitirlo al servidor directamente agregando encabezados RTP y ALU ... pero este enfoque no funciona correctamente ya que el audio comienza a retrasarse y el retraso aumenta con el tiempo. ¿Alguien puede hacerme saber si hay un mejor enfoque para lograr esto y con lip sycn audio / video?

Respuestas a la pregunta(1)

Su respuesta a la pregunta