WebRTC: Relación entre canales, pistas y transmisiones con respecto a RTP SSRC y RTP Sessions

Desde el sitio de Mozilla:https: //developer.mozilla.org/en-US/docs/Web/API/Media_Streams_AP

"Un MediaStream consta de cero o más objetos MediaStreamTrack, que representan varias pistas de audio o video. Cada MediaStreamTrack puede tener uno o más canales. El canal representa la unidad más pequeña de una transmisión de medios, como una señal de audio asociada con un altavoz dado, como izquierda o derecha en una pista de audio estéreo ".

Eso aclara qué es un canal.

Varias RFC recientes (p. Ej., 8108) se refieren a la necesidad de tener múltiples transmisiones enviadas en una sesión RTP. Cada flujo debe tener su propio SSRC a nivel RTP. En el RFC para Plan unificado también, la referencia es siempre a una secuencia como el nivel más bajo (no pistas o canales). En RFC 3550, la base RTP RFC, no hay referencia al canal.

¿Es la transmisión RTP como se menciona en estos RFC, que sugieren que la transmisión es la fuente de medios más baja, igual que los canales que ese término se usa en WebRTC y como se mencionó anteriormente? ¿Existe un mapeo uno a uno entre los canales de una pista (WebRTC) y el flujo RTP con un SSRC?

Una cámara web, por ejemplo, genera una transmisión de medios, que puede tener una pista de medios de audio y una pista de medios de video, cada pista se transporta en paquetes RTP utilizando un SSRC separado, lo que da como resultado dos SSRC. ¿Es eso correcto? Ahora, ¿qué pasa si hay una cámara web estéreo (o algún dispositivo con, digamos, dos micrófonos - canales?). ¿Esto generará tres transmisiones RTP con tres SSRC únicos diferentes?

¿Existe una única sesión RTP para una conexión de cinco tuplas establecida después de la prueba exitosa de los candidatos de ICE? ¿O puede haber múltiples sesiones RTP en el mismo conjunto de conexión port-ip-UDP entre pares?

Cualquier documento que aclare esto sería apreciado.

Respuestas a la pregunta(1)

Su respuesta a la pregunta