Capturar video mientras lo procesa a través de un sombreador en iPhone

stoy tratando de desarrollar una aplicación para iPhone que procese / filtre y grabe videos.

Tengo dos aplicaciones de muestra que tienen aspectos de lo que necesito y estoy tratando de combinarlas.

AVCamDemo del paquete de código de muestra WWDC10 (Se requiere ID de desarrollador de Apple)
Esto trata de capturar / grabar video.

a aplicación de muestra ColorTracking de @Brad Larson hace referencia aaqu
Esto trata con el procesamiento en vivo de video usando OpenGL ES

e atoro cuando trato de combinar los dos.

o que he estado tratando de hacer es usarAVCaptureVideoOutput y elAVCaptureVideoDataOutputSampleBufferProtocol para procesar / filtrar los cuadros de video a través de OpenGL ES (como en -2-), y al mismo tiempo usarAVCaptureMovieFileOutput para grabar el video procesado (como en -1 -).

¿Es posible este enfoque? Si es así, ¿cómo necesitaría configurar las conexiones dentro deAVSession?

O necesito usar elAVCaptureVideoDataOutputSampleBufferProtocol para procesar / filtrar el video Y luego volver a combinar los cuadros individuales en una película, sin usarAVCaptureMovieFileOutput para guardar el archivo de película?

Todas las sugerencias para el mejor enfoque para lograr esto son muy apreciadas!

Respuestas a la pregunta(1)

Su respuesta a la pregunta