Capturar video mientras lo procesa a través de un sombreador en iPhone
stoy tratando de desarrollar una aplicación para iPhone que procese / filtre y grabe videos.
Tengo dos aplicaciones de muestra que tienen aspectos de lo que necesito y estoy tratando de combinarlas.
AVCamDemo del paquete de código de muestra WWDC10 (Se requiere ID de desarrollador de Apple)
Esto trata de capturar / grabar video.
a aplicación de muestra ColorTracking de @Brad Larson hace referencia aaqu
Esto trata con el procesamiento en vivo de video usando OpenGL ES
e atoro cuando trato de combinar los dos.
o que he estado tratando de hacer es usarAVCaptureVideoOutput
y elAVCaptureVideoDataOutputSampleBufferProtocol
para procesar / filtrar los cuadros de video a través de OpenGL ES (como en -2-), y al mismo tiempo usarAVCaptureMovieFileOutput
para grabar el video procesado (como en -1 -).
¿Es posible este enfoque? Si es así, ¿cómo necesitaría configurar las conexiones dentro deAVSession
?
O necesito usar elAVCaptureVideoDataOutputSampleBufferProtocol
para procesar / filtrar el video Y luego volver a combinar los cuadros individuales en una película, sin usarAVCaptureMovieFileOutput
para guardar el archivo de película?
Todas las sugerencias para el mejor enfoque para lograr esto son muy apreciadas!