¿Cómo puedo producir un efecto similar a la vista borrosa de iOS 7?

Estoy tratando de replicar este fondo borroso de la pantalla de ejemplo de iOS 7 lanzada públicamente de Apple:

Esta pregunta sugiere aplicar un filtro de CI a los contenidos a continuación, pero ese es un enfoque completamente diferente. Es obvio que iOS 7 no captura el contenido de las vistas a continuación, por muchas razones:

Haciendo algunas pruebas aproximadas, capturando una captura de pantalla de las vistas a continuación y aplicando un filtro CIGaussianBlur con un radio lo suficientemente grande para imitar el estilo de desenfoque de iOS 7 toma 1-2 segundos, incluso en un simulador.La vista borrosa de iOS 7 puede difuminar las vistas dinámicas, como un video o animaciones, sin un retraso notable.

¿Alguien puede suponer qué marcos podrían estar utilizando para crear este efecto, y si es posible crear un efecto similar con las API públicas actuales?

Editar: (del comentario) No sabemos exactamente cómo lo está haciendo Apple, pero ¿podemos hacer algunas suposiciones básicas? Podemos asumir que están usando hardware, ¿verdad?

¿Es el efecto autocontenido en cada vista, de modo que el efecto no sabe realmente qué hay detrás de él? ¿O debe, teniendo en cuenta cómo funciona el desenfoque, los contenidos detrás del desenfoque deben tomarse en consideración?

Si los contenidos detrás del efecto son relevantes, ¿podemos suponer que Apple está recibiendo una "alimentación" de los contenidos a continuación y los está mostrando continuamente borrosos?

Respuestas a la pregunta(12)

Su respuesta a la pregunta