Wie kann ich einen ähnlichen Effekt wie in der iOS 7-Weichzeichnungsansicht erzielen?

Ich versuche, diesen unscharfen Hintergrund von Apples öffentlich veröffentlichtem iOS 7-Beispielbildschirm zu replizieren:

Diese Frage schlägt vor, einen CI-Filter auf die folgenden Inhalte anzuwenden, aber das ist ein ganz anderer Ansatz. Es ist offensichtlich, dass iOS 7 aus verschiedenen Gründen den Inhalt der folgenden Ansichten nicht erfasst:

Das Durchführen einiger grober Tests, das Aufnehmen eines Screenshots der folgenden Ansichten und das Anwenden eines CIGaussianBlur-Filters mit einem Radius, der groß genug ist, um den Unschärfestil von iOS 7 nachzuahmen, dauert selbst in einem Simulator 1-2 Sekunden.Die iOS 7-Weichzeichnungsansicht kann dynamische Ansichten, wie z. B. Videos oder Animationen, ohne nennenswerte Verzögerung überlagern.

Kann jemand eine Hypothese aufstellen, welche Frameworks verwendet werden könnten, um diesen Effekt zu erzielen, und ob es möglich ist, mit aktuellen öffentlichen APIs einen ähnlichen Effekt zu erzielen?

Bearbeiten: (aus dem Kommentar) Wir wissen nicht genau, wie Apple es macht, aber gibt es einige grundlegende Annahmen, die wir treffen können? Wir können davon ausgehen, dass sie Hardware verwenden, oder?

Ist der Effekt in jeder Ansicht eigenständig, sodass der Effekt tatsächlich nicht weiß, was dahintersteckt? Oder muss basierend auf der Funktionsweise von Unschärfen der hinter der Unschärfe stehende Inhalt berücksichtigt werden?

Wenn der Inhalt hinter dem Effekt relevant ist, können wir davon ausgehen, dass Apple einen "Feed" des Inhalts unten empfängt und ihn kontinuierlich mit einer Unschärfe rendert?

Antworten auf die Frage(12)

Ihre Antwort auf die Frage