Was ist der beste Bild-Downscaling-Algorithmus (in Bezug auf die Qualität)?

Ich möchte herausfinden, welcher Algorithmus am besten zum Verkleinern eines Rasterbilds geeignet ist. Mit best meine ich denjenigen, der die schönsten Ergebnisse liefert. Ich kenne mich mit Bikubik aus, aber gibt es noch etwas Besseres? Ich habe zum Beispiel von einigen Leuten gehört, dass Adobe Lightroom über einen proprietären Algorithmus verfügt, der bessere Ergebnisse liefert als das von mir verwendete Standard-Bikubik. Leider möchte ich diesen Algorithmus selbst in meiner Software verwenden, sodass die sorgfältig gehüteten Geschäftsgeheimnisse von Adobe nicht funktionieren.

Hinzugefügt

Ich habe Paint.NET ausprobiert und zu meiner Überraschung scheint es, dass Super Sampling beim Verkleinern eines Bildes besser als bikubisch ist. Ich frage mich, ob Interpolationsalgorithmen überhaupt der richtige Weg sind.

s erinnerte mich auch an einen Algorithmus, den ich selbst "erfunden", aber nie implementiert hatte. Ich nehme an, es hat auch einen Namen (so etwas Triviales kann nicht die Idee von mir alleine sein), aber ich konnte ihn unter den populären nicht finden. Super Sampling war das nächste.

Die Idee ist: Berechnen Sie für jedes Pixel im Zielbild, wo es sich im Quellbild befinden würde. Es würde wahrscheinlich ein oder mehrere andere Pixel überlagern. Es wäre dann möglich, die Flächen und Farben dieser Pixel zu berechnen. Um dann die Farbe des Zielpixels zu erhalten, würde man einfach den Durchschnitt dieser Farben berechnen und ihre Flächen als "Gewichte" hinzufügen. Wenn also ein Zielpixel 1/3 eines gelben Quellpixels und 1/4 eines grünen Quellpixels abdecken würde, würde ich (1/3 * gelb + 1/4 * grün) / (1/3 +) erhalten 1/4).

Das wäre natürlich rechenintensiv, aber es sollte so nah wie möglich am Ideal sein, nein?

Gibt es einen Namen für diesen Algorithmus?

Antworten auf die Frage(12)

Ihre Antwort auf die Frage