Что такое хороший оптимизированный алгоритм C / C ++ для преобразования 24-битного растрового изображения в 16-битный с дизерингом?

Я искал оптимизированный (то есть быстрый) алгоритм, который преобразует 24-битное растровое изображение RGB в 16-битное (RGB565) растровое изображение с использованием сглаживания. Я ищу что-то в C / C ++, где я могу реально контролировать применение дизеринга. GDI +, по-видимому, предоставляет некоторые методы, но я не могу сказать, сглаживаются они или нет. И, если они делают дизеринг, какой механизм они используют (Флойд-Стейнберг?)

У кого-нибудь есть хороший пример преобразования глубины цвета растрового изображения с размыванием?

Ответы на вопрос(3)

Ваш ответ на вопрос