Dlaczego ten kod dekompresuje UIImage o wiele lepiej niż naiwne podejście?
W mojej aplikacji muszę ładować duże obrazy JPEG i wyświetlać je w widoku przewijania. W celu utrzymania interfejsu użytkownika, postanowiłem załadować obrazy w tle, a następnie wyświetlić je w głównym wątku. Aby w pełni załadować je w tle, wymuszam dekompresję każdego obrazu. jabyło używając tego kodu do dekompresji obrazu (zauważ, że moja aplikacja jest tylko iOS 7, więc rozumiem, że użycie tych metod w wątku w tle jest OK):
+ (UIImage *)decompressedImageFromImage:(UIImage *)image {
UIGraphicsBeginImageContextWithOptions(image.size, YES, 0);
[image drawAtPoint:CGPointZero];
UIImage *decompressedImage = UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
return decompressedImage;
}
Jednak nadal miałem długie czasy ładowania, zacinanie się interfejsu użytkownika i dużą presję pamięci. Właśnie znalazłeminne rozwiązanie:
+ (UIImage *)decodedImageWithImage:(UIImage *)image {
CGImageRef imageRef = image.CGImage;
// System only supports RGB, set explicitly and prevent context error
// if the downloaded image is not the supported format
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef context = CGBitmapContextCreate(NULL,
CGImageGetWidth(imageRef),
CGImageGetHeight(imageRef),
8,
// width * 4 will be enough because are in ARGB format, don't read from the image
CGImageGetWidth(imageRef) * 4,
colorSpace,
// kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Little
// makes system don't need to do extra conversion when displayed.
kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Little);
CGColorSpaceRelease(colorSpace);
if ( ! context) {
return nil;
}
CGRect rect = (CGRect){CGPointZero, CGImageGetWidth(imageRef), CGImageGetHeight(imageRef)};
CGContextDrawImage(context, rect, imageRef);
CGImageRef decompressedImageRef = CGBitmapContextCreateImage(context);
CGContextRelease(context);
UIImage *decompressedImage = [[UIImage alloc] initWithCGImage:decompressedImageRef];
CGImageRelease(decompressedImageRef);
return decompressedImage;
}
Ten kod jest o rząd wielkości lepszy. Obraz ładuje się niemal natychmiast, nie ma zacinania się interfejsu użytkownika, a zużycie pamięci spadło.
Moje pytanie jest więc dwojakie:
Dlaczego druga metoda jest o wiele lepsza od pierwszej?Jeśli druga metoda jest lepsza ze względu na unikalne parametry urządzenia, czy istnieje sposób na zapewnienie, że będzie ona działać równie dobrze dla wszystkich urządzeń z systemem iOS, obecnych i przyszłych? Nie chciałbym zakładać, że zmienia się natywny format bitmapy, ponownie wprowadzając ten problem.