Dlaczego ten kod dekompresuje UIImage o wiele lepiej niż naiwne podejście?

W mojej aplikacji muszę ładować duże obrazy JPEG i wyświetlać je w widoku przewijania. W celu utrzymania interfejsu użytkownika, postanowiłem załadować obrazy w tle, a następnie wyświetlić je w głównym wątku. Aby w pełni załadować je w tle, wymuszam dekompresję każdego obrazu. jabyło używając tego kodu do dekompresji obrazu (zauważ, że moja aplikacja jest tylko iOS 7, więc rozumiem, że użycie tych metod w wątku w tle jest OK):

+ (UIImage *)decompressedImageFromImage:(UIImage *)image {
    UIGraphicsBeginImageContextWithOptions(image.size, YES, 0);
    [image drawAtPoint:CGPointZero];
    UIImage *decompressedImage = UIGraphicsGetImageFromCurrentImageContext();
    UIGraphicsEndImageContext();
    return decompressedImage;
}

Jednak nadal miałem długie czasy ładowania, zacinanie się interfejsu użytkownika i dużą presję pamięci. Właśnie znalazłeminne rozwiązanie:

+ (UIImage *)decodedImageWithImage:(UIImage *)image {
    CGImageRef imageRef = image.CGImage;
    // System only supports RGB, set explicitly and prevent context error
    // if the downloaded image is not the supported format
    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();

    CGContextRef context = CGBitmapContextCreate(NULL,
                                                 CGImageGetWidth(imageRef),
                                                 CGImageGetHeight(imageRef),
                                                 8,
                                                 // width * 4 will be enough because are in ARGB format, don't read from the image
                                                 CGImageGetWidth(imageRef) * 4,
                                                 colorSpace,
                                                 // kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Little
                                                 // makes system don't need to do extra conversion when displayed.
                                                 kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Little);
    CGColorSpaceRelease(colorSpace);

    if ( ! context) {
        return nil;
    }
    CGRect rect = (CGRect){CGPointZero, CGImageGetWidth(imageRef), CGImageGetHeight(imageRef)};
    CGContextDrawImage(context, rect, imageRef);
    CGImageRef decompressedImageRef = CGBitmapContextCreateImage(context);
    CGContextRelease(context);
    UIImage *decompressedImage = [[UIImage alloc] initWithCGImage:decompressedImageRef];
    CGImageRelease(decompressedImageRef);
    return decompressedImage;
}

Ten kod jest o rząd wielkości lepszy. Obraz ładuje się niemal natychmiast, nie ma zacinania się interfejsu użytkownika, a zużycie pamięci spadło.

Moje pytanie jest więc dwojakie:

Dlaczego druga metoda jest o wiele lepsza od pierwszej?Jeśli druga metoda jest lepsza ze względu na unikalne parametry urządzenia, czy istnieje sposób na zapewnienie, że będzie ona działać równie dobrze dla wszystkich urządzeń z systemem iOS, obecnych i przyszłych? Nie chciałbym zakładać, że zmienia się natywny format bitmapy, ponownie wprowadzając ten problem.

questionAnswers(1)

yourAnswerToTheQuestion