Почему этот код распаковывает UIImage намного лучше, чем наивный подход?

В моем приложении мне нужно загружать большие изображения JPEG и отображать их в виде прокрутки. Чтобы пользовательский интерфейс был отзывчивым, я решил загрузить изображения в фоновом режиме, а затем отобразить их в главном потоке. Чтобы полностью загрузить их в фоновом режиме, я заставляю каждое изображение распаковываться. ябыл используя этот код для распаковки изображения (обратите внимание, что мое приложение только для iOS 7, поэтому я понимаю, что использование этих методов в фоновом потоке - это нормально):

+ (UIImage *)decompressedImageFromImage:(UIImage *)image {
    UIGraphicsBeginImageContextWithOptions(image.size, YES, 0);
    [image drawAtPoint:CGPointZero];
    UIImage *decompressedImage = UIGraphicsGetImageFromCurrentImageContext();
    UIGraphicsEndImageContext();
    return decompressedImage;
}

Тем не менее, у меня все еще были длительные времена загрузки, заикание пользовательского интерфейса и большое давление памяти. Я только что нашелдругое решение:

+ (UIImage *)decodedImageWithImage:(UIImage *)image {
    CGImageRef imageRef = image.CGImage;
    // System only supports RGB, set explicitly and prevent context error
    // if the downloaded image is not the supported format
    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();

    CGContextRef context = CGBitmapContextCreate(NULL,
                                                 CGImageGetWidth(imageRef),
                                                 CGImageGetHeight(imageRef),
                                                 8,
                                                 // width * 4 will be enough because are in ARGB format, don't read from the image
                                                 CGImageGetWidth(imageRef) * 4,
                                                 colorSpace,
                                                 // kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Little
                                                 // makes system don't need to do extra conversion when displayed.
                                                 kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Little);
    CGColorSpaceRelease(colorSpace);

    if ( ! context) {
        return nil;
    }
    CGRect rect = (CGRect){CGPointZero, CGImageGetWidth(imageRef), CGImageGetHeight(imageRef)};
    CGContextDrawImage(context, rect, imageRef);
    CGImageRef decompressedImageRef = CGBitmapContextCreateImage(context);
    CGContextRelease(context);
    UIImage *decompressedImage = [[UIImage alloc] initWithCGImage:decompressedImageRef];
    CGImageRelease(decompressedImageRef);
    return decompressedImage;
}

Этот код на порядок лучше. Изображение загружается почти сразу, пользовательский интерфейс не заикается, а использование памяти значительно сократилось.

Итак, мой вопрос состоит из двух частей:

Почему второй метод намного лучше первого?Если второй метод лучше из-за уникальных параметров устройства, есть ли способ гарантировать, что оно будет одинаково хорошо работать на всех устройствах iOS, настоящих и будущих? Я не хотел бы предполагать, что родной формат растрового изображения, который изменяется на мне, повторно вводит эту проблему.

Ответы на вопрос(1)

Ваш ответ на вопрос