Por que esse código descompacta um UIImage muito melhor do que a abordagem ingênua?

No meu aplicativo, preciso carregar imagens JPEG grandes e exibi-las em uma exibição de rolagem. Para manter a interface do usuário responsiva, decidi carregar as imagens em segundo plano e exibi-las no thread principal. Para carregá-los totalmente em segundo plano, forço cada imagem a ser descompactada. Euestava usando este código para descompactar uma imagem (note que meu aplicativo é somente iOS 7, então eu entendo que usar esses métodos em um thread de segundo plano é OK):

+ (UIImage *)decompressedImageFromImage:(UIImage *)image {
    UIGraphicsBeginImageContextWithOptions(image.size, YES, 0);
    [image drawAtPoint:CGPointZero];
    UIImage *decompressedImage = UIGraphicsGetImageFromCurrentImageContext();
    UIGraphicsEndImageContext();
    return decompressedImage;
}

No entanto, ainda tive tempos de carregamento longos, gagueira da interface do usuário e muita pressão de memória. Acabei de encontraroutra solução:

+ (UIImage *)decodedImageWithImage:(UIImage *)image {
    CGImageRef imageRef = image.CGImage;
    // System only supports RGB, set explicitly and prevent context error
    // if the downloaded image is not the supported format
    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();

    CGContextRef context = CGBitmapContextCreate(NULL,
                                                 CGImageGetWidth(imageRef),
                                                 CGImageGetHeight(imageRef),
                                                 8,
                                                 // width * 4 will be enough because are in ARGB format, don't read from the image
                                                 CGImageGetWidth(imageRef) * 4,
                                                 colorSpace,
                                                 // kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Little
                                                 // makes system don't need to do extra conversion when displayed.
                                                 kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Little);
    CGColorSpaceRelease(colorSpace);

    if ( ! context) {
        return nil;
    }
    CGRect rect = (CGRect){CGPointZero, CGImageGetWidth(imageRef), CGImageGetHeight(imageRef)};
    CGContextDrawImage(context, rect, imageRef);
    CGImageRef decompressedImageRef = CGBitmapContextCreateImage(context);
    CGContextRelease(context);
    UIImage *decompressedImage = [[UIImage alloc] initWithCGImage:decompressedImageRef];
    CGImageRelease(decompressedImageRef);
    return decompressedImage;
}

Este código é melhor em termos de magnitude. A imagem é carregada quase que imediatamente, não há interrupções na interface do usuário e o uso da memória diminuiu.

Então minha pergunta é dupla:

Por que o segundo método é muito melhor que o primeiro?Se o segundo método é melhor por causa dos parâmetros exclusivos do dispositivo, existe uma maneira de garantir que ele funcionará igualmente bem para todos os dispositivos iOS, presentes e futuros? Eu não gostaria de assumir um formato de bitmap nativo que muda em mim, reintroduzindo esse problema.

questionAnswers(1)

yourAnswerToTheQuestion