Por que esse código descompacta um UIImage muito melhor do que a abordagem ingênua?
No meu aplicativo, preciso carregar imagens JPEG grandes e exibi-las em uma exibição de rolagem. Para manter a interface do usuário responsiva, decidi carregar as imagens em segundo plano e exibi-las no thread principal. Para carregá-los totalmente em segundo plano, forço cada imagem a ser descompactada. Euestava usando este código para descompactar uma imagem (note que meu aplicativo é somente iOS 7, então eu entendo que usar esses métodos em um thread de segundo plano é OK):
+ (UIImage *)decompressedImageFromImage:(UIImage *)image {
UIGraphicsBeginImageContextWithOptions(image.size, YES, 0);
[image drawAtPoint:CGPointZero];
UIImage *decompressedImage = UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
return decompressedImage;
}
No entanto, ainda tive tempos de carregamento longos, gagueira da interface do usuário e muita pressão de memória. Acabei de encontraroutra solução:
+ (UIImage *)decodedImageWithImage:(UIImage *)image {
CGImageRef imageRef = image.CGImage;
// System only supports RGB, set explicitly and prevent context error
// if the downloaded image is not the supported format
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef context = CGBitmapContextCreate(NULL,
CGImageGetWidth(imageRef),
CGImageGetHeight(imageRef),
8,
// width * 4 will be enough because are in ARGB format, don't read from the image
CGImageGetWidth(imageRef) * 4,
colorSpace,
// kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Little
// makes system don't need to do extra conversion when displayed.
kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Little);
CGColorSpaceRelease(colorSpace);
if ( ! context) {
return nil;
}
CGRect rect = (CGRect){CGPointZero, CGImageGetWidth(imageRef), CGImageGetHeight(imageRef)};
CGContextDrawImage(context, rect, imageRef);
CGImageRef decompressedImageRef = CGBitmapContextCreateImage(context);
CGContextRelease(context);
UIImage *decompressedImage = [[UIImage alloc] initWithCGImage:decompressedImageRef];
CGImageRelease(decompressedImageRef);
return decompressedImage;
}
Este código é melhor em termos de magnitude. A imagem é carregada quase que imediatamente, não há interrupções na interface do usuário e o uso da memória diminuiu.
Então minha pergunta é dupla:
Por que o segundo método é muito melhor que o primeiro?Se o segundo método é melhor por causa dos parâmetros exclusivos do dispositivo, existe uma maneira de garantir que ele funcionará igualmente bem para todos os dispositivos iOS, presentes e futuros? Eu não gostaria de assumir um formato de bitmap nativo que muda em mim, reintroduzindo esse problema.