Recuperando um valor alfa de pixel para um UIImage
Atualmente, estou tentando obter o valor alfa de um pixel em um UIImageView. Eu obtive o CGImage de [imagem UIImageView] e criei uma matriz de bytes RGBA a partir disso. O alfa é pré-multiplicado.
CGImageRef image = uiImage.CGImage;
NSUInteger width = CGImageGetWidth(image);
NSUInteger height = CGImageGetHeight(image);
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
rawData = malloc(height * width * 4);
bytesPerPixel = 4;
bytesPerRow = bytesPerPixel * width;
NSUInteger bitsPerComponent = 8;
CGContextRef context = CGBitmapContextCreate(
rawData, width, height, bitsPerComponent, bytesPerRow, colorSpace,
kCGImageAlphaPremultipliedLast | kCGBitmapByteOrder32Big
);
CGColorSpaceRelease(colorSpace);
CGContextDrawImage(context, CGRectMake(0, 0, width, height), image);
CGContextRelease(context);
Eu, então, calculo o índice da matriz para o canal alfa fornecido usando as coordenadas do UIImageView.
int byteIndex = (bytesPerRow * uiViewPoint.y) + uiViewPoint.x * bytesPerPixel;
unsigned char alpha = rawData[byteIndex + 3];
No entanto, não recebo os valores esperados. Para uma área totalmente preta e transparente da imagem, recebo valores diferentes de zero para o canal alfa. Preciso traduzir as coordenadas entre o UIKit e Core Graphics - ou seja, o eixo y é invertido? Ou eu entendi mal valores alfa pré-multiplicados?
Atualizar:
A sugestão de @Nikolai Ruhe foi fundamental para isso. Na verdade, não precisei traduzir entre as coordenadas do UIKit e as coordenadas do Core Graphics. No entanto, depois de definir o modo de mesclagem, meus valores alfa eram o que eu esperava:
CGContextSetBlendMode(context, kCGBlendModeCopy);