C ++ AMP Вычисление градиента с использованием текстуры на 16-битном изображении
Я работаю с изображениями глубины, полученными из kinect, которые составляют 16 бит. Я обнаружил некоторые трудности при создании собственных фильтров из-за индекса или размера изображений. Я работаю с текстурами, потому что позволяет работать с изображениями любого размера.
Итак, я пытаюсь вычислить простой градиент, чтобы понять, что не так или почему это не работает, как я ожидал.
Вы можете видеть, что что-то не так, когда я использую y dir.
Это мой код:
typedef concurrency::graphics::texture<unsigned int, 2> TextureData;
typedef concurrency::graphics::texture_view<unsigned int, 2> Texture
cv::Mat image = cv::imread("Depth247.tiff", CV_LOAD_IMAGE_ANYDEPTH);
//just a copy from another image
cv::Mat image2(image.clone() );
concurrency::extent<2> imageSize(640, 480);
int bits = 16;
const unsigned int nBytes = imageSize.size() * 2; // 614400
{
uchar* data = image.data;
// Result data
TextureData texDataD(imageSize, bits);
Texture texR(texDataD);
parallel_for_each(
imageSize,
[=](concurrency::index<2> idx) restrict(amp)
{
int x = idx[0];
int y = idx[1];
// 65535 is the maxium value that can take a pixel with 16 bits (2^16 - 1)
int valX = (x / (float)imageSize[0]) * 65535;
int valY = (y / (float)imageSize[1]) * 65535;
texR.set(idx, valX);
});
//concurrency::graphics::copy(texR, image2.data, imageSize.size() *(bits / 8u));
concurrency::graphics::copy_async(texR, image2.data, imageSize.size() *(bits) );
cv::imshow("result", image2);
cv::waitKey(50);
}
Любая помощь будет очень ценится.