OpenCV - Lendo uma imagem em escala de cinza de 16 bits
Eu estou tentando ler uma imagem em escala de cinza de 16 bits usando o OpenCV 2.4 em Python, mas parece estar carregando-o como 8 bits.
Estou fazendo:
im = cv2.imread(path,0)
print im
[[25 25 28 ..., 0 0 0]
[ 0 0 0 ..., 0 0 0]
[ 0 0 0 ..., 0 0 0]
...,
Como faço para obter 16 bits?