Cámara extrínseca OpenCV desde puntos de características

¿Cómo recupero la matriz de rotación, el vector de traducción y quizás algunos factores de escala de cada cámara usando OpenCV cuando tengo imágenes de un objeto desde la vista de cada una de estas cámaras? Para cada imagen tengo las coordenadas de imagen de varios puntos característicos. No todos los puntos de características son visibles en todas las imágenes. Quiero asignar las coordenadas 3D calculadas de los puntos de características del objeto a un objeto ligeramente diferente para alinear la forma del segundo objeto con el primer objeto.

Escuché que es posible usarcv::calibrateCamera(...) pero no puedo superarlo ...

Alguien tiene experiencias con ese tipo de problema?

Respuestas a la pregunta(2)

Su respuesta a la pregunta