Visual Odometry (auch bekannt als Egomotion Estimation) mit OpenCV

Ich plane eine Anwendung mit Augmented Reality-Funktionen zu implementieren. Für eines der Features benötige ich eine Egomotion-Schätzung. Nur die Kamera bewegt sich in einem Raum mit festen Objekten (nichts oder nur kleine Teile bewegen sich, so dass sie möglicherweise ignoriert werden).

Also habe ich viel gesucht und gelesen und bin darauf gestoßenOpenCV. Wikipedia erklärt dies ausdrückliches könnte für egomotion verwendet werden. Ich kann aber keine Dokumentation dazu finden.

Muss ich den egomotion-Algorithmus mit den Objekterkennungsmethoden von OpenCV selbst implementieren? (Ich halte das für sehr komplex, da sich Objekte je nach Abstand zur Kamera mit unterschiedlicher Geschwindigkeit bewegen. Außerdem muss ich Rotationen berücksichtigen.)Wenn ja, wo soll ich anfangen? Gibt es ein gutes Codebeispiel für aKanade-Lucas-Tomasi-Feature-Tracker mit Unterstützung für Skalierung und Rotation?

P .: Ich kenne mich auch mit marker-basierten Frameworks ausVuforiaDie Verwendung eines Markers ist jedoch etwas, das ich verhindern möchte, da hierdurch die möglichen Blickwinkel eingeschränkt werden.

Update 08.01.2013: Ich habe erfahren, dass Egomotion Estimation besser als Visual Odometry bekannt ist. Also habe ich den Titel aktualisiert.

Antworten auf die Frage(2)

Ihre Antwort auf die Frage