Wizualna odometria (aka estymacja Egomotion) z OpenCV

Planuję zaimplementować aplikację z funkcjami rozszerzonej rzeczywistości. Dla jednej z funkcji potrzebuję estymacji egomotion. Tylko kamera porusza się w przestrzeni ze stałymi obiektami (nic lub tylko małe części będą się poruszać, więc mogą być ignorowane).

Szukałem więc i dużo czytałem i natknąłem sięOpenCV. Wikipedia wyraźnie to stwierdzamoże być użyty do poruszania się. Ale nie mogę znaleźć żadnej dokumentacji na ten temat.

Czy muszę samodzielnie zaimplementować algorytm egomotion przy użyciu metod wykrywania obiektów OpenCV? (Myślę, że byłoby to bardzo skomplikowane, ponieważ obiekty będą poruszać się z różną prędkością w zależności od ich odległości do kamery.Jeśli tak, gdzie powinienem zacząć? Czy istnieje dobry przykład kodu dla aFunkcja śledzenia Kanade – Lucas – Tomasi z obsługą skalowania i obrotu?

P.S .: Wiem też o takich bazach opartych na markerachvuforia, ale użycie znacznika jest czymś, co chciałbym zapobiec, ponieważ ogranicza możliwe punkty widzenia.

Aktualizacja 2013-01-08: Dowiedziałem się, że oszacowanie egomotion jest lepiej znane jako wizualna odometria. Więc zaktualizowałem tytuł.

questionAnswers(2)

yourAnswerToTheQuestion