otwarte przetwarzanie wideo cv ios

Próbuję znaleźć samouczektutaj do przetwarzania wideo ios z frameworkiem openCv.

Udało mi się załadować framework ios openCv do mojego projektu -ale wydaje się, że istnieje rozbieżność między moją strukturą a tą przedstawioną w samouczku i mam nadzieję, że ktoś może mi pomóc.

Wykorzystuje OpenCvcv::Mat typ reprezentujący obrazy. Używając delegacji AVfoundation do przetwarzania obrazów z kamery - będę musiał przekonwertować wszystkieCMSampleBufferRef do tego typu.

Wygląda na to, że struktura openCV przedstawiona w samouczku zapewnia bibliotekę o nazwie using

#import <opencv2/highgui/cap_ios.h>

z nowym poleceniem delegata:

Czy ktoś może mi wskazać, gdzie mogę znaleźć tę strukturę lub możliwie szybką konwersję międzyCMSampleBufferRef icv::Mat

EDYTOWAĆ

W strukturze opencv jest dużo segmentacji (przynajmniej dla ios). Pobrałem go przez różne „oficjalne” strony, a także używając narzędzi takich jak fink i brew, używając ICH instrukcji. Porównałem nawet pliki nagłówkowe, które zostały zainstalowane, do / usr / local / include / opencv /. Za każdym razem były inne. Podczas pobierania projektu openCV - w tym samym projekcie istnieją różne pliki cmake i sprzeczne pliki readme. Myślę, że udało mi się zbudować dobrą wersję dla IOS z wbudowaną funkcjonalnością avcapture w framework (z tym nagłówkiem<opencv2/highgui/cap_ios.h>) przez topołączyć a następnie budowanie biblioteki za pomocą skryptu Pythona w katalogu ios - za pomocą poleceniapython opencv/ios/build_framework.py ios. Spróbuję i zaktualizuję

questionAnswers(2)

yourAnswerToTheQuestion