otwarte przetwarzanie wideo cv ios
Próbuję znaleźć samouczektutaj do przetwarzania wideo ios z frameworkiem openCv.
Udało mi się załadować framework ios openCv do mojego projektu -ale wydaje się, że istnieje rozbieżność między moją strukturą a tą przedstawioną w samouczku i mam nadzieję, że ktoś może mi pomóc.
Wykorzystuje OpenCvcv::Mat
typ reprezentujący obrazy. Używając delegacji AVfoundation do przetwarzania obrazów z kamery - będę musiał przekonwertować wszystkieCMSampleBufferRef
do tego typu.
Wygląda na to, że struktura openCV przedstawiona w samouczku zapewnia bibliotekę o nazwie using
#import <opencv2/highgui/cap_ios.h>
z nowym poleceniem delegata:
Czy ktoś może mi wskazać, gdzie mogę znaleźć tę strukturę lub możliwie szybką konwersję międzyCMSampleBufferRef
icv::Mat
EDYTOWAĆ
W strukturze opencv jest dużo segmentacji (przynajmniej dla ios). Pobrałem go przez różne „oficjalne” strony, a także używając narzędzi takich jak fink i brew, używając ICH instrukcji. Porównałem nawet pliki nagłówkowe, które zostały zainstalowane, do / usr / local / include / opencv /. Za każdym razem były inne. Podczas pobierania projektu openCV - w tym samym projekcie istnieją różne pliki cmake i sprzeczne pliki readme. Myślę, że udało mi się zbudować dobrą wersję dla IOS z wbudowaną funkcjonalnością avcapture w framework (z tym nagłówkiem<opencv2/highgui/cap_ios.h>
) przez topołączyć a następnie budowanie biblioteki za pomocą skryptu Pythona w katalogu ios - za pomocą poleceniapython opencv/ios/build_framework.py ios
. Spróbuję i zaktualizuję