Korzystanie z interfejsów API rozpoznawania mowy Androida z Google Glass

Pracuję nad adaptacją istniejącej aplikacji na Androida, aby działała na Google Glass, jako dowód koncepcji. Chciałbym użyć wejścia głosowego w mojej aplikacji, aby zastąpić niektóre funkcje, które obecnie wymagają wprowadzania dotykowego.

Mogę wdrożyć mój APK w Google Glass i uruchomić go bez problemu (za pośrednictwem ADB), ale po uruchomieniu ani API rozpoznawania mowy w Androidzie nie próbowałem na szkle:

startActivityForResult(new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH));

Powoduje to wyjątek ActivityNotFoundException („brak aktywności, która mogłaby obsłużyć zamiar”) podczas działania w Google Glass

SpeechRecognizer.IsRecognitionAvailable(context);

To zawsze zwraca false w Google Glass.

Jestem ciekawy, czy ktoś inny napotkał te problemy lub ma jakieś sugestie.

questionAnswers(2)

yourAnswerToTheQuestion