¿Cuál es la diferencia entre System.Speech.Recognition y Microsoft.Speech.Recognition?
Hay dos espacios de nombres y conjuntos similares para el reconocimiento de voz en .NET. Estoy tratando de entender las diferencias y cuándo es apropiado usar una u otra.
Hay System.Speech.Recognition del ensamblado System.Speech (en System.Speech.dll). System.Speech.dll es un archivo DLL central en la biblioteca de clases de .NET Framework 3.0 y posterior
También hay Microsoft.Speech.Recognition del ensamblado Microsoft.Speech (en microsoft.speech.dll). Microsoft.Speech.dll es parte del UCMA 2.0 SDK
Encuentro los documentos confusos y tengo las siguientes preguntas:
System.Speech.Recognition dice que es para "The Windows Desktop Speech Technology", ¿significa esto que no puede usarse en un sistema operativo de servidor o no puede usarse para aplicaciones de gran escala?
El UCMA 2.0 Speech SDK (http://msdn.microsoft.com/en-us/library/dd266409%28v=office.13%29.aspx ) dice que requiere Microsoft Office Communications Server 2007 R2 como requisito previo. Sin embargo, me han dicho en conferencias y reuniones que si no necesito funciones OCS como presencia y flujo de trabajo, puedo usar la API de voz UCMA 2.0 sin OCS. ¿Es esto cierto?
Si estoy creando una aplicación de reconocimiento simple para una aplicación de servidor (digamos que quería transcribir automáticamente los correos de voz) y no necesito características de OCS, ¿cuáles son las diferencias entre las dos API?