KL-Divergencia de dos GMM

Tengo dos GMM que solía ajustar dos conjuntos de datos diferentes en el mismo espacio, y me gustaría calcular la divergencia KL entre ellos.

Actualmente estoy usando los GMM definidos en sklearn (http://scikit-learn.org/stable/modules/generated/sklearn.mixture.GMM.html) y la implementación de SciPy de KL-divergencia (http://docs.scipy.org/doc/scipy-dev/reference/generated/scipy.stats.entropy.html)

¿Cómo haría para hacer esto? ¿Quiero crear toneladas de puntos aleatorios, obtener sus probabilidades en cada uno de los dos modelos (llámelos P y Q) y luego usar esas probabilidades como mi entrada? ¿O hay alguna forma más canónica de hacer esto dentro del entorno SciPy / SKLearn?

Respuestas a la pregunta(1)

Su respuesta a la pregunta