KL-Divergencia de dos GMM
Tengo dos GMM que solía ajustar dos conjuntos de datos diferentes en el mismo espacio, y me gustaría calcular la divergencia KL entre ellos.
Actualmente estoy usando los GMM definidos en sklearn (http://scikit-learn.org/stable/modules/generated/sklearn.mixture.GMM.html) y la implementación de SciPy de KL-divergencia (http://docs.scipy.org/doc/scipy-dev/reference/generated/scipy.stats.entropy.html)
¿Cómo haría para hacer esto? ¿Quiero crear toneladas de puntos aleatorios, obtener sus probabilidades en cada uno de los dos modelos (llámelos P y Q) y luego usar esas probabilidades como mi entrada? ¿O hay alguna forma más canónica de hacer esto dentro del entorno SciPy / SKLearn?