Databricks (Spark): ¿las dependencias .egg no se instalan automáticamente?

Tengo un local creado.egg paquete que depende deboto==2.38.0. Utilicé setuptools para crear la distribución de compilación. Todo funciona en mi propio entorno local, ya que obtieneboto correctamente dePiP. Sin embargo endatabricks no recupera dependencias automáticamente cuando adjunto una biblioteca al clúster.

Realmente luché ahora por unos días tratando de instalar una dependencia automáticamente cuando se carga en databricks, yo usosetuptools; 'install_requires=['boto==2.38.0']' es el campo relevante

Cuando instaloboto directamente desdePyPi sobre eldatabricks servidor (por lo que no confía en elinstall_requires campo para que funcione correctamente) y luego llamar a mi propio.egg, reconoce queboto es un paquete, pero no reconoce ninguno de sus módulos (ya que no se importa en mi propio espacio de nombres .egg ???). Entonces no puedo obtener mi.egg trabajar. Si este problema persiste sin tener ninguna solución, creo que es un gran problema paradatabricks usuarios en este momento. Debería haber una solución, por supuesto ...

¡Gracias!

Respuestas a la pregunta(1)

Su respuesta a la pregunta