Databricks (Spark): ¿las dependencias .egg no se instalan automáticamente?
Tengo un local creado.egg
paquete que depende deboto==2.38.0.
Utilicé setuptools para crear la distribución de compilación. Todo funciona en mi propio entorno local, ya que obtieneboto
correctamente dePiP
. Sin embargo endatabricks
no recupera dependencias automáticamente cuando adjunto una biblioteca al clúster.
Realmente luché ahora por unos días tratando de instalar una dependencia automáticamente cuando se carga en databricks, yo usosetuptools;
'install_requires=['boto==2.38.0']'
es el campo relevante
Cuando instaloboto
directamente desdePyPi
sobre eldatabricks
servidor (por lo que no confía en elinstall_requires
campo para que funcione correctamente) y luego llamar a mi propio.egg
, reconoce queboto
es un paquete, pero no reconoce ninguno de sus módulos (ya que no se importa en mi propio espacio de nombres .egg ???). Entonces no puedo obtener mi.egg
trabajar. Si este problema persiste sin tener ninguna solución, creo que es un gran problema paradatabricks
usuarios en este momento. Debería haber una solución, por supuesto ...
¡Gracias!