Python-Krypta in OSX

Ich habe eine Django-Anwendung, die Unix-Benutzerkennwörter auf einem Ubuntu-Computer zurücksetzt, aber meine Entwicklungsumgebung ist OS X, und ich bin auf diese ärgerliche Situation gestoßen:

OS X:

>>> import crypt
>>> crypt.crypt('test','OS X:VFvON1xK

Linux:

>>> import crypt
>>> crypt.crypt('test','OS X:VFvON1xK

Aus dem pydoc zum lesencryptIch habe gesehen, dass es ein OS-spezifisches verwendetcrypt Implementierung, so habe ich auch den folgenden Code in beiden Systemen mit den gleichen Ergebnissen wie Python getestet:

#include <unistd.h>

int main() {
        char *des = crypt("test","OS X:VFvON1xK$ls4Zz4XTEuVI.1PnYm28.1");
        puts(des);
}

Wie kann ich OS X habencrypt() Implementierung erzeugen die gleichen Ergebnisse wie Linuxcrypt()?
Und warum wird dies nicht von der Python-Implementierung abgedeckt (wie ich es von solchen Fällen für die plattformübergreifende Bereitstellung erwarten würde)?

) '$1SoNol0Ye6Xk'

Linux:

>>> import crypt
>>> crypt.crypt('test','OS X:VFvON1xK$')
'OS X:VFvON1xK$SboCDZGBieKF1ns2GBfY50'

Aus dem pydoc zum lesencryptIch habe gesehen, dass es ein OS-spezifisches verwendetcrypt Implementierung, so habe ich auch den folgenden Code in beiden Systemen mit den gleichen Ergebnissen wie Python getestet:

#include <unistd.h>

int main() {
        char *des = crypt("test","OS X:VFvON1xK$ls4Zz4XTEuVI.1PnYm28.1");
        puts(des);
}

Wie kann ich OS X habencrypt() Implementierung erzeugen die gleichen Ergebnisse wie Linuxcrypt()?
Und warum wird dies nicht von der Python-Implementierung abgedeckt (wie ich es von solchen Fällen für die plattformübergreifende Bereitstellung erwarten würde)?

) 'OS X:VFvON1xK$SboCDZGBieKF1ns2GBfY50'

Aus dem pydoc zum lesencryptIch habe gesehen, dass es ein OS-spezifisches verwendetcrypt Implementierung, so habe ich auch den folgenden Code in beiden Systemen mit den gleichen Ergebnissen wie Python getestet:

#include <unistd.h>

int main() {
        char *des = crypt("test","OS X:VFvON1xK$ls4Zz4XTEuVI.1PnYm28.1");
        puts(des);
}

Wie kann ich OS X habencrypt() Implementierung erzeugen die gleichen Ergebnisse wie Linuxcrypt()?
Und warum wird dies nicht von der Python-Implementierung abgedeckt (wie ich es von solchen Fällen für die plattformübergreifende Bereitstellung erwarten würde)?

) '$1SoNol0Ye6Xk'

Linux:

>>> import crypt
>>> crypt.crypt('test','OS X:VFvON1xK$')
'OS X:VFvON1xK$SboCDZGBieKF1ns2GBfY50'

Aus dem pydoc zum lesencryptIch habe gesehen, dass es ein OS-spezifisches verwendetcrypt Implementierung, so habe ich auch den folgenden Code in beiden Systemen mit den gleichen Ergebnissen wie Python getestet:

#include <unistd.h>

int main() {
        char *des = crypt("test","OS X:VFvON1xK$ls4Zz4XTEuVI.1PnYm28.1");
        puts(des);
}

Wie kann ich OS X habencrypt() Implementierung erzeugen die gleichen Ergebnisse wie Linuxcrypt()?
Und warum wird dies nicht von der Python-Implementierung abgedeckt (wie ich es von solchen Fällen für die plattformübergreifende Bereitstellung erwarten würde)?

Antworten auf die Frage(3)

Ihre Antwort auf die Frage