Python-Krypta in OSX
Ich habe eine Django-Anwendung, die Unix-Benutzerkennwörter auf einem Ubuntu-Computer zurücksetzt, aber meine Entwicklungsumgebung ist OS X, und ich bin auf diese ärgerliche Situation gestoßen:
OS X:
>>> import crypt
>>> crypt.crypt('test','OS X:VFvON1xKLinux:
>>> import crypt
>>> crypt.crypt('test','OS X:VFvON1xKAus dem pydoc zum lesencrypt
Ich habe gesehen, dass es ein OS-spezifisches verwendetcrypt
Implementierung, so habe ich auch den folgenden Code in beiden Systemen mit den gleichen Ergebnissen wie Python getestet:
#include <unistd.h>
int main() {
char *des = crypt("test","OS X:VFvON1xK$ls4Zz4XTEuVI.1PnYm28.1");
puts(des);
}
Wie kann ich OS X habencrypt()
Implementierung erzeugen die gleichen Ergebnisse wie Linuxcrypt()
?
Und warum wird dies nicht von der Python-Implementierung abgedeckt (wie ich es von solchen Fällen für die plattformübergreifende Bereitstellung erwarten würde)?
)
'$1SoNol0Ye6Xk'
Linux:
>>> import crypt
>>> crypt.crypt('test','OS X:VFvON1xK$')
'OS X:VFvON1xK$SboCDZGBieKF1ns2GBfY50'
Aus dem pydoc zum lesencrypt
Ich habe gesehen, dass es ein OS-spezifisches verwendetcrypt
Implementierung, so habe ich auch den folgenden Code in beiden Systemen mit den gleichen Ergebnissen wie Python getestet:
#include <unistd.h>
int main() {
char *des = crypt("test","OS X:VFvON1xK$ls4Zz4XTEuVI.1PnYm28.1");
puts(des);
}
Wie kann ich OS X habencrypt()
Implementierung erzeugen die gleichen Ergebnisse wie Linuxcrypt()
?
Und warum wird dies nicht von der Python-Implementierung abgedeckt (wie ich es von solchen Fällen für die plattformübergreifende Bereitstellung erwarten würde)?
)
'OS X:VFvON1xK$SboCDZGBieKF1ns2GBfY50'
Aus dem pydoc zum lesencrypt
Ich habe gesehen, dass es ein OS-spezifisches verwendetcrypt
Implementierung, so habe ich auch den folgenden Code in beiden Systemen mit den gleichen Ergebnissen wie Python getestet:
#include <unistd.h>
int main() {
char *des = crypt("test","OS X:VFvON1xK$ls4Zz4XTEuVI.1PnYm28.1");
puts(des);
}
Wie kann ich OS X habencrypt()
Implementierung erzeugen die gleichen Ergebnisse wie Linuxcrypt()
?
Und warum wird dies nicht von der Python-Implementierung abgedeckt (wie ich es von solchen Fällen für die plattformübergreifende Bereitstellung erwarten würde)?
Linux:
>>> import crypt
>>> crypt.crypt('test','OS X:VFvON1xK$')
'OS X:VFvON1xK$SboCDZGBieKF1ns2GBfY50'
Aus dem pydoc zum lesencrypt
Ich habe gesehen, dass es ein OS-spezifisches verwendetcrypt
Implementierung, so habe ich auch den folgenden Code in beiden Systemen mit den gleichen Ergebnissen wie Python getestet:
#include <unistd.h>
int main() {
char *des = crypt("test","OS X:VFvON1xK$ls4Zz4XTEuVI.1PnYm28.1");
puts(des);
}
Wie kann ich OS X habencrypt()
Implementierung erzeugen die gleichen Ergebnisse wie Linuxcrypt()
?
Und warum wird dies nicht von der Python-Implementierung abgedeckt (wie ich es von solchen Fällen für die plattformübergreifende Bereitstellung erwarten würde)?