Ressourcen zum Lexen, Tokenisieren und Parsen in Python

Können Leute mich auf Ressourcen zum Lexen, Parsen und Tokenisieren mit Python verweisen?

Ich mache ein wenig Hacking auf ein Open Source-Projekt hotwire) und wollte ein paar Änderungen am Code vornehmen, die lexes, Parses und Tokenises die eingegebenen Befehle. Da es sich um echten Arbeitscode handelt, ist er ziemlich komplex und etwas schwierig zu erarbeiten.

Ich habe vorher noch nie an Code für lex / parse / tokenise gearbeitet, daher dachte ich, ein Ansatz wäre, ein oder zwei Tutorials zu diesem Aspekt durchzuarbeiten. Ich würde hoffen, genug zu lernen, um in dem Code zu navigieren, den ich eigentlich ändern möchte. Gibt es etwas passendes da draußen? (Idealerweise könnte es an einem Nachmittag gemacht werden, ohne zuerst das Drachenbuch kaufen und lesen zu müssen ...)

Bearbeiten (7. Oktober 2008) Keine der folgenden Antworten gibt genau das wieder, was ich will. Mit ihnen könnte ich Parser von Grund auf neu generieren, aber ich möchte lernen, wie ich meinen eigenen grundlegenden Parser von Grund auf neu schreibe, ohne lex und yacc oder ähnliche Tools zu verwenden. Danach kann ich den vorhandenen Code besser verstehen.

So könnte mich jemand auf ein Tutorial verweisen, in dem ich einen grundlegenden Parser von Grund auf mit nur Python erstellen kann?

Antworten auf die Frage(16)

Ihre Antwort auf die Frage