Zeichenerkennung mit tesseract

Ich versuche zu interagierentesseract API Ich bin auch neu in der Bildverarbeitung und habe seit ein paar Tagen Probleme damit. Ich habe einfache Algorithmen ausprobiert und eine Genauigkeit von ca. 70% erreicht.

Ich möchte eine Genauigkeit von 90 +%. Das Problem mit den Bildern ist, dass sie in 72 dpi sind. Ich habe auch versucht, die Auflösung zu erhöhen, habe aber keine guten Ergebnisse erzielt. Die Bilder, die ich zu erkennen versuche, sind beigefügt.

Jede Hilfe wäre dankbar und es tut mir leid, wenn ich etwas sehr Grundlegendes gefragt hätte.

BEARBEITEN

Ich habe vergessen zu erwähnen, dass ich versuche, die gesamte Verarbeitung und Erkennung innerhalb von 2 bis 2,5 Sekunden durchzuführenLinux Plattform und Methode zum Erkennen des in dieser Antwort erwähnten Texts nehmen viel Zeit in Anspruch. Auch ich bevorzuge es, keine Befehlszeilenlösung zu verwenden, aber ich würde es vorziehenLeptonica oderOpenCV.

Die meisten Bilder werden hochgeladenHier

Ich habe Folgendes versucht, um die Tickets zu digitalisieren, aber kein Glück

http://www.vincent-net.com/luc/papers/10wiley_morpho_DIAapps.pdfhttp://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.193.6347&rep=rep1&type=pdfhttp://iit.demokritos.gr/~bgat/PatRec2006.pdfhttp://psych.stanford.edu/~jlm/pdfs/Sternberg67.pdf

Ticket enthält

wenig schlechtes LichtNicht-Textbereichweniger auflösung

Ich habe versucht, das Bild direkt an die tesseract-API zu übertragen, und es liefert mir durchschnittlich 70% gute Ergebnisse in 1 Sekunde. Aber ich möchte die Genauigkeit beim Erkennen des Zeitfaktors erhöhen. Bisher habe ich es versucht

Bildränder erkennenBlob-Analyse für BlobsBinarisierte das Ticket mithilfe der adaptiven Schwellenwertbestimmung

Dann habe ich versucht, diese binarisierten Bilder mit Tesseract zu füttern. Die Genauigkeit wurde auf weniger als 50-60% reduziert, obwohl das binarisierte Bild perfekt aussieht.

Antworten auf die Frage(4)

Ihre Antwort auf die Frage