Zeichenerkennung mit tesseract
Ich versuche zu interagierentesseract
API Ich bin auch neu in der Bildverarbeitung und habe seit ein paar Tagen Probleme damit. Ich habe einfache Algorithmen ausprobiert und eine Genauigkeit von ca. 70% erreicht.
Ich möchte eine Genauigkeit von 90 +%. Das Problem mit den Bildern ist, dass sie in 72 dpi sind. Ich habe auch versucht, die Auflösung zu erhöhen, habe aber keine guten Ergebnisse erzielt. Die Bilder, die ich zu erkennen versuche, sind beigefügt.
Jede Hilfe wäre dankbar und es tut mir leid, wenn ich etwas sehr Grundlegendes gefragt hätte.
BEARBEITEN
Ich habe vergessen zu erwähnen, dass ich versuche, die gesamte Verarbeitung und Erkennung innerhalb von 2 bis 2,5 Sekunden durchzuführenLinux
Plattform und Methode zum Erkennen des in dieser Antwort erwähnten Texts nehmen viel Zeit in Anspruch. Auch ich bevorzuge es, keine Befehlszeilenlösung zu verwenden, aber ich würde es vorziehenLeptonica
oderOpenCV
.
Die meisten Bilder werden hochgeladenHier
Ich habe Folgendes versucht, um die Tickets zu digitalisieren, aber kein Glück
http://www.vincent-net.com/luc/papers/10wiley_morpho_DIAapps.pdfhttp://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.193.6347&rep=rep1&type=pdfhttp://iit.demokritos.gr/~bgat/PatRec2006.pdfhttp://psych.stanford.edu/~jlm/pdfs/Sternberg67.pdfTicket enthält
wenig schlechtes LichtNicht-Textbereichweniger auflösungIch habe versucht, das Bild direkt an die tesseract-API zu übertragen, und es liefert mir durchschnittlich 70% gute Ergebnisse in 1 Sekunde. Aber ich möchte die Genauigkeit beim Erkennen des Zeitfaktors erhöhen. Bisher habe ich es versucht
Bildränder erkennenBlob-Analyse für BlobsBinarisierte das Ticket mithilfe der adaptiven SchwellenwertbestimmungDann habe ich versucht, diese binarisierten Bilder mit Tesseract zu füttern. Die Genauigkeit wurde auf weniger als 50-60% reduziert, obwohl das binarisierte Bild perfekt aussieht.