DFAs a Regexes przy implementacji analizatora leksykalnego?

(Po prostu uczę się, jak napisać kompilator, więc proszę, popraw mnie, jeśli złożę nieprawidłowe oświadczenia)

Dlaczego ktokolwiek miałby nadal implementować DFA w kodzie (instrukcje goto, implementacje sterowane tabelami), gdy mogą po prostu używać wyrażeń regularnych? O ile mi wiadomo, analizatory leksykalne przyjmują ciąg znaków i wypisują listę tokenów, które w definicji gramatyki języków są terminalami, dzięki czemu można je opisać za pomocą wyrażenia regularnego. Czy nie byłoby łatwiej po prostu zapętlić kilka wyrażeń regularnych, wyłamując się z pętli, jeśli znajdzie dopasowanie?

questionAnswers(1)

yourAnswerToTheQuestion