DFAs против Regexes при внедрении лексического анализатора?

(Я только учусь писать компилятор, поэтому, пожалуйста, исправьте меня, если я сделаю какие-то неправильные заявления)

Зачем кому-то еще реализовывать DFA в коде (операторы goto, реализации на основе таблиц), когда они могут просто использовать регулярные выражения? Насколько я понимаю, лексические анализаторы берут строку символов и составляют список токенов, которые в определении грамматики языков являются терминалами, что позволяет описывать их с помощью регулярного выражения. Не будет ли проще просто перебрать кучу регулярных выражений, вырвавшись из цикла, если он найдет совпадение?

Ответы на вопрос(1)

Ваш ответ на вопрос