Zum Inhalt springen

Lexikalische Analyse

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 19. Dezember 2002 um 16:44 Uhr durch Schewek (Diskussion | Beiträge) (beispielprogramme: lex, flex). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Ein lexikalischer Scanner ist ein Programm. Es wird meist als Teil eines Compilers genutzt. Er verarbeitet eine Eingabedatei oder einen Eingabedatenstrom von Zeichen und erkennt dabei die Schlüsselwörter der betreffenden Programmsprache, die Bezeichner und konstante Werte wie Zahlen und Zeichenketten. Das Produkt des lexikalischen Scanners sind die sog. Tokens. Sie werden dann vom Parser weiterbearbeitet.

Beispiele lexikalischer Scanner sind das auf UNIX Betriebssystemen enthaltene Program lex, sowie das von der Free Software Foundation entwickelte flex.