Zum Inhalt springen

Bildverarbeitung

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 6. Oktober 2005 um 13:31 Uhr durch 138.131.145.25 (Diskussion) (Klassifikation von Filtern). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Die (digitale) Bildverarbeitung nutzt die Mittel der Signalverarbeitung zur Aufbereitung und Speicherung von visuellen Informationen. Im Gegensatz zur Bildbearbeitung, welche sich mit der Manipulation von Bildern zur anschließenden Darstellung beschäftigt, dient die Bildverarbeitung als eine Zwischenstufe zu einer weitergehenden maschinellen Bearbeitung (Bildverstehen, Mustererkennung).

Objekte der Bildverarbeitung

Die in der Bildverarbeitung manipulierten Objekte lassen sich nach verschiedenen Gesichtspunkten klassifizieren:

Typ

  • Reflektionsbilder (z.B. Kameraaufnahmen, Radaraufnahmen, Multispektralaufnahmen)
  • Projektionsbilder (z.B. Röntgenaufnahmen, Ultraschall, Elektrophoretogramme)
  • Schematisierte Bilder (z.B. Karten, Pläne, Dokumente)

Codierung

  • Rasterbilder (z.B. konventionell auf quadratischem Gitter)
  • Kettencodierung (durch Richtungsangaben beschriebene Bildlinien)
  • Transformationscodierung (Ergebnis einer Reihenentwicklung)
  • Fraktale Codierung (Ausnutzung von Selbstähnlichkeit)

Operationen der Bildverarbeitung

Filter

Die Operationen, die ein Eingangsbild mit Hilfe einer mathematischen Abbildung in ein Ausgabebild überführen, heißen Filter. Die folgenden Filter beziehen sich im Wesentlichen auf Rasterbilder.

Ziel einer Filterung ist im Allgemeinen eine Verbesserung eines Musters. Im Einzelnen kann dies eine Reduktion störender Anteile, eine Hervorhebung informativer Anteile bzw. die Restauration eines idealen Musters sein. Die Abbildung welche ein gegebenes Bild auf ein Ausgabebild abbildet, heißt Transformation.

Die Funktionsfamilie mit heißt Impulsantwort des linearen Systems . ist die Diracsche Deltafunktion mit Impuls bei .

Lineares System

Ein wichtiges Unterscheidungsmerkmal von Transformationen ist ihre mathematische Beschaffenheit. Eine Transformation heißt Lineares System wenn für alle Funktionen und alle Skalare gilt:

Lineare Systeme (=LSI-Systeme) und damit lineare Filter sind praktisch hinreichend und mathematisch handhabbar. Für gewöhnlich konstruiert man LSI-Systeme mit den zusätzlichen Eigenschaften:

  • Kausalität: Für die Impulsantwort gilt für : und damit .
  • Stabilität:

Wahrend man symbolisch das Filtern einer Folge () mit einem linearen System zu einer Folge ()schreibt, liegt die Transformation meist mit Ihrer Impulsantwort () vor. Man berechnet dann h, indem f und g diskret gefaltet werden:

  • 1-dimensional:
  • 2-dimensional:

Werden Bilder als Folge von Farbwerten dargestellt, spricht man von einer Darstellung im Zeit-, Impuls- oder auch Orts-Raum. Aus diesem lassen sich Bilder injektiv in den sogenannten Frequenz-Raum überführen, in welchem nicht mehr die Farbwerte selbst, sondern die Frequenz- und Phasenanteile der zugrundeliegenden Punktfolge gespeichert werden. Große Sprünge innerhalb der Farbwertsequenz stehen dann für hohe Frequenzen, weiche Farbwertübergänge für niedrige Frequenzen. Die Fouriertransformierte gibt schließlich an, wie durch alleinige Überlagerung von Sinusfunktionen verschiedener Frequenz und Phasenwinkel, der ursprüngliche Farbwertverlauf rekonstruiert werden kann.

Der Vorteil dieser Darstellung liegt in ihrer höheren Effizienz bei der Anwendung linearer Filter. Im Impuls-Raum bedeutet die Faltung der das Bild beschreibenden Farbwertfolge mit der Impuls-Antwort (der Transformationsabbildung) des Filters eine Summation (der Gewichtung der Impulse mit der Impulsantwort) über die gesamte Filterlänge ein. Im Frequenzraum hingegen berechnet sich die Faltung als Produkt der Fouriertransformierten mit der Frequenzantwort der Transformation . Dieser Vorteil bezüglich der Rechenzeit ist so groß, das selbst der Aufwand der Hin- und Rücktransformation in den Frequenzraum in Kauf genommen werden kann. Dieser Aufwand lässt sich mit Hilfe der Fast-Fourier-Transformation deutlich senken.

Von Vorteil ist des weiteren die Vereinfachung, Filter direkt im Frequenzraum designen zu können, anstatt Impulsantworten bauen und ihre Wirkung auf das Spektrum berechnen zu müssen. Damit erübrigt sich gleichsam die Transformation der Impulsantwort in die zugehörige Frequenzantwort .

Klassifikation von Filtern

Lässt sich ein LSI-System eines Filters mit der Impulsantwort durch

oder durch seine Frequenzantwort

beschreiben, so nennt man den Filter FIR-Filter (finite impulse response). Jeder transformierte Wert hängt damit allein von der konstanten Impulsantwort und damit endlich vielen Nachbarn ab.

Es lässt sich die Operation eines LSI-Systems durch eine Differenzengleichung

beschreiben. sssMan nennt einen Filter AR-Filter (autoregressive), wenn er sich durch

darstellen lässt, oder die Frequenzantwort

besitzt. Man nennt einen Filter ARMA-Filter (autoregressive moving average), wenn er sich durch

darstellen lässt, oder die Frequenzantwort

besitzt. Filter der Art AR oder ARMA mit einer rekursiven Berechnungsformel für nennt man IIR-Filter (infinite impulse response).

Filter nach Anwendungsgebieten

Glättung

Durch Glättung kann das Bildrauschen vermindert werden, grobere Strukturen bleiben dagegen erhalten. Auf das Frequenzspektrum eines Bildes bezogen kommt eine Glättung einem Tiefpassfilter gleich. Typische FIR-Glättungsfilter sind

  • Mittelwertfilter (box filter): Ein Mittelwertfilter der Größe wird durch eine -Impulsantwortmatrix beschrieben. Die Bildpunkte des transformierten Bildes sind somit die Mittelwerte ihrer Nachbarn. Box-Filter sind nicht isotrop und nicht abklingend und stellen entgegen einer naiven Einschätzung keinen eigentlichen Tiefpassfilter dar.
  • Gaußfilter: Gaußfilter der Größe und einer Varianz werden durch eine Impulsantwortmatrix beschrieben. Die Nachbarpunkte des Ausgangsbildes gehen damit nicht wie beim box-filter gleichwertig ein, sondern werden entsprechend einer zweidimensionalen Gaußglocke gewichtet. Gaußfilter sind damit isotrop und abklingend.
  • Nichtlineare Glättungsfilter, der Grauwert des aktuellen Pixels wird dabei ersetzt durch
    • Medianfilter
      • den Median der Grauwerte der aktuellen Umgebung
    • k-zentriertes Mittel
      • den Durchschnitt der k-mittleren Grauwerte
    • k-NN-Filter
      • der Median der k-nächsten Grauwerte der Umgebung
    • -Nachbarschaftsfilter
      • den Durschschnitt aller Grauwerte deren Abstand kleiner als zum aktuellen Grauwert ist
    • Lee's Filter
      • ist Grauwertmittel, Grauwertvarianz und Rauschenergie der aktuellen Umgebung
    • Minimum-Varianz-Filter
      • es werden die Grauwertmittlel und Varianzen einiger Teilfenster berechnet
      • wird gewählt mit

Werden anstatt der absoluten Farbwerte die Abweichung zu den benachbarten Punkten signalisiert, so werden die Objektkonturen, d.h. harte Farbübergänge, eines Bildes hervorgehoben während weiche Übergänge abgeschwächt werden. Häufig finden folgende FIR-Filter Anwendung:

Nichtlineare Kantendetektoren:

Schwellwertoperationen

Sollen Bilder in kleinere Farbräume konvertiert werden, ergibt sich das Problem der Bestimmung adäquater Schwellwerte. Eine klassische Aufgabe ist die Binarisierung eines Grauwertbildes. Typische Schwellwerte können aus dem Grauwerthistogramm eines Bildes gewonnen werden:

  • Mittelmäßiger Grauwert
  • Mittlerer oder erwarteter Grauwert
  • Grauwertmedian
  • Hauptsenken (zentralste relative Extremstellen des Grauwerthistogramms)
  • Maximum-Entropie-Schwellwert

Andere Methoden bieten ein Grauwertmischverteilungsmodell oder der Intermeans-Algorithmus.

Morphologische Operationen

Während Grauwertrasterbilder für Gewöhnlich als Abbildung von Koordinatenpaaren auf Farbwerte dargestellt werden, bietet sich für Binärbilder eine Darstellung als Menge der gesetzten Pixel an. Operationen können dann als Mengenoperation zwischen den Rasterpunktmengen des Binärbildes und eines Strukturelementes beschrieben werden. Aus den Basisoperationen der Morphologischen Bildverarbeitung, der Erosion und Dilatation, lassen sich die Operationen Öffnung, Schließung und schließlich die Morphologische Glättung definieren.

Transformation

Transformationen von diskreten Bildern gestalten sich gegenüber stetigen Bildern ungemein schwieriger, da Transformationen im Allgemeinen nicht gitterkonform sind. Neben der eigentlichen Transformation muss daher geeignet interpoliert werden. Typische Transformationen sind:

  • Skalierung
  • Rotation
  • Neigung
  • (Translation)

Normierung

Eine Meta-Manipulation von Bildern stellt das Feld der Normierung dar. Sie dient dem Abstrahieren von irrelevanten Eigenschaften und der Reduktion von Mustervariabilität. Unproduktive Parameter werden dabei auf einen Standardwert gesetzt. Sie ist damit in der Mustererkennung als Vorverarbeitung von großer Bedeutung. Normierbare Parameter sind unter anderen Intensität, Größe, Lage oder Dicke/Stärke.

Klassifikation

Mit Hilfe der Klassifikation (auch Klassifizierung) soll das breite Informationsspektrum eines Originalbildes durch Einteilung von Farb- oder Grauwerten in Klassen vereinfacht werden. Ziel ist es, Flächen mit gleichen bzw. ähnlichen Eigenschaften zu ermitteln und diese verschiedenen Klassen zuzuordnen. Es gibt zwei mögliche Klassifikationsansätze, die unüberwachte und die überwachte Klassifikation.

Unüberwachte Klassifikation

Bei der unüberwachten Klassifikation werden die Klassen über eine Clusteranalyse gebildet. Die Folge ist, dass die resultierenden Klassen nicht beeinflussbar sind, das Ergebnis also nicht vorhersehbar ist. Wenn eine funktionelle Klassifikation gewünscht ist, d.h. die Klassen bestimmten realen Klassen entsprechen sollen (wichtig in der Fernerkundung, um bspw. Nutzungsklassen auf einem Satellitenbild zu identifizieren) müssen die Ergebnis-Klassen anschließend durch Vergleiche mit den Real-Klassen aufwendig ermittelt werden.

Grundsätzlich gibt es divisive Verfahren, bei denen eine anfängliche Gesamtklasse sukzessive in Unterklassen aufgeteilt wird, und agglomerative Verfahren, bei denen die Klassen (zu beginn so viele, wie es Elemente/Pixel gibt) sukzessive bis zu einer Gesamtklasse zusammengefasst werden.

Überwachte Klassifikation

Die überwachte Klassifikation besteht aus zwei Schritten:

  1. Zuerst werden die Zielklassen mit den jeweiligen (Farb-)Merkmalen durch eine Auswahl so genannter "Trainingsflächen" festgelegt. Dabei sollte möglicht die gesamte Varianz einer Klasse erfasst, die Auswahl von "Mischpixeln" aber vermieden werden.
  2. Anschließend erfolgt die Zuweisung aller Pixel zu den entsprechenden Klassen. Dafür gibt es verschiedenen Methoden, z.B.:

Programme zur Bildverarbeitung

Siehe auch: Bildbearbeitung, Snakes