Photogrammetrie

Messmethoden und Auswerteverfahren der Fernerkundung
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 12. April 2005 um 11:00 Uhr durch Xorx (Diskussion | Beiträge) (Zentralprojektion: Link zu "Kollineare Abbildung"). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Die Photogrammetrie (Bildmessung) stellt Methoden zur Verfügung, um aus Abbildungen (z. B. der perspektivischen Abbildung einer Fotografie) eines Objektes seine räumliche Lage bzw. dreidimensionale Form zu rekonstruieren.

Die Photogrammetrie ist ein passives Fernerkundungs- und Vermessungsverfahren, da sie die berührungslose Informationsgewinnung von räumlichen Objekten ermöglicht. Im Gegensatz zu anderen Fernerkundungsmethoden wird dazu allerdings nur das photographisch erfassbare Lichtspektrum und nicht das gesamte elektromagnetische Spektrum verwendet.

Methoden

Datei:PhotogrammetriePrinzip Wiora.png
Datenmodell der Photogrammetrie nach [Wiora].

Einen Überblick über die Methoden der Photogrammetrie gibt die nebenstehende Abbildung. Sie zeigt die Photogrammetrie aus der Sicht der Eingangs- und Ausgangsgrößen:

  • Bildkoordinaten
  • 3D-Koordinaten
  • Äußere Orientierung
  • Innere Orientierung (Kameramodell)
  • Zusätzliche Beobachtungen (z.B. Maßstäbe oder Passpunkte)

Jede der der vier Hauptgrößen kann als Vorraussetzung oder als Ergebnis einer photogrammetrischen Methode betrachtet werden. Die einzelnen Methoden werden im Folgenden kurz erläutert.

Zentralprojektion

  • Bekannt: Innere und äußere Orientierung, 3D-Koordinaten
  • Unbekannt: Bildkoordinaten

Die Berechnung der Bildkoordinaten bei bekannter Kameraposition entspricht dem Nachvollziehen der fotografischen Abbildung. Als grundlegendes Modell verwendet die Photogrammetrie die Zentralprojektion wie in einer Lochkamera. Die mathematische Formulierung dafür liefern die sogenannten Kolinearitätsgleichungen (s. a. Kollineare Abbildung), die gleichzeitig die zentralen Formeln der Photogrammetrie darstellen:

 

 

  • Der Index   nummeriert verschiedene Kameras,   die Objekt- bzw. Bildpunkte.
  • Die Größe   ist die Kammerkonstante die in etwa der Brennweite des Objektives entspricht.
  • Der Vektor   beschreibt bei Matrixsensoren die Asymetrie der Bildpunkte.
  • Die Matrix   definiert die Blickrichtung der Kamera,
  • der Vektor   die Kameraposition.
  • Der Vektor   definiert die 3D-Koordinaten der Objektpunkte.
  • Der Vektor   definiert die Lage des Projektionszentrums auf dem Film oder Sensor.
  • Die Funktionen   und   spezifizieren die Verzeichnungskorrekturen.

Rückwärtsschnitt

  • Bekannt: Innere Orientierung, 3D-Koordinaten, Bildkoordinaten
  • Unbekannt: Äußere Orientierung

Der Rückwärtsschnitt berechnet die Kameraposition.

Vorwärtsschnitt

  • Bekannt: Mindestens zwei innere und/oder äußere Orientierungen, Bildkoordinaten
  • Unbekannt: 3D-Koordinaten

Der Vorwärtsschnitt berechnet bei bekannten Kamerastandpunkten die 3D-Koordinaten der Objektpunkte. Dazu braucht man mindestens zwei Aufnahmen aus unterschiedlichen Richtungen, die gleichzeitig mit mehreren Kameras oder sequentiell mit einer Kamera angefertigt werden können.

Kamerakalibrierung

  • Bekannt: Äußere Orientierung, Bildkoordinaten, 3D-Koordinaten
  • Unbekannt: Innere Orientierung

Bei der Kamerakalibrierung werden die Abbildungseigenschaften der Kamera berechnet. Diese Methode wird allerdings selten eingesetzt.

Bündelblockausgleichung

  • Unbekannt: Innere und äußere Orientierung, Bildkoordinaten, 3D-Koordinaten
  • Bekannt: Nur Näherungswerte

Bei der Bündelblockausgleichung werden aus Näherungswerten gleichzeitig alle unbekannten Werte geschätzt. Als bekannte Größe benötigt man lediglich eine zusätzliche Beobachtung in Form eines Längenmaßstabes oder von Passpunkten. Diese Methode ist das am häufigsten eingesetzte Verfahren der Photogrammetrie bei statischen Messobjekten. Der Vorteil liegt vor allem in der Möglichkeit einer Simultankalibrierung. Das heißt, dass die Messkamera während der Messung kalibriert wird.

Anwendungsgebiete

Man unterscheidet zwischen zwei Hauptanwendungsgebieten:

  • Luftbildphotogrammetrie und
  • terrestrischer bzw. Nahbereichsphotogrammetrie

Luftbildphotogrammetrie

Bei der Luftbildphotogrammetrie werden die photographischen Aufnahmen durch eine flugzeuggetragene (digitale oder analoge) Messbildkamera erzeugt. Es entstehen in der Regel regelmäßige, streifenweise angeordnete Bildreihen, in denen sich benachbarte Bilder in der Regel um ca. 60 % überlappen (Lehrbuch: Karl Kraus: Photogrammetrie).

Nahbereichsphotogrammetrie

In der Nahbereichsphotogrammetrie gibt es keine Einschränkungen bei der Aufnahmeanordnung. Es können beliebige, z. B. frei gehaltene Aufnahmen verwendet werden, so dass ein Objekt aus möglichst allen Richtungen aufgenommen wird. In der Regel werden dazu heute höher auflösende Digitalkameras verwendet (Lehrbuch: Thomas Luhmann: Nahbereichsphotogrammetrie).

In jüngster Zeit hat auch die moderne Kinematographie Techniken aus der Photogrammetrie übernommen. Beispiele dafür sind die Bullet Time und die Burly Brawl - Technologie aus den Filmen Matrix und Matrix Reloaded (siehe hierzu), im Film Fight Club wurden mit dieser Technik interessante Kamerafahrten ermöglicht.

  • Architektur und Archäologie (Bauaufnahme, Restauration und Denkmalpflege)
  • Industriemesstechnik
  • Medizin
  • Filmindustrie
  • Unfallphotogrammetrie

Einzelbildauswertung

Eine Entzerrung von einzelnen fotografischen Aufnahmen ist möglich, wenn sich das abzubildende Objekt in einer Ebene befindet (z. B. Hausfassade oder Straßenoberfläche) und zusätzliche Angaben über die Größenverhältnisse vorliegen (Maßstäbe in unterschiedlichen Bildbereichen, Passpunkte).

Anwendungsgebiete

Datenerhebung und Auswertemethoden

Man unterscheidet folgende Arten photogrammetrische Daten zu gewinnen und auszuwerten:

  • analoge Photogrammetrie (optisch-mechanische Photographie und Auswertung)
  • analytische Photogrammetrie (optisch-mechanische Photographie und rechnergestützte Auswertung)
  • digitale Photogrammetrie (digitale Photographie und rechnergestützte Auswertung)

Bei der digitalen Photogrammetrie wird die digitale Bildverarbeitung und immer häufiger auch die Mustererkennung als Auswerteinstrument eingesetzt.

Einige mathematische Grundlagen der Photogrammetrie

Eine photographische Abbildung unterliegt den mathematischen Gesetzen der Zentralprojektion.

Zur Rekonstruktion räumlicher Objekte aus perspektivischen Bildern sind mindestens zwei Aufnahmen des selben Objekts notwendig. Dabei vereinfacht sich die Auswertung, wenn beide Aufnahmezentren eine Basis bilden, welche parallel zur Objektebene verläuft (vergleichbar mit dem menschlichen Auge und dem räumlichen Sehen (Stereoskopie)). Durch die unterschiedlichen Aufnahmestandorte ergeben sich leicht unterschiedliche Bilder. Den Unterschied zwischen den gemessenen Koordinaten in beiden Bildern für einen Punkt nennt man Parallaxe.

In der Regel werden aber Bündel von mehreren Aufnahmen gebildet die in einer so genannten Bündelblockausgleichung ausgewertet werden.

Historische Entwicklung

Die Photogrammetrie wurde theoretisch schon vor Erfindung der Photographie entwickelt. Édouard Gaston Deville war der erste, der diese Methode perfektionierte. Praktisch wurde sie seit Beginn des 20. Jahrhunderts als analoges Verfahren immer stärker eingesetzt und weiterentwickelt. Seit Aufkommen der EDV wurde die analoge Photogrammetrie mehr und mehr durch digitale Auswerteverfahren ersetzt.

Vor- und Nachteile der Photogrammetrie gegenüber anderen Vermessungsverfahren

Vorteile

  • berührungslose Messung
  • sehr geringer Zeitbedarf für die Aufnahme (Messung) vor Ort
  • flächenhafte optische Erfassung des Objekts
  • hohe Flexibilität bezüglich Aufnahme, Genauigkeit, Qualität und Ergebnissen

Nachteile

  • Objekt muss abbildbar ("sichtbar", "farblich variierend") sein
  • indirekte Beleuchtung erforderlich
  • für dreidimensionale Erfassung sind mind. zwei Aufnahmen von unterschiedlichen Standorten mit korrespondierndem Bildinhalt notwendig
  • Aufnahme und Auswertung erfolgen örtlich und zeitlich getrennt

Siehe auch