3D-Computergrafik

Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 22. Juli 2005 um 14:20 Uhr durch Phrood (Diskussion | Beiträge) (Überblick). Sie kann sich erheblich von der aktuellen Version unterscheiden.

3D-Computergrafik ist ein Oberbegriff für verschiedene Verfahren zur Erzeugung und Darstellung räumlicher Daten mit den Mitteln der Computergrafik.

Die Utah-Teekanne ist ein klassisches Testobjekt und „running gag“ der 3D-Computergrafik

Teilbereiche

Die 3D-Computergrafik teilt sich in zwei große Bereiche: die Modellierung und das Rendern von räumlichen Daten. Die Modellierung bezeichnet die Erstellung räumlicher Daten; das Rendern bezeichnet die weitgehend automatische Erzeugung eines zweidimensionalen Bildes oder Filmes aus räumlichen Daten.

Die Gesamtheit der räumlichen Daten, die später gerendert werden sollen, bezeichnet man als Szene. Diese wird weitgehend von Hand erstellt. Die Software, die Techniken bereitstellt, um den Anwender dabei zu unterstützen, nennt man 3D-Modellierungswerkzeug oder einfach „3D-Modeller“.

„Rendern“ bezeichnet in der 3D-Computergrafik die Erzeugung eines zweidimensionalen Bildes aus der entweder mithilfe eines 3D-Modellers erstellten oder durch Messungen bzw. Berechnungen gewonnenen Szene. Beim so erzeugten Bild handelt es sich meist nicht um ein echtes „3D-Bild“ (nach DIN 19040/Teil 8), da ihm die stereoskopische Wirkung fehlt.

Anwendungsgebiete

Datei:Pov18 photon5.jpg
Renderbild mit Photon Mapping

Zwei große Anwendungsbereiche der 3D-Computergrafik stellen die Virtual Reality (virtuelle Realität) und die Augmented Reality (erweiterte Realität) dar.

Beide legen ihr Hauptaugenmerk auf die Echtzeitfähigkeit und die sich daraus ergebende Interaktion mit dem Betrachter (z. B. verändern der Perspektive bei einer Drehung des Kopfes). Während in der Virtual Reality Welten komplett im Rechner generiert werden, beschäftigt sich die Augmented Reality mit dem Einbinden von künstlichen Objekten in die Realität (z. B. über Datenbrillen).

Noch eine wichtige Anwendung der 3D-Computergrafik ist die Darstellung von CAD-Volumenmodellen, die dann zum Beispiel auch für Festigkeitsberechnungen, ohne Zeichnungen direkt zur Fertigung oder im Fahrzeugbau für Crashsimulationen verwendet werden können.

Weiterhin findet die 3D-Computergrafik zur Erzeugung von hochwertigen Spezialeffekten oder Computeranimationen Verwendung, etwa in der Werbe- und Filmindustrie (Computer Generated Imagery). Weitere, eher technische Anwendungsbereiche sind die Simulation in der Architektur oder Optik. Hierbei wird oft auf eine möglichst große Detailtreue und Realismus wert gelegt; Echtzeitfähigkeit ist nicht unbedingt erforderlich.

Modellierverfahren

Eine 3D-Szene enthält die Beschreibung von Objekten, die auf verschiedene Arten definiert sein können. Verbreitet ist die Darstellung durch folgende Primitiven:

  • Polygone werden durch drei oder mehr Punkte eindeutig beschrieben, die dreidimensionale Koordinaten haben. Weiterhin ist die Angabe eines Normalenvektors üblich, aus dessen Richtung die sichtbare Seite des Polygons bestimmt wird. Durch Meshing kann eine mahematisch beschreibene Oberfläche, etwa eine Kugel, durch Polygone angenähert werden.
  • NURBS sind eine bestimmte Form sogenannter Splines. Ein Spline ist eine Kurve, die durch mehrere Punkte im Raum exakt definiert ist. Mit einem Netz aus NURBS lässt sich eine Fläche definieren. Diese Darstellungsweise hat den Vorteil, dass sich sehr komplexe Flächen über verhältnismässig wenige Punkte definieren lassen. Um die Fläche darzustellen rechnet der Computer diese dann in Polygone um. Man kann sich den Unterschied zwischen NURBS- und Polygonenflächen ähnlich dem von Vektor- und Pixeldarstellung im 2D-Bereich vorstellen. Sie eignen sich besonders für gekrümmte Flächen, da diese auch bei starker Vergrösserung nicht „kantig“ werden.

3D-Grafikprogramme speichern diese Punkte/Polygone/NURBS/Objekte in Listen ab, die dann in einem bestimmten Format (meist als ASCII-Datei) auf den Datenträger geschrieben werden.

Eine weitere Form des Speicherung ist die mittels Programmcode. So z. B. beschränkt sich das VRML-Format nicht nur auf die listenförmige Angabe von Punkt- oder Kantenlisten, sondern erlaubt die Beschreibung einer 3D-Szene mit einer Art Programmiersprache. Diese Dateien kann man, Sprachkenntnisse vorausgesetzt, auch ohne einen besonderen Editor erstellen oder manipulieren.

Siehe auch: Liste der Dateiformate für 3D-Modelle

Renderverfahren

Überblick über Verfahren der 3D-Computergrafik
Überblick über Verfahren der 3D-Computergrafik

Die beim Rendern verwendeten Verfahren lassen sich in zwei große Gruppen unterteilen, abhängig davon, ob Animationen in Echtzeit berechnet werden sollen (etwa für Computerspiele) oder ob die möglichst detailgetreue Nachbildung der Wirklichkeit erwünscht ist. Die ersteren Verfahren bezeichnet man als Echtzeitrendering (engl. real-time rendering); die zweite Gruppe wird als Bildsynthese oder (foto)realistische 3D-Computergrafik bezeichnet.

Einen Spezialfall stellen sogenannte nicht-fotorealistische Techniken dar, bei denen z. B. aus ästhetischen Gründen Verfremdungen erzeugt werden (wie etwa Comic-Renderer). Sie erfolgen meist in einem Nachbearbeitungsschritt der Bildsynthese.

Echtzeitrendern

Aufgrund der drastisch gestiegenen Leistung von 3D-Karten in den letzten Jahren lassen sich immer hochwertigere Bilder in Echtzeit berechnen. Dennoch ist die Qualität der gerenderten Bilder nur bedingt mit der Bildsynthese vergleichbar.

Wesentlich zur Entwicklung der Echtzeit 3D-Computergrafik hat der ursprünglich von Silicon Graphics eingeführte Grafikstandard OpenGL beigetragen, der die Möglichkeiten moderner Grafikhardware nutzt. Die aktuellen Neuerungen von OpenGL und Microsofts DirectX finden hauptsächlich in modernen Computerspielen ihre Anwendung. Außer DirectX und OpenGL gab es noch andere Ansätze, wie zum Beispiel Glide. Diese konnten sich allerdings nicht durchsetzen. Im professionellen Bereich hat OpenGL die größte Bedeutung, da DirectX stark auf die Entwicklung von Spielen optimiert ist.

Bildsynthese

Die zentralen Verfahren der Bildsynthese beschäftigen sich mit der Ausbreitung von Licht und dessen Interaktion mit den Objekten der Szene. Es gibt eine große Anzahl verschiedener Renderverfahren mit jeweils unterschiedlichen Möglichkeiten. Die beiden großen Gruppen sind dabei Radiosity- und Raytracing-basierte Verfahren.

Neben der Berechnung der Lichtverteilung spielen Verfahren zur physikalisch plausiblen Simulation von Oberflächeneigenschaften eine große Rolle.

Überblick

 
Bedeutende Entwicklungen in der Geschichte der Bildsynthese
Verdeckungsberechnung
Globale Beleuchtungsmodelle
(Berechnung der Lichtverteilung)
Diffuses Raytracing
Path Tracing
Photon Mapping
darunter sind globale Beleuchtungsverfahren; deren Basis ist die Rendergleichung
Shading
(Simulation der Oberfläche und deren Material)
  • Shading(Interpolation der Polygongeometrie)
  • Simulation der Mesogeometrie


Siehe auch: Wikiprojekt Computergrafik

Bedeutende Konferenzen:

Für Anwender: