3D-Computergrafik ist ein Oberbegriff für verschiedene Verfahren zur Erzeugung und Darstellung räumlicher Daten mit den Mitteln der Computergrafik.

Teilbereiche
Die 3D-Computergrafik teilt sich in zwei große Bereiche: die Modellierung und das Rendern von räumlichen Daten. Die Modellierung bezeichnet die Erstellung räumlicher Daten; das Rendern bezeichnet die weitgehend automatische Erzeugung eines zweidimensionalen Bildes oder Filmes aus räumlichen Daten.
Die Gesamtheit der räumlichen Daten, die später gerendert werden sollen, bezeichnet man als Szene. Diese wird weitgehend von Hand erstellt. Die Software, die Techniken bereitstellt, um den Anwender dabei zu unterstützen, nennt man 3D-Modellierungswerkzeug oder einfach „3D-Modeller“.
„Rendern“ bezeichnet in der 3D-Computergrafik die Erzeugung eines zweidimensionalen Bildes aus der entweder mithilfe eines 3D-Modellers erstellten oder durch Messungen bzw. Berechnungen gewonnenen Szene. Beim so erzeugten Bild handelt es sich meist nicht um ein echtes „3D-Bild“ (nach DIN 19040/Teil 8), da ihm die stereoskopische Wirkung fehlt.
Anwendungsgebiete
Zwei große Anwendungsbereiche der 3D-Computergrafik stellen die Virtual Reality (virtuelle Realität) und die Augmented Reality (erweiterte Realität) dar.
Beide legen ihr Hauptaugenmerk auf die Echtzeitfähigkeit und die sich daraus ergebende Interaktion mit dem Betrachter (z. B. verändern der Perspektive bei einer Drehung des Kopfes). Während in der Virtual Reality Welten komplett im Rechner generiert werden, beschäftigt sich die Augmented Reality mit dem Einbinden von künstlichen Objekten in die Realität (z. B. über Datenbrillen).
Noch eine wichtige Anwendung der 3D-Computergrafik ist die Darstellung von CAD-Volumenmodellen, die dann zum Beispiel auch für Festigkeitsberechnungen, ohne Zeichnungen direkt zur Fertigung oder im Fahrzeugbau für Crashsimulationen verwendet werden können.
Weiterhin findet die 3D-Computergrafik zur Erzeugung von hochwertigen Spezialeffekten oder Computeranimationen Verwendung, etwa in der Werbe- und Filmindustrie (Computer Generated Imagery). Weitere, eher technische Anwendungsbereiche sind die Simulation in der Architektur oder Optik. Hierbei wird oft auf eine möglichst große Detailtreue und Realismus wert gelegt; Echtzeitfähigkeit ist nicht unbedingt erforderlich.
Modellierverfahren
Eine 3D-Szene enthält die Beschreibung von Objekten, die auf verschiedene Arten definiert sein können. Verbreitet ist die Darstellung durch folgende Primitiven:
- Polygone werden durch drei oder mehr Punkte eindeutig beschrieben, die dreidimensionale Koordinaten haben. Weiterhin ist die Angabe eines Normalenvektors üblich, aus dessen Richtung die sichtbare Seite des Polygons bestimmt wird. Durch Meshing kann eine mahematisch beschreibene Oberfläche, etwa eine Kugel, durch Polygone angenähert werden.
- NURBS sind eine bestimmte Form sogenannter Splines. Ein Spline ist eine Kurve, die durch mehrere Punkte im Raum exakt definiert ist. Mit einem Netz aus NURBS lässt sich eine Fläche definieren. Diese Darstellungsweise hat den Vorteil, dass sich sehr komplexe Flächen über verhältnismässig wenige Punkte definieren lassen. Um die Fläche darzustellen rechnet der Computer diese dann in Polygone um. Man kann sich den Unterschied zwischen NURBS- und Polygonenflächen ähnlich dem von Vektor- und Pixeldarstellung im 2D-Bereich vorstellen. Sie eignen sich besonders für gekrümmte Flächen, da diese auch bei starker Vergrösserung nicht „kantig“ werden.
3D-Grafikprogramme speichern diese Punkte/Polygone/NURBS/Objekte in Listen ab, die dann in einem bestimmten Format (meist als ASCII-Datei) auf den Datenträger geschrieben werden.
Eine weitere Form des Speicherung ist die mittels Programmcode. So z. B. beschränkt sich das VRML-Format nicht nur auf die listenförmige Angabe von Punkt- oder Kantenlisten, sondern erlaubt die Beschreibung einer 3D-Szene mit einer Art Programmiersprache. Diese Dateien kann man, Sprachkenntnisse vorausgesetzt, auch ohne einen besonderen Editor erstellen oder manipulieren.
Siehe auch: Liste der Dateiformate für 3D-Modelle
Renderverfahren
Überblick über Verfahren der 3D-Computergrafik |
Überblick über Verfahren der 3D-Computergrafik |
Die beim Rendern verwendeten Verfahren lassen sich in zwei große Gruppen unterteilen, abhängig davon, ob Animationen in Echtzeit berechnet werden sollen (etwa für Computerspiele) oder ob die möglichst detailgetreue Nachbildung der Wirklichkeit erwünscht ist. Die ersteren Verfahren bezeichnet man als Echtzeitrendering (engl. real-time rendering); die zweite Gruppe wird als Bildsynthese oder (foto)realistische 3D-Computergrafik bezeichnet.
Einen Spezialfall stellen sogenannte nicht-fotorealistische Techniken dar, bei denen z. B. aus ästhetischen Gründen Verfremdungen erzeugt werden (wie etwa Comic-Renderer). Sie erfolgen meist in einem Nachbearbeitungsschritt der Bildsynthese.
Echtzeitrendern
Aufgrund der drastisch gestiegenen Leistung von 3D-Karten in den letzten Jahren lassen sich immer hochwertigere Bilder in Echtzeit berechnen. Dennoch ist die Qualität der gerenderten Bilder nur bedingt mit der Bildsynthese vergleichbar.
Wesentlich zur Entwicklung der Echtzeit 3D-Computergrafik hat der ursprünglich von Silicon Graphics eingeführte Grafikstandard OpenGL beigetragen, der die Möglichkeiten moderner Grafikhardware nutzt. Die aktuellen Neuerungen von OpenGL und Microsofts DirectX finden hauptsächlich in modernen Computerspielen ihre Anwendung. Außer DirectX und OpenGL gab es noch andere Ansätze, wie zum Beispiel Glide. Diese konnten sich allerdings nicht durchsetzen. Im professionellen Bereich hat OpenGL die größte Bedeutung, da DirectX stark auf die Entwicklung von Spielen optimiert ist.
Bildsynthese
Die zentralen Verfahren der Bildsynthese beschäftigen sich mit der Ausbreitung von Licht und dessen Interaktion mit den Objekten der Szene. Es gibt eine große Anzahl verschiedener Renderverfahren mit jeweils unterschiedlichen Möglichkeiten. Die beiden großen Gruppen sind dabei Radiosity- und Raytracing-basierte Verfahren.
Neben der Berechnung der Lichtverteilung spielen Verfahren zur physikalisch plausiblen Simulation von Oberflächeneigenschaften eine große Rolle.
Überblick
Bedeutende Entwicklungen in der Geschichte der Bildsynthese |
- Globale Beleuchtungsmodelle
- (Berechnung der Lichtverteilung)
- Radiosity
- Raytracing, unter anderem:
- darunter sind globale Beleuchtungsverfahren; deren Basis ist die Rendergleichung
- Shading
- (Simulation der Oberfläche und deren Material)
- „Shading“ (Interpolation der Polygongeometrie)
- Simulation der Mesogeometrie
- Lokale Beleuchtungsmodelle (Simulation der Mikrogeometrie)
- Texture Mapping (örtliche Veränderung der Materialbeschaffenheit)
Siehe auch: Wikiprojekt Computergrafik
Weblinks
Bedeutende Konferenzen:
Für Anwender: