Texture Mapping

Texture-Mapping ist ein Verfahren der 3D-Computergrafik. Es dient dazu, die Oberflächen dreidimensionaler Oberflächenmodelle mit zweidimensionalen Bildern – sogenannten „Texturen“ – und Oberflächeneigenschaften auszustatten. Texturen lassen computergenerierte Bilder detailreicher und realistischer erscheinen, ohne dass das zugrundeliegende Modell selbst verfeinert werden muss.
Texturkoordinaten
In der Regel gibt es für ein 3D-Modell oder eine 3D-Szenerie mehrere Bilder, die als Texturen verwendet werden. Das 3D-Modell besteht in der Regel aus Polygonen. Man kann nun jedem Polygon eine Textur zuweisen (natürlich können mehrere Polygone die selbe Textur verwenden) und jedem Eckpunkt des Polygons zwei Texturkoordinaten, die angeben, welchem Punkt in der zweidimensionalen Textur der Eckpunkt des Polygons entspricht. Um die Position innerhalb einer Textur zu bestimmen, hat sich ein Koordinatensystem eingebürgert, in dem (0,0) die linke untere Ecke und (1,1) die rechte obere Ecke der Textur bezeichnet; die beiden anderen Ecken sind naturgemäß (1,0) und (0,1). Die beiden Koordinaten werden meist u und v genannt und sind in der Regel Fließkommazahlen. Wenn eine Texturkoordinate 0 unterschreitet oder 1 überschreitet, also den Rand der Textur überschreitet, so wird die Textur meist einfach wiederholt.
In 3D-Modellen mit vielen Polygonen wird oft eine einzige Textur für das ganze Modell verwendet, sodass jeder Punkt des Modells nur einen Satz Texturkoordinaten (und nicht unterschiedliche Texturkoordinaten für die verschiedenen Polygone, die diesen Punkt verwenden) hat, weil dieses Format für hardwarebeschleunigte 3D-Grafik und auch für den Designer des 3D-Modells besonders günstig ist.
Bei der einfachsten Variante des Texture Mapping werden die Texturkoordinaten entlang der schon vom 3D- in den 2D-Raum transformierten Randlinien des Polygons linear interpoliert. Dann werden sie entlang einer Bildschirmzeile (oder -spalte) von Randlinie zu Randlinie linear interpoliert, bei jedem Pixel wird der Farbwert des zu den interpolierten (u,v)-Koordinaten gehörenden Texels (Bildpunkt in der Textur) übernommen.
Perspektivenkorrektur
Bei Polygonen, die eine größere Ausdehnung in Sichtrichtung haben, führt das oben beschriebene Verfahren zu visuell unbefriedigenden Resultaten, weil die Texturkoordinaten nach der Projektion interpoliert werden und somit nicht berücksichtigen, dass eine Strecke im weiter entfernten Teil des projizierten Polygons einer größeren Strecke im originalen Polygon im 3D-Raum entspricht, als eine Strecke im näheren Teil des Polygons. Dadurch ändert sich die Zuordnung von Texturkoordinaten zu Punkten im dreidimensionalen Raum, wenn sich die Perspektive ändert.
Um dieses Problem zu lösen, werden meist anstatt der Texturkoordinaten u und v die Werte von u/z und v/z und weiters auch 1/z linear interpoliert, wobei z die Koordinate im 3D-Raum in Sichtrichtung ist (z bzw. 1/z muss daher zu jedem projiziertem Punkt des Polygons gespeichert werden). Um für einen Pixel die Texturkoordinaten zu berechnen, müssen nun Divisionen ausgeführt werden:
u = (u/z)/(1/z)
v = (v/z)/(1/z)
Weil Divisionen relativ langsame Operationen sind, werden sie meist nicht bei jedem Pixel gemacht; stattdessen werden u und v nur bei wenigen Pixeln, die auf das Polygon gleichmäßig verteilt sind, so berechnet. Bei allen anderen Pixeln werden die Werte von u und v zwischen denen jener Pixel interpoliert. So kann man die störenden Effekte stark reduzieren, ohne dass all zu viel Rechenleistung dafür aufgewendet werden muss.
Texturinterpolation und MIP-Mapping
Die bisher beschriebenen Verfahren nehmen vereinfachend an, dass jeder Pixel exakt einem Texel zugeordnet werden kann. Betrachtet man aber sowohl Pixel als auch Texel als Punkte ohne Ausdehnung, so ist dies ist im Allgemeinen nicht der Fall. Vielmehr liegen die Texturkoordinaten eines Pixels in der Regel zwischen mehreren Texeln. Es gilt also, zu entscheiden, wie aus den Farbwerten der umliegenden Texel der Farbwert für den Pixel gewonnen wird: Man benötigt ein geeignetes Interpolationsverfahren.
Das einfachste und schnellste solche Verfahren besteht darin, einfach den nächstliegenden Texel auszuwählen; man nennt dies nearest neighbor („nächster Nachbar“) oder auch point sampling („punktweise Stichprobe“). Beim äufwändigeren bilinearen Filtern wird der gesuchte Farbwert aus den vier umliegenden Texeln in Abhängigkeit ihrer Entfernung interpoliert, man nennt dies einen „Box-Filter“. Noch aufwändigere Filter, etwa der Gauß-Filter, ziehen weitere Texel in die Berechnung mit ein oder gewichten die Entfernung anders. Da ungeeignete Interpolationsverfahren zu unerwünschten Alias-Effekten führen – beispielsweise Moiré-Effekte –, muss ein Kompromiss zwischen Geschwindigkeit und Artefaktbildung gefunden werden.
Diese Techniken werden angewandt, solange die Pixel kleiner als die Texel sind, einem Pixel also höchstens ein Texel zugeordnet wird. Sind die Pixel jedoch größer als die Texel, so entspricht einem Pixel gleich ein ganzer Bereich der Textur. Zwar ist es nicht weiters schwierig, den Farbwert als Mittelwert sämtlicher Texel zu bilden, aber dies ist sehr aufwändig – für einen einzigen Pixel müssen viele Rechenoperationen ausgeführt werden – und daher nicht praktikabel.
Stattdessen verwendet man MIP-Maps. Diese enthalten neben der Originaltextur Kopien der Textur mit abnehmender Größe, sogenannte „Detailstufen“ (level of detail, LOD). Man wählt daraus die größte Detailstufe aus, die den gewöhnlichen Zustand „Pixel kleiner als Texel“ wieder herstellt, und arbeitet darauf wie auf der Originaltextur. Zusätzlich zu den bisherigen Interpolationsverfahren bietet sich hier die Möglichkeit, zwischen zwei aufeinanderfolgenden Detailstufen eine weitere lineare Interpolation durchzuführen; in Kombination mit der bilinearen Filterung erhält man so eine trilineare Filterung. Der Einsatz von MIP-Maps in Verbindung mit point sampling reduziert Alias-Effekte bereits stark, in Verbindung mit aufwändigeren Filtern und Interpolation zwischen den Detailstufen können sie auf ein Minimum reduziert werden.
Bei vielen Anwendungen wird nicht beachtet, dass ein Pixel, den man auf die Textur projiziert, dort keine quadratische sondern eine in eine Richtung elongierte Fläche bildet, wenn das betrachtete Polygon sich in Sichtrichtung ausdehnt. Wenn diese unterschiedliche Ausbreitung in verschiedene Richtungen (Anisotropie) des Pixels im Texturraum berücksichtigt wird, spricht man auch von anisotropem Filtern.
Spezielle Verfahren
Es gibt verschiedene Verfahren, um eine von einer Textur bedeckte Oberfläche dreidimensional erscheinen zu lassen:
- Beim Bumpmapping wird die Beleuchtungsberechnung mit einem über die Oberfläche variiertem Normalvektor gemacht.
- Beim Displacement Mapping werden mit der Information aus der Textur zusätzliche Polygone erstellt.