Grafikkarte

Eine Grafikkarte steuert in einem Personal-Computer die Bildschirmanzeige. Grafikkarten werden entweder als PC-Erweiterungskarten (über die Bussysteme ISA, VLB, PCI, AGP oder über PCI-Express) mit der Hauptplatine verbunden oder sie sind im Chipsatz auf der Hauptplatine vorhanden.
Grafikspeicher
Der Grafikspeicher dient zur Ablage der im Grafikprozessor (GPU) verarbeiteten Daten. Dies sind digitale Bilder, die später auf dem Computer-Bildschirm ausgegeben werden. Die Größe des Grafikspeichers bestimmt die maximale Farbtiefe und Bildauflösung. Beim Rendern dreidimensionaler Grafik werden hier außerdem die Daten der Objekte, beispielsweise Größe, Form und Position, sowie die Texturen, die auf die Oberfläche der Objekte gelegt werden, gespeichert. Besonders die immer höher auflösenden Texturen haben für einen starken Anstieg der Speichergröße bei aktuellen Grafikkarten gesorgt. So besitzen aktuelle Grafikkarten 128 bzw. 256 MByte Grafikspeicher. Als erster Hersteller hat ATI eine Grafikkarte vorgestellt die über 512 MByte Speicher verfügt (ATI Radeon x800 XL), inzwischen ist auch eine Karte von nVidia (7800 GTX Golden Sample) mit derselben Speichergröße erschienen.
Geschichte
Das Grafikkarten-Prinzip wurde in Serienprodukten zum ersten Mal beim Mikrocomputer Apple II verwendet, dessen auf der Hauptplatine integrierten Grafikfähigkeiten durch zusätzlich zu erwerbende Steckkarten verbessert werden konnten. ("PAL-Farbkarte", "80-Zeichen-Karte").
Der erste IBM PC kam 1981 mit einer Karte auf den Markt, die lediglich die einfarbige Darstellung von Text ermöglichte (MDA = Monochrome Display Adapter). Die Firma Hercules erkannte die Lücke und bot schon 1982 eine sehr viel bessere Karte an, die Hercules Graphics Card.





Bis 1989 setzten sich die Farb-Grafikkartentypen als Standard durch, die IBM neu auf den Markt brachte:
- 1981 die CGA-Karte (populär ab 1984)
- 1984 die EGA-Karte
- 1989 mit den sogenannten PS/2-Modellen die MCGA- und VGA-Karte
Ab da hatte IBM die Standardisierungsmacht verloren. Das ist der Hintergrund, warum auch heute noch der VGA-Modus (640 × 480 Punkte in 16 Farben) der "Notfall-Modus" bei allen PCs ist, denn nur bis zu diesem Modus kann die Hardware aller heutigen PC-Grafikkarten von der Software auf einheitliche Weise angesprochen werden.
VGA war allerdings nicht der letzte Grafikkartenstandard. Die "Video Electronics Standards Association" VESA stellte einen Standard für Videomodi bis zu einer Auflösung von 1280 × 960 Punkten in 2 Byte Farbtiefe auf, die heute jede PC-Grafikkarte beherrscht.
Die weiteren Bezeichnungen SVGA, XGA usw. sind keine Grafikkartenstandards mehr, sondern Kurzbezeichnungen für Bildschirmauflösungen, z.B. XGA: 1024 × 768 Punkte.
Bis etwa 1990 beschränkten sich die Grafikkarten darauf, das Video-RAM in Ausgangssignale für den Monitor umzuwandeln. Der Programmierer konnte im Wesentlichen nur den Textmodus nutzen sowie im Grafikmodus einzelne Pixel auf eine bestimmte Farbe setzen. Dies war die erste Generation der Grafikkarten. Es folgten zwei weitere:
Ab 1990 entwickelten sich die Grafikkarten zu eigenständigen kleinen Computern mit eigener CPU, einem sogennannten Blitter, bei denen man nicht nur einzelne Pixel setzen konnte, sondern denen man Befehle zum Zeichnen von Linien und Füllen von Flächen schicken konnte (Windows-Beschleuniger). Diese Funktionen wurden anfänglich meist nur vom Windows-Betriebssystem genutzt, daher der Name.
Nachdem mit Doom der große Boom der 3D-Spiele Mitte der 90er-Jahre begonnen hatte, kam bald von 3dfx der erste brauchbare 3D-Beschleuniger, der so genannte Voodoo Graphics Chipsatz. Einem 3D-Beschleuniger kann ein Programm in einem dreidimensionalen Raum die geometrischen Figuren in Form von Polygonen und die Texturen angeben, mit denen die Flächen der Polygone gefüllt werden sollen (Rendern). Diese recht simple, aber rechenintensive Aufgabe hatte in den frühen 3D-Spielen noch die CPU übernehmen müssen; nun konnte sie an die Grafikkarte delegiert werden, was zu einer massiven Leistungssteigerung von 3D-Spielen führte (bessere Bildauflösung, wesentlich realistischere Bilder).
Im Jahr 2004 kann man vier Typen von Grafikkarten unterscheiden:
1. Onboard-Chips. Diese haben meist nur 2D-Funktionen (höchstens stark veraltete 3D-Funktionen), erlauben aber auf einem Monitor meist ein Bild hoher Qualität (1600x1200 Pixel in 4 Byte Farbtiefe, so genannte 8 MB-Framebuffer).
2. Karten für den Business-Bereich. Diese Karten haben maximal 32 MB Video-RAM, bieten 2D- und 3D-Funktionen (letztere jedoch nicht in der Leistung von Spieler-Karten), ein sehr scharfes Bild auf dem Monitor oder TV, und die Möglichkeit, mehrere Monitore – oder auch TV-Geräte für Präsentationen – gleichzeitig anzusteuern.
3. Karten für Computerspiele. Diese Grafikkarten gibt es in allen Preislagen. Die teuren Karten stellen das technisch Machbare im Bereich 3D-Darstellung dar. Die neuesten Entwicklungen im Jahre 2004 sind hier mehrfache Vertex-Shader und Pixel-Shader, Mehrfach-Antialiasing und Transform and Lighting, sowie Anisotropes Filtern. Seit 2005 ist HDRR (High dynamic range rendering) im Gespräch, dieser Effekt sorgt für eine realistischere Ausleuchtung (Blendeffekt beim betreten von hellen Räumen aus dunklen heraus z.B.; die ersten Karten, die dies offiziell unterstützen, waren die NVidia GeForce 6 Grafikkarten). Die Bildschärfe und vor allem die TV-Ausgabequalität können selten ganz mit den Business-Karten mithalten. Bei Spielekarten konkurrieren hauptsächlich ATI und NVidia mit Chipsätzen, die allerdings auf einer Vielzahl von Grafikkarten anderer Firmen verbaut werden. Eine gewisse Außenseiterrolle nimmt Matrox mit der Parhelia-Karte ein, mehrere weitere Mitbewerber sind inzwischen aus diesem Markt ausgestiegen.
4. Karten für CAD-Anwendungen. Diese Karten sind meist Abwandlungen der Gamerkarten und unterscheiden sich in erster Linie durch ihr BIOS, das auf OpenGL und nicht auf DirectX optimiert ist. Sie haben meist Ausgänge für mehrere Monitore und sind deutlich teurer als ihre Gegenstücke für Spieler.
Für die Darstellung von 3D-Computergrafik sind sowohl Business-Karten als auch Grafikkarten für Spiele geeignet.
Außer den oben beschriebenen DirectX Grafikkarten gibt es spezielle Karten, die nur OpenGL unterstützen. Diese Karten werden im Animationsbereich häufig eingesetzt und sind heutzutage für Spieler völlig uninteressant, da die meisten PC-Spiele nur noch DirectX unterstützen (anders jedoch auf der Macintosh-Plattform). Standardmäßig beherrscht jede heutige DirectX Grafikkarte auch OpenGL, umgekehrt ist dies jedoch nicht der Fall.
Signalausgänge
- TV-Out: An den TV-Ausgang (engl. TV-Out) kann ein Fernseher oder ein Beamer angeschlossen werden. Man kann so mit mehreren Bildschirmen (PC Bildschirm + Fernseher) arbeiten. Allerdings ist die Signal-Qualität des Anschlusses meist nicht sehr hoch, da es sich um ein analoges FBAS- oder S-Video-Signal handelt und die meisten Karten nicht den nötigen hohen Schaltungsaufwand treiben, um aus diesen Signaltypen das Bestmögliche herauszuholen. Positive Ausnahmen sind einige ältere Matrox-Karten (z.B. die G400MAX).
- D-Sub-Out: An den D-Sub Ausgang kann ein D-Sub-Kabel eines CRT Monitors (Röhrenmonitors), Beamers oder Flachbildschirms angeschlossen werden. Die Qualität ist hierbei wesentlich besser als die des TV-Ausgangs.
- DVI-Out: An den DVI Ausgang kann ein digitales DVI-Kabel angeschlossen werden. Dies liefert eine sehr gute Signalqualität, lässt sich jedoch nur mit Flachbildschirmen verwenden, da alle heutigen CRT-Monitore ein analoges Signal benötigen. Mit Hilfe eines Adapters kann man aus dem digitalen DVI Ausgang aber auch einen analogen VGA Ausgang machen.
alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm alle a utos sind dumm dumm
Grafikkarten und Grafikschnittstellen
Von den Grafikkarten zu unterscheiden sind Software- und Hardware-Grafikschnittstellen.
Software-Grafikschnittstellen
Die bekanntesten Software-Grafikschnittstellen sind OpenGL und DirectX, die es dem Programmierer ermöglichen, einfach und unabhängig von der Grafikkarte, 3D-Effekte zu erzielen. Die Grafikschnittstellen setzen nicht unbedingt Hardware 3D-Funktionen der Grafikkarte voraus, nutzen diese aber, falls sie vorhanden sind. Ältere 3D-Spiele können im Prinzip auch auf Computern mit integrierter Grafik oder einer einfachen 3D-Karte laufen, jedoch relativ langsam, "ruckelig" und optisch weniger ansprechend.
Softwareprobleme mit Grafikkarten
Da viele Grafikkarten heutzutage das flüssige Anschauen von Videos mittels des Rechners durch Hardware-Unterstützung erlauben und ebenfalls viele Grafikkarten einen TV-Out-Anschluss haben, ist es naheliegend, den Rechner an einen Fernseher oder einen Videorekorder anzuschließen. Jedoch ist es bei einigen Herstellern so, dass sie es durch den Grafikkartentreiber und/oder die Grafikkarte selbst unterbinden, beide Fähigkeiten miteinander zu verbinden. So kommt es vor, dass beim Abspielen von Videos zwar die gesamte Benutzeroberfläche sichtbar ist, das Video selbst jedoch nicht. Unter Linux funktioniert dann beispielsweise die XVideo-Implementation nur bei der primären Anzeige (also dem Computer-Monitor), nicht jedoch beim TV-Out-Anschluss. Dieses Problem kann man meist umgehen, indem man die Hardware-Unterstützung für das Dekodieren von Videos ausschaltet, jedoch ist das Video dann oft nicht mehr flüssig anzusehen, was den eventuellen Spaß am Anschauen verdirbt.
Es wird vermutet, dass solche Beschränkungen eingebaut werden, um den Nutzer an der Aufzeichnung des Videos durch einen Videorekorder zu behindern. Jedenfalls ist in einigen mitgelieferten Handbüchern nachzulesen, dass Produkte von Macrovision (einer Firma, die für ihre Kopierbehinderungen bekannt ist) in die Grafikkarte mit integriert wurden.
Man findet in einem Handbuch beispielsweise folgende Passage:
- Dieses Produkt enthält Copyrightschutz-Technologie, die durch Verfahrensansprüche bestimmter US-Patente sowie andere geistige Eigentumsrechte geschützt ist, die Macrovision Corporation und anderen Rechtsinhabern gehören. Die Verwendung dieser Copyrightschutz-Technologie muss von Macrovision Corporation genehmigt werden und darf sich nur auf den Privatbereich erstrecken, wenn Macrovision Corporation keiner anderen Verwendung zugestimmt hat. Das Reverse Engineering oder Disassemblieren der Software ist untersagt. Geräteansprüche des US-Patents der Nummern 4,631,603, 4,577,216, 4,819,098 und 4,907,093 sind nur für eingeschränkte Vorführungen lizenziert. [Verbote des Reverse Engineering oder Disassemblieren werden nach vorherrschender deutscher Rechtsprechung allgemein als unwirksam betrachtet. Siehe aber Wikipedia:Hinweis Rechtsthemen]
Ein konkreter Fall ist der fglrx-Treiber von ATI, der (derzeit) nicht das hardware-unterstützte Abspielen von Videos am TV-Ausgang unterstützt.
Hersteller
Hersteller von Grafikkarten: Abit, Albatron, AOpen, GeCube, ASUS, ATI, Connect3D, Club3D, Creative Labs/3Dlabs, DFI, Diamond Multimedia, ELSA, Gainward, Genoa, Hercules Graphics, HIS, Leadtek, MSI, Number Nine, Matrox, Orchid Technologies, Paradise, PixelView, PNY, PowerColor, Sapphire, Sigma, Sparkle, SPEA, STB Systems, TerraTec, VideoLogic, Video Seven, XFX
Hersteller von Grafikchips: 3dfx, 3Dlabs, Alliance Semiconductor, Ark Logic, ATI, Avance Logic, Chips & Technologies, Cirrus Logic, Neomagic, Number Nine, Nvidia, Matrox, Oak Technologies, Rendition, S3 Graphics, S3 Inc., SiS, Trident, Tseng Labs, Western Digital, XGI