„Grafikkarte“ – Versionsunterschied
[ungesichtete Version] | [gesichtete Version] |
Serols (Diskussion | Beiträge) K Änderungen von 185.127.208.188 (Diskussion) auf die letzte Version von Maxeto0910 zurückgesetzt Markierung: Zurücksetzung |
|||
Zeile 1: | Zeile 1: | ||
[[Datei:VIA eH1 DX10 Graphics Card - Angle wo-Fan (5305376428).jpg|mini|Grafikkarte für den [[PCI Express|PCIe]]-[[Steckplatz|Slot]], ohne [[Prozessorkühler|Kühler]] ]] |
|||
[[Bild:NVidia Riva 128.jpg|thumb|right|Grafikkarte mit NVidia Riva 128-Chipsatz]] |
|||
Eine '''Grafikkarte''', historisch auch '''Videoadapter''',<ref>{{Literatur |Autor=Michael Halvorson, David Rygmyr |Titel=Arbeiten mit MS-DOS QBasic: Das optimale Benutzerhandbuch von Microsoft für das neue MS-DOS BASIC |Originaltitel=Running MS-DOS QBasic |Originalsprache=en |Übersetzer=Theresia Sader, Siegfried Sader |Verlag=Friedrich Vieweg & Sohn |Datum=1991 |Kapitel=11. Mit Grafiken und Tönen arbeiten |Seiten=340 |Fundstelle=Video-Adapter |ISBN=978-3-528-05164-8 |Online={{Google Buch |BuchID=qjQhBgAAQBAJ |Seite=340}} }}</ref> steuert in einem [[Computer]] die [[Grafik]]<nowiki/>ausgabe im verwendeten [[Videomodus]]. Bei Ausführung eines Programms berechnet der [[Hauptprozessor|Prozessor]] die Daten, leitet diese an die Grafikkarte weiter und die Grafikkarte wandelt die Daten so um, dass der Monitor oder Projektor („Beamer“) alles als Bild wiedergeben kann. Grafikkarten werden entweder als PC-[[Steckkarte|Erweiterungskarten]] über ein [[Bus (Datenverarbeitung)|Bussystem]] ([[PCI Express|PCIe]], früher auch<!-- von neu nach alt:--> [[Accelerated Graphics Port|AGP]], [[Peripheral Component Interconnect|PCI]], [[VESA Local Bus|VLB]] oder [[Industry Standard Architecture|ISA]]) mit der [[Hauptplatine]] verbunden oder sind in einer der Komponenten auf der Hauptplatine enthalten, etwa im [[Chipsatz]] oder im Hauptprozessor (CPU) bzw. als Bestandteil des [[System-on-a-Chip|SoC]].<!-- Mittlerweile ist die Integration so weit vorangeschritten, dass bereits in Hauptprozessoren Bestandteile für die Grafikausgabe vorhanden sind (bei Intel seit [[Intel-Core-i-Serie|Core iX-Generation]], bei AMD im [[AMD Fusion|Fusion]]-Programm).--> |
|||
Eine '''Grafikkarte''' steuert in einem [[Personal-Computer]] die [[Bildschirm]]anzeige. Grafikkarten werden entweder als PC-Erweiterungskarten (über die [[Bussystem]]e [[Industry Standard Architecture|ISA]], [[VESA Local Bus|VLB]], [[Peripheral Component Interconnect|PCI]], [[Accelerated Graphics Port|AGP]] oder über [[PCI-Express]]) mit der [[Hauptplatine]] verbunden oder sie sind im [[Chipsatz]] auf der [[Mainboard|Hauptplatine]] vorhanden. |
|||
Die wichtigsten Komponenten moderner Grafikkarten sind: [[Grafikprozessor|GPU]], [[Grafikspeicher]], [[RAMDAC]] sowie die Anschlüsse für externe Geräte (z. B. für den Monitor oder Grafiktablett). Um eine separate Grafikkarte von einer integrierten unterscheiden zu können, werden diese auch auf mit „dGPU“ für dedizierte und mit „iGPU“ für [[Integrierter Grafikprozessor|integrierte]] Grafikeinheiten bezeichnet. Auch externe Grafikkarten gibt es, die meist mit „eGPU“ (für {{enS|external GPU}}) bezeichnet werden. Die GPU sollte jedoch nicht mit der Grafikkarte als Ganzes verwechselt werden, obwohl „GPU“ oft als Referenz für die Grafikkarte genutzt wird. |
|||
== Grafikspeicher == |
|||
Der Grafikspeicher dient zur Ablage der im [[Grafikprozessor]] (GPU) verarbeiteten Daten. Dies sind digitale Bilder, die später auf dem [[Bildschirm|Computer-Bildschirm]] ausgegeben werden. Die Größe des Grafikspeichers bestimmt die maximale [[Farbtiefe]] und [[Bildauflösung]]. Beim [[3D-Computergrafik#Echtzeitrendern|Rendern]] dreidimensionaler Grafik werden hier außerdem die Daten der Objekte, beispielsweise Größe, Form und Position, sowie die [[Textur (Computergrafik)|Texturen]], die auf die Oberfläche der Objekte gelegt werden, gespeichert. Besonders die immer höher auflösenden Texturen haben für einen starken Anstieg der Speichergröße bei aktuellen Grafikkarten gesorgt. So besitzen aktuelle Grafikkarten meist 128 oder 256 [[MByte]] Grafikspeicher, inzwischen gibt es aber schon mehrerer Grafikkarten mit 512 MB Grafikspeicher. |
|||
== Geschichte == |
== Geschichte == |
||
{{Belege fehlen|2=Dieser Abschnitt|1=Geschichtliche Angaben sind nicht ohne größeren Rechercheaufwand nachzuvollziehen, bitte belegen.}} |
|||
Das Grafikkarten-Prinzip wurde in Serienprodukten zum ersten Mal beim Mikrocomputer [[Apple II]] verwendet, dessen auf der Hauptplatine integrierten Grafikfähigkeiten durch zusätzlich zu erwerbende Steckkarten verbessert werden konnten. ("[[Phase Alternating Line|PAL]]-Farbkarte", "80-Zeichen-Karte"). |
|||
=== Grafikkarte === |
|||
[[Datei:KL Genoa EGA.jpg|mini|EGA-Grafikkarte für den [[XT-Bus-Architektur|XT-Bus]]]] |
|||
[[Datei:KL ELSA Winner 1000 ISA EISA.jpg|mini|VGA-Grafikkarte für den ISA- und EISA-Bus<br />(ELSA Winner 1000)]] |
|||
[[Datei:KL ATI Mach 64 VLB.jpg|mini|SVGA-Grafikkarte für den VL-Bus<br />(ATI Mach64)]] |
|||
[[Datei:KL Trident Daytona 64 PCI.jpg|mini|SVGA-Grafikkarte für den PCI-Bus<br />(Trident Daytona 64)]] |
|||
[[Datei:Voodoo GraKa Hercules Stingray 128-3D Doppelboard.jpg|mini|3D-Grafikkarte für den PCI-Bus]] |
|||
Das Grafikkarten-Prinzip wurde in Serienproduktion erstmals beim Mikrocomputer [[Apple II]] verwendet, dessen auf der Hauptplatine integrierte Grafikfähigkeiten durch zusätzlich zu erwerbende Steckkarten verbessert werden konnten („[[Phase Alternating Line|PAL]]-Farbkarte“, „80-Zeichen-Karte“). |
|||
Dieser kam 1977 auf den Markt. |
|||
Der erste [[IBM Personal Computer|IBM PC]] kam 1981 mit einer Karte auf den Markt, die lediglich die einfarbige Darstellung von Text ermöglichte (MDA = [[Monochrome Display Adapter]]). Die Firma Hercules bot 1982 eine bessere Karte an, die [[Hercules Graphics Card]]. |
|||
Der erste IBM PC kam 1981 mit einer Karte auf den Markt, die lediglich die einfarbige Darstellung von Text ermöglichte (MDA = [[Monochrome Display Adapter]]). Die Firma [[Hercules Graphics Card|Hercules]] erkannte die Lücke und bot schon 1982 eine sehr viel bessere Karte an, die [[Hercules Graphics Card]]. |
|||
[[Bild:OTI037C.jpg|thumb|VGA-Grafikkarte für den [[XT-Bus-Architektur|XT-Bus]]]] |
|||
[[Bild:Matrox_G400max.jpg|thumb|right|Matrox G400 Max 32 MB]] |
|||
[[Bild:Pny_6600GT.jpg|thumb|Grafikkarte für 3D beziehungsweise [[DirectX]] 9 - PNY Geforce 6600GT]] |
|||
[[Bild:Geforce7800gt.jpg|thumb|Geforce 7800GT]] |
|||
[[Bild:Grafikkarte-ATI-Rage-16-MB 1-1600x1200.jpg|thumb|right|Eine ältere Karte mit ATI-Rage-Chip (16 MB)]] |
|||
Bis 1989 setzten sich die Farb-Grafikkartentypen als Standard durch, die IBM neu auf den Markt brachte: |
Bis 1989 setzten sich die Farb-Grafikkartentypen als Standard durch, die IBM neu auf den Markt brachte: |
||
* |
* 1982 die [[Color Graphics Adapter|CGA]]-Karte (populär ab 1984) |
||
* 1984 die [[Enhanced Graphics Adapter|EGA]]-Karte |
* 1984 die [[Enhanced Graphics Adapter|EGA]]-Karte |
||
* |
* 1987 mit den [[Personal System/2|PS/2]]-Modellen die [[Video Graphics Array|MCGA- und VGA]]-Karte |
||
Bis zum [[IBM Personal Computer/AT|PC/AT]] setzte IBM damit [[Industriestandard]]s, die von der wachsenden Industrie der [[IBM-PC-kompatibler Computer|IBM-PC-Kombatiblen]] übernommen wurde. Teilweise findet sich der VGA-Modus (640 × 480 Punkte in 16 Farben) noch als „Notfall-Modus“ bei einigen PCs, da bis zu diesem Modus die [[Hardware]] der PC-Grafikkarten von der [[Software]] auf einheitliche Weise angesprochen werden kann. Aber auch neuere Standards sind verbreitet, etwa von der [[Video Electronics Standards Association]] (VESA) standardisierte Modi (implementiert als [[VESA BIOS Extension]]s) oder [[Unified Extensible Firmware Interface|UEFI]] GOP (''{{lang|en|Graphics Output Protocol}}''), die meist hochauflösendere Modi in mehr Farben unterstützen, meist jedoch auch weiterhin den VGA-Modus enthalten. |
|||
Die weiteren Bezeichnungen [[Super Video Graphics Array|SVGA]], [[Extended Graphics Array|XGA]] usw. sind keine Grafikkartenstandards mehr, sondern Kurzbezeichnungen für Bildschirmauflösungen, zum Beispiel XGA mit 1024 × 768 Punkten. |
|||
VGA war allerdings nicht der letzte Grafikkartenstandard. Die "Video Electronics Standards Association" [[VESA]] stellte einen Standard für Videomodi bis zu einer Auflösung von 1280 × 960 Punkten in 2 Byte Farbtiefe auf, die heute jede PC-Grafikkarte beherrscht. |
|||
Bis etwa 1990 beschränkten sich die Grafikkarten darauf, den Inhalt des [[Grafikspeicher]]s über einen sogenannten RAMDAC-Baustein in Ausgangssignale für den Monitor umzuwandeln. Der Programmierer konnte im Wesentlichen nur den [[Textmodus]] nutzen sowie im Grafikmodus einzelne [[Pixel]] auf eine bestimmte Farbe setzen. Das war die erste Generation der Grafikkarten. Es folgten zwei weitere: |
|||
Die weiteren Bezeichnungen [[SVGA]], [[XGA]] usw. sind keine Grafikkartenstandards mehr, sondern Kurzbezeichnungen für Bildschirmauflösungen, z.B. XGA: 1024 × 768 Punkte. |
|||
* Die sogenannten „[[Windows-Beschleuniger]]“ |
|||
* Die [[Hardwarebeschleunigung|3D-Beschleuniger]] |
|||
=== Beschleunigung durch Software === |
|||
Bis etwa 1990 beschränkten sich die Grafikkarten darauf, das [[Video-RAM]] in Ausgangssignale für den Monitor umzuwandeln. Der Programmierer konnte im Wesentlichen nur den [[Textmodus]] nutzen sowie im Grafikmodus einzelne [[Pixel]] auf eine bestimmte Farbe setzen. Dies war die erste Generation der Grafikkarten. Es folgten zwei weitere: |
|||
Ab 1991 wurden die Grafikkarten zu eigenständigen kleinen Recheneinheiten mit eigener GPU (Graphics Processing Unit) weiterentwickelt, einer sogenannten ''Graphics-'' oder ''Pixel Engine'' oder dt. [[Grafikprozessor]]<!-- Blitter ist was ganz anderes, siehe dort, der Amiga-Blitter kann zwar auch Linien ziehen und Flächen füllen, das ist aber auch schon eine Zusatzfunktion und hat mit einem Blitter im engeren Sinn nichts zu tun -->, bei dem man nicht nur einzelne [[Pixel]] setzen konnte, sondern dem man Befehle zum Zeichnen von Linien und Füllen von Flächen schicken konnte ([[Windows-Beschleuniger]]). Diese Funktionen beschleunigten vor allem das Verschieben der Fenster (Windows) der grafischen Benutzeroberfläche. Das Konzept der Zusatzfunktionalität wurde mit der Zeit immer weitergeführt, so wurden z. B. seit 1995 auch Funktionen zur Beschleunigung der Videowiedergabe (z. B. im [[Audio Video Interleave|AVI-Format]]) und Dekodierung von komprimierten Videodaten (z. B. [[Moving Picture Experts Group|MPEG]]) eingeführt (''Videobeschleunigung''). Diese Funktionen wurden vorher auf separaten [[Steckkarte]]n angeboten. |
|||
* Die [[Windows-Beschleuniger]] |
|||
* Die [[3D-Beschleuniger]] |
|||
=== {{Anker|-1=3D-Beschleunigung|-2=3D-Beschleuniger}} Hardwarebeschleunigung === |
|||
Ab 1990 entwickelten sich die Grafikkarten zu eigenständigen kleinen Computern mit eigener CPU, einem sogennannten [[Blitter]], bei denen man nicht nur einzelne [[Pixel]] setzen konnte, sondern denen man Befehle zum Zeichnen von Linien und Füllen von Flächen schicken konnte ([[Windows-Beschleuniger]]). Diese Funktionen wurden anfänglich meist nur vom [[MS Windows|Windows]]-Betriebssystem genutzt, daher der Name. |
|||
{{Hauptartikel|Hardwarebeschleunigung#Grafikkarten}} |
|||
Nachdem Mitte der 1990er Jahre mit [[Doom (1993)|Doom]] der große Boom der 3D-Spiele begonnen hatte, kam bald von [[3dfx]] der erste brauchbare [[Hardwarebeschleunigung|3D-Beschleuniger]], der [[3dfx Voodoo Graphics|Voodoo Graphics]]-[[Chipsatz]]. Einem 3D-Beschleuniger kann ein Programm in einem dreidimensionalen Raum die geometrischen Figuren in Form von Polygonen und die [[Textur (Computergrafik)|Texturen]] angeben, mit denen die Flächen der Polygone gefüllt werden sollen ([[Bildsynthese|Rendern]]). Diese recht simple, aber rechenintensive Aufgabe hatte in den frühen 3D-Spielen noch die [[Prozessor|CPU]] übernehmen müssen; nun konnte sie an die Grafikkarte delegiert werden, was zu einer massiven Leistungssteigerung von 3D-Spielen führte (bessere Bildauflösung, wesentlich realistischere Bilder).<ref>{{Webarchiv |url=http://www.grafikkarten-rangliste.org/meilensteine-in-der-entwicklung-moderner-grafikkarten |wayback=20110701202648 |text=Archivierte Kopie |archiv-bot=2019-04-14 11:48:34 InternetArchiveBot}}</ref> |
|||
Waren die 3D-Beschleuniger der ersten Generation noch auf eigenen Steckkarten verbaut, durch die das Grafiksignal der im System verbauten 2D-Grafikkarte durchgeschleift wurde, setzten sich bald Lösungen durch, die 2D- und 3D-Funktionalität auf derselben Karte vereinten. |
|||
Nachdem mit [[Doom]] der große Boom der 3D-Spiele Mitte der 90er-Jahre begonnen hatte, kam bald von [[3dfx]] der erste brauchbare [[3D-Beschleuniger]], der so genannte [[Voodoo Graphics]] [[Chipsatz]]. Einem 3D-Beschleuniger kann ein Programm in einem dreidimensionalen Raum die geometrischen Figuren in Form von Polygonen und die [[Textur]]en angeben, mit denen die Flächen der Polygone gefüllt werden sollen ([[Rendern]]). Diese recht simple, aber rechenintensive Aufgabe hatte in den frühen 3D-Spielen noch die [[CPU]] übernehmen müssen; nun konnte sie an die Grafikkarte delegiert werden, was zu einer massiven Leistungssteigerung von 3D-Spielen führte (bessere Bildauflösung, wesentlich realistischere Bilder). |
|||
Um noch mehr 3D-Leistung anzubieten, werden heute mit der [[Multi-GPU]]-Technik (siehe auch [[Scalable Link Interface|Nvidia SLI]] und [[AMD CrossFireX]]) zwei oder mehr 3D-Grafikkarten bzw. -prozessoren parallel geschaltet, um noch mehr Grafikelemente je Zeitspanne berechnen zu können. Diese Technik erfordert jedoch einen hohen Kostenaufwand und Energiebedarf. |
|||
== Modelle == |
|||
== Aufbau und Funktionsweise == |
|||
Grundsätzlich kann man vier Typen von Grafiklösungen unterscheiden: |
|||
[[Datei:Radeon 9000 Grafikkarte Beschriftet.jpg|mini|Grafikkarte für den AGP-Bus]] |
|||
=== Hardwareschnittstellen zum System === |
|||
Die übliche Hardwareschnittstelle für Grafikkarten ist [[PCI Express]], früher waren auch [[Industry Standard Architecture|ISA]], [[VESA Local Bus]], [[Peripheral Component Interconnect|PCI]] und [[Accelerated Graphics Port|AGP]] gängig. Diese Schnittstellen sind entweder [[Bus (Datenverarbeitung)|Bussysteme]] oder Direktverbindungen (AGP, PCI Express), die den Buscontroller mit der Grafikkarte verbinden. Da die Spezifikation der Schnittstellen zumeist durch Interessenverbände vorgenommen wird, in denen sowohl die Controller- als auch die Grafikkarten- bzw. Grafikchiphersteller Mitglied sind, funktionieren (im Idealfall) alle konformen Grafikkarten mit allen konformen Controllern. Es gab in der Vergangenheit aber verschiedene Probleme mit einigen Schnittstellen, die die [[Interoperabilität]] einschränkten, beispielsweise „AGP Fast Writes“ bei AGP (auf [[Intel]]-Plattformen konnte es die Leistung erhöhen, auf [[AMD]]-Plattformen für Instabilität sorgen) oder [[Interrupt|IRQ]]-Probleme bei PCI (mögliche Abstürze, Einfrieren oder Leistungseinbrüche, Ursache meist schlechte oder fehlerhafte Implementierung der Schnittstelle). |
|||
Bei anderen Plattformen als den IBM-kompatiblen Rechnern gab es entsprechend den dort üblichen Stecksystemen Grafikkarten für die [[Apple II|Apple-II-Steckplätze]], später bei den ersten [[Macintosh|Macs]] für [[NuBus]] (später PCI und dessen Nachfolger, analog zum PC), für [[Amiga]]s für deren [[Zorro-Bus]] und auch [[Europakarte]]n für Systeme, die auf letzteren aufbauen. |
|||
=== Onboard-Lösungen === |
|||
Bei diese [[IGP]] genannten Lösungen wurde die Funktionalität der Grafikkarte in den Chipsatz des Mainboards integriert. Diese IGPs bieten alle 2D-Funktionenen aber meistens nur langsame oder veraltete 3D-Funktionalität. Diese Lösungen sind vor allem für LowCost- und Büro-PCs interessant. Anbieter von IGPs: |
|||
Über schnelle externe Schnittstellen wie [[Thunderbolt (Schnittstelle)|Thunderbolt]] und [[USB-C]] sind auch externe Grafikkarten möglich, meist mit eGPU für {{enS|external Graphics Processing Unit}} bezeichnet. |
|||
*[[ATI]] |
|||
*[[Intel]] |
|||
=== Grafikspeicher === |
|||
*[[nVidia]] |
|||
Der [[Grafikspeicher]] dient zur Ablage der im [[Grafikprozessor]] (GPU) verarbeiteten Daten sowie als Bildspeicher („[[Framebuffer]]“): Das sind digitale Bilder, die später auf dem [[Bildschirm|Computer-Bildschirm]] oder mit dem [[Videoprojektor|Projektor]] ausgegeben werden. |
|||
*[[SiS]] |
|||
*[[VIA Technologies]] |
|||
Die Größe des Grafikspeichers bestimmte die maximale [[Farbtiefe (Computergrafik)|Farbtiefe]] und [[Bildauflösung]]. Dabei ließ sich der benötigte Speicher für eine gewünschte Auflösung und Farbtiefe vom Anwender leicht errechnen: Wenn beispielsweise die Auflösung 1600 × 1200 mit einer Farbtiefe von 24 [[Bit]] ([[True Color]]) erwünscht ist, berechnet man zunächst die Anzahl der Bildpunkte ([[Pixel]]) dieser Auflösung (1600 horizontal × 1200 vertikal = 1.920.000 Pixel insgesamt). Die Farbtiefe „24 Bit“ bedeutet, dass für jedes dieser Pixel 24 Bit Farb-Informationen vorliegen. Somit multipliziert man die Pixelanzahl mit der Farbtiefe (1.920.000 × 24 Bit = 46.080.000 Bit). Nunmehr ist nur noch die Umrechnung in [[Byte]] erforderlich. Da ein Byte aus 8 Bit besteht, wird die Zahl durch 8 geteilt (46.080.000 Bits ÷ 8 = 5.760.000 Bytes). Da früher Grafikkarten in der Regel mit 4 oder 8 [[Byte|MiB]] Grafikspeicher ausgeliefert wurden, hätte man für die gewünschte Einstellung eine Grafikkarte mit mindestens 8 MiB Grafikspeicher benötigt. |
|||
Heute werden ausschließlich Grafikkarten mit sehr viel mehr Speicher gebaut als zur reinen Bildspeicherung notwendig wäre. Beim [[Bildsynthese|Rendern]] dreidimensionaler Grafiken werden hier zusätzlich zum Framebuffer die Daten der Objekte, beispielsweise Größe, Form und Position, sowie die [[Textur (Computergrafik)|Texturen]], die auf die Oberfläche der Objekte gelegt werden, gespeichert. Besonders die immer höher auflösenden Texturen haben für einen starken Anstieg der Speichergröße bei aktuellen Grafikkarten gesorgt. So liegt die Speichergröße aktueller Grafikkarten bereits im drei- bis fünfstelligen Mebibytebereich (512 [[Byte#Einheiten für große Mengen Bytes|MiB]], 1024 MiB, 2048 MiB, 3072 MiB, 4096 MiB, 6144 MiB, 8192 MiB, 12288 MiB, 24576 MiB, 32768 MiB) – 512 MiB und weniger, wie es bis ca. 2005 noch verbreitet war, sind selten geworden. Bei Spielegrafikkarten ist die Obergrenze Anfang 2019 bei 24 GiB, wohingegen professionelle Grafikkarten schon mit bis zu 80 GiB HBM2e-Grafikspeicher ausgestattet werden können.<ref name="Primeline Solutions">https://www.primeline-solutions.com/de/news-und-presse/nvidia-h100-das-neue-flaggschiff-fuer-enterprise-gpu-computing/</ref> |
|||
Bei [[#Integrierter Grafikprozessor (Onboard Grafikprozessor)|Onboard-Lösungen]] wird meist der Hauptspeicher des Systems als Grafikspeicher genutzt, das wird als [[Shared Memory]] bezeichnet. Der Zugriff erfolgt über das jeweilige Bussystem und ist deshalb langsamer als direkt angebundener Speicher. |
|||
=== Grafikprozessor (GPU) === |
|||
[[Datei:Nvidia geforce ti 4600 gpu 2007-11-27 23-03.jpg|mini|Nvidia-NV24-Grafikprozessor]] |
|||
[[Datei:NVIDIA G92 GPU.jpg|mini|Der G92-Grafikchip einer Nvidia GeForce 8800 GT]] |
|||
Der [[Grafikprozessor]] dient zur Berechnung der Bildschirmausgabe. Mitte der 1990er Jahre kamen die ersten [[3D-Beschleuniger]] auf den Markt. Diese Grafikprozessoren waren in der Lage, einige Effekte und dreiecksbasierte Algorithmen (wie u. a. [[Z-Puffer]]n, [[Texture Mapping]]) und [[Antialiasing (Computergrafik)|Antialiasing]] selbstständig durchzuführen. Besonders dem Bereich [[Computerspiel]]e verhalfen solche, zusätzlich zu installierenden Steckkarten (z. B. [[3dfx Voodoo Graphics]]), zu einem Entwicklungsschub. |
|||
Heute sind GPUs wegen ihrer Spezialisierung auf Grafikberechnungen den CPUs in ihrer Rechenleistung überlegen. |
|||
Als Vergleich dienen die Transistoranzahl des Grafikprozessors von Nvidia (Geforce 8800GTS 512, 754 Millionen) mit der eines Modells von Intel ([[Intel Core 2|Core 2 Extreme QX9650]], 820 Millionen). Der Unterschied wird deutlich, wenn man bedenkt, dass über die Hälfte der CPU-Chipfläche für die 2 × 6 [[Binärpräfix|MB]] Cache verbraucht werden. Die Entwicklung der Integrationsdichte der Grafikprozessoren hat mit einem jährlichen Faktor von 2,4 sogar das [[Mooresches Gesetz|Mooresche Gesetz]] übertroffen. |
|||
Wie bei den Hauptprozessoren der Rechner, in die die Grafikkarten eingebaut werden, sind auch die GPUs auf den Grafikkarten oft Gegenstand von [[Übertakten|Übertaktungsmodifikationen]] zur Leistungssteigerung. |
|||
Die Rechenkapazität, die auf solchen Grafikkarten zur Verfügung steht (siehe unter [[GPGPU]]), hat schon dazu geführt, dass allein zum Erzielen maximaler Rechenleistung mehrere Grafikkarten in einen Rechner eingebaut werden. Solche Systeme werden teilweise in großen Anzahlen zu [[Supercomputer]]n zusammengestellt. |
|||
=== Kühllösungen === |
|||
[[Datei:Radeon 9600XT Heatpipe passive cooling.jpg|mini|Passiver beidseitiger Kühlkörper (Radeon 9600 XT)]] |
|||
[[Datei:Pny 6600GT.jpg|mini|Aktiver Luftkühler (PNY Geforce 6600 GT)]] |
|||
Aufgrund der hohen thermischen Verlustleistung durch die zunehmende Komplexität von Grafikprozessoren bzw. teilweise auch des Grafikspeichers sind ähnlich aufwendige Kühllösungen wie bei [[Prozessorkühler]]n notwendig. Grafikkarten verbrauchen mit einem Grafikprozessor (Nvidia GeForce RTX 4090) bis zu 450 Watt ([[Thermal Design Power|TDP]]) Leistung oder mehr, die vollständig als Wärmeenergie abgeführt werden muss. Dazu existieren mehrere Ansätze: |
|||
* ''aktive Luftkühlung'' – die thermische Energie wird über einen Kühlkörper an die Umgebungsluft abgegeben, welche durch [[Lüfter]] umgewälzt wird. Das ist die einfachste und preiswerteste Variante, große Wärmemengen abzuführen, verursacht allerdings auch Störgeräusche. |
|||
* ''passive Luftkühlung'' – durch einen [[Kühlkörper]] wird die thermische Energie durch [[Konvektion (Wärmeübertragung)|Konvektion]] an die Umgebungsluft abgegeben. Das ist nur bei geringen Leistungen oder mit sehr großen Kühlkörpern möglich. Oft werden auf beiden Seiten der Grafikkarte großflächige Kühlkörper angebracht, welche mit einer [[Heatpipe]] verbunden sind. Vorteile sind dabei der geringere Stromverbrauch (siehe auch: [[Green IT]]) und das Wegfallen von Lüftergeräuschen, Nachteile sind die schwierigere Verbaubarkeit und die höhere mechanische Belastung des Steckplatzes durch teils schwere, sehr große Kühlkörper. |
|||
* ''Wasserkühlung'' – wie auch für CPUs manchmal eine [[Wasserkühlung]] eingesetzt wird, kann auch die Grafikkarte in einen (bzw. den gleichen) Kreislauf eingebunden werden. Die thermische Energie wird dann an das Wasser im Kreislauf und von dort über einen Radiator an die Umgebungsluft abgegeben. Das ermöglicht einen Transport von großen Wärmemengen, ist aber auch die aufwendigste und teuerste Kühllösung. Es existieren auch einige Karten mit vorinstallierter Wasserkühlung mit dem Vorteil, dass die Garantie erhalten bleibt. Einige Händler bieten auch bereits montierte Wasserkühler an und bieten dann von sich aus eine Garantie an, obwohl die Herstellergarantie mit der Montage eines anderen Kühlers enden würde. Der Vorteil einer Wasserkühlung bei GPUs liegt darin, dass diese größer sind als CPUs und es zudem weniger thermische Hotspots im Chip gibt, also die große Menge Wärme gleichmäßiger abgegeben werden kann. |
|||
Besonders die Konstruktionen der Luftkühlungen sind durch die benötigte Oberfläche des Kühlkörpers oft wesentlich größer als es die Spezifikationen des Steckplatzes zulassen (vgl. Abb. rechts). Aus diesem Grund können auf dem [[Mainboard]] oft die angrenzenden Steckplätze nicht verwendet werden. |
|||
=== RAMDAC === |
|||
Der [[RAMDAC]] (Random Access Memory Digital/Analog Converter) ist ein Chip, der für die Umwandlung von digitalen (Videospeicher) in analoge Bildsignale (Monitor) verantwortlich ist. Von ihm werden die Signalausgänge angesteuert. |
|||
Er kann auch im Grafikprozessor integriert sein. |
|||
=== Externe Signalausgänge === |
|||
==== Verbreitete Anschlüsse ==== |
|||
; [[DisplayPort]] [[Datei:Display Port.svg|x20px]] / [[Mini-DisplayPort]] [[Datei:Thunderbolt Pinout.png|x25px]]: DisplayPort ist ein relativ neuer Verbindungsstandard für Bild- und Tonsignale. Er ist kompatibel zu VGA, DVI und HDMI 1.4 und unterstützt die Kopierschutzverfahren HDCP und DPCP (DisplayPort Content Protection). Im Jahr 2014 war die Verbreitung bereits vorangeschritten. Mini-DisplayPort ist mechanisch identisch mit dem daraus entstandenen [[Thunderbolt (Schnittstelle)|Thunderbolt]]. |
|||
; [[Digital Visual Interface|DVI-D]] [[Datei:DVI Diagram.svg|78x78px]]: Der DVI-Ausgang ist, wenn vorhanden, meist nur noch mit dem digitalen Dual-Link-Signal belegt. |
|||
; [[High Definition Multimedia Interface|HDMI-Out]] [[Datei:HDMI Diagram.svg|x25px]] / Mini-HDMI / Micro-HDMI: Seit 2007 werden auch Grafikkarten mit HDMI (High Definition Multimedia Interface)-Ausgang angeboten. Hier wird das Videosignal ebenfalls digital und gegebenenfalls mit [[High-bandwidth Digital Content Protection|HDCP]] verschlüsselt ausgegeben. Über HDMI können auch DVI-D-Signale übertragen werden, womit DVI-Geräte kompatibel zu HDMI sind. Die Unterstützung von HDCP ist bei DVI jedoch optional, weswegen nicht alle Geräte derartig geschützte Signale wiedergeben können. Die Übertragung von Tonsignalen ist jedoch nur über HDMI-Verbindungen möglich. |
|||
; [[USB-C]] [[Datei:USB Type‑C plug icon.svg|x20px]]: USB-C kann auch die oben genannten digitalen Grafiksignale übertragen und wird daher als Grafikanschluss bei Geräten eingesetzt, die besonders kompakt sein sollen, z. B. [[Intel NUC]]s (ab Generation 7) oder manchen Laptops. |
|||
An dedizierten Grafikkarten sind im Jahr 2022 HDMI und DisplayPort gebräuchlich, wobei meist ein Anschluss als HDMI und die anderen als DisplayPort ausgeführt sind. Die Mini-Varianten hatten mit Ausnahme von Mini-DisplayPort zu keiner Zeit eine große Verbreitung. |
|||
; [[VGA-Anschluss|VGA-Out]] [[Datei:DE-15 female.svg|x30px]] / [[Mini-VGA]] [[Datei:MiniVGA Connector Pinout.svg|x30px]]: An einer 15-poligen [[D-Sub]]-Buchse wird ein analoges [[RGB-Signal]] bereitgestellt. Unter beengten Platzverhältnissen ist der Ausgang auch als Mini-VGA ausgeführt (z. B. beim [[IBook|Apple iBook]]). Über ein VGA-Kabel mit entsprechendem Stecker werden [[Kathodenstrahlröhrenbildschirm|CRT-Monitore]] (Röhrenmonitore), [[Projektor]]en oder [[Flachbildschirm]]e angeschlossen. Auflösungen über Full-HD (1920 × 1080) sind nicht bei allen Geräten möglich, selbst wenn sie diese Auflösungen über andere Anschlüsse unterstützen. |
|||
==== Historische Anschlüsse ==== |
|||
Zusätzliche Signalausgänge und auch -eingänge sind je nach Karte unterschiedlich realisiert. Teilweise sind entsprechende Buchsen ([[Cinch]], [[S-Video]], [[LFH60]]) direkt auf dem Slotblech vorhanden. Vor allem aus Platzgründen sehen Hersteller aber auch einen mittelbaren Anschluss über Adapterkabel oder Kabelpeitschen vor. Dann findet sich direkt auf der Grafikkarte eine Buchse, z. B. aus der [[Mini-DIN]]-Familie, deren Beschaltung nicht standardisiert ist und die oft die allgemeine Bezeichnung VIVO (für Video-In-Video-Out) hat. Hier wird eine herstellerspezifische [[Kabelpeitsche]] angeschlossen, die dann weitere Anschlussmöglichkeiten zur Verfügung stellt. |
|||
[[Datei:LFH 2 640px.jpg|mini|LFH60-Stecker]] |
|||
; [[LFH60]]: Low Force Helix 60 (LFH60) ist ein 60-poliger Steckverbinder. Die Kontakte sind in vier Reihen zu 15 Pins angeordnet. LFH60 wird in der Netzwerktechnik und PC-Technik eingesetzt. Die Buchse wird als LFH60-F (female) und der Stecker als LFH60-M (male) bezeichnet. Der Stecker wird von einigen Herstellern (z. B. [[Matrox]]) zum Anschluss einer [[Kabelpeitsche]] für zwei DVI-Stecker verwendet. |
|||
; [[Component Video|Component-Out]]: Über den Komponenten-Ausgang (drei Cinch-Buchsen) werden [[HDTV]]-Videodaten analog [[YPbPr]]-farbkodiert ausgegeben. Der Ausgang ist wie oben beschrieben meist nicht direkt auf der Grafikkarte ausgeführt. |
|||
; [[Digital Visual Interface|DVI-Out]] [[Datei:DVI Diagram.svg|78x78px]] / [[Mini-DVI]] [[Datei:MiniDVI Connector Pinout.svg|x25px]]: Der DVI-Ausgang liefert ein digitales Signal und damit die beste erreichbare Bildqualität an Bildschirmen mit DVI-Eingang. Die meisten historischen Grafikkarten mit vollwertigem DVI-Ausgang sind mit einem DVI-I-Anschluss (''i'' für ''integrated'') ausgestattet und liefern damit zusätzlich ein analoges RGB-Bildsignal. Somit können mit einem (meist beiliegenden) passiven Adapter auch Bildschirme mit analogem D-Sub-Eingang angeschlossen werden, die Bildqualität entspricht dann jedoch weitestgehend der des D-Sub-Ausgangs. Weiterhin existieren die Varianten DVI-D mit ausschließlich digitalen Signalleitungen und DVI-A mit ausschließlich analogen Signalleitungen. Bei DVI-D sind die Varianten (Single-Link-)DVI und Dual-Link-DVI zu unterscheiden, letztere beinhaltet doppelt so viele Datenleitungen und kann damit eine größere Bandbreite liefern. Das ist für Auflösungen größer als WUXGA (1920 × 1200) notwendig, um trotz der größeren Datenmenge pro Bild eine Bildwiederholfrequenz von mindestens 60 Hertz zu gewährleisten. Wie bei VGA existiert auch eine Mini-DVI-Variante für Notebooks ohne Platz für eine vollwertige Buchse. |
|||
; TV-Out [[Datei:MiniDIN-4 Connector Pinout.svg|25px]]: (auch '''Video-Out''') Der als [[Cinch]]- oder [[S-Video]]-Buchse ausgeführte TV-Ausgang (englisch TV-Out) kann mit einem Fernseher oder Projektor verbunden werden. Man kann so mit mehreren Bildschirmen (PC-Bildschirm + Fernseher) arbeiten. Allerdings ist die Signalqualität des Anschlusses meist nicht sehr hoch, da es sich um ein analoges [[Fernsehsignal|FBAS]]- oder S-Video-Signal handelt und die meisten Karten nicht den nötigen Schaltungsaufwand treiben, um aus diesen Signaltypen das Bestmögliche herauszuholen. Positive Ausnahmen sind einige ältere Matrox-Karten (z. B. die G400 MAX). |
|||
; TV-In: (auch '''Video-In''', da es sich nicht um einen Tuner handelt) Neben einem Ausgang verfügen manche Karten (v. a. aus den frühen 2000er-Jahren) auch über einen TV-Eingang zum Digitalisieren von externen analogen Videoquellen. Wenn sie nicht Teil der Grafikkarte ist, wird diese Funktion als [[Framegrabber]] bezeichnet. Da es kaum Situationen gibt, bei denen TV-Out und TV-In gleichzeitig gebraucht werden, sowie aus Platz- und Kostengründen, sind TV-In und TV-Out oft in einer Buchse realisiert (Video-In-Video-Out). In diesem Fall ist eine gleichzeitige Nutzung als TV-In und TV-Out nicht möglich. |
|||
Dank HDMI verwenden Computer und Geräte der Unterhaltungstechnik inzwischen denselben Anschluss, weshalb sich die Notwendigkeit solcher Ausgänge erübrigt hat. HDMI-Eingänge werden über USB-Geräte oder Erweiterungskarten nachgerüstet. |
|||
== Bauformen und Anwendungsgebiete == |
|||
Grundsätzlich können verschiedene Typen von Grafiklösungen unterschieden werden, die sich nach dem technischen Aufbau oder dem Anwendungsgebiet abgrenzen. |
|||
=== Integrierter Grafikprozessor (Onboard Grafikprozessor) === |
|||
{{Hauptartikel|Integrierter Grafikprozessor}} |
|||
[[Datei:Intel 810e Northbridge.JPG|mini|[[Intel-Chipsätze#800er-Reihe|Intel-810e]]-[[Northbridge]] mit „Chipsatzgrafik“ ([[Integrated Graphics Processor|IGP]])]] |
|||
[[Datei:AMD CMC60.jpg|mini|[[AMD Fusion#Ontario, C-Serie|AMD-C-60]]-Prozessor ([[Accelerated Processing Unit|APU]]) mit „Prozessorgrafik“]] |
|||
Bei diesen '''{{lang|en|Integrated Graphics Processor}}''', kurz '''IGP''',<ref>{{Literatur |Autor=Benjamin Kraft |Titel=GPUs für Büro-PC und Workstation |Sammelwerk=[[c’t]] |WerkErg=PC-Selbstbau 2019 |Verlag=[[Verlag Heinz Heise|Heise-Verlag]] |Datum=2019 |Seiten=104 |Online={{Google Buch |BuchID=AFt-DwAAQBAJ |Seite=104 |Hervorhebung=IGP}} |Zitat=Die einfache integrierte Prozessorgrafik ist besser als ihr Ruf: […] Bei Workstations gelten andere Anforderungen, die erst dedizierte Grafikkarten erfüllen.}}</ref> oder '''{{lang|en|integrated Graphics Processing Unit}}''', kurz '''iGPU''',<ref>{{Literatur |Autor=Jonas Nann |Titel=Computer verstehen und selber bauen: Rekenaar Company |Verlag=Books on Demand |Datum=2016 |Seiten=23 |Online={{Google Buch |BuchID=LmatCwAAQBAJ |Seite=23 |Hervorhebung=iGPU}} |Zitat=Die integrierte Grafikeinheit – integrated Graphics Processing Unit (iGPU)}}</ref> genannten Lösungen wird die Funktionalität der Grafikkarte in den Prozessor („Prozessorgrafik“) oder in den [[Chipsatz]] der [[Hauptplatine]] („Onboard-Grafikkarte“) integriert. IGPs bieten meist alle 2D-Funktionen, aber im Vergleich zu dedizierten Grafikkarten oft nur langsame und eingeschränkte 3D-Funktionalität und werden daher vornehmlich in Bereichen mit geringeren Grafikanforderungen eingesetzt, wie z. B. in Büro-PCs. Wegen ihres niedrigen [[Stromverbrauch]]s werden sie auch häufig in [[Notebook]]s genutzt. Der niedrige Stromverbrauch ist auch ein Motiv zum Einsatz in [[Embedded-PC]]s; bei besonders kritischen Anwendungen wie beispielsweise in der Medizin kommt der Vorteil hinzu, dass die Ausfallquelle der Steckkontakte zwischen Hauptplatine und Grafikkarte entfällt. Bei integrierten Grafiklösungen wird meist auf eigenen Grafikspeicher verzichtet und stattdessen der [[Arbeitsspeicher|Hauptspeicher]] des Rechners mitverwendet (siehe [[Unified Memory Architecture]], [[Shared Memory]]), was sich jedoch negativ auf die [[Rechenleistung|Leistungsfähigkeit]] auswirkt. |
|||
Anbieter von IGPs: |
|||
* [[AMD]] |
|||
* [[Intel]] |
|||
* [[Nvidia]] |
|||
* [[PowerVR]] |
|||
* [[Silicon Integrated Systems|SiS]] |
|||
* [[VIA Technologies]] |
|||
Neueste Notebooks mit [[PCIe]]-Schnittstelle können einen austauschbaren Grafikchip besitzen (siehe [[Mobile PCI Express Module]]), was sich jedoch (noch) nicht als Standard durchgesetzt hat. |
|||
=== Business-Lösungen === |
=== Business-Lösungen === |
||
Das sind vollwertige Grafikkarten, bei denen wenig Augenmerk auf die 3D-Funktionen gelegt wird, sondern die vor allem ein scharfes und kontrastreiches Bild liefern sollen. Es gibt auch Varianten mit 3D-Zusatzfunktionen, vor allem für [[CAD]]-Anwendungen. |
|||
=== Spielegrafikkarten === |
=== Spielegrafikkarten === |
||
[[Datei:黑神话:悟空性能测试!需要什么显卡才能玩?(极客湾Geekerwan) (2160p 60fps VP9-160kbit Opus)-00.00.18.325.png|mini|alternativtext=Das Foto zeigt eine schräge Draufsicht auf einen Tisch mit 15 erkennbaren, meist schwarzen, Grafikkarten|Etliche Gaminggrafikkarten aus verschiedenen Leistungsniveaus]] |
|||
Diese Grafikkarten gibt es in allen Preislagen. Die teuren Karten spiegeln das technisch Machbare im Bereich 3D-Darstellung wieder. Bei Spielekarten konkurrieren hauptsächlich [[ATI]] und [[NVidia]] miteinander, deren Chips von einer einer Vielzahl von Herstellern auf deren Grafikkarten werden. Daneben gibt es noch Anbieter wie [[S3 Graphics]] und [[XGI Technology]], die aber nur eine untergeordnete Rolle spielen. |
|||
Diese Grafikkarten gibt es in verschiedenen Preisklassen von rund 25 € bis zu 2700 €, wobei die teuren Karten das technisch Machbare im Bereich 3D-Darstellung widerspiegeln. Bei Spielekarten konkurrieren hauptsächlich [[AMD]] ([[AMD Radeon|AMD-Radeon]]-Serie) und [[Nvidia]] ([[Nvidia GeForce|GeForce]]-Reihe) miteinander (allerdings ist seit 2022 auch Intel mit deren [[Intel Arc|Arc]]-Reihe an den Markt getreten), deren Chips von einer Vielzahl von Herstellern auf deren Grafikkarten verwendet werden. Daneben gibt es noch Anbieter wie [[S3 Graphics]], [[Matrox]] (gehörte zu den Pionieren der 3D-Spielegrafikkarten, wurde aber von der mächtigen Konkurrenz in den professionellen Markt zurückgedrängt) und [[XGI Technology Inc.|XGI Technology]], die aber nur eine untergeordnete Rolle spielen und meist in Büro-PCs Verwendung finden. |
|||
Da die meisten Spiele für [[Microsoft]]s [[Direct3D]]-Schnittstelle (ein Teil der [[Microsoft Windows|Windows]]-Systemkomponente [[DirectX]]) entwickelt werden, sind Spielegrafikkarten auf Höchstleistung mit diesem System optimiert. Grafikkarten, die volle Hardwareunterstützung für die aktuelle DirectX-Version bieten, können praktisch alle technisch realisierbaren 3D-Rendering-Funktionen in Echtzeit berechnen. Manche Spielehersteller setzen aber auf [[OpenGL]], allen voran [[id Software]]. |
|||
=== Professionelle Lösungen === |
|||
Die sind vor allem Grafikkarten für [[CAD]]-Anwendungen. Neben den Spezial-Chips von [[3DLabs]] verbauen [[ATI]] und [[nVidia]] in diesem Segment Derivate ihrer Chips für Spielegrafikkarten, die dann mit einem anderen BIOS und Treiber auf [[OpenGL]] und nicht mehr auf [[DirectX]] optimiert werden.ist. Diese Karten sind deutlich teurer als ihre Gegenstücke für Spieler. |
|||
Seit 2006 befindet sich die Version 10 von DirectX auf dem Markt, die allerdings nur in Verbindung mit den Microsoft-Betriebssystemen [[Microsoft Windows Vista|Windows Vista]] und [[Microsoft Windows 7|Windows 7]] funktioniert. DirectX 10 wird seitens Nvidia von der [[Nvidia-GeForce-8-Serie]] und aufwärts unterstützt, seitens AMD von den Karten der [[ATI-Radeon-HD-2000-Serie]] und aufwärts. Karten ab der [[ATI-Radeon-HD-3000-Serie]] unterstützen sogar bereits die Nachfolgerversion DirectX 10.1, die mit dem Service Pack 1 für Windows Vista ausgeliefert wird und nur geringe Neuerungen bringt (Verwendung in nur wenigen Spielen, etwa dem Luftkampfspiel [[Tom Clancy’s H.A.W.X|H.A.W.X.]] oder [[The Elder Scrolls V: Skyrim|Bethesdas Skyrim]]). DirectX 10 erhöht viele Beschränkungen in der Shaderprogrammierung und soll einen geringeren Overhead als DirectX 9 aufweisen, wodurch das Ausführen von Direct3D-Befehlen schneller vonstattengehen soll. Der Nachteil ist, dass seit der Einführung von DirectX 10 nur wenige Spiele für DirectX 10 optimiert werden (prominentestes Beispiel: [[Crysis]]), da der kommerzielle Verkauf von Windows Vista erst am 30. Januar 2007 begann und die Nutzung der neuen Effekte von DirectX 10 eine enorme Rechenleistung benötigen und folglich nur auf High-End-Grafikkarten zufriedenstellend funktionieren. Viele neue Spiele unterstützen oftmals immer noch nur DirectX 9 und manchmal parallel DirectX 11, DirectX 10 hat daher nur noch eine geringe Bedeutung. |
|||
=== Sonstiges === |
|||
Seit Ende 2009 gibt es DirectX in Version 11. Diese Version wird bei den Karten von ATI (bzw. AMD) ab der „HD5000“-Reihe und ab der „GTX-400“-Serie von Nvidia unterstützt. Der Start von DirectX 11 lief besser als der von DirectX 10, da es bei Einführung von Windows 7 und damit DirectX 11 bereits ein Spiel mit DirectX 11 gab ([[BattleForge]]) und weitere schnell folgten. Die Spiele unterstützen jedoch alle noch DirectX 9, was sie auch auf [[Windows XP]] lauffähig macht. |
|||
Außer den oben beschriebenen [[DirectX]] Grafikkarten gibt es spezielle Karten, die nur [[OpenGL]] unterstützen. Diese Karten werden im [[Animation]]sbereich häufig eingesetzt und sind heutzutage für Spieler völlig uninteressant, da die meisten PC-Spiele nur noch [[DirectX]] unterstützen (anders jedoch auf der [[Macintosh]]-Plattform). Standardmäßig beherrscht jede heutige [[DirectX]] Grafikkarte auch [[OpenGL]], umgekehrt ist dies jedoch nicht der Fall. |
|||
Neben [[Direct3D]] gibt es als weiteres Grafik-API [[OpenGL]] in der aktuellen Version 4.2, das mit einem etwas größeren Funktionsumfang als Direct3D 11 aufwartet. |
|||
== Signalausgänge == |
|||
*'''TV-Out''': An den TV-Ausgang (engl. TV-Out) kann ein Fernseher oder ein Beamer angeschlossen werden. Man kann so mit mehreren Bildschirmen (PC Bildschirm + Fernseher) arbeiten. Allerdings ist die Signal-Qualität des Anschlusses meist nicht sehr hoch, da es sich um ein analoges [[FBAS]]- oder [[S-Video]]-Signal handelt und die meisten Karten nicht den nötigen hohen Schaltungsaufwand treiben, um aus diesen Signaltypen das Bestmögliche herauszuholen. Positive Ausnahmen sind einige ältere Matrox-Karten (z.B. die G400MAX). |
|||
Im Jahr 2013 stellte AMD zudem die API [[AMD Mantle]] vor, die bislang nur mit AMD-Grafikkarten ab der [[AMD-Radeon-HD-7000-Serie]] verwendet werden kann. Mantle bietet sowohl eine bessere Leistungsausnutzung bei Mehrkernprozessoren als auch einen geringeren Entwicklungsaufwand als Direct3D. Die Unterstützung für Mantle beschränkt sich derzeit noch auf wenige Spiele. Die [[Frostbite (Spiel-Engine)|Frostbite]]-3-Engine unterstützt Mantle voll, somit sind Spiele wie ''[[Battlefield 4]], [[Dragon Age: Inquisition]]'' oder ''[[Star Wars Battlefront (2015)|Star Wars: Battlefront]]'' mit Mantle spielbar. In Zukunft ist eine Unterstützung von Nvidia-Grafikkarten und [[Linux]]-Betriebssystemen durchaus denkbar, aber noch nicht von AMD angekündigt. |
|||
*'''D-Sub-Out''': An den D-Sub Ausgang kann ein [[D-Sub (Anschluss)|D-Sub-Kabel]] eines [[Kathodenstrahlröhrenbildschirm|CRT Monitors]] (Röhrenmonitors), Beamers oder [[Flachbildschirm|Flachbildschirms]] angeschlossen werden. Die Qualität ist hierbei wesentlich besser als die des TV-Ausgangs. |
|||
2016 erschien vom OpenGL-Entwickler [[Khronos Group]] die API [[Vulkan (API)|Vulkan]], die OpenGL ablösen soll. |
|||
*'''DVI-Out''': An den DVI Ausgang kann ein digitales [[Digital Visual Interface|DVI-Kabel]] angeschlossen werden. Dies liefert eine sehr gute Signalqualität, lässt sich jedoch nur mit Flachbildschirmen verwenden, da alle heutigen CRT-Monitore ein analoges Signal benötigen. Mit Hilfe eines Adapters kann man aus dem digitalen DVI Ausgang aber auch einen analogen VGA Ausgang machen. |
|||
==== Stand der Technik ==== |
|||
== Grafikkarten und Grafikschnittstellen == |
|||
[[Datei:Sapphire AMD Radeon RX 7900 XTX.jpg|mini|[[AMD-Radeon-RX-7000-Serie|AMD Radeon RX 7900XT]] von [[Sapphire Technology|Sapphire]]]] |
|||
Von den Grafikkarten zu unterscheiden sind Software- und Hardware-Grafikschnittstellen. |
|||
[[Datei:RTX 5090 - duża wydajność dużym kosztem (2160p 30fps VP9 LQ-96kbit AAC)-00.00.04.100.png|alternativtext=Das Bild zeigt die RTX 5090 Founders Edition in ihrer Verpackung|mini|Eine [[RTX 5090|Nvidia GeForce RTX 5090]], die aktuell leistungsstärkste Grafikkarte für den Endverbrauchermarkt (Stand 2025), in der Founders Edition]] |
|||
Die aktuell leistungsstärkste Grafikkarte stellt mit Stand 2025 [[Nvidia]] mit der ''[[Nvidia GeForce|GeForce]] [[RTX 5090]]'' auf Basis des in TSMC 4NP gefertigten GB202 der ''Blackwell''-Architektur.<ref>{{Internetquelle |url=https://www.techpowerup.com/gpu-specs/geforce-rtx-5090-d.c4253 |titel=GPU-Spezifikation der NVIDIA GeForce RTX 5090 |werk=techpowerup.com |abruf=2025-03-21}}</ref> |
|||
Mit der RTX-3000-Reihe erschien eine Nvidia-Quadro-RTX-Grafikkarte, die auf der Ampere-Architektur basiert und mit 48 GiB Grafikspeicher aufwartet. 2021 ist das für professionelle Anwender ausgerichtete Modell erschienen.<ref>{{Internetquelle |url=https://www.techpowerup.com/272492/nvidias-ampere-based-quadro-rtx-graphics-card-pictured |titel=NVIDIA's Ampere-based Quadro RTX Graphics Card Pictured |werk=techpowerup.com |datum=2020-09-23 |abruf=2020-12-18}}</ref> |
|||
Auf der [[Consumer Electronics Show|CES]] 2019 hat [[AMD]] die Radeon VII vorgestellt, sie besitzt 16 GiB [[High Bandwidth Memory|HBM]]-2-Speicher und erschien am 7. Februar 2019.<ref>{{Internetquelle |autor=Kevin Lee |url=https://www.techradar.com/news/amd-radeon-vii |titel=AMD Radeon VII release date, news and features |hrsg=techradar |datum=2019-01-30 |sprache=en |abruf=2019-02-05}}</ref> |
|||
Nvidias Mittelklassemodelle sind zurzeit (Stand: Q3 2024) die GeForce RTX 4060 und RTX 4060 Ti (beide mit 8 GiB GDDR6-Grafikspeicher; es gibt jedoch auch eine 16-GB-Version der RTX 4060 Ti), sowie die RTX 4070 (Super) und RTX 4070 Ti (Super) (beide mit 12 GiB GDDR6X-Grafikspeicher). |
|||
AMDs aktuelle Mittelklassemodelle sind die Radeon RX 7600 (mit 8 GiB GDDR6-Grafikspeicher), RX 7700 XT (mit 12 GiB GDDR6-Grafikspeicher), sowie die RX 7800 XT (mit 16 GiB GDDR6-Grafikspeicher). |
|||
=== Professionelle Lösungen === |
|||
[[Datei:Matrox parhelia 128mb agp.jpg|mini|[[Matrox]] Parhelia 128 MB]] |
|||
[[Datei:FireGL4.jpg|mini|[[ATI FireGL]]]] |
|||
Das sind vor allem Grafikkarten für [[CAD]]- und [[Geoinformationssystem|GIS]]-Anwendungen. Die Karten bieten spezielle für CAD/GIS notwendige Funktionen, die auf „normalen“ Grafikkarten nur emuliert und dadurch sehr viel langsamer genutzt werden können. Seit der letzte Spezialchip-Anbieter [[3DLabs]] 2006 das Geschäft eingestellt hat, bieten nur noch [[AMD]] und [[Nvidia]] Lösungen für das OpenGL-Workstation-Segment an. Die beiden Firmen nutzen dabei Derivate ihrer Spielegrafikkarten-Chips. Diese werden dann mit einem modifizierten ROM und Treiber auf die 2D-Darstellung von [[OpenGL]] und nicht mehr auf die 3D-Darstellung von [[DirectX]] und OpenGL optimiert. Dabei unterstützen die Treiber dieser Grafikkarten das Zeichnen mehrerer Millionen [[Antialiasing (Computergrafik)|geglätteter]] Linien und [[User-Clip-Plane]]s.<ref name="ct20092">''c't'' 2009/2, S. 126, ''Bauarbeiter'' – Grafikkarten für professionelle CAD- und 3D-Anwendungen</ref> Obwohl sich die Hardware zwischen Spiele-3D-Chips und OpenGL-Chips nur minimal unterscheidet, kosten Profi-Karten erheblich mehr. Grund dafür ist das Optimieren der Treiber, der umfangreiche Kundendienst, der Workstation-Kunden geboten werden muss, und das sehr teure SRAM, mit dem manche Grafikkarten ausgestattet sind. Weiterhin sind oft zusätzliche Fähigkeiten vorhanden wie DisplayPort-Anschlüsse zur Nutzung eines höheren Farbumfangs oder die Projektion einer großen Fläche mit mehreren Bildquellen. Die Produktlinien heißen bei AMD [[AMD FirePro|FirePro]] (bzw. ehemals [[ATI FireGL|FireGL]] unter dem Markennamen [[ATI Technologies|ATI]]) und bei Nvidia [[NVIDIA RTX|RTX]] (bzw. zuvor [[Nvidia Quadro|Quadro]]) aber ohne der Bezeichnung GeForce. |
|||
=== Sonstiges === |
|||
Außer den oben beschriebenen [[DirectX]]-Grafikkarten gibt es spezielle Karten, die nur [[OpenGL]] unterstützen. Diese werden häufig im [[Animation]]sbereich eingesetzt und sind heute für Spieler völlig uninteressant, da die meisten PC-Spiele nur noch DirectX unterstützen (anders jedoch auf der [[Apple Macintosh|Macintosh]]-Plattform). Standardmäßig beherrscht jede heutige DirectX-Grafikkarte auch OpenGL, umgekehrt ist das jedoch nicht der Fall. |
|||
Seit den Anfängen der programmierbaren Grafikpipeline im Jahr 2000 besteht die Möglichkeit, die Rechenleistung der Grafikprozessoren zur Berechnung von parallelisierbaren Rechenoperationen, wie sie z. B. bei technischen und wirtschaftlichen Simulationen, beim [[Kryptowährung#Mining|Schürfen von Kryptowährungen]] und bei [[Künstliches neuronales Netz|Künstlichen neuronalen Netzen]] vorkommen, zu nutzen. Diese Anwendung wird als [[GPGPU]] (General Purpose Computation on Graphics Processing Unit) bezeichnet, siehe auch bei [[Compute Unified Device Architecture|CUDA]]. |
|||
== Software-Grafikschnittstellen == |
== Software-Grafikschnittstellen == |
||
Um Grafikkarten benutzen zu können, ohne Hardware und Software für jede einzeln zu entwickeln, existieren verschiedene Software-Grafikschnittstellen. |
|||
Die bekanntesten Software-Grafikschnittstellen sind [[OpenGL]] und [[DirectX]], die es dem Programmierer ermöglichen, einfach und unabhängig von der Grafikkarte, 3D-Effekte zu erzielen. Die Grafikschnittstellen setzen nicht unbedingt Hardware 3D-Funktionen der Grafikkarte voraus, nutzen diese aber, falls sie vorhanden sind. Ältere 3D-Spiele können im Prinzip auch auf Computern mit integrierter Grafik oder einer einfachen [[3D-Beschleuniger|3D-Karte]] laufen, jedoch relativ langsam, "ruckelig" und optisch weniger ansprechend. |
|||
Vor allem auf grundlegender Funktionsebene interessant ist das [[Video-BIOS]], das wichtige Text- und Grafikausgabefunktionen im Rahmen der [[Systemfirmware]] („BIOS“) bereitstellt, die u. a. von Textkonsolen unter [[Disk Operating System|DOS]] oder [[Linux]] genutzt werden. Diese Funktionen sind relativ langsam, funktionieren aber zuverlässig auf jeder Grafikkarte. |
|||
In den meisten heutigen Betriebssystemen liegt eine [[Abstraktion]]sschicht zwischen Programmen und Hardware, die sogenannten [[Gerätetreiber]]. Ohne diese müssten Programme die Hardware direkt ansprechen, was aber aufgrund der Unterschiede zwischen Grafikkarten zu einer hohen Spezialisierung und damit hohem Programmieraufwand für die Unterstützung vieler Grafikkarten führen würde. Da aber Grafikkartentreiber ebenfalls sehr unterschiedliche Funktionen anbieten können, wurden im Laufe der Zeit verschiedene Grafik-[[Programmierschnittstelle|APIs]] entwickelt, die den Zugang zu diesen Funktionen erleichtern sollen. Die bekanntesten darunter sind [[OpenGL]], [[DirectX]] (genauer: DirectDraw, Direct3D) und [[Quartz (macOS)|Quartz]], die es dem Programmierer ermöglichen, einfach und unabhängig von der Grafikkarte 2D- und 3D-Grafik anzuzeigen. Für DirectX und Quartz setzen die Schnittstellen nicht unbedingt Hardware-3D-Funktionen der Grafikkarte voraus, nutzen diese aber, falls sie vorhanden sind. Ältere 3D-Anwendungen können im Prinzip auch auf Computern mit integrierter Grafik oder einer einfachen [[Hardwarebeschleunigung|3D-Karte]] laufen, jedoch relativ langsam oder optisch weniger ansprechend. |
|||
Für das Betriebssystem [[EComStation]] wurde der universelle Panorama-Treiber<ref>{{Internetquelle |autor=david@88watts.net |url=http://www.ecomstation.com/news.phtml?action=fullnews&id=4101&title=Panorama%20package%20for%20eComStation%20version%201.04 |titel= Panorama package for eComStation version 1.04 |werk=ecomstation.com |datum=2013-01-14 |sprache=en |abruf=2023-11-18}}</ref> entwickelt, der alle gängigen Grafikkarten bedient. |
|||
=== Softwareprobleme mit Grafikkarten === |
=== Softwareprobleme mit Grafikkarten === |
||
Da viele Grafikkarten heutzutage das flüssige Anschauen von [[ |
Da viele Grafikkarten heutzutage das flüssige Anschauen von [[Videotechnik|Videos]] mittels des Rechners durch [[Hardwarebeschleunigung]] erlauben und ebenfalls viele Grafikkarten einen TV-Out-Anschluss haben, ist es naheliegend, den Rechner an einen [[Fernseher]] oder einen [[Videorekorder]] anzuschließen. Jedoch unterbinden es einige Hersteller durch den [[Gerätetreiber|Grafikkartentreiber]] oder die ''Grafikkarte'' selbst, beide Fähigkeiten miteinander zu verbinden. So kommt es vor, dass beim Abspielen von Videos zwar die gesamte Benutzeroberfläche sichtbar ist, das Video selbst jedoch nicht. Unter [[Linux]] funktioniert dann beispielsweise die [[XVideo]]-[[Implementierung|Implementation]] nur bei der primären Anzeige (also dem Computer-Monitor), nicht jedoch beim TV-Out-Anschluss. Dieses Problem kann man meist umgehen, indem man die Hardwarebeschleunigung für das Dekodieren von Videos ausschaltet, jedoch ist das Video dann oft nicht mehr flüssig. |
||
Es wird vermutet, dass solche Beschränkungen eingebaut werden, um den Nutzer an der Aufzeichnung des Videos durch einen [[Videorekorder]] zu |
Es wird vermutet, dass solche Beschränkungen eingebaut werden, um den Nutzer an der Aufzeichnung des Videos durch einen [[Videorekorder]] zu hindern. Jedenfalls ist in einigen mitgelieferten Handbüchern nachzulesen<!-- So zum Beispiel in den Handbüchern von „Wistron 1557“-Modellen -->, dass Produkte von [[Macrovision]] (einer Firma, die für ein [[Kopierschutz]]verfahren bekannt ist) in die ''Grafikkarte'' integriert wurden. |
||
Ein konkreter Fall war der [[fglrx]]-Treiber von AMD, der nicht das hardwareunterstützte Abspielen von Videos am TV-Ausgang unterstützte. |
|||
Man findet in einem Handbuch beispielsweise folgende Passage: |
|||
:''Dieses Produkt enthält Copyrightschutz-Technologie, die durch Verfahrensansprüche bestimmter US-Patente sowie andere geistige Eigentumsrechte geschützt ist, die [[Macrovision]] Corporation und anderen Rechtsinhabern gehören. Die Verwendung dieser Copyrightschutz-Technologie muss von Macrovision Corporation genehmigt werden und darf sich nur auf den Privatbereich erstrecken, wenn Macrovision Corporation keiner anderen Verwendung zugestimmt hat. Das [[Reverse Engineering]] oder [[Disassembler|Disassemblieren]] der [[Software]] ist untersagt. Geräteansprüche des [[US-Patent]]s der Nummern 4,631,603, 4,577,216, 4,819,098 und 4,907,093 sind nur für eingeschränkte Vorführungen lizenziert.'' [Verbote des Reverse Engineering oder Disassemblieren werden nach vorherrschender deutscher Rechtsprechung allgemein als unwirksam betrachtet. Siehe aber [[Wikipedia:Hinweis Rechtsthemen]]] |
|||
Ein weiteres Problem war und ist die Verwendung mehrerer VGA-kompatibler Grafikkarten, wie es in PCI-Systemen der Fall sein kann. Dabei unterstützt das Betriebssystem nicht jede freie Kombination, nicht einmal von Grafikkarten desselben Herstellers. Durch eine Aktualisierung des ROMs auf der Karte kann hier jedoch manchmal Abhilfe geschaffen werden. |
|||
Ein konkreter Fall ist der [[fglrx]]-Treiber von [[ATI]], der (derzeit) nicht das hardware-unterstützte Abspielen von Videos am TV-Ausgang unterstützt. |
|||
== Hersteller == |
== Hersteller == |
||
[[Datei:Marktanteil GPU-Hersteller.png|mini|Marktanteile (verkaufte Stückzahl) der GPU-Hersteller (für Desktop-GPUs)]] |
|||
'''Hersteller von Grafikkarten''': |
|||
[[Abit]], [[Albatron]], [[AOpen]], [[GeCube]], [[ASUS]], [[ATI]], [[Connect3D]], [[Club3D]], [[Creative Labs]]/[[3Dlabs]], [[DFI (Unternehmen)|DFI]], [[Diamond Multimedia]], [[ELSA (Unternehmen)|ELSA]], [[eVGA]], [[Gainward]], [[Genoa (Unternehmen)|Genoa]], [[Hercules Graphics]], [[HIS]], [[Leadtek]], [[Micro-Star International|MSI]], [[Number Nine]], [[Matrox]], [[Orchid Technologies]], [[Paradise Innovations|Paradise]], [[PixelView]], [[PNY]], [[PowerColor]], [[Sapphire]], [[Sigma (Grafik)|Sigma]], [[Sparkle]], [[SPEA Software|SPEA]], [[STB Systems]], [[TerraTec]], [[VideoLogic]], [[Video Seven]], [[XFX]] |
|||
Heute sind nur noch [[AMD]], [[Nvidia]], [[Matrox Electronic Systems|Matrox]], [[Intel]] und [[S3 Graphics]] als Grafikchiphersteller auf dem Markt, sowie AMD, Intel, Nvidia, [[Silicon Integrated Systems|SiS]] und [[VIA Technologies]] als Hersteller von integrierten Grafiklösungen. |
|||
'''Ehemalige Hersteller von Grafikchips''': |
|||
[[3dfx]], [[3DLabs]], [[Alliance Semiconductor]], [[ARK Logic]], [[ArtX]], [[Avance Logic]], [[Bitboys Oy]], [[Chips & Technologies]], [[Cirrus Logic]], [[NeoMagic]], [[Number Nine]], [[Oak Technology]], [[Rendition]], [[S3 Inc.]], [[Trident Microsystems|Trident]], [[Tseng Labs]], [[Western Digital]], [[XGI Technology Inc.|XGI]]. |
|||
'''Hersteller von |
'''Ehemalige Hersteller von Grafikkarten''': |
||
[[Abit]], [[Albatron]], [[AOpen]], [[Asus]], [[ATI Technologies]], AXLE3D, [[Club 3D]], Connect3D, [[Creative Technology|Creative Labs]]/[[3DLabs]], [[DFI (Unternehmen)|DFI]], [[Diamond Multimedia]], [[ELSA Technology]], EVGA, [[Elitegroup Computer Systems|Elitegroup]], [[Gainward]], Galaxy Microsystems Ltd., KFA2, GeCube, Genoa, [[Gigabyte Technology|Gigabyte]], Hercules Graphics, HIS, Inno3D, [[Leadtek]], [[Micro-Star International|MSI]], miro, [[Number Nine]], Orchid Technologies, Palit Microsystems Ltd., Paradise Systems, PixelView, [[PNY Technologies|PNY]], PowerColor, Quantum3D, [[Sapphire Technology|Sapphire]], Sigma, Sparkle, SPEA, STB Systems, [[TerraTec]], [[PowerVR|VideoLogic]], Video Seven, XFX, XpertVision, [[Zotac]]. Hersteller mit Schwerpunkt Apple waren noch RasterOps, SuperMac, Radius, Focus Development. |
|||
[[3dfx]], [[3Dlabs]], [[Alliance Semiconductor]], [[Ark Logic]], [[ATI]], [[Avance Logic]], [[Chips & Technologies]], [[Cirrus Logic]], [[Neomagic]], [[Number Nine]], [[Nvidia]], [[Matrox]], [[Oak Technologies]], [[Rendition]], [[S3 Graphics]], [[S3 Inc.]], [[Silicon Integrated Systems|SiS]], [[Trident Microsystems|Trident]], [[Tseng Labs]], [[Western Digital]], [[XGI Technology|XGI]]. |
|||
== Siehe auch == |
|||
Wobei aber zu erwähnen ist, dass auf dem heutigen Markt nur noch [[ATI]],[[Nvidia]] und [[S3 Graphics]] als Grafikchiphersteller und zusätzlich noch [[Intel]], [[SiS]] und [[VIA Technologies]] als Hersteller von integrierten Grafiklösungen vertreten sind. |
|||
* [[Benchmark]] |
|||
== Weblinks == |
== Weblinks == |
||
{{Commons|Graphics card|Grafikkarte}} |
{{Commons|Graphics card|Grafikkarte}} |
||
{{Wiktionary}} |
|||
* [http://www.3dchips.net 3DChips - professionelle Grafikkarten] |
|||
* {{Internetquelle |
|||
* [http://www.itse-guide.de/artikel/11 Grundlagen der Grafikkarte] |
|||
|autor=Jens Dünow |
|||
* [http://www.pc-erfahrung.de/Index.html?Menu/Menu_Grafikkarte.html Grafikkarten übertakten] |
|||
|url=https://www.heise.de/ct/artikel/Pixelkunst-286808.html |
|||
|titel=Pixelkunst |
|||
|hrsg=Heise Verlag |
|||
|datum=1999-01-15 |
|||
|abruf=2017-01-22 |
|||
|kommentar=Erklärung wie eine 3D-Grafikkarte funktioniert}} |
|||
== Einzelnachweise == |
|||
<references /> |
|||
{{Normdaten|TYP=s|GND=4128528-1}} |
|||
[[Kategorie:Grafikkarten|!]] |
|||
[[Kategorie:Grafikkarte| ]] |
|||
[[bs:Grafička kartica]] |
|||
[[cs:Grafická karta]] |
|||
[[en:Graphics card]] |
|||
[[es:Tarjeta gráfica]] |
|||
[[fa:کارت گرافیک]] |
|||
[[fi:Näytönohjain]] |
|||
[[fr:Carte graphique]] |
|||
[[he:כרטיס גרפי]] |
|||
[[hr:Grafička kartica]] |
|||
[[hu:Videokártya]] |
|||
[[it:Scheda video]] |
|||
[[ja:ビデオカード]] |
|||
[[lt:Video plokštė]] |
|||
[[nl:Videokaart]] |
|||
[[no:Skjermkort]] |
|||
[[pl:Karta graficzna]] |
|||
[[ru:Графическая плата]] |
|||
[[sk:Grafická karta]] |
|||
[[sl:Grafična kartica]] |
|||
[[sr:Графичка картица]] |
|||
[[sv:Grafikkort]] |
|||
[[th:การ์ดแสดงผล]] |
|||
[[tr:Grafik Kartı]] |
|||
[[zh:显示卡]] |
Aktuelle Version vom 2. Juni 2025, 12:28 Uhr

Eine Grafikkarte, historisch auch Videoadapter,[1] steuert in einem Computer die Grafikausgabe im verwendeten Videomodus. Bei Ausführung eines Programms berechnet der Prozessor die Daten, leitet diese an die Grafikkarte weiter und die Grafikkarte wandelt die Daten so um, dass der Monitor oder Projektor („Beamer“) alles als Bild wiedergeben kann. Grafikkarten werden entweder als PC-Erweiterungskarten über ein Bussystem (PCIe, früher auch AGP, PCI, VLB oder ISA) mit der Hauptplatine verbunden oder sind in einer der Komponenten auf der Hauptplatine enthalten, etwa im Chipsatz oder im Hauptprozessor (CPU) bzw. als Bestandteil des SoC.
Die wichtigsten Komponenten moderner Grafikkarten sind: GPU, Grafikspeicher, RAMDAC sowie die Anschlüsse für externe Geräte (z. B. für den Monitor oder Grafiktablett). Um eine separate Grafikkarte von einer integrierten unterscheiden zu können, werden diese auch auf mit „dGPU“ für dedizierte und mit „iGPU“ für integrierte Grafikeinheiten bezeichnet. Auch externe Grafikkarten gibt es, die meist mit „eGPU“ (für englisch external GPU) bezeichnet werden. Die GPU sollte jedoch nicht mit der Grafikkarte als Ganzes verwechselt werden, obwohl „GPU“ oft als Referenz für die Grafikkarte genutzt wird.
Geschichte
[Bearbeiten | Quelltext bearbeiten]Grafikkarte
[Bearbeiten | Quelltext bearbeiten]

(ELSA Winner 1000)

(ATI Mach64)

(Trident Daytona 64)

Das Grafikkarten-Prinzip wurde in Serienproduktion erstmals beim Mikrocomputer Apple II verwendet, dessen auf der Hauptplatine integrierte Grafikfähigkeiten durch zusätzlich zu erwerbende Steckkarten verbessert werden konnten („PAL-Farbkarte“, „80-Zeichen-Karte“). Dieser kam 1977 auf den Markt.
Der erste IBM PC kam 1981 mit einer Karte auf den Markt, die lediglich die einfarbige Darstellung von Text ermöglichte (MDA = Monochrome Display Adapter). Die Firma Hercules bot 1982 eine bessere Karte an, die Hercules Graphics Card.
Bis 1989 setzten sich die Farb-Grafikkartentypen als Standard durch, die IBM neu auf den Markt brachte:
- 1982 die CGA-Karte (populär ab 1984)
- 1984 die EGA-Karte
- 1987 mit den PS/2-Modellen die MCGA- und VGA-Karte
Bis zum PC/AT setzte IBM damit Industriestandards, die von der wachsenden Industrie der IBM-PC-Kombatiblen übernommen wurde. Teilweise findet sich der VGA-Modus (640 × 480 Punkte in 16 Farben) noch als „Notfall-Modus“ bei einigen PCs, da bis zu diesem Modus die Hardware der PC-Grafikkarten von der Software auf einheitliche Weise angesprochen werden kann. Aber auch neuere Standards sind verbreitet, etwa von der Video Electronics Standards Association (VESA) standardisierte Modi (implementiert als VESA BIOS Extensions) oder UEFI GOP (Graphics Output Protocol), die meist hochauflösendere Modi in mehr Farben unterstützen, meist jedoch auch weiterhin den VGA-Modus enthalten.
Die weiteren Bezeichnungen SVGA, XGA usw. sind keine Grafikkartenstandards mehr, sondern Kurzbezeichnungen für Bildschirmauflösungen, zum Beispiel XGA mit 1024 × 768 Punkten.
Bis etwa 1990 beschränkten sich die Grafikkarten darauf, den Inhalt des Grafikspeichers über einen sogenannten RAMDAC-Baustein in Ausgangssignale für den Monitor umzuwandeln. Der Programmierer konnte im Wesentlichen nur den Textmodus nutzen sowie im Grafikmodus einzelne Pixel auf eine bestimmte Farbe setzen. Das war die erste Generation der Grafikkarten. Es folgten zwei weitere:
- Die sogenannten „Windows-Beschleuniger“
- Die 3D-Beschleuniger
Beschleunigung durch Software
[Bearbeiten | Quelltext bearbeiten]Ab 1991 wurden die Grafikkarten zu eigenständigen kleinen Recheneinheiten mit eigener GPU (Graphics Processing Unit) weiterentwickelt, einer sogenannten Graphics- oder Pixel Engine oder dt. Grafikprozessor, bei dem man nicht nur einzelne Pixel setzen konnte, sondern dem man Befehle zum Zeichnen von Linien und Füllen von Flächen schicken konnte (Windows-Beschleuniger). Diese Funktionen beschleunigten vor allem das Verschieben der Fenster (Windows) der grafischen Benutzeroberfläche. Das Konzept der Zusatzfunktionalität wurde mit der Zeit immer weitergeführt, so wurden z. B. seit 1995 auch Funktionen zur Beschleunigung der Videowiedergabe (z. B. im AVI-Format) und Dekodierung von komprimierten Videodaten (z. B. MPEG) eingeführt (Videobeschleunigung). Diese Funktionen wurden vorher auf separaten Steckkarten angeboten.
Hardwarebeschleunigung
[Bearbeiten | Quelltext bearbeiten]Nachdem Mitte der 1990er Jahre mit Doom der große Boom der 3D-Spiele begonnen hatte, kam bald von 3dfx der erste brauchbare 3D-Beschleuniger, der Voodoo Graphics-Chipsatz. Einem 3D-Beschleuniger kann ein Programm in einem dreidimensionalen Raum die geometrischen Figuren in Form von Polygonen und die Texturen angeben, mit denen die Flächen der Polygone gefüllt werden sollen (Rendern). Diese recht simple, aber rechenintensive Aufgabe hatte in den frühen 3D-Spielen noch die CPU übernehmen müssen; nun konnte sie an die Grafikkarte delegiert werden, was zu einer massiven Leistungssteigerung von 3D-Spielen führte (bessere Bildauflösung, wesentlich realistischere Bilder).[2]
Waren die 3D-Beschleuniger der ersten Generation noch auf eigenen Steckkarten verbaut, durch die das Grafiksignal der im System verbauten 2D-Grafikkarte durchgeschleift wurde, setzten sich bald Lösungen durch, die 2D- und 3D-Funktionalität auf derselben Karte vereinten.
Um noch mehr 3D-Leistung anzubieten, werden heute mit der Multi-GPU-Technik (siehe auch Nvidia SLI und AMD CrossFireX) zwei oder mehr 3D-Grafikkarten bzw. -prozessoren parallel geschaltet, um noch mehr Grafikelemente je Zeitspanne berechnen zu können. Diese Technik erfordert jedoch einen hohen Kostenaufwand und Energiebedarf.
Aufbau und Funktionsweise
[Bearbeiten | Quelltext bearbeiten]
Hardwareschnittstellen zum System
[Bearbeiten | Quelltext bearbeiten]Die übliche Hardwareschnittstelle für Grafikkarten ist PCI Express, früher waren auch ISA, VESA Local Bus, PCI und AGP gängig. Diese Schnittstellen sind entweder Bussysteme oder Direktverbindungen (AGP, PCI Express), die den Buscontroller mit der Grafikkarte verbinden. Da die Spezifikation der Schnittstellen zumeist durch Interessenverbände vorgenommen wird, in denen sowohl die Controller- als auch die Grafikkarten- bzw. Grafikchiphersteller Mitglied sind, funktionieren (im Idealfall) alle konformen Grafikkarten mit allen konformen Controllern. Es gab in der Vergangenheit aber verschiedene Probleme mit einigen Schnittstellen, die die Interoperabilität einschränkten, beispielsweise „AGP Fast Writes“ bei AGP (auf Intel-Plattformen konnte es die Leistung erhöhen, auf AMD-Plattformen für Instabilität sorgen) oder IRQ-Probleme bei PCI (mögliche Abstürze, Einfrieren oder Leistungseinbrüche, Ursache meist schlechte oder fehlerhafte Implementierung der Schnittstelle).
Bei anderen Plattformen als den IBM-kompatiblen Rechnern gab es entsprechend den dort üblichen Stecksystemen Grafikkarten für die Apple-II-Steckplätze, später bei den ersten Macs für NuBus (später PCI und dessen Nachfolger, analog zum PC), für Amigas für deren Zorro-Bus und auch Europakarten für Systeme, die auf letzteren aufbauen.
Über schnelle externe Schnittstellen wie Thunderbolt und USB-C sind auch externe Grafikkarten möglich, meist mit eGPU für englisch external Graphics Processing Unit bezeichnet.
Grafikspeicher
[Bearbeiten | Quelltext bearbeiten]Der Grafikspeicher dient zur Ablage der im Grafikprozessor (GPU) verarbeiteten Daten sowie als Bildspeicher („Framebuffer“): Das sind digitale Bilder, die später auf dem Computer-Bildschirm oder mit dem Projektor ausgegeben werden.
Die Größe des Grafikspeichers bestimmte die maximale Farbtiefe und Bildauflösung. Dabei ließ sich der benötigte Speicher für eine gewünschte Auflösung und Farbtiefe vom Anwender leicht errechnen: Wenn beispielsweise die Auflösung 1600 × 1200 mit einer Farbtiefe von 24 Bit (True Color) erwünscht ist, berechnet man zunächst die Anzahl der Bildpunkte (Pixel) dieser Auflösung (1600 horizontal × 1200 vertikal = 1.920.000 Pixel insgesamt). Die Farbtiefe „24 Bit“ bedeutet, dass für jedes dieser Pixel 24 Bit Farb-Informationen vorliegen. Somit multipliziert man die Pixelanzahl mit der Farbtiefe (1.920.000 × 24 Bit = 46.080.000 Bit). Nunmehr ist nur noch die Umrechnung in Byte erforderlich. Da ein Byte aus 8 Bit besteht, wird die Zahl durch 8 geteilt (46.080.000 Bits ÷ 8 = 5.760.000 Bytes). Da früher Grafikkarten in der Regel mit 4 oder 8 MiB Grafikspeicher ausgeliefert wurden, hätte man für die gewünschte Einstellung eine Grafikkarte mit mindestens 8 MiB Grafikspeicher benötigt.
Heute werden ausschließlich Grafikkarten mit sehr viel mehr Speicher gebaut als zur reinen Bildspeicherung notwendig wäre. Beim Rendern dreidimensionaler Grafiken werden hier zusätzlich zum Framebuffer die Daten der Objekte, beispielsweise Größe, Form und Position, sowie die Texturen, die auf die Oberfläche der Objekte gelegt werden, gespeichert. Besonders die immer höher auflösenden Texturen haben für einen starken Anstieg der Speichergröße bei aktuellen Grafikkarten gesorgt. So liegt die Speichergröße aktueller Grafikkarten bereits im drei- bis fünfstelligen Mebibytebereich (512 MiB, 1024 MiB, 2048 MiB, 3072 MiB, 4096 MiB, 6144 MiB, 8192 MiB, 12288 MiB, 24576 MiB, 32768 MiB) – 512 MiB und weniger, wie es bis ca. 2005 noch verbreitet war, sind selten geworden. Bei Spielegrafikkarten ist die Obergrenze Anfang 2019 bei 24 GiB, wohingegen professionelle Grafikkarten schon mit bis zu 80 GiB HBM2e-Grafikspeicher ausgestattet werden können.[3]
Bei Onboard-Lösungen wird meist der Hauptspeicher des Systems als Grafikspeicher genutzt, das wird als Shared Memory bezeichnet. Der Zugriff erfolgt über das jeweilige Bussystem und ist deshalb langsamer als direkt angebundener Speicher.
Grafikprozessor (GPU)
[Bearbeiten | Quelltext bearbeiten]

Der Grafikprozessor dient zur Berechnung der Bildschirmausgabe. Mitte der 1990er Jahre kamen die ersten 3D-Beschleuniger auf den Markt. Diese Grafikprozessoren waren in der Lage, einige Effekte und dreiecksbasierte Algorithmen (wie u. a. Z-Puffern, Texture Mapping) und Antialiasing selbstständig durchzuführen. Besonders dem Bereich Computerspiele verhalfen solche, zusätzlich zu installierenden Steckkarten (z. B. 3dfx Voodoo Graphics), zu einem Entwicklungsschub.
Heute sind GPUs wegen ihrer Spezialisierung auf Grafikberechnungen den CPUs in ihrer Rechenleistung überlegen. Als Vergleich dienen die Transistoranzahl des Grafikprozessors von Nvidia (Geforce 8800GTS 512, 754 Millionen) mit der eines Modells von Intel (Core 2 Extreme QX9650, 820 Millionen). Der Unterschied wird deutlich, wenn man bedenkt, dass über die Hälfte der CPU-Chipfläche für die 2 × 6 MB Cache verbraucht werden. Die Entwicklung der Integrationsdichte der Grafikprozessoren hat mit einem jährlichen Faktor von 2,4 sogar das Mooresche Gesetz übertroffen.
Wie bei den Hauptprozessoren der Rechner, in die die Grafikkarten eingebaut werden, sind auch die GPUs auf den Grafikkarten oft Gegenstand von Übertaktungsmodifikationen zur Leistungssteigerung.
Die Rechenkapazität, die auf solchen Grafikkarten zur Verfügung steht (siehe unter GPGPU), hat schon dazu geführt, dass allein zum Erzielen maximaler Rechenleistung mehrere Grafikkarten in einen Rechner eingebaut werden. Solche Systeme werden teilweise in großen Anzahlen zu Supercomputern zusammengestellt.
Kühllösungen
[Bearbeiten | Quelltext bearbeiten]

Aufgrund der hohen thermischen Verlustleistung durch die zunehmende Komplexität von Grafikprozessoren bzw. teilweise auch des Grafikspeichers sind ähnlich aufwendige Kühllösungen wie bei Prozessorkühlern notwendig. Grafikkarten verbrauchen mit einem Grafikprozessor (Nvidia GeForce RTX 4090) bis zu 450 Watt (TDP) Leistung oder mehr, die vollständig als Wärmeenergie abgeführt werden muss. Dazu existieren mehrere Ansätze:
- aktive Luftkühlung – die thermische Energie wird über einen Kühlkörper an die Umgebungsluft abgegeben, welche durch Lüfter umgewälzt wird. Das ist die einfachste und preiswerteste Variante, große Wärmemengen abzuführen, verursacht allerdings auch Störgeräusche.
- passive Luftkühlung – durch einen Kühlkörper wird die thermische Energie durch Konvektion an die Umgebungsluft abgegeben. Das ist nur bei geringen Leistungen oder mit sehr großen Kühlkörpern möglich. Oft werden auf beiden Seiten der Grafikkarte großflächige Kühlkörper angebracht, welche mit einer Heatpipe verbunden sind. Vorteile sind dabei der geringere Stromverbrauch (siehe auch: Green IT) und das Wegfallen von Lüftergeräuschen, Nachteile sind die schwierigere Verbaubarkeit und die höhere mechanische Belastung des Steckplatzes durch teils schwere, sehr große Kühlkörper.
- Wasserkühlung – wie auch für CPUs manchmal eine Wasserkühlung eingesetzt wird, kann auch die Grafikkarte in einen (bzw. den gleichen) Kreislauf eingebunden werden. Die thermische Energie wird dann an das Wasser im Kreislauf und von dort über einen Radiator an die Umgebungsluft abgegeben. Das ermöglicht einen Transport von großen Wärmemengen, ist aber auch die aufwendigste und teuerste Kühllösung. Es existieren auch einige Karten mit vorinstallierter Wasserkühlung mit dem Vorteil, dass die Garantie erhalten bleibt. Einige Händler bieten auch bereits montierte Wasserkühler an und bieten dann von sich aus eine Garantie an, obwohl die Herstellergarantie mit der Montage eines anderen Kühlers enden würde. Der Vorteil einer Wasserkühlung bei GPUs liegt darin, dass diese größer sind als CPUs und es zudem weniger thermische Hotspots im Chip gibt, also die große Menge Wärme gleichmäßiger abgegeben werden kann.
Besonders die Konstruktionen der Luftkühlungen sind durch die benötigte Oberfläche des Kühlkörpers oft wesentlich größer als es die Spezifikationen des Steckplatzes zulassen (vgl. Abb. rechts). Aus diesem Grund können auf dem Mainboard oft die angrenzenden Steckplätze nicht verwendet werden.
RAMDAC
[Bearbeiten | Quelltext bearbeiten]Der RAMDAC (Random Access Memory Digital/Analog Converter) ist ein Chip, der für die Umwandlung von digitalen (Videospeicher) in analoge Bildsignale (Monitor) verantwortlich ist. Von ihm werden die Signalausgänge angesteuert. Er kann auch im Grafikprozessor integriert sein.
Externe Signalausgänge
[Bearbeiten | Quelltext bearbeiten]Verbreitete Anschlüsse
[Bearbeiten | Quelltext bearbeiten]- DisplayPort
/ Mini-DisplayPort
- DisplayPort ist ein relativ neuer Verbindungsstandard für Bild- und Tonsignale. Er ist kompatibel zu VGA, DVI und HDMI 1.4 und unterstützt die Kopierschutzverfahren HDCP und DPCP (DisplayPort Content Protection). Im Jahr 2014 war die Verbreitung bereits vorangeschritten. Mini-DisplayPort ist mechanisch identisch mit dem daraus entstandenen Thunderbolt.
- DVI-D
- Der DVI-Ausgang ist, wenn vorhanden, meist nur noch mit dem digitalen Dual-Link-Signal belegt.
- HDMI-Out
/ Mini-HDMI / Micro-HDMI
- Seit 2007 werden auch Grafikkarten mit HDMI (High Definition Multimedia Interface)-Ausgang angeboten. Hier wird das Videosignal ebenfalls digital und gegebenenfalls mit HDCP verschlüsselt ausgegeben. Über HDMI können auch DVI-D-Signale übertragen werden, womit DVI-Geräte kompatibel zu HDMI sind. Die Unterstützung von HDCP ist bei DVI jedoch optional, weswegen nicht alle Geräte derartig geschützte Signale wiedergeben können. Die Übertragung von Tonsignalen ist jedoch nur über HDMI-Verbindungen möglich.
- USB-C
- USB-C kann auch die oben genannten digitalen Grafiksignale übertragen und wird daher als Grafikanschluss bei Geräten eingesetzt, die besonders kompakt sein sollen, z. B. Intel NUCs (ab Generation 7) oder manchen Laptops.
An dedizierten Grafikkarten sind im Jahr 2022 HDMI und DisplayPort gebräuchlich, wobei meist ein Anschluss als HDMI und die anderen als DisplayPort ausgeführt sind. Die Mini-Varianten hatten mit Ausnahme von Mini-DisplayPort zu keiner Zeit eine große Verbreitung.
- VGA-Out
/ Mini-VGA
- An einer 15-poligen D-Sub-Buchse wird ein analoges RGB-Signal bereitgestellt. Unter beengten Platzverhältnissen ist der Ausgang auch als Mini-VGA ausgeführt (z. B. beim Apple iBook). Über ein VGA-Kabel mit entsprechendem Stecker werden CRT-Monitore (Röhrenmonitore), Projektoren oder Flachbildschirme angeschlossen. Auflösungen über Full-HD (1920 × 1080) sind nicht bei allen Geräten möglich, selbst wenn sie diese Auflösungen über andere Anschlüsse unterstützen.
Historische Anschlüsse
[Bearbeiten | Quelltext bearbeiten]Zusätzliche Signalausgänge und auch -eingänge sind je nach Karte unterschiedlich realisiert. Teilweise sind entsprechende Buchsen (Cinch, S-Video, LFH60) direkt auf dem Slotblech vorhanden. Vor allem aus Platzgründen sehen Hersteller aber auch einen mittelbaren Anschluss über Adapterkabel oder Kabelpeitschen vor. Dann findet sich direkt auf der Grafikkarte eine Buchse, z. B. aus der Mini-DIN-Familie, deren Beschaltung nicht standardisiert ist und die oft die allgemeine Bezeichnung VIVO (für Video-In-Video-Out) hat. Hier wird eine herstellerspezifische Kabelpeitsche angeschlossen, die dann weitere Anschlussmöglichkeiten zur Verfügung stellt.

- LFH60
- Low Force Helix 60 (LFH60) ist ein 60-poliger Steckverbinder. Die Kontakte sind in vier Reihen zu 15 Pins angeordnet. LFH60 wird in der Netzwerktechnik und PC-Technik eingesetzt. Die Buchse wird als LFH60-F (female) und der Stecker als LFH60-M (male) bezeichnet. Der Stecker wird von einigen Herstellern (z. B. Matrox) zum Anschluss einer Kabelpeitsche für zwei DVI-Stecker verwendet.
- Component-Out
- Über den Komponenten-Ausgang (drei Cinch-Buchsen) werden HDTV-Videodaten analog YPbPr-farbkodiert ausgegeben. Der Ausgang ist wie oben beschrieben meist nicht direkt auf der Grafikkarte ausgeführt.
- DVI-Out
/ Mini-DVI
- Der DVI-Ausgang liefert ein digitales Signal und damit die beste erreichbare Bildqualität an Bildschirmen mit DVI-Eingang. Die meisten historischen Grafikkarten mit vollwertigem DVI-Ausgang sind mit einem DVI-I-Anschluss (i für integrated) ausgestattet und liefern damit zusätzlich ein analoges RGB-Bildsignal. Somit können mit einem (meist beiliegenden) passiven Adapter auch Bildschirme mit analogem D-Sub-Eingang angeschlossen werden, die Bildqualität entspricht dann jedoch weitestgehend der des D-Sub-Ausgangs. Weiterhin existieren die Varianten DVI-D mit ausschließlich digitalen Signalleitungen und DVI-A mit ausschließlich analogen Signalleitungen. Bei DVI-D sind die Varianten (Single-Link-)DVI und Dual-Link-DVI zu unterscheiden, letztere beinhaltet doppelt so viele Datenleitungen und kann damit eine größere Bandbreite liefern. Das ist für Auflösungen größer als WUXGA (1920 × 1200) notwendig, um trotz der größeren Datenmenge pro Bild eine Bildwiederholfrequenz von mindestens 60 Hertz zu gewährleisten. Wie bei VGA existiert auch eine Mini-DVI-Variante für Notebooks ohne Platz für eine vollwertige Buchse.
- TV-Out
- (auch Video-Out) Der als Cinch- oder S-Video-Buchse ausgeführte TV-Ausgang (englisch TV-Out) kann mit einem Fernseher oder Projektor verbunden werden. Man kann so mit mehreren Bildschirmen (PC-Bildschirm + Fernseher) arbeiten. Allerdings ist die Signalqualität des Anschlusses meist nicht sehr hoch, da es sich um ein analoges FBAS- oder S-Video-Signal handelt und die meisten Karten nicht den nötigen Schaltungsaufwand treiben, um aus diesen Signaltypen das Bestmögliche herauszuholen. Positive Ausnahmen sind einige ältere Matrox-Karten (z. B. die G400 MAX).
- TV-In
- (auch Video-In, da es sich nicht um einen Tuner handelt) Neben einem Ausgang verfügen manche Karten (v. a. aus den frühen 2000er-Jahren) auch über einen TV-Eingang zum Digitalisieren von externen analogen Videoquellen. Wenn sie nicht Teil der Grafikkarte ist, wird diese Funktion als Framegrabber bezeichnet. Da es kaum Situationen gibt, bei denen TV-Out und TV-In gleichzeitig gebraucht werden, sowie aus Platz- und Kostengründen, sind TV-In und TV-Out oft in einer Buchse realisiert (Video-In-Video-Out). In diesem Fall ist eine gleichzeitige Nutzung als TV-In und TV-Out nicht möglich.
Dank HDMI verwenden Computer und Geräte der Unterhaltungstechnik inzwischen denselben Anschluss, weshalb sich die Notwendigkeit solcher Ausgänge erübrigt hat. HDMI-Eingänge werden über USB-Geräte oder Erweiterungskarten nachgerüstet.
Bauformen und Anwendungsgebiete
[Bearbeiten | Quelltext bearbeiten]Grundsätzlich können verschiedene Typen von Grafiklösungen unterschieden werden, die sich nach dem technischen Aufbau oder dem Anwendungsgebiet abgrenzen.
Integrierter Grafikprozessor (Onboard Grafikprozessor)
[Bearbeiten | Quelltext bearbeiten]
Bei diesen Integrated Graphics Processor, kurz IGP,[4] oder integrated Graphics Processing Unit, kurz iGPU,[5] genannten Lösungen wird die Funktionalität der Grafikkarte in den Prozessor („Prozessorgrafik“) oder in den Chipsatz der Hauptplatine („Onboard-Grafikkarte“) integriert. IGPs bieten meist alle 2D-Funktionen, aber im Vergleich zu dedizierten Grafikkarten oft nur langsame und eingeschränkte 3D-Funktionalität und werden daher vornehmlich in Bereichen mit geringeren Grafikanforderungen eingesetzt, wie z. B. in Büro-PCs. Wegen ihres niedrigen Stromverbrauchs werden sie auch häufig in Notebooks genutzt. Der niedrige Stromverbrauch ist auch ein Motiv zum Einsatz in Embedded-PCs; bei besonders kritischen Anwendungen wie beispielsweise in der Medizin kommt der Vorteil hinzu, dass die Ausfallquelle der Steckkontakte zwischen Hauptplatine und Grafikkarte entfällt. Bei integrierten Grafiklösungen wird meist auf eigenen Grafikspeicher verzichtet und stattdessen der Hauptspeicher des Rechners mitverwendet (siehe Unified Memory Architecture, Shared Memory), was sich jedoch negativ auf die Leistungsfähigkeit auswirkt.
Anbieter von IGPs:
Neueste Notebooks mit PCIe-Schnittstelle können einen austauschbaren Grafikchip besitzen (siehe Mobile PCI Express Module), was sich jedoch (noch) nicht als Standard durchgesetzt hat.
Business-Lösungen
[Bearbeiten | Quelltext bearbeiten]Das sind vollwertige Grafikkarten, bei denen wenig Augenmerk auf die 3D-Funktionen gelegt wird, sondern die vor allem ein scharfes und kontrastreiches Bild liefern sollen. Es gibt auch Varianten mit 3D-Zusatzfunktionen, vor allem für CAD-Anwendungen.
Spielegrafikkarten
[Bearbeiten | Quelltext bearbeiten]
Diese Grafikkarten gibt es in verschiedenen Preisklassen von rund 25 € bis zu 2700 €, wobei die teuren Karten das technisch Machbare im Bereich 3D-Darstellung widerspiegeln. Bei Spielekarten konkurrieren hauptsächlich AMD (AMD-Radeon-Serie) und Nvidia (GeForce-Reihe) miteinander (allerdings ist seit 2022 auch Intel mit deren Arc-Reihe an den Markt getreten), deren Chips von einer Vielzahl von Herstellern auf deren Grafikkarten verwendet werden. Daneben gibt es noch Anbieter wie S3 Graphics, Matrox (gehörte zu den Pionieren der 3D-Spielegrafikkarten, wurde aber von der mächtigen Konkurrenz in den professionellen Markt zurückgedrängt) und XGI Technology, die aber nur eine untergeordnete Rolle spielen und meist in Büro-PCs Verwendung finden.
Da die meisten Spiele für Microsofts Direct3D-Schnittstelle (ein Teil der Windows-Systemkomponente DirectX) entwickelt werden, sind Spielegrafikkarten auf Höchstleistung mit diesem System optimiert. Grafikkarten, die volle Hardwareunterstützung für die aktuelle DirectX-Version bieten, können praktisch alle technisch realisierbaren 3D-Rendering-Funktionen in Echtzeit berechnen. Manche Spielehersteller setzen aber auf OpenGL, allen voran id Software.
Seit 2006 befindet sich die Version 10 von DirectX auf dem Markt, die allerdings nur in Verbindung mit den Microsoft-Betriebssystemen Windows Vista und Windows 7 funktioniert. DirectX 10 wird seitens Nvidia von der Nvidia-GeForce-8-Serie und aufwärts unterstützt, seitens AMD von den Karten der ATI-Radeon-HD-2000-Serie und aufwärts. Karten ab der ATI-Radeon-HD-3000-Serie unterstützen sogar bereits die Nachfolgerversion DirectX 10.1, die mit dem Service Pack 1 für Windows Vista ausgeliefert wird und nur geringe Neuerungen bringt (Verwendung in nur wenigen Spielen, etwa dem Luftkampfspiel H.A.W.X. oder Bethesdas Skyrim). DirectX 10 erhöht viele Beschränkungen in der Shaderprogrammierung und soll einen geringeren Overhead als DirectX 9 aufweisen, wodurch das Ausführen von Direct3D-Befehlen schneller vonstattengehen soll. Der Nachteil ist, dass seit der Einführung von DirectX 10 nur wenige Spiele für DirectX 10 optimiert werden (prominentestes Beispiel: Crysis), da der kommerzielle Verkauf von Windows Vista erst am 30. Januar 2007 begann und die Nutzung der neuen Effekte von DirectX 10 eine enorme Rechenleistung benötigen und folglich nur auf High-End-Grafikkarten zufriedenstellend funktionieren. Viele neue Spiele unterstützen oftmals immer noch nur DirectX 9 und manchmal parallel DirectX 11, DirectX 10 hat daher nur noch eine geringe Bedeutung.
Seit Ende 2009 gibt es DirectX in Version 11. Diese Version wird bei den Karten von ATI (bzw. AMD) ab der „HD5000“-Reihe und ab der „GTX-400“-Serie von Nvidia unterstützt. Der Start von DirectX 11 lief besser als der von DirectX 10, da es bei Einführung von Windows 7 und damit DirectX 11 bereits ein Spiel mit DirectX 11 gab (BattleForge) und weitere schnell folgten. Die Spiele unterstützen jedoch alle noch DirectX 9, was sie auch auf Windows XP lauffähig macht.
Neben Direct3D gibt es als weiteres Grafik-API OpenGL in der aktuellen Version 4.2, das mit einem etwas größeren Funktionsumfang als Direct3D 11 aufwartet.
Im Jahr 2013 stellte AMD zudem die API AMD Mantle vor, die bislang nur mit AMD-Grafikkarten ab der AMD-Radeon-HD-7000-Serie verwendet werden kann. Mantle bietet sowohl eine bessere Leistungsausnutzung bei Mehrkernprozessoren als auch einen geringeren Entwicklungsaufwand als Direct3D. Die Unterstützung für Mantle beschränkt sich derzeit noch auf wenige Spiele. Die Frostbite-3-Engine unterstützt Mantle voll, somit sind Spiele wie Battlefield 4, Dragon Age: Inquisition oder Star Wars: Battlefront mit Mantle spielbar. In Zukunft ist eine Unterstützung von Nvidia-Grafikkarten und Linux-Betriebssystemen durchaus denkbar, aber noch nicht von AMD angekündigt.
2016 erschien vom OpenGL-Entwickler Khronos Group die API Vulkan, die OpenGL ablösen soll.
Stand der Technik
[Bearbeiten | Quelltext bearbeiten]

Die aktuell leistungsstärkste Grafikkarte stellt mit Stand 2025 Nvidia mit der GeForce RTX 5090 auf Basis des in TSMC 4NP gefertigten GB202 der Blackwell-Architektur.[6] Mit der RTX-3000-Reihe erschien eine Nvidia-Quadro-RTX-Grafikkarte, die auf der Ampere-Architektur basiert und mit 48 GiB Grafikspeicher aufwartet. 2021 ist das für professionelle Anwender ausgerichtete Modell erschienen.[7]
Auf der CES 2019 hat AMD die Radeon VII vorgestellt, sie besitzt 16 GiB HBM-2-Speicher und erschien am 7. Februar 2019.[8]
Nvidias Mittelklassemodelle sind zurzeit (Stand: Q3 2024) die GeForce RTX 4060 und RTX 4060 Ti (beide mit 8 GiB GDDR6-Grafikspeicher; es gibt jedoch auch eine 16-GB-Version der RTX 4060 Ti), sowie die RTX 4070 (Super) und RTX 4070 Ti (Super) (beide mit 12 GiB GDDR6X-Grafikspeicher).
AMDs aktuelle Mittelklassemodelle sind die Radeon RX 7600 (mit 8 GiB GDDR6-Grafikspeicher), RX 7700 XT (mit 12 GiB GDDR6-Grafikspeicher), sowie die RX 7800 XT (mit 16 GiB GDDR6-Grafikspeicher).
Professionelle Lösungen
[Bearbeiten | Quelltext bearbeiten]

Das sind vor allem Grafikkarten für CAD- und GIS-Anwendungen. Die Karten bieten spezielle für CAD/GIS notwendige Funktionen, die auf „normalen“ Grafikkarten nur emuliert und dadurch sehr viel langsamer genutzt werden können. Seit der letzte Spezialchip-Anbieter 3DLabs 2006 das Geschäft eingestellt hat, bieten nur noch AMD und Nvidia Lösungen für das OpenGL-Workstation-Segment an. Die beiden Firmen nutzen dabei Derivate ihrer Spielegrafikkarten-Chips. Diese werden dann mit einem modifizierten ROM und Treiber auf die 2D-Darstellung von OpenGL und nicht mehr auf die 3D-Darstellung von DirectX und OpenGL optimiert. Dabei unterstützen die Treiber dieser Grafikkarten das Zeichnen mehrerer Millionen geglätteter Linien und User-Clip-Planes.[9] Obwohl sich die Hardware zwischen Spiele-3D-Chips und OpenGL-Chips nur minimal unterscheidet, kosten Profi-Karten erheblich mehr. Grund dafür ist das Optimieren der Treiber, der umfangreiche Kundendienst, der Workstation-Kunden geboten werden muss, und das sehr teure SRAM, mit dem manche Grafikkarten ausgestattet sind. Weiterhin sind oft zusätzliche Fähigkeiten vorhanden wie DisplayPort-Anschlüsse zur Nutzung eines höheren Farbumfangs oder die Projektion einer großen Fläche mit mehreren Bildquellen. Die Produktlinien heißen bei AMD FirePro (bzw. ehemals FireGL unter dem Markennamen ATI) und bei Nvidia RTX (bzw. zuvor Quadro) aber ohne der Bezeichnung GeForce.
Sonstiges
[Bearbeiten | Quelltext bearbeiten]Außer den oben beschriebenen DirectX-Grafikkarten gibt es spezielle Karten, die nur OpenGL unterstützen. Diese werden häufig im Animationsbereich eingesetzt und sind heute für Spieler völlig uninteressant, da die meisten PC-Spiele nur noch DirectX unterstützen (anders jedoch auf der Macintosh-Plattform). Standardmäßig beherrscht jede heutige DirectX-Grafikkarte auch OpenGL, umgekehrt ist das jedoch nicht der Fall.
Seit den Anfängen der programmierbaren Grafikpipeline im Jahr 2000 besteht die Möglichkeit, die Rechenleistung der Grafikprozessoren zur Berechnung von parallelisierbaren Rechenoperationen, wie sie z. B. bei technischen und wirtschaftlichen Simulationen, beim Schürfen von Kryptowährungen und bei Künstlichen neuronalen Netzen vorkommen, zu nutzen. Diese Anwendung wird als GPGPU (General Purpose Computation on Graphics Processing Unit) bezeichnet, siehe auch bei CUDA.
Software-Grafikschnittstellen
[Bearbeiten | Quelltext bearbeiten]Um Grafikkarten benutzen zu können, ohne Hardware und Software für jede einzeln zu entwickeln, existieren verschiedene Software-Grafikschnittstellen.
Vor allem auf grundlegender Funktionsebene interessant ist das Video-BIOS, das wichtige Text- und Grafikausgabefunktionen im Rahmen der Systemfirmware („BIOS“) bereitstellt, die u. a. von Textkonsolen unter DOS oder Linux genutzt werden. Diese Funktionen sind relativ langsam, funktionieren aber zuverlässig auf jeder Grafikkarte.
In den meisten heutigen Betriebssystemen liegt eine Abstraktionsschicht zwischen Programmen und Hardware, die sogenannten Gerätetreiber. Ohne diese müssten Programme die Hardware direkt ansprechen, was aber aufgrund der Unterschiede zwischen Grafikkarten zu einer hohen Spezialisierung und damit hohem Programmieraufwand für die Unterstützung vieler Grafikkarten führen würde. Da aber Grafikkartentreiber ebenfalls sehr unterschiedliche Funktionen anbieten können, wurden im Laufe der Zeit verschiedene Grafik-APIs entwickelt, die den Zugang zu diesen Funktionen erleichtern sollen. Die bekanntesten darunter sind OpenGL, DirectX (genauer: DirectDraw, Direct3D) und Quartz, die es dem Programmierer ermöglichen, einfach und unabhängig von der Grafikkarte 2D- und 3D-Grafik anzuzeigen. Für DirectX und Quartz setzen die Schnittstellen nicht unbedingt Hardware-3D-Funktionen der Grafikkarte voraus, nutzen diese aber, falls sie vorhanden sind. Ältere 3D-Anwendungen können im Prinzip auch auf Computern mit integrierter Grafik oder einer einfachen 3D-Karte laufen, jedoch relativ langsam oder optisch weniger ansprechend.
Für das Betriebssystem EComStation wurde der universelle Panorama-Treiber[10] entwickelt, der alle gängigen Grafikkarten bedient.
Softwareprobleme mit Grafikkarten
[Bearbeiten | Quelltext bearbeiten]Da viele Grafikkarten heutzutage das flüssige Anschauen von Videos mittels des Rechners durch Hardwarebeschleunigung erlauben und ebenfalls viele Grafikkarten einen TV-Out-Anschluss haben, ist es naheliegend, den Rechner an einen Fernseher oder einen Videorekorder anzuschließen. Jedoch unterbinden es einige Hersteller durch den Grafikkartentreiber oder die Grafikkarte selbst, beide Fähigkeiten miteinander zu verbinden. So kommt es vor, dass beim Abspielen von Videos zwar die gesamte Benutzeroberfläche sichtbar ist, das Video selbst jedoch nicht. Unter Linux funktioniert dann beispielsweise die XVideo-Implementation nur bei der primären Anzeige (also dem Computer-Monitor), nicht jedoch beim TV-Out-Anschluss. Dieses Problem kann man meist umgehen, indem man die Hardwarebeschleunigung für das Dekodieren von Videos ausschaltet, jedoch ist das Video dann oft nicht mehr flüssig.
Es wird vermutet, dass solche Beschränkungen eingebaut werden, um den Nutzer an der Aufzeichnung des Videos durch einen Videorekorder zu hindern. Jedenfalls ist in einigen mitgelieferten Handbüchern nachzulesen, dass Produkte von Macrovision (einer Firma, die für ein Kopierschutzverfahren bekannt ist) in die Grafikkarte integriert wurden.
Ein konkreter Fall war der fglrx-Treiber von AMD, der nicht das hardwareunterstützte Abspielen von Videos am TV-Ausgang unterstützte.
Ein weiteres Problem war und ist die Verwendung mehrerer VGA-kompatibler Grafikkarten, wie es in PCI-Systemen der Fall sein kann. Dabei unterstützt das Betriebssystem nicht jede freie Kombination, nicht einmal von Grafikkarten desselben Herstellers. Durch eine Aktualisierung des ROMs auf der Karte kann hier jedoch manchmal Abhilfe geschaffen werden.
Hersteller
[Bearbeiten | Quelltext bearbeiten]
Heute sind nur noch AMD, Nvidia, Matrox, Intel und S3 Graphics als Grafikchiphersteller auf dem Markt, sowie AMD, Intel, Nvidia, SiS und VIA Technologies als Hersteller von integrierten Grafiklösungen.
Ehemalige Hersteller von Grafikchips: 3dfx, 3DLabs, Alliance Semiconductor, ARK Logic, ArtX, Avance Logic, Bitboys Oy, Chips & Technologies, Cirrus Logic, NeoMagic, Number Nine, Oak Technology, Rendition, S3 Inc., Trident, Tseng Labs, Western Digital, XGI.
Ehemalige Hersteller von Grafikkarten: Abit, Albatron, AOpen, Asus, ATI Technologies, AXLE3D, Club 3D, Connect3D, Creative Labs/3DLabs, DFI, Diamond Multimedia, ELSA Technology, EVGA, Elitegroup, Gainward, Galaxy Microsystems Ltd., KFA2, GeCube, Genoa, Gigabyte, Hercules Graphics, HIS, Inno3D, Leadtek, MSI, miro, Number Nine, Orchid Technologies, Palit Microsystems Ltd., Paradise Systems, PixelView, PNY, PowerColor, Quantum3D, Sapphire, Sigma, Sparkle, SPEA, STB Systems, TerraTec, VideoLogic, Video Seven, XFX, XpertVision, Zotac. Hersteller mit Schwerpunkt Apple waren noch RasterOps, SuperMac, Radius, Focus Development.
Siehe auch
[Bearbeiten | Quelltext bearbeiten]Weblinks
[Bearbeiten | Quelltext bearbeiten]- Jens Dünow: Pixelkunst. Heise Verlag, 15. Januar 1999, abgerufen am 22. Januar 2017 (Erklärung wie eine 3D-Grafikkarte funktioniert).
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ Michael Halvorson, David Rygmyr: Arbeiten mit MS-DOS QBasic: Das optimale Benutzerhandbuch von Microsoft für das neue MS-DOS BASIC. Friedrich Vieweg & Sohn, 1991, ISBN 978-3-528-05164-8, 11. Mit Grafiken und Tönen arbeiten, S. 340, Video-Adapter (eingeschränkte Vorschau in der Google-Buchsuche – englisch: Running MS-DOS QBasic. Übersetzt von Theresia Sader, Siegfried Sader).
- ↑ Archivierte Kopie ( des vom 1. Juli 2011 im Internet Archive) Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.
- ↑ https://www.primeline-solutions.com/de/news-und-presse/nvidia-h100-das-neue-flaggschiff-fuer-enterprise-gpu-computing/
- ↑ Benjamin Kraft: GPUs für Büro-PC und Workstation. In: c’t. PC-Selbstbau 2019. Heise-Verlag, 2019, S. 104 (eingeschränkte Vorschau in der Google-Buchsuche): „Die einfache integrierte Prozessorgrafik ist besser als ihr Ruf: […] Bei Workstations gelten andere Anforderungen, die erst dedizierte Grafikkarten erfüllen.“
- ↑ Jonas Nann: Computer verstehen und selber bauen: Rekenaar Company. Books on Demand, 2016, S. 23 (eingeschränkte Vorschau in der Google-Buchsuche): „Die integrierte Grafikeinheit – integrated Graphics Processing Unit (iGPU)“
- ↑ GPU-Spezifikation der NVIDIA GeForce RTX 5090. In: techpowerup.com. Abgerufen am 21. März 2025.
- ↑ NVIDIA's Ampere-based Quadro RTX Graphics Card Pictured. In: techpowerup.com. 23. September 2020, abgerufen am 18. Dezember 2020.
- ↑ Kevin Lee: AMD Radeon VII release date, news and features. techradar, 30. Januar 2019, abgerufen am 5. Februar 2019 (englisch).
- ↑ c't 2009/2, S. 126, Bauarbeiter – Grafikkarten für professionelle CAD- und 3D-Anwendungen
- ↑ david@88watts.net: Panorama package for eComStation version 1.04. In: ecomstation.com. 14. Januar 2013, abgerufen am 18. November 2023 (englisch).