Nvidia GeForce

Serie von Desktop-Grafikprozessoren von Nvidia
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 13. März 2006 um 18:32 Uhr durch 172.208.184.133 (Diskussion). Sie kann sich erheblich von der aktuellen Version unterscheiden.

GeForce (das Wort ist eine Anspielung an den engl. Begriff g force / gee force; dt. Erdbeschleunigung) ist ein Markenname für Desktop-Grafikkarten der Firma nVidia.

Datei:Leadtech GeForce 6800GT.JPG
GeForce 6800 GT von Leadtek im AGP-Port

Neben dem Modellen für den Desktop-Einsatz gibt es auch GeForce Karten für den Notebook-Bereich (GeForce Go) und auch Modelle für Mobiltelefone. Professionelle Grafikkarten von nVidia werden unter dem Namen Quadro vertrieben.

Die GeForce-Grafikkarten konkurrieren mit der Radeon-Serie der Firma ATI.

Geschichte

Mit der GeForce-Serie von der ersten bis zur vierten Generation konnte NVIDIA die Performance-Führerschaft behalten und sich gegen Konkurrenten wie 3dfx, Matrox und zuletzt vor allem ATI durchsetzen. Die mit FX 5xxx bezeichnete fünfte Generation hatte allerdings von Anfang an Schwierigkeiten und erreichte nie wirklich die Leistung der Radeon-Karten von Mitbewerber ATI. Der erste Vertreter der sechsten Generation, die GeForce 6800 Ultra mit dem neu entwickelten NV40-Chip, hat sich indes bei ersten Tests als deutlich leistungsfähiger als alle bisherigen Chips erwiesen, wurde jedoch wenige Tage später von ATIs Konkurrenzprodukt R420 wieder knapp von der Leistungsspitze verdrängt. Die beiden Karten sind sich in der Leistung in etwa ebenbürtig und unterscheiden sich eigentlich nur in den verwendeten Techniken, ATIs später nachgelegter Refresh-Chip R480 konnte allerdings später die Performancekrone an sich reißen.

Die GeForce-FX-5 Reihe verwendet das Shader Model 2.0a, während die vorherigen Modelle lediglich 1.3 unterstützen. Seit der GeForce-6-Reihe setzt NVIDIA auf das Shader Model 3.0, welches als erstes Spiel von Far Cry unterstützt wurde. Hauptkonkurrent ATI konnte erst im Herbst 2005 mit der Radeon-X1-Generation ein entsprechendes Konkurrenzprodukt mit Unterstützung für das Shader Model 3.0 nachlegen. Ebenfalls seit der GeForce-6-Serie bietet NVIDIA die Möglichkeit, Grafikkarten mithilfe der Scalable Link Interface-Technologie, kurz SLI, zusammenarbeiten zu lassen. Dabei teilen sich zwei identische Grafikkarten den Berechnungsaufwand, was zu Leistungssteigerungen von maximal 80% gegenüber einer einzelnen Karte führt.

Die Performancekrone wird bei Spielen zum jetzigen Zeitpunkt (Februar 2006) nicht NVIDIAs Spitzenmodell, dem am 22. Juni 2005 vorgestellen GeForce 7800 GTX (Codename G70) zuteil. Seit 24. Januar 2006 hat ATI mit der X1900 XTX leisungsmäßig die Nase vorn. Für Mitte 2006 ist ein "Quasi-Nachfolger" der GeForce 7800 GTX geplant, von dem bisher nur der Codename G80 bekannt ist. Bis dahin wird es noch einen Refresh des G70 Chips geben der unter dem Codenamen G71 läuft und in 90nm Fertigung hergestellt wird.

Die Quadro-Grafikkarten sind Profiversionen der GeForce-Reihe, d.h. für CAD-Anwendungen u.Ä. entworfen. Obwohl sich in der Hardware kaum Unterschiede zu den GeForce-Modellen zeigen, sind für entsprechende Grafikkarten höhere Preise wegen Validierung, Treibersupport für verschiedene Applikationen (AutoCAD etc.) fällig. Im Internet finden sich jedoch oft auch Anleitungen, wie man durch Manipulationen am Grafikkarten-BIOS normale GeForce-Grafikkarten in Quadro-Modelle umwandeln kann.

Als Grafiklösung für Notebooks wird von NVIDIA die GeForce-Go-Linie lanciert, die sich gegenüber den Desktop-Varianten durch geringere Wärmeentwicklung und Stromspar-Features auszeichnet. Außerdem entwickelte NVIDIA dafür die MXM-Schnittstelle für den Grafikkarten-Steckplatz, mit dem sich Notebook-Grafikkarten unterschiedlicher Hersteller einfach austauschen lassen. Dieser Steckplatz setzt sich mehr und mehr als Standard durch, der schon von vielen "kleinen" Grafikkarten-Herstellern, und inzwischen auch vom größten NVIDIA-Konkurrenten ATI, verwendet wird.

Zusatzbezeichnungen für GeForce-Grafikchips:

  • LE, XT - meist das schwächste Modell einer Serie, herabgesetzte Taktrate und/oder gesperrte Pipelines
  • GS Budget Version von leistungsfähigeren Chip
  • kein Suffix oder "non Ultra" - der "normale" Chip
  • MX - beim GeForce-2-Chipsatz die Mainstream-Modelle, bei der GeForce-4-Serie die schwächere Teilserie (abgeleitet von GeForce2-MX-Technologie.)
  • Ti, GT, GTX, GTS - leistungsfähigerer Chip, teilweise auch von Haus aus übertakteter normaler Chip, Ti ist bei der GeForce-4-Serie die stärkere Teilserie
  • Ultra - von Haus aus höher getakteter GT-Chip, sollte aus Marketinggründen ursprünglich mit der GeForce-6000-Serie auslaufen, spätestens jedoch mit der GeForce-7000-Serie

Treibersupport

Die Treiber für NVIDIA-Grafikchips werden laufend weiterentwickelt und erscheinen in unregelmäßigen Abständen. Seit einigen Jahren werden neben den Treibern für Macintosh und Windows auch Treiber für Linux und FreeBSD hergestellt, mittlerweile aber auch für Solaris. Die Grafiktreiber hatten bis zur Version 4x.xx die Bezeichnung "Detonator". Ab der Versionsnummer 5x.xx, wird er von NVIDIA als "ForceWare" bezeichnet. Inzwischen gibt es die Versionen 8x.xx. Die meisten Treiber werden auch WHQL zertifiziert. Bei Linux-Usern haben die NVIDIA-Grafiktreiber einen guten Ruf, Erzrivale ATI hat auf diesem Gebiet in letzter Zeit aber nachgebessert.

Auch unter ZETA werden mittlerweile alle bekannten GeForce-Karten unterstützt. Die Treiber werden im Haiku-Projekt ständig weiterentwickelt. Für alle GeForce-Karten bis NV18 ist mittlerweile auch HW-OGL implementiert.

Kritik

Durch aggressives Marketing für den Grafikchip „Riva-TNT“ (Codename NV4) erlangte NVIDIA die Aufmerksamkeit der Presse, vor allem das neue 32-Bit-Rendering wurde beworben. Mit der Riva TNT2 konnte die Leistung weiter gesteigert werden, zwei Voodoo 2 Karten im SLI Modus erzielten jedoch im 16-Bit-Modus höhere Leistungswerte (bei geringerer Grafikqualität).

Der Marketing-Hype um die mit der GeForce 256 eingeführte T&L-Technik spaltete die 3D-Grafikkarten-Enthusiasten in zwei Lager. Die einen sahen in der Geometriebeschleunigung eine wichtige Innovation, die anderen hielten dies für weniger wichtig. Es gelang NVIDIA jedoch, die Fachpresse von T&L zu überzeugen, obwohl nennenswerte Software mit T&L-Unterstützung zu Lebzeiten der GeForce 256 nicht verfügbar wurde und damit der Nutzen von T&L für die GeForce-256 Käufer im nachhinein fragwürdig erscheint. Die Software-Unterstützung läuft den Fähigkeiten von 3D-Grafikbeschleunigern häufig hinterher, T&L war nur ein vieldiskutierter Anfang dieser Entwicklung.

NVIDIA machte auch immer wieder mit Benchmark-Cheats von sich reden. Hierbei handelt es sich um „Optimierungen“ im Treiber, welche die Ergebnisse von Benchmarks mit unsauberen Methoden steigern. Zwar haben sich alle größeren Grafikchip-Hersteller im Laufe ihrer Firmengeschichten dessen mehrfach schuldig gemacht, allerdings werden die von NVIDIA verwendeten Cheats von einigen Kritikern als besonders dreist, bzw. häufig angewendet betrachtet. Eine objektive Aussage kann hierüber nur schwer getroffen werden, da Experten davon ausgehen, dass kaum alle Cheats entdeckt werden – es ist jedoch ebenso denkbar, dass die Konkurrenz ihre Cheats lediglich besser verstecken kann.

Seit der Treiberversion 77.xx ist im Treiber eine MD5-Hashüberprüfung integriert, die überprüfen soll, ob es sich bei der Applikation, welche gestartet werden soll (in aller Regel ein Spiel), um Originalsoftware handelt oder ob sie "gecrackt" wurde. Dies stieß in vielen Foren und Newsgroup auf heftige Kritik. Dieses Vorgehen wurde,wie viele andere Maßnahmen des Digital Rights Management auch, von vielen Teilnehmern als Entmündigung der User bezeichnet.

Grafikprozessoren

 
NV20 einer GeForce 3 Ti200
 
NV18 (GeForce MX 440-SE)
 
NV43GT für PCIe-Grafikkarten

Die Grafikprozessoren (GPUs) der GeForce-Produkte haben eine Kennung der Form NVxx bzw Gxx / Cxx. Die Nummerierung entspricht einem Einfachen Schema: Volle 10er-Stellen sind stehts das erste Produkt einer Serie/Produktfamilie und meistens auch deren Flaggschiff. Bei Prozessoren mit höheren Nummern ist also nicht notwendigerweise Grafikleistung verbessert so ist der NV20 (GeForce 3 Titanium 200/500) in vielen bereichen schneller als der NV34-Chipsatz welcher in den GeForce FX 5200 Verwendung findet.

  • GeForce
    • NV10 GeForce 256 (2000)
    • NV15 GeForce 2 (GTS/Ultra/Pro/Ti) (2000)
    • NV17/18 GeForce 4 (MX420/440/460/480)
    • NV11 GeForce 2 MX (200/400)
    • NV20 GeForce 3 (Ti200/500) (2001)
    • NV25 GeForce 4 (Ti4200/4400/4600/4200-8x/4800SE/4800) (2002)
    • NV30 GeForce FX 5800 (Ultra) (2003)
    • NV31 GeForce FX 5600 (Ultra)
    • NV33 GeForce FX 5500 (Ultra)
    • NV34 GeForce FX 5200 (Ultra)
    • NV35 GeForce FX 5900 (Ultra) (2004)
    • NV36 GeForce FX 5700 (Ultra)
    • NV38 GeForce FX 5950 (Ultra)
    • NV40 GeForce 6800 (LE/GT/Ultra) (2004)
    • NV43 GeForce 6600 (GT/GT-AGP) (2004)
    • NV41 GeForce 6800 PCIe
    • NV42 GeForce 6800 PCIe (110nm Fertigung)
    • NV44 GeForce 6200 Turbocache
    • NV44A GeForce 6200 AGP
    • NV45 GeForce 6800 (LE/GT/Ultra PCIe)
    • G72 GeForce 7300 GS/LE
    • G73 GeForce 7600 GT/GS
    • G70 GeForce 7800 GT/GTX (2005)
    • G70 GeForce 7800 (XT AGP/GS AGP/GS PCIe mit 512 MB) (2006)
    • G71 GeForce 7900 GT/GTX (2006)
    • C51 GeForce 6100, 6150