Grafikkarten: Rechenpower von AMD oder Nvidia

  • Gefiltert nach:
  • Grafikkarten allgemein
  • Alle Filter aufheben

Nvidia-Referenzgrafikkarte Nvidia und AMD produzieren Referenzmodelle, die den Drittherstellern als Grundlage dienen (Bildquelle: nvidia.com)

Wie werden Grafikkarten von Fachmagazinen getestet?

Das A und O bei Grafikkarten ist die Leistung. Deshalb ist das Herz eines jeden Grafikkartentests der Benchmark-Test mit eigens dafür entwickelten Softwaretools sowie Leistungsmessungen in der Praxis anhand von anspruchsvollen 3D-Spielen. Die gute Messbarkeit der Leistung einer Grafikkarte lädt Tester zu Vergleichstests ein. Insbesondere der Vergleich von verschiedenen Varianten einer Referenzgrafikkarte ist beliebt. Auch ein Vergleich zwischen den zwei Lagern (AMD/Nvidia) innerhalb derselben Preisklasse ist ein beliebtes Thema. So wurde bei einem Test der PC Games Hardware zum Beispiel das Testfeld in Preisklassen unterteilt.

Eine gute Grafikkarte sollte also viel Leistung fürs Geld liefern. Doch auch andere Faktoren werden in den Vergleichstests von Zeitschriften wie PC Games Hardware, c't oder Computer Bild zur Bewertung herangezogen: Auch unter hoher Last sollte das Kühlsystem die Temperaturen auf einem sicheren Level halten. Die verbauten Lüfter sollten zudem möglichst leise ihren Dienst verrichten. Auch der Stromverbrauch spielt eine Rolle, wenn auch eine untergeordnete. Hinzu kommen weitere Nebensächlichkeiten wie die Qualität der mitgelieferten Software und die Verarbeitung des Geräts.

Warum gibt es nur Grafikchips von AMD und Nvidia?

Der Grafikkartenmarkt funktioniert etwas anders als gewöhnlich. Die beiden Hersteller AMD und Nvidia entwickeln stets neue Grafikchips und dazu passende Referenzgrafikkarten. Die Dritthersteller wie Gigabyte, Asus und Zotac bauen auf Basis dieser Referenzgrafikkarten eigene Modelle. Modifikationen bestehen in der Regel aus neuen Kühlern, angepassten Bauformen und Anpassungen bei den Taktraten und Spannungswerten. Die Referenzkarten von AMD und Nvidia sind meist nicht frei im Handel erhältlich.

Vergleichen lohnt sich: Nvidia-Grafikkarte oder AMD-Grafikkarte?

Die Grafikkarte gehört mit zu den Statussymbolen der PC-Enthusiasten und PC-Gamer, die letztendlich für ein High-End-Produkt dieser Hardware-Kategorie viel Geld ausgeben können. Ob Sie sich generell für eine Nvidia- oder AMD-Grafikkarte entscheiden sollten, hängt von den PC-Games ab, die in ihrer Programmierung den einen oder anderen Hersteller besser unterstützen. Unterm Strich nehmen sich die beiden Produktgruppen nicht viel, wobei allerdings Nvidia mit den GTX-Grafikkarten in den letzten Jahren deutlich populärer ist als AMD mit ihren Radeon-Produkten.

AMDs GPUs sind vor allem interessant, wenn Sie auf der Suche nach einer Grafikkarte mit gutem Preis-Leistungs-Verhältnis sind. Im Mittelpreisbereich bis ca. 350 Euro bietet AMD in der Regel rasant rechnende Pixelbeschleuniger mit reichlich Speicher. Im Gegenzug hinken AMDs Grafikkarten bereits seit einigen Jahren bei der Energieeffizienz und Emissionswerten hinterher: Bei einem Vergleich ähnlich schneller Grafikkarten von Nvidia und AMD sind erstere oft deutlich genügsamer und leiser. Wenn Sie einen Monitor benutzen, der AMD FreeSync unterstützt, sollten Sie auch eine passende AMD-Grafikkarte nutzen. Der Effekt von FreeSync sorgt für einen besonders ruhigen Bildlauf, selbst wenn die Bildraten nicht stabil sind. Zudem wird unschönes Tearing (Bildreißen) komplett eliminiert.

Vorteile von AMD-Grafikkarten:

  • gutes Preis-Leistungs-Verhältnis im Mittelpreissegment
  • hochwertiger und schneller Grafikspeicher
  • ermöglichen Nutzung von AMD FreeSync

Nachteile von AMD-Grafikkarten:

  • höherer Energiebedarf als bei Nvidia
  • oftmals laut und unter Last recht heiß
  • weniger Optionen im Highend-Preisbereich
In der Ober- und Premiumklasse sind Nvidias Grafikkarten oftmals besser aufgestellt, was sich der Hersteller aber auch gut bezahlen lässt. Wenn Sie in besonders hohen Auflösungen spielen wollen oder in topaktuellen Games auf hohe Bildraten und Detailstufen bestehen, bietet Nvidia viele überzeugende Produkte. Hinzu kommt, dass der Software-Support von Nvidia hervorragend ausfällt: Zu fast jedem neuen Toptitel erscheint pünktlich ein passender neuer Treiber mit Optimierungen und Anpassungen für einen Leistungsschub. Auch Nvidia bietet einen Bildsynchronisationstechnik an. Sie nennt sich G-Sync und ist bei Monitoren mit einem deftigen Aufpreis gegenüber gleichwertigen Displays mit AMDs FreeSync verbunden. G-Sync greift schon bei niedrigeren Bildraten als FreeSync und wird generell als überlegen betrachtet. Ein G-Sync-Monitor funktioniert nur mit Nvidia-GPUs.

Vorteile von Nvidia-Grafikkarten

  • gute Energieeffizienz
  • vorbildlicher Treibersupport
  • viele Oberklasse- und Highend-Modelle

Nachteile von Nvidia-Grafikkarten

  • hohes Preisniveau
  • Bildsynchronisation nur mit teuren G-Sync-Monitoren
Die besten Grafikkarten mit viel Speicher

Platz Produktname Testberichte.de Note
1 Sapphire Radeon VII
2 Nvidia Titan Xp Collector's Edition Gut(1,6)
3 Zotac Gaming GeForce RTX 2080 Ti AMP Extreme Sehr gut(1,0)

Für wen sind Oberklasse-Grafikkarten gedacht?

240 Hz Monitor AOC Agon AG251FG Monitore mit hoher Bildwiederholrate benötigen viel GPU-Power (Bildquelle: amazon.de)

Auch wenn Mittelklasse-Grafikkarten bei den Käufern weitaus populärer sind, nehmen Testmagazine viel lieber Oberklassemodelle oder gar Vertreter der Premiumklasse ab ca. 800 Euro unter die Lupe. Diese besonders leistungsstarken Modelle sind aber für normales Spielen oftmals überqualifiziert. Wenn Sie noch, wie der Großteil aller PC-Nutzer, einen Full-HD-Monitor mit 60 Hz benutzen, ziehen Sie, wenn überhaupt, nur geringfügigen Nutzen aus der teils massiven Mehrinvestition. Die zusätzlichen Leistungsreserven von Oberklassekarten kommen erst zur Geltung, wenn Sie in höheren Auflösungen wie QHD oder UHD/4K spielen oder einen Monitor haben, der 120 Hz oder mehr darstellen kann. Eine Steigerung der Bildrate von 60 auf 120 Bilder pro Sekunde fordert viel Rechenkraft, während eine Erhöhung der Auflösung sowohl den Chip als auch den Grafikspeicher massiv belasten können.

Letztendlich sollten Sie die Wahl der Grafikkarte also von ihrem Monitor abhängig machen. Hinzu kommt, dass die Spieleleistung eines PC-Systems nicht nur von der Grafikkarte abhängig ist. Wenn der Prozessor ausgelastet ist, wird das Leistungspotenzial der Grafikkarte oftmals nicht ausgeschöpft. Ruckler und Stabilitätsprobleme entstehen auch, wenn im Rechner zu wenig Arbeitsspeicher vorhanden ist. Alle Komponenten sollten also auf Zack sein, wenn Sie unbesorgt spielen wollen. Wenn Ihr Prozessor bereits einige Jahre auf dem Buckel hat, ist der Kauf einer neuen Grafikkarte vermutlich nicht das Heilmittel für alle Performanceprobleme.

Welche Schnittstelle benutzen Grafikkarten?

Auf modernen Mainboards finden Sie für die Grafikkarten in erster Linie PCI-Express 3.0 Slots vor, die durch ihre hohe Datentransferleistung den älteren AGPs und PCIs stark überlegen sind. So kommt eine 3.0-Schnittstelle auf eine Netto-Bandbreite von 16 GByte/s je Richtung und bewältigt Taktraten von bis zu 4 GHz. Nimmt man AGP als Vergleich, kommt man auf maximale 2,1 GByte/s. Hinzu kommt bei den Express-Schnittstellen die Möglichkeit, zwei oder noch mehr Grafikkarten zu einem Verbund zusammenzuschließen. Bei Nvidia nennt man das SLI und bei AMD lautet das Synonym CrossFire, wodurch bei zwei Grafikkarten eine theoretische Performance-Steigerung von rund 50 Prozent möglich ist, die aber in der Praxis mangels Softwaresupport selten erreicht wird.

Für wen sind Workstation-Grafikkarten interessant?

AMD Radeon Pro WX 4100 Workstation-Grafikkarten richten sich an professionelle Anwender. (Bildquelle: amazon.de)

Der Großteil der frei erhältlichen Grafikkarten sind fürs PC-Gaming gedacht. Doch eine Grafikkarte ist auch bei anderen Anwendungsfällen wichtig: Professionelles 3D-Modelling, einige Renderprozesse und CAD-Anwendungen greifen auf die enorme Rechenleistung von Grafikbeschleunigern zurück. Komplexe Rechenoperationen erledigen Grafikkarten oftmals sogar noch weitaus effizienter als Prozessoren, weshalb es beim Boom der Cryptowährungen Bitcoin und Co. eine massive Nachfrage nach Grafikkarten gab. Nvidia und AMD bieten für professionelle Anwender eigene Serien: Nvidia Quadro und AMD Firepro. Diese Karten sind technisch auf die Bedürfnisse von Profi-Anwendern zugeschnitten und arbeiten in den entsprechenden Programmen deutlich besser. Für Spiele sind diese Sondermodelle allerdings nur eingeschränkt tauglich.

Wie viel Strom benötigen moderne Grafikkarten?

Da leistungsfähige Grafikkarten bis zu 300 Watt unter Volllast verbrauchen, sollten Sie unbedingt für ein gutes Netzteil sorgen. Die meisten Grafikkarten müssen zusätzlich über ein separates Kabel direkt vom Netzteil gespeist werden. Die reine Wattzahl des Netzteils genügt aber nicht, um eindeutig zu sagen, wie viel Strom das Gerät stabil liefern kann. Ein guter zweiter Anhaltspunkt ist die Effizienzklasse, die in Form von "80 Plus Gold" und Co. auf der Verpackung und dem Netzteil selber vermerkt ist. Der Strombedarf ist bei den Grafikkarten in den letzten Jahren relativ konstant geblieben. Damals wie früher gilt: Für Mittel- bis Oberklassegrafikkarten genügt ein gutes 500-Watt-Netzteil.

Autor: Gregor L.