Mit der Veröffentlichung der neuesten AMD-Grafikkarten scheint sich die aktuellste Generation der Grafikkarten ihrem Ende zuzuneigen. Sicherlich werden in den kommenden Monaten und auch 2024 noch einige Varianten bereits bestehender Modelle den Markt fluten, im Großen und Ganzen haben Nvidia wie auch AMD aber den Großteil ihrer Produkte nun veröffentlicht … und wir bei TechRadar hatten sogar das große Privileg einen Großteil hiervon zu testen!
Dabei haben wir weder Kosten noch Mühen gescheut, um dir nach unzähligen Stunden voller Tests, Überprüfungen, Vergleiche und Co. die besten Grafikkarten der aktuellen Generation zu präsentieren – und auch einige hiervon noch immer weiter munter in unseren Systemen zum Einsatz zu bringen.
Wir haben verglichen, wie viele Prozentpunkte Karte XY indessen ihrem jeweiligen Pendant von Team Grün oder Rot derweil über- oder gar unterlegen sein mag, haben Dutzenden technische Datenblätter durchgewälzt und zahlreiche Benchmarks durchgeführt. Ein nerviges Prozedere, aber für gewohnt eines, wo man immer wieder mit spannenden Ergebnissen überrascht wird. Hat eben alles so sein Vor- wie auch Nachteile …
Doch gerade in Anbetracht dieser Fülle an Tests ist sich unser Team bei einer Sache wohl absolut sicher: Mit dieser Grafikkarten Generation stimmt irgendwas nicht … denn irgendwie war sie dann doch ziemlich bescheiden.
Den Anfang machten wir einst mit der Nvidia GeForce RTX 4090, die wohl zweifelsohne bis heute zu den besten Karten für Verbraucher auf diesem Planeten zählt – zumindest wenn es allein um die Leistung ginge. Es gibt wohl kaum etwas, was diese Karte nicht kann, außer vielleicht sparsam sein …
Nvidia scheint sich angesichts der wiedererstarkten Konkurrenz von AMD nämlich eine Scheibe von Intel abgeschnitten zu haben und so wirklich jede verfügbare Ressource in die Maximierung der Leistung investiert. So wie der Intel Alder Lake CPU also die große Antwort auf eine Reihe leistungsstarker AMD-Prozessoren war, so ist es die RTX 4090 von Nvidia, die ohne Rücksicht auf Verluste auf dem GPU-Markt die Konkurrenz überrollen mag …
Doch mehr Rücksichtnahme wäre vermutlich gar nicht einmal so verkehrt gewesen! Immerhin ist ein 450-Watt-Grafikprozessor, der sogar 12-HPWR-Kabel zum Schmelzen bringt, jetzt auch nur bedingt das Maß aller Dinge. Und auch die Tatsache, dass deine Stromrechnung durch die Nutzung wohl ein neues Hoch erreicht, dürfte in Anbetracht der aktuellen Wirtschaftslage sicher nicht jedermann einen jeden Preis wert gewesen sein!
Doch es gab ja noch mehr, beispielsweise die RTX 4080. Diese kam etwa zum gleichen Preis wie die RTX 3080 Ti in den Handel und war in Sachen Leistung durchaus nicht zu verachten. Das große Problem war hier aber einmal der Preis (wortwörtlich), den du für diese Leistung bezahlen musstest. Nicht nur war die RTX 4080 fast schon unverschämt teurer, sondern die RTX 4090 war auch schon für mickrige 400 Euro mehr zu haben – da muss ich als Konsument nicht zweimal drüber nachdenken … Und die Quittung ließ dementsprechend nicht lang auf sich warten, wo Nvidia doch mit der RTX 4080 sicher weit entfernt von den erhofften Verkaufsmengen war (und ist).
Doch was macht indessen eigentlich Team Rot? AMDs Antwort auf die neue Doppelspitze von Nvidia wurde in Form der Radeon RX 7900 XTX präsentiert, die smarterweise im Handel noch entlang der magischen 1.000-Euro-Marke schlitterte und somit deutlich attraktiver war als die teuren Nvidia-Alternativen. Mainstream-Konsumenten haben hier ein spannendes Upgrade spendiert bekommen, was zudem durch die AMD Radeon RX 7900 XT – eine fantastische Karte, die auch in unserem eigenen Test-PC von MIFCOM Anwendung findet – ergänzt wurde. Erschwingliche Karten also zum fairen Preis. AMD schien diese Runde deutlich für sich zu entscheiden!
Doch dann rappelte sich Nvidia doch noch einmal auf und schickte die RTX 4070 Ti nach, die es nun im Segment für unter 1.000 Euro regeln sollte. So richtig gelang das nur bedingt, viel eher hat die 4070 Ti aber auf eines der wohl größten Probleme von Nvidia aufmerksam gemacht: Die aktuellen Karten haben einfach zu wenig VRAM. 12 GB GDDR6X waren für Full- und QHD-Gaming womöglich noch ausreichend, 4K-Fans schauten hiermit aber recht schnell dumm aus der Wäsche.
Und von da an ging es in Sachen VRAM eigentlich nur noch weiter bergab: Die RTX 4070, 4060 Ti wie auch 4060 sind grandiose Karten, die einfach etwas zu schwach auf der Brust waren. Gerettet werden sie aktuell zumeist noch von der genialen Software, auf Hardwareebene hat sich Team Grün in den letzten Monaten aber definitiv nicht mit Ruhm bekleckert.
Im Vergleich war es nach der erfolgreichen Einführung der 7900 XTX sowie 7900 XT fast das ganze Jahr 2023 über ruhig im Hause AMD. Erst Mitte des Jahres wurde die AMD Radeon RX 7600 schließlich eingeführt, bevor kürzlich erst die leistungsstärkeren Vertreter (7800 XT sowie 7700 XT) folgten, um das Quintett abzurunden.
Smarter Move von AMD, da somit die Karten in der Preisgestaltung aggressiver gestaltet werden konnten und man in Sachen Preis-Leistung inzwischen mehr als konkurrenzfähig gegen Nvidia aufgestellt sein dürfte.
Insgesamt hat es in der aktuellen Generation aber vor allem die Mittelklasse am stärksten (beziehungsweise mit dem schwächsten) erwischt, weil hier die großen Upgrades leider ausgeblieben sind. Klar die RTX 4070 ist eine großartige Karte, allerdings ist ihr Preis horrend und der Term “Mittelklasse” wäre hiermit äußerst weit gegriffen. Und auch die AMD Radeon RX 7800 XT mag die wohl beste 1440p-Grafikkarte in Sachen Mehrwert sein, ist im Vergleich zum Vorgänger aber bei den Verbesserungen zu kleine Schritte gegangen, um wirklich als Must-Have-Upgrade in Betracht gezogen zu werden.
Der große Verlierer bleibt bei der Betrachtung der RX 7800 XT aber das 7700-XT-Geschwisterchen, was beinahe mit einem identischen Preis zur Kasse bittet, aber weniger Leistung bietet – Warum AMD?
Die größten Lichtblicke waren schlussendlich wohl weniger die Hardwareupgrades selbst, sondern die Softwareupdates, die mit deren Einführung einhergingen. DLSS 3 beispielsweise offeriert inzwischen sogar Frame Generation, die zwar noch auf wenige GPUs und Titel beschränkt ist, aber immenses Potenzial aufweist. AMD hingegen punktet mit FSR 3 und einer eigenen Form von Frame Generation Technologie (die noch erscheint) und bei Fans wohl ebenso auf großen Anklang stoßen dürfte.
Doch wie kam es jetzt eigentlich dazu? Wie kommt es, dass Software-Aktualisierungen ihrer jeweiligen Hardware in puncto Interesse den Rang ablaufen? Wie kann es sein, dass eine so sehnsüchtig erwartete Generation so krass “scheitern” konnte?
Konkret kann man sicher nur erahnen, wie die Preisgestaltung viele dieser aktuellen Karten konkret vonstattenging. Nicht ganz unwahrscheinlich scheint mir dabei sogar, dass irgendwann der ein oder andere Involvierte es schlichtweg leid war und einfach begann zufällige Ziffern hinter den jeweiligen Namen der Karte zu kritzeln – jedenfalls wäre das ähnlich willkürlich wie das Endresultat …
Und womöglich lag es auch in gewisser Hinsicht an Gier als Motivator. Jedoch nicht die gute Form, die uns mehr Leistung in Aussicht stellt. Viel eher war es eine Gier aus monetären Aspekten heraus, eine, die nur das Füllen der eigenen Taschen im Sinn hat.
Und selbst so etwas wäre womöglich noch verkraftbar gewesen, wenn eben eine entsprechende Leistung dahinter gesteckt hätte. So aber habe ich eine unverschämt teure RTX 4090 erhalten, die zwar leistungsstark und gar alternativlos für bestes 4K-Gaming sein mag, aber trotzdem längst nicht für jedermann gedacht ist.
Und ich habe eine Reihe von AMD-GPUs erhalten, die in Sachen Preis punkten, in Betrachtung reiner Leistungsfähigkeit aber zumeist eher Babyschritte zum Vorgängermodell erahnen lassen …
Im Fachbereich zieht man gern das Mooresche Gesetz zurate, wo es doch besagt, dass sich Transistordichte etwa alle zwei Jahre verdoppeln dürfte (entspricht mehr Leistung; nicht doppelt so viel Leistung, aber immerhin mehr Leistung, weil doppelt so viele Transistoren). Längst ist das jedoch bei AMD, Nvidia und selbst Intel nicht mehr der Fall.
Die Grenzen des Möglichen scheinen allmählich ausgeschöpft, das Leistungssteigerungspotenzial nahe dem Zenit und ehrlich gesagt weiß nicht einmal ich selbst länger, was ich mir von einer Karte noch erträumen mag – außer vielleicht flüssiges, natives Gaming in 8K … aber das ist wohl eher noch Zukunftsmusik.
Das eigentliche Problem ist aber, dass der Verbraucher trotz dieses Tatbestands regelmäßig in die Irre geleitet wird. Die vermeintlich “schnellste Karte jemals” ist immerhin auch dann die schnellste, wenn sie nur etwa 5 Prozent mehr Leistung als ihr Vorgänger offeriert, oder nicht? Allerdings ist eben diese Masche auch ein Marketingtrick, der zunehmend vom Konsumenten erahnt und durchschaut wird, einer, der bei den Interessenten auf Ablehnung stößt …
Vielleicht, nur ganz vielleicht, wäre also ein wenig mehr Transparenz und Ehrlichkeit angebracht?
Im Prinzip habe ich meine Vermutungen schon hier und da durchscheinen lassen.
Es scheint sehr wahrscheinlich, dass Nvidia wie auch AMD mehr auf die eigene Technologie setzen, um aus den bestehenden Hardwareoptionen noch mehr Leistung herauszukitzeln. Mit der RDNA-4-Generation wäre bei AMD beispielsweise auch erstmalig eine kartenabhängige Technologie denkbar, womit man die Interessenten nun auch zum Wechsel auf neuere Karten “zwingt” – klappt jedenfalls schon recht zufriedenstellend bei Nvidia …
Nvidia selbst hingegen könnte sich womöglich auch künftig noch stärker dem KI-Segment zuwenden, wo hieraus doch Gelder in Strömen fließen. Wird die kommende Nvidia 5000er-Serie demnach nichts mehr für Gamer sein? Glaub’ ich kaum. Allerdings wird Nvidia wohl künftig ein noch breiteres Feld im Blick haben … und sicher wird Nvidia wie auch Team Rot noch stärker auf die Software-Inhalte setzen, um den Verbrauchern neue, leistungssteigernde Schmankerl zur Verfügung zu stellen.
Kurzum: Die nächste Generation wird wohl von dem dominiert werden, der die bessere und stärkere Integration in KI-Tools und -Möglichkeiten bereithält. Inwieweit die Bildraten hiermit steigen, bleibt abzuwarten, der nächste logische Schritt scheint aber noch stärker über die Software zu gehen als bisher schon!
Ach ja, und irgendwo mischt dann auch noch Intel mit. Vielleicht kann sich ja sogar die Intel Arc Battlemage noch als echter Geheimtipp behaupten? Wäre für mich jedenfalls die größte Überraschung in der nahen Zukunft!