Glaube mir! Die 4090 nutze ich maximal UV leistungstechnisch nur etwas stärker als eine 1080 Ti und der ganze Raytracing Rotz ist der letzte 💩😮💨🚫 LOHNT SICH NULL!!! bleibt bei deiner geilen Karte und sei happy! Hast alles richtig gemacht ✅👍🏼
Die Innovation, die ich mir im Bereich Grafikkarten am meisten wünschen würde, wäre das Eliminieren des allgegenwärtigen Spulenfiepens. Freude kommt bei anstehenden Upgrades nicht mehr auf, sondern eher der Horror, das nervenraubende Lotterie- und Rücksende-Spiel wieder einmal über sich ergehen zu lassen. Generell hat bei Hardware/Elektronik die Materialqualität und Qualitätskontrolle sprunghaft nachgelassen in den letzten Jahren. Einfach wieder sorglos ein Gerät kaufen zu können, das wäre eine willkommene Entwicklung.
Ein Freund hat sich drei RX 7900 GREs sowie zwei RX 7800 XTs zusenden lassen - erst die letzte 7800 XT hatte kein Spulenfiepen. Ich glaube, das waren alles Gigabytes. Ich habe eine gebrauchte ASRock 6800 XT Phantom Gaming, Platine und Phasenlayout identisch mit 6900XT Phantom Gaming, also für mehr ausgelegt als nötig. Selbst auf 370W übertaktet surrt da gar nichts.
@@fractalcore7691 ich sage mal, es kommt auf den Verwendungszweck an, also wieviele FPS benötigt werden. Wenn du wirklich alles an FPS willst (400+) was geht, dann wird es echt schwer, was das vermeiden von Spulenfiepen angeht. Ich zb benötige es nicht. Hab meine 4090 auf 120fps geregelt und da drehen nichtmal die Lüfter, bei den meisten Games. Spulenfiepen nicht vorhanden. Cyberpunk auf Ultra, mit Pathtracing lastet die Karte zwar richtig aus (99%), aber bei 120fps gibt's halt kein fiepen.
Finde gut, dass AMD sich auf die Mittelklasse konzentriert. Mehr als 500€ find ich für ne Grafikkarte schon happig! Habe zwar auch schon mehr mit der 2080 ausgegeben, aber die Mehrleistung ist es einfach nicht Wert.
Das ist Quark aber okay. Eine 500 EUR Karte leistet praktisch gar nichts heutzutage. LEIDER sind Karten im Bereich 1000-1300 EUR eben massiv leistungsfähiger. Wer also die Leistung benötigt zwecks Auflösung usw. der kommt mit einem 500 EUR Spielzeug einfach nicht mehr zurecht. Und ich sage es nochmal: LEIDER!!!
@@hirschkuh1982 Das sehe ich anders. Wer 500€für eine Karte ausgibt spielt nicht in 4k oder höher und auch meistens mit 60 vielleicht 75 fps und nicht mit übre 100. Und im Vergleich zu den früheren Generationen ist es durchaus Möglich mit ner 4070/s oder 7800xt in 4k zu spielen. mit ner 2070/5700 war dies zum Beispiel eher nicht Möglich. Man muss halt die Regler bewusst nutzen können und nicht alles aufanschlag drehen. Daher sehe ich deine Argumentation als nicht sonderlich Stimmig ;)
@ Du sprichst von Full HD, das ist keine Auflösung in der man heutzutage spielen will. Ich habe auch nur 1440p und ich würde weder auf 1080p weil es Scheiße aussieht, noch auf 4k zocken weil nicht mal eine 4090 wirklich brauchbar ist bei 4k. Dein max 500 EUR Budget beschreibt eben extrem geringe Ansprüche, mit denen ich nichts anfangen kann. Es wäre super, wenn meine 4070ti nicht 800 sondern faire 499 EUR gekostet hätte, aber der Zug ist sowas von abgefahren und die 4070ti Klasse ist eben genau was ich suche. Genug Leistung bei minimalem Stromverbrauch
@@hirschkuh1982 Nein ich Spreche von 1440p und Spiele selbst mit einer 7800xt und komme auf ordentliche fps zahlen. ABer anhand deiner Argumention sehe ich, dass wir zwei völlig verschiedene Ansprüche haben :)
@@hirschkuh1982 Meine 7900xt kostete 590€ okay, ist etwas darüber, aber auch die 7900GRE gibts für 500€ und ist ziemlich weit oben bei den aktuellen GPUs. Es gibt gute Leistung für unter 1000€. Das Problem ist eher, dass man bei Nvidia nur mehr schlechte Preis/Leistung hat bis auf die 4070s oder evtl 4070ti super... alles andere kannst Geld verbrennen und hast ähnlich viel davon. Das Raytracing ist in sowenigen Spielen wirklich ne verbesserung (lohnenswert) dass der Aufpreis dafür nonsens ist bis auf ein paar nerds.
@@Lovecars1218 ich hoffe nvidia macht nicht wieder nvidia sachen und enttäuscht uns in den üblichen punkten...... so eine dumme aussage XD hofffentlich gibts keine neuen stecker..... kein bock auf ne brennde gpu und mal bissl mehr speicher XD
Alle Grafikarten über 1200 Euro müssten native 4k ohne DLSS , mit max Grafikeinstellung (Raytracing), mit mindestens 120 Fps, über die nächsten 2-3 Jahre spielen können, erst dann würde ich es mir überlegen.
Bin immer noch Zufrieden mit meiner 1080TI für die ich 2017 knapp 800€ gelöhnt habe. Zur heutigen Zeit wäre ich maximal bereit 1.200€ für eine High End GraKA auszugeben.....für die heutigen Preise können die Hersteller Ihre Grafikkarten behalten.
So jetzt kommen meine aktuell beschaften Upgrades. Altes High End Mobo, mit AM4 Sockel und X370 wurde ein Ryzen der ersten Serie 1700x durch den neueren Ryzen 5700x3D ersetzt. Dann die alte Defekte Radeon VII mit einer Geforce RTX 4080 Super. Einen neuen Midi Tower, mit gebogenen Front-Glas, sehr massiv gebaut. Alle Teile lassen sich durch Klipp Verschluss öffnen und schließen. Die mitgelieferten ARGB Lüfter waren zu laut. Liefen alle mit Vollast. Ich habe sie am Mainboard angeschlossen. Dort werden sie runter geregelt. Zum Schluss noch einen neuen großen Monitor mit 34,5" Zoll oder 84,5cm UWQHD 1440p. Da ich aber noch einen PC 💻 Upgraden möchte, der sich an einem anderen Standort in meinem 2. Heimatland befindet. Werde ich dort das noch gute aber leider mit AM4 Sockel nicht mehr Zukunft fähige Mobo mit einem neuen AM5 Board ersetzen mit dem X670 oder X870 Chipsatz. Dann kann ich auch noch den RAM Speicher wechseln. Von aktuell bei allen DDR 4-3200 Mhz auf DDR 5-6000 Mhz. Die GPU eine RTX 2080 wird vielleicht durch die neue RDNA-4 Serie abgelöst. Eventuell warte ich vielleicht doch auf die RDNA-5 Serie. Da diese im Gegensatz zur RDNA-4 anstatt einer bereinigten RDNA-3, eine ganz neue Grafikkarten Chip wird. Von Grund auf neu konzipiert. So habe fertig. Guten Feiertag, und Gesundheit für alle. Mich plagt wider eine leichte Depression. Dadurch kann ich leider meine neuen Gaming Maschine nicht nutzen. Habe so ziemlich viele Spiele dort, auch neue ältere dazugekauft. Brauche aber neuen Speicherplatz. Mfg
@hombre-lusitano3414 ich hab mittlerweile aufgerüstet, von meinem alten System von Zotac 1080TI extreme und i7 6800K zu, Zotac 1080TI extreme und Xeon E5 2697a V4....Leistung die ich zu Schätzen weiß !!!
ich hab ne 7800xt und spiel in 4k damit ...... hab 540 euro bezahlt vor 1 jahr .... schatten und Beleuchtung(rt) auf mittle oder low den rest auf max und abfahrt ..... schatten eher high(medim schatten sieht man meistens schon pixel) und beleuchtung je nach game low oder med ..... hat bisher gereicht .... avatar 78 fps avg native(mag das game als bsp könnte natürlich mehr aufzählen) ..... Aber es gibt so sachen wie kontak schatten etc damit kann man natürlich auch "spielen" wenn man sich nicht auskennt Hab vor nem Monat nen 3. RUN in Hogwarts Legeacy gemacht wegen dem Sommerupdate. Hab mal just for fun meine Daten im expierence zurückgesetzt. 44 Stunden playtime und 110.1 Fps avg wegerden mir Im AMD Expierence angezeigt. leider gehen keine Links oder screens
Ich werde mir für meinen 5800X wohl die 8800XT gönnen. Habe aber nicht vor, das System gänzlich aufzuwerten, weil der Prozessor noch hervorragende Dienste leistet
Wenn die RT Leistung erheblich gesteigert wird, ist es doch eine super Alternative zu NV. Ich habe die XTX und bin super zufrieden damit, auch im RT Bereich.
2:52 Natürlich nicht. Im Endeffekt sind es Bauteile im Wert von wenigen Euro's, die die kleinen von den großen Grafikkarten unterscheiden. Wenn man dann noch die Masse dazu zählt,... Natürlich sollten sich die großen von den kleinen Modellen unterscheiden, doch 2.000€ sehe ich generell weitaus als zu viel an. Top End Grafikkarten die die Speerspitze der gegenwärtigen Zeit bilden hat es immer schon gegeben. Diese kosteten damals jedoch "nur" ein paar hundert Euro. Mit dem was heute eine Grafikkarte kostet, hat man ganze 1a Rechner bauen können. Aber humane Preisgestaltungen laufen lange schon immer weiter aus dem Ruder. In allen Bereichen. Demnach habe ich jedoch auch nicht wirklich etwas anderes erwartet. Monopolstelllungen sowie Oligopole sind immer schlecht für den Endkunden. Doch solange er es bezahlt,...
Es gibt 2 Regeln. 1. Regel: Rabatt, Rabatt lass dir sagen, wird vorher immer draufgeschlagen. 2. Regel: Hardware dann kaufen, wenn kein anderer will. Das wäre dann im Januar-Februar und Juli-September. Da gibts die besten Preise für Endverbraucher. Stell dir am besten auf Geizhals deine Komponanten zusammen und lass dir die Preisverläufe anzeigen. dann weißt du, wann du kaufen kannst.
Meine Wahl wird zwischen ARC oder Radeon entschieden. Erst wenn ich weiß, was die "Vollausbauten" jeweils zu leisten im Stande sind, wird sich entschieden.
@@gruulihi, Ich besitze seit über 1,5 Jahren eine Arc A770 16GB im Intel Referenzdesign und habe die ständigen Treiberverbesserungen alle miterlebt. Kann sie also aus 1. Hand gut beurteilen. Sie läuft mittlerweile sehr gut und im Raytracing hat sie gleich am 1. Tag meine RX6800 nass gemacht. Die von Dir angesprochenen Probleme beschreiben nicht den aktuellen Zustand. Und eine hohe Leistungsaufnahme im IDLE sehe ich nicht als Problem. Die FPS zählen und die Dekodiergeschwindigkeit und da ist sie konkurrenzfähig. Von Battlemage erwarte ich allerdings definitiv noch etwas mehr. Ich bin sehr gespannt, wie sie sich gegenüber einer 8800(XT) schlägt.
@@OnlyHans84 Rein von den Werten müsste die Karte bei einer 6800 liegen, sie liegt aber bei einer 7600XT. Ich glaube nicht, dass Intel in der nächten Gen. mithalten kann.
Wenn AMD schon nicht mehr im high-end Segment für Grafikkarten mitmischen möchte , müssen die RX 8000er Karten in fast allen Kategorien schon richtig ordentlich ranklotzen.
Der Preis ist viel zu hoch. Da muss man die Karte zwangsläufig irgendwie geschäftlich / produktiv nutzen um damit Einkommen zu generieren ansonsten lohnt sich das null!
Ich habe eine 6800xt vor 2 Monaten von Ebay ersteigert (340€) und auf einen 5700x3D umgestiegen (von 8700k) mit zwei zusätzlichen Ram Riegeln auf 32gb (vorher 16gb) für insgesamt knapp 600€. (Gab noch ne neue AIO dazu und paar Lüfter) Das hat sich mehr als gelohnt für einen PC von 2018. Ich bin mega zufrieden und mein Budget hat für den Preis sehr viel Leistung heraus geholt. Ich kann dir die 6800xt empfehlen aber nicht die 6800 selbst. Den kleinen extra Schritt solltest noch machen. Gebraucht sind das glaube ich 40€ unterschied bei Ebay, wenn bisschen die Preise verlgeichst.
Kommt sehr drauf an, was du spielst und in welcher Auflösung. Wenn du nix richtig modernes auf Ultra 4k brauchst, dann ist die 6800 immernoch eine der besten GPUs, wenn du deren Preis anschaust. Die ist zwischen 4060ti und 4070 und hat 16 gb Vram. Kein schlechter Deal für 250€ oder so.
vorab im WINTER PC Parts kaufen ist SO oder SO dämmlich(zumindest wer auf das geld schaut) XD die besten preise gibts IMMER im sommer..... genau das gleich wenn du dir z.b. ein Motorrad kaufst....... das kaufst du im Winter und nicht im Sommer(preis und nachfrage, das grundgesetzt im handle ändert sich nicht).......
"als Ente herausgestellt" Arme Enten. Müssen immer für Negative Assoziierungen hinhalten :D Aber Cool dass ihr Santi dass Lisa Zitat habt vorlesen lassen. Klang dadurch viel Immersiver.
Meine Welt lebt von Kompromissen. In Sachen Leistungsaufnahme sind die RTX 70 er immer noch um längen voraus und sollten um 4 Jahre reichen, bis der Speicher nachgebessert wird, wohl nicht vor RTX 6070 , Windows 12 und auch dann nur so viel wie unbedingt nötig.
Das kannst du doch nie sagen, die Leute die damals die 2000 er Reihe von Nvidia gekauft haben waren auch ziemlich enttäuscht und hätten auf die 3000er Serie warten sollen. Also die Spekulationen dass die 6000 oder 7000 Serie dann besser sein werden kannst du so nicht direkt vorhersagen.
Mit einer 7800XT klingt eine 8800(XT) eigentlich nach einem genau richtigem Upgrade. Rasterleistung passt ja, aber Raytracing hinkt eigentlich bei jeder Karte bisher hinterher. Auch bei der 4090. Außer man steht auf 30-45fps, die man mit Fake-Frames und damit einhergehendem Monster-Tearing und Eingabeverzögerung aufplustern muss, um halbwegs anständige Frames zu bekommen. Da ich aber bei Tearing (also fehlendem Sync) und Verzögerungen richtig extrem abgefuckt bin, scheidet das aus. Letztlich ist immer der Preis und die max. 300 Watt-Grenze entscheidend.
Nutze die 4090 null mit RT/PT obwohl es mir nichts ausmachen würde auch mit FG macht es mir nichts aus aber ich nutze es einfach nicht, weil ich es nicht brauche 😂 verkaufe die 4090 und steige auf 8800XT um wenn die schön effizient wird.
@@wetzlarerjung macht einfach 0 Sinn, die Leistungsfähigkeit einer 4090 in Frage zu stellen und dann mit "Gurken" ala 7800XT/8800XT zu kommen... Bei dem was die 8800XT leisten wird, verbraucht die 4090 noch lange keine 300 Watt 😅🤷♂️
hab eine 7700 xt für 1080p ein upgrade kommt für mich erst mal nicht in frage aber finde es toll das amd ihre raytracing leistung weiter ausbaut effizienz ist für mich eher nicht so wichtig
Die Preise sind schon extrem. Bei mir ist ein ryzen 7 7800x3d sowie eine rtx 4080 super verbaut. Die bleiben auch erstmal. Die Preise sind alles andere als fair
Ist doch schon high end bei dir, was willst du denn überhaupt upgraden wenn es möglich wäre? Das ist glaube auch nur Geld heraus schmeißen, da bleib lieber bei deinem jetzigen System wie du schon geschrieben hast.
RDNA 4 scheint ein erster Schritt in die richtige Richtung zu sein. AMD plant ja, seine beiden Architekturen (RDNA für Gaming & CDNA für Enterprise) zu einer zu vereinen und den Fokus "nur" auf Entry- & Mittelklasse zu legen. Dadurch können sie ihre Ressourcen hoffentlich deutlich besser nutzen und Produkte gestalten, die NVIDIA's Pendants voll und ganz auf Augenhöhe gegenübertreten können. High End Brecher wie eine 4090 oder 5090 sind zwar cool für's Ego des CEO, praktisch sind sie aber wenig relevant, da sie nur sehr kleine Anteile bei den Sales ausmachen. An seinem Marketing sollte AMD allerdings ebenfalls arbeiten.
@@FreeTheWeed Hat NVIDIA doch bei der 4090 auch schon gemacht. Und vor allem sind Karten wie eine 5090 reine Prestigeobjekte die keiner braucht. 4K Gaming auf höchster Grafik mit RT, hohen Fps usw. ist nunmal ein sehr teurer Spaß. Wer das unbedingt haben will sollte auch in der Lage sein bzw. bereit sein, die 2000€ zu blechen. Ansonsten tut es eine 8800XT oder 5070/5070Ti auch bestens. Warum sollte AMD seine Ressourcen für so was verschwenden? Damit die oberen 0,1% der Gamer ihre völlig überdimensionierten Monster GPUs für 1500€ statt 2000€ kaufen können? Da hat AMD als Unternehmen mit breit gefächerter Produktpalette und begrenzten Ressourcen nunmal wichtigeres zu tun. Vor allem, weil im High-End bzw. Enthusiastenbereich noch viel mehr Leute NVIDIA gegenüber AMD vorziehen. AMD würde also haufenweise Ressourcen vergeuden, nur um von den Meisten Leuten aus diesem ohnehin schon kleinen Kundenkreis noch die kalte Schulter zu kriegen. Es macht halt vorne und hinten NULL Sinn. Seine Ressourcen möglichst effizient zu nutzen, um sich ein starkes Produktportfolio im (für den Marktanteil) relevantesten Produktbereich aufzubauen ist deutlich sinnvoller und wichtiger, als Ressourcen für ein Prestigeprodukt zu verschwenden, das die meisten eh nicht kaufen werden.
@@FreeTheWeed Nicht kaufen und gut ist. Die Nachfrage regelt den Preis. Wenn die Lemminge alle wie Menschen auf Entzug zu jedem Preis kaufen, würde ich als Hersteller auch kräftig absahnen.
@@FreeTheWeed Was meinst du mit "Nicht von sich auf andere schließen"? Das Grafikkarten über 1000€ ein Nischenprodukt sind ist schlicht ein Fakt. Klar gibt es dafür Käufer und Interessenten, aber es sind eben nicht sehr viele. Ich habe einfach nur kurz erklärt, was Tatsache ist. Subjektive Ansichten hab ich hier nicht wirklich dargelegt.
hab mir gerade erst die 7900 xt geholt, Pathtracing ultra 1080p in Cyberpunk und ohne FSR 40 FPS für schönere Pfützen, beim Licht konnte ich nicht viele Unterschiede merken. Alles in allem dann doch lieber in Ultra 160 fps ohne FSR, vllt. in 1440p FSR für die 165hz.
4:12 Erstmals überhaupt 2 Grafikprozessoren für eine GPU? Was ist mit den Dual-GPU Karten die es früher mal gab, GTX590 als beispiel? Physisch sind das ja weiterhin 2 Chips, nur bzw. maßgeblich durch die Software und die mittlerweile deutlich schnellere GPU to GPU Bridge wird es dann zu "einer GPU" oder nicht? Soviel anders als damals ist das nicht, nur dass es eben jetzt als "ein Chip" nutzbar ist, was damals halt wegen der langsamen verbindung als Dual-GPU mit dem Typischen Problem einher ging wie Mirkroruckler. Also natürlich jetzt abgesehen davon, dass es eine Ente war ^^ Achja, Quad-SLI/CF, das waren noch Zeiten. Günstiger als eine 4090 x)
Hier waren mehrere Grafik-Prozessor-Chiplets gemeint, wie bei den Ryzen mit mehr als acht Kernen. Aber Prozessor und IO zu trennen, war möglicherweise sinnvoller. Ich habe vor einiger Zeit gelesen, dass man anscheinend die verschiedenen Funktionen (Rechnen, Speicher, IO) unterschiedlich gut verkleinern kann und damit ein kleinerer Prozess weniger Chipfläche.
@@jochenkraus7016 Ich weiß doch wie es gemeint war, ich wollte nur darauf hinaus, dass die korrekte Ausdrucksweise wichtig ist :) Ist auch richtig, bzw geht es nicht um das "gut verkleinern" können, sondern um das "sinnvoll verkleinern" können. Da Transistoren, und nichts anderes sind die Schaltungen von CPU, IOD, etc, sich immer verkleinern lassen. Nur eben finanziell nicht sinnvoll. Es macht Sinn die FP-Adder, Int-Adder, etc sowie Register, Cache, usw zu verkleinern aufgrund von Taktgeschwindigkeit und Leistungsaufnahme. Der I/O Bereich dagegen kann in einem billigeren Prozess gefertigt werden, da es schlicht egal ist ob die PCIe Lanes jetzt in 4nm oder 7nm gefertigt werden. Würde höchstens dem Idle Verbrauch von Ryzen CPUs helfen x) Die Ryzen CPUs sind hier ein gutes Beispiel. Arrow Lake macht es mit den Tiles jetzt auch so, unterschiedliche Prozesse um Kosten zu sparen, für Dinge die nicht sinnvoll sind, diese teurer und kleiner zu fertigen
Bedeutet das dass es keinen Nachfolger für die 7900 xtx geben wird, schade wollte mir nächstes jahr ein System zusammenbauen mit einem x3d Prozessor und der 8900 xtx.................
In den letzten Leaks war nur noch vom kleinen BMG-G21 die Rede - wir tippen darauf, dass der nicht mehr allzu lange auf sich warten lässt. Falls was kommt, erfahrt ihr's natürlich bei uns. :)
Bin raus wenn es 4-stellig wird. Klar sind Hobbys unter Umständen sehr teuer aber ob der Preis in Relation zur Leistung und den Herstellungskosten steht.....hm.........?
Nvidea macht bei ihren KI chips 1000% gewinn. Ist bei den grafikkarten wahrscheinlich nicht viel anders. Das verhältnis von Herstellungskosten zu verkaufspreis ist mitlerweile reinster wucher. Aber wenn apple das kann dann macht es jeder der ein monopol hat. Warum AMD noch GPUs herstellt weiss ich nicht. Wenn man nicht vorhat zu konkurrieren kann man eigentlich gleich einpacken.
Ich habe aktuell noch eine RX 6900XT spiele damit auf U-WQHD ich bin erstaunt das die Karte bei den meisten Titeln locker auf ihre 100+ FPS kommt ohne FPS Drops oder sonstiges, gespielt wird in Nativ. Ray Tracing ist für mich nicht wichtig.
früher hätte ich für eine GPU maximal 800€ ausgegeben, da aber mein Gehalt gestiegen ist, ist meine Schmerzgrenze nun bei 1k, deshalb habe ich mir auch vor kurzem eine 4080 geholt. Leider Überzeugt mich am bei ihren GPUs nicht...da kaufe ich lieber die Prozessoren
Interessante Karten für die jenigen die sich einen neuen PC zusammenstellen wollen. Zumal AMD meist die bessere P/L hat. Was man noch erwähnen sollte ist das Nvidia Grafikkarten sich besser zum streamen eignet. Was die 5090/5080 angeht geht diese werde ich gekonnt überspringen ich habe auch nur eine 4080 drin von zotac weil ich diese "günstig" für ca. 930€ bekommen habe ind meine 3080ti für 500€ verkaufen konnte.
Also ich hab mir einmal ne Graka für 1149.- Euronen geholt(Gigabyte RTX 3080 Vision OC White V2), mach ich nie wieder, einfach zu viel Asche. Werde auch auf Team Rot umsteigen da Preisleistung dort besser ist und ich eh kaum Raytracing nutze.
Schade, dass AMD diesbezüglich nicht gegen Nvidia anstinken kann. Das sorgt für einen Monopol auf High End Grakas. Heißt, dass sie sich die Preise aussuchen können. Leider werden diese völlig überteuerten Grafikkarten trotzdem gekauft...
RTX 4090 hat kein Displayport 2.1 😢, deswegen keine Wahl für mich. 7680X2160 braucht DP2.1 , nur AMD hat das aber dafür zu wenig Leistung... 5090 muss es richten
Welche Spiele laufen denn nicht mit Deiner AMD-Grafikkarte? Ich spiele ja teilweise schon exotisches Zeugs und das läuft alles. Und #1? Die Leute achten nur noch auf FPS... in kaum einem Test wird noch auf die leidigen Optimierungen der Treiber geachtet, die erheblich zu Lasten der Bildqualität gehen. Gerade die Pseudo-K.I. von NVIDIA versaut viele Bilder nicht unerheblich. Gibt zwar Leistung, ist aber nicht so, wie es programmiert worden ist (Spieletitel).
@4CfxthXBhVqTjMHIPIwXjIW6GhKmh0 ich habe zurzeit keine amd grafikkarte da mich das raytracing in den spielen überzeugt hat... meine nächste grafikkarte darf aber gerne wieder von amd sein.
@@GobelinHooligan Mich wurmt bei AMD derzeit, daß das Featurelevel 12_2 unter Windows 11 nicht verfügbar ist. Egal ob RX 6xxx oder RX 7xxx. Windows 11 beharrt bei 12_1, über Windows Update wird 12_2 nicht freigeschaltet. Kein 12_2 = kein Raytracing (obwohl die Hardware es unterstützt).
@@GobelinHooligan wenn das ähnlich gut läuft wie beim letzten Mal. Braucht es für FSR 4.0 noch mal 1,5 Jahre wie beim letzten Mal. Versprochen, bezahlen lassen und später liefern. Nicht Cool.
AMD wird mit den neuen GPUs nicht mal mit der 4090 mithalten können - deshalb ist euer Titel wieder mal ziemlich reißerisch ! Aber man will ja ein paar Aufrufe generieren... Wie immer wird es mit der neuen Generation ein paar Fortschritte geben, aber da AMD ab sofort kein HighEnd mehr macht, werden die neuen Mittelklassekarten vielleicht im Bereich der ehemaligen HighEnd GPUs von AMD unterwegs sein. Aber eine 7900XTX wird sicher nicht erreicht. Ob man deshalb unbedingt neu kaufen muss ??
Brauch kein raytracing, hab mir gerade die 7800x3d 7900xt combo geholt. Lieber mehr Leistung pro Euro statt sinnloses RT. Überall wo ichs aktivieren kann wirds nach 10min deaktiviert weil ich kaum Unterschiede sehe...
Warum muss sie das ? Die letzten 10 Jahre hatten wir einen Generationensprung von 25% Leistung im Durchschnitt. Da die 8800 nicht mehr CUs haben wird als die 7800 XT, und RDNA4 nur eine Weiterentwicklung und keine Neuentwicklung ist - wird die Leistung vermutlich knapp an die 7900 XT reichen, zumindest in 1080p und 1440p. In 4K und mehr, sowie den Frametimes, wird der 8800 sicher etwas die Puste ausgehen, weil Interface und CU Count der Flaschenhals werden.
Ja wer noch etwas länger warten kann oder möchte. Besser auf RDNA-5 setzen. Wird ein komplett, von Grund auf neuer konzipiert Grafikchip sein Bei der neuen Blackwell Architektur von NVIDIA werden ja bis auf die 5090, die 5080 und 5070 keine weiteren Änderungen vorgenommen. Mit Ausnahme des neuen und schnelleren GDDR-7 VRAM. Somit kann die Mehrleistung nur aus der neuen Architektur und dem faster Speicher kommen. Deswegen erwarte ich dort auch nicht viel.
Ich überlege mir die 5090 zu holen und bis dahin mal meine I7 8700K durch die 9800X3D abzulösen. Bis die 5090er draußen ist, werde ich weiterhin meine 3070 verwenden. Sollte man da auf den PSU-Kauf warten? Ich habe gelesen, dass spekuliert wird, dass man für die 5090 zweimal 12V-2x6 Sockel braucht oder gibt es schon hinsichtlich dessen PSUs da draußen, welche ihr mir empfehlen könnt?
@@Icezapp1 korrekt 😂👌. Ich habs Geschafft bis 140fps. Piloteneignung usw aber es ist mmn. Kompletter Schwachsinn. Max Programme wie Blender usw aber wer die 2min nicht hat 🙄
Was nützt die ganze schnelle Hardware, wenn die ganzen Games schlecht programmiert und inhaltlich langweilig sind. Mir fällt kein Spiel ein, wo es sich lohnen würde, 2000€ und mehr in einen Gaming PC zu stecken. Vollpreis für Beta Status Spiele, sind ja keine Seltenheit und Anpreisungen von AAA Games waren dann auch für den Popo 🤡
die 5080 und 5090 sind ja super aber seien wir mal ehrlich wen die 5090 wirklich über 2000 euro kosten soll das ist schon happig weil das für eine grafikkarte (5090 ) schon sehr teuer ist und 2000 euro hat ja auch nicht jeder da werden eher viele 5080 mit 16 vram / und 5080 mit 24 vram die leute eher nehmen war bei der 4080 super auch so ,und zur 4070 ti super war es das selbe bei amd gibt es zwar die 7900xtx mit 24 vram ohne raytracing ist sie schon top schade das AMD keine highend grafikkarten nicht herausbringt da greifen die leute eher zur 7900xt 20 vram oder 7900xtx 24 vram nicht böse sein
ganz bestimmt holt die rx 8000 nicht die nvidia. vorallem wenn der gerätemanager sporadisch die treiber deaktiviert weil sie inkompatibilität aufweisen. nie wieder ATI! sobald die neuen nvidia da sind wechsel ich und bleibe da auch.
@@seppmaria73 Wenn du zocken willst immer einen x3D holen wegen dem Cache, hab erst vor 2 Monaten auf einen 5700x3D gewechselt vom 8700k, ist erschwinglich und völlig ok. Der 5800x3D ist übertrieben teuer für die Mehrleistung zum 5700x3D!
@@velorianlycine2800 Ich rechne nicht damit, dass das die große Masse kaufen wird. Ich rechne damit, dass Gamer zusammen halten und man sich einigt, dass diese Karten nicht über 1000€ kosten dürfen, egal, wie stark sie sind.
ohne das video gesehen zu habe wenn es um ein schader spiel auf bais von cuda geht ja. aber so sollte eine RTX karte ja seit 7 jahren nicht mehr benutzt werden. sondern mit KI und nicht cuda soll rendern sondern tensor. aber wenn allen 200 FPS reichen statts nur die nie erreichten 600 FPS wird sich auch nix ändern zu mal der import von guda einfach ist und KI für spiele komplett unbekant ist oder auch AI. kennt ihr nur ein spiel das irgend eine moderne technik nutzt und nicht mehr shader nutzen muss. das ram und Vram voll kanallt. ich kenne keines weil die alte UT funs voll den müll lieben der aktuell noch genutzt da ist und leider gaming nicht auf das neue next level angehoben hat. wie soll man da der RTX ki power nur gerecht werden wenn KI komplett mit cpu power umschifft wird was auch zu den intel versagen dises jahres fürte. gaming ist unflexibel war es schon immer weil es sich nicht an passt sondern nur das alte weiter und neu auf kocht. gaming sollte das KI förder programm sein und macht nur ein spiel KI. nicht mal DLSS kann für die verbesserung genutzt werden arum es nur daten zur verbesserung gibt für DLSS aus dem eigenen streaming cloud dinst geforce now. der dinst hät die karten noch modern und benutzbar. sogar aht NVIDIA den ram für euch erhöht und ihr seit immer noch nicht zu frieden weil das nix brachte. schuld sind die spiele entwikler die nur techniken nutzen die alle nutzen können und AMD ist leider eine reine GTX karte und AMD entwikelt sich nicht weiter will sich nicht weiter entwikeln intel müsste mit KI jetzt zeigen was AMD fehlt und AMD muss auch auf den KI zug auf springen. nicht nur sagen das man es hat und könnte sondern auch machen wie mit RTX von NVIDIA geplant. aber in den vergleichen ist auch bei GTX rendern NVIDIA oben und nich AMD. aber AMD wird gehypt werden NVIDIA gekauft wird. einfach nur noch krank. sorry aber nicht die hardware ist das problem in spielen sondern die software. MS und spiele entwikler sollten spiele auf KI patchen und kennt ihr nur ein KI patche. hat ein spiel in 8 jahren mal gesagt wir machen KI. ihr seht das keiner von KI spircht nur von CPU und RAM und müll. CPU coding ist warscheinlich das einfachste darum wird die CPU heute so überstabaziert das man sich die neuste CPU kaufen sollte nur um FPS zu bekommen aber das ist der falsche weg nicht die CPU macht die FPS sondern die GPU. und die geht über CPU funktionen weiter hinaus. mit KI aber das level muss man auch wollen aber alles gehen auf seve und machen nur sichere schritte und sich so weit weg von KI damit das eine 4090 nur 200 FPS schaft mit cuda. eigetlich sollte cuda nicht mehr rendern sondern tensor aber der kann keine shader natif warum man auf cuda gebliben ist. RTX hat nie einer nur mal wirklich versucht mit KI shader zu genrieren in echtzeit. darum speicher man das spiel wie ein film ab alles beim abspielen auch gleich und so das es überall gleich ist jedes feuer oder licht quelle. aber ist das moderne power nein man schrenkt die GPU so ein das man was richtig schlechtes bekommt um den factor 3 schlechter warscheinlich sogar 4 weil mit DLSS dinge verbessert aber nicht die rettung ist für cuda. auch FSR ist nicht das was es sein könnte. AI könnte AMD schneller mmachen warum warten alle auf den einen der das macht und seinen weg öffentlich macht als mal eigene wege mit der KI zu gehen. die ganze UT welt kenn KI nichtmal weder cuda noch irgend eine andere KI form dort ist alles reine CPU magie und die hat grenzen. was heist das UT nicht die spitze ist sondern die GPU schon immer die spitze war und ist. aber man muss sie nutzen. bis jetzt hat es funktioniert der weg über CPU aber spiele werden anspruchs voller und brauchen mehr und das bittet die CPU nicht mehr. ja das ist so lustige wenn man sehen tut wie armselig gaming ist und die preise die publicher verlagen. aber nix bitte um hier spiel auf das max level zu bringen warscheinlich machen sie das mit absicht nich weil die remake und remaster auch gekauft werden also wir KI benutzt als eine art neu auf lage schlechter hätte es gaming nicht machen können. KI meiden und nur ki machen wenn man nochmal geld will. der kunde ist doch mit allem zu friden er kauft auch scheisse und sag die ist lecker nur um spähter nochmehr zu kaufen. reine manipulation und grösten wann ist das. gebe es seit 8 jahren auch KI in spielen währe das was anderes aber es gibts nicht und das ist schlimm warum weil KI mit zeit skaliert nicht mit geld oder cuda. aber das sollten sie seit 8 jahren machen den code verbessern schneller machen fehler erkenen und korrigieren und auch neue wege finden die man mit der CPU nicht gehen konnte wie stabilität bessere dynamische planung leeren von cache und ram und viese mehr alles mit KI. und was macht ki nix redutzier auf DLSS weil AMD nicht weiter mit KI geht. sauber AMD bremst und alle azeptieren das und sagen AMD ist die freiheit für linux mag sein das linux mit AMD freier ist aber wirklich frei währe es wenn linux KI nutzn kann und mit KI noch um welten schneller ist und wird. weil man dinge die die CPU machen soll auf die KI bringt weil dort schneller und stabiler weil man den code in echtzeit anpassen kann 512 cerne wie tensor machen das möglich als nur die 32 0der 20 der CPU. die langsam sind. echte schnellichkeit bringt die CPU nicht nur den vorteil schnell einen unbekanten weg zu finden aber nur dann ist CPU schnell für alles was bekannt ist und sahder besteht nur aus dingen die man kennt ist die KI um welten schneller warscheinlich 20 mal so schnell als die beste CPU. ich weiß leute denken man braucht nur eine hardware kaufen und man bekommt immer das beste was die hardware kann nein so ist es nicht das spiel bestimmt was möglich ist und weiter als GTX ist gaming nicht bereit zu machen. zu aufwenig zu teuer und es kauft auch am ende kaum einer . so denken die game entwikler warum was machen was am ende keiner nutzt. also machen wir weiter GTX das geht auch auf konsolen und wir erreichen mehr leute schmeist die konsolen weg gebt sony kein geld mehr nur dan werden sie KI machen und moderne spiele machen müüsen. sony bedeutet stillstand mag sein das sie mit shadern gutes spiele machen aber best möglichst ist das leider nicht. nicht wenn tonnen von hardware nur schrott rendern müssen wie nur cuda weil man tensor nicht nutzbar macht. geschwindichkeit kennt keiner und das ist ein problem warum ihr jahr für jahr den müll aller auch kauft. hat Age of mytologie KI? nein hat das spiel nicht hätte es KI währe das ein kino film aber das ist es nicht. KI wurde von 3000 zu 4000 generation um den factor 4 verbessert und das kann die karte nicht nutzen. weil KI in spielen nicht da ist. nur rohleisung. aber ki nutzt rohleisung und stellt damit eine neue welt her mit mehr möglichkeiten. dieses mehr hat leider kein system gesehen.
Ich warte nur auf den Launch der RX 8700 bzw. RX 8800 XT. Für mich persönlich erwarte ich die Rasterleistung einer aktuellen RX 7900 XT und die Raytracing-Performance einer RTX 4070 (Super). Das ganze darf dann zwischen 500 und 600 Euro kosten. Also, Teetrinken und abwarten, oder wie das heißt.
Bei amd stört mich erstens raytracing das übelst schlecht ist. Und FSR ist dlss in der Qualität unterlegen. Dlss nutzt extra ki Kerne natürlich ist das Bild besser. Ja und jetzt kommt das schlimmste kein high end da bleibt ja nur NVIDIA für mich, weil ich nur 4k zocke.
@@harambeisstillalive4410 Nach meiner Radeon Vega 64, kamen eine RTX 2080 und Radeon VII. Auf noch 2 anderen Systemen zum Einsatz. Die Vega 64 blieb mit ihrem Partner den Ryzen 1700x zusammen. Während ich 8 Monate später eine RTX 2080 dazu kaufte. Da ich Ihr eine eigene Umgebung geben wollte, kamen noch ein Ryzen 2700x mit x470er Board dazu. Aber ich wollte unbedingt noch die Radeon VII haben und sie gegen die GeForce RTX 2080 verbleichen. Somit kamen noch ein Dritter Tower dazu. Mit gleicher CPU und gleichem Chipsatz, ebenso gleichem DDR-4-3200 RAM. Der Vergleich war wie es erwartet hätte. Keine der beiden Karten war im Rasterizing eindeutig schneller. Mal gab es ein par FPS mehr oder weniger bei beiden GPUs. In gleicher Auflösung, bei identischen Games. Leider ist die Radeon VII defekt gegangen. Die RTX 2080 kam an einen anderen Stellplatz. Ich blieb deswegen auf meine alte Radeon Vega 64 angewiesen. Sie ist auch heute noch für 2K QHD geeignet. Mit mittleren Details und Texturen auf Hoch. Alle Games die ich bis jetzt mit ihr gezockt habe, haben gut funktioniert mit 50-60 FPS. Nur bei Metro Exodus musste ich die Auflösung etwas reduzieren. Da ich aber sowieso Upgraden wollte, kam mir das Spiel Alan Wake-2 entgegen. Das konnte man wegen Grafikfehlern und sehr schlechter performance kaum zocken. Einige Bäume erschienen als Spitze, lange schwarze Gegenstände. Die FPS waren mit 30-35 ein Debakel. Egal welche Auflösung man als nativ und tatsächlich gerendert einstellte. Es änderte sich gar nichts. Nach einigen suchen im Internet bin ich der Ursache auf den Plan gekommen. Dieses Spiel nutzt Mesh-Shader bei DX12_2. Die Radeon Vega 64 hat aber nur DX12_1 Unterstützung. Es gab ein Update von Remedy, dem Studio, der das Game 🎮 herausgebracht hat. Dieses war aber nur eine Unterstützung für die alte GTX 1080 von NVIDIA. Da dieses Muster auch nur DX12_1 unterstützt und noch sehr verbreitet ist. Nun zum Punkt des Upgrades. Ich wollte unbedingt die beste Lösung zw. RayTraycing Leistung und Preis-Leistungsverhältnis. Mein absolutes Limit bei GPUs war eigentlich 700-800€ gewesen. Aber bei nur 180€ Unterschied von der RTX 4070 TI Super zur RTX 4080 Super, dachte ich mir, da investiere ich lieber noch etwas dazu. Und bekomme nochmals 12-18% Mehrleistung dazu. 820 zu 998€. Somit griff ich zur RTX 4080 Super und einen Ryzen 5700x3D. Nebst neuem Gehäuse und Monitor. 34,5" Zoll curved Design UWQHD mit 165 Herz.
Da laut Gerüchten die 4090 zwischen der 5080 und 5090 angesiedelt ist, hoffe ich auf einen guten Verkaufspreis meiner 4090, die dann durch eine 5090 ersetzt wird.
Kann man nur hoffen das die Fehler der Vorgänger Generation behoben werden. Im Standby braucht keiner einer Graka die 120Watt vernichtet. Dann müssen die noch günstiger werden als die Vorgänger. Sonst geben sie das Feld ganz an NVIDIA ab.
Spannende Aussage. Ich habe gerade 3 Echtzeit-Transcodes von Full-HD-Material über den AMD VCE Encoder laufen. Es sind vier Bildschirme angeschlossen (2x FHD, 2x 4K). Der Energieverbrauch der RX 7800 XT liegt bei 83 Wh. Im Idle liegt sie bei 74 Wh. Ziemlich abenteuerlich, dann von 120 Wh im Standby auszugehen.
@@4CfxthXBhVqTjMHIPIwXjIW6GhKmh0 nein. Das wovon ich rede war das Problem bei 2 HD Monitoren beim erscheinen. Das wurde Stark bemängelt. Das weißt du sicherlich. Das AMD da nach gebessert hat ist auch bekannt. Das es immer noch so viel ist hätte ich nicht gedacht. Aber danke für dein Betrag.
@@MacTerrorable So viel? Ich habe keinen Standby-Betrieb erwähnt, aber paßt schon. PS: Auch NVIDIA hatte schon Standby-Verbrauchsorgien, gerade bei Multimonitor-Betrieb. Und das im IDLE, nicht im Standby. Mal schauen, wenn mein Rechner so weit ist, gugge ich mal, was er im Standby verbraucht.
Meine Güte sich über Preise beschweren weil eine Grafikkarte locker 2500€ kostet. Ist halt so wer es warm haben will muss heizen. Ich würde mich auch nicht beschweren wenn ich jährlich alleine 20 000€ nur für den Ölwechsel eines Bugattis bezahlen müsste. Das ist dann eben nichts für Bettnässer, Gering Verdiener oder Harzer.
Bist halt nur angeschmiert, wenn Du CUDA brauchst (bspw. für KI-Bild-/Video-Erstellung und LLM). Der Geschwindigkeitsunterschied ist extrem, auch wenn man DirectML nutzt.
Meine 2080 Strix hat gerade mal 200€ aufm Gebrauchtmarkt gekostet. Ich würde nie mehr als 600-700€ für eine neue, starke GPU ausgeben. Eher warte ich und kaufe dann günstig aufm Gebrauchtmarkt, weil die Karte den größten Wertverlust bereits geschluckt hat. Für die bekomme ich in 2-3 Jahren noch so 100-150€. Ich rechne eher in Wertverlust / Zeit im Verhältnis zum Anschaffunfspreis. So habe ich immer wieder nur kleinere Beräge investiert, um meinen PC soweit aufzumotzen, dass alles flüssig mit genügend FPS läuft, ohne, dass ich jemals über 600€ direkt auf einen Schlag bezahlen musste. Spaß, ohne, dass es mich finanziell ruiniert. Ich denke, dass will auch jeder haben.
@@ReneGebhardt-il1qz du wirst lachen: es gibt auch Karten von Nvidia in dem Bereich 🤷♂️ Nur weil man sich das Topmodel nicht leisten will/kann, muss der Rest ja nicht schlecht sein. 🤷♂️
Plant jemand von euch einen RX-8000-Kauf?
JA! Zusammen mit den neuen X3D CPU 🥳 Wird mein 1. Gaming-PC.
kommt drauf an wieviel Performance Unterschied zwischen 6900xt 7900xtx und 8800(xt) + Preis liegt.
@@pcgh ja soll ich mir lieber eine Rx7800xt oder Lieber warten bis rx 8000
Nein und da Konkurrenz äußerst wichtig ist, um die Preise halbwegs vernünftig zu halten, verstehe ich auch nach wie vor den Move von AMD nicht.
Nein, ich behalte erstmal meine 7900XTX
2k für ne graka ist lächerlich, ich hab 2017 für meine 1080 ti noch 800€ ausgegeben das war schon viel aber jetzt das. Das ist einfach Wahnsinn
Ist schon ziemlich krank ja, macht doch keiner. *hust,hust* 😂
Ich sitz hier auch noch mit meiner 1080..
bis 2500€ bei 5090 geh ich mit. Viel Spaß mit deiner 1080ti, ist eine sehr gute Graka von "Früher".
@@drieterujobolus6293 ist sie immer noch👍 1440p ohne probleme in kombibmit ryzen 5800x3d
Glaube mir! Die 4090 nutze ich maximal UV leistungstechnisch nur etwas stärker als eine 1080 Ti und der ganze Raytracing Rotz ist der letzte 💩😮💨🚫 LOHNT SICH NULL!!!
bleibt bei deiner geilen Karte und sei happy! Hast alles richtig gemacht ✅👍🏼
Die Innovation, die ich mir im Bereich Grafikkarten am meisten wünschen würde, wäre das Eliminieren des allgegenwärtigen Spulenfiepens. Freude kommt bei anstehenden Upgrades nicht mehr auf, sondern eher der Horror, das nervenraubende Lotterie- und Rücksende-Spiel wieder einmal über sich ergehen zu lassen. Generell hat bei Hardware/Elektronik die Materialqualität und Qualitätskontrolle sprunghaft nachgelassen in den letzten Jahren. Einfach wieder sorglos ein Gerät kaufen zu können, das wäre eine willkommene Entwicklung.
Ein Freund hat sich drei RX 7900 GREs sowie zwei RX 7800 XTs zusenden lassen - erst die letzte 7800 XT hatte kein Spulenfiepen. Ich glaube, das waren alles Gigabytes.
Ich habe eine gebrauchte ASRock 6800 XT Phantom Gaming, Platine und Phasenlayout identisch mit 6900XT Phantom Gaming, also für mehr ausgelegt als nötig.
Selbst auf 370W übertaktet surrt da gar nichts.
@@fractalcore7691 ich sage mal, es kommt auf den Verwendungszweck an, also wieviele FPS benötigt werden. Wenn du wirklich alles an FPS willst (400+) was geht, dann wird es echt schwer, was das vermeiden von Spulenfiepen angeht. Ich zb benötige es nicht. Hab meine 4090 auf 120fps geregelt und da drehen nichtmal die Lüfter, bei den meisten Games. Spulenfiepen nicht vorhanden. Cyberpunk auf Ultra, mit Pathtracing lastet die Karte zwar richtig aus (99%), aber bei 120fps gibt's halt kein fiepen.
bei mir das gleiche 7900 xt und es fiept. aber mit dem headsetbauf hör ich es ned
Spulenfiepen würde mich nicht stören, hört man normalerweise nicht. Würde mir eher kleinere und leichtere Karten wünschen.
@@coolmind2476 ich würde mir effizientere Karten wünschen
Finde gut, dass AMD sich auf die Mittelklasse konzentriert. Mehr als 500€ find ich für ne Grafikkarte schon happig! Habe zwar auch schon mehr mit der 2080 ausgegeben, aber die Mehrleistung ist es einfach nicht Wert.
Das ist Quark aber okay.
Eine 500 EUR Karte leistet praktisch gar nichts heutzutage. LEIDER sind Karten im Bereich 1000-1300 EUR eben massiv leistungsfähiger. Wer also die Leistung benötigt zwecks Auflösung usw. der kommt mit einem 500 EUR Spielzeug einfach nicht mehr zurecht. Und ich sage es nochmal: LEIDER!!!
@@hirschkuh1982 Das sehe ich anders. Wer 500€für eine Karte ausgibt spielt nicht in 4k oder höher und auch meistens mit 60 vielleicht 75 fps und nicht mit übre 100. Und im Vergleich zu den früheren Generationen ist es durchaus Möglich mit ner 4070/s oder 7800xt in 4k zu spielen. mit ner 2070/5700 war dies zum Beispiel eher nicht Möglich. Man muss halt die Regler bewusst nutzen können und nicht alles aufanschlag drehen.
Daher sehe ich deine Argumentation als nicht sonderlich Stimmig ;)
@ Du sprichst von Full HD, das ist keine Auflösung in der man heutzutage spielen will. Ich habe auch nur 1440p und ich würde weder auf 1080p weil es Scheiße aussieht, noch auf 4k zocken weil nicht mal eine 4090 wirklich brauchbar ist bei 4k.
Dein max 500 EUR Budget beschreibt eben extrem geringe Ansprüche, mit denen ich nichts anfangen kann. Es wäre super, wenn meine 4070ti nicht 800 sondern faire 499 EUR gekostet hätte, aber der Zug ist sowas von abgefahren und die 4070ti Klasse ist eben genau was ich suche. Genug Leistung bei minimalem Stromverbrauch
@@hirschkuh1982 Nein ich Spreche von 1440p und Spiele selbst mit einer 7800xt und komme auf ordentliche fps zahlen.
ABer anhand deiner Argumention sehe ich, dass wir zwei völlig verschiedene Ansprüche haben :)
@@hirschkuh1982 Meine 7900xt kostete 590€ okay, ist etwas darüber, aber auch die 7900GRE gibts für 500€ und ist ziemlich weit oben bei den aktuellen GPUs. Es gibt gute Leistung für unter 1000€. Das Problem ist eher, dass man bei Nvidia nur mehr schlechte Preis/Leistung hat bis auf die 4070s oder evtl 4070ti super... alles andere kannst Geld verbrennen und hast ähnlich viel davon. Das Raytracing ist in sowenigen Spielen wirklich ne verbesserung (lohnenswert) dass der Aufpreis dafür nonsens ist bis auf ein paar nerds.
Ich werde mir wahrscheinlich eine 8800XT kaufen. Bin gespannt.
Ich hoffe AMD macht nicht wieder AMD Sachen und enttäuscht uns alle.....
@Lovecars1218 Inwiefern enttäuschen?
Ich auch!! Sogar als 4090 Besitzer! Weg mit der für 2000€ und nehme die 8800 XT und gut ist. Raytracing ist eh größter Rotz und lohnt sich null 💩🫣
@@Lovecars1218 ich hoffe nvidia macht nicht wieder nvidia sachen und enttäuscht uns in den üblichen punkten...... so eine dumme aussage XD
hofffentlich gibts keine neuen stecker..... kein bock auf ne brennde gpu und mal bissl mehr speicher XD
@@FleischYufka also mehr Speicher hat sich jetzt erledigt 🤣
Mein 5800x3d läuft mit Asus RTX 4080 OC 16GB und läuft Top bei allen Games. RTX 5000 und 8800 lass ich aus.
Alle Grafikarten über 1200 Euro müssten native 4k ohne DLSS , mit max Grafikeinstellung (Raytracing), mit mindestens 120 Fps, über die nächsten 2-3 Jahre spielen können, erst dann würde ich es mir überlegen.
Raff's Daumen hoch zwischendrin ist der Knaller! 😂
Bin immer noch Zufrieden mit meiner 1080TI für die ich 2017 knapp 800€ gelöhnt habe.
Zur heutigen Zeit wäre ich maximal bereit 1.200€ für eine High End GraKA auszugeben.....für die heutigen Preise können die Hersteller Ihre Grafikkarten behalten.
So jetzt kommen meine aktuell beschaften Upgrades. Altes High End Mobo, mit AM4 Sockel und X370 wurde ein Ryzen der ersten Serie 1700x durch den neueren Ryzen 5700x3D ersetzt. Dann die alte Defekte Radeon VII mit einer Geforce RTX 4080 Super. Einen neuen Midi Tower, mit gebogenen Front-Glas, sehr massiv gebaut. Alle Teile lassen sich durch Klipp Verschluss öffnen und schließen. Die mitgelieferten ARGB Lüfter waren zu laut. Liefen alle mit Vollast. Ich habe sie am Mainboard angeschlossen. Dort werden sie runter geregelt. Zum Schluss noch einen neuen großen Monitor mit 34,5" Zoll oder 84,5cm UWQHD 1440p.
Da ich aber noch einen PC 💻 Upgraden möchte, der sich an einem anderen Standort in meinem 2. Heimatland befindet. Werde ich dort das noch gute aber leider mit AM4 Sockel nicht mehr Zukunft fähige Mobo mit einem neuen AM5 Board ersetzen mit dem X670 oder X870 Chipsatz. Dann kann ich auch noch den RAM Speicher wechseln. Von aktuell bei allen DDR 4-3200 Mhz auf DDR 5-6000 Mhz.
Die GPU eine RTX 2080 wird vielleicht durch die neue RDNA-4 Serie abgelöst. Eventuell warte ich vielleicht doch auf die RDNA-5 Serie. Da diese im Gegensatz zur RDNA-4 anstatt einer bereinigten RDNA-3, eine ganz neue Grafikkarten Chip wird. Von Grund auf neu konzipiert.
So habe fertig. Guten Feiertag, und Gesundheit für alle.
Mich plagt wider eine leichte Depression. Dadurch kann ich leider meine neuen Gaming Maschine nicht nutzen. Habe so ziemlich viele Spiele dort, auch neue ältere dazugekauft. Brauche aber neuen Speicherplatz. Mfg
@hombre-lusitano3414 ich hab mittlerweile aufgerüstet, von meinem alten System von Zotac 1080TI extreme und i7 6800K zu, Zotac 1080TI extreme und Xeon E5 2697a V4....Leistung die ich zu Schätzen weiß !!!
@@hombre-lusitano3414du hast kein leben
7900xt 699€ 7900 xtx 950€ schreiß mal auf Nvidia. Hab gewechselt und bin mehr als zufrieden mit team rot
ich hab ne 7800xt und spiel in 4k damit ...... hab 540 euro bezahlt vor 1 jahr .... schatten und Beleuchtung(rt) auf mittle oder low den rest auf max und abfahrt ..... schatten eher high(medim schatten sieht man meistens schon pixel) und beleuchtung je nach game low oder med ..... hat bisher gereicht .... avatar 78 fps avg native(mag das game als bsp könnte natürlich mehr aufzählen) ..... Aber es gibt so sachen wie kontak schatten etc damit kann man natürlich auch "spielen" wenn man sich nicht auskennt
Hab vor nem Monat nen 3. RUN in Hogwarts Legeacy gemacht wegen dem Sommerupdate. Hab mal just for fun meine Daten im expierence zurückgesetzt.
44 Stunden playtime und 110.1 Fps avg wegerden mir Im AMD Expierence angezeigt. leider gehen keine Links oder screens
Ich werde mir für meinen 5800X wohl die 8800XT gönnen.
Habe aber nicht vor, das System gänzlich aufzuwerten, weil der Prozessor noch hervorragende Dienste leistet
Wenn die RT Leistung erheblich gesteigert wird, ist es doch eine super Alternative zu NV. Ich habe die XTX und bin super zufrieden damit, auch im RT Bereich.
2:52 Natürlich nicht.
Im Endeffekt sind es Bauteile im Wert von wenigen Euro's, die die kleinen von den großen Grafikkarten unterscheiden. Wenn man dann noch die Masse dazu zählt,...
Natürlich sollten sich die großen von den kleinen Modellen unterscheiden, doch 2.000€ sehe ich generell weitaus als zu viel an.
Top End Grafikkarten die die Speerspitze der gegenwärtigen Zeit bilden hat es immer schon gegeben. Diese kosteten damals jedoch "nur" ein paar hundert Euro.
Mit dem was heute eine Grafikkarte kostet, hat man ganze 1a Rechner bauen können. Aber humane Preisgestaltungen laufen lange schon immer weiter aus dem Ruder. In allen Bereichen.
Demnach habe ich jedoch auch nicht wirklich etwas anderes erwartet.
Monopolstelllungen sowie Oligopole sind immer schlecht für den Endkunden.
Doch solange er es bezahlt,...
Preis Leistung bei amd ist sehr gut ... 679€ für 7900 xt ist in der Rasterleitung oft schneller als ne beknackte 4080.
Die 4090 bleibt drin bis es nicht mehr spielbar wird. Genauso der 14700k
Das wird wohl noch ne sehr lange weile dauern
Joa aber von einer 980ti upgraden, also warten
Digga die rtx 4090 ist richtig krass. 4k mit raytracing 120hz und mehr geht klar.
Bei mir ist es die 4090 Tuf OC und der 7950x3D. Skippe die RTX 5000er Serie auch.
@@MichaeltheORIGINAL1 für was auch wechseln? die 4090 bleibt overtop bis zur über über nächsten Gen. ähnlich damals der Titan oder der 2080ti
sollte ich ein pc am black friday holen weil die preise sinken würden oder warten bis die rtx5000 und rx8000 reihe rauskommen??
Ja.
Warten
Bro immer die gleiche Frage... Keiner hat eine Glaskugel und du musst wissen, ob du jetzt einen Rechner willst/brauchst oder eben (noch) nicht
Es gibt 2 Regeln.
1. Regel: Rabatt, Rabatt lass dir sagen, wird vorher immer draufgeschlagen.
2. Regel: Hardware dann kaufen, wenn kein anderer will. Das wäre dann im Januar-Februar und Juli-September. Da gibts die besten Preise für Endverbraucher.
Stell dir am besten auf Geizhals deine Komponanten zusammen und lass dir die Preisverläufe anzeigen. dann weißt du, wann du kaufen kannst.
Black Friday ist in deutschland schon immer verarsche gewesen. Warte auf die Zeit nach Weihnachten, Februar/März 2025
Meine Wahl wird zwischen ARC oder Radeon entschieden. Erst wenn ich weiß, was die "Vollausbauten" jeweils zu leisten im Stande sind, wird sich entschieden.
Radeon klingt gut, bei Intel ARC würde ich noch ein oder zwei Generationen warten, da funktioniert vieles noch nicht.
@@gruulihi, Ich besitze seit über 1,5 Jahren eine Arc A770 16GB im Intel Referenzdesign und habe die ständigen Treiberverbesserungen alle miterlebt. Kann sie also aus 1. Hand gut beurteilen. Sie läuft mittlerweile sehr gut und im Raytracing hat sie gleich am 1. Tag meine RX6800 nass gemacht.
Die von Dir angesprochenen Probleme beschreiben nicht den aktuellen Zustand. Und eine hohe Leistungsaufnahme im IDLE sehe ich nicht als Problem. Die FPS zählen und die Dekodiergeschwindigkeit und da ist sie konkurrenzfähig.
Von Battlemage erwarte ich allerdings definitiv noch etwas mehr. Ich bin sehr gespannt, wie sie sich gegenüber einer 8800(XT) schlägt.
@@OnlyHans84 Rein von den Werten müsste die Karte bei einer 6800 liegen, sie liegt aber bei einer 7600XT.
Ich glaube nicht, dass Intel in der nächten Gen. mithalten kann.
Wenn AMD schon nicht mehr im high-end Segment für Grafikkarten mitmischen möchte , müssen die RX 8000er Karten in fast allen Kategorien schon richtig ordentlich ranklotzen.
Der Preis ist viel zu hoch. Da muss man die Karte zwangsläufig irgendwie geschäftlich / produktiv nutzen um damit Einkommen zu generieren ansonsten lohnt sich das null!
Ich wollte mir jetzt ein rx 6800 kaufen sollte ich lieber noch auf die neue Generation warten?
Falls die besser sind bei ähnlichem Preis
Ich habe eine 6800xt vor 2 Monaten von Ebay ersteigert (340€) und auf einen 5700x3D umgestiegen (von 8700k) mit zwei zusätzlichen Ram Riegeln auf 32gb (vorher 16gb) für insgesamt knapp 600€. (Gab noch ne neue AIO dazu und paar Lüfter)
Das hat sich mehr als gelohnt für einen PC von 2018. Ich bin mega zufrieden und mein Budget hat für den Preis sehr viel Leistung heraus geholt.
Ich kann dir die 6800xt empfehlen aber nicht die 6800 selbst. Den kleinen extra Schritt solltest noch machen. Gebraucht sind das glaube ich 40€ unterschied bei Ebay, wenn bisschen die Preise verlgeichst.
Kommt sehr drauf an, was du spielst und in welcher Auflösung. Wenn du nix richtig modernes auf Ultra 4k brauchst, dann ist die 6800 immernoch eine der besten GPUs, wenn du deren Preis anschaust. Die ist zwischen 4060ti und 4070 und hat 16 gb Vram. Kein schlechter Deal für 250€ oder so.
vorab im WINTER PC Parts kaufen ist SO oder SO dämmlich(zumindest wer auf das geld schaut) XD die besten preise gibts IMMER im sommer..... genau das gleich wenn du dir z.b. ein Motorrad kaufst....... das kaufst du im Winter und nicht im Sommer(preis und nachfrage, das grundgesetzt im handle ändert sich nicht).......
"als Ente herausgestellt"
Arme Enten. Müssen immer für Negative Assoziierungen hinhalten :D
Aber Cool dass ihr Santi dass Lisa Zitat habt vorlesen lassen. Klang dadurch viel Immersiver.
Meine Welt lebt von Kompromissen. In Sachen Leistungsaufnahme sind die RTX 70 er immer noch um längen voraus und sollten um 4 Jahre reichen, bis der Speicher nachgebessert wird, wohl nicht vor RTX 6070 , Windows 12 und auch dann nur so viel wie unbedingt nötig.
Das kannst du doch nie sagen, die Leute die damals die 2000 er Reihe von Nvidia gekauft haben waren auch ziemlich enttäuscht und hätten auf die 3000er Serie warten sollen. Also die Spekulationen dass die 6000 oder 7000 Serie dann besser sein werden kannst du so nicht direkt vorhersagen.
Ich denke das auch bei mir in der Kiste mein 13700K und die 4090 noch lange drin bleiben. In der Zeit kann gespart werden.
Bei über 1000€ bin ich raus, wegen noch mehr FPS und mehr Lichteffekte ...
Für solch kleine Updates zahle ich nicht extrem viel mehr Geld 🤑
2000€ für eine Grafikkarte können die ja versuchen. Zur höheren Beliebtheit wird es aber nicht beitragen.
Mit einer 7800XT klingt eine 8800(XT) eigentlich nach einem genau richtigem Upgrade. Rasterleistung passt ja, aber Raytracing hinkt eigentlich bei jeder Karte bisher hinterher. Auch bei der 4090. Außer man steht auf 30-45fps, die man mit Fake-Frames und damit einhergehendem Monster-Tearing und Eingabeverzögerung aufplustern muss, um halbwegs anständige Frames zu bekommen. Da ich aber bei Tearing (also fehlendem Sync) und Verzögerungen richtig extrem abgefuckt bin, scheidet das aus. Letztlich ist immer der Preis und die max. 300 Watt-Grenze entscheidend.
Nutze die 4090 null mit RT/PT obwohl es mir nichts ausmachen würde auch mit FG macht es mir nichts aus aber ich nutze es einfach nicht, weil ich es nicht brauche 😂 verkaufe die 4090 und steige auf 8800XT um wenn die schön effizient wird.
@@wetzlarerjung macht einfach 0 Sinn, die Leistungsfähigkeit einer 4090 in Frage zu stellen und dann mit "Gurken" ala 7800XT/8800XT zu kommen...
Bei dem was die 8800XT leisten wird, verbraucht die 4090 noch lange keine 300 Watt 😅🤷♂️
hab eine 7700 xt für 1080p ein upgrade kommt für mich erst mal nicht in frage aber finde es toll das amd ihre raytracing leistung weiter ausbaut effizienz ist für mich eher nicht so wichtig
Die Preise sind schon extrem. Bei mir ist ein ryzen 7 7800x3d sowie eine rtx 4080 super verbaut. Die bleiben auch erstmal. Die Preise sind alles andere als fair
Ist doch schon high end bei dir, was willst du denn überhaupt upgraden wenn es möglich wäre? Das ist glaube auch nur Geld heraus schmeißen, da bleib lieber bei deinem jetzigen System wie du schon geschrieben hast.
RDNA 4 scheint ein erster Schritt in die richtige Richtung zu sein. AMD plant ja, seine beiden Architekturen (RDNA für Gaming & CDNA für Enterprise) zu einer zu vereinen und den Fokus "nur" auf Entry- & Mittelklasse zu legen. Dadurch können sie ihre Ressourcen hoffentlich deutlich besser nutzen und Produkte gestalten, die NVIDIA's Pendants voll und ganz auf Augenhöhe gegenübertreten können. High End Brecher wie eine 4090 oder 5090 sind zwar cool für's Ego des CEO, praktisch sind sie aber wenig relevant, da sie nur sehr kleine Anteile bei den Sales ausmachen. An seinem Marketing sollte AMD allerdings ebenfalls arbeiten.
Und Nvidia kann sich bei der Preisgestaltung von RTX 5080 und 5090 frei ausleben... Bravo! Nicht.
@@FreeTheWeed Hat NVIDIA doch bei der 4090 auch schon gemacht. Und vor allem sind Karten wie eine 5090 reine Prestigeobjekte die keiner braucht. 4K Gaming auf höchster Grafik mit RT, hohen Fps usw. ist nunmal ein sehr teurer Spaß. Wer das unbedingt haben will sollte auch in der Lage sein bzw. bereit sein, die 2000€ zu blechen. Ansonsten tut es eine 8800XT oder 5070/5070Ti auch bestens. Warum sollte AMD seine Ressourcen für so was verschwenden? Damit die oberen 0,1% der Gamer ihre völlig überdimensionierten Monster GPUs für 1500€ statt 2000€ kaufen können? Da hat AMD als Unternehmen mit breit gefächerter Produktpalette und begrenzten Ressourcen nunmal wichtigeres zu tun. Vor allem, weil im High-End bzw. Enthusiastenbereich noch viel mehr Leute NVIDIA gegenüber AMD vorziehen. AMD würde also haufenweise Ressourcen vergeuden, nur um von den Meisten Leuten aus diesem ohnehin schon kleinen Kundenkreis noch die kalte Schulter zu kriegen. Es macht halt vorne und hinten NULL Sinn.
Seine Ressourcen möglichst effizient zu nutzen, um sich ein starkes Produktportfolio im (für den Marktanteil) relevantesten Produktbereich aufzubauen ist deutlich sinnvoller und wichtiger, als Ressourcen für ein Prestigeprodukt zu verschwenden, das die meisten eh nicht kaufen werden.
@@FreeTheWeed Nicht kaufen und gut ist. Die Nachfrage regelt den Preis. Wenn die Lemminge alle wie Menschen auf Entzug zu jedem Preis kaufen, würde ich als Hersteller auch kräftig absahnen.
@@kaystephan2610 Nicht von sich auf andere schließen.
Ich hätte am liebsten gleich die RTX 8090 für 240 Hz in 4K konstant.
@@FreeTheWeed Was meinst du mit "Nicht von sich auf andere schließen"? Das Grafikkarten über 1000€ ein Nischenprodukt sind ist schlicht ein Fakt. Klar gibt es dafür Käufer und Interessenten, aber es sind eben nicht sehr viele. Ich habe einfach nur kurz erklärt, was Tatsache ist. Subjektive Ansichten hab ich hier nicht wirklich dargelegt.
Bei 0:54 dachte ich erst, es sei Grummelfritz auf dem Bild 😂
Grantelbart rockt bestimmt noch immer seinen Pentium 3 Tualatin + ATI Radeon 9700 Pro
Das heißt eine RX 7900xtx bleibt schneller als eine RX 8800xt oder hab ich was falsch verstanden (raytracing mal außen vor gelassen)
hab mir gerade erst die 7900 xt geholt, Pathtracing ultra 1080p in Cyberpunk und ohne FSR 40 FPS für schönere Pfützen, beim Licht konnte ich nicht viele Unterschiede merken. Alles in allem dann doch lieber in Ultra 160 fps ohne FSR, vllt. in 1440p FSR für die 165hz.
4:12 Erstmals überhaupt 2 Grafikprozessoren für eine GPU?
Was ist mit den Dual-GPU Karten die es früher mal gab, GTX590 als beispiel?
Physisch sind das ja weiterhin 2 Chips, nur bzw. maßgeblich durch die Software und die mittlerweile deutlich schnellere GPU to GPU Bridge wird es dann zu "einer GPU" oder nicht?
Soviel anders als damals ist das nicht, nur dass es eben jetzt als "ein Chip" nutzbar ist, was damals halt wegen der langsamen verbindung als Dual-GPU mit dem Typischen Problem einher ging wie Mirkroruckler. Also natürlich jetzt abgesehen davon, dass es eine Ente war ^^
Achja, Quad-SLI/CF, das waren noch Zeiten. Günstiger als eine 4090 x)
Hier waren mehrere Grafik-Prozessor-Chiplets gemeint, wie bei den Ryzen mit mehr als acht Kernen. Aber Prozessor und IO zu trennen, war möglicherweise sinnvoller. Ich habe vor einiger Zeit gelesen, dass man anscheinend die verschiedenen Funktionen (Rechnen, Speicher, IO) unterschiedlich gut verkleinern kann und damit ein kleinerer Prozess weniger Chipfläche.
@@jochenkraus7016 Ich weiß doch wie es gemeint war, ich wollte nur darauf hinaus, dass die korrekte Ausdrucksweise wichtig ist :)
Ist auch richtig, bzw geht es nicht um das "gut verkleinern" können, sondern um das "sinnvoll verkleinern" können. Da Transistoren, und nichts anderes sind die Schaltungen von CPU, IOD, etc, sich immer verkleinern lassen. Nur eben finanziell nicht sinnvoll.
Es macht Sinn die FP-Adder, Int-Adder, etc sowie Register, Cache, usw zu verkleinern aufgrund von Taktgeschwindigkeit und Leistungsaufnahme. Der I/O Bereich dagegen kann in einem billigeren Prozess gefertigt werden, da es schlicht egal ist ob die PCIe Lanes jetzt in 4nm oder 7nm gefertigt werden. Würde höchstens dem Idle Verbrauch von Ryzen CPUs helfen x)
Die Ryzen CPUs sind hier ein gutes Beispiel. Arrow Lake macht es mit den Tiles jetzt auch so, unterschiedliche Prozesse um Kosten zu sparen, für Dinge die nicht sinnvoll sind, diese teurer und kleiner zu fertigen
Werde vermutlich mal ne Generation oder zwei überspringen. Hab ne 4070 ti super und die bringt mehr als genug leistung
Bedeutet das dass es keinen Nachfolger für die 7900 xtx geben wird, schade wollte mir nächstes jahr ein System zusammenbauen mit einem x3d Prozessor und der 8900 xtx.................
Wieviel vram soll die haben die 8000er
Ich rechne max mit 20gb eher 16. Mid segment eben.
Wie schaut`s eigentlich mit Intel und Battlemage aus? Hab schon lange nix mehr davon gehört.
In den letzten Leaks war nur noch vom kleinen BMG-G21 die Rede - wir tippen darauf, dass der nicht mehr allzu lange auf sich warten lässt. Falls was kommt, erfahrt ihr's natürlich bei uns. :)
#fragPCGH
In den "November Blacksales" bei RDNA 3 (7900XTX) zuschlagen oder doch lieber auf RDNA 4 warten?
Ich schlag zu bei der xtx!
Bin raus wenn es 4-stellig wird. Klar sind Hobbys unter Umständen sehr teuer aber ob der Preis in Relation zur Leistung und den Herstellungskosten steht.....hm.........?
Zeig mal jemanden der auf dem Niveau Chips herstellt?
Herstellungskosten... 🤦♂
Wohl eher Börsenkurskorrelation 😂
Nvidea macht bei ihren KI chips 1000% gewinn. Ist bei den grafikkarten wahrscheinlich nicht viel anders. Das verhältnis von Herstellungskosten zu verkaufspreis ist mitlerweile reinster wucher. Aber wenn apple das kann dann macht es jeder der ein monopol hat.
Warum AMD noch GPUs herstellt weiss ich nicht. Wenn man nicht vorhat zu konkurrieren kann man eigentlich gleich einpacken.
Und mit DDR6 ?
DDR6 ist Arbeitsspeicher und nicht für GPUs.
Ich habe aktuell noch eine RX 6900XT spiele damit auf U-WQHD ich bin erstaunt das die Karte bei den meisten Titeln locker auf ihre 100+ FPS kommt ohne FPS Drops oder sonstiges, gespielt wird in Nativ. Ray Tracing ist für mich nicht wichtig.
2000€ für eine GPU. Da bin ich komplett raus. Das ist doch quatsch!
Da bin ich aber gespannt, was die 8800xt angeht.
Moment die RX 8800 liegt unter der 7900 XTX? Ich dachte soll die Leistung betragen?
Ohh man dann fällt die leider doch raus
früher hätte ich für eine GPU maximal 800€ ausgegeben, da aber mein Gehalt gestiegen ist, ist meine Schmerzgrenze nun bei 1k, deshalb habe ich mir auch vor kurzem eine 4080 geholt. Leider Überzeugt mich am bei ihren GPUs nicht...da kaufe ich lieber die Prozessoren
Interessante Karten für die jenigen die sich einen neuen PC zusammenstellen wollen. Zumal AMD meist die bessere P/L hat.
Was man noch erwähnen sollte ist das Nvidia Grafikkarten sich besser zum streamen eignet. Was die 5090/5080 angeht geht diese werde ich gekonnt überspringen ich habe auch nur eine 4080 drin von zotac weil ich diese "günstig" für ca. 930€ bekommen habe ind meine 3080ti für 500€ verkaufen konnte.
Also ich hab mir einmal ne Graka für 1149.- Euronen geholt(Gigabyte RTX 3080 Vision OC White V2), mach ich nie wieder, einfach zu viel Asche. Werde auch auf Team Rot umsteigen da Preisleistung dort besser ist und ich eh kaum Raytracing nutze.
Puh echt schwer die R290X jetzt mit einer 7800XT zu ersetzen oder doch noch auf die 8800XT zu warten.
Eigentlich ist da gar nichts schwer dran. Die zwei Monate statt danach ca. 2 Jahre auf RX9000 kann man jetzt auf jeden Fall noch warten.
@@wetzlarerjungSehe ich genauso.
wollte ich auch meinen, die zwei Monate schaffste auch noch✌
Schade, dass AMD diesbezüglich nicht gegen Nvidia anstinken kann.
Das sorgt für einen Monopol auf High End Grakas. Heißt, dass sie sich die Preise aussuchen können. Leider werden diese völlig überteuerten Grafikkarten trotzdem gekauft...
2000€ msrp würde 2500€ auf dem Markt bedeuten. Die 5090 kostet mehr als ein Volkswagen Polo Auto.😢🫣
RTX 4090 hat kein Displayport 2.1 😢, deswegen keine Wahl für mich. 7680X2160 braucht DP2.1 , nur AMD hat das aber dafür zu wenig Leistung... 5090 muss es richten
Logo 👍💯 AMD POWER
Ich glaub meine 4080super hat noch viele gute Jahre vor sich
ich würde es gut finden wenn amd mal bei den garfikkarten die nr.1 wird 👍 und mehr spiele support für amd
Welche Spiele laufen denn nicht mit Deiner AMD-Grafikkarte? Ich spiele ja teilweise schon exotisches Zeugs und das läuft alles. Und #1? Die Leute achten nur noch auf FPS... in kaum einem Test wird noch auf die leidigen Optimierungen der Treiber geachtet, die erheblich zu Lasten der Bildqualität gehen. Gerade die Pseudo-K.I. von NVIDIA versaut viele Bilder nicht unerheblich. Gibt zwar Leistung, ist aber nicht so, wie es programmiert worden ist (Spieletitel).
@4CfxthXBhVqTjMHIPIwXjIW6GhKmh0 ich habe zurzeit keine amd grafikkarte da mich das raytracing in den spielen überzeugt hat... meine nächste grafikkarte darf aber gerne wieder von amd sein.
@@GobelinHooligan Mich wurmt bei AMD derzeit, daß das Featurelevel 12_2 unter Windows 11 nicht verfügbar ist. Egal ob RX 6xxx oder RX 7xxx.
Windows 11 beharrt bei 12_1, über Windows Update wird 12_2 nicht freigeschaltet. Kein 12_2 = kein Raytracing (obwohl die Hardware es unterstützt).
@@GobelinHooligan wenn das ähnlich gut läuft wie beim letzten Mal.
Braucht es für FSR 4.0 noch mal 1,5 Jahre wie beim letzten Mal.
Versprochen, bezahlen lassen und später liefern.
Nicht Cool.
AMD wird mit den neuen GPUs nicht mal mit der 4090 mithalten können - deshalb ist euer Titel wieder mal ziemlich reißerisch !
Aber man will ja ein paar Aufrufe generieren...
Wie immer wird es mit der neuen Generation ein paar Fortschritte geben, aber da AMD ab sofort kein HighEnd mehr macht, werden die neuen Mittelklassekarten vielleicht im Bereich der ehemaligen HighEnd GPUs von AMD unterwegs sein. Aber eine 7900XTX wird sicher nicht erreicht. Ob man deshalb unbedingt neu kaufen muss ??
Brauch kein raytracing, hab mir gerade die 7800x3d 7900xt combo geholt. Lieber mehr Leistung pro Euro statt sinnloses RT.
Überall wo ichs aktivieren kann wirds nach 10min deaktiviert weil ich kaum Unterschiede sehe...
9800X3D & 5090 ❣
cringe
@@daveking1528 Was ist hier "cringe" abgesehen von deinem Kommentar?
Warum eine RTX8000 kaufen, wenn man eine RTX 7900XTX haben kann. Macht null Sinn!
Die rx 8800 muss die 7900xtx übertreffen bei halben Strom verbauch
Warum muss sie das ? Die letzten 10 Jahre hatten wir einen Generationensprung von 25% Leistung im Durchschnitt.
Da die 8800 nicht mehr CUs haben wird als die 7800 XT, und RDNA4 nur eine Weiterentwicklung und keine Neuentwicklung ist -
wird die Leistung vermutlich knapp an die 7900 XT reichen, zumindest in 1080p und 1440p.
In 4K und mehr, sowie den Frametimes, wird der 8800 sicher etwas die Puste ausgehen, weil Interface und CU Count der Flaschenhals werden.
@ dann muss sie klein bleiben
Ja wer noch etwas länger warten kann oder möchte. Besser auf RDNA-5 setzen. Wird ein komplett, von Grund auf neuer konzipiert Grafikchip sein Bei der neuen Blackwell Architektur von NVIDIA werden ja bis auf die 5090, die 5080 und 5070 keine weiteren Änderungen vorgenommen. Mit Ausnahme des neuen und schnelleren GDDR-7 VRAM. Somit kann die Mehrleistung nur aus der neuen Architektur und dem faster Speicher kommen. Deswegen erwarte ich dort auch nicht viel.
Ich hol mir definitiv die neue 8900 xtx 😂, auch wenn ich die 7900 xt hab
Unter Rx 8000 soll’s keine highend gpus geben, demnach uninteressant
Ich überlege mir die 5090 zu holen und bis dahin mal meine I7 8700K durch die 9800X3D abzulösen. Bis die 5090er draußen ist, werde ich weiterhin meine 3070 verwenden. Sollte man da auf den PSU-Kauf warten? Ich habe gelesen, dass spekuliert wird, dass man für die 5090 zweimal 12V-2x6 Sockel braucht oder gibt es schon hinsichtlich dessen PSUs da draußen, welche ihr mir empfehlen könnt?
Die frage ist über die Sinnhaftigkeit. Es wird derzeit keine CPU geben die ein 5090 max befeuern kann.
@@surazubi Aber CS2 kann man dann auf 600FPS zocken! Und das sieht das bloße Auge, weil er ein Adler ist!
@@Icezapp1 korrekt 😂👌. Ich habs Geschafft bis 140fps. Piloteneignung usw aber es ist mmn. Kompletter Schwachsinn. Max Programme wie Blender usw aber wer die 2min nicht hat 🙄
Was nützt die ganze schnelle Hardware, wenn die ganzen Games schlecht programmiert und inhaltlich langweilig sind. Mir fällt kein Spiel ein, wo es sich lohnen würde, 2000€ und mehr in einen Gaming PC zu stecken. Vollpreis für Beta Status Spiele, sind ja keine Seltenheit und Anpreisungen von AAA Games waren dann auch für den Popo 🤡
Fuck wollte mir zu Weihnachten eine 4090 gönnen🥹
10700kf + 3080ti, raytracing interessiert mich absolut garnicht.
die 5080 und 5090 sind ja super aber seien wir mal ehrlich wen die 5090 wirklich über 2000 euro kosten soll das ist schon happig weil das für eine grafikkarte (5090 ) schon sehr teuer ist und 2000 euro hat ja auch nicht jeder
da werden eher viele 5080 mit 16 vram / und 5080 mit 24 vram die leute eher nehmen
war bei der 4080 super auch so ,und zur 4070 ti super war es das selbe
bei amd gibt es zwar die 7900xtx mit 24 vram ohne raytracing ist sie schon top
schade das AMD keine highend grafikkarten nicht herausbringt
da greifen die leute eher zur 7900xt 20 vram oder 7900xtx 24 vram
nicht böse sein
ganz bestimmt holt die rx 8000 nicht die nvidia. vorallem wenn der gerätemanager sporadisch die treiber deaktiviert weil sie inkompatibilität aufweisen. nie wieder ATI! sobald die neuen nvidia da sind wechsel ich und bleibe da auch.
Bei allem Respekt, aber die Sprecherin bei 1:44 hört sich an, als wäre es Satire...
Meine 7900XTX bleibt bis nichts mehr damit Spielbar ist.
wird wohl ne rx8700 und ein 5700x3d. denke das reicht für wqhd und 120 fps ohne dlss
Den 5700x3d hab ich auch mit einer 6800xt, sicher dass nicht lieber direkt auf AM5 umsteigen willst mit DDR5 wenn du schon die 8000 Reihe holst?
@@Icezapp1 ne werde am5 überspringen, bis das 4k zeitalter richtig da ist. kein bock immer so ein schweine geld auszugeben.
@@seppmaria73 Dann verstehe ich aber auch nicht die 8700. Der CPU kommt da nicht hinterher mit der GPU Leistung aber klar ein Upgrade ist es dennoch
@@Icezapp1 will eh auf linux umsteigen. da wär doch dann ein ryzen 7 5800x besser. oder eher ein ryzen 7 5700g?
@@seppmaria73 Wenn du zocken willst immer einen x3D holen wegen dem Cache, hab erst vor 2 Monaten auf einen 5700x3D gewechselt vom 8700k, ist erschwinglich und völlig ok. Der 5800x3D ist übertrieben teuer für die Mehrleistung zum 5700x3D!
Preis viiieeeel zu hoch, würde ich nicht kaufen.
Langweiliger kann man rdna 4 specs als ihr, kann man wirklich nicht vortragen 😂
Die Software müsste darauf gut laufen alles andere ist sinnlos
Die Software läuft zumindest mit meiner 7800 XT hervorragend.
Zu teuer gehe lieber zu amd bekomme ich eine unter 1000 Euro
Wir zu teuer? Das Video is doch über AMD, nicht über nVidia
@@blazebluebass 3:05 Die neue 5090 soll 2000 Kröten kosten.. bitte das Video aufmerksam ansehen, anstatt zu schlafen.
@@JohannesR-d1r eine Strix 4090 kostet aktuell 2499,- 😜🔥😅
@@JohannesR-d1r Du glaubst auch alles. Rechne mal mit 3K bei den top Asus oder Gigabyte Modellen.
@@velorianlycine2800 Ich rechne nicht damit, dass das die große Masse kaufen wird. Ich rechne damit, dass Gamer zusammen halten und man sich einigt, dass diese Karten nicht über 1000€ kosten dürfen, egal, wie stark sie sind.
was ist mit den neuen Intel Grafikkarten arc ?
Battlmage sollte glaub ich Anfang 25 erscheinen, wobei sich intel mit infos ziemlich zurückhält, schade eigentlich
ohne das video gesehen zu habe wenn es um ein schader spiel auf bais von cuda geht ja.
aber so sollte eine RTX karte ja seit 7 jahren nicht mehr benutzt werden. sondern mit KI und nicht cuda soll rendern sondern tensor.
aber wenn allen 200 FPS reichen statts nur die nie erreichten 600 FPS wird sich auch nix ändern zu mal der import von guda einfach ist und KI für spiele komplett unbekant ist oder auch AI.
kennt ihr nur ein spiel das irgend eine moderne technik nutzt und nicht mehr shader nutzen muss. das ram und Vram voll kanallt. ich kenne keines weil die alte UT funs voll den müll lieben der aktuell noch genutzt da ist und leider gaming nicht auf das neue next level angehoben hat.
wie soll man da der RTX ki power nur gerecht werden wenn KI komplett mit cpu power umschifft wird was auch zu den intel versagen dises jahres fürte.
gaming ist unflexibel war es schon immer weil es sich nicht an passt sondern nur das alte weiter und neu auf kocht. gaming sollte das KI förder programm sein und macht nur ein spiel KI. nicht mal DLSS kann für die verbesserung genutzt werden arum es nur daten zur verbesserung gibt für DLSS aus dem eigenen streaming cloud dinst geforce now. der dinst hät die karten noch modern und benutzbar.
sogar aht NVIDIA den ram für euch erhöht und ihr seit immer noch nicht zu frieden weil das nix brachte.
schuld sind die spiele entwikler die nur techniken nutzen die alle nutzen können und AMD ist leider eine reine GTX karte und AMD entwikelt sich nicht weiter will sich nicht weiter entwikeln intel müsste mit KI jetzt zeigen was AMD fehlt und AMD muss auch auf den KI zug auf springen.
nicht nur sagen das man es hat und könnte sondern auch machen wie mit RTX von NVIDIA geplant. aber in den vergleichen ist auch bei GTX rendern NVIDIA oben und nich AMD. aber AMD wird gehypt werden NVIDIA gekauft wird. einfach nur noch krank.
sorry aber nicht die hardware ist das problem in spielen sondern die software. MS und spiele entwikler sollten spiele auf KI patchen und kennt ihr nur ein KI patche. hat ein spiel in 8 jahren mal gesagt wir machen KI.
ihr seht das keiner von KI spircht nur von CPU und RAM und müll. CPU coding ist warscheinlich das einfachste darum wird die CPU heute so überstabaziert das man sich die neuste CPU kaufen sollte nur um FPS zu bekommen aber das ist der falsche weg nicht die CPU macht die FPS sondern die GPU. und die geht über CPU funktionen weiter hinaus. mit KI aber das level muss man auch wollen aber alles gehen auf seve und machen nur sichere schritte und sich so weit weg von KI damit das eine 4090 nur 200 FPS schaft mit cuda. eigetlich sollte cuda nicht mehr rendern sondern tensor aber der kann keine shader natif warum man auf cuda gebliben ist. RTX hat nie einer nur mal wirklich versucht mit KI shader zu genrieren in echtzeit. darum speicher man das spiel wie ein film ab alles beim abspielen auch gleich und so das es überall gleich ist jedes feuer oder licht quelle. aber ist das moderne power nein man schrenkt die GPU so ein das man was richtig schlechtes bekommt um den factor 3 schlechter warscheinlich sogar 4 weil mit DLSS dinge verbessert aber nicht die rettung ist für cuda. auch FSR ist nicht das was es sein könnte.
AI könnte AMD schneller mmachen warum warten alle auf den einen der das macht und seinen weg öffentlich macht als mal eigene wege mit der KI zu gehen.
die ganze UT welt kenn KI nichtmal weder cuda noch irgend eine andere KI form dort ist alles reine CPU magie und die hat grenzen. was heist das UT nicht die spitze ist sondern die GPU schon immer die spitze war und ist. aber man muss sie nutzen. bis jetzt hat es funktioniert der weg über CPU aber spiele werden anspruchs voller und brauchen mehr und das bittet die CPU nicht mehr.
ja das ist so lustige wenn man sehen tut wie armselig gaming ist und die preise die publicher verlagen.
aber nix bitte um hier spiel auf das max level zu bringen warscheinlich machen sie das mit absicht nich weil die remake und remaster auch gekauft werden also wir KI benutzt als eine art neu auf lage schlechter hätte es gaming nicht machen können. KI meiden und nur ki machen wenn man nochmal geld will.
der kunde ist doch mit allem zu friden er kauft auch scheisse und sag die ist lecker nur um spähter nochmehr zu kaufen. reine manipulation und grösten wann ist das.
gebe es seit 8 jahren auch KI in spielen währe das was anderes aber es gibts nicht und das ist schlimm warum weil KI mit zeit skaliert nicht mit geld oder cuda. aber das sollten sie seit 8 jahren machen
den code verbessern schneller machen fehler erkenen und korrigieren und auch neue wege finden die man mit der CPU nicht gehen konnte wie stabilität bessere dynamische planung leeren von cache und ram und viese mehr alles mit KI. und was macht ki nix redutzier auf DLSS weil AMD nicht weiter mit KI geht. sauber AMD bremst und alle azeptieren das und sagen AMD ist die freiheit für linux mag sein das linux mit AMD freier ist aber wirklich frei währe es wenn linux KI nutzn kann und mit KI noch um welten schneller ist und wird. weil man dinge die die CPU machen soll auf die KI bringt weil dort schneller und stabiler weil man den code in echtzeit anpassen kann 512 cerne wie tensor machen das möglich als nur die 32 0der 20 der CPU. die langsam sind.
echte schnellichkeit bringt die CPU nicht nur den vorteil schnell einen unbekanten weg zu finden aber nur dann ist CPU schnell für alles was bekannt ist und sahder besteht nur aus dingen die man kennt ist die KI um welten schneller warscheinlich 20 mal so schnell als die beste CPU.
ich weiß leute denken man braucht nur eine hardware kaufen und man bekommt immer das beste was die hardware kann nein so ist es nicht das spiel bestimmt was möglich ist und weiter als GTX ist gaming nicht bereit zu machen. zu aufwenig zu teuer und es kauft auch am ende kaum einer . so denken die game entwikler warum was machen was am ende keiner nutzt. also machen wir weiter GTX das geht auch auf konsolen und wir erreichen mehr leute schmeist die konsolen weg gebt sony kein geld mehr nur dan werden sie KI machen und moderne spiele machen müüsen. sony bedeutet stillstand mag sein das sie mit shadern gutes spiele machen aber best möglichst ist das leider nicht.
nicht wenn tonnen von hardware nur schrott rendern müssen wie nur cuda weil man tensor nicht nutzbar macht. geschwindichkeit kennt keiner und das ist ein problem warum ihr jahr für jahr den müll aller auch kauft.
hat Age of mytologie KI? nein hat das spiel nicht hätte es KI währe das ein kino film aber das ist es nicht.
KI wurde von 3000 zu 4000 generation um den factor 4 verbessert und das kann die karte nicht nutzen. weil KI in spielen nicht da ist. nur rohleisung. aber ki nutzt rohleisung und stellt damit eine neue welt her mit mehr möglichkeiten. dieses mehr hat leider kein system gesehen.
Für die neuen Generation von Nvidia Grafikkarten wird ein zusätzliches Netzteil oder ein netzteil mit mindestens 2000 Watt empfohlen.
Ich warte nur auf den Launch der RX 8700 bzw. RX 8800 XT. Für mich persönlich erwarte ich die Rasterleistung einer aktuellen RX 7900 XT und die Raytracing-Performance einer RTX 4070 (Super). Das ganze darf dann zwischen 500 und 600 Euro kosten. Also, Teetrinken und abwarten, oder wie das heißt.
hab ne 6950xt red devil die is scheiße ich kauf wieder nvidia
Bei amd stört mich erstens raytracing das übelst schlecht ist. Und FSR ist dlss in der Qualität unterlegen. Dlss nutzt extra ki Kerne natürlich ist das Bild besser. Ja und jetzt kommt das schlimmste kein high end da bleibt ja nur NVIDIA für mich, weil ich nur 4k zocke.
Meine Vega 56 pfeift aus dem letzten Loch, ist aber ein Krieger und wird weiter 5 Jahre packen
@@harambeisstillalive4410
Nach meiner Radeon Vega 64, kamen eine RTX 2080 und Radeon VII. Auf noch 2 anderen Systemen zum Einsatz.
Die Vega 64 blieb mit ihrem Partner den Ryzen 1700x zusammen.
Während ich 8 Monate später eine RTX 2080 dazu kaufte. Da ich Ihr eine eigene Umgebung geben wollte, kamen noch ein Ryzen 2700x mit x470er Board dazu.
Aber ich wollte unbedingt noch die Radeon VII haben und sie gegen die GeForce RTX 2080 verbleichen. Somit kamen noch ein Dritter Tower dazu. Mit gleicher CPU und gleichem Chipsatz, ebenso gleichem DDR-4-3200 RAM. Der Vergleich war wie es erwartet hätte. Keine der beiden Karten war im Rasterizing eindeutig schneller. Mal gab es ein par FPS mehr oder weniger bei beiden GPUs. In gleicher Auflösung, bei identischen Games.
Leider ist die Radeon VII defekt gegangen. Die RTX 2080 kam an einen anderen Stellplatz. Ich blieb deswegen auf meine alte Radeon Vega 64 angewiesen. Sie ist auch heute noch für 2K QHD geeignet. Mit mittleren Details und Texturen auf Hoch. Alle Games die ich bis jetzt mit ihr gezockt habe, haben gut funktioniert mit 50-60 FPS. Nur bei Metro Exodus musste ich die Auflösung etwas reduzieren.
Da ich aber sowieso Upgraden wollte, kam mir das Spiel Alan Wake-2 entgegen. Das konnte man wegen Grafikfehlern und sehr schlechter performance kaum zocken. Einige Bäume erschienen als Spitze, lange schwarze Gegenstände. Die FPS waren mit 30-35 ein Debakel. Egal welche Auflösung man als nativ und tatsächlich gerendert einstellte. Es änderte sich gar nichts.
Nach einigen suchen im Internet bin ich der Ursache auf den Plan gekommen. Dieses Spiel nutzt Mesh-Shader bei DX12_2. Die Radeon Vega 64 hat aber nur DX12_1 Unterstützung. Es gab ein Update von Remedy, dem Studio, der das Game 🎮 herausgebracht hat. Dieses war aber nur eine Unterstützung für die alte GTX 1080 von NVIDIA. Da dieses Muster auch nur DX12_1 unterstützt und noch sehr verbreitet ist.
Nun zum Punkt des Upgrades. Ich wollte unbedingt die beste Lösung zw. RayTraycing Leistung und Preis-Leistungsverhältnis. Mein absolutes Limit bei GPUs war eigentlich 700-800€ gewesen. Aber bei nur 180€ Unterschied von der RTX 4070 TI Super zur RTX 4080 Super, dachte ich mir, da investiere ich lieber noch etwas dazu. Und bekomme nochmals 12-18% Mehrleistung dazu. 820 zu 998€. Somit griff ich zur RTX 4080 Super und einen Ryzen 5700x3D. Nebst neuem Gehäuse und Monitor. 34,5" Zoll curved Design UWQHD mit 165 Herz.
Als 4090 Besitzer: ihr könnt euch euer 💩 Raytracing und Pathtracing sonst wohin stecken!!!🚫
Da laut Gerüchten die 4090 zwischen der 5080 und 5090 angesiedelt ist, hoffe ich auf einen guten Verkaufspreis meiner 4090, die dann durch eine 5090 ersetzt wird.
Kann man nur hoffen das die Fehler der Vorgänger Generation behoben werden.
Im Standby braucht keiner einer Graka die 120Watt vernichtet.
Dann müssen die noch günstiger werden als die Vorgänger.
Sonst geben sie das Feld ganz an NVIDIA ab.
Spannende Aussage. Ich habe gerade 3 Echtzeit-Transcodes von Full-HD-Material über den AMD VCE Encoder laufen. Es sind vier Bildschirme angeschlossen (2x FHD, 2x 4K). Der Energieverbrauch der RX 7800 XT liegt bei 83 Wh. Im Idle liegt sie bei 74 Wh.
Ziemlich abenteuerlich, dann von 120 Wh im Standby auszugehen.
Kannst du diese 120W im Standby mit aktuellen Zahlen belegen?
@@4CfxthXBhVqTjMHIPIwXjIW6GhKmh0 nein. Das wovon ich rede war das Problem bei 2 HD Monitoren beim erscheinen. Das wurde Stark bemängelt.
Das weißt du sicherlich.
Das AMD da nach gebessert hat ist auch bekannt.
Das es immer noch so viel ist hätte ich nicht gedacht.
Aber danke für dein Betrag.
@@Jaffech0203 geh zurück bei der PCGH auf UA-cam zu den Erscheinungens Videos der AMD Karten.
Bitte.
@@MacTerrorable So viel? Ich habe keinen Standby-Betrieb erwähnt, aber paßt schon.
PS: Auch NVIDIA hatte schon Standby-Verbrauchsorgien, gerade bei Multimonitor-Betrieb. Und das im IDLE, nicht im Standby.
Mal schauen, wenn mein Rechner so weit ist, gugge ich mal, was er im Standby verbraucht.
Meine Güte sich über Preise beschweren weil eine Grafikkarte locker 2500€ kostet. Ist halt so wer es warm haben will muss heizen. Ich würde mich auch nicht beschweren wenn ich jährlich alleine 20 000€ nur für den Ölwechsel eines Bugattis bezahlen müsste. Das ist dann eben nichts für Bettnässer, Gering Verdiener oder Harzer.
RT interessiert mich 0
Raytracing = der unnötigste 💩 in der Gaming Geschichte 🎯
Und ich würde mir keine nvida zu kaufen über 2000 Euro bleib ich lieber zu amd und bezahle nur ungefähr 450 Euro
Bist halt nur angeschmiert, wenn Du CUDA brauchst (bspw. für KI-Bild-/Video-Erstellung und LLM). Der Geschwindigkeitsunterschied ist extrem, auch wenn man DirectML nutzt.
@@ReneGebhardt-il1qz offenbar ein Bot
@@MacTerrorable bin kein bot
Meine 2080 Strix hat gerade mal 200€ aufm Gebrauchtmarkt gekostet. Ich würde nie mehr als 600-700€ für eine neue, starke GPU ausgeben. Eher warte ich und kaufe dann günstig aufm Gebrauchtmarkt, weil die Karte den größten Wertverlust bereits geschluckt hat. Für die bekomme ich in 2-3 Jahren noch so 100-150€. Ich rechne eher in Wertverlust / Zeit im Verhältnis zum Anschaffunfspreis.
So habe ich immer wieder nur kleinere Beräge investiert, um meinen PC soweit aufzumotzen, dass alles flüssig mit genügend FPS läuft, ohne, dass ich jemals über 600€ direkt auf einen Schlag bezahlen musste. Spaß, ohne, dass es mich finanziell ruiniert. Ich denke, dass will auch jeder haben.
@@ReneGebhardt-il1qz du wirst lachen: es gibt auch Karten von Nvidia in dem Bereich 🤷♂️
Nur weil man sich das Topmodel nicht leisten will/kann, muss der Rest ja nicht schlecht sein. 🤷♂️
Lol
Moment die RX 8800 liegt unter der 7900 XTX? Ich dachte soll die Leistung betragen?
Ohh man dann fällt die leider doch raus