Ich bin dafür, dass die Spieleentwickler einfach mal ihre Spiele richtig optimieren sollten. Man sieht doch an der Nintendo switch (die Technisch auf gefühlter PS2 Leistung läuft), was durch Optimierung alles rausgeholt werden kann (siehe Mario Kart 8, Zelda etc.). Ich will doch keine 2000€ für Graka 800€ für Prozessor, 500€ für den restlichen Schnickschnack und nochmal Vollpreis für ein Spiel zahlen, was dann ohne DLSS und Upscaling auf 30 FPS läuft. Vollkommen unverständlich für mich. Aber solange die Verkaufszahlen stimmen, sind wir selber Schuld, dass wir in dieser Situation sind.
@@FreeTheWeed Da kannst du dann in 1-2 Monaten drauf schielen, die meisten Retailer haben eine einstellige Summe an 5090 auf Lager, das wird ein Scalper Spaß werden.
Würden sich die meisten Entwickler nicht mehr einfach so auf dem Unreal Engine 5 Baukasten ausruhen und ihre Spiele mal optimieren, dann hätten wir nicht teilweise so miserable FPS in UHD gezockten Games.
Um diesen Kommentar etwas zu entschärfen: Im Bereich Spiele-Konsolen wissen die Entwickler genau, worauf sie programmieren müssen, es gibt exakt eine CPU und eine GPU bzw in der Regel sogar nur einen SoC, auf dem das Spiel laufen muss. Im Bereich PC gibt es 2 große CPU Hersteller mit x verschiedenen Modellen, es gibt mittlerweile 3 verschiedene GPU Hersteller mit x verschiedenen Modellen und gefühlt muss das Game auch noch auf einem Pentium 4 von Anfang 2000 laufen, damit auch jeder Kunde/Konsument/Gamer abgeholt wird. Da ist Optimieren dann plötzlich gar nicht mehr so einfach. Mag sein, dass manch eine Engine wie n Sack Nüsse läuft oder die Entwickler sich auch ein bisschen darauf ausruhen, dass sowas wie DLSS oder FSR die Games schon zum Laufen bringen, aber zu einem großen Teil liegt es einfach an der Hardwarevielfalt im PC-Bereich und das eine Optimierung auf jede neue oder alte CPU/GPU, die (noch) irgendwo läuft, einfach extrem zeitaufwendig und damit auch kostenintensiv wäre.
Ich spiele gerade Portal Revolution mit meiner RX 6800. Locker dreistellige fps in UWQHD mit max. Details inkl. MSAA. Und das bei schönen Echtzeitreflektionen (nicht nur Screen Space!) und dynamischen Lichtern und Schatten. Es sieht für die alte Source-Engine wirklich gut aus. Portal RTX mag das realistischere Beleuchtungsmodell haben, aber mit 1 fps völlig unspielbar.
@@V1k1ng90Ich frage mich, warum man dann nicht einfach auf die schwächste Hardware hin optimiert. Denn wenn es auch darauf gut läuft, kanns mit schnellerer Hardware nur besser werden.
@@V1k1ng90aber es klappt doch bei Konsolen Exklusivtiteln auch wenn die auf dem PC erscheinen. Bei Horizon haben bei Teile super perfomt. Und die haben klasse ausgesehen. Und wenn die framerate nicht offen war gab's z. B. für elden Ring eine Mod. Das Problem ist eher das die lieber alle ihr eigenes Ding machen, anstatt sich zusammen an einen Tisch zu setzen und sich eine Technologie zu überlegen, mit der alle mehr Geld verdienen könnten anstatt beschränkt auf seinen eigenen Profit fokussiert zu sein. Etwas wo jeder Entwickler sein Spiel drauf optimieren kann und wenn dadurch veraltete Hardware ausgeschlossen ist. Ja, dann ist das eben so. Wenn jemand es nicht hinkriegt, nach 10 Jahren mal von seiner 1080 ti zu upgraden, dann ist derjenige. Halt eben selbst dran. Schuld. Ich kann nicht mit einem 10 Jahre alten oder noch älteren Rechner erwarten aktuelle Titel zu spielen. Aber wenn ich mir so Titel wie Indiana Jones oder Star wars Outlaws anschaue, dann kriege ich einfach nur das kotzen.
Es wird doch nicht immer benötigt, mir persönlich egal, ob ich 3 Bildschirme habe oder halt sowas dann einbaue... vollkommen ok, will dann ordentlich Ruhe haben daher ist die 5090 schon fast gekauft, wollte mir so oder so ne 4000er +- bauen, Was mich interessiern würde, braucht man bei sowas besonderes Lüftungssystem, weil Wärme wird halt echt mehr.
Perfekt auf den Punkt gebracht. War bei der 30iger Serie genau so . Für Besitzer einer 40iger Karte eher uninteressant die Teile . Wer neuen PC baut oder von älterer Generation (Gtx 10ner oder rtx 20iger serie )Upgradet vielleicht zu empfehlen. Wobei ich da auch mal abwarten würde wie sich 5070/ti schlagen werden .
@@seelenschnitterr ja definitiv Schade das sich das in Richtung Monopol entwickelt für nvidia. Wäre gut für den Markt wenn AMD und Intel da auch noch was Konkurrenzfähiges entwickeln würden .
Moores Lore is Dead - Nicht. Wir sollten aufhören das Nvidia Marketing so hoch zu bewerten und uns davon beeinflussen zu lassen. Das mehr Rohleistung möglich ist zeigen 4090/5090 das wäre auch in den kleineren Leistungsklassen möglich. Denn auch eine RTX5090 ist nicht der Blackwell Vollausbau. Nvidia möchte das zu einem Großteil aus rein wirtschaftlichen Gründen nicht. Kleine Leistungssprünge zwingen Spieler öfter dazu eine neue GPU zu kaufen, ebenso verringern leistungsschwächere GPUs Produktionskosten und steigern die Gewinnmarge, als wenn man eine 5070ti in der Preisklasse einer 5070 bieten würde. Ebenso arbeitet das Marketing daran uns einzureden das die ganzen AI Gaming Features wichtigere Kaufgründe sind als Rohleistung bei neuen Produkten. Ebenso betreiben sie Kundenbindung mit Softwarefeatures.
Das Problem, was ich bei Multi Frame Gen sehe, ist dass, wenn man zum Beispiel nur 60 FPS hat, oder sogar weniger, und sich dann schnell um, sagen wir, 180° dreht, die KI garnicht wissen kann was dazwischen kommt, da beide Bilder keine zusammenhängenden Merkmale mehr aufweisen. Klar das Problem besteht mit Normaler Frame Gen auch, aber da sind es auch nur die hälfte der Bilder die man sieht, bei Multi Frame Gen allerdings der Großteil. Das macht schon einen Unterschied, ob der Großteil der Bilder irgendein Unsinn ist, weil die KI einfach keine zusammenhänge sieht, oder „nur“ die hälfte. Nicht falsch verstehen, ich bin mega Fan von KI allgemein und DLSS, aber bei Frame Gen müsste die KI viel tief greifendere Informationen zum erstellen der Frames bekommen und nicht nur das was wir am ende auch sehen. Denn es geht bei mehr FPS ja darum mehr zu sehen, als mit weniger und das ist so wie es jetzt ist schlichtweg nicht möglich. Es ergibt aktuell nur sinn, wenn ohnehin schon genug FPS gerendert werden und die KI das dann nochmal mit Kosmetischen Zwischenbildern versüßt. Dann sind aber auch doppelt so viele Frames mehr als genug.
So wie ich es verstanden habe schaut sich die KI ja nicht nur direkt die beiden Bilder an sondern weiß genau was um dich rum passiert, deshalb muss Framegeneration ja auch extra ein die Spiele eingebaut werden und funktioniert nicht standartmäßig in jedem Spiel. Nichts desdo trotz dürften die Qualität der KI Bilder mit abnehmender nativen Framerate ebenfalls abnehmen.
Die eigentliche Frage ist, ob es bei zb 200 FPS wie Alan Wake, und damit alle 5 ms ein Bild, überhaupt auffällt, wenn bei einem Einzelbild mal generierter Quatsch, wie ein sechster Finger bei einem NPC, auftaucht. Wenn natürlich 3 von 5 Bildern Quatsch sind, mit einer relativ langen Anzeigedauer, weil Crysis nur mit 15 FPS trotz MFG läuft, dann sähe es natürlich ganz anders aus. Mehr Sorgen machen mir die 1% Lows. Bei Cyberpunk gehts, da sieht man, dass DLSS 4 offensichtlich gut optimiert wurde. Bei Alan Wake haben wir Einbrüche von gut 200 FPS auf gut 50 FPS, da könnten für das geschulte Auge wahrscheinlich schon mal Mikroruckler zu sehen sein. Auch wenn nur 1% Low, das sind schon extreme Framerateeinbrüche.
@@V1k1ng90 die eigentliche frage ist, wer um himmels willen braucht 200 fps bei alan wake. Also, spiele in denen ich frame gen nutzen kann (hoch qualitative singleplayer) kann ich ja auch bereits mot ner 4000er und FG mit über 100 fps spielen was für diese art von spiel völlig ausreichend ist. Spiele, in denen irgendwie 200fps überhaupt sinnvoll oder wahrnehmbar wären wie multiplayer oder competetive titel sind nicht für frame gen geeignet. Wozu das ganze also?
@@dartharagon9129Ein Nebeneffekt der keistung und der Technik. Bei cyperpunk hadt nur 100fps auf max. Indiana Jones weniger. Man muss schon differenzieren, auf die jeweilige Anwendung.
Mich würde vor allem die Wärmeentwicklung/Lautstärke von der FE interessieren. Hat NVIDIA es wirklich geschafft, diese Leistung in den kleinen Formfaktor gut umzusetzen?
Die Grafik in Spielen war früher einfach besser, weil die noch wussten, dass gute und coole Beleuchtung besser ist als realistische Beleuchtung. Mein Gott, ich spiele doch keine Spiele, um das reale Leben zu erleben, ich spiele, um ein Abenteuer zu erleben, was ich im echten Leben nicht kann.
@@marcelberndt505Der zweiten Teil deines Texten mit dem “AFD-Wähler” hättest du dir klemmen können. Einfach nur eine infame Mutmaßung, die in keinerlei Zusammenhang der getätigten Aussage steht.
@zoroa2433 Du triffst es damit auf den Punkt. Ein gutes game entführt einen in andere Welten, wie ein gutes Buch. Da ist dieser pseudo-realistische Schnickschnack gar nicht für nötig. Ok, nice to have, aber eben auch verzichtbar.
Ehrlich gesagt fehlt in dem Video eine sehr entscheidende Information. Wenn Nvidia mit KI die Frames rät statt zu berechnen, ist das völlig ok, solange die Karte gut rät. Halluziniert sie hingegen häufig üble Artefakte, so wären die geratenen Frames (und damit die Karte) nutzlos. Wie sieht es denn da aus?
@ Hab tatsächlich die 4080 GameRock OC und bereue damals nicht gleich die 4090 von geholt zu haben.. Zocke in 4K und brauche die Leistung. Die 4090 GameRock hat übrigens beim Kühler auch ne Vapor Chamber, die 4080 nicht.
@@marksoner8166 Ja, damit du die dann mit 50% Preisaufschlag verticken kannst. Oder du trollst einfach nur rum und hoffst, dass irgendwer durch dein armseliges Gehabe beeindruckt ist.
Vielleicht liegt hier ein Interpretationsfehler vor. Das Spiel heißt nicht Cyberpunk 2077 weil die Spielwelt in dem Jahr spielt, sondern weil Nvidias Grafikkarten-Technik dann endlich so weit ist, dass dieses Spiel flüssig läuft 😜🤣
Nvidia bringt bei JEDEM neuen Grafikkarten Release ein neues DLSS Feature welches traurigerweise (zwinker) nicht auf der vorherigen Generation funktioniert. Das Feature ist dann über die Lebensdauer der Generation bei gefühlt 200 Titeln verfügbar und dann heißts wieder ab zum nächsten neuen Feature...
Ich denke, je höher die Leistung einer Grafikkarte wird, desto geringer ist für uns der spürbare Unterschied. Es sei denn es kommen nur noch Spiele raus, wo solch eine Leistung benötigt wird. Im Moment ist es einfach Geldverbrennerei. Der zu erwrtende Kaufpreis und die monatlichen Stromlosten machen solch eine Karte für die meisten Menschen einfach unerschwinglich.
@@1m3INc2 Natürlich, das will ich dir ja auch nicht absprechen. Es wird immer Leute geben, die bereit sind dieses Geld ausazugeben, weil sie einen Nutzen für sich sehen. Bei manchen ist es der Beruf und bei anderen das Hobby. Es gibt bei einem Hobby ja auch kein Richtig oder Falsch. Ein Hobby muß man eher mit "Haben will" als mit Logik erklären. Da bin ich ja nicht anders ;-) Es Ändert aber trotzdem nichts an meinem Post.
uff, meine 1060 (6gb) hab ich schon vor 4 oder 5 Jahren in Rente geschickt. ich würde dir nh 4060/5060 wärmstens empfehlen, kostet einmal um die 350€ aber du bekommst locker 4x so viel Leistung
@@woodoo1660 ich warte noch die Tests und Wertungen der 5060 ab, ansonsten hole ich mir ein komplett neues Setup mit einer 4090 und OLED Monitor, ich zocke leider aber nur noch Fortnite momentan.
Da muss man ja mittlerweile ne Niere verkaufen, um sich ne neue Graka besorgen zu können (Scherz am Rande!) 😅 Finde es trotzdem frech… Vorallem wenn man den Aspekt der Verfügbarkeit noch betrachtet und die Scalper + Customhersteller nochmal den Preis massiv in die Höhe treiben, da kann man ja nur mit dem Kopf schütteln. PS: Ich hoffe den Scalpern rutscht beim Händewaschen die Ärmel runter. Gruß und mach weiter so 👍🏼
Also was ich immer nicht ganz verstehe bei einigen Kommis hier. Wir sind doch lange nach der 3Dfx Ära wo die Leistung rein durch Hardware bestimmt wurde. Jetzt geht es halt so weiter. Damals mussten Spiele auf Glide laufen, heute auf DLSS morgen auf? Wer weiß das schon. Und was man nicht vergessen darf: Software Entwicklung schluckt nicht mehr viel weniger als Hardware Entwicklung. Und Hardware ist nix Wert wenn Ihr keine vernünftige Software habe (und andersrum)
Ich finde, dass das ganze Gejammere einfach nur hart lächerlich ist. Ich meine, was habt ihr erwartet? Es wird immer schwieriger die Fertigungsprozesse zu verkleinern, sodass klar war, was dabei rauskommt. Und ganz ehrlich: die Leistung der 4090 reicht nach wie vor mehr als aus. Nvidia hätte genauso gut auch den Leistungssprung von der RTX 3090 auf die 4090 kleiner ausfallen lassen können, sodass der jetzige Sprung höher wäre. Vermutlich hätte sich keiner beschwert. Aber Nvdia hat das nicht getan, weil man bloß kein AMD in der Nähe der eigenen High-End-Karte sehen wollte. Vorallen Dingen können sich doch eh die wenigsten so eine RTX 4090/5090 überhaupt leisten. Und trotzdem blubbern alle mit und monieren ohne Ende. Macht euch nicht lächerlich. Das ist voll Kindergarten.
Es wird bald einen neuen großen Sprung in der Miniaturisierung geben. Das hoffe ich zumindest und ist auch erwartbar, in Anbetracht der Entwicklungen der letzten Jahrzehnte in diesem Bereich. Denn dann ist kein Bedarf mehr für die KI Zauberei, die sichtbar hässlichere Bilder auf den 4k Monitor zaubert, wenn man 4x Multiplikator auf der 5090 aktiv hat. Verwaschener und unscharf im Bild, das kann nicht die Lösung sein. Die 5090 kommt mir vor wie der hilflose Versuch, aus der 4090 auf Kosten der Qualität in der Grafik und irrsinnigem Energieverbrauch eine neue Grafikkartengeneration zu realisieren, und diese Krücke dann zu weit überhöhtem Wucherpreis verscherbeln zu wollen. Das geht zur Zeit leider alles in die ganz falsche Richtung...
Wie ich meine FPS erreiche ist mir nicht wichtig, aber ich finde diese Preise und vor allem die Leistungsaufnahmen unglaublich schrecklich. Ich meine hallo, ich so groß ist mein Balkon nicht für Solarzellen, um den scheiß zu betreiben. Mein Fazit: schlechte Graka! Ich dachte wir kommen irgendwann mal dahin, dass ein Gaming PC Weniger Energie benötigt. Einfach Modern ist. Ich bin enttäuscht.
@@PisaroOne ob das auch für MFG gilt, ist aber noch nicht geklärt. Laut Testern, soll man es nämlich nicht merken, weil die 50er, nen chip dafür hat, um die Frames, 1 Frame bevor es an den Monitor gesendet wird, nochmal zu syncen.
#KreativeFragen könntest du mal ein Viedio machen vieleicht auch erst dann wen die 5070 raus ist und die 5090 dann so drosseln (auf die selbe TDP) wie eine 5070 oder do und schauen wie effizient und so die Karte dann ist oder die 5090 auf 250W drosseln und schauen oder vergleichen mit anderen 250W Karten wäre mal Interessant
Selbst wenn es physisch nicht mehr möglich ist, bessere Leistung auf traditioneller weise (ohne das jetzt die TGP höher geht) aus den Grafikkarten zu holen, finde ich es trotzdem mittlerweile einfach nur traurig, wie schlecht die spiele doch optimiert sind. Wenn die KI zu 100% die korrekten Frames generiert würde ich vllt. noch sagen, dass man es machen kann aber die Spiele sollten zumindest ohne diese Option spielbar sein und da die KI noch nicht perfekt ist, sprich Artefakte an den kanten und so, bin ich einfach kein Freund davon.
Ne kein Rückschritt, da nunmal die Grenzen der Fertigung schon ausgereizt sind und dann ist das nunmal ein Problem. Alles in Allem ist die 5090 aber nicht viel ineffizienter als die 40, selbst mit dieser grossen Zahl. Es ist eher schade, dass es 2 Jahre dafür braucht um dann eben nicht mehr bieten zu können.
@@exajoules Ja, aber schwierig, wenn bei denen die Kosten viel geringer sind als bei anderen. Aber grundsätzlich sollte Strom immer ein Faktor sein,ja. Immer mehr Power durch Strom ist nunmal eben nicht der Weg der es sein sollte. Unabhängig mal davon,ob es die Ableistung rechtfertigen würde.
Gibt es bereits. Also wo statt elektrizität licht verwendet wird. Nur ähnlich wie die Quantencomputer ist die Technik einfach noch nicht so weit um im Main Stream anzukommen.
Dann können wir ja jetzt 2300 € ausgeben um im Juli Stronghold Crusader: Definitive Edition in 4k zu spielen 😂😂😂 Mal ganz ehrlich, wo soll dass mit den preisen noch hinführen?
@@lordbauer - hab wirklich sehr lange nix mehr mit und somit auch am PC gemacht. Will jetzt aber eine zukunftssichere Lösung für 4k in hoher Auflösung. Intel ist dafür zu schwach und selbst AMD sehe ich bei 4k kritisch. Die 5090 ist mir def. im Preis-/Leistungsverhältnis zu teuer!
@LowsHand Ich sage mir solange meine Monitore, die auf 1080 P laufen, noch funktionieren brach ich keine bessere Grafikkarte. Ich hab zwar eine PlayStation 5 die ich an einen full HD fernseher angeschlossen habe was im prinzip auch verschenkte leistung ist. Aber warum dinge wegschmeissen die noch funktionieren😊
@@David-s4e7e Das ist einfach mal gesagt, SCHWACHSINN XD! Da es ja Modelle der selben Karte gibt, die es nicht haben! Es ist schlichtweg ein Mangel an Wissen deiner Seits, und ein Mangel von Qualität der Firma, haben einige Firmen auch schon zugegeben! Dazu muss man wissen, was Spulenfiepen ist, wie es entsteht und wie diesem engegen gewirkt werden kann... peinlich das du es als unumstössliche Physik hinstellst...
Ganz einfach gesagt ich glaube die größten probleme was FPS angeht liegt bei der Spiel Optimierung der Entwickler. Ich denke auch das die Grafikkarten schon am limit sind und wir gar nicht richtig sehen wie stark die Hardware eigentlich ist. Ich könnte mir vorstellen das zb Cyberpunk 2077 in 4k nativ flüssig mit 120fps+ laufen würde wenn die Entwickler ihr spiel richtig optimieren würden. Weil ich hab manchmal das Gefühl das spiele mit dem „selben“ Grafikniveau unterschiedlich stark performen. Ich hoffe es ist verständlich was ich meine. Wir werden in Zukunft keine großen leistungssteigerungen mehr hinbekommen und müssen uns jetzt mit Ki und dem ganzen anfreunden und solange die Qualität nicht leidet und man in Zukunft vielleicht keine unterschiede mehr war nimmt zwischen nativ und upscaling ist mir Ki echt recht damit ich ein flüssiges und spaßiges Spiel Erlebnis habe. Könnt gerne sachlich diskutieren.
Cyberpunk läuft mittlerweile richtig richtig gut. Gerade RT mit Pathtracing zieht halt unfassbar Performance und hat weniger mit schlecht optimiert sein zu tun.
Wo der i9 14900KS rausgekommen ist dachte ich schon, dass es im Hardwarebereich nicht mehr viel versoffener werden könnte. Aber fast 600W unter Volllast?! Das ist nicht mehr normal. Erstens wegen diesem 12VHPWR-Thema, wo ich jetzt schon drauf warte bis da der erste Stecker wieder abfackelt, und zweitens will ich gar nicht wissen wie das Zocken dann bei 30° Außentemperatur im Sommer wird🤣
Klar ist, dass für eine signifikante FPS-Steigerung wohl eine neue Technologie her muss. Eine KI einzusetzen ist nur eine Verlegenheitslösung... so wie auch der Umstieg von Kupfer auf Licht beim Datentransfer (Inet/Server/...) erst durch die Technikumstellung möglich war. Aber bei der aktuelle GraKa-Technologie zu resignieren nach dem Motto "Öh, das wird wohl jetzt die Zukunft sein" ist eine Kapitulation am Fortschritt!!!
Das ist keine "Kapitulation" am Fortschritt. Das sind neue Möglichkeiten zusätzlich . Andere Frage.Wass ist denn schlecht daran? Unabhängig mal von den negativen Aspekten, sondern rein von der Idee her.
@ klar sind das zusätzliche Möglichkeiten. Die Argumentation im Beitrag hört sich so an, als würde es jetzt so sein, dass nur noch durch KI-implementation eine Verbesserung möglich sei und daran müsse man sich gewöhnen, da man am Ende der "Möglichkeiten" (4nm etc) angekommen sei. Und schlecht ist eine KI für gewisse Zwecke einzusetzen nicht grundsätzlich. Nur wenn man sich von der Hardwareentwicklung verabschiedet.
Alleine schon wegen der Erklärung von "Blackwell" und "ADA Lovelace" ein gutes Video! Habe mich das schon immer gefragt und du bsit mehr oder weniger der Erste der das so in einem Video erklärt - top! 👍
Star Citizen ist aber auch ein Sonderfall, da das Spiel eines der wenigen ist die auch eine 16C CPU komplett auslasten und damit viel viel stärker SSD- und CPU-Heavy, und vor allem dort dann entsprechend Anzahl der Kerne, ist als 200-300 MHz Takt +-. Und das auch fast egal auf welcher Auflösung.
Welche spiele laufen denn heute auf der 4090 optimal sodaß sie voll ausgelastet ist????Leider werden genug leute den Rotz wieder kaufen nur um zu sagen ''Ich hab ne 5090 daheim''....
MEGA Starkes Video! Vielen Danke für dein Arbeit und Zeit die du in die Videos steckst ❤ Schade über 10k aufrufe ABER und dann nur etwas über 1 Likes... Du hast definitiv mehr verdient für deine Arbeit und Hingabe der Videos. ❤
Ich finde tatsächlich, dass ich nicht gerne mit Dlss spiele, z.B. War Thunder, da ich den Graphischen unterschied einfach zu stark wahrnehme (das ganze game wirkt unscharf) deshalb habe ich da so meine Zweifel...
Da ich ein 4K OLED 240Hz besitze, werde ich auf jeden Fall upgraden. Kann zwar mit meiner 4080 Super noch alles gut zocken, aber ein bisschen Luft nach oben schadet ja nicht. :D
@@Alex-bl8uh Nope. Es geht hier um die 4080 zu 5090, da zum Zeitpunkt des Kaufs eine 4090 zwischen 2000-2300€ lag. Daher hab ich nicht die 4090 genommen, in der Hoffnung eine 5090 wäre nicht viel teurer. Da mir dann die Gesamtsumme zu hoch war… Ich vergleiche dann aber gern die kommende 5090 von Asus mit meiner 4080 von Asus. Glaube genau den Mehrpreis wirst du für die Mehrleistung bezahlen, daher weder win noch loose.
Hab nen PC geliehen bekommen und möchte eventuell die Grafikkarte verbessern welche aktuelle Karte ist denn mit der rtx 3070 vergleichbar/besser? Und relativ günstig
man kann es auch so sehen, die Gamer subventionieren den AI-Hype von NV, für die Spiele-Performance ohne Fake-FPS, bringt das nix. Die Qualität von Frame-Generation hat mich ernüchtert, so dass ich das bei CP2077 und Alan Wake 2 abgeschaltet habe, da die Artefate das Bild bestimmt haben, sprich, da war nichts anderes mehr.
Naja, Nvidia nutzt auf der 5090 nicht den Vollausbau der Blackwell-Architektur. Kritisiert das bei dem Preisschild wirklich niemand? Mehr Leistungsunterschied zur 4090 wäre somit also möglich gewesen.
Stimmt,aber dann wäre der Stromverbrauch noch höher gewesen und die Karte auch wieder viel größer! Aber jetzt wissen wir zumindest auch, warum keine 4090ti kam. Dann wäre der Leistungsabstand noch weiter zusammengeschrumpft.
@@SuperAndipaul In beiden Punkten gebe ich dir Recht. Aber jemand, der eine 5090 für diesen Preis kauft, der wird sich nicht um den Stromverbrauch kümmern.
Super Video! Allerdings stellt sich für mich die Frage, ob der Preis noch gerechtfertigt ist, wenn Grafikkarten künftig ausschließlich auf AI/KI setzen.
Das neue Transformer model ist viel interessanter als die neuen karten. Man hat z.b in Cyberpunk keine bewegungsverzerrung mehr und es sieht so verdammt gut aus
jo, habe mir jetzt vor kurzen auch eine ASUS Prime GeForce RTX 4070 SUPER geholt. Griege 60 Euro Cashback zurück und habe so nur 600 gezahlt.(was echt ein toller Preis ist) Nur weil es jetzt die 50ooer Reihe gibt, sind die anderen GPUs nicht schlecht. Schluss endlich bleibt bei dir die Entscheidung. ;p
Dafür das es dieselbe Fertigung ist, ist das sogar okay. Das Problem ist eher, dass man dafür 2 Jahre braucht oder wartet. Das schmälert halt die Erwartungen leider enorm.
Mein Urteil, das ist eine 4090 TI auf Steroide mit neuer Software (DLSS 4) ... 😂👍 Bin echt gespannt auf den Preis/Verfügbarkeit und dann kommt der Stromverbrauch. 😉👍 Tolles interessantes und vorallem gut erklärtes informatives Video. 😎👍
ich bin sehr enttäuscht von dem Teil, dieser Stromverbrauch geht gar nicht, selbst wenn ich keine hätte würde ich eher ne 5070 kaufen und lieber auf eine neue Architektur warten
Spulenfiepen legt sich, hatte meine 4090 anfangs auch. Jetzt ist es nur noch zu hören wenn sie 200+ fps macht. Ich bin mal gespannt wie man die schnittstellen nutzen wird. Da man die Io Plate/ den PCIe Anschluss und den Stromanschluss modular gemacht hat.
Ich frage mich (das ist für die rechen Profis) wenn man die 4090 mit der selben watt Zahl 575 watt betreibt würde, wie stark wäre sie dann im vergeblich zur 5090 in der rasterleistung??
Einige Tester sagen das sich mit MFG das Spiel nicht flüssig anfühlt obwohl es ja "200" fps hat. Der Grund sind die Basis FPS die realistisch unterhalb der 60 liegen. Und jeder der am PC mit weniger als 60 FPS spielt, weiß das es sich nicht immer so schön flüssig anfühlt.
@@BjornsTIR Ja du sagst es. Weiß ich ehrlich gesagt nicht, ob ich wirklich 300 Fake Frames brauche, wenn das Game eh nativ vllt schon mit bis zu 100 fps läuft. Gerade bei Singleplayer Games.
Find ich tatsächlich rein physikalisch gesehen schon sehr komisch, dass die 5090 so wenig Mehrleistung bietet, schaut man sich doch mal die Specs im Vergleich an. Aber bezüglich Path tracing muss man halt einfach sagen, diese Technologie ist einfach zu rechenintensiv für unsere Grafikkarten. Da müssen diese AI Tools einfach als Ausgleich her.
Weder P/L noch Effizienz besser im Enthusiast-Segment (xx90-Serie), wenn man von Multi Frame Generation absieht. Im Mainstream- (xx60-Serie) und Performance-Segment (xx70-Serie) heißt das leider alter Wein in neuen Schläuchen. Im High-End-Segment (xx80-Serie) kann man zumindest auf besseres P/L hoffen.
Hey KreativEcke! Danke erstmal für das informative Video und deine tolle Arbeit die darin steckt :) Auch wenn mich das Thema sehr interessiert bin ich, wie wahrscheinlich 99% deiner Zuschauer, nicht bereit mir selber eine Grafikkarte in dieser Preisklasse zuzulegen (bzw. wäre das auch deutlich mehr als Nötig um meine Gaming Ansprüche zu befriedigen). Da ich zur Zeit aber die Parts für meinen eigenen neuen Gaming PC festlege, würde mich interessieren wie du den Markt für die kommenden Monate einschätzt. Zur Zeit sind ja so manche Preise (*hust* 7800X3D *hust*) nicht mehr von dieser Welt. Und was für einen preislichen Einfluss könnten die neuen AMD GPUs auf die derzeitige Generation haben? Liebe Grüße 😙
Der Markt verhält sich jedes Jahr sehr sehr ähnlich, im Sommer (genannt Sommerloch) sind die PC Parts meistens am billigsten weil die Leute eher draußen ihren Hobbys nachgehen, zb im Sommer war die 4090 bei circa 1600€, stieg dann als es kälter wurde sehr schnell auf 1800€+ und ist jetzt bei über 2000€ (dazu kommt aber das die auch nicht mehr Produziert wird) Und um so kälter es wird, um so teurer werden die PC Parts meistens weil naja die Leute dann vor ihrem PC / TV sitzen und zocken wollen
Ich will keine Fake FPS die am besten bei 200+ liegen, ich will richtige Leistung und tatsächlich optimierte spiele die diese dann auch bringen können. FPS rennen, wer die meisten hat, ist doch komplett sinnfrei, gerade wenn es Fake FPS sind 😢
Was ist denn an einem „Fake Bilder“ schlechter als an einem nativ berechnetem? Den Unterschied kannst du doch so oder so nicht wahrnehmen? Die alten Spiele laufen so oder so flüssig, weil die viel weniger Leistung brauchen und neue Spiele wie RDR2 etc. laufen auf viel höheren Einstellungen flüssig. Das Ergebnis zählt doch.
Soviel wie die RTX 5090 kostet... dafür bekomme ich für mehr als ein Jahr lang Lebensmittel. Da man mit Lebensmittel nicht spielt, warte ich mal auf die RTX 5060 ;)
Hab geplant mit im März endlich meinen neuen pc zusammenzubauen. Nun bin ich ein wenig ratlos bzgl der ganzen Custom 5000er Modelle. Habt ihr da Empfehlungen wie man am besten vorgehen sollte? Denke mal die werde direkt ausverkauft sein. Also lieber noch Berichte abwarten oder gleich versuchen eine zu bekommen? Und worauf bei den diversen Herstellern achten?
Ich hatte auch den Plan mir im März einen neuen zusammenzubauen. Allerdings tendiere ich in der Hoffnung auf beruhigte Preise mittlerweile eher dazu das Ganze auf April oder Juni zu verschieben
Kommt immer auf die Preise an, warte bis zu dem Zeitpunkt an dem du auch Kaufen möchtest und guck dir dann zu der GPU die du willst Tests der verschiedenen Hersteller an. Wenn du aber nix Übertakten willst oder generell daran rum Fummeln willst dann sind meistens die normalen Custom Modelle völlig Ausreichend zb Gigabyte hat ja die "Windforce" als Einsteiger, die Gaming OC als Mittelfeld und Aorus Master als High End aber da ist auch meistens nur der Unterschied das die Aorus einen etwas besseren Lüfter/Spannungsversorgung usw hat weil die zum Übertakten gedacht ist für den letzten % in Leistung. Wenn also zb. die Windforce 500 kostet, die Gaming OC 550 und die Aorus 800 dann lohnt sich das meistens das Gaming OC Modell zu nehmen aber wenn die weiter auseinander liegen und du nicht Übertakten möchtest, dann nimm einfach die günstige Einsteiger Variante "Windforce"
Wie gut ist eigentlich die Chance die genannten AI Features zu nutzen, dabei aber mit Undervolting und Co. auf akzeptable Verbrauchswerte zu kommen, ohne dabei viel Leitung einzubüßen? Wo ist da der Sweetspot und lohnt es sich diesbezüglich eine 5090 zu kaufen um alle neuen Features nutzen zu können und trotzdem noch Strom zu sparen?
Ich hab da mal ne Frage, ich habe sehr oft gehört, dass die gpus mit dlss 4 zwar viel mehr FPS schaffen, aber es sich nicht so viel mehr anfühlt. Also es soll sich dann trotzdem noch sehr ruckelig anfühlen
Wenn AI, Upscaling und Sachen wie Frame Gen irgendwann auf dem Level sind, dass sie verglichen mit nativer Auflösung gleich oder gar besser aussehen spricht nichts dagegen, aber da sind wir noch lange nicht und dann sehe ich es etwas kritisch, aber dass das die Zukunft wird (auch Pathtraycing) steht wohl außer Frage.
Der nächste, der nicht versteht, welche Auswirkungen Fake Frames wirklich haben. Schön, dass man 200+ fps sieht, der Input aber immer noch auf den nativen fps basiert. Sieht zwar schön aus, spielt sich aber besch...eiden.
Was heißt denn „schlau“? Wenn du nur 1080p und alte Games zockst, dann wohl kaum. Wenn du die neuesten Games bei 4K spielen willst, dann natürlich schon. Die 5070Ti wird sich bei der realen Performance irgendwo bei einer 4080S einordnen.
@@fizzl801 Die 5070Ti interessiert mich auch. Hatte mir Anfang des Monats eine XTX gekauft, die aber wegen eines Mangels zurück ging. Jetzt warte ich bis Ende März erstmal ab. Wenn die 5070Ti unter 10% an eine 4080S rankommt, wird die gekauft. Ansonsten eine 4080S oder nochmal die XTX, je nachdem, was dann günstiger ist.
Früher die Karten haben ja auch alles in nativ geschafft,denke nur an meine gtx 1080ti,damals ein UHD 4K Monster,alles fast auf max mit 60fps am TV.Damals eine Augenweide,die hat es ja auch geschafft,oder die gtx Titan.Heute wird man mit Upscaling,also blöd gesagt man ruht sich aus,
Du wirst mit der 4000er Serie DLSS 4 nutzen können, nur einzig und allein Multgeneration ist der 5000er vorbehalten. Grund ist wohl das die Recheneinheiten der vorherigen Generation zu schwach sind um die ganzen Zwischenbilder zu errechnen.
@PisaroOne an sich nicht falsch. Beides ist frame gen und wie ich sagte x3 und x4 ist für die 5000er, x2 kann auch die 4000er wozu sie 4090 gehört. Also genau das was ich schon gesagt hab
Joa mag sein aber wenn man die FPS eh begrenzen will kann man sich auch eine 4090 gebraucht zulegen und vom restlichen Geld den Rest vom PC kaufen hehe
@r0xa18 Ja das stimmt wohl^^ Aber wenn der eigene Monitor z.B. 144hz bei UHD Auslösung hat, was bringen einem dann 300 Frames? Da liegt es doch nur nahe, dass man die dann begrenzt und sicher ne Menge Strom spart.
@@SubaruSumeragi Die Frame Latency ist dadurch ein gutes Stück besser was die Eingaben verbessert. CS2 Pro´s zocken auf einem i9 / r9 mit 4090 damit sie 1000FPS+ bekommen für die best mögliche Latency. Aber als normaler Gamer merkt man das kein Stück. Natürlich kann man auch immer die 1% Low FPS betrachten, also die schlechtesten FPS im Durschnitt (FPS dropps) Wenn du zb. 300 FPS im Durchschnitt hast aber deine 1% Low FPS 144 sind, dann hast du eigentlich das Perfekte Szenario für deinen 144HZ Monitor, wenn du jetzt die FPS auf 144 FPS beschränkst dann fallen die FPS in manchen Szenen im Spiel ja trotzdem unter die 144 (viele Explosionen oder sehr schnelle Bewegungen usw) dann sind deine 1% Lows zb nur 90 und könntest eigentlich ja 144 FPS darstellen. Wenn du also Competetive Games wie CS2, Valorant oder BO6 usw zockst dann nimm lieber die 300 FPS , wird sich dann flüssiger anfühlen
@@r0xa18 Ist eher eine Frage für Tests was man an Strom einsparen kann oder die Effizienz damit erhöht. Ich werde mindestens diese Generation auslassen bis meine 4090 nicht mehr ausreicht für die Spiele die ich spielen will. An Technik und Machbarkeit bei der neuen Gen bin ich aber trotzdem interessiert.
@@KreativEcke Wie gesagt ein starkes Video und auf die Frage: Der Titel hat Clickbait-Potenzial. Also mit anderen Worten..Neugier wecken, ohne zu übertreiben.
Ich empfehle ein revisit zu Lossless Scaling. Mit ihrem Modell 3.0 ist das eine echte "Konkurrenz" zu Nvidias Multgeneration. Sogar bis zu X20 (Eher nicht so empfohlen, aber funny. :D) Und das sogar für alle Grafikkarten. Ein Direktvergleich von MFG 2X/3X/4X und LS 3.0 2X/3X/4X wäre mal super.
Mache ich schon seit 4 Jahren so, 1080p höchste Einstellungen mit einer rtx 2060 super funktioniert Super 😜, und ehrlich gesagt kann ich persönlich auf 50cm Entfernung nicht so einen großen Unterschied erkennen das ich mehrere tausend Euro mehr ausgeben würde für eine höhere Auflösung.
12gb VRAM, sind doch lächerlich, nicht für eine 4070 aber für eine 5070 schon. Das geht garnicht, ich hatte 13 Jahre lang NVidia Karten und hatte schon die 4070TI Super im Warenkorb. Nun das Ergebniss war das ich mir dann eine 7900XTX gekauft habe. Raytracing interessiert mich 0, den leistungsfressenden Käse hatte ich immer konsequent deaktiviert. Etwas schönere Optik und dafür nur halbe FPS, beeindruckend wirklich.
Was mich unglücklich stimmt ist dass man zwar bei Spielen von der Trickkiste profitiert, bei Produktivitätsanwendunungen wie Videos codieren aber nicht
Wenn DLSS flächendeckend unterstützt würde, wäre es sehr nice. Ich genieße aber gerne Spiele von Indy-Entwicklern und sehr hohe Auflösungen. Und gerade kleine Einmann-Developer haben DLSS nicht implementiert! Und genau da ist der 5090-Bonus so gering, dass ich keinen Sinn sehe, in ein Upgrade zu investieren. Ich habe aber auch die 4090 im Rechner^^ Allerdings zeigen Ausreißer wie Anno 1800 durchaus, dass da noch ein Bisschen Leistung brach liegt. Ich denke, in zwei drei Monaten könnte die wahre Leistung der 5090 freigeschaltet sein und sich ein dezent anderes Bild abzeichnen. Aber ob das freigeschaltete Potenzial dann die 2500€+ für kühlere und leisere Custommodelle rechtfertigen kann? Ich bezweifle es... Die 4090 war damals ihr Geld wert, auch wenn es sehr viel Geld war. Die 5090 scheint aktuell nicht stark genug zu sein, um den Preis zu rechtfertigen... aktuell^^
Das Problem ist halt, das Mfg eigentlich nur bei 240hz Monitoren Sinn macht und man zudem trotzdem ca. 60 fps ohne fg haben sollte, damit es sich gut anfühlt. Mal eben aus 30-40 fps 120 fps auf nem "normalen" 144hz Monitor zu machen, is nich
Ja absolut geiler Kühler, bei Computerbase ist das Ding mit 550W und in nem geschlossenen Gehäuse sehr laut, der 4090 Kühler war besser. Macht Nvidia wieder Back to the roots kleine laute Kühler wie noch zu GTX 1080Ti Founders und RTX 2080TI. Da bekomme ich ja FX 5800 Ultra Vibes, damals auch der Spitznahme der Föhn, oder Fermi GTX 480 genannt Thermi. Das man mit dem kleinen Elends Kühler kein 575 Watt in nem geshclossenen Geäuse leise Kühlen kann, sollte jedem klar sein. Deswegen stehen die Dicken 3,5 Slot Kühler der Customs schon in den Startlöchern.
1:49 Wenn man sich die Super Versionen der RTX 20er Serie anschaut, dann kann man zweifeln ob das das hier die schönste ist. (Eigene Meinung zählt natürlich von dir auch)
Moores Law ist nicht tot, was man ja vom Sprung von der 3090 auf die 4090 ganz klar sehen konnte. Fast 100% Leistungszuwachs ist natürlich nur dem neuen Fertigungsprozess zu verdanken.
3090, 3080 usw sind bei Samsung in 8 nm gefertigt worden und 4090, 4080 usw sind TSMC 4 nm darum so hoher leistungs Zuwachs. 40 und 50 Karten 4 nm TSMC
Das schönste FE-Design, bestimmt. Aber durch das Design greift nVidia auf Krücken zurück, um den PCI-E-Anschluss an das eigentliche PCB anzubinden. Aus technischer Sicht absolut pfui. Wer die 5090 FE per Riserkabel anbinden möchte, könnte dadurch Probleme bekommen...
FG ist echt nur so lala aber Upscaling ist schon was schönes, gerade DLSS. Mittlerweile kann man den Unterschied so gut wie nicht erkennen auf DLSS Quality und auf 4K selbst in DLSS Performance nur kaum, aber der FPS Boost ist das mehr als nur Wert
Ich bin dafür, dass die Spieleentwickler einfach mal ihre Spiele richtig optimieren sollten. Man sieht doch an der Nintendo switch (die Technisch auf gefühlter PS2 Leistung läuft), was durch Optimierung alles rausgeholt werden kann (siehe Mario Kart 8, Zelda etc.). Ich will doch keine 2000€ für Graka 800€ für Prozessor, 500€ für den restlichen Schnickschnack und nochmal Vollpreis für ein Spiel zahlen, was dann ohne DLSS und Upscaling auf 30 FPS läuft. Vollkommen unverständlich für mich. Aber solange die Verkaufszahlen stimmen, sind wir selber Schuld, dass wir in dieser Situation sind.
Du hast vollkommen Recht und ich bin auch von der nativen Mehrleistung ehrlich gesagt enttäuscht. Trotzdem schiele ich auf die 5090...
@@FreeTheWeed Da kannst du dann in 1-2 Monaten drauf schielen, die meisten Retailer haben eine einstellige Summe an 5090 auf Lager, das wird ein Scalper Spaß werden.
Erschreckend das es heute noch so schwer ist 4K 60 fps zu erreichen
Vor allem sehen viele Spiele aus wie ein PS2 Spiel. Gesichter etc.
Richtig gäbe es nicht so viele itoten die das jährlich kaufen hätte man nicht solche Preise
ich brauche mehr Nieren
😂😂😂
@@KreativEcke verkauf lieber genitalien, echte gamer brauchen das eh nicht und ist mehr wert! 😝
Ich auch😢
Es gibt da so Container anlagen mit vielen Nieren drin aber die können schnell rennen
@@onc1eh4ze90 Dein ernst?
Spätestens bei der 8090 muss man seinem Stromanbieter bescheid sagen wenn man Zocken will.
Dann musst du das anmelden wie eine Wallbox fürs E-Auto laden...oder sie müssen extra für dich nen neuen Mittelspannungstransformator legen.
@@sven13kajasup Nein, die wird im Bundle mit einer 10kW PV-Anlage angeboten werden. 😂
Geil wäre wenn die GPU einen eigenen Schütz hätte den man erst umlegen muss 😂
😂👍
Oder unter Habeck, ist plötzlich der Strom weg, Tages "Limit" erreicht.
Würden sich die meisten Entwickler nicht mehr einfach so auf dem Unreal Engine 5 Baukasten ausruhen und ihre Spiele mal optimieren, dann hätten wir nicht teilweise so miserable FPS in UHD gezockten Games.
Um diesen Kommentar etwas zu entschärfen: Im Bereich Spiele-Konsolen wissen die Entwickler genau, worauf sie programmieren müssen, es gibt exakt eine CPU und eine GPU bzw in der Regel sogar nur einen SoC, auf dem das Spiel laufen muss.
Im Bereich PC gibt es 2 große CPU Hersteller mit x verschiedenen Modellen, es gibt mittlerweile 3 verschiedene GPU Hersteller mit x verschiedenen Modellen und gefühlt muss das Game auch noch auf einem Pentium 4 von Anfang 2000 laufen, damit auch jeder Kunde/Konsument/Gamer abgeholt wird.
Da ist Optimieren dann plötzlich gar nicht mehr so einfach.
Mag sein, dass manch eine Engine wie n Sack Nüsse läuft oder die Entwickler sich auch ein bisschen darauf ausruhen, dass sowas wie DLSS oder FSR die Games schon zum Laufen bringen, aber zu einem großen Teil liegt es einfach an der Hardwarevielfalt im PC-Bereich und das eine Optimierung auf jede neue oder alte CPU/GPU, die (noch) irgendwo läuft, einfach extrem zeitaufwendig und damit auch kostenintensiv wäre.
Ich spiele gerade Portal Revolution mit meiner RX 6800. Locker dreistellige fps in UWQHD mit max. Details inkl. MSAA. Und das bei schönen Echtzeitreflektionen (nicht nur Screen Space!) und dynamischen Lichtern und Schatten. Es sieht für die alte Source-Engine wirklich gut aus. Portal RTX mag das realistischere Beleuchtungsmodell haben, aber mit 1 fps völlig unspielbar.
@@V1k1ng90Ich frage mich, warum man dann nicht einfach auf die schwächste Hardware hin optimiert. Denn wenn es auch darauf gut läuft, kanns mit schnellerer Hardware nur besser werden.
@@V1k1ng90aber es klappt doch bei Konsolen Exklusivtiteln auch wenn die auf dem PC erscheinen. Bei Horizon haben bei Teile super perfomt. Und die haben klasse ausgesehen. Und wenn die framerate nicht offen war gab's z. B. für elden Ring eine Mod. Das Problem ist eher das die lieber alle ihr eigenes Ding machen, anstatt sich zusammen an einen Tisch zu setzen und sich eine Technologie zu überlegen, mit der alle mehr Geld verdienen könnten anstatt beschränkt auf seinen eigenen Profit fokussiert zu sein.
Etwas wo jeder Entwickler sein Spiel drauf optimieren kann und wenn dadurch veraltete Hardware ausgeschlossen ist. Ja, dann ist das eben so. Wenn jemand es nicht hinkriegt, nach 10 Jahren mal von seiner 1080 ti zu upgraden, dann ist derjenige. Halt eben selbst dran. Schuld. Ich kann nicht mit einem 10 Jahre alten oder noch älteren Rechner erwarten aktuelle Titel zu spielen. Aber wenn ich mir so Titel wie Indiana Jones oder Star wars Outlaws anschaue, dann kriege ich einfach nur das kotzen.
junge junge 575 Watt da freut sich die Stromrechnung :D
Ohja! 😂
Brauchst jetzt keine Heizung mehr im Winter
@@KyuriS24 aber dafür mehr Klimaanlagen im Sommer 😂
Es wird doch nicht immer benötigt, mir persönlich egal, ob ich 3 Bildschirme habe oder halt sowas dann einbaue... vollkommen ok, will dann ordentlich Ruhe haben daher ist die 5090 schon fast gekauft, wollte mir so oder so ne 4000er +- bauen, Was mich interessiern würde, braucht man bei sowas besonderes Lüftungssystem, weil Wärme wird halt echt mehr.
@@LuckeRsGamingChannel bei einem intel Prozessor kann ichs kritisch vorstellen
Das mehr an Performance hat man sich mit mehr Kernen und einem höheren Energieverbrauch erkauft, sehe da jetzt keine Verbesserung der Architektur.
Absolut, das sehe ich auch so. Ist eigentlich mehr eine 4090 Ti mit Softwareupdate als eine 5090.
Und der Preis is 25% höher...
Perfekt auf den Punkt gebracht.
War bei der 30iger Serie genau so .
Für Besitzer einer 40iger Karte eher uninteressant die Teile .
Wer neuen PC baut oder von älterer Generation (Gtx 10ner oder rtx 20iger serie )Upgradet vielleicht zu empfehlen.
Wobei ich da auch mal abwarten würde wie sich 5070/ti schlagen werden .
Ist korrekt, werden aber sicher dennoch wieder genug Leute kaufen. Demnach funktioniert das Model für NVIDIA.
@@seelenschnitterr ja definitiv
Schade das sich das in Richtung Monopol entwickelt für nvidia.
Wäre gut für den Markt wenn AMD und Intel da auch noch was Konkurrenzfähiges entwickeln würden .
Moores Lore is Dead - Nicht. Wir sollten aufhören das Nvidia Marketing so hoch zu bewerten und uns davon beeinflussen zu lassen. Das mehr Rohleistung möglich ist zeigen 4090/5090 das wäre auch in den kleineren Leistungsklassen möglich. Denn auch eine RTX5090 ist nicht der Blackwell Vollausbau. Nvidia möchte das zu einem Großteil aus rein wirtschaftlichen Gründen nicht. Kleine Leistungssprünge zwingen Spieler öfter dazu eine neue GPU zu kaufen, ebenso verringern leistungsschwächere GPUs Produktionskosten und steigern die Gewinnmarge, als wenn man eine 5070ti in der Preisklasse einer 5070 bieten würde. Ebenso arbeitet das Marketing daran uns einzureden das die ganzen AI Gaming Features wichtigere Kaufgründe sind als Rohleistung bei neuen Produkten. Ebenso betreiben sie Kundenbindung mit Softwarefeatures.
Das Problem, was ich bei Multi Frame Gen sehe, ist dass, wenn man zum Beispiel nur 60 FPS hat, oder sogar weniger, und sich dann schnell um, sagen wir, 180° dreht, die KI garnicht wissen kann was dazwischen kommt, da beide Bilder keine zusammenhängenden Merkmale mehr aufweisen. Klar das Problem besteht mit Normaler Frame Gen auch, aber da sind es auch nur die hälfte der Bilder die man sieht, bei Multi Frame Gen allerdings der Großteil. Das macht schon einen Unterschied, ob der Großteil der Bilder irgendein Unsinn ist, weil die KI einfach keine zusammenhänge sieht, oder „nur“ die hälfte.
Nicht falsch verstehen, ich bin mega Fan von KI allgemein und DLSS, aber bei Frame Gen müsste die KI viel tief greifendere Informationen zum erstellen der Frames bekommen und nicht nur das was wir am ende auch sehen. Denn es geht bei mehr FPS ja darum mehr zu sehen, als mit weniger und das ist so wie es jetzt ist schlichtweg nicht möglich. Es ergibt aktuell nur sinn, wenn ohnehin schon genug FPS gerendert werden und die KI das dann nochmal mit Kosmetischen Zwischenbildern versüßt. Dann sind aber auch doppelt so viele Frames mehr als genug.
So wie ich es verstanden habe schaut sich die KI ja nicht nur direkt die beiden Bilder an sondern weiß genau was um dich rum passiert, deshalb muss Framegeneration ja auch extra ein die Spiele eingebaut werden und funktioniert nicht standartmäßig in jedem Spiel. Nichts desdo trotz dürften die Qualität der KI Bilder mit abnehmender nativen Framerate ebenfalls abnehmen.
Die eigentliche Frage ist, ob es bei zb 200 FPS wie Alan Wake, und damit alle 5 ms ein Bild, überhaupt auffällt, wenn bei einem Einzelbild mal generierter Quatsch, wie ein sechster Finger bei einem NPC, auftaucht.
Wenn natürlich 3 von 5 Bildern Quatsch sind, mit einer relativ langen Anzeigedauer, weil Crysis nur mit 15 FPS trotz MFG läuft, dann sähe es natürlich ganz anders aus.
Mehr Sorgen machen mir die 1% Lows. Bei Cyberpunk gehts, da sieht man, dass DLSS 4 offensichtlich gut optimiert wurde. Bei Alan Wake haben wir Einbrüche von gut 200 FPS auf gut 50 FPS, da könnten für das geschulte Auge wahrscheinlich schon mal Mikroruckler zu sehen sein. Auch wenn nur 1% Low, das sind schon extreme Framerateeinbrüche.
Reflex 2 sorgt dafür, dass die Zwischenbilder nach geometrischen Änderungen und Masbewegungen passend erzeugt werden.
@@V1k1ng90 die eigentliche frage ist, wer um himmels willen braucht 200 fps bei alan wake. Also, spiele in denen ich frame gen nutzen kann (hoch qualitative singleplayer) kann ich ja auch bereits mot ner 4000er und FG mit über 100 fps spielen was für diese art von spiel völlig ausreichend ist. Spiele, in denen irgendwie 200fps überhaupt sinnvoll oder wahrnehmbar wären wie multiplayer oder competetive titel sind nicht für frame gen geeignet. Wozu das ganze also?
@@dartharagon9129Ein Nebeneffekt der keistung und der Technik. Bei cyperpunk hadt nur 100fps auf max. Indiana Jones weniger. Man muss schon differenzieren, auf die jeweilige Anwendung.
Mich würde vor allem die Wärmeentwicklung/Lautstärke von der FE interessieren. Hat NVIDIA es wirklich geschafft, diese Leistung in den kleinen Formfaktor gut umzusetzen?
wärme, schau dir das video von der8auer an
guck dir das Video von Gamers Nexus an, die haben das im Detail untersucht
Empfehle igorslab
Die Grafik in Spielen war früher einfach besser, weil die noch wussten, dass gute und coole Beleuchtung besser ist als realistische Beleuchtung. Mein Gott, ich spiele doch keine Spiele, um das reale Leben zu erleben, ich spiele, um ein Abenteuer zu erleben, was ich im echten Leben nicht kann.
@@marcelberndt505Der zweiten Teil deines Texten mit dem “AFD-Wähler” hättest du dir klemmen können. Einfach nur eine infame Mutmaßung, die in keinerlei Zusammenhang der getätigten Aussage steht.
@@marcelberndt505nur noch Afd. alles andere wäre sinnbefreit
@@marcelberndt505 Hat dein uropa Juden oder Slawen im 2WK getötet?
@@bohne8746Nein, einfach nein....
@zoroa2433 Du triffst es damit auf den Punkt. Ein gutes game entführt einen in andere Welten, wie ein gutes Buch. Da ist dieser pseudo-realistische Schnickschnack gar nicht für nötig. Ok, nice to have, aber eben auch verzichtbar.
Ehrlich gesagt fehlt in dem Video eine sehr entscheidende Information. Wenn Nvidia mit KI die Frames rät statt zu berechnen, ist das völlig ok, solange die Karte gut rät. Halluziniert sie hingegen häufig üble Artefakte, so wären die geratenen Frames (und damit die Karte) nutzlos. Wie sieht es denn da aus?
Das wird die Zukunft zeigen. Entweder ist dlss 4 nen gamechanger oder es stirbt langsam aus wie sli, wenn man die Probleme nicht gelöst bekommt.
Ich schaue nach ner gebrauchten 4090. Den Mist können sie behalten und bei den Preisen dran ersticken. Das max ne 4090 Ti. Absolut enttäuschend.
Sehe ich auch so ich will ne Gamerock oder Suprim X.
Traurig wo wir gelandet sind
@ Hab tatsächlich die 4080 GameRock OC und bereue damals nicht gleich die 4090 von geholt zu haben..
Zocke in 4K und brauche die Leistung. Die 4090 GameRock hat übrigens beim Kühler auch ne Vapor Chamber, die 4080 nicht.
Hä? Habt ihr Polofahrer kein Geld oder was? Hole mir 10 von den 5090
@@marksoner8166 Ja, damit du die dann mit 50% Preisaufschlag verticken kannst. Oder du trollst einfach nur rum und hoffst, dass irgendwer durch dein armseliges Gehabe beeindruckt ist.
Viel Spaß bei ab 2.600€ Neupreis.
Vielleicht liegt hier ein Interpretationsfehler vor.
Das Spiel heißt nicht Cyberpunk 2077 weil die Spielwelt in dem Jahr spielt, sondern weil Nvidias Grafikkarten-Technik dann endlich so weit ist, dass dieses Spiel flüssig läuft 😜🤣
Nvidia bringt bei JEDEM neuen Grafikkarten Release ein neues DLSS Feature welches traurigerweise (zwinker) nicht auf der vorherigen Generation funktioniert. Das Feature ist dann über die Lebensdauer der Generation bei gefühlt 200 Titeln verfügbar und dann heißts wieder ab zum nächsten neuen Feature...
Wohl wahr! 😅
Die 4000 und 3000 serie werden dlss 4.0 bekommen nicht jedoch MFG das ist Technisch nicht möglich.
@@tlmiles1987du glaubst auch jeden Scheiß natürlich ist das technisch möglich 🙈😂😂😂
Ich denke, je höher die Leistung einer Grafikkarte wird, desto geringer ist für uns der spürbare Unterschied. Es sei denn es kommen nur noch Spiele raus, wo solch eine Leistung benötigt wird. Im Moment ist es einfach Geldverbrennerei. Der zu erwrtende Kaufpreis und die monatlichen Stromlosten machen solch eine Karte für die meisten Menschen einfach unerschwinglich.
Echt hab ein paar Vr Titel im Blick die genau diese Leistung benötigen wird.
@@1m3INc2 Natürlich, das will ich dir ja auch nicht absprechen. Es wird immer Leute geben, die bereit sind dieses Geld ausazugeben, weil sie einen Nutzen für sich sehen. Bei manchen ist es der Beruf und bei anderen das Hobby. Es gibt bei einem Hobby ja auch kein Richtig oder Falsch. Ein Hobby muß man eher mit "Haben will" als mit Logik erklären. Da bin ich ja nicht anders ;-) Es Ändert aber trotzdem nichts an meinem Post.
Ich, der noch mit der 1060 zockt und überlebt :D
Ich zocke auch noch mit einer 1070 .
Ich hab noch eine 1050 Ti 😂
Du kannst dir dann ja für ne schmale Mark eine 4060 oder 5060 holen.
Hast viel, viel mehr Leistung aber das Ganze nur für etwa 300 Euro
uff, meine 1060 (6gb) hab ich schon vor 4 oder 5 Jahren in Rente geschickt. ich würde dir nh 4060/5060 wärmstens empfehlen, kostet einmal um die 350€ aber du bekommst locker 4x so viel Leistung
@@woodoo1660 ich warte noch die Tests und Wertungen der 5060 ab, ansonsten hole ich mir ein komplett neues Setup mit einer 4090 und OLED Monitor, ich zocke leider aber nur noch Fortnite momentan.
Da muss man ja mittlerweile ne Niere verkaufen, um sich ne neue Graka besorgen zu können (Scherz am Rande!) 😅
Finde es trotzdem frech…
Vorallem wenn man den Aspekt der Verfügbarkeit noch betrachtet und die Scalper + Customhersteller nochmal den Preis massiv in die Höhe treiben, da kann man ja nur mit dem Kopf schütteln.
PS: Ich hoffe den Scalpern rutscht beim Händewaschen die Ärmel runter.
Gruß und mach weiter so 👍🏼
Also was ich immer nicht ganz verstehe bei einigen Kommis hier. Wir sind doch lange nach der 3Dfx Ära wo die Leistung rein durch Hardware bestimmt wurde.
Jetzt geht es halt so weiter. Damals mussten Spiele auf Glide laufen, heute auf DLSS morgen auf? Wer weiß das schon.
Und was man nicht vergessen darf: Software Entwicklung schluckt nicht mehr viel weniger als Hardware Entwicklung. Und Hardware ist nix Wert wenn Ihr keine vernünftige Software habe (und andersrum)
Der "Fortschritt" bei der Rohleistung ist mit mehr Watt erkauft. Punkt. Fertig. Bei Computerbase ist die Karte in der Umfrage hochhaus durchgefallen.
Ich finde, dass das ganze Gejammere einfach nur hart lächerlich ist. Ich meine, was habt ihr erwartet? Es wird immer schwieriger die Fertigungsprozesse zu verkleinern, sodass klar war, was dabei rauskommt. Und ganz ehrlich: die Leistung der 4090 reicht nach wie vor mehr als aus.
Nvidia hätte genauso gut auch den Leistungssprung von der RTX 3090 auf die 4090 kleiner ausfallen lassen können, sodass der jetzige Sprung höher wäre. Vermutlich hätte sich keiner beschwert. Aber Nvdia hat das nicht getan, weil man bloß kein AMD in der Nähe der eigenen High-End-Karte sehen wollte.
Vorallen Dingen können sich doch eh die wenigsten so eine RTX 4090/5090 überhaupt leisten. Und trotzdem blubbern alle mit und monieren ohne Ende. Macht euch nicht lächerlich. Das ist voll Kindergarten.
und wo ist der strombedarf bench?
Es wird bald einen neuen großen Sprung in der Miniaturisierung geben. Das hoffe ich zumindest und ist auch erwartbar, in Anbetracht der Entwicklungen der letzten Jahrzehnte in diesem Bereich. Denn dann ist kein Bedarf mehr für die KI Zauberei, die sichtbar hässlichere Bilder auf den 4k Monitor zaubert, wenn man 4x Multiplikator auf der 5090 aktiv hat. Verwaschener und unscharf im Bild, das kann nicht die Lösung sein. Die 5090 kommt mir vor wie der hilflose Versuch, aus der 4090 auf Kosten der Qualität in der Grafik und irrsinnigem Energieverbrauch eine neue Grafikkartengeneration zu realisieren, und diese Krücke dann zu weit überhöhtem Wucherpreis verscherbeln zu wollen. Das geht zur Zeit leider alles in die ganz falsche Richtung...
Wie ich meine FPS erreiche ist mir nicht wichtig, aber ich finde diese Preise und vor allem die Leistungsaufnahmen unglaublich schrecklich. Ich meine hallo, ich so groß ist mein Balkon nicht für Solarzellen, um den scheiß zu betreiben. Mein Fazit: schlechte Graka! Ich dachte wir kommen irgendwann mal dahin, dass ein Gaming PC Weniger Energie benötigt. Einfach Modern ist. Ich bin enttäuscht.
Es sollte dir wichtig sein, denn: 60 richtige FPS sind deutlich flüssiger als 100 KI FPS mit FG
@@PisaroOne ob das auch für MFG gilt, ist aber noch nicht geklärt. Laut Testern, soll man es nämlich nicht merken, weil die 50er, nen chip dafür hat, um die Frames, 1 Frame bevor es an den Monitor gesendet wird, nochmal zu syncen.
@ Doch, schon längst bestätigt durch den Test der RTX 5090 auf Computerbase :)
Zumindest schreibt Computerbase: Auch MFG macht auch ruckeligen FPS (
#KreativeFragen könntest du mal ein Viedio machen vieleicht auch erst dann wen die 5070 raus ist und die 5090 dann so drosseln (auf die selbe TDP) wie eine 5070 oder do und schauen wie effizient und so die Karte dann ist oder die 5090 auf 250W drosseln und schauen oder vergleichen mit anderen 250W Karten wäre mal Interessant
Und dann eine Stromrechnung, ab wann sich das lohnt. Das wäre echt ne geile Idee.
Selbst wenn es physisch nicht mehr möglich ist, bessere Leistung auf traditioneller weise (ohne das jetzt die TGP höher geht) aus den Grafikkarten zu holen, finde ich es trotzdem mittlerweile einfach nur traurig, wie schlecht die spiele doch optimiert sind. Wenn die KI zu 100% die korrekten Frames generiert würde ich vllt. noch sagen, dass man es machen kann aber die Spiele sollten zumindest ohne diese Option spielbar sein und da die KI noch nicht perfekt ist, sprich Artefakte an den kanten und so, bin ich einfach kein Freund davon.
Mehr Leistung auf Kosten von mehr Energie? Eher ein Rückschritt....
Ne kein Rückschritt, da nunmal die Grenzen der Fertigung schon ausgereizt sind und dann ist das nunmal ein Problem.
Alles in Allem ist die 5090 aber nicht viel ineffizienter als die 40, selbst mit dieser grossen Zahl.
Es ist eher schade, dass es 2 Jahre dafür braucht um dann eben nicht mehr bieten zu können.
@@pasimo1399 gebe ich dir Recht, man sollte nur eben darauf achten dass Stromkosten ein wesentlicher Kostenfaktor heutzutage ist.
@@exajoules Ja, aber schwierig, wenn bei denen die Kosten viel geringer sind als bei anderen.
Aber grundsätzlich sollte Strom immer ein Faktor sein,ja.
Immer mehr Power durch Strom ist nunmal eben nicht der Weg der es sein sollte.
Unabhängig mal davon,ob es die Ableistung rechtfertigen würde.
Ich bin auf die Technologie gespannt, wo die Prozessoren per Licht geschaltet werden.
Gibt es bereits. Also wo statt elektrizität licht verwendet wird. Nur ähnlich wie die Quantencomputer ist die Technik einfach noch nicht so weit um im Main Stream anzukommen.
Damals dachte man wenigstens wir werden in Zukunft doch wohl die 4k 60fps knacken 😂
Dann können wir ja jetzt 2300 € ausgeben um im Juli Stronghold Crusader: Definitive Edition in 4k zu spielen 😂😂😂
Mal ganz ehrlich, wo soll dass mit den preisen noch hinführen?
Ja das ist schon krank aktuell! 😅
Das geht so lange weiter, wie die Karten zu diesen Preisen verkauft werden....und es Leute gibt, die zu viel Geld dafür ausgeben.
@LowsHand Ich bin mit meiner Intel Arc A 750 ganz zufrieden. Reicht ihr auch für Stronghold😅
Was hast du für eine grafikkarte in deinem pc verbaut?
@@lordbauer - hab wirklich sehr lange nix mehr mit und somit auch am PC gemacht. Will jetzt aber eine zukunftssichere Lösung für 4k in hoher Auflösung. Intel ist dafür zu schwach und selbst AMD sehe ich bei 4k kritisch. Die 5090 ist mir def. im Preis-/Leistungsverhältnis zu teuer!
@LowsHand Ich sage mir solange meine Monitore, die auf 1080 P laufen, noch funktionieren brach ich keine bessere Grafikkarte. Ich hab zwar eine PlayStation 5 die ich an einen full HD fernseher angeschlossen habe was im prinzip auch verschenkte leistung ist. Aber warum dinge wegschmeissen die noch funktionieren😊
Ersthaft, Spulenfiepen bei einer 2000+€ Grafikkarte???? Das ist echt peinlich!
Ist bei der 4090 auch schon so gewesen...
Hört man aber wirklich nur wenn die Karte komplett ausgelastet ist
@@kuro_der_euphoriatimmyover3062 kann immer passieren!
Das ist leider physikalisch nicht zu ändern. Nvidia kann die Naturgesetze nicht aushebeln
@@David-s4e7e Das ist einfach mal gesagt, SCHWACHSINN XD! Da es ja Modelle der selben Karte gibt, die es nicht haben! Es ist schlichtweg ein Mangel an Wissen deiner Seits, und ein Mangel von Qualität der Firma, haben einige Firmen auch schon zugegeben! Dazu muss man wissen, was Spulenfiepen ist, wie es entsteht und wie diesem engegen gewirkt werden kann... peinlich das du es als unumstössliche Physik hinstellst...
Ganz einfach gesagt ich glaube die größten probleme was FPS angeht liegt bei der Spiel Optimierung der Entwickler. Ich denke auch das die Grafikkarten schon am limit sind und wir gar nicht richtig sehen wie stark die Hardware eigentlich ist. Ich könnte mir vorstellen das zb Cyberpunk 2077 in 4k nativ flüssig mit 120fps+ laufen würde wenn die Entwickler ihr spiel richtig optimieren würden. Weil ich hab manchmal das Gefühl das spiele mit dem „selben“ Grafikniveau unterschiedlich stark performen. Ich hoffe es ist verständlich was ich meine. Wir werden in Zukunft keine großen leistungssteigerungen mehr hinbekommen und müssen uns jetzt mit Ki und dem ganzen anfreunden und solange die Qualität nicht leidet und man in Zukunft vielleicht keine unterschiede mehr war nimmt zwischen nativ und upscaling ist mir Ki echt recht damit ich ein flüssiges und spaßiges Spiel Erlebnis habe. Könnt gerne sachlich diskutieren.
Cyberpunk läuft mittlerweile richtig richtig gut. Gerade RT mit Pathtracing zieht halt unfassbar Performance und hat weniger mit schlecht optimiert sein zu tun.
Wo der i9 14900KS rausgekommen ist dachte ich schon, dass es im Hardwarebereich nicht mehr viel versoffener werden könnte. Aber fast 600W unter Volllast?! Das ist nicht mehr normal. Erstens wegen diesem 12VHPWR-Thema, wo ich jetzt schon drauf warte bis da der erste Stecker wieder abfackelt, und zweitens will ich gar nicht wissen wie das Zocken dann bei 30° Außentemperatur im Sommer wird🤣
#kreativefragen
Kann man einen Ryzen 7 7800X3D mit einer RTX 5080 kombinieren?
Irgendwie riecht es hier verdächtig nach einem Comeback der Multi GPU....... ich kann mir nichtmal eine 5090 leisten😢 aber 2× 5080 sollten gehen 😅🎉
Klar ist, dass für eine signifikante FPS-Steigerung wohl eine neue Technologie her muss. Eine KI einzusetzen ist nur eine Verlegenheitslösung... so wie auch der Umstieg von Kupfer auf Licht beim Datentransfer (Inet/Server/...) erst durch die Technikumstellung möglich war.
Aber bei der aktuelle GraKa-Technologie zu resignieren nach dem Motto "Öh, das wird wohl jetzt die Zukunft sein" ist eine Kapitulation am Fortschritt!!!
Das ist keine "Kapitulation" am Fortschritt.
Das sind neue Möglichkeiten zusätzlich .
Andere Frage.Wass ist denn schlecht daran?
Unabhängig mal von den negativen Aspekten, sondern rein von der Idee her.
@ klar sind das zusätzliche Möglichkeiten.
Die Argumentation im Beitrag hört sich so an, als würde es jetzt so sein, dass nur noch durch KI-implementation eine Verbesserung möglich sei und daran müsse man sich gewöhnen, da man am Ende der "Möglichkeiten" (4nm etc) angekommen sei.
Und schlecht ist eine KI für gewisse Zwecke einzusetzen nicht grundsätzlich.
Nur wenn man sich von der Hardwareentwicklung verabschiedet.
Alleine schon wegen der Erklärung von "Blackwell" und "ADA Lovelace" ein gutes Video! Habe mich das schon immer gefragt und du bsit mehr oder weniger der Erste der das so in einem Video erklärt - top! 👍
Glaub meine 4070 super reicht noch me Weile. Wenn selbst Star Citizen auf dem System läuft dann alles andere auch.
Damit wirst du auch noch eine Weile zurecht kommen! 😊
Star Citizen ist aber auch ein Sonderfall, da das Spiel eines der wenigen ist die auch eine 16C CPU komplett auslasten und damit viel viel stärker SSD- und CPU-Heavy, und vor allem dort dann entsprechend Anzahl der Kerne, ist als 200-300 MHz Takt +-. Und das auch fast egal auf welcher Auflösung.
Gutes Video wie alle deine Videos 🙏🏻
Danke für deine tolle Arbeit 👍🏻😇
Sehr gerne 😊
Durch den transparenten Look der Tastatur seh ich jetzt auch den Dreck unter meinen tasten ein Feature das mir gefehlt hat. Danke ! 🎉
Welche spiele laufen denn heute auf der 4090 optimal sodaß sie voll ausgelastet ist????Leider werden genug leute den Rotz wieder kaufen nur um zu sagen ''Ich hab ne 5090 daheim''....
MEGA Starkes Video! Vielen Danke für dein Arbeit und Zeit die du in die Videos steckst ❤ Schade über 10k aufrufe ABER und dann nur etwas über 1 Likes... Du hast definitiv mehr verdient für deine Arbeit und Hingabe der Videos. ❤
Ich finde tatsächlich, dass ich nicht gerne mit Dlss spiele, z.B. War Thunder, da ich den Graphischen unterschied einfach zu stark wahrnehme (das ganze game wirkt unscharf) deshalb habe ich da so meine Zweifel...
Da ich ein 4K OLED 240Hz besitze, werde ich auf jeden Fall upgraden.
Kann zwar mit meiner 4080 Super noch alles gut zocken, aber ein bisschen Luft nach oben schadet ja nicht. :D
welchen Prozessor hast du denn?
@@IchTrageMantel Ryzen 7 7800X3D
@@Ph3X stark. Hab ne kfa2 rtx 4080 und nen i7-13700k und ob sich der Sprung auf eine 5090 lohnt weiß ich noch nicht..
Ich würde nVidia für diesen Rotz von RTX 5090 nicht belohnen.
War also eine gute Entscheidung die 4080 S zu nehmen und nicht auf die 5090 zu warten. Ca. 1000€ mehr ist es mir nicht wert.
cope. die 5080 kommt gleich raus und ist besser
sogar 1300€~ ^^
@@Alex-bl8uh Nope. Es geht hier um die 4080 zu 5090, da zum Zeitpunkt des Kaufs eine 4090 zwischen 2000-2300€ lag. Daher hab ich nicht die 4090 genommen, in der Hoffnung eine 5090 wäre nicht viel teurer. Da mir dann die Gesamtsumme zu hoch war…
Ich vergleiche dann aber gern die kommende 5090 von Asus mit meiner 4080 von Asus. Glaube genau den Mehrpreis wirst du für die Mehrleistung bezahlen, daher weder win noch loose.
@@Alex-bl8uh Die wird safe 1300-1500€ kosten
Hab nen PC geliehen bekommen und möchte eventuell die Grafikkarte verbessern welche aktuelle Karte ist denn mit der rtx 3070 vergleichbar/besser? Und relativ günstig
man kann es auch so sehen, die Gamer subventionieren den AI-Hype von NV, für die Spiele-Performance ohne Fake-FPS, bringt das nix.
Die Qualität von Frame-Generation hat mich ernüchtert, so dass ich das bei CP2077 und Alan Wake 2 abgeschaltet habe, da die Artefate das Bild bestimmt haben, sprich, da war nichts anderes mehr.
Naja, Nvidia nutzt auf der 5090 nicht den Vollausbau der Blackwell-Architektur. Kritisiert das bei dem Preisschild wirklich niemand? Mehr Leistungsunterschied zur 4090 wäre somit also möglich gewesen.
Stimmt,aber dann wäre der Stromverbrauch noch höher gewesen und die Karte auch wieder viel größer!
Aber jetzt wissen wir zumindest auch, warum keine 4090ti kam.
Dann wäre der Leistungsabstand noch weiter zusammengeschrumpft.
@@SuperAndipaul In beiden Punkten gebe ich dir Recht. Aber jemand, der eine 5090 für diesen Preis kauft, der wird sich nicht um den Stromverbrauch kümmern.
Super Video! Allerdings stellt sich für mich die Frage, ob der Preis noch gerechtfertigt ist, wenn Grafikkarten künftig ausschließlich auf AI/KI setzen.
Tun sie nicht und werden sie auch nicht.
Reine Rasterperformance wird weiterhin eine Rolle spielen und nicht verschwinden.
Sieht DLSS 4 nicht mehr wie ein See unter Wasser aus, das gekippt ist?
Das neue Transformer model ist viel interessanter als die neuen karten. Man hat z.b in Cyberpunk keine bewegungsverzerrung mehr und es sieht so verdammt gut aus
Ist das schon das neue „Büro“ im Hintergrund? 😮😊🎉
Sieht gut aus
Danke :)
Wirklich interessantes Video. Aber ich glaube, wenn ich mir bald einen PC hole, werde ich bei der 40er-Reihe bleiben.
Kann durchaus auch ein Plan sein! Ich würde es eher abhängig vom Preis entscheiden! 😊
jo, habe mir jetzt vor kurzen auch eine ASUS Prime GeForce RTX 4070 SUPER geholt. Griege 60 Euro Cashback zurück und habe so nur 600 gezahlt.(was echt ein toller Preis ist) Nur weil es jetzt die 50ooer Reihe gibt, sind die anderen GPUs nicht schlecht. Schluss endlich bleibt bei dir die Entscheidung. ;p
Wie würde es NVidia finden wenn man dafür nur 1/3 oder 1/4 bezahlt...
Finde die Karte so unnötig 25% mehr kosten für 30% mehr leistung klingt terrible
Dafür das es dieselbe Fertigung ist, ist das sogar okay.
Das Problem ist eher, dass man dafür 2 Jahre braucht oder wartet.
Das schmälert halt die Erwartungen leider enorm.
Was leistet die Grafikarte denn bei 200watt Verbrauch und undervolting ?
Mein Urteil, das ist eine 4090 TI auf Steroide mit neuer Software (DLSS 4) ... 😂👍
Bin echt gespannt auf den Preis/Verfügbarkeit und dann kommt der Stromverbrauch. 😉👍
Tolles interessantes und vorallem gut erklärtes informatives Video. 😎👍
ich bin sehr enttäuscht von dem Teil, dieser Stromverbrauch geht gar nicht, selbst wenn ich keine hätte würde ich eher ne 5070 kaufen und lieber auf eine neue Architektur warten
Spulenfiepen legt sich, hatte meine 4090 anfangs auch. Jetzt ist es nur noch zu hören wenn sie 200+ fps macht.
Ich bin mal gespannt wie man die schnittstellen nutzen wird. Da man die Io Plate/ den PCIe Anschluss und den Stromanschluss modular gemacht hat.
Ich frage mich (das ist für die rechen Profis) wenn man die 4090 mit der selben watt Zahl 575 watt betreibt würde, wie stark wäre sie dann im vergeblich zur 5090 in der rasterleistung??
Warum geht keiner auf VR Performance ein? 😢 Da werden bei der Pimax Crystal 4312x5100 pro Auge gerendert.
Bin ich komisch wenn ich sage das ich mich gegen ein Upgrade auf ne 5090 entschieden habe? Meine 3090 reicht mir noch.
Ich würde nicht sagen, dass Frame Generation ein Ersatz für tatsächliche Leistung ist. Fühlt sich räudig an, damit zu spielen
Einige Tester sagen das sich mit MFG das Spiel nicht flüssig anfühlt obwohl es ja "200" fps hat.
Der Grund sind die Basis FPS die realistisch unterhalb der 60 liegen. Und jeder der am PC mit weniger als 60 FPS spielt, weiß das es sich nicht immer so schön flüssig anfühlt.
@@TomBamz Du meinst die 1% Low-FPS?
@@FreeTheWeed Genau die 1% low sind wohl der Grund.
@@TomBamz Ja, es soll auch besser funktionieren, wenn man schon mehr FPS hat, aber an dem Punkt braucht man es halt eigentlich nicht mehr.
@@BjornsTIR Ja du sagst es. Weiß ich ehrlich gesagt nicht, ob ich wirklich 300 Fake Frames brauche, wenn das Game eh nativ vllt schon mit bis zu 100 fps läuft. Gerade bei Singleplayer Games.
Find ich tatsächlich rein physikalisch gesehen schon sehr komisch, dass die 5090 so wenig Mehrleistung bietet, schaut man sich doch mal die Specs im Vergleich an.
Aber bezüglich Path tracing muss man halt einfach sagen, diese Technologie ist einfach zu rechenintensiv für unsere Grafikkarten. Da müssen diese AI Tools einfach als Ausgleich her.
Ich warte dann mal auf die RTX 6090.
7:33 Danke, das fühle ich... 😔
Eher eine 4090Ti?! Oder doch eine neue Generation da neue Plattform?
Hammermäßiger Test danke dir die 1% Lows 56 fps bei Alen Wake ist aber auch echt übel
Weder P/L noch Effizienz besser im Enthusiast-Segment (xx90-Serie), wenn man von Multi Frame Generation absieht. Im Mainstream- (xx60-Serie) und Performance-Segment (xx70-Serie) heißt das leider alter Wein in neuen Schläuchen.
Im High-End-Segment (xx80-Serie) kann man zumindest auf besseres P/L hoffen.
Hey KreativEcke! Danke erstmal für das informative Video und deine tolle Arbeit die darin steckt :) Auch wenn mich das Thema sehr interessiert bin ich, wie wahrscheinlich 99% deiner Zuschauer, nicht bereit mir selber eine Grafikkarte in dieser Preisklasse zuzulegen (bzw. wäre das auch deutlich mehr als Nötig um meine Gaming Ansprüche zu befriedigen). Da ich zur Zeit aber die Parts für meinen eigenen neuen Gaming PC festlege, würde mich interessieren wie du den Markt für die kommenden Monate einschätzt. Zur Zeit sind ja so manche Preise (*hust* 7800X3D *hust*) nicht mehr von dieser Welt. Und was für einen preislichen Einfluss könnten die neuen AMD GPUs auf die derzeitige Generation haben? Liebe Grüße 😙
Der Markt verhält sich jedes Jahr sehr sehr ähnlich, im Sommer (genannt Sommerloch) sind die PC Parts meistens am billigsten weil die Leute eher draußen ihren Hobbys nachgehen, zb im Sommer war die 4090 bei circa 1600€, stieg dann als es kälter wurde sehr schnell auf 1800€+ und ist jetzt bei über 2000€ (dazu kommt aber das die auch nicht mehr Produziert wird) Und um so kälter es wird, um so teurer werden die PC Parts meistens weil naja die Leute dann vor ihrem PC / TV sitzen und zocken wollen
7 FPS mehr bei CP??? Wollen die uns komplett verarschen? :D
Ich will keine Fake FPS die am besten bei 200+ liegen, ich will richtige Leistung und tatsächlich optimierte spiele die diese dann auch bringen können. FPS rennen, wer die meisten hat, ist doch komplett sinnfrei, gerade wenn es Fake FPS sind 😢
Moores law is Dead, du hast es gehört. Ich denke das wir uns alle an ki im Gaming Bereich gewöhnen können..
Was ist denn an einem „Fake Bilder“ schlechter als an einem nativ berechnetem?
Den Unterschied kannst du doch so oder so nicht wahrnehmen?
Die alten Spiele laufen so oder so flüssig, weil die viel weniger Leistung brauchen und neue Spiele wie RDR2 etc. laufen auf viel höheren Einstellungen flüssig.
Das Ergebnis zählt doch.
Soviel wie die RTX 5090 kostet... dafür bekomme ich für mehr als ein Jahr lang Lebensmittel.
Da man mit Lebensmittel nicht spielt, warte ich mal auf die RTX 5060 ;)
#KreativeFragen Da ich es bisher ein paar mal gehört/gesehen habe, wie steht ihr zu dem Thema den Vram auf der Platine zu wechseln bzw. zu upgraden?
Hab geplant mit im März endlich meinen neuen pc zusammenzubauen. Nun bin ich ein wenig ratlos bzgl der ganzen Custom 5000er Modelle. Habt ihr da Empfehlungen wie man am besten vorgehen sollte? Denke mal die werde direkt ausverkauft sein. Also lieber noch Berichte abwarten oder gleich versuchen eine zu bekommen? Und worauf bei den diversen Herstellern achten?
Ich hatte auch den Plan mir im März einen neuen zusammenzubauen. Allerdings tendiere ich in der Hoffnung auf beruhigte Preise mittlerweile eher dazu das Ganze auf April oder Juni zu verschieben
Einfach ein bisschen relaxen. Im März hat sich der Sturm schon wieder gelegt.
Kommt immer auf die Preise an, warte bis zu dem Zeitpunkt an dem du auch Kaufen möchtest und guck dir dann zu der GPU die du willst Tests der verschiedenen Hersteller an. Wenn du aber nix Übertakten willst oder generell daran rum Fummeln willst dann sind meistens die normalen Custom Modelle völlig Ausreichend zb Gigabyte hat ja die "Windforce" als Einsteiger, die Gaming OC als Mittelfeld und Aorus Master als High End aber da ist auch meistens nur der Unterschied das die Aorus einen etwas besseren Lüfter/Spannungsversorgung usw hat weil die zum Übertakten gedacht ist für den letzten % in Leistung. Wenn also zb. die Windforce 500 kostet, die Gaming OC 550 und die Aorus 800 dann lohnt sich das meistens das Gaming OC Modell zu nehmen aber wenn die weiter auseinander liegen und du nicht Übertakten möchtest, dann nimm einfach die günstige Einsteiger Variante "Windforce"
März wird das nichts mehr.. ich hätt mal so auf Juli oder August 2025 getippt bis man wieder welche bekommen kann
Wie gut ist eigentlich die Chance die genannten AI Features zu nutzen, dabei aber mit Undervolting und Co. auf akzeptable Verbrauchswerte zu kommen, ohne dabei viel Leitung einzubüßen? Wo ist da der Sweetspot und lohnt es sich diesbezüglich eine 5090 zu kaufen um alle neuen Features nutzen zu können und trotzdem noch Strom zu sparen?
Ich hab da mal ne Frage, ich habe sehr oft gehört, dass die gpus mit dlss 4 zwar viel mehr FPS schaffen, aber es sich nicht so viel mehr anfühlt. Also es soll sich dann trotzdem noch sehr ruckelig anfühlen
Nein. Das hat nichts mit DLSS zu tun sondern mit MFG (Multi Frame Generation). DLSS ist nicht das Problem, MFG aber schon.
Wenn AI, Upscaling und Sachen wie Frame Gen irgendwann auf dem Level sind, dass sie verglichen mit nativer Auflösung gleich oder gar besser aussehen spricht nichts dagegen, aber da sind wir noch lange nicht und dann sehe ich es etwas kritisch, aber dass das die Zukunft wird (auch Pathtraycing) steht wohl außer Frage.
Der nächste, der nicht versteht, welche Auswirkungen Fake Frames wirklich haben. Schön, dass man 200+ fps sieht, der Input aber immer noch auf den nativen fps basiert. Sieht zwar schön aus, spielt sich aber besch...eiden.
Das von dir gefeierte Mauspad aus deinem letzten Video zeigt nicht nur eine Berglandschaft, es ist sogar eine 🤣
Ist es schlau von einer 3070ti auf eine 5070ti upzugraden. Ich bin mir unsicher, würde aber gerne upgraden
Ich denke dieser Sprung ist ok 😊👍🏻
Was heißt denn „schlau“? Wenn du nur 1080p und alte Games zockst, dann wohl kaum. Wenn du die neuesten Games bei 4K spielen willst, dann natürlich schon.
Die 5070Ti wird sich bei der realen Performance irgendwo bei einer 4080S einordnen.
@@Apfelkind4000 da er eine 3070 hat denke ich schon, dass er gerne aktuelle Titel spielt. Die Testberichte der 5070ti werden spannend 🙃👍🏻
@@fizzl801 Die 5070Ti interessiert mich auch. Hatte mir Anfang des Monats eine XTX gekauft, die aber wegen eines Mangels zurück ging. Jetzt warte ich bis Ende März erstmal ab.
Wenn die 5070Ti unter 10% an eine 4080S rankommt, wird die gekauft. Ansonsten eine 4080S oder nochmal die XTX, je nachdem, was dann günstiger ist.
Früher die Karten haben ja auch alles in nativ geschafft,denke nur an meine gtx 1080ti,damals ein UHD 4K Monster,alles fast auf max mit 60fps am TV.Damals eine Augenweide,die hat es ja auch geschafft,oder die gtx Titan.Heute wird man mit Upscaling,also blöd gesagt man ruht sich aus,
Naja, nicht alles. Es gab IMMER dieses eine Game was auf maximalen Settings, egal mit welcher Grafikkarte, unspielbar war :)
Warum kann man nicht mit einer NVIDIA der 40er Serie DLSS4 nutzen?
#kreativeFragen
Du wirst mit der 4000er Serie DLSS 4 nutzen können, nur einzig und allein Multgeneration ist der 5000er vorbehalten. Grund ist wohl das die Recheneinheiten der vorherigen Generation zu schwach sind um die ganzen Zwischenbilder zu errechnen.
Du kannst X2 mit der 4000er nutzen (auch das neue FG/DLSS) aber NUR die 5000er können X3 und X4 FG
@@r0xa18 Falsch. DLSS 4.0 läuft auch auf einer 4090 ohne Probleme. Es geht NUR um MFG. Nur das gibt es auf der 5000er Serie.
@PisaroOne an sich nicht falsch. Beides ist frame gen und wie ich sagte x3 und x4 ist für die 5000er, x2 kann auch die 4000er wozu sie 4090 gehört. Also genau das was ich schon gesagt hab
Ich und meine 3060 lachen zusammen
Die 5090 auch über die Performance deiner 60🤷
Wie verhält sich der Stromverbrauch wenn man DLLS4 an hat und die FPS auf 120 begrenzt? Da sollte doch dann ordentlich einsparpotential sein, oder?
Joa mag sein aber wenn man die FPS eh begrenzen will kann man sich auch eine 4090 gebraucht zulegen und vom restlichen Geld den Rest vom PC kaufen hehe
@r0xa18 Ja das stimmt wohl^^ Aber wenn der eigene Monitor z.B. 144hz bei UHD Auslösung hat, was bringen einem dann 300 Frames? Da liegt es doch nur nahe, dass man die dann begrenzt und sicher ne Menge Strom spart.
@@SubaruSumeragi Die Frame Latency ist dadurch ein gutes Stück besser was die Eingaben verbessert. CS2 Pro´s zocken auf einem i9 / r9 mit 4090 damit sie 1000FPS+ bekommen für die best mögliche Latency. Aber als normaler Gamer merkt man das kein Stück. Natürlich kann man auch immer die 1% Low FPS betrachten, also die schlechtesten FPS im Durschnitt (FPS dropps) Wenn du zb. 300 FPS im Durchschnitt hast aber deine 1% Low FPS 144 sind, dann hast du eigentlich das Perfekte Szenario für deinen 144HZ Monitor, wenn du jetzt die FPS auf 144 FPS beschränkst dann fallen die FPS in manchen Szenen im Spiel ja trotzdem unter die 144 (viele Explosionen oder sehr schnelle Bewegungen usw) dann sind deine 1% Lows zb nur 90 und könntest eigentlich ja 144 FPS darstellen. Wenn du also Competetive Games wie CS2, Valorant oder BO6 usw zockst dann nimm lieber die 300 FPS , wird sich dann flüssiger anfühlen
@@r0xa18 Ist eher eine Frage für Tests was man an Strom einsparen kann oder die Effizienz damit erhöht. Ich werde mindestens diese Generation auslassen bis meine 4090 nicht mehr ausreicht für die Spiele die ich spielen will. An Technik und Machbarkeit bei der neuen Gen bin ich aber trotzdem interessiert.
Die Grafikkarte kostet, wenn man jeden Tag 4 Stunden spielt…. 20€ Strom im Monat 😮😅
Da bist du aber wohl vom günstigsten tarif ausgegagen 🤣
Video geil ABER... Titel.. ich weiß da steckt mehr als eine Minute Arbeit drin.
Was stört dich genau? :)
@@KreativEcke Wie gesagt ein starkes Video und auf die Frage: Der Titel hat Clickbait-Potenzial. Also mit anderen Worten..Neugier wecken, ohne zu übertreiben.
Was hättest du den für einen Titel genommen hau mal raus Bro.??? 😅😉
@@Amoc_87“Nvidia RTX 5090 FE Video“ 😂
Ich empfehle ein revisit zu Lossless Scaling. Mit ihrem Modell 3.0 ist das eine echte "Konkurrenz" zu Nvidias Multgeneration. Sogar bis zu X20 (Eher nicht so empfohlen, aber funny. :D) Und das sogar für alle Grafikkarten. Ein Direktvergleich von MFG 2X/3X/4X und LS 3.0 2X/3X/4X wäre mal super.
Ich hoffe bei der 5090 gibts ein Solar Kraftwerk gratis dazu, das währe aber wirklich mal ein sinnvolles collab
Pro tipp. Einfach 5070 holen oder schlechter und einfach nativ zocken bei 1080 oder 1440.
Mache ich schon seit 4 Jahren so, 1080p höchste Einstellungen mit einer rtx 2060 super funktioniert Super 😜, und ehrlich gesagt kann ich persönlich auf 50cm Entfernung nicht so einen großen Unterschied erkennen das ich mehrere tausend Euro mehr ausgeben würde für eine höhere Auflösung.
12gb VRAM, sind doch lächerlich, nicht für eine 4070 aber für eine 5070 schon. Das geht garnicht, ich hatte 13 Jahre lang NVidia Karten und hatte schon die 4070TI Super im Warenkorb. Nun das Ergebniss war das ich mir dann eine 7900XTX gekauft habe. Raytracing interessiert mich 0, den leistungsfressenden Käse hatte ich immer konsequent deaktiviert. Etwas schönere Optik und dafür nur halbe FPS, beeindruckend wirklich.
@DraganArsenovic1989 das Problem mit Nvidia und mangelndem vram ist schon lang bekannt. Hatte aber erwartet die 5070 kriegt 16gb ☠️
@ Die 5070ti wird 16gb bekommen, diese wird dann wahrscheinlich auch 150-200€ teurer sein.
@DraganArsenovic1989 wollte mir die 4070ti super holen. Da beruhigt das schonmal
Was mich unglücklich stimmt ist dass man zwar bei Spielen von der Trickkiste profitiert, bei Produktivitätsanwendunungen wie Videos codieren aber nicht
Wenn DLSS flächendeckend unterstützt würde, wäre es sehr nice. Ich genieße aber gerne Spiele von Indy-Entwicklern und sehr hohe Auflösungen. Und gerade kleine Einmann-Developer haben DLSS nicht implementiert! Und genau da ist der 5090-Bonus so gering, dass ich keinen Sinn sehe, in ein Upgrade zu investieren. Ich habe aber auch die 4090 im Rechner^^
Allerdings zeigen Ausreißer wie Anno 1800 durchaus, dass da noch ein Bisschen Leistung brach liegt. Ich denke, in zwei drei Monaten könnte die wahre Leistung der 5090 freigeschaltet sein und sich ein dezent anderes Bild abzeichnen. Aber ob das freigeschaltete Potenzial dann die 2500€+ für kühlere und leisere Custommodelle rechtfertigen kann? Ich bezweifle es... Die 4090 war damals ihr Geld wert, auch wenn es sehr viel Geld war. Die 5090 scheint aktuell nicht stark genug zu sein, um den Preis zu rechtfertigen... aktuell^^
wann denkst du sollte man sich einen neuen pc
mit den neuen grafikkarten zu kaufen
Da würde ich in der Tat noch ein kleinwenig warten!
@@KreativEcke definiere ein kleinwenig bitte? ;D
@@better_dayz_ Bis zum Sommer, wenn sonst kaumeiner kauft.
Das Problem ist halt, das Mfg eigentlich nur bei 240hz Monitoren Sinn macht und man zudem trotzdem ca. 60 fps ohne fg haben sollte, damit es sich gut anfühlt. Mal eben aus 30-40 fps 120 fps auf nem "normalen" 144hz Monitor zu machen, is nich
Ja absolut geiler Kühler, bei Computerbase ist das Ding mit 550W und in nem geschlossenen Gehäuse sehr laut, der 4090 Kühler war besser. Macht Nvidia wieder Back to the roots kleine laute Kühler wie noch zu GTX 1080Ti Founders und RTX 2080TI. Da bekomme ich ja FX 5800 Ultra Vibes, damals auch der Spitznahme der Föhn, oder Fermi GTX 480 genannt Thermi. Das man mit dem kleinen Elends Kühler kein 575 Watt in nem geshclossenen Geäuse leise Kühlen kann, sollte jedem klar sein. Deswegen stehen die Dicken 3,5 Slot Kühler der Customs schon in den Startlöchern.
Hallo ich muss jetzt leider einen Kommentar dazu geben warum hast du nicht beide Grafikkarten in DLs S3 verglichen mit der FPS
schon geil wie grottig manche Games Performen... aber alle schreien nach Monitoren die jenseits der 500 hz sind.. total KRANK !
Solche Monitore sind für FPS Games wie CS2, Valorant oder LoL etc gedacht, wo es auch ohne die 5090 schon Hardware gibt die 500+ FPS easy liefern
Selbst meine GTX 1050 TI kommt bei osu auf über 1000fps.
Wenn du den Unterschied kennst, willst du nicht mehr auf einen langsameren Monitor zurück.
@@kekshunter4566selten sowas dummes gelesen 😂
Krankes Monster aber auch kranker Stromverbrauch.Die Karte kann sich einfach fast soviel Strom gönnen wie 3 PS5 Spielkonsolen im Spielbetrieb uff
1:49 Wenn man sich die Super Versionen der RTX 20er Serie anschaut, dann kann man zweifeln ob das das hier die schönste ist. (Eigene Meinung zählt natürlich von dir auch)
Moores Law ist nicht tot, was man ja vom Sprung von der 3090 auf die 4090 ganz klar sehen konnte. Fast 100% Leistungszuwachs ist natürlich nur dem neuen Fertigungsprozess zu verdanken.
3090, 3080 usw sind bei Samsung in 8 nm gefertigt worden und 4090, 4080 usw sind TSMC 4 nm darum so hoher leistungs Zuwachs. 40 und 50 Karten 4 nm TSMC
@@Johnny-waax Ja und desegen ist Moores Law nicht "dead"
Das schönste FE-Design, bestimmt. Aber durch das Design greift nVidia auf Krücken zurück, um den PCI-E-Anschluss an das eigentliche PCB anzubinden. Aus technischer Sicht absolut pfui. Wer die 5090 FE per Riserkabel anbinden möchte, könnte dadurch Probleme bekommen...
Upscaling und Frames dazwischen schieben, das nennen die Fortschritt 😂.
FG ist echt nur so lala aber Upscaling ist schon was schönes, gerade DLSS. Mittlerweile kann man den Unterschied so gut wie nicht erkennen auf DLSS Quality und auf 4K selbst in DLSS Performance nur kaum, aber der FPS Boost ist das mehr als nur Wert