Kommt aufs Spiel drauf an denke ich. Bei Ghost Recon Wildlands fühlt sich mit meiner 4090 in 4K an als ob meiner auf 4.8 GHz Allcore übertaktete 10900X CPU am CPU Limit. Aber in den meisten Games ist es wohl die GPU trotz 4090.
Hängt ja wohl vom Spiel ab. Schon mal z.B. Brotato oder Dredge gespielt? PS: CPU und GPU haben ja je ne Leistungskurve (Leistung/Watt). Die würd ich gerne wissen. Ihr habt doch z.B. darüber berichtet, dass die 4090 z.B. danach schreit, undervoltet zu werden (wenn ich mich recht erinnere)
Danke vorerst für das nette Video. Am Ende zeigt es doch eindeutig, dass es nicht an der CPU liegt, sondern an der schlechten "Programmierung" des Spiels. Vielleicht wäre es sinnvoller gewesen, ein gut optimiertes Spiel zu zeigen umd dort ein CPU Limit hervorzurufen, z.b 200fps auf einem 2600k in 1080p mit einer 4080?
@@PCGH_English Stimme ich euch beiden in Allem zu, war meinerseits nur ein Vorschlag, da ich solche schlecht optimierten Spiele nicht unterstütze. Ich bewundere hingegen Nintendo, was sie aus einer 0,4 Teraflops Konsole herausholen. Die Spiele werden erst herausgebracht, wenn sie vernünftig laufen..meistens. Qualität vor Quantität.
Ein Jahr verspätet, aber: Nicht jedes Programm kann alle Kerne ausnutzen. 100% CPU last wird nur angezeigt, wenn alle threads zu 100% ausgelastet sind. Stell dir vor du hast eine 4 thread CPU aber ein Programm, welches nur zwei Kerne auslasten kann, dann wird dir 50% angezeigt (wir ignorieren windows hintergrgund nonsense). Mit nem Core 2 Duo vs nem Ryzen 7800X3D sind diese zwei ausgelasteten Kerne halt einfach DEUTLICH langsamer, also biste im Flaschenhals.
Was ich nicht so verstehe, wie ist es zu verstehen das die CPU pro Kern nur bei ca. 60% ist aber trotzdem am Limit arbeitet? Ich werde da nicht schlau raus.
Es fehlt der Vergleich mit einem besseren Prozessor. Und wie sieht es mit dem RAM in diesem Wettbewerb der Flaschenhälse aus? Dass ein 5600X (echter 6-Kerner mit 12 Threads) zu langsam ist ("Sack Nüsse"), ist schon was besonderes. Ihr habt doch ein schönes Video gemacht, indem ihr erklärt, dass die CPU mitunter gar nicht so flott sein muss, weil die GPU meistens sowieso ins Limit läuft. Muss das Spiel jetzt einen 8-Kerner haben oder ist vielleicht die Single-Core-Leistung wichtiger? PS: Musstet ihr unbedingt dem Randale-Alf, ääähh, Ramdalf mit der Banane im Gesicht rumfummeln? Sowas respektloses (gegenüber der Banane?).
Eigentlich nix besonderes bei einem Spiel wo es nicht auf viele, sondern auf Kerne mit hoher IPC ankommt. Die IPC von den 5000er Ryzen ist immer noch recht bescheiden im Vergleich zu den Intels. Erst die 7000er sind nah dran und die X3D gleichauf oder besser.
Wollte gerade sagen. Der 5600X wird eigentlich immer als absolut ausreichend beschrieben. Ich würde eher sagen dass das Spiel einfach extrem Grütze optimiert ist.
Ich hatte mit den 3600x deutlich mehr stottern und FPS lows mit einer 2070super, habe dann gewechselt auf 3800x mit 4,5Ghz Allcore und deutlich bessere Werte sowie Spielbarkeit. Jetzt habe ich einen 5800x mit 3080 12GB und das läuft extrem gut! Ich glaube das es bei den Ryzen, die ja keine E-cores haben, irgendeine Schwäche bei den 6Kernern gibt die bei den 8kernern nicht auftritt, für mich wirkt es so als würden nicht die 6kerner 2 Kerne dazu bekommen wenn es ein 8kerner sein soll, sondern der 8kerner 2 Kerne verlieren wenn es ein 6kerner sein soll..
@@peterpichler3674 Es gibt bekannte Probleme mit dem Nvidia Treibern auf 6 Kern CPUs. Einfach mal nach "6-Kern CPUs bremsen High-End Grafikkarten aus" googlen. Man sieht auch im Video das die CPU nicht am Limit (>80% CPU Last auf allen Kernen) ist. Ist ein reines Management Problem. Der Nvidia Treiber springt vermutlich von Core zu Core.
Genauuuuuuuuuuuuuuu das erlebe ich gerade auch xD! Habe mir tatsächlich letzte Woche wegen Jedi Survivor (unter anderem) eine 4080 gekauft, weil ich davor eine 1080 drin hatte :D. Und ja, bei manchem Spiel renne ich volle Möhre mit meinem Ryzen 3900X ins CPU-Bottleneck. Aber immerhin bekomme ich die 4080 mit Quake 1 und Quake 2 RTX gut ausgelastet :D
Na wenn eine 5600x schon zu langsam ist um die Karte bei 2k oder 4k zu bespassen, liegt das nicht an der CPU. Wenn ein Spiel nur mit 13900k und 7900XTX spielbar wird, ist dieses Spiel dann wirklich optimiert?
optimierung, schlechte und faule programmierung *hust* mit highend cpu läuft das spiel ja auch nicht viel besser lach, ich werde auf jeden fall keine 70 tacken ausgeben nur um als versuchskaninchen mit meiner 5900x3d und 4070 Ti zu dienen. EA hats wieder richtig verkracht.
Warum sind dann nochmal einzelne CPU Kerne nur zu 30% ausgelastet? Ist es wirklich die CPU oder liegt es nicht doch am Spiel und die Optimierung? Wäre es nicht so ähnlich, als wenn ich die Internet Bandbreite von einem Programm beschränke und dann sage mein Internet ist zu langsam, jetzt muss ich mir einen besseren Tarif mit mehr Bandbreite kaufen?
Kommt auf das Spiel an, gilt aber auch für Programme: Nicht alles spricht alle Kerne einer CPU an, sodass selbst ein 16-Kerner grundsätzlich keine bessere Performance garantiert. Entscheidend in diesen Fällen ist die sogenannte "Singlecore-Leistung", heißt, wie stark der einzelne Kern arbeitet und die Prozesse verarbeiten kann, wenn er vom Programm "angesprochen" wird. Für reines Gaming und nebenbei Office reicht daher im Regelfall aktuelle 6- und 8-Kerner aus. Für paralleles Streaming, Anwendungen (Foto-, Video- und Bildbearbeitung etc.) sind mehr Kerner von Vorteil.
Weil Spiele kein HT nutzen und viele Spiele immer noch nicht alle Kerne voll ausnutzen. Die CPU ist aber bei über 50%, wenn HT nicht genutzt wird, dann sind das alle 6 Kerne fürs Spiel.
Cool, dann kann ich ja jetzt regelmäßig unter die Gamestar Videos dieses Video hier empfehlen, damit Fritz/Michi bei 40% GPU Auslastung nicht rummeckern "selbst eine 2000€ 4090 ist zu langsam!", anstatt jedesmal einen ellenlangen Kommentar zu verfassen, wieso es nicht an der GPU liegen kann :D
Das ist ja voll Banane! Affig Lustig XD ... bei den viel zu hohen GPU Preisen kann man ja nur ne IGP bzw. APU nutzen, da ist man dann froh wenn es überhaupt läuft :D
Schönes Video, dass meiner Meinung nach gut auf diese nicht allen bekannte Problematik hinweist. Ich hätte mir noch ein zweites Beispiel gewünscht, wie es auch möglich gewesen wäre dieses Problem zu lösen. In eurem Fall mit z.B. einem 5800X3D. Wer das Budget hat auf eine 4080 aufzurüsten kann sich auch den besseren Prozessor leisten. 😉
was denn für ein "Problem" bitte? Nicht nur die GPU war hier nur Hälfte ausgelastet, sondern auch die CPU Kerne haben sich gelangweilt. Leider fehlt bei PCGH mal wieder die Kompetenz um solchen Sachen wirklich auf den grund zu gehen. Ne, lieber gierig nach der cam greifen und aufnehmen, endlich mal wieder was womit man illustrieren kann dass die Leute gefälligst MEHR BRAUCHEN warum wollen sie das nicht verstehen.
Alternativ kann man fürs zocken auch die Monitorauflösung hoch stellen. Also UHD bei einem WQHD Monitor. Ich glaube man muss da in der Nvidia Systemeinstellung erst mal eine benutzerdefinierte Auflösung anlegen. Texte werden im Windows Betrieb zwar zerrissen, aber beim zocken ist alles fein.
Es wäre mal ein Artikel oder Video interessant, das sich genauer damit beschäftigt, welche Einstellungen CPU und welche GPU belastend sind. Mein GPU ist bei 100 Prozent, aber die CPU langweilt sich, also kann ich die Sichtweite hoch stellen?
@@yoshiiex_x4787 Verhält sich gut.^^ Aus irgendeinem Grund ist das Spiel bei mir ohnehin nicht sonderlich zickig. Spielen vielleicht auch noch Ram und SSD mit rein, wer weiß.
Die frage ist, welche CPU? Als AM4 Nutzer lieber eine 250€ 5900X oder 5800X? Denn auf Am5 welchen lohnt doch preislich überhaupt nicht, wenn man schon mit einem 5600X ins CPU Limit rennt.
Ich selbst hatte nen 5950x und hab dann auf nen 5800x3D umgerüstet und das Ding ist wesentlich schneller. Bei AM4 gibt es einfach keine bessere CPU fürs Gaming.
Die Grafik settings auf Max und die Auslastung der Grafikkarte steigt, dadurch reduziert sich etwas die CPU Auslastung, so zumindest bei meinem Beipspiel in the Finals
Tolles Video,hab von einer Gtx 1070 auf eine rx 6750 xt upgraded,mein i5 9600 k @ 4,8 ghz hat hart zu kämpfen,spiel auf einem 1440p@144 hz Display,die Cpu hat ca 68° dauerhaft +/- 5°.Mir war vorher klar das der Prozessor da nicht mithalten kann.Möchte auch nicht wieder neu in Mainboard und Cpu investieren.Aber auf einen I 7 lohnt sich es denke nicht ...i9 9900k schon eher aber no Money momentan.Könnte ich jetzt die Gpu soweit Drosseln das die Cpu wieder hinter herkommt oder juckt die Cpu die dauerhafte 100% gar nicht.
Hab mir einen neuen PC mit 7600x und 4090 zugelegt und spiele aktuell fast nur ältere Spiele damit weil Titel wie Jedi Survivor für mich aktuell unspielbar sind bei den miesen frametimes und Rucklern 😩
Didaktisch leider schlecht: Ihr wollt mit dem Video zeigen, wie man ein CPU-Limit erkennt und verweist dabei auf die im Video sichtbare GPU-Auslastung. Verliert aber kein Wort darüber, dass die gleichzeitig für uns ebenfalls sichtbare CPU-Auslastung auf allen Kernen nur im mittleren Bereich ist. Das ist doch zumindest scheinbar ein Widerspruch, den sich viele Nutzer, die das CPU-Limit verstehen wollen, nicht erklären können! Und den Nachweis eines CPU-Limits, indem ihr das gleiche Szenario mit stärkerer CPU zeigt, führt ihr auch nicht. So bleibt es doch eine bloße, nicht nachvollziehbare Behauptung ... .
@@diablogebi Definitiv! Schau mal bei uns ins Forum, unter "Benchmarks", da haben wir eine Rangliste mit einigen Community-Werten. Der 5800X3D ist da gewohnt potent. Ein 3900X fehlt noch, aber da gelten die üblichen Abstände.
Ich habe ein Ryzen 7 5800X3D und möchte mir jetzt eine RTX 4070 kaufen. Ist das eine gute Kombinationen für max. Settings in FullHD? Wahrscheinlich werde ich mir als nächstes noch ein 27 Zoll WQHD Monitor kaufen.
50 bis 60% sieht für mich jetzt aber auch nicht nach cpu auslastung aus.... mein 7700k bei 5 GHz lief damals bei Battlieflied (5 oder 2042 weis jetzt nich mehr genau) bei 85 bis98 %. das nenne ich dann cpu limit ^^ er hat sich wacker geschlagen!
Habe einen „alten“ Laptop mit einer Gtx 1650 und einem 9300H. Eigentlich kann er alles, was ich möchte in fhd machen, ohne ausgelastet zu werden. Jedoch ist die Kühlung sehr schlecht, weshalb der Prozessor permanent um die 100° ist und sich dann selber drosselt, sodass ich z.B. Valorant mit 40fps spiele. Gibt es irgendetwas, um so einen Laptop wieder zum Leben zu erwecken, oder muss ich mir etwas neues kaufen?
ja, ist eine gute Kombination. Teilweise (je nach RAM) könnte der 12700 schon zu "schnell" sein. Nutzt du DLSS/FSR, könnte er hingegen zu langsam sein. Kommt aufs Spiel an. Aber falsch ist die kombination definitiv nicht
@@tylers_piano 3600CL18 (und weiter? ist ja nur 1 von ~30 Timings^^) ist ehr lowend bereich bei intels core 12th Gen, also "zu schnell" wird der i7-12700 zumindest nicht sein ^^ Bei DDR4-3800CL15-15-15-30 wärst du zumindest im DDR4 Bereich im High End, absolut gesehen untere Oberklasse. Allerdings kann der eben auch DDR5 und damit solche sachen wie DDR5-7000CL32 (je nachdem was der IMC schafft) und das wäre dann absolutes Highend beim RAM. Das wäre vermutlich 10-15% mehr CPU Leistung gegenüber deiner RAM Konfig
vor dem Video: mit Ryzen 9 3900xt und RX 6700XT unterwegs und MUSS die Details auf Mittel stellen, damit ich 60FPS erhalte :( ja, ich habe die Leistungsgrenzen (max W auf GPU und V auf CPU) etwas angepasst, damit ich bei 100% Last nicht ueber 65°C komme..... allerdings sollte da eigtl ein wenig mehr drin sein :( nach dem Video: scheint, als habe ich mit dem 5900X und der 7900XTX vapor-x ne gute Wahl getroffen. dazu ein schnuckeliges, schneller und groesseres RAM-Pack und dann sollte das doch machbar sein ;) Dienstag ist dann hoffentlich endlich die CPU auch da und dann werd ich umbauen :D
Häng bei Watch Dogs Legion gefühlt im CPU und GPU limit… Beide max 55% ausgelastet (10600k mit 3060ti) und Frames bei 55 und die sinken dann über die Spielzeit langsam bis 29FPS. Dann Neustart und dann gehts wieder knapp unter 60fps los. RT und DlSS spielen gefühlt keine Rolle..
@@zwieback1988 klingt komisch, sind alle kerne der cpu bei 55 % oder der erste voll ausgelastet und der rest garnicht? In dem Fall wäre es deine cpu. Die sinkenden fps sprechen aber eher für zu hohe temperaturen, hast du die mal überprüft?
@@zwieback1988 Das spricht für ein cpu limit, weil watch dog wie viele andere spiele auch auf single core leistung setzt. Die sinkenden fps über die zeit kann man damit leider nicht erklären.
Zur Zeit sind aber auch viele PC Spiele nicht richtig optimiert. Ich zock mit ner 4090 und nen Ryzen 5800x3D, dennoch ruckeln Spiele wie The Last of Us oder Hogwarts…
Ich hole mir dieses Spiel eventuell aber wenn es erst ausgepatcht ist! Mein alter i7 4790K übertaktet auf 4,6GHZ arbeitet mit 32GB RAM und einer RTX 3060 12GB in aktuellen Spielen in WQHD gut zusammen, aber in Full HD merk ich schon dass CPU Limit. WQHD ist ja auch schöner als Full HD. Das mit den Bananen war irgendwie witzig.
Mein Ryzen 7 5700 X ist laut Afterburner meist am Limit von 78 Watt, bei der RTX 4070 habe ich noch die Qual der Wahl zwischen 100 -208 Watt je nach Game bin aber ganz zufrieden für 1300 Euro jedenfalls , mit 6 TB als Speicherpolster ., so kann mein Haushalt wenigstens wieder Kapital generieren.
Ich habe eine 4070ti, 5800x3d, 16gb 3200 cl14 ramm. Sehr gute Internetleitung. Trotzdem habe ich starke Fps Drops. Das Bild verzögert bei nahkämpfen stark. Spiel: fortnite. 1440p, Monitor HP XQ27 165hz. Habt ihr vll ne Idee woran es liegen könnte? Lieben Gruß
Mmmhhhhhh.....dieses game stürzt immer wieder ab. 13900k und ner 4090.....wqhd, ultra settings.. was kann ich tun ? Gibt wohl kein cpu update für mich 🤷♂️
Besser kann man's nicht machen...und nein,ich will kein 7800x3d für 3fps mehr...genug enttäuschende ryzens gehabt die Jahre..demnächst nur noch Intel Nein ich Kauf mir kein 500€ 3d ryzen...der Montag eingebaut wurde...und Mittwoch abgeraucht ist ...auf einem über, überteuerten b650 für 280€
ich find es traurig das die das nicht richtig deuten können was da genau passiert. ein trauer spiel in sachen analyse. als erstes sollte man wissen was für eine engine das spiel nutzt UT5 chakt als zweites sollte man wissen ob das spiel shader nutzt oder nicht. chackt ja es nutzt shader. dann sollte man das beobachte auch noch richtig in die techniken zu ortnen. ob nvidia odr eine AMD gpu hier genutzt wurde. was ist wenn man in den treibern mal nach bestimmten einstellungen sucht wie das man für cuda nicht die cpu nutzt sondern auch wirklich immer die hardware cuda einheiten nutzt. sollte das bild ein bichen verbessern. leider sind alle karen cuda limititrt nicht GPU. und bei UT engine kommt noch was besonderes hin zu und zwar das sie alles von der CPU am liebsten berechnen lassen das heist egal wie gut und wie schnell deine karte ist und was deine karte auch kann. du brauchst in spielen wo eine ut engine zum einsatz kommt auch eine sehr leistungs starke CPU. sie nutzen zu einem die CPU damit das ergebniss immer gleich aus sehen tut zum anderen weil AMd keine rechen einheiten hat sondern nur so eine leerlauf zeit berechnung die oft nicht reicht wird die gpu gemiden. so kommt nicht mal cuda wirtklich zum einsatz wenn es doch dort am besten laufen könne. spiele entwikler machen nur einemal den weg darum nutzt auch kein modernes spiel auch wirklich mehr als cuda bei RTX und cuda ist langsam so langsam das man gerade so spiel bare FPS hin bekommt. im ernst kauft euch ARC und wen ihr das geld habt dann NVIDIA den AMD ist einfach nicht mal das anschauen sich wert. kommt nicht na cuda ran kan kein gutes 4k oder FSR ist auch nur ein fake wie shader und der mist in GTX. ich weiß auch nicht ob AMd irgend was mal wirklich verbessern will auser mülll zu verkaufen was bringt eine sparsame karte die nix auf die reie bringt auser HD und so will keiner wirklich spielen. zu mal es keine verbesserungen gibt sondern nur die reine gtx grafikpower.. ich als ein wenn ich ein entwickler für games währe und ein spiel machen müsste würde komplett die AMD fraktion ausschlissen weil sie einfach nur toxisch ist seind 20 jahren ur schrott mist und kleine verbesserunge um auf zu schliessen aber nicht wirklich nach vorne zu gehen ist wie ein nicht wollen oder ein bewustes bremsen. wie kann man so schlecht sein und so den ton ansagen und alles auf den markt in die steinzeit schiken. games werden nicht gepatcht weil sie mit nvidia starten und ein bild bringen ob das mit cuda geil ist oder nich. haupt sache keine zusätzliche arbeit investiert um mehr power für Nvidia raus zu holen so das die RTX technik sinnvoll genutz werden kann. man beschrenkt einfach alles auf cuda und macht eineRTX karte zu einer veralteten GTX mit RTX optionen die so nicht gedacht ist. das ist einfach nur krank. und die drei spiele die es richtig machen bekommen nicht mal gute analysen was sie besser machen ob sie RTX render standards wirklich voll nuzen die auch nvidia gepatcht hat weil eigentlich sollte RTX wen in spielen aktiv deutlich weniger schader verbrauchen dur die nutzung von KI die die shader daten nach bedarf zuschneidet. aber genau das fehlt alles wird einfach ungefiltert in den v-ram geladen und verbraucht so einfach power und strom weil einfach nur schlecht umgesetzt zwar starten die spiele nun ja so ist es auch gedach aber gut und schnell laufen sie nicht weil cuda eine sehr langsame art ist spiele zu randern und RTX was schnell ist und im grunde sogar nicht aufwändig kann nicht erblühen weil man der technik nicht die tore öffnet. einfach nur bescheuert bei den preisen sollte doch eine RTX immer in spielen voll unterstützt wrden nicht nur cuda sondern auch RTX. nicht nur zugeschaltete zu cuda RTX optien die sich mit dem rest speicher vergnügen dürfen. weil cuda eigentlich der gröste mist ist weil so umstendlich genutzt wird. eigentlich brauchen RTX karten 2 v-RAMs einen für die cuda mist scheisse und einen für die RTX angelegenheit. ich finde es auch von NVIDIA super unfähig das sie den kunden nicht zeigt welche technik die karte aktuell nutzt cuda oder RTX als render standard. weil das nur wenige wirklich wissen was eine karte aktuell wirklich nutzt und was damit dan maximal erreichbar ist. sind die vergleiche oft so schlecht zumal techniken falsch zusammen gestelt werden und so nicht verglichen werden dürfen man vergleicht auch nicht zwei züge eine dampflock und eine moderne elekktro lock odr disel lock und schautwehr bekommt besser seine pferdchen auf die schinne. den test gibts so nicht weil man das auch so mit GTX und RTX machen sollte getrennt und abgestimmt nicht in GTX spielen die options fähigkeit testen sondern spiele suchen die wirklich auch RTX voll können das ist CoD warzone . und metro exodus also immer wenn es um RTX geht sind das titel die ein muss sind wenn es um RTX geht.alles andere als test zunehmen ist doch soch einfach nur ein fake. auserdem sollte mal der vergleich gemacht werden ob man v-ram unterschide bekommt wenn man kein RTX nutzt sodnern nur gie GTX technik hat ob die RTX karte shader reduziert macht es das nicht ist GTX über cuda aktive und so mit ein schlechtes RTX game. weil es nicht alle optienen des modernens rendern ermöglich um vergleichen auch machen zu können. aber die GTX beschrenkte mist welt ist einfach nur gift für RTX karten. weil nicht geil ja sie laufen und starten aber sauber und geil sind sie halt einfach nicht. weil man den ram mit schrott daten füllt die die karte einfach nicht braucht. weil RTX sie nicht braucht und noch was die 4000 karten sollen auch cpu fähig sein das nutzt auch kein spiel warum weil die windows API was seit der 3000 karten und auch von AMD gefordert werden nicht erweitert wird. so mit auch keine unterstütung von neuen möglichkeiten über windows. dummes MS. ob das an der konsolen gemeinschaft von AMd liegt die einfach unfähig ist irgend was zu verbesern seit 20 jahren. auser vulkan ist aus dem hause AMd nix zu gebrauchen smart accress memory war der hit bei den hohen takts direkt sorige wer spricht über die shrott technik im PC bereich wo sie kaum was gebracht hat weil die KI unterstützung komplett fehlt. und so mit balsat ist weil man den neuen mist nach patechn muss und probleme aus besser was voher besser und sauber gelaufen ist mach jetzt so zusetzlich probleme. nein spiele brauchen patches und den richtigen render weg für jeder karte nicht nur cuda und gut ist weil dann kann ich auch ARC kaufen habe ich mehr vom geld und aktuell sogar manchal schon bessere leistung als NVIDIA wow was ist da los. das kommt durch die cuda game reduktion die einfach un geil ist. aber ist okay das man technik für knapp 2000 € kauft nud eine 400 € karte im grunde reicht weil die technik in spielen einfach nicht da ist. super werbe video und echt geile vergleiche die ihr da macht super preis empfelung und super technik analisen wo der shu gerade drückt., magazine waren auch mal besser weil sie den mist den sie irgend wann mal veröffentlicht haben wie technik funktioniert und was wichtig ist damit es so funktionier auch kominiziert haben heute wird ein spiel gestartet und verlangt das es perfekt leuft egal ob cuda oder GTX egal was es nutzt man nimt die FPS und das ist der richtwert. wow schlechter und einfacht kann man geld nicht oder werte von produkten schlecht machen. und sagen 12 gb ist minimum ja das gilt nur in dem fall wo GTX zum einsatz komt also cuda . nice eine technik die nin modernen spielen man als kunde nicht sehen will. ich schreib ds auch noch 1000 mal bis man kapiert das da was mechtig falsch leuft kunden um leistung in spielen betrogen werden. das schlime ist nicht von den karten sondern von den games selbst die unfähig sind sich weiter zu entwikeln RTX ist seit 8 jahren da und es wird kein spiel mit der render technik produziert sind die so GTX geil und meinen cuda kann alles.
@@patrickhertig8644 Klar kann er das, wieso auch nicht? Bei 4k spielt die CPU ja kaum eine Rolle mehr. Zumindest nur bei CPU lastigen Games wie z.B. Warhammer 3. Die CPU i.V.m. dem RAM merkt man dann eher bei 1440p und abwärts.
@@Mert-gf4jc, bist du traurig das beim 4k zocken kaum bis gar keinen unterschied auszumachen ist oder wo ist dein scheiss problem. Intel ist schrott was effizient angeht
"Dumme" Frage hierzu: Die Gesamt CPU Auslastung war hier immer so zwischen 50-60%. Müsste die im Falle eines CPU Bottlenecks deutlich höher sein, weil die CPU viel mehr arbeiten muss? So sieht/wirkt es für mich so, als würden sich beide, also CPU UND GPU, langweilen^^
Ich habe sogar einen CPU Bottlneck mit einer RTX 4090 und dem neuen Ryzen 7950 x3d. Das ist teilweise so abartig. Gerade in 4K Gaming z.B Spongebob Cosmic Shake auf Max ohne dlss 4K teilweise geht die CPU auf ü 30 Hoch und die GPU droppt dann auf 97 - 80 - 75. Das ist dann zwar nur kurz aber extremst störend und für diese Preiskategorie ein absoluter Reinfall.
Bei allen Spielen in 4k Resolution Scale auf 150-200% setzen, dann hast du keinen Bottlenecks mehr, dafür ein knackscharfes Bild einen schönen Stromverbrauch 🙂
Manchmal habe ich schon das Gefühl, dass mein 5950x ins Limit läuft, da viele spiele keine 16 Kerne unterstützen. CP2077 ist z.B. momentan so bisschen an der Grenze. In WQHD und Ultra Settings (RT Ultra, ohne PathTracing) sehe ich auch gelegentlich wie die Grafikkarte (4080) auf 90 Prozent runter geht.... sowas nervt doch ....
Bitte nicht immer nur auf die Hardware schauen, sondern auch den Betriebssystem-Scheduler mit einbeziehen und wie die Engine eines Spieles diesen nutzt.
Im CPU Limit ist DLSS/FSR nicht empfehlenswert, da Upscaler die CPU belasten und damit das CPU Limit nochmal deutlich verstaerkt werden. Dann lieber hoehere native Aufloesung...
Weil das Spiel nicht alle Kerne der CPU nutzt = schlechte Programmierung. Würde das Spiel mit allen kernen skalieren, hättest du auch deine 100% CPU-Last.
wow ein 5600 limitiert schon so stark?? Da ist das Spiel aber doch schon ne Außnahme oder? Erinnere mich noch an euer CPU Video indem selbst ein alter Intel aus der 4000er Gen, noch spielbare Werte ablieferte.
Die 7950x3d darfst Du auch nicht nehmen sondern die 7800x3d musst Du nehmen. Nur die 7800x3d hat den echten Stapelcache für alle Kerne. Bei der 7950x3d haben die das wieder mal nur halb umgesetzt wie bei den Grafikchips. Die verbrät zu viel Watt sowieso. Energieeffizienz ist das Zauberwort welches hier nie springen wird.
Also warum soll die GPU denn 300 Watt unnötig verbraten in der heutigen Zeit mit Klimawandel und horrenden Stromkosten? Interessant ist das bei gleichem Szenario die 1080 ca 150 Watt verbrät und die 4080 ca 100 Watt. Wenn man man mal die Produktionskosten außen vor lässt weil man die 1080 lange genug benutzt hat und eh aufrüsten wollte auf ne 4080 (übelst überteuert übrigens, selbst die 4070 Ti ist überteuert geschweige denn die 4070) dann ist das schon bemerkenswert. Darauf ist man gar nicht eingegangen, dass man auch Strom sparen kann. Außerdem kostet jedes letzte Quäntchen an mehr Leistung unnötig exponentiell mehr Strom. PS: Hab damals knapp 600 Euro für Custom Board 980 bezahlt und das war schon teuer. Nicht nur im Lebensmittelbereich auch in anderen Bereichen sollten Preisbremsen eingebaut werden. Preise werden einfach mal willkürlich von ein Jahr aufs andere verdoppelt. Alle Zehn Jahre läuft das so. Wenn man im Einzelhandel arbeitet kriegt man das schon mit.
Hey, habe ich in meinem System, sieht genauso aus. Die CPU Last steigt teilweise auf 80% und es ruckelt auch. Ahso, an der 4090 kann es ja nicht liegen .-))) Genau, was er sagt ist, da fehlt es wohl etwas an Optimierung, dann lasst uns mal auf Patches hoffen.
Also das Spiel läuft sehr gut mit meinem i7 9700k und einer rtx 4080. In 4k keine ruckler oder ähnliches. Keine ahnung was die leute haben ? Auch musste ich dank grottiger programmierung seitens EA kein Vermögen für einen neuen Prozessor ausgeben. Weil das Game eh bei jedem schlecht läuft. Und egal welche Auflösung immer CPU Bottlenek 😂😂😂 find ich schon lustig das jetzt die Hardware der Konsumenten daran schuld sein soll wenn Leute ihre arbeit nicht richtig machdn können und ohne Herzblut am werk sind. Aber was tut man nicht alles für ein wenig mehr Reichweite was 😅
Also mal ganz ehrlich. Wenn ein CPU limit auftritt und die CPU dabei im Schnitt gerademal bei 55% Aus(last)ung "gammelt" würde ich sagen wir haben hier ein EA-FIXED_EUREN_SCHLECHTEN_CODE-Limit
Was eher gegen Ruckler hilft bei geforce Karten: nvidia contol panel threaded optimization auf an, opengl und triple buffering auf an, vsync auf an. Sodann in der exe Datei des Spiels auf properties und compatibility, dann disable fullscreen optimizations und override high dpi scaling. By application Restart😎 Wermutstropfen: kann mal crashen.
Schlechtes Video, wozu zeigt ihr das an einem schlecht optimierten Spiel? Das hättet ihr schon besser am Beispiel von mindestens 5 weiteren Spielen zeigen sollen, auch welche Rolle ggfs RAM und Mainboard spielen.
Zockt ihr am CPU-Limit oder nutzt ihr das volle Potential eurer GPU?
Ryzen 5 3600 mit GTX 1060 6GB auf 1080p mit 16GB DDR4 @3200MHz.... Denke mal... alles im Limit? XD
Kommt aufs Spiel drauf an denke ich. Bei Ghost Recon Wildlands fühlt sich mit meiner 4090 in 4K an als ob meiner auf 4.8 GHz Allcore übertaktete 10900X CPU am CPU Limit. Aber in den meisten Games ist es wohl die GPU trotz 4090.
Hängt ja wohl vom Spiel ab. Schon mal z.B. Brotato oder Dredge gespielt?
PS: CPU und GPU haben ja je ne Leistungskurve (Leistung/Watt). Die würd ich gerne wissen. Ihr habt doch z.B. darüber berichtet, dass die 4090 z.B. danach schreit, undervoltet zu werden (wenn ich mich recht erinnere)
@@LarsPower klar. Habe mich hier spezifisch auf Jedi Survivor bezogen. Da bin ich bei meiner Hardware glaub ich im alles Limit:D ^^'
nur mal so, iht sagt bei 3:00 das die 4080 normalerweise bei weit über 300Watt sei, die TDP ist bei 320Watt aber normal ist sie eher bei 250-280...
Ihr seid meine lieblings Computer Fuzzies.
😂
😂
Danke vorerst für das nette Video. Am Ende zeigt es doch eindeutig, dass es nicht an der CPU liegt, sondern an der schlechten "Programmierung" des Spiels.
Vielleicht wäre es sinnvoller gewesen, ein gut optimiertes Spiel zu zeigen umd dort ein CPU Limit hervorzurufen, z.b 200fps auf einem 2600k in 1080p mit einer 4080?
Klar ist das Spiel schlecht optimiert (liegt auch an der UE4 die mittlerweile an ihr Limit kommt), trotzdem besteht aber ein CPU-Limit.
Die Ursache jedes Limits ist eigentlich immer der Code. :) Es ging um die Diagnose.
@@PCGH_English Stimme ich euch beiden in Allem zu, war meinerseits nur ein Vorschlag, da ich solche schlecht optimierten Spiele nicht unterstütze.
Ich bewundere hingegen Nintendo, was sie aus einer 0,4 Teraflops Konsole herausholen. Die Spiele werden erst herausgebracht, wenn sie vernünftig laufen..meistens. Qualität vor Quantität.
Was bremst in diesem Fall an der CPU, die Kernauslastung liegt ja auch nur bei 40-60%?
Programmierbullshit ist es.
Ein Jahr verspätet, aber: Nicht jedes Programm kann alle Kerne ausnutzen. 100% CPU last wird nur angezeigt, wenn alle threads zu 100% ausgelastet sind. Stell dir vor du hast eine 4 thread CPU aber ein Programm, welches nur zwei Kerne auslasten kann, dann wird dir 50% angezeigt (wir ignorieren windows hintergrgund nonsense). Mit nem Core 2 Duo vs nem Ryzen 7800X3D sind diese zwei ausgelasteten Kerne halt einfach DEUTLICH langsamer, also biste im Flaschenhals.
Was ich nicht so verstehe, wie ist es zu verstehen das die CPU pro Kern nur bei ca. 60% ist aber trotzdem am Limit arbeitet? Ich werde da nicht schlau raus.
Es fehlt der Vergleich mit einem besseren Prozessor. Und wie sieht es mit dem RAM in diesem Wettbewerb der Flaschenhälse aus?
Dass ein 5600X (echter 6-Kerner mit 12 Threads) zu langsam ist ("Sack Nüsse"), ist schon was besonderes. Ihr habt doch ein schönes Video gemacht, indem ihr erklärt, dass die CPU mitunter gar nicht so flott sein muss, weil die GPU meistens sowieso ins Limit läuft. Muss das Spiel jetzt einen 8-Kerner haben oder ist vielleicht die Single-Core-Leistung wichtiger?
PS: Musstet ihr unbedingt dem Randale-Alf, ääähh, Ramdalf mit der Banane im Gesicht rumfummeln? Sowas respektloses (gegenüber der Banane?).
Eigentlich nix besonderes bei einem Spiel wo es nicht auf viele, sondern auf Kerne mit hoher IPC ankommt. Die IPC von den 5000er Ryzen ist immer noch recht bescheiden im Vergleich zu den Intels. Erst die 7000er sind nah dran und die X3D gleichauf oder besser.
@@rng81 Eigentlich ist es genau andersrum, die 5000er-Serie hatte die bessere IPC wie Intel. verwechselst du gerade die 3000 mit 5000er?
Wollte gerade sagen. Der 5600X wird eigentlich immer als absolut ausreichend beschrieben. Ich würde eher sagen dass das Spiel einfach extrem Grütze optimiert ist.
Ich hatte mit den 3600x deutlich mehr stottern und FPS lows mit einer 2070super, habe dann gewechselt auf 3800x mit 4,5Ghz Allcore und deutlich bessere Werte sowie Spielbarkeit.
Jetzt habe ich einen 5800x mit 3080 12GB und das läuft extrem gut!
Ich glaube das es bei den Ryzen, die ja keine E-cores haben, irgendeine Schwäche bei den 6Kernern gibt die bei den 8kernern nicht auftritt, für mich wirkt es so als würden nicht die 6kerner 2 Kerne dazu bekommen wenn es ein 8kerner sein soll, sondern der 8kerner 2 Kerne verlieren wenn es ein 6kerner sein soll..
@@peterpichler3674 Es gibt bekannte Probleme mit dem Nvidia Treibern auf 6 Kern CPUs. Einfach mal nach "6-Kern CPUs bremsen High-End Grafikkarten aus" googlen.
Man sieht auch im Video das die CPU nicht am Limit (>80% CPU Last auf allen Kernen) ist. Ist ein reines Management Problem. Der Nvidia Treiber springt vermutlich von Core zu Core.
Genauuuuuuuuuuuuuuu das erlebe ich gerade auch xD! Habe mir tatsächlich letzte Woche wegen Jedi Survivor (unter anderem) eine 4080 gekauft, weil ich davor eine 1080 drin hatte :D. Und ja, bei manchem Spiel renne ich volle Möhre mit meinem Ryzen 3900X ins CPU-Bottleneck. Aber immerhin bekomme ich die 4080 mit Quake 1 und Quake 2 RTX gut ausgelastet :D
PCGH ich liebe euere Videos Danke
Na wenn eine 5600x schon zu langsam ist um die Karte bei 2k oder 4k zu bespassen, liegt das nicht an der CPU.
Wenn ein Spiel nur mit 13900k und 7900XTX spielbar wird, ist dieses Spiel dann wirklich optimiert?
Ich kann dir sagen das Spiel ist beschissen. Egal mit i9 und 5950 oder 5800 x3d Drecksspiel
viel wichtiger wäre die Frage, WARUM brauchen die neuen Spiele so viel CPU Leistung?
"CPU Hersteller hassen diese Trick" 😅
optimierung, schlechte und faule programmierung *hust* mit highend cpu läuft das spiel ja auch nicht viel besser lach, ich werde auf jeden fall keine 70 tacken ausgeben nur um als versuchskaninchen mit meiner 5900x3d und 4070 Ti zu dienen. EA hats wieder richtig verkracht.
Oder vielleicht auch der Kopierschutz?
Raff. Bester Mann einfach.
Warum sind dann nochmal einzelne CPU Kerne nur zu 30% ausgelastet? Ist es wirklich die CPU oder liegt es nicht doch am Spiel und die Optimierung? Wäre es nicht so ähnlich, als wenn ich die Internet Bandbreite von einem Programm beschränke und dann sage mein Internet ist zu langsam, jetzt muss ich mir einen besseren Tarif mit mehr Bandbreite kaufen?
Kommt auf das Spiel an, gilt aber auch für Programme: Nicht alles spricht alle Kerne einer CPU an, sodass selbst ein 16-Kerner grundsätzlich keine bessere Performance garantiert.
Entscheidend in diesen Fällen ist die sogenannte "Singlecore-Leistung", heißt, wie stark der einzelne Kern arbeitet und die Prozesse verarbeiten kann, wenn er vom Programm "angesprochen" wird.
Für reines Gaming und nebenbei Office reicht daher im Regelfall aktuelle 6- und 8-Kerner aus. Für paralleles Streaming, Anwendungen (Foto-, Video- und Bildbearbeitung etc.) sind mehr Kerner von Vorteil.
Danke für das Video. Warum ist denn dann die CPU Auslastung nicht auch auf 100 Prozent wenn die CPU am Limit ist?
Weil Spiele kein HT nutzen und viele Spiele immer noch nicht alle Kerne voll ausnutzen.
Die CPU ist aber bei über 50%, wenn HT nicht genutzt wird, dann sind das alle 6 Kerne fürs Spiel.
Warum sieht man das aber nicht bei der CPU Auslastung nicht? Die liegt ja bei 40%-50%.
1080 AMP Extrem, die habe ich auch noch. Bis heute eine sehr hübsche und gute Karte :D
Cool, dann kann ich ja jetzt regelmäßig unter die Gamestar Videos dieses Video hier empfehlen, damit Fritz/Michi bei 40% GPU Auslastung nicht rummeckern "selbst eine 2000€ 4090 ist zu langsam!", anstatt jedesmal einen ellenlangen Kommentar zu verfassen, wieso es nicht an der GPU liegen kann :D
Ja der arme Fritz ist dieses Jahr wirklich oft ins Fettnäpfchen bei seinen Analysen getreten 😁
Das ist ja voll Banane! Affig Lustig XD ... bei den viel zu hohen GPU Preisen kann man ja nur ne IGP bzw. APU nutzen, da ist man dann froh wenn es überhaupt läuft :D
Beste Redaktion DE ❤
Eure Anhänger erinnern mich an Better than us xD ihr liquidatoren! top Video dankeschön!
Schönes Video, dass meiner Meinung nach gut auf diese nicht allen bekannte Problematik hinweist. Ich hätte mir noch ein zweites Beispiel gewünscht, wie es auch möglich gewesen wäre dieses Problem zu lösen. In eurem Fall mit z.B. einem 5800X3D.
Wer das Budget hat auf eine 4080 aufzurüsten kann sich auch den besseren Prozessor leisten. 😉
was denn für ein "Problem" bitte? Nicht nur die GPU war hier nur Hälfte ausgelastet, sondern auch die CPU Kerne haben sich gelangweilt. Leider fehlt bei PCGH mal wieder die Kompetenz um solchen Sachen wirklich auf den grund zu gehen. Ne, lieber gierig nach der cam greifen und aufnehmen, endlich mal wieder was womit man illustrieren kann dass die Leute gefälligst MEHR BRAUCHEN warum wollen sie das nicht verstehen.
Alternativ kann man fürs zocken auch die Monitorauflösung hoch stellen. Also UHD bei einem WQHD Monitor. Ich glaube man muss da in der Nvidia Systemeinstellung erst mal eine benutzerdefinierte Auflösung anlegen. Texte werden im Windows Betrieb zwar zerrissen, aber beim zocken ist alles fein.
Es wäre mal ein Artikel oder Video interessant, das sich genauer damit beschäftigt, welche Einstellungen CPU und welche GPU belastend sind. Mein GPU ist bei 100 Prozent, aber die CPU langweilt sich, also kann ich die Sichtweite hoch stellen?
in deinem Fall so wie du es schreibst, kannst du die sichweite gerne höher stellen und schauen wie sich das spiel dann verhält :)
@@yoshiiex_x4787 Verhält sich gut.^^ Aus irgendeinem Grund ist das Spiel bei mir ohnehin nicht sonderlich zickig. Spielen vielleicht auch noch Ram und SSD mit rein, wer weiß.
Gutes Video
Die Bananen waren jetzt eher ziemlich unnötig, aber der Rest des Videos war sehr hilfreich und informativ.
danke Euch, Jungs!
Wieviele Bananen esst ihr so pro Woche? Und ist das ungesund?
Die frage ist, welche CPU? Als AM4 Nutzer lieber eine 250€ 5900X oder 5800X? Denn auf Am5 welchen lohnt doch preislich überhaupt nicht, wenn man schon mit einem 5600X ins CPU Limit rennt.
Ich selbst hatte nen 5950x und hab dann auf nen 5800x3D umgerüstet und das Ding ist wesentlich schneller. Bei AM4 gibt es einfach keine bessere CPU fürs Gaming.
Tolles Video, danke
Warum braucht das Spiel soviel CPU ? Gibt es dafür irgendeinen Grund, also sehr aufwändige Berechnungen oder so ? Kann mir das nicht vorstellen
Die Grafik settings auf Max und die Auslastung der Grafikkarte steigt, dadurch reduziert sich etwas die CPU Auslastung, so zumindest bei meinem Beipspiel in the Finals
danke endlich mal verstanden... Server nice
Tolles Video,hab von einer Gtx 1070 auf eine rx 6750 xt upgraded,mein i5 9600 k @ 4,8 ghz hat hart zu kämpfen,spiel auf einem 1440p@144 hz Display,die Cpu hat ca 68° dauerhaft +/- 5°.Mir war vorher klar das der Prozessor da nicht mithalten kann.Möchte auch nicht wieder neu in Mainboard und Cpu investieren.Aber auf einen I 7 lohnt sich es denke nicht ...i9 9900k schon eher aber no Money momentan.Könnte ich jetzt die Gpu soweit Drosseln das die Cpu wieder hinter herkommt oder juckt die Cpu die dauerhafte 100% gar nicht.
Hab mir einen neuen PC mit 7600x und 4090 zugelegt und spiele aktuell fast nur ältere Spiele damit weil Titel wie Jedi Survivor für mich aktuell unspielbar sind bei den miesen frametimes und Rucklern 😩
Didaktisch leider schlecht: Ihr wollt mit dem Video zeigen, wie man ein CPU-Limit erkennt und verweist dabei auf die im Video sichtbare GPU-Auslastung. Verliert aber kein Wort darüber, dass die gleichzeitig für uns ebenfalls sichtbare CPU-Auslastung auf allen Kernen nur im mittleren Bereich ist. Das ist doch zumindest scheinbar ein Widerspruch, den sich viele Nutzer, die das CPU-Limit verstehen wollen, nicht erklären können! Und den Nachweis eines CPU-Limits, indem ihr das gleiche Szenario mit stärkerer CPU zeigt, führt ihr auch nicht. So bleibt es doch eine bloße, nicht nachvollziehbare Behauptung ... .
Gutes Video!!! Kann es sein das meine 3900x zu langsam ist für das Spiel? Hab immer wieder Framedrops mit einem 6900xt GPU. Ich spiele in 3440x1440.
Yep - zumal 21:9 höhere Anforderungen auch an die CPU stellt. Ohne Raytracing sollte es aber halbwegs flutschen. :)
@@PCGH_English Danke für die Antwort. Denkt ihr das eine 5800x3d da große verbesserungen bringen würde?
@@diablogebi Definitiv! Schau mal bei uns ins Forum, unter "Benchmarks", da haben wir eine Rangliste mit einigen Community-Werten. Der 5800X3D ist da gewohnt potent. Ein 3900X fehlt noch, aber da gelten die üblichen Abstände.
Ich habe ein Ryzen 7 5800X3D und möchte mir jetzt eine RTX 4070 kaufen. Ist das eine gute Kombinationen für max. Settings in FullHD? Wahrscheinlich werde ich mir als nächstes noch ein 27 Zoll WQHD Monitor kaufen.
50 bis 60% sieht für mich jetzt aber auch nicht nach cpu auslastung aus.... mein 7700k bei 5 GHz lief damals bei Battlieflied (5 oder 2042 weis jetzt nich mehr genau) bei 85 bis98 %. das nenne ich dann cpu limit ^^ er hat sich wacker geschlagen!
Habe einen „alten“ Laptop mit einer Gtx 1650 und einem 9300H. Eigentlich kann er alles, was ich möchte in fhd machen, ohne ausgelastet zu werden. Jedoch ist die Kühlung sehr schlecht, weshalb der Prozessor permanent um die 100° ist und sich dann selber drosselt, sodass ich z.B. Valorant mit 40fps spiele. Gibt es irgendetwas, um so einen Laptop wieder zum Leben zu erwecken, oder muss ich mir etwas neues kaufen?
Meine 1080 ist heute Tatsächlich in Rente für ne 4080rtx gegangen!
Geht die GPU last auch runter wenn ich die FPS auf 144 begrenze?
Gutes Video, kurz und schlüssig.👍
Wäre denn ein stock 12700 non k eine okaye Basis für eine 4090 für AAA-Spiele in UHD? 🧐
ja, ist eine gute Kombination. Teilweise (je nach RAM) könnte der 12700 schon zu "schnell" sein. Nutzt du DLSS/FSR, könnte er hingegen zu langsam sein. Kommt aufs Spiel an. Aber falsch ist die kombination definitiv nicht
@@Jaffech0203 Toll. Danke für dein Feedback. 🙂👍
Je nach ram... hm... Habe 4x8 GB ddr4 3600mhz cl 18...🧐 aber sollte passen denke ich.
@@tylers_piano 3600CL18 (und weiter? ist ja nur 1 von ~30 Timings^^)
ist ehr lowend bereich bei intels core 12th Gen, also "zu schnell" wird der i7-12700 zumindest nicht sein ^^
Bei DDR4-3800CL15-15-15-30 wärst du zumindest im DDR4 Bereich im High End, absolut gesehen untere Oberklasse. Allerdings kann der eben auch DDR5 und damit solche sachen wie DDR5-7000CL32 (je nachdem was der IMC schafft) und das wäre dann absolutes Highend beim RAM. Das wäre vermutlich 10-15% mehr CPU Leistung gegenüber deiner RAM Konfig
Der 12700 ist viel zu langsam für eine 4090.
@@WroughtMovement auch in UHD?
vor dem Video:
mit Ryzen 9 3900xt und RX 6700XT unterwegs und MUSS die Details auf Mittel stellen, damit ich 60FPS erhalte :(
ja, ich habe die Leistungsgrenzen (max W auf GPU und V auf CPU) etwas angepasst, damit ich bei 100% Last nicht ueber 65°C komme.....
allerdings sollte da eigtl ein wenig mehr drin sein :(
nach dem Video:
scheint, als habe ich mit dem 5900X und der 7900XTX vapor-x ne gute Wahl getroffen.
dazu ein schnuckeliges, schneller und groesseres RAM-Pack und dann sollte das doch machbar sein ;)
Dienstag ist dann hoffentlich endlich die CPU auch da und dann werd ich umbauen :D
Hab auch einen 5900x, kleiner Tipp: stell im Taskmanager die letzten 12 Threads für dein Game. Dann haste bessere und höhere FPS
Frage: Welcher Prozessor ist für 4070 (ti) zu empfehlen?
Kommt drauf an wieviel du ausgeben willst/kannst..... 5800X3D, 13600K/F oder gleich zukunftsicherer mit nem 7800X3D
Welche GPU ist noch sinnvoll für i7 4770K ?
Würde mich auch interessieren!
kommt auf die auflösung an in der du zockst! für fullhd wäre zb eine gebrauchte rx 580, 8gb interessant
@@wildocean8085 Für FHD, aktuell ist eine GTX 1060 6GB verbaut🤔
falls du in fhd weiterzockst passt die combo. viel spielraum für eine schnellere grafikkarte bleibt mit der alten cpu in fhd nicht mehr.
Kann mir einer erklären warum dann der CPU nicht über 60% gekommen ist? normalerweise ist der dann wenn Limit bei an di e100
Zuerst würde ich mal den Energiesparmodus rausnehmen und auf Hochleistung schalten dann Arbeitet auch der CPU
Häng bei Watch Dogs Legion gefühlt im CPU und GPU limit…
Beide max 55% ausgelastet (10600k mit 3060ti) und Frames bei 55 und die sinken dann über die Spielzeit langsam bis 29FPS. Dann Neustart und dann gehts wieder knapp unter 60fps los. RT und DlSS spielen gefühlt keine Rolle..
Wäre über Tipps dankbar!
@@zwieback1988 klingt komisch, sind alle kerne der cpu bei 55 % oder der erste voll ausgelastet und der rest garnicht? In dem Fall wäre es deine cpu. Die sinkenden fps sprechen aber eher für zu hohe temperaturen, hast du die mal überprüft?
@@N_qster die einzelnen Kerne muss ich mal anschauen. Hatte noch nie Temperaturprobleme. Und die werden mir auch net angezeigt.
@@N_qster eben geschaut. Nur Kern1 hängt bei 98% der Rest bei 40-50%
@@zwieback1988 Das spricht für ein cpu limit, weil watch dog wie viele andere spiele auch auf single core leistung setzt. Die sinkenden fps über die zeit kann man damit leider nicht erklären.
Was für ein Tool benutzt, um diese Werte anzeigen zu lassen ?
msi afterburner.
@@asterix-pz6ll danke dir für die Antwort du weißt nicht zufälltg wie ich es einstellen muss, damit ich die Grafik angezeigt bekomme ingame oder ?
@@GreniGE ua-cam.com/video/_ElPViVFJgg/v-deo.html
Zur Zeit sind aber auch viele PC Spiele nicht richtig optimiert. Ich zock mit ner 4090 und nen Ryzen 5800x3D, dennoch ruckeln Spiele wie The Last of Us oder Hogwarts…
Hast du probiert die FPS aif die Hz deines Monitors zu locken? Wenn du 144HZ Moni hast dann den FPS limozer auf 144Fps stellen
die gtx 1080 im mai kam 2016 raus, ist also bereits 7 jahre alt @raf
Habt ihr eure zerschossenen Trophäen jetzt in Schmuck umgewandelt? 😂
5 Bananen für dieses Video 👍
Spiele World of Warcraft und das Problem mit der CPU ist halt allgegenwärtig hab eine 12400f aber scheint für wow nicht so toll zu sein.
Ich hole mir dieses Spiel eventuell aber wenn es erst ausgepatcht ist! Mein alter i7 4790K übertaktet auf 4,6GHZ arbeitet mit 32GB RAM und einer RTX 3060 12GB in aktuellen Spielen in WQHD gut zusammen, aber in Full HD merk ich schon dass CPU Limit. WQHD ist ja auch schöner als Full HD. Das mit den Bananen war irgendwie witzig.
reicht mein ryzen 9 5900x für jedi suvivor?
Mein Ryzen 7 5700 X ist laut Afterburner meist am Limit von 78 Watt, bei der RTX 4070 habe ich noch die Qual der Wahl zwischen 100 -208 Watt je nach Game bin aber ganz zufrieden
für 1300 Euro jedenfalls , mit 6 TB als Speicherpolster ., so kann mein Haushalt wenigstens wieder Kapital generieren.
2600X + RX 6800 in WQHD mit max. Settings.
Läuft besser als ich dachte,
solange man die Grafikdetails auf Anschlag setzt.😅
Also mit einer 4090 und einem i9 13900k macht es sehr viel Freude ❤ für DWQHD 49 Zoll
Neid (positiver :)
Diese Softporno-Musik, herrlich :D
Ich habe eine 4070ti, 5800x3d, 16gb 3200 cl14 ramm. Sehr gute Internetleitung.
Trotzdem habe ich starke Fps Drops. Das Bild verzögert bei nahkämpfen stark.
Spiel: fortnite. 1440p, Monitor HP XQ27 165hz.
Habt ihr vll ne Idee woran es liegen könnte?
Lieben Gruß
Ps: habe es auch mit framelimiter probiert..
Macht das auf 1440p so viel aus? Dachte immer um so höher die Auflösung um so weniger wird die CPU/ram belastet.
Vielleicht sollte ich meinen Ryzen 7 2700X doch mal langsam upgraden ^^
sry aber ich sehe da durchgängig über 60fps mir würden 45 reichen wo ist da problem
Schau nochmal. :)
Mmmhhhhhh.....dieses game stürzt immer wieder ab. 13900k und ner 4090.....wqhd, ultra settings.. was kann ich tun ? Gibt wohl kein cpu update für mich 🤷♂️
Ich denke ich bin mit meiner 4080 und dem 13700K ganz gut aufgestellt 😊
Besser kann man's nicht machen...und nein,ich will kein 7800x3d für 3fps mehr...genug enttäuschende ryzens gehabt die Jahre..demnächst nur noch Intel
Nein ich Kauf mir kein 500€ 3d ryzen...der Montag eingebaut wurde...und Mittwoch abgeraucht ist ...auf einem über, überteuerten b650 für 280€
BANANAAA!
ich find es traurig das die das nicht richtig deuten können was da genau passiert. ein trauer spiel in sachen analyse.
als erstes sollte man wissen was für eine engine das spiel nutzt UT5 chakt als zweites sollte man wissen ob das spiel shader nutzt oder nicht. chackt ja es nutzt shader.
dann sollte man das beobachte auch noch richtig in die techniken zu ortnen. ob nvidia odr eine AMD gpu hier genutzt wurde.
was ist wenn man in den treibern mal nach bestimmten einstellungen sucht wie das man für cuda nicht die cpu nutzt sondern auch wirklich immer die hardware cuda einheiten nutzt. sollte das bild ein bichen verbessern. leider sind alle karen cuda limititrt nicht GPU. und bei UT engine kommt noch was besonderes hin zu und zwar das sie alles von der CPU am liebsten berechnen lassen das heist egal wie gut und wie schnell deine karte ist und was deine karte auch kann. du brauchst in spielen wo eine ut engine zum einsatz kommt auch eine sehr leistungs starke CPU. sie nutzen zu einem die CPU damit das ergebniss immer gleich aus sehen tut zum anderen weil AMd keine rechen einheiten hat sondern nur so eine leerlauf zeit berechnung die oft nicht reicht wird die gpu gemiden. so kommt nicht mal cuda wirtklich zum einsatz wenn es doch dort am besten laufen könne.
spiele entwikler machen nur einemal den weg darum nutzt auch kein modernes spiel auch wirklich mehr als cuda bei RTX und cuda ist langsam so langsam das man gerade so spiel bare FPS hin bekommt.
im ernst kauft euch ARC und wen ihr das geld habt dann NVIDIA den AMD ist einfach nicht mal das anschauen sich wert. kommt nicht na cuda ran kan kein gutes 4k oder FSR ist auch nur ein fake wie shader und der mist in GTX. ich weiß auch nicht ob AMd irgend was mal wirklich verbessern will auser mülll zu verkaufen was bringt eine sparsame karte die nix auf die reie bringt auser HD und so will keiner wirklich spielen. zu mal es keine verbesserungen gibt sondern nur die reine gtx grafikpower..
ich als ein wenn ich ein entwickler für games währe und ein spiel machen müsste würde komplett die AMD fraktion ausschlissen weil sie einfach nur toxisch ist seind 20 jahren ur schrott mist und kleine verbesserunge um auf zu schliessen aber nicht wirklich nach vorne zu gehen ist wie ein nicht wollen oder ein bewustes bremsen. wie kann man so schlecht sein und so den ton ansagen und alles auf den markt in die steinzeit schiken.
games werden nicht gepatcht weil sie mit nvidia starten und ein bild bringen ob das mit cuda geil ist oder nich. haupt sache keine zusätzliche arbeit investiert um mehr power für Nvidia raus zu holen so das die RTX technik sinnvoll genutz werden kann. man beschrenkt einfach alles auf cuda und macht eineRTX karte zu einer veralteten GTX mit RTX optionen die so nicht gedacht ist. das ist einfach nur krank. und die drei spiele die es richtig machen bekommen nicht mal gute analysen was sie besser machen ob sie RTX render standards wirklich voll nuzen die auch nvidia gepatcht hat weil eigentlich sollte RTX wen in spielen aktiv deutlich weniger schader verbrauchen dur die nutzung von KI die die shader daten nach bedarf zuschneidet. aber genau das fehlt alles wird einfach ungefiltert in den v-ram geladen und verbraucht so einfach power und strom weil einfach nur schlecht umgesetzt zwar starten die spiele nun ja so ist es auch gedach aber gut und schnell laufen sie nicht weil cuda eine sehr langsame art ist spiele zu randern und RTX was schnell ist und im grunde sogar nicht aufwändig kann nicht erblühen weil man der technik nicht die tore öffnet. einfach nur bescheuert bei den preisen sollte doch eine RTX immer in spielen voll unterstützt wrden nicht nur cuda sondern auch RTX. nicht nur zugeschaltete zu cuda RTX optien die sich mit dem rest speicher vergnügen dürfen. weil cuda eigentlich der gröste mist ist weil so umstendlich genutzt wird.
eigentlich brauchen RTX karten 2 v-RAMs einen für die cuda mist scheisse und einen für die RTX angelegenheit. ich finde es auch von NVIDIA super unfähig das sie den kunden nicht zeigt welche technik die karte aktuell nutzt cuda oder RTX als render standard. weil das nur wenige wirklich wissen was eine karte aktuell wirklich nutzt und was damit dan maximal erreichbar ist. sind die vergleiche oft so schlecht zumal techniken falsch zusammen gestelt werden und so nicht verglichen werden dürfen man vergleicht auch nicht zwei züge eine dampflock und eine moderne elekktro lock odr disel lock und schautwehr bekommt besser seine pferdchen auf die schinne. den test gibts so nicht weil man das auch so mit GTX und RTX machen sollte getrennt und abgestimmt nicht in GTX spielen die options fähigkeit testen sondern spiele suchen die wirklich auch RTX voll können das ist CoD warzone . und metro exodus also immer wenn es um RTX geht sind das titel die ein muss sind wenn es um RTX geht.alles andere als test zunehmen ist doch soch einfach nur ein fake. auserdem sollte mal der vergleich gemacht werden ob man v-ram unterschide bekommt wenn man kein RTX nutzt sodnern nur gie GTX technik hat ob die RTX karte shader reduziert macht es das nicht ist GTX über cuda aktive und so mit ein schlechtes RTX game. weil es nicht alle optienen des modernens rendern ermöglich um vergleichen auch machen zu können. aber die GTX beschrenkte mist welt ist einfach nur gift für RTX karten. weil nicht geil ja sie laufen und starten aber sauber und geil sind sie halt einfach nicht. weil man den ram mit schrott daten füllt die die karte einfach nicht braucht. weil RTX sie nicht braucht
und noch was die 4000 karten sollen auch cpu fähig sein das nutzt auch kein spiel warum weil die windows API was seit der 3000 karten und auch von AMD gefordert werden nicht erweitert wird. so mit auch keine unterstütung von neuen möglichkeiten über windows. dummes MS. ob das an der konsolen gemeinschaft von AMd liegt die einfach unfähig ist irgend was zu verbesern seit 20 jahren. auser vulkan ist aus dem hause AMd nix zu gebrauchen smart accress memory war der hit bei den hohen takts direkt sorige wer spricht über die shrott technik im PC bereich wo sie kaum was gebracht hat weil die KI unterstützung komplett fehlt. und so mit balsat ist weil man den neuen mist nach patechn muss und probleme aus besser was voher besser und sauber gelaufen ist mach jetzt so zusetzlich probleme.
nein spiele brauchen patches und den richtigen render weg für jeder karte nicht nur cuda und gut ist weil dann kann ich auch ARC kaufen habe ich mehr vom geld und aktuell sogar manchal schon bessere leistung als NVIDIA wow was ist da los.
das kommt durch die cuda game reduktion die einfach un geil ist. aber ist okay das man technik für knapp 2000 € kauft nud eine 400 € karte im grunde reicht weil die technik in spielen einfach nicht da ist. super werbe video und echt geile vergleiche die ihr da macht super preis empfelung und super technik analisen wo der shu gerade drückt.,
magazine waren auch mal besser weil sie den mist den sie irgend wann mal veröffentlicht haben wie technik funktioniert und was wichtig ist damit es so funktionier auch kominiziert haben heute wird ein spiel gestartet und verlangt das es perfekt leuft egal ob cuda oder GTX egal was es nutzt man nimt die FPS und das ist der richtwert. wow schlechter und einfacht kann man geld nicht oder werte von produkten schlecht machen. und sagen 12 gb ist minimum ja das gilt nur in dem fall wo GTX zum einsatz komt also cuda . nice eine technik die nin modernen spielen man als kunde nicht sehen will.
ich schreib ds auch noch 1000 mal bis man kapiert das da was mechtig falsch leuft kunden um leistung in spielen betrogen werden. das schlime ist nicht von den karten sondern von den games selbst die unfähig sind sich weiter zu entwikeln RTX ist seit 8 jahren da und es wird kein spiel mit der render technik produziert sind die so GTX geil und meinen cuda kann alles.
Ist die CPU Auslastung von Jedi-Survivor gerechtfertigt, oder ist das Spiel nur schlecht programmiert?
Letzteres, leider. Das geht zweifellos besser, auch mit der Unreal Engine 4. Prächtig ist das Spiel aber zweifellos.
Alles Banane?
Meine 4090 pendelt immer so zwischen 95-99%, je nach Spiel. Ich denke also, der 13900KF kann sie gut mit Daten versorgen :D
Das kann mein 5800x auch... ✌🏻
@@patrickhertig8644 Klar kann er das, wieso auch nicht? Bei 4k spielt die CPU ja kaum eine Rolle mehr. Zumindest nur bei CPU lastigen Games wie z.B. Warhammer 3. Die CPU i.V.m. dem RAM merkt man dann eher bei 1440p und abwärts.
@@rueggly2367 genau so ist es
@@patrickhertig8644 der Haufen amd kagge kann net ansatzweise dem 13900kf das Wasser reichen
@@Mert-gf4jc, bist du traurig das beim 4k zocken kaum bis gar keinen unterschied auszumachen ist oder wo ist dein scheiss problem. Intel ist schrott was effizient angeht
"Dumme" Frage hierzu: Die Gesamt CPU Auslastung war hier immer so zwischen 50-60%. Müsste die im Falle eines CPU Bottlenecks deutlich höher sein, weil die CPU viel mehr arbeiten muss? So sieht/wirkt es für mich so, als würden sich beide, also CPU UND GPU, langweilen^^
Ich habe sogar einen CPU Bottlneck mit einer RTX 4090 und dem neuen Ryzen 7950 x3d. Das ist teilweise so abartig. Gerade in 4K Gaming z.B Spongebob Cosmic Shake auf Max ohne dlss 4K teilweise geht die CPU auf ü 30 Hoch und die GPU droppt dann auf 97 - 80 - 75. Das ist dann zwar nur kurz aber extremst störend und für diese Preiskategorie ein absoluter Reinfall.
Bei allen Spielen in 4k Resolution Scale auf 150-200% setzen, dann hast du keinen Bottlenecks mehr, dafür ein knackscharfes Bild einen schönen Stromverbrauch 🙂
4090/13900ks hier. Sehr viele stutters. Welcher Prozzi soll noch besser sein?
@@sirgareth5283 Quantencomputer
Manchmal habe ich schon das Gefühl, dass mein 5950x ins Limit läuft, da viele spiele keine 16 Kerne unterstützen.
CP2077 ist z.B. momentan so bisschen an der Grenze. In WQHD und Ultra Settings (RT Ultra, ohne PathTracing) sehe ich auch gelegentlich wie die Grafikkarte (4080) auf 90 Prozent runter geht.... sowas nervt doch ....
Selbst schuld, wenn du dir 16 Kerne zum zocken kaufst. Sinnlos, merkst ja selbst. Hol dir den 5800X3D ;)
Bitte nicht immer nur auf die Hardware schauen, sondern auch den Betriebssystem-Scheduler mit einbeziehen und wie die Engine eines Spieles diesen nutzt.
Ja unbedingt.
Im CPU Limit ist DLSS/FSR nicht empfehlenswert, da Upscaler die CPU belasten und damit das CPU Limit nochmal deutlich verstaerkt werden. Dann lieber hoehere native Aufloesung...
Ausnahme ist Frame Generation was auch im CPU Limit mehr Fps beschert.
Die CPU läuft aber doch auch nur auf 50-60% Wieso ist sie dann am Limit? Das erschließt sich mir technisch irgendwie nicht. 🤯
Weil das Spiel nicht alle Kerne der CPU nutzt = schlechte Programmierung. Würde das Spiel mit allen kernen skalieren, hättest du auch deine 100% CPU-Last.
@@D4rkResistance Man sieht aber im Video, dass auch Kern 1 nicht stärker ausgelastet ist.
wow ein 5600 limitiert schon so stark?? Da ist das Spiel aber doch schon ne Außnahme oder? Erinnere mich noch an euer CPU Video indem selbst ein alter Intel aus der 4000er Gen, noch spielbare Werte ablieferte.
Denuvo ist das Problem
Das Problem ist hier leider nur, dass das Spiel auch mit einem 7950x3d oder 13900k im Verhältnis wie ein Sack Nüsse läuft :D
Die 7950x3d darfst Du auch nicht nehmen sondern die 7800x3d musst Du nehmen. Nur die 7800x3d hat den echten Stapelcache für alle Kerne. Bei der 7950x3d haben die das wieder mal nur halb umgesetzt wie bei den Grafikchips. Die verbrät zu viel Watt sowieso. Energieeffizienz ist das Zauberwort welches hier nie springen wird.
@@kleinerprinz99Stimmt, mit dem 7800X3D hat man natürlich keine Probleme. Der ist meilenweit vor dem 7950X3D. Hatte ich übersehen 🙃
Also warum soll die GPU denn 300 Watt unnötig verbraten in der heutigen Zeit mit Klimawandel und horrenden Stromkosten? Interessant ist das bei gleichem Szenario die 1080 ca 150 Watt verbrät und die 4080 ca 100 Watt. Wenn man man mal die Produktionskosten außen vor lässt weil man die 1080 lange genug benutzt hat und eh aufrüsten wollte auf ne 4080 (übelst überteuert übrigens, selbst die 4070 Ti ist überteuert geschweige denn die 4070) dann ist das schon bemerkenswert. Darauf ist man gar nicht eingegangen, dass man auch Strom sparen kann. Außerdem kostet jedes letzte Quäntchen an mehr Leistung unnötig exponentiell mehr Strom.
PS: Hab damals knapp 600 Euro für Custom Board 980 bezahlt und das war schon teuer. Nicht nur im Lebensmittelbereich auch in anderen Bereichen sollten Preisbremsen eingebaut werden. Preise werden einfach mal willkürlich von ein Jahr aufs andere verdoppelt. Alle Zehn Jahre läuft das so. Wenn man im Einzelhandel arbeitet kriegt man das schon mit.
👍🏾👍🏾👍🏾👍🏾👍🏾👍🏾👍🏾👍🏾
Und ein Ryzen 5900x hätte bei dem Spiel auch nix gebracht?
Man das Spiel hat immer noch fps Einbrüche und ruckler. Das regt mich richtig auf. Habe eine rtx 3090 Aorus xtreme und einen 7950x. Zocke in 4K
Also statt den Ryzen 5600x würde Ich eher den Ryzen 7 5700x nehmen,der hat ja 8 Kerne und mehr Dampf,der Aufpreis für 30 Euro echt ok
fps und auslastungen mit einem 7800x3d als vergleich wären interessant gewesen
Hey, habe ich in meinem System, sieht genauso aus. Die CPU Last steigt teilweise auf 80% und es ruckelt auch.
Ahso, an der 4090 kann es ja nicht liegen .-)))
Genau, was er sagt ist, da fehlt es wohl etwas an Optimierung, dann lasst uns mal auf Patches hoffen.
Denuvo DRM und Optimierungen sind das problem.
Gerne mehr Bananenvideos
Also das Spiel läuft sehr gut mit meinem i7 9700k und einer rtx 4080. In 4k keine ruckler oder ähnliches. Keine ahnung was die leute haben ? Auch musste ich dank grottiger programmierung seitens EA kein Vermögen für einen neuen Prozessor ausgeben. Weil das Game eh bei jedem schlecht läuft. Und egal welche Auflösung immer CPU Bottlenek 😂😂😂 find ich schon lustig das jetzt die Hardware der Konsumenten daran schuld sein soll wenn Leute ihre arbeit nicht richtig machdn können und ohne Herzblut am werk sind. Aber was tut man nicht alles für ein wenig mehr Reichweite was 😅
BANANA!!!
habe den selben Prozessor mit einer rx 6900xt . Bei mir ist es auch so :D
Dito ❤
Also mal ganz ehrlich. Wenn ein CPU limit auftritt und die CPU dabei im Schnitt gerademal bei 55% Aus(last)ung "gammelt" würde ich sagen wir haben hier ein EA-FIXED_EUREN_SCHLECHTEN_CODE-Limit
Nur mal so als Info, dass ist kein wirkliches CPU-Limit.
Ryzen 5800X und Sapphire RX6800 (undervolted und vram oc) = definitv cpu-limit xD
das game läuft generell schlecht mit amd cpus. selbst mit nem 10900kf hab ich 0 probleme
BANANE!
4K mit 45FPS oder CPU Limit mit Full HD 90FPS.....dann lieber 90FPS und ne Graka die sich langweilt.....gibt ja noch DSR.
Kann mir jemand mal die affige Bananenanspielung erklären?
Diese Anspielung findet ihren Ursprung in der "Banana 4 Scale".
Was eher gegen Ruckler hilft bei geforce Karten: nvidia contol panel threaded optimization auf an, opengl und triple buffering auf an, vsync auf an. Sodann in der exe Datei des Spiels auf properties und compatibility, dann disable fullscreen optimizations und override high dpi scaling. By application Restart😎 Wermutstropfen: kann mal crashen.
achja.. ich mit meinen 13900K hm ist wohl zu langsam hm ok, kann man nichts machen! muss wohl eine stärkere cpu kaufen hmmm ok!
Der hat da ein ryzen 5 5600 x mit 6 Kernen und deiner hat 24 und 32 Threads also besser zuhören
@@jR-qp6qn was besser zuhören! ich schreibe das ich mit meinen 13900k dieses spiel nicht flüssig spielen kann du hampelmann les mal besser
Schlechtes Video, wozu zeigt ihr das an einem schlecht optimierten Spiel? Das hättet ihr schon besser am Beispiel von mindestens 5 weiteren Spielen zeigen sollen, auch welche Rolle ggfs RAM und Mainboard spielen.
Die Lösung ist immer kaufen!