CPU-Limit am Beispiel von Star Wars Jedi Survivor: Wie erkenne und löse ich Bottlenecks?

Поділитися
Вставка
  • Опубліковано 17 гру 2024

КОМЕНТАРІ • 236

  • @pcgh
    @pcgh  Рік тому +9

    Zockt ihr am CPU-Limit oder nutzt ihr das volle Potential eurer GPU?

    • @WeisenbergTKMrWhite
      @WeisenbergTKMrWhite Рік тому +3

      Ryzen 5 3600 mit GTX 1060 6GB auf 1080p mit 16GB DDR4 @3200MHz.... Denke mal... alles im Limit? XD

    • @LarsPower
      @LarsPower Рік тому

      Kommt aufs Spiel drauf an denke ich. Bei Ghost Recon Wildlands fühlt sich mit meiner 4090 in 4K an als ob meiner auf 4.8 GHz Allcore übertaktete 10900X CPU am CPU Limit. Aber in den meisten Games ist es wohl die GPU trotz 4090.

    • @wizzardrincewind9458
      @wizzardrincewind9458 Рік тому

      Hängt ja wohl vom Spiel ab. Schon mal z.B. Brotato oder Dredge gespielt?
      PS: CPU und GPU haben ja je ne Leistungskurve (Leistung/Watt). Die würd ich gerne wissen. Ihr habt doch z.B. darüber berichtet, dass die 4090 z.B. danach schreit, undervoltet zu werden (wenn ich mich recht erinnere)

    • @WeisenbergTKMrWhite
      @WeisenbergTKMrWhite Рік тому +1

      @@LarsPower klar. Habe mich hier spezifisch auf Jedi Survivor bezogen. Da bin ich bei meiner Hardware glaub ich im alles Limit:D ^^'

    • @PrefoX
      @PrefoX Рік тому +1

      nur mal so, iht sagt bei 3:00 das die 4080 normalerweise bei weit über 300Watt sei, die TDP ist bei 320Watt aber normal ist sie eher bei 250-280...

  • @tommy-z6i
    @tommy-z6i Рік тому +36

    Ihr seid meine lieblings Computer Fuzzies.

  • @rafaelpniok2542
    @rafaelpniok2542 Рік тому +14

    Danke vorerst für das nette Video. Am Ende zeigt es doch eindeutig, dass es nicht an der CPU liegt, sondern an der schlechten "Programmierung" des Spiels.
    Vielleicht wäre es sinnvoller gewesen, ein gut optimiertes Spiel zu zeigen umd dort ein CPU Limit hervorzurufen, z.b 200fps auf einem 2600k in 1080p mit einer 4080?

    • @rng81
      @rng81 Рік тому +1

      Klar ist das Spiel schlecht optimiert (liegt auch an der UE4 die mittlerweile an ihr Limit kommt), trotzdem besteht aber ein CPU-Limit.

    • @PCGH_English
      @PCGH_English Рік тому

      Die Ursache jedes Limits ist eigentlich immer der Code. :) Es ging um die Diagnose.

    • @rafaelpniok2542
      @rafaelpniok2542 Рік тому +1

      @@PCGH_English Stimme ich euch beiden in Allem zu, war meinerseits nur ein Vorschlag, da ich solche schlecht optimierten Spiele nicht unterstütze.
      Ich bewundere hingegen Nintendo, was sie aus einer 0,4 Teraflops Konsole herausholen. Die Spiele werden erst herausgebracht, wenn sie vernünftig laufen..meistens. Qualität vor Quantität.

  • @YrrSe
    @YrrSe Рік тому +13

    Was bremst in diesem Fall an der CPU, die Kernauslastung liegt ja auch nur bei 40-60%?

    • @m.m.3753
      @m.m.3753 Рік тому

      Programmierbullshit ist es.

    • @leviathan5207
      @leviathan5207 5 місяців тому +2

      Ein Jahr verspätet, aber: Nicht jedes Programm kann alle Kerne ausnutzen. 100% CPU last wird nur angezeigt, wenn alle threads zu 100% ausgelastet sind. Stell dir vor du hast eine 4 thread CPU aber ein Programm, welches nur zwei Kerne auslasten kann, dann wird dir 50% angezeigt (wir ignorieren windows hintergrgund nonsense). Mit nem Core 2 Duo vs nem Ryzen 7800X3D sind diese zwei ausgelasteten Kerne halt einfach DEUTLICH langsamer, also biste im Flaschenhals.

  • @Charlie4po
    @Charlie4po Рік тому +8

    Was ich nicht so verstehe, wie ist es zu verstehen das die CPU pro Kern nur bei ca. 60% ist aber trotzdem am Limit arbeitet? Ich werde da nicht schlau raus.

  • @wizzardrincewind9458
    @wizzardrincewind9458 Рік тому +33

    Es fehlt der Vergleich mit einem besseren Prozessor. Und wie sieht es mit dem RAM in diesem Wettbewerb der Flaschenhälse aus?
    Dass ein 5600X (echter 6-Kerner mit 12 Threads) zu langsam ist ("Sack Nüsse"), ist schon was besonderes. Ihr habt doch ein schönes Video gemacht, indem ihr erklärt, dass die CPU mitunter gar nicht so flott sein muss, weil die GPU meistens sowieso ins Limit läuft. Muss das Spiel jetzt einen 8-Kerner haben oder ist vielleicht die Single-Core-Leistung wichtiger?
    PS: Musstet ihr unbedingt dem Randale-Alf, ääähh, Ramdalf mit der Banane im Gesicht rumfummeln? Sowas respektloses (gegenüber der Banane?).

    • @rng81
      @rng81 Рік тому +1

      Eigentlich nix besonderes bei einem Spiel wo es nicht auf viele, sondern auf Kerne mit hoher IPC ankommt. Die IPC von den 5000er Ryzen ist immer noch recht bescheiden im Vergleich zu den Intels. Erst die 7000er sind nah dran und die X3D gleichauf oder besser.

    • @abexa7553
      @abexa7553 Рік тому +2

      @@rng81 Eigentlich ist es genau andersrum, die 5000er-Serie hatte die bessere IPC wie Intel. verwechselst du gerade die 3000 mit 5000er?

    • @Smartphoenix1982
      @Smartphoenix1982 Рік тому +7

      Wollte gerade sagen. Der 5600X wird eigentlich immer als absolut ausreichend beschrieben. Ich würde eher sagen dass das Spiel einfach extrem Grütze optimiert ist.

    • @peterpichler3674
      @peterpichler3674 Рік тому +2

      Ich hatte mit den 3600x deutlich mehr stottern und FPS lows mit einer 2070super, habe dann gewechselt auf 3800x mit 4,5Ghz Allcore und deutlich bessere Werte sowie Spielbarkeit.
      Jetzt habe ich einen 5800x mit 3080 12GB und das läuft extrem gut!
      Ich glaube das es bei den Ryzen, die ja keine E-cores haben, irgendeine Schwäche bei den 6Kernern gibt die bei den 8kernern nicht auftritt, für mich wirkt es so als würden nicht die 6kerner 2 Kerne dazu bekommen wenn es ein 8kerner sein soll, sondern der 8kerner 2 Kerne verlieren wenn es ein 6kerner sein soll..

    • @chriss.2634
      @chriss.2634 Рік тому +4

      @@peterpichler3674 Es gibt bekannte Probleme mit dem Nvidia Treibern auf 6 Kern CPUs. Einfach mal nach "6-Kern CPUs bremsen High-End Grafikkarten aus" googlen.
      Man sieht auch im Video das die CPU nicht am Limit (>80% CPU Last auf allen Kernen) ist. Ist ein reines Management Problem. Der Nvidia Treiber springt vermutlich von Core zu Core.

  • @x4MatCx
    @x4MatCx Рік тому +3

    Genauuuuuuuuuuuuuuu das erlebe ich gerade auch xD! Habe mir tatsächlich letzte Woche wegen Jedi Survivor (unter anderem) eine 4080 gekauft, weil ich davor eine 1080 drin hatte :D. Und ja, bei manchem Spiel renne ich volle Möhre mit meinem Ryzen 3900X ins CPU-Bottleneck. Aber immerhin bekomme ich die 4080 mit Quake 1 und Quake 2 RTX gut ausgelastet :D

  • @Frank318td
    @Frank318td Рік тому +2

    PCGH ich liebe euere Videos Danke

  • @crowATlinux
    @crowATlinux Рік тому +6

    Na wenn eine 5600x schon zu langsam ist um die Karte bei 2k oder 4k zu bespassen, liegt das nicht an der CPU.
    Wenn ein Spiel nur mit 13900k und 7900XTX spielbar wird, ist dieses Spiel dann wirklich optimiert?

    • @skyzi22
      @skyzi22 Рік тому +1

      Ich kann dir sagen das Spiel ist beschissen. Egal mit i9 und 5950 oder 5800 x3d Drecksspiel

  • @luckyyluck
    @luckyyluck Рік тому +8

    viel wichtiger wäre die Frage, WARUM brauchen die neuen Spiele so viel CPU Leistung?

    • @carlc.4714
      @carlc.4714 Рік тому +2

      "CPU Hersteller hassen diese Trick" 😅

    • @kleinerprinz99
      @kleinerprinz99 Рік тому +6

      optimierung, schlechte und faule programmierung *hust* mit highend cpu läuft das spiel ja auch nicht viel besser lach, ich werde auf jeden fall keine 70 tacken ausgeben nur um als versuchskaninchen mit meiner 5900x3d und 4070 Ti zu dienen. EA hats wieder richtig verkracht.

    • @carlc.4714
      @carlc.4714 Рік тому +1

      Oder vielleicht auch der Kopierschutz?

  • @WeisenbergTKMrWhite
    @WeisenbergTKMrWhite Рік тому +7

    Raff. Bester Mann einfach.

  • @steve-o1759
    @steve-o1759 Рік тому +6

    Warum sind dann nochmal einzelne CPU Kerne nur zu 30% ausgelastet? Ist es wirklich die CPU oder liegt es nicht doch am Spiel und die Optimierung? Wäre es nicht so ähnlich, als wenn ich die Internet Bandbreite von einem Programm beschränke und dann sage mein Internet ist zu langsam, jetzt muss ich mir einen besseren Tarif mit mehr Bandbreite kaufen?

    • @Alex-ri8of
      @Alex-ri8of Рік тому +2

      Kommt auf das Spiel an, gilt aber auch für Programme: Nicht alles spricht alle Kerne einer CPU an, sodass selbst ein 16-Kerner grundsätzlich keine bessere Performance garantiert.
      Entscheidend in diesen Fällen ist die sogenannte "Singlecore-Leistung", heißt, wie stark der einzelne Kern arbeitet und die Prozesse verarbeiten kann, wenn er vom Programm "angesprochen" wird.
      Für reines Gaming und nebenbei Office reicht daher im Regelfall aktuelle 6- und 8-Kerner aus. Für paralleles Streaming, Anwendungen (Foto-, Video- und Bildbearbeitung etc.) sind mehr Kerner von Vorteil.

  • @stefan632
    @stefan632 Рік тому +4

    Danke für das Video. Warum ist denn dann die CPU Auslastung nicht auch auf 100 Prozent wenn die CPU am Limit ist?

    • @Nost2682
      @Nost2682 Рік тому +2

      Weil Spiele kein HT nutzen und viele Spiele immer noch nicht alle Kerne voll ausnutzen.
      Die CPU ist aber bei über 50%, wenn HT nicht genutzt wird, dann sind das alle 6 Kerne fürs Spiel.

  • @alexanderpohle1064
    @alexanderpohle1064 Рік тому +5

    Warum sieht man das aber nicht bei der CPU Auslastung nicht? Die liegt ja bei 40%-50%.

  • @Kater_von_Baum
    @Kater_von_Baum Рік тому +4

    1080 AMP Extrem, die habe ich auch noch. Bis heute eine sehr hübsche und gute Karte :D

  • @Jaffech0203
    @Jaffech0203 Рік тому +4

    Cool, dann kann ich ja jetzt regelmäßig unter die Gamestar Videos dieses Video hier empfehlen, damit Fritz/Michi bei 40% GPU Auslastung nicht rummeckern "selbst eine 2000€ 4090 ist zu langsam!", anstatt jedesmal einen ellenlangen Kommentar zu verfassen, wieso es nicht an der GPU liegen kann :D

    • @andreasschulz9469
      @andreasschulz9469 Рік тому

      Ja der arme Fritz ist dieses Jahr wirklich oft ins Fettnäpfchen bei seinen Analysen getreten 😁

  • @kasp3rkopp491
    @kasp3rkopp491 Рік тому +1

    Das ist ja voll Banane! Affig Lustig XD ... bei den viel zu hohen GPU Preisen kann man ja nur ne IGP bzw. APU nutzen, da ist man dann froh wenn es überhaupt läuft :D

  • @Detective_Frank_Drebin
    @Detective_Frank_Drebin Рік тому +4

    Beste Redaktion DE ❤

  • @sewitscherhd5493
    @sewitscherhd5493 14 годин тому

    Eure Anhänger erinnern mich an Better than us xD ihr liquidatoren! top Video dankeschön!

  • @nec2k
    @nec2k Рік тому +1

    Schönes Video, dass meiner Meinung nach gut auf diese nicht allen bekannte Problematik hinweist. Ich hätte mir noch ein zweites Beispiel gewünscht, wie es auch möglich gewesen wäre dieses Problem zu lösen. In eurem Fall mit z.B. einem 5800X3D.
    Wer das Budget hat auf eine 4080 aufzurüsten kann sich auch den besseren Prozessor leisten. 😉

    • @delta2386
      @delta2386 Рік тому

      was denn für ein "Problem" bitte? Nicht nur die GPU war hier nur Hälfte ausgelastet, sondern auch die CPU Kerne haben sich gelangweilt. Leider fehlt bei PCGH mal wieder die Kompetenz um solchen Sachen wirklich auf den grund zu gehen. Ne, lieber gierig nach der cam greifen und aufnehmen, endlich mal wieder was womit man illustrieren kann dass die Leute gefälligst MEHR BRAUCHEN warum wollen sie das nicht verstehen.

  • @fatcatgg
    @fatcatgg Рік тому +1

    Alternativ kann man fürs zocken auch die Monitorauflösung hoch stellen. Also UHD bei einem WQHD Monitor. Ich glaube man muss da in der Nvidia Systemeinstellung erst mal eine benutzerdefinierte Auflösung anlegen. Texte werden im Windows Betrieb zwar zerrissen, aber beim zocken ist alles fein.

  • @masterluckyluke
    @masterluckyluke Рік тому +2

    Es wäre mal ein Artikel oder Video interessant, das sich genauer damit beschäftigt, welche Einstellungen CPU und welche GPU belastend sind. Mein GPU ist bei 100 Prozent, aber die CPU langweilt sich, also kann ich die Sichtweite hoch stellen?

    • @yoshiiex_x4787
      @yoshiiex_x4787 Рік тому

      in deinem Fall so wie du es schreibst, kannst du die sichweite gerne höher stellen und schauen wie sich das spiel dann verhält :)

    • @masterluckyluke
      @masterluckyluke Рік тому

      @@yoshiiex_x4787 Verhält sich gut.^^ Aus irgendeinem Grund ist das Spiel bei mir ohnehin nicht sonderlich zickig. Spielen vielleicht auch noch Ram und SSD mit rein, wer weiß.

  • @Patrick82.
    @Patrick82. Рік тому +3

    Gutes Video

  • @El__Huron
    @El__Huron Рік тому

    Die Bananen waren jetzt eher ziemlich unnötig, aber der Rest des Videos war sehr hilfreich und informativ.

  • @dasu2324
    @dasu2324 Рік тому +2

    danke Euch, Jungs!

  • @ralfkieschnick1031
    @ralfkieschnick1031 Рік тому +2

    Wieviele Bananen esst ihr so pro Woche? Und ist das ungesund?

  • @Smartphoenix1982
    @Smartphoenix1982 Рік тому +2

    Die frage ist, welche CPU? Als AM4 Nutzer lieber eine 250€ 5900X oder 5800X? Denn auf Am5 welchen lohnt doch preislich überhaupt nicht, wenn man schon mit einem 5600X ins CPU Limit rennt.

    • @svenm.7556
      @svenm.7556 Рік тому

      Ich selbst hatte nen 5950x und hab dann auf nen 5800x3D umgerüstet und das Ding ist wesentlich schneller. Bei AM4 gibt es einfach keine bessere CPU fürs Gaming.

  • @zsedz
    @zsedz Рік тому +2

    Tolles Video, danke

  • @HardwareFan
    @HardwareFan Рік тому +2

    Warum braucht das Spiel soviel CPU ? Gibt es dafür irgendeinen Grund, also sehr aufwändige Berechnungen oder so ? Kann mir das nicht vorstellen

  • @musikausdemosten
    @musikausdemosten 11 місяців тому

    Die Grafik settings auf Max und die Auslastung der Grafikkarte steigt, dadurch reduziert sich etwas die CPU Auslastung, so zumindest bei meinem Beipspiel in the Finals

  • @mo7aZa
    @mo7aZa Рік тому +2

    danke endlich mal verstanden... Server nice

  • @AbHänger
    @AbHänger 11 місяців тому

    Tolles Video,hab von einer Gtx 1070 auf eine rx 6750 xt upgraded,mein i5 9600 k @ 4,8 ghz hat hart zu kämpfen,spiel auf einem 1440p@144 hz Display,die Cpu hat ca 68° dauerhaft +/- 5°.Mir war vorher klar das der Prozessor da nicht mithalten kann.Möchte auch nicht wieder neu in Mainboard und Cpu investieren.Aber auf einen I 7 lohnt sich es denke nicht ...i9 9900k schon eher aber no Money momentan.Könnte ich jetzt die Gpu soweit Drosseln das die Cpu wieder hinter herkommt oder juckt die Cpu die dauerhafte 100% gar nicht.

  • @moonlightchiller
    @moonlightchiller Рік тому +1

    Hab mir einen neuen PC mit 7600x und 4090 zugelegt und spiele aktuell fast nur ältere Spiele damit weil Titel wie Jedi Survivor für mich aktuell unspielbar sind bei den miesen frametimes und Rucklern 😩

  • @drissdriss5567
    @drissdriss5567 Рік тому +3

    Didaktisch leider schlecht: Ihr wollt mit dem Video zeigen, wie man ein CPU-Limit erkennt und verweist dabei auf die im Video sichtbare GPU-Auslastung. Verliert aber kein Wort darüber, dass die gleichzeitig für uns ebenfalls sichtbare CPU-Auslastung auf allen Kernen nur im mittleren Bereich ist. Das ist doch zumindest scheinbar ein Widerspruch, den sich viele Nutzer, die das CPU-Limit verstehen wollen, nicht erklären können! Und den Nachweis eines CPU-Limits, indem ihr das gleiche Szenario mit stärkerer CPU zeigt, führt ihr auch nicht. So bleibt es doch eine bloße, nicht nachvollziehbare Behauptung ... .

  • @diablogebi
    @diablogebi Рік тому +1

    Gutes Video!!! Kann es sein das meine 3900x zu langsam ist für das Spiel? Hab immer wieder Framedrops mit einem 6900xt GPU. Ich spiele in 3440x1440.

    • @PCGH_English
      @PCGH_English Рік тому +1

      Yep - zumal 21:9 höhere Anforderungen auch an die CPU stellt. Ohne Raytracing sollte es aber halbwegs flutschen. :)

    • @diablogebi
      @diablogebi Рік тому

      @@PCGH_English Danke für die Antwort. Denkt ihr das eine 5800x3d da große verbesserungen bringen würde?

    • @PCGH_English
      @PCGH_English Рік тому +1

      @@diablogebi Definitiv! Schau mal bei uns ins Forum, unter "Benchmarks", da haben wir eine Rangliste mit einigen Community-Werten. Der 5800X3D ist da gewohnt potent. Ein 3900X fehlt noch, aber da gelten die üblichen Abstände.

  • @Blain-
    @Blain- Рік тому

    Ich habe ein Ryzen 7 5800X3D und möchte mir jetzt eine RTX 4070 kaufen. Ist das eine gute Kombinationen für max. Settings in FullHD? Wahrscheinlich werde ich mir als nächstes noch ein 27 Zoll WQHD Monitor kaufen.

  • @bluesonkel
    @bluesonkel Рік тому +2

    50 bis 60% sieht für mich jetzt aber auch nicht nach cpu auslastung aus.... mein 7700k bei 5 GHz lief damals bei Battlieflied (5 oder 2042 weis jetzt nich mehr genau) bei 85 bis98 %. das nenne ich dann cpu limit ^^ er hat sich wacker geschlagen!

  • @killerjulian1042
    @killerjulian1042 Рік тому

    Habe einen „alten“ Laptop mit einer Gtx 1650 und einem 9300H. Eigentlich kann er alles, was ich möchte in fhd machen, ohne ausgelastet zu werden. Jedoch ist die Kühlung sehr schlecht, weshalb der Prozessor permanent um die 100° ist und sich dann selber drosselt, sodass ich z.B. Valorant mit 40fps spiele. Gibt es irgendetwas, um so einen Laptop wieder zum Leben zu erwecken, oder muss ich mir etwas neues kaufen?

  • @benjamintatura5557
    @benjamintatura5557 Рік тому +2

    Meine 1080 ist heute Tatsächlich in Rente für ne 4080rtx gegangen!

  • @onkeltom5699
    @onkeltom5699 Рік тому

    Geht die GPU last auch runter wenn ich die FPS auf 144 begrenze?

  • @tylers_piano
    @tylers_piano Рік тому +1

    Gutes Video, kurz und schlüssig.👍
    Wäre denn ein stock 12700 non k eine okaye Basis für eine 4090 für AAA-Spiele in UHD? 🧐

    • @Jaffech0203
      @Jaffech0203 Рік тому +1

      ja, ist eine gute Kombination. Teilweise (je nach RAM) könnte der 12700 schon zu "schnell" sein. Nutzt du DLSS/FSR, könnte er hingegen zu langsam sein. Kommt aufs Spiel an. Aber falsch ist die kombination definitiv nicht

    • @tylers_piano
      @tylers_piano Рік тому

      @@Jaffech0203 Toll. Danke für dein Feedback. 🙂👍
      Je nach ram... hm... Habe 4x8 GB ddr4 3600mhz cl 18...🧐 aber sollte passen denke ich.

    • @Jaffech0203
      @Jaffech0203 Рік тому +1

      @@tylers_piano 3600CL18 (und weiter? ist ja nur 1 von ~30 Timings^^)
      ist ehr lowend bereich bei intels core 12th Gen, also "zu schnell" wird der i7-12700 zumindest nicht sein ^^
      Bei DDR4-3800CL15-15-15-30 wärst du zumindest im DDR4 Bereich im High End, absolut gesehen untere Oberklasse. Allerdings kann der eben auch DDR5 und damit solche sachen wie DDR5-7000CL32 (je nachdem was der IMC schafft) und das wäre dann absolutes Highend beim RAM. Das wäre vermutlich 10-15% mehr CPU Leistung gegenüber deiner RAM Konfig

    • @WroughtMovement
      @WroughtMovement Рік тому +1

      Der 12700 ist viel zu langsam für eine 4090.

    • @tylers_piano
      @tylers_piano Рік тому

      @@WroughtMovement auch in UHD?

  • @derealhamsta
    @derealhamsta Рік тому +1

    vor dem Video:
    mit Ryzen 9 3900xt und RX 6700XT unterwegs und MUSS die Details auf Mittel stellen, damit ich 60FPS erhalte :(
    ja, ich habe die Leistungsgrenzen (max W auf GPU und V auf CPU) etwas angepasst, damit ich bei 100% Last nicht ueber 65°C komme.....
    allerdings sollte da eigtl ein wenig mehr drin sein :(
    nach dem Video:
    scheint, als habe ich mit dem 5900X und der 7900XTX vapor-x ne gute Wahl getroffen.
    dazu ein schnuckeliges, schneller und groesseres RAM-Pack und dann sollte das doch machbar sein ;)
    Dienstag ist dann hoffentlich endlich die CPU auch da und dann werd ich umbauen :D

    • @m.m.3753
      @m.m.3753 Рік тому +1

      Hab auch einen 5900x, kleiner Tipp: stell im Taskmanager die letzten 12 Threads für dein Game. Dann haste bessere und höhere FPS

  • @Andreas-bn1nm
    @Andreas-bn1nm Рік тому

    Frage: Welcher Prozessor ist für 4070 (ti) zu empfehlen?

    • @Lubi7europe
      @Lubi7europe Рік тому

      Kommt drauf an wieviel du ausgeben willst/kannst..... 5800X3D, 13600K/F oder gleich zukunftsicherer mit nem 7800X3D

  • @SPX-Ultra
    @SPX-Ultra Рік тому +2

    Welche GPU ist noch sinnvoll für i7 4770K ?

    • @vorsnahmburg
      @vorsnahmburg Рік тому

      Würde mich auch interessieren!

    • @wildocean8085
      @wildocean8085 Рік тому +1

      kommt auf die auflösung an in der du zockst! für fullhd wäre zb eine gebrauchte rx 580, 8gb interessant

    • @SPX-Ultra
      @SPX-Ultra Рік тому

      @@wildocean8085 Für FHD, aktuell ist eine GTX 1060 6GB verbaut🤔

    • @wildocean8085
      @wildocean8085 Рік тому +1

      falls du in fhd weiterzockst passt die combo. viel spielraum für eine schnellere grafikkarte bleibt mit der alten cpu in fhd nicht mehr.

  • @timo6048
    @timo6048 Рік тому

    Kann mir einer erklären warum dann der CPU nicht über 60% gekommen ist? normalerweise ist der dann wenn Limit bei an di e100

    • @jimbratwurst4333
      @jimbratwurst4333 Рік тому

      Zuerst würde ich mal den Energiesparmodus rausnehmen und auf Hochleistung schalten dann Arbeitet auch der CPU

  • @zwieback1988
    @zwieback1988 Рік тому +1

    Häng bei Watch Dogs Legion gefühlt im CPU und GPU limit…
    Beide max 55% ausgelastet (10600k mit 3060ti) und Frames bei 55 und die sinken dann über die Spielzeit langsam bis 29FPS. Dann Neustart und dann gehts wieder knapp unter 60fps los. RT und DlSS spielen gefühlt keine Rolle..

    • @zwieback1988
      @zwieback1988 Рік тому +1

      Wäre über Tipps dankbar!

    • @N_qster
      @N_qster Рік тому

      @@zwieback1988 klingt komisch, sind alle kerne der cpu bei 55 % oder der erste voll ausgelastet und der rest garnicht? In dem Fall wäre es deine cpu. Die sinkenden fps sprechen aber eher für zu hohe temperaturen, hast du die mal überprüft?

    • @zwieback1988
      @zwieback1988 Рік тому

      @@N_qster die einzelnen Kerne muss ich mal anschauen. Hatte noch nie Temperaturprobleme. Und die werden mir auch net angezeigt.

    • @zwieback1988
      @zwieback1988 Рік тому

      @@N_qster eben geschaut. Nur Kern1 hängt bei 98% der Rest bei 40-50%

    • @N_qster
      @N_qster Рік тому

      @@zwieback1988 Das spricht für ein cpu limit, weil watch dog wie viele andere spiele auch auf single core leistung setzt. Die sinkenden fps über die zeit kann man damit leider nicht erklären.

  • @GreniGE
    @GreniGE Рік тому

    Was für ein Tool benutzt, um diese Werte anzeigen zu lassen ?

    • @asterix-pz6ll
      @asterix-pz6ll Рік тому

      msi afterburner.

    • @GreniGE
      @GreniGE Рік тому

      @@asterix-pz6ll danke dir für die Antwort du weißt nicht zufälltg wie ich es einstellen muss, damit ich die Grafik angezeigt bekomme ingame oder ?

    • @asterix-pz6ll
      @asterix-pz6ll Рік тому

      @@GreniGE ua-cam.com/video/_ElPViVFJgg/v-deo.html

  • @Neosis109
    @Neosis109 Рік тому +3

    Zur Zeit sind aber auch viele PC Spiele nicht richtig optimiert. Ich zock mit ner 4090 und nen Ryzen 5800x3D, dennoch ruckeln Spiele wie The Last of Us oder Hogwarts…

    • @Lubi7europe
      @Lubi7europe Рік тому

      Hast du probiert die FPS aif die Hz deines Monitors zu locken? Wenn du 144HZ Moni hast dann den FPS limozer auf 144Fps stellen

  • @AzumDzumHzumS
    @AzumDzumHzumS Рік тому

    die gtx 1080 im mai kam 2016 raus, ist also bereits 7 jahre alt @raf

  • @HudsonHawk78
    @HudsonHawk78 Рік тому +3

    Habt ihr eure zerschossenen Trophäen jetzt in Schmuck umgewandelt? 😂

  • @astrosnake7340
    @astrosnake7340 Рік тому +1

    5 Bananen für dieses Video 👍

  • @NoName-nn8lj
    @NoName-nn8lj Рік тому +1

    Spiele World of Warcraft und das Problem mit der CPU ist halt allgegenwärtig hab eine 12400f aber scheint für wow nicht so toll zu sein.

  • @Domesko2608
    @Domesko2608 Рік тому

    Ich hole mir dieses Spiel eventuell aber wenn es erst ausgepatcht ist! Mein alter i7 4790K übertaktet auf 4,6GHZ arbeitet mit 32GB RAM und einer RTX 3060 12GB in aktuellen Spielen in WQHD gut zusammen, aber in Full HD merk ich schon dass CPU Limit. WQHD ist ja auch schöner als Full HD. Das mit den Bananen war irgendwie witzig.

  • @kaiichigo9344
    @kaiichigo9344 Рік тому

    reicht mein ryzen 9 5900x für jedi suvivor?

  • @NoName-p2u4q
    @NoName-p2u4q 10 місяців тому

    Mein Ryzen 7 5700 X ist laut Afterburner meist am Limit von 78 Watt, bei der RTX 4070 habe ich noch die Qual der Wahl zwischen 100 -208 Watt je nach Game bin aber ganz zufrieden
    für 1300 Euro jedenfalls , mit 6 TB als Speicherpolster ., so kann mein Haushalt wenigstens wieder Kapital generieren.

  • @noproki2838
    @noproki2838 Рік тому

    2600X + RX 6800 in WQHD mit max. Settings.
    Läuft besser als ich dachte,
    solange man die Grafikdetails auf Anschlag setzt.😅

  • @chr400
    @chr400 Рік тому +4

    Also mit einer 4090 und einem i9 13900k macht es sehr viel Freude ❤ für DWQHD 49 Zoll

  • @kerkilabro4361
    @kerkilabro4361 Рік тому +2

    Diese Softporno-Musik, herrlich :D

  • @MrKorkmaz1992
    @MrKorkmaz1992 Рік тому

    Ich habe eine 4070ti, 5800x3d, 16gb 3200 cl14 ramm. Sehr gute Internetleitung.
    Trotzdem habe ich starke Fps Drops. Das Bild verzögert bei nahkämpfen stark.
    Spiel: fortnite. 1440p, Monitor HP XQ27 165hz.
    Habt ihr vll ne Idee woran es liegen könnte?
    Lieben Gruß

    • @MrKorkmaz1992
      @MrKorkmaz1992 Рік тому

      Ps: habe es auch mit framelimiter probiert..

    • @MrKorkmaz1992
      @MrKorkmaz1992 Рік тому

      Macht das auf 1440p so viel aus? Dachte immer um so höher die Auflösung um so weniger wird die CPU/ram belastet.

  • @Biernot247
    @Biernot247 Рік тому +2

    Vielleicht sollte ich meinen Ryzen 7 2700X doch mal langsam upgraden ^^

  • @zernicht9r286
    @zernicht9r286 Рік тому

    sry aber ich sehe da durchgängig über 60fps mir würden 45 reichen wo ist da problem

  • @broG-j1xeL
    @broG-j1xeL Рік тому

    Mmmhhhhhh.....dieses game stürzt immer wieder ab. 13900k und ner 4090.....wqhd, ultra settings.. was kann ich tun ? Gibt wohl kein cpu update für mich 🤷‍♂️

  • @LordSigger
    @LordSigger Рік тому +6

    Ich denke ich bin mit meiner 4080 und dem 13700K ganz gut aufgestellt 😊

    • @waldowaldo1980
      @waldowaldo1980 Рік тому

      Besser kann man's nicht machen...und nein,ich will kein 7800x3d für 3fps mehr...genug enttäuschende ryzens gehabt die Jahre..demnächst nur noch Intel
      Nein ich Kauf mir kein 500€ 3d ryzen...der Montag eingebaut wurde...und Mittwoch abgeraucht ist ...auf einem über, überteuerten b650 für 280€

  • @ProNoob2k
    @ProNoob2k Рік тому +3

    BANANAAA!

  • @CornGer
    @CornGer Рік тому

    ich find es traurig das die das nicht richtig deuten können was da genau passiert. ein trauer spiel in sachen analyse.
    als erstes sollte man wissen was für eine engine das spiel nutzt UT5 chakt als zweites sollte man wissen ob das spiel shader nutzt oder nicht. chackt ja es nutzt shader.
    dann sollte man das beobachte auch noch richtig in die techniken zu ortnen. ob nvidia odr eine AMD gpu hier genutzt wurde.
    was ist wenn man in den treibern mal nach bestimmten einstellungen sucht wie das man für cuda nicht die cpu nutzt sondern auch wirklich immer die hardware cuda einheiten nutzt. sollte das bild ein bichen verbessern. leider sind alle karen cuda limititrt nicht GPU. und bei UT engine kommt noch was besonderes hin zu und zwar das sie alles von der CPU am liebsten berechnen lassen das heist egal wie gut und wie schnell deine karte ist und was deine karte auch kann. du brauchst in spielen wo eine ut engine zum einsatz kommt auch eine sehr leistungs starke CPU. sie nutzen zu einem die CPU damit das ergebniss immer gleich aus sehen tut zum anderen weil AMd keine rechen einheiten hat sondern nur so eine leerlauf zeit berechnung die oft nicht reicht wird die gpu gemiden. so kommt nicht mal cuda wirtklich zum einsatz wenn es doch dort am besten laufen könne.
    spiele entwikler machen nur einemal den weg darum nutzt auch kein modernes spiel auch wirklich mehr als cuda bei RTX und cuda ist langsam so langsam das man gerade so spiel bare FPS hin bekommt.
    im ernst kauft euch ARC und wen ihr das geld habt dann NVIDIA den AMD ist einfach nicht mal das anschauen sich wert. kommt nicht na cuda ran kan kein gutes 4k oder FSR ist auch nur ein fake wie shader und der mist in GTX. ich weiß auch nicht ob AMd irgend was mal wirklich verbessern will auser mülll zu verkaufen was bringt eine sparsame karte die nix auf die reie bringt auser HD und so will keiner wirklich spielen. zu mal es keine verbesserungen gibt sondern nur die reine gtx grafikpower..
    ich als ein wenn ich ein entwickler für games währe und ein spiel machen müsste würde komplett die AMD fraktion ausschlissen weil sie einfach nur toxisch ist seind 20 jahren ur schrott mist und kleine verbesserunge um auf zu schliessen aber nicht wirklich nach vorne zu gehen ist wie ein nicht wollen oder ein bewustes bremsen. wie kann man so schlecht sein und so den ton ansagen und alles auf den markt in die steinzeit schiken.
    games werden nicht gepatcht weil sie mit nvidia starten und ein bild bringen ob das mit cuda geil ist oder nich. haupt sache keine zusätzliche arbeit investiert um mehr power für Nvidia raus zu holen so das die RTX technik sinnvoll genutz werden kann. man beschrenkt einfach alles auf cuda und macht eineRTX karte zu einer veralteten GTX mit RTX optionen die so nicht gedacht ist. das ist einfach nur krank. und die drei spiele die es richtig machen bekommen nicht mal gute analysen was sie besser machen ob sie RTX render standards wirklich voll nuzen die auch nvidia gepatcht hat weil eigentlich sollte RTX wen in spielen aktiv deutlich weniger schader verbrauchen dur die nutzung von KI die die shader daten nach bedarf zuschneidet. aber genau das fehlt alles wird einfach ungefiltert in den v-ram geladen und verbraucht so einfach power und strom weil einfach nur schlecht umgesetzt zwar starten die spiele nun ja so ist es auch gedach aber gut und schnell laufen sie nicht weil cuda eine sehr langsame art ist spiele zu randern und RTX was schnell ist und im grunde sogar nicht aufwändig kann nicht erblühen weil man der technik nicht die tore öffnet. einfach nur bescheuert bei den preisen sollte doch eine RTX immer in spielen voll unterstützt wrden nicht nur cuda sondern auch RTX. nicht nur zugeschaltete zu cuda RTX optien die sich mit dem rest speicher vergnügen dürfen. weil cuda eigentlich der gröste mist ist weil so umstendlich genutzt wird.
    eigentlich brauchen RTX karten 2 v-RAMs einen für die cuda mist scheisse und einen für die RTX angelegenheit. ich finde es auch von NVIDIA super unfähig das sie den kunden nicht zeigt welche technik die karte aktuell nutzt cuda oder RTX als render standard. weil das nur wenige wirklich wissen was eine karte aktuell wirklich nutzt und was damit dan maximal erreichbar ist. sind die vergleiche oft so schlecht zumal techniken falsch zusammen gestelt werden und so nicht verglichen werden dürfen man vergleicht auch nicht zwei züge eine dampflock und eine moderne elekktro lock odr disel lock und schautwehr bekommt besser seine pferdchen auf die schinne. den test gibts so nicht weil man das auch so mit GTX und RTX machen sollte getrennt und abgestimmt nicht in GTX spielen die options fähigkeit testen sondern spiele suchen die wirklich auch RTX voll können das ist CoD warzone . und metro exodus also immer wenn es um RTX geht sind das titel die ein muss sind wenn es um RTX geht.alles andere als test zunehmen ist doch soch einfach nur ein fake. auserdem sollte mal der vergleich gemacht werden ob man v-ram unterschide bekommt wenn man kein RTX nutzt sodnern nur gie GTX technik hat ob die RTX karte shader reduziert macht es das nicht ist GTX über cuda aktive und so mit ein schlechtes RTX game. weil es nicht alle optienen des modernens rendern ermöglich um vergleichen auch machen zu können. aber die GTX beschrenkte mist welt ist einfach nur gift für RTX karten. weil nicht geil ja sie laufen und starten aber sauber und geil sind sie halt einfach nicht. weil man den ram mit schrott daten füllt die die karte einfach nicht braucht. weil RTX sie nicht braucht
    und noch was die 4000 karten sollen auch cpu fähig sein das nutzt auch kein spiel warum weil die windows API was seit der 3000 karten und auch von AMD gefordert werden nicht erweitert wird. so mit auch keine unterstütung von neuen möglichkeiten über windows. dummes MS. ob das an der konsolen gemeinschaft von AMd liegt die einfach unfähig ist irgend was zu verbesern seit 20 jahren. auser vulkan ist aus dem hause AMd nix zu gebrauchen smart accress memory war der hit bei den hohen takts direkt sorige wer spricht über die shrott technik im PC bereich wo sie kaum was gebracht hat weil die KI unterstützung komplett fehlt. und so mit balsat ist weil man den neuen mist nach patechn muss und probleme aus besser was voher besser und sauber gelaufen ist mach jetzt so zusetzlich probleme.
    nein spiele brauchen patches und den richtigen render weg für jeder karte nicht nur cuda und gut ist weil dann kann ich auch ARC kaufen habe ich mehr vom geld und aktuell sogar manchal schon bessere leistung als NVIDIA wow was ist da los.
    das kommt durch die cuda game reduktion die einfach un geil ist. aber ist okay das man technik für knapp 2000 € kauft nud eine 400 € karte im grunde reicht weil die technik in spielen einfach nicht da ist. super werbe video und echt geile vergleiche die ihr da macht super preis empfelung und super technik analisen wo der shu gerade drückt.,
    magazine waren auch mal besser weil sie den mist den sie irgend wann mal veröffentlicht haben wie technik funktioniert und was wichtig ist damit es so funktionier auch kominiziert haben heute wird ein spiel gestartet und verlangt das es perfekt leuft egal ob cuda oder GTX egal was es nutzt man nimt die FPS und das ist der richtwert. wow schlechter und einfacht kann man geld nicht oder werte von produkten schlecht machen. und sagen 12 gb ist minimum ja das gilt nur in dem fall wo GTX zum einsatz komt also cuda . nice eine technik die nin modernen spielen man als kunde nicht sehen will.
    ich schreib ds auch noch 1000 mal bis man kapiert das da was mechtig falsch leuft kunden um leistung in spielen betrogen werden. das schlime ist nicht von den karten sondern von den games selbst die unfähig sind sich weiter zu entwikeln RTX ist seit 8 jahren da und es wird kein spiel mit der render technik produziert sind die so GTX geil und meinen cuda kann alles.

  • @TJSnej01
    @TJSnej01 Рік тому

    Ist die CPU Auslastung von Jedi-Survivor gerechtfertigt, oder ist das Spiel nur schlecht programmiert?

    • @PCGH_English
      @PCGH_English Рік тому +2

      Letzteres, leider. Das geht zweifellos besser, auch mit der Unreal Engine 4. Prächtig ist das Spiel aber zweifellos.

  • @ando5053
    @ando5053 Рік тому +3

    Alles Banane?

  • @rueggly2367
    @rueggly2367 Рік тому +3

    Meine 4090 pendelt immer so zwischen 95-99%, je nach Spiel. Ich denke also, der 13900KF kann sie gut mit Daten versorgen :D

    • @patrickhertig8644
      @patrickhertig8644 Рік тому

      Das kann mein 5800x auch... ✌🏻

    • @rueggly2367
      @rueggly2367 Рік тому

      @@patrickhertig8644 Klar kann er das, wieso auch nicht? Bei 4k spielt die CPU ja kaum eine Rolle mehr. Zumindest nur bei CPU lastigen Games wie z.B. Warhammer 3. Die CPU i.V.m. dem RAM merkt man dann eher bei 1440p und abwärts.

    • @patrickhertig8644
      @patrickhertig8644 Рік тому

      @@rueggly2367 genau so ist es

    • @Mert-gf4jc
      @Mert-gf4jc Рік тому

      ​@@patrickhertig8644 der Haufen amd kagge kann net ansatzweise dem 13900kf das Wasser reichen

    • @patrickhertig8644
      @patrickhertig8644 Рік тому

      @@Mert-gf4jc, bist du traurig das beim 4k zocken kaum bis gar keinen unterschied auszumachen ist oder wo ist dein scheiss problem. Intel ist schrott was effizient angeht

  • @ThomasIkemann
    @ThomasIkemann Рік тому

    "Dumme" Frage hierzu: Die Gesamt CPU Auslastung war hier immer so zwischen 50-60%. Müsste die im Falle eines CPU Bottlenecks deutlich höher sein, weil die CPU viel mehr arbeiten muss? So sieht/wirkt es für mich so, als würden sich beide, also CPU UND GPU, langweilen^^

  • @marcofeel7348
    @marcofeel7348 Рік тому

    Ich habe sogar einen CPU Bottlneck mit einer RTX 4090 und dem neuen Ryzen 7950 x3d. Das ist teilweise so abartig. Gerade in 4K Gaming z.B Spongebob Cosmic Shake auf Max ohne dlss 4K teilweise geht die CPU auf ü 30 Hoch und die GPU droppt dann auf 97 - 80 - 75. Das ist dann zwar nur kurz aber extremst störend und für diese Preiskategorie ein absoluter Reinfall.

    • @rafaelpniok2542
      @rafaelpniok2542 Рік тому

      Bei allen Spielen in 4k Resolution Scale auf 150-200% setzen, dann hast du keinen Bottlenecks mehr, dafür ein knackscharfes Bild einen schönen Stromverbrauch 🙂

    • @sirgareth5283
      @sirgareth5283 Рік тому

      4090/13900ks hier. Sehr viele stutters. Welcher Prozzi soll noch besser sein?

    • @m.m.3753
      @m.m.3753 Рік тому +1

      @@sirgareth5283 Quantencomputer

  • @philipdb2455
    @philipdb2455 Рік тому

    Manchmal habe ich schon das Gefühl, dass mein 5950x ins Limit läuft, da viele spiele keine 16 Kerne unterstützen.
    CP2077 ist z.B. momentan so bisschen an der Grenze. In WQHD und Ultra Settings (RT Ultra, ohne PathTracing) sehe ich auch gelegentlich wie die Grafikkarte (4080) auf 90 Prozent runter geht.... sowas nervt doch ....

    • @WroughtMovement
      @WroughtMovement Рік тому +1

      Selbst schuld, wenn du dir 16 Kerne zum zocken kaufst. Sinnlos, merkst ja selbst. Hol dir den 5800X3D ;)

  • @GlobalPlayerDE
    @GlobalPlayerDE Рік тому

    Bitte nicht immer nur auf die Hardware schauen, sondern auch den Betriebssystem-Scheduler mit einbeziehen und wie die Engine eines Spieles diesen nutzt.

  • @mullewap6670
    @mullewap6670 Рік тому +1

    Ja unbedingt.

  • @rakon8496
    @rakon8496 Рік тому

    Im CPU Limit ist DLSS/FSR nicht empfehlenswert, da Upscaler die CPU belasten und damit das CPU Limit nochmal deutlich verstaerkt werden. Dann lieber hoehere native Aufloesung...

    • @Scorpion95
      @Scorpion95 Рік тому

      Ausnahme ist Frame Generation was auch im CPU Limit mehr Fps beschert.

  • @DerStrobelisk
    @DerStrobelisk Рік тому

    Die CPU läuft aber doch auch nur auf 50-60% Wieso ist sie dann am Limit? Das erschließt sich mir technisch irgendwie nicht. 🤯

    • @D4rkResistance
      @D4rkResistance Рік тому +4

      Weil das Spiel nicht alle Kerne der CPU nutzt = schlechte Programmierung. Würde das Spiel mit allen kernen skalieren, hättest du auch deine 100% CPU-Last.

    • @drissdriss5567
      @drissdriss5567 Рік тому

      @@D4rkResistance Man sieht aber im Video, dass auch Kern 1 nicht stärker ausgelastet ist.

  • @templetonpeck1080
    @templetonpeck1080 Рік тому

    wow ein 5600 limitiert schon so stark?? Da ist das Spiel aber doch schon ne Außnahme oder? Erinnere mich noch an euer CPU Video indem selbst ein alter Intel aus der 4000er Gen, noch spielbare Werte ablieferte.

  • @GentaFanboy
    @GentaFanboy Рік тому +2

    Das Problem ist hier leider nur, dass das Spiel auch mit einem 7950x3d oder 13900k im Verhältnis wie ein Sack Nüsse läuft :D

    • @kleinerprinz99
      @kleinerprinz99 Рік тому

      Die 7950x3d darfst Du auch nicht nehmen sondern die 7800x3d musst Du nehmen. Nur die 7800x3d hat den echten Stapelcache für alle Kerne. Bei der 7950x3d haben die das wieder mal nur halb umgesetzt wie bei den Grafikchips. Die verbrät zu viel Watt sowieso. Energieeffizienz ist das Zauberwort welches hier nie springen wird.

    • @GentaFanboy
      @GentaFanboy Рік тому

      @@kleinerprinz99Stimmt, mit dem 7800X3D hat man natürlich keine Probleme. Der ist meilenweit vor dem 7950X3D. Hatte ich übersehen 🙃

  • @kleinerprinz99
    @kleinerprinz99 Рік тому +1

    Also warum soll die GPU denn 300 Watt unnötig verbraten in der heutigen Zeit mit Klimawandel und horrenden Stromkosten? Interessant ist das bei gleichem Szenario die 1080 ca 150 Watt verbrät und die 4080 ca 100 Watt. Wenn man man mal die Produktionskosten außen vor lässt weil man die 1080 lange genug benutzt hat und eh aufrüsten wollte auf ne 4080 (übelst überteuert übrigens, selbst die 4070 Ti ist überteuert geschweige denn die 4070) dann ist das schon bemerkenswert. Darauf ist man gar nicht eingegangen, dass man auch Strom sparen kann. Außerdem kostet jedes letzte Quäntchen an mehr Leistung unnötig exponentiell mehr Strom.
    PS: Hab damals knapp 600 Euro für Custom Board 980 bezahlt und das war schon teuer. Nicht nur im Lebensmittelbereich auch in anderen Bereichen sollten Preisbremsen eingebaut werden. Preise werden einfach mal willkürlich von ein Jahr aufs andere verdoppelt. Alle Zehn Jahre läuft das so. Wenn man im Einzelhandel arbeitet kriegt man das schon mit.

  • @curtisfirststrike7753
    @curtisfirststrike7753 Рік тому +1

    👍🏾👍🏾👍🏾👍🏾👍🏾👍🏾👍🏾👍🏾

  • @LarsPower
    @LarsPower Рік тому

    Und ein Ryzen 5900x hätte bei dem Spiel auch nix gebracht?

  • @dimakrutoj93
    @dimakrutoj93 Рік тому

    Man das Spiel hat immer noch fps Einbrüche und ruckler. Das regt mich richtig auf. Habe eine rtx 3090 Aorus xtreme und einen 7950x. Zocke in 4K

  • @enkerl9172
    @enkerl9172 5 місяців тому

    Also statt den Ryzen 5600x würde Ich eher den Ryzen 7 5700x nehmen,der hat ja 8 Kerne und mehr Dampf,der Aufpreis für 30 Euro echt ok

  • @fungus3657
    @fungus3657 Рік тому

    fps und auslastungen mit einem 7800x3d als vergleich wären interessant gewesen

    • @Lila_Laune_Baer
      @Lila_Laune_Baer Рік тому +1

      Hey, habe ich in meinem System, sieht genauso aus. Die CPU Last steigt teilweise auf 80% und es ruckelt auch.
      Ahso, an der 4090 kann es ja nicht liegen .-)))
      Genau, was er sagt ist, da fehlt es wohl etwas an Optimierung, dann lasst uns mal auf Patches hoffen.

  • @AntiGrieferGames
    @AntiGrieferGames Рік тому

    Denuvo DRM und Optimierungen sind das problem.

  • @galaxyneon6054
    @galaxyneon6054 Рік тому

    Gerne mehr Bananenvideos

  • @lotosflorian8794
    @lotosflorian8794 Рік тому +1

    Also das Spiel läuft sehr gut mit meinem i7 9700k und einer rtx 4080. In 4k keine ruckler oder ähnliches. Keine ahnung was die leute haben ? Auch musste ich dank grottiger programmierung seitens EA kein Vermögen für einen neuen Prozessor ausgeben. Weil das Game eh bei jedem schlecht läuft. Und egal welche Auflösung immer CPU Bottlenek 😂😂😂 find ich schon lustig das jetzt die Hardware der Konsumenten daran schuld sein soll wenn Leute ihre arbeit nicht richtig machdn können und ohne Herzblut am werk sind. Aber was tut man nicht alles für ein wenig mehr Reichweite was 😅

  • @emanrovemanchan1527
    @emanrovemanchan1527 Рік тому +3

    BANANA!!!

  • @danielchristian2037
    @danielchristian2037 8 місяців тому

    habe den selben Prozessor mit einer rx 6900xt . Bei mir ist es auch so :D

  • @klutschewski
    @klutschewski Рік тому

    Dito ❤

  • @samim.2219
    @samim.2219 Рік тому

    Also mal ganz ehrlich. Wenn ein CPU limit auftritt und die CPU dabei im Schnitt gerademal bei 55% Aus(last)ung "gammelt" würde ich sagen wir haben hier ein EA-FIXED_EUREN_SCHLECHTEN_CODE-Limit

  • @delta2386
    @delta2386 Рік тому +1

    Nur mal so als Info, dass ist kein wirkliches CPU-Limit.

  • @curtisfirststrike7753
    @curtisfirststrike7753 Рік тому

    Ryzen 5800X und Sapphire RX6800 (undervolted und vram oc) = definitv cpu-limit xD

  • @dvr1337
    @dvr1337 Рік тому

    das game läuft generell schlecht mit amd cpus. selbst mit nem 10900kf hab ich 0 probleme

  • @Felixosbourne
    @Felixosbourne Рік тому +2

    BANANE!

  • @andretaleb666
    @andretaleb666 Рік тому

    4K mit 45FPS oder CPU Limit mit Full HD 90FPS.....dann lieber 90FPS und ne Graka die sich langweilt.....gibt ja noch DSR.

  • @saturnjones6612
    @saturnjones6612 Рік тому

    Kann mir jemand mal die affige Bananenanspielung erklären?

    • @pcgh
      @pcgh  Рік тому +5

      Diese Anspielung findet ihren Ursprung in der "Banana 4 Scale".

  • @sirgareth5283
    @sirgareth5283 Рік тому +1

    Was eher gegen Ruckler hilft bei geforce Karten: nvidia contol panel threaded optimization auf an, opengl und triple buffering auf an, vsync auf an. Sodann in der exe Datei des Spiels auf properties und compatibility, dann disable fullscreen optimizations und override high dpi scaling. By application Restart😎 Wermutstropfen: kann mal crashen.

  • @nord2t_
    @nord2t_ Рік тому

    achja.. ich mit meinen 13900K hm ist wohl zu langsam hm ok, kann man nichts machen! muss wohl eine stärkere cpu kaufen hmmm ok!

    • @jR-qp6qn
      @jR-qp6qn Рік тому +1

      Der hat da ein ryzen 5 5600 x mit 6 Kernen und deiner hat 24 und 32 Threads also besser zuhören

    • @nord2t_
      @nord2t_ Рік тому

      @@jR-qp6qn was besser zuhören! ich schreibe das ich mit meinen 13900k dieses spiel nicht flüssig spielen kann du hampelmann les mal besser

  • @RadieschenBaerchen
    @RadieschenBaerchen Рік тому

    Schlechtes Video, wozu zeigt ihr das an einem schlecht optimierten Spiel? Das hättet ihr schon besser am Beispiel von mindestens 5 weiteren Spielen zeigen sollen, auch welche Rolle ggfs RAM und Mainboard spielen.

  • @diceee9780
    @diceee9780 Рік тому

    Die Lösung ist immer kaufen!