4070 Ti vs. 7900 XT: Duell unter 900 € | Performance, Preis/Leistung, Effizienz und Tuning Optionen

Поділитися
Вставка
  • Опубліковано 2 жов 2024

КОМЕНТАРІ • 440

  • @pcgh
    @pcgh  Рік тому +13

    Welche der beiden Karten würdet ihr euch eher in den heimischen Rechner packen? 🔴 oder 🟢 ?

    • @S.Quandt_Filme
      @S.Quandt_Filme Рік тому +3

      Keine, bei mir arbeiten immer nur die Nvidia 90er Karten. Aktuell die 4090.

    • @patrickgstir
      @patrickgstir Рік тому +67

      @@S.Quandt_Filme weird flex

    • @ando5053
      @ando5053 Рік тому +7

      Tipp von mir, 5-10% der Weltbevölkerung (glaube ich) hat eine Rot-Grün schwäche, daher würde ich zukünftig mindestens für eine der Farben eine andere Farbe wählen. Ich selbst bin davon nicht betroffen, habe aber mit Leuten gearbeitet die da Probleme haben. Und wenn das nur zwei verschiedene Grautöne sind, wird es schwierig die Balken auseinander zu halten.

    • @SChuckLP
      @SChuckLP Рік тому +14

      🔴

    • @SpiDey1500
      @SpiDey1500 Рік тому +14

      ❤. 12GB ist ja jetzt schon teilweise am Limit. Kauf mir doch nix, was in einem Jahr überholt ist.

  • @surazubi
    @surazubi Рік тому +41

    Super aufbereitet! Danke. Tatsächlich ist UWQHD sehr interessant. Deswegen top! Sehe ich zu selten tatsächlich

  • @sabotage6938
    @sabotage6938 Рік тому +17

    Sehr informatives Video. Bitte weiter so!
    Da ich pro Woche ungefähr 25 bis 40 Stunden Desktop-Betrieb habe und bei UWQHD @ 120Hz arbeite bzw. Anwendungen auf dem Desktop nutze, bleibt mir wohl nur die Karte von NVIDIA. Der Stromverbrauch ist bei diesem Szenario mit AMD ca. 4fach höher und das möchte ich nicht in der Stromrechnung bezahlen, nur weil AMD da offenbar ungenügend gearbeitet hat.

    • @blackflytr
      @blackflytr 11 місяців тому

      das ist bei meiner entscheidung auch der nr1 hauptgrund, weil am ende des jahres macht sich das dann im geldbörserl bekannt.

  • @Domi8314
    @Domi8314 Рік тому +20

    Traurig das man das sagen muss… aber beide Hersteller stellen einen echt vor ganz schöne Hürden was die Entscheidung angeht… also für knapp 900 Euro und dann immer noch Nachteile zu haben egal ob Nvidia oder AMD finde ich persönlich sehr Problematisch und zeigt uns hoffentlich nicht wie es zukünftig laufen soll auf dem PC Markt. Sonst wird das bald ein Bereich für die Privilegierten Einkommen… schade aber super 👍🏻 tolles Video mit bestimmt viel Arbeit dahinter. Danke für die Detailinfos 😊

  • @fanolade
    @fanolade Рік тому +9

    Finde es lustig, dass Raphael immer rein zufällig was vorbereitet hat :D

  • @JersyCityDevil
    @JersyCityDevil Рік тому +12

    Sehr schöner Beitrag. Ich bin bei Hardware nicht markentreu (egal ob Grafikkarte, CPU oder anderes) und wechsle gerne auch mal, wenn ein Anbieter sich nach vorne schiebt. Bei Grafikkarten denke ich aber schon seit vielen Jahren, dass ich zwar gerne mal wieder nVidia probieren würde, aber das abseits der absoluten Oberklasse einfach keinen Sinn ergibt (und leider gilt das meiner Meinung nach schon seit ca. zehn Jahren). Für Raytracing brauche ich erstmal eine gewisse Grund-Leistung, so dass ich dieses Feature unterhalb der hier getesteten Karten ohnehin ausschließen würde. Damit hat AMD fast schon automatisch die Nase vorn in der Preisklasse bis ca. 800€. Kommt man dann in diese Gefilde, gilt eigentlich, was ihr am Ende als Fazit angesprochen habt: Bei nVidia macht der Grafikspeicher Sorgen - übrigens ist auch das ein Punkt, der schon seit Jahren gilt.
    Man müsste wirklich schon in die Kategorie 4080/90 kommen, um nVidia den Vorzug zu geben - und dann muss man ehrlicherweise sagen, dass AMD dort schlicht kein Produkt anbietet. Wie gesagt, an sich würde ich gerne auch mal wieder zurück zu nVidia gehen, aber dann muss es da eben auch eine Karte geben, die bei vergleichbarem Preis eine bessere Leistung als AMD bietet und nicht nächstes Jahr veraltet ist. Diese Kriterien gemeinsam scheinen einfach nicht mehr einzutreten.

  • @SchorkiBln
    @SchorkiBln Рік тому +10

    die 4070 TI mit 16GB wäre der Knaller geworden, für den Aktuellen Preis, auch wenn das immernoch zu hoch wäre. Deshalb würde ich mich zur Zeit noch für keine der beiden Karten als Kaufinteressent bezeichnen. 4080 in dem Preissegment dann schon eher.

    • @CrazO9111
      @CrazO9111 10 місяців тому

      Kommt jetzt Anfang Januar mit 10% mehr Performance.

  • @VollFOS
    @VollFOS Рік тому +9

    Was mich stört ist: Es werden nur die reinen Graphen gezeigt und kein Gameplay . Gerade beim DLSS gibt es zwar mehr fps , aber dafür teilweise unschrarfe Bilder durch fehlenden VRAM bei der Geforce. Ich finde es irreführend wenn man unschärfe im Spiel komplett ausser acht lässt, um durch DLSS bessere FPS /Performance zu erreichen( Flüssiges Bild). DLSS kann in den einzelnen Frames für fehlende Schärfe sorgen, welche teilweise in den benchmarks nicht erfasst wird.
    Sprich was bringt mir eine Geforce, die im raytracing gut performt aber die Bilder an Qualität innerhalb des Bildes verliert.
    Da hätte ich mir zum vergleichen Direktes Gameplay gewünscht. Das wäre analysetechnisch ein Mehrwert als reine Benchmarks. DLSS ist wie Schminke , es übermalt fehlende Performance.
    Ausserdem würde ich mir einen Graphen wünschen wie viel VRAM von den Graphikarten denn bei den Spielen genutzt wird ?
    Wenn Unreal5 titel 12-14 gb benutzen, und eine 4070 ti aber die nicht hat und dies über DLSS ausgleicht.... wie Zukunftsorientiert ist sie denn dann ? in 2 Jahren noch zu gebrauchen oder eben nicht ? was bringt mir die performance von spielen die auf jetzt ausgelegt sind, und ich evtl in 1nem Jahr gewisse titel eben nicht auf dem jetzigen lvl spielen kann . Ich meine die wenigsten würden sich eine Graphickarte für 850€ holen, wenn sie in einem Jahr performance technisch schon an ihre Grenzen kommen oder ?

    • @fd4015
      @fd4015 Рік тому

      FSR ist unscharf dlss nicht

    • @PinHeadSupliciumwtf
      @PinHeadSupliciumwtf Рік тому +1

      Das dlss upscaling scheint vor allem für 4k gar nicht schlecht zu sein. Aber der dlss 3 framegen Dreck kann mir gestohlen bleiben. Eh nicht vor in den nächsten Jahren ne neue Karte zu kaufen. Nichtsdestotrotz ist natürlich 12gb bei den Preisen ne Frechheit.

    • @dartharagon9129
      @dartharagon9129 Рік тому

      ​@@PinHeadSupliciumwtf Den Typen, der in einem Spiel das auch nur halbwegs die Geschwindigkeit von Minecraft besitzt den Unterschied zwischen Native, DLSS 2.0 UND DLSS 3.0 mit bloßem Auge erkennen kann muss man mir erst noch zeigen. Das ist wie 240Hz vs 360Hz, theoretisch ein Unterschied, praktisch nicht.

    • @Hurensohnologe0711
      @Hurensohnologe0711 Рік тому

      Wie zukunftsorientiert die Karten sind, sieht man ja an der 3070ti, die jetzt schon teilweise abkackt.

  • @nitro_racing
    @nitro_racing 9 місяців тому +3

    Wie ist das mittlerweile mit dem Leistungsverbrauch der Radeon?

  • @jasssedine
    @jasssedine 10 місяців тому +4

    Stand Dezember 2023: hoher Powerdraw im idle der 7900XT scheint gefixed zu sein. Meine zieht in Ultrawide WQHD mit 165Hz nur 9 - 10W im Idle :)
    Hab mir das Video hier nochmal angeschaut um den vorherigen Stand als Vergleich zu haben

    • @tarikcampinar7560
      @tarikcampinar7560 9 місяців тому

      stimmt das wirklich?

    • @jasssedine
      @jasssedine 9 місяців тому

      @@tarikcampinar7560 wenn du magst kann ich dir Screenshots im Discord oder so schicken

    • @jasssedine
      @jasssedine 9 місяців тому

      @@tarikcampinar7560 oder suche danach: " AMD Software: Adrenalin Edition 23.12.1 Release Notes " in der Treiberbeschreibung wird genau dieses Problem angesprochen :)

    • @jasssedine
      @jasssedine 7 місяців тому

      @@tarikcampinar7560 komischerweise ist mein Kommentar verschwunden. Schau mal in den Patchnotes des vorletzten AMD Treibers. Oder Google einfach 7900XT Power draw idle, da sollte der passende Treiber auftauchen

  • @pmw6182
    @pmw6182 Рік тому +6

    ich stehe genau zwischen der entscheidung - rtx4070ti oder rx 7900xt. die entscheidung wäre klar, wenn nicht die schwachen 12 gb vram bei der 4070ti wären

    • @1stein55
      @1stein55 Рік тому

      mehr als 12 braucht man nicht ehrlich

    • @holgerhess9211
      @holgerhess9211 10 місяців тому

      @@1stein55 2080ti hat nur 11 und spielt alles flüssig und es ist nur eine PCI 3.0

    • @DavidApunkt
      @DavidApunkt 6 місяців тому

      Und bei Nvidia kommt das elende 12VHPWR Problem dazu...

  • @micleh
    @micleh Рік тому +21

    Tolle Tests und klares Fazit. Man kann nur erahnen, wie viel Arbeit hinter dem ganzen steckt. Danke für das Video.

  • @pju28
    @pju28 Рік тому +10

    Vielen Dank für das Video und die Arbeit die dahinter steckt! - Ich denke dass der Fokus bei den Gamers eher dass Spielerlebnis in Vordergrund steht und der Fokus auf die Grafikkarten gelegt sind wo es zu praktisch zu keinem Stuttering kommt. - was der Markt derzeit anbietet sei es Hardware und Software ist nicht nur der Preis auch die Qualitätsprüfung zu bemängeln. Wo zumindest ich nur sagen kann, es gibt kein Grund diese Generation von Nvidia und AMD zu kaufen. Als Raytracing von Nvidia angepriesen wurde vor Jahren hätte niemand gedacht dass das „Glas“ halb voll wäre. Erst jetzt wurden alle zur Kasse gebeten um festzustellen dass mit einer 2000 Euro Grafikkarte ca 20 FPS mit (realem) Raytracing möglich ist. Wo jeder dachte dass Raytracing Karten grundsätzlich dass schon können sollten und bei der Generation es locker bewältigen kann. AMD mit dem Kühlen und nunmehr die high voltage schiesst auch ihrerseits den Vogel ab.

    • @zernicht9r286
      @zernicht9r286 Рік тому +1

      also als damals raytracing kam war mir durchaus klar dass es auch in 5 jahren nicht wirklich funktionieren wird. Es ist einfach irre komplex was das licht so macht

    • @tankpenguin175
      @tankpenguin175 Рік тому

      Der Grund diese Generation zu kaufen ist ganz einfach: Man braucht eine neue Grafikkarte. Mit Leistung.

  • @philippvonwittgenhaym6752
    @philippvonwittgenhaym6752 Рік тому +5

    Die 4070/4070Ti schrecken mich wegen der lächerlich geringen Speichergröße einfach ab. Da gibt es einfach 2023 nichts schön zu reden. Ich liebäugle ja mit der 7900XT aber der Energiehunger ist leider enorm 😅.... Vielleicht bleib ich ja bei meiner 6700XT, UWQHD schafft die ganz gut.

    • @paulszki
      @paulszki Рік тому +1

      Ich hab mir ne 3090 gebraucht mit 30 monate gewährleistung geholt letztes Jahr und diese kräftig untervoltet. Weil die 24GB VRAM hat, lache ich über die 4070ti. So ein Schmarrn.
      Ich finde, wenn man ne gute last gen karte hat (so wie deine), kann man locker ne Generation aussetzen. Also dann wieder mal bei 50er Serie reinschauen.
      Oder wenn dir die 6700xt zu knapp werden... wer weiß wie es innem halben Jahr oder so aussieht mit einer 7700xt oder 7800xt. Wird bestimmt keine irren 900€ kosten und trotzdem ein ordentliches upgrade zur 6700xt sein mit mehr VRAM und bessere RT-Leistung.

    • @philippvonwittgenhaym6752
      @philippvonwittgenhaym6752 Рік тому

      @@paulszki Ja die 3090 ist auch eine ziemlich geile Grafikkarte. Auch bei dieser zeigt sich, dass ein Wechsel in die 40er Generation nicht nötig ist. Denke aber auch, dass ich alles in allem bei meiner 6700XT bleibe und eine Generation aussetzen werde.
      Der Vorteil ist, dass ich RT ganz gut finde aber es nicht notwendigerweise brauche. Mal schauen wie es nächstes Jahr mit Intel aussieht. Finde deren Ansätze ganz spannend.

    • @paulszki
      @paulszki Рік тому +1

      @@philippvonwittgenhaym6752 Nochmal zu Ray Tracing:
      Mich stört, dass RT zwar die Optik verbessert, aber gleichzeitig auch an manchen Stellen noch hart fehlerbehaftet ist, was bei "prebaked lighting" einfach irgendwie seltener passiert.
      Zwei Beispiele:
      In Hogwarts Legacy - in der Kneipe in Hogsmeade knallt aus irgendeinem Grund von irgendwo die Macht von tausend Sonnen auf einen Bereich und holt einen voll ausm Spiel raus, weil es tatsächlich blendet und die Szene stört und auch an anderen stellen "bluten" Lichstrahlen irgendwo durch, wo es keinen Sinn ergibt. Ich wollte eigentlich BESSERES Lighting.
      Auch Hogwarts Legacy, manchmal stehen bei Dialogen Charactere so halb in der Sonne. Im richtigen Leben würde das jeden Menschen IRRE machen, wenn ihnen die Mittagssonne ins Gesicht knallt und sich schützend die Hände vors Auge halten. Stattdessen brutzeln die fröhlich im Blendlicht vor sich hin oder wackeln beim reden so hin und her, dass sie mal geblendet sein müssten und mal nicht. Es ist ja bisher nicht meine Erwartung gewesen, dass Developer an so einen Quatsch denken wie "wenn viel Licht aufs Auge fällt, dann animation mit arm schützend vor Kopf", aber mit vorgebackenem Licht denkt man über wowas gar nicht erst nach.
      Klar, kann man auf den Developer schieben, aber am Ende Wurst, wer "schuld" ist. Wenn "realistscihes" Raytracing in Kombination mit HDR blendend helle Szenen erzeugt, dann kann einen das rausreißen thematisch und vorgebackenes Licht hat solche Immersionsproblemchen nicht.
      Positiv ist aber schon der overdrive modus in Cyberpunk. Meine Fresse, sieht das gut aus. Und auch mit ner 3090 kannst man das auf 60fps 1080p mit DLSS2 Quality und alle settings ultra spielen und das is dann schon nett. Da verzichte ich dann gern auf 4k.
      Aber das isses halt. Raytracing steckt trotz allem noch in vielen Spielen, was die Implementation angeht, in den Kinderschuhen. Das kann sich in ein paar Jahren ändern, aber bis dahin wirst du mit der 6700xt eben auch nich unglücklich sein.

    • @dartharagon9129
      @dartharagon9129 Рік тому

      Also ich bitte dich, ja für den Preis hätten es 14 oder 16 sein müssen, aber "lächerlich" ist was ganz anderes, bis vor 6 Monaten hatte die zweit teuerste GPU die man kaufen konnte noch 10GB, es ist jetzt nicht so als ob die 12GB im Moment nicht für alle Spiele auf dem Markt ausreichen würden, in ein oder zwei Jahren kann es halt sein, dass man Statt ultra texturen auf "hoch" stellen muss.

    • @paulszki
      @paulszki Рік тому

      @@dartharagon9129 "...bis vor 6 Monaten hatte die zweit teuerste GPU die man kaufen konnte noch 10GB"
      Kannst du das nochmal irgendwie erläutern? Meinst du jetzt die 3080 10GB version? Die gab es auch schon mit 12GB. Und darüber war noch die 3080ti, die 3090 und die 3090ti. Und alle AMD Karten ab RX 6800 hatten 16GB. Die höchste Intel GPU hat auch 16GB.
      Die meisten davon sind doch jetzt schon seit etwa zwei Jahren auf dem Markt.
      Das ist doch jetzt komplett keine Überraschende Wendung oder irgendeine Hysterie sondern FAKT. Ich weiß doch genau, wie ich zum Black Friday im November schon, als ich mit nen PC zusammengestellt hatte, mir schon gesagt habe "auf keinen fall Nvidea wegen zu niedrigem VRAM" und bin dann aber ironischerweise bei ner 3090 gelandet, weil es da ein gutes angebot gebraucht und mit gewährleistung gab und die halt die 24GB VRAM hat. Ansonsten hätte ich mir tausendprozentig ne RX6800 oder höher geholt, allein wegen VRAM.
      Und es gibt doch jetzt schon Spiele, zwar vereinzelt, aber eben vorhanden. Last of Us Part I kann 14GB VRAM fressen auf höchsten Einstellungen. SOLL ES BITTE AUCH, wenn das zu schönerer Optik führt und es gibt ja schließlich Karten, die 16GB oder mehr VRAM haben. Dafür ist er ja da, dass er benutzt wird. Ich hol mir ja auch keine 8-Kern CPU und mosere dann rum, wenn eine Software alle 8 Kerne verwendet oder meinen RAM von 32GB ausreizt.
      Und gerade features wie Raytracing und Framegeneration verbrauchen wohl auch nochmal extra VRAM. Es ist dann schon irgendwie lächerlich, wenn ausgerechnet die NVidea-Karten, die mit eben diesen Featuren glänzen wollen, zu wenig VRAM mitspendiert bekommen. Gibt es genug videos dazu. Aber ein Beispiel ist das video zum Thema von Hardware Unboxed, wo die 3080 10GB, welche eigentlich bei Raytracing BESSER sein sollte als eine RX6800 aber vielen Spielen auf hohen Settings mit Raytracing inzwischen langsamer ist, weil der VRAM zu begrenzt ist und die RX6800, welche eigentlich weniger stark im Raytracing ist, dann an der 3080 vorbeizieht und dabei 100-200€ weniger kostet.
      Es gibt Leute, die haben letztes Jahr noch RICHTIG Kohle für eine 3080 gezahlt und die können jetzt schon bei Hogwarts Legacy Raytracing auslassen und/oder Auflösung runterstellen bzw. Texturqualität auf Mittel oder was stellen, weil es sonst ruckelt oder die Texturen nicht mehr richtig laden. Das ist ein schlechter Witz, dass sich unerfahrene Kunden auf Nvidea verlassen, 800€ oder was für die "FLAGSHIP"-Karte ausm Kreuz leiern und nen halbes Jahr später können sie Hogwarts Legacy oder Last of Us nicht mehr auf max settings spielen?
      Sorry, aber das ist jetzt keine neue Entwicklung und alle, die ein bissel aufgepasst haben, haben das kommen sehen.

  • @joeblackisback1
    @joeblackisback1 Рік тому +5

    Ich kenne das Problem mit der Effizienz der RX 7900 XT auch zu gut. Bei mir ist der Stromverbrauch bei UHD und 100 Hz bei 82 Watt bei YT schauen oder Office arbeiten. Bei 120 Hz UHD ist der Verbrauch bei 52 Watt. Ist schon sehr merkwürdig und ärgerlich.

  • @Felix804
    @Felix804 Рік тому +4

    Heute habe ich die Radeon rx 7900xt sapphire pulse für 800 Euro geschossen. Ich denke mal das war ein gutes Angebot. Freue mich schon richtig 😍 rüsten von einer Radeon RX 580 auf

    • @Wookii1080p
      @Wookii1080p Рік тому +2

      Willkommen im Club bro. 😊 Hab die bei Alternate gekauft, bin auch schon richtig gespannt. Ist meine erste AMD seit 15 Jahren ausschließlich Nvidia. Mach mir aber sorgen über den Stromverbrauch. 😅 Was zockst du so und wie sind deine Gedanken zu "unseren" Grakas?

    • @Felix804
      @Felix804 Рік тому +2

      @@Wookii1080p mach mir über den Stromverbrauch null sorgen. Amd gpus profitieren oft vom undeclocken bzw. Undervolten. Habe schon Videos gesehen wo man bei fast gleicher Performance 30 bis 50 Watt sparen kann. Zocken tu ich immoment nur wow werde aber mal dann wieder no man sky spielen endlich ohne ruckeln und wahrscheinlich in escape from tarkov wieder reinschauen. Da wir ja zu unserer gpu the last of us part 1 bekommen werde ich das definitiv auch spielen. Ich mache mir eher sorgen um mein portmonee da ich einen neuen Bildschirm brauche um das volle potenzial auszuschöpfen :D

    • @Wookii1080p
      @Wookii1080p Рік тому +2

      @@Felix804 Haha geht mir tatsächlich genauso, ich besitze 2 27" Zoll WQHD 144hz IPS Monitore von LG UltraGear und will nun auch Upgraden. Am liebsten auf 4k 144hz, da kosten aber passende Modelle 500/600 aufwärts. 😅 Werde also meine auf ebay verkaufen und das Geld reinvestieren. Undervolting ist ein guter Tipp, dank sehr. 😊 Igorslab hat einen guten und ausführlichen Test unserer Graka gemacht, falls es dich interessiert.
      Hast du einen Monitor schon in der näheren Auswahl? Ach und ich spiel hauptsächlich battlefield 5/2042/mw2 etc. Und story games.

    • @Felix804
      @Felix804 Рік тому +2

      @@Wookii1080p überlege auch um es mit arbeiten zu kombinieren den Samsung odysse neo G9 zu nehmen, kostet aber halt 1500 Euro... Ich denke ich bleibe bei wqhd das würde denke ich reichen. Aber naja, habe gerade nur full HD 75 hertz. Alles ist besser :D

    • @Wookii1080p
      @Wookii1080p Рік тому +1

      @@Felix804 1500€ für einen Monitor find ich persönlich zu Overkill. :D Glaub mir, wenn du von fullhd kommst, werden 144hz WQHD eine wahre Erleuchtung für dich sein. Ist tatsächlich in pc-gaming der Sweetspot. WQHD/high refresh und das Bild ist dabei crisp. Ich kann nicht mehr zurück auf FullHD, weil es einfach matschig ist, vor allem ab 27"+. Man sieht den Unterschied ganz klar.
      Meine LG's haben neu um die 300€ gekostet, besitzen die volle gaming Ausstattung (Fressync Premium/Nvidia G-sync kompatibel, 144hz, 1ms, IPS, gutes Panel ohne BLB) und starke Verarbeitungsqualiät/Optik. Also du musst echt nicht 1500€ ausgeben. 😊
      4k 144hz Schein allerdings wirklich noch nische zu sein, da ist die Auswahl im Budgetbereich mega beschränkt und alle guten Geräte kosten ein kleines Vermögen. :(

  • @DarKOscillator08
    @DarKOscillator08 Рік тому +4

    Ich sitze wirklich sehr viel am PC und die meiste Zeit bin ich auf dem Desktop unterwegs. Sprich: der Verbrauch spielt schon eine Rolle....ich hätte gerne eine Karte dazwischen. Ram und Leistung der AMD und Verbrauch der Nvidia. Es ist keine einfache Entscheidung :(

    • @Hurensohnologe0711
      @Hurensohnologe0711 Рік тому

      Dann eventuell eine 6900XT von Kleinanzeigen. Zwar nicht die Leistung der 7900XT, dafür aber für um 500€ zu haben.

  • @target8970
    @target8970 Рік тому +3

    Einfach alles nur Krank rechnet mal die Preise in DM um 900 Euro ca. 1800 DM und dass für eine Grafikkarte

    • @garog8584
      @garog8584 Рік тому +3

      oder gleich in Reichsmark...
      was bringt dir das Umrechnen? Zahlst du etwa noch in DM und bekommst dein Gehalt/Rente in DM?

  • @herrlehmann2101
    @herrlehmann2101 Рік тому +3

    das mit dem Idle-Verbrauch bei AMD ist doch schon jahrelang ein Thema und bisher wurde da nix gemacht oder??

  • @Nost2682
    @Nost2682 Рік тому +1

    Benutzerdefinierte Auflösung bei Timing standard: CVT-verringerte Austastung einstellen.
    Bei meinem 1080p 144Hz Monitor habe ich dann im Idle 10W bei meiner 5700XT, bei dem UWQHD gehen nur 100Hz, die 144Hz will er nicht, sind bei 100Hz dann aber auch 10W.
    Ohne bin ich im Idle bei 30W. Laut Messgerät an der Steckdose werden dann 40W weniger im Idle gezogen.

  • @renek.9734
    @renek.9734 Рік тому +3

    hab seit gestern die 7900xtx, und diese Wattwerte erreiche ich nicht zwei Bildschirme einer auf 60 FullHD der zweite Wqhd 165hz und bin bei knapp 50 Watt. Gut ist ein wenig hoch, aber nicht so wie hier dargestellt, vielleicht hatte ich aber auch nur Glück.

    • @I3loodyTV
      @I3loodyTV Рік тому +2

      ja interessant aber wurde ja gesagt betrifft nicht alle monitor setups
      gerade geschaut bei meiner 2070 sind es 40w, gerne mal gesehen ob es bei 2x 144hz monitore noch unterschiede gibt

  • @ollescholle2498
    @ollescholle2498 Рік тому +1

    Vielen Dank für das ausführliche Video. Da ich ein großer Raytracing Fan bin habe ich in meinen neuen Rechner gepackt: 7800x3d, 32 GB 6000 Ram, RTX 4070ti. Wenn der Rechner hoffentlich dieses Wochenende eintrudelt bin ich gespannt auf den Unterschied zu meinem alten 9900k mit rtx 3080 12 GB und 32 Gb 3000 Ram.

    • @FVRtv
      @FVRtv Рік тому +1

      Und bist du zufrieden mit der 4070 ti?

    • @ollescholle2498
      @ollescholle2498 Рік тому +1

      @@FVRtv Jau! Firestreik 20845 Punkte. 97% besser als der Rest.

  • @Meuchlor
    @Meuchlor Рік тому +1

    Ich Verbrauche gerade bei YT single monitor mit uwqhd 85 Watt. Ohne YT sind es 45 Watt.

  • @klutschewski
    @klutschewski Рік тому +2

    Top gemacht Jungs

  • @AyCara
    @AyCara Рік тому +2

    80 Watt nur für die Grafikkarte im Idle bzw. 60 Watt mehr als Nvidia muss man aber auch erstmal kühlen und abführen. Gerade im Sommer macht das einen Unterschied. Für einen Desktop PC der viel läuft ist es zudem wirklich ein Kostenfaktor. Der 4000er Serie überzeugt mich deutlich mehr, abgesehen vom RAM.

  • @robertp.6036
    @robertp.6036 Рік тому +1

    Einfach keine aus der Generation. Mein Rechner läuft sehr oft im idle und muss wenig Strom verbrauchen - keine AMD also, da ich auch mit 144Hz spiele.
    Und alles bis RTX 4080 hat einfach zu wenig Speicher. Selbst meine 1080ti hatte 11 GB undnDAVOR meine R9 390 8GB. Das ist 10 Jahre her und jetzt werde ich mit 12 GB in der 4070ti abgespeist. Das ist ein reiner Witz.
    Wenn Nvidia eine 4070ti mit 16 oder 20 GB auflegt können wir drüber reden.
    L

  • @fiver2k820
    @fiver2k820 Рік тому +8

    Hab mir die 7900 XT geholt. Sorgenfrei in die Zukunft. RT interessiert mich nicht. Dennoch finde ich auf WQHD die RT Perf. echt ok.

    • @zernicht9r286
      @zernicht9r286 Рік тому

      gestern ne 7900xt bestellt hatte bis dato ne rtx2070 werde die 7900xt denke ich in 4 jahren tauschen spiele in wqhd

  • @Hugo_Prolovski
    @Hugo_Prolovski Рік тому +2

    AMD liefert mittlerweile echt gut ab und ist nicht so konsumenten und open Source feindlich. desswegen stellt sich die frage für mich nicht wirklich. Habe die 7900xt mal für 850 bekommen und könnte nicht zufriedener sein

  • @TheTaurus104
    @TheTaurus104 Рік тому +2

    @PC Games Hardware Zum Problem des Idle Power Draw hat der YTer Ancient Gamplays ein neues Video veröffentlicht, mit einem neuen Workaround via dem Adrenalin Treiber und dort der Option "Benutzerdefinierte Auflösung". Den Workaround kann man auch bei Multimonitor Setups anwenden. Bei zwei Systemen mit 3 Monitoren bei, 1x 6750XT und 1x 7900XTX ist der Idle Powerdraw um 30-40W gesunken. Eventuell könnt ihr euch das ja auch mal anschauen.

  • @friedhelmfeuerstein9111
    @friedhelmfeuerstein9111 Рік тому +2

    Tipp: Die Clark Kent Brille à la Henry Cavill 😎

  • @michaelschrader1241
    @michaelschrader1241 Рік тому +11

    Habe die 7900 XT vor kurzem für 850 Euro im Referenzdesign gekauft und möchte sie eigentlich gerne lieben, denn die Leistung spricht für sich. Aber die Treiber sind aktuell echt unterirdisch. Mit viel Fummelei habe ich das Leistungsaufnahmenproblem einigermaßen in den Griff bekommen, bin jetzt mit einmal UWQHD mit 165 Hz und einem WQHD mit 60 Hz bei 28 W in idle. Stelle ich den zweiten Monitor auch auf 165 Hz bin ich auch bei den genannten 79 W. Auch beim An- und Abschalten des Zweitmonitors (den ich aus Energiespargründen nur anmache, wenn ich ihn brauche) kommt es regelmäßig zu Treiberabstürzen. Wenn ich zwei Tabs mit separaten Videos (z.B. zwei Streams auf Twitch) auf meinem Hauptmonitor öffne, kommt es zu fiesem Flimmern/Bildstörungen auf dem Monitor. Kurzum: Die Softskills der AMD-Karte in puncto Treiber sind für den Preis eine Unverschämtheit. Das kennt man von Nvidia-Karten so nicht. Aber dafür sind bei Nvidia die Preise/RAM-Konfigurationen grundsätzlich doof. Mein persönliches Fazit: High-End rentiert sich im Moment überhaupt nicht. Die Preise werden höher (schlimmer bei Nvidia) und die Umsetzung gleichzeitig tendenziell schlampiger (schlimmer bei AMD). Ich halte mit meinem AM4-System und der komischen 7900 XT jetzt die Füße still, bis und sich die Anbieter mal wieder eingekriegt haben. Falls das irgendwann mal der Fall sein sollte. Hoffentlich schreibt Intel da eifrig mit, was die Kollegen so alles verk***** im Moment.

    • @paulovictor481
      @paulovictor481 Рік тому

      Realmente 7900 xt está tendo problemas com drivers ainda?

    • @Hugo_Prolovski
      @Hugo_Prolovski Рік тому +1

      hab sie auch für 850 zur selben zeit gekauft und hatte nie irgendwelche probleme. allgemein bin ich mit amd treibern seit der 6700 immer zufrieden gewesen

  • @LTZMicha
    @LTZMicha Рік тому +1

    Schon klar, dass die neuen AMD Treiben den IDLE/Desktop Verbrauch wesentlich senken?! Me. geht es gar nicht, darauf nicht hinzuweisen.
    "Nur um es mal klar zu stellen" mit aktuellem Treiber und 144 Hz im Dual WQHD Betrieb braucht die AMD 7900XT 41 Watt. Immer noch viel, aber wesentlich niedriger als die Daten aus dem Video!

  • @Luuniixo
    @Luuniixo Рік тому +2

    Ganz wichtig wenn man kein mathe machen will immer prozentpunkte sagen problem gelöst!

  • @cykr0
    @cykr0 Рік тому +2

    gibt es da ein kleines Update aufgrund der neuen Treiber?

  • @HuebietheGuru
    @HuebietheGuru Рік тому +2

    Ich hab den Fehler gefunden: Vulcan statt Vulkan. 😅

  • @warlord_net
    @warlord_net Рік тому +1

    Manu ich würde eher die radeon nehmen da sie mehr speicher hat und zukunftsicher ist als die geforce die zwar sparsamer ist aber deutlich weniger speicher dafür hat

  • @wizzardrincewind9458
    @wizzardrincewind9458 Рік тому +1

    Das is nicht Raff. Der sieht ihm nur ähnlich.
    Was ist, wenn ich ne Ryzen APU mit ner Radeon kombiniere? Spiele, die es nötig haben, mit der Radeon und der Rest (Internet und Co.) mit der APU.

  • @andreasck1758
    @andreasck1758 10 місяців тому +1

    Ich bereue mittlerweile dass ich mich für die rx 7900xt entschieden habe.Seit dem das Teil bei mir im Rechner ist macht sie nur Probleme.Nach fast jedem "Kaltstart",also wenn der Rechner mal eine zeitlang komplett aus war,habe ich entweder einen schwarzen Bildschirm oder die Karte wurde im Gerätemanager deaktiviert weil sie Probleme gemeldet hat.Nach einem Neustart läuft dann seltsamerweise alles ganz normal bis zum nächsten "Kaltstart".Alle Versuche den Fehler zu beheben scheiterten bisher.Bios Update gemacht,neues Windows aufgespielt,sämtliche Treiber auf neuesten Stand gebracht,sämtliche Verbindungen im Rechner gecheckt,alle erdenklichen Software Konstellationen ausprobiert (mit AMD Software,ohne Amd Software,mit MSI Afterburner,ohne MSI Afterburner)...,nichts hat bisher geholfen.

  • @hombre-lusitano3414
    @hombre-lusitano3414 3 дні тому

    Oder oder man looked mal zu der aktuellen Preislage. Eine Radeon RX 7900 XT gibt's schon ab 739 €. Und mit dem end of Sommer Special von ASUS gibt's nochmal 100 € Nachlass. Also geht diese Karte für 639 € über den Ladentisch.
    Aber Vorsicht ist geboten. Den dieses Angebot ist nur bis zum 10.10.24 gültig.
    Man bekommt auch Nachlass bei Karten unterhalb der 7900 der Serie. Aber dort sind es keine 100 € mehr, sondern 70 50 und 40 €.
    Schnell sein, lohnt 😃👍 sich jetzt. Keine wartrei auf die nächsten Generation von AMD und NVIDIA.
    Die AMD Radeon RX 7900 XT ist der NVIDIA GeForce RTX 4070 Ti Super absolut ebenbürtig in Rasterizing. Ohne Raytracing features. Wer also eh keinen Wert darauf legt, etwas bessere und vieleicht realistischere Lichtstrahlen oder Schattierungen zu sehen, der ist bei Team Rot bestens aufgehoben 😁😜.
    Mit deren höheren VRAM, auch gleich sicher für die Zukunft ausgestattet sein.

  • @devilhanzo1
    @devilhanzo1 Рік тому +2

    wie wird sich fsr 3.0 auswirken, diese aussaugen das sich die fps verdoppeln etc, das ist immer so unglaubwürdig xD und wie wird das dann beim ray traycing mit amd karten aussehen

    • @froznfire9531
      @froznfire9531 Рік тому

      Ich tippe dass FSR 3 von der Performance ähnlich wie DLSS 3 sein wird, allerdings nicht ganz an die Optik rankommt.

  • @TechTalkTobi
    @TechTalkTobi День тому

    UWQHD ist das einzig wahre Format & Auflösung

  • @frankk1pro484
    @frankk1pro484 Рік тому +1

    Wiso nimmt man die 7900 XT zum Vergleich?
    Die differenz der beiden Karten lag zu der test Zeit bei 100 Euro,was die Nvidia mehr kostet.
    Wiso also nimmt man nicht eine 7900 xtx die zum gleichen zeitpunkt 100 euro mehr kostete als die 4070Ti.
    Weil Nvidia dann abgekackt hätte? Wiso werden die Tests immer zum vorteil von Nvidia gemacht?
    Auch aktuell liegt der Preisunterschied laut Geizhals bei 100 Euro zwischen der 4070ti und der 7900 XTX.
    In meinen Augen ist die 4070ti nicht den aufpreis wert zur 7900xt.Aber die 100 Euro mehr von der 4070ti zur 7900xtx sieht das schon ganz anders aus.

  • @vvGarrettvv
    @vvGarrettvv Рік тому +1

    Eigentlich gefällt mir keine davon. Und richtig gute Karten sind es auch nicht. Nicht für für den Preis. ~900 Flocken für ein Karte, die ineffezient und deren Treiber öfters mal rumzickt ist oder eine, von der ich im Mom. des Erwerbs schon weiß, daß ich mich in 3 Jahren schon wieder nach einer neuen umschauen muss, weil 12GB dann schon wieder nicht reichen. Nix. Da warte ich noch. Da wird schon noch was kommen, das passt. Hoffentlich.

  • @maiwson
    @maiwson Рік тому +6

    Die 7900XT ist übrigens regelmäßig für um die 800€ zu haben und hat erst neulich die 799€ geknackt.
    Also der Preisvorteil liegt in diesem Vergleich aktuell deutlich bei AMD.

    • @ericaschwame4811
      @ericaschwame4811 Рік тому

      Und wo das? Nicht bei mindfactory meines Wissens nach

    • @maiwson
      @maiwson Рік тому +5

      @@ericaschwame4811 alternate, die sapphire Pulse

    • @ericaschwame4811
      @ericaschwame4811 Рік тому

      @@maiwson Nice, danke!

    • @Wookii1080p
      @Wookii1080p Рік тому +2

      Hab die zu diesem Preis auch gestern gekauft. 799€ richtiger schnapper. 😅

  • @WalKomet
    @WalKomet Рік тому +6

    Bin selbst nutzer einer RTX 4070 Ti (MSI Ventus 3X 12G OC) ja es stimmt absolut, als Beispiel: Das Game Snow Runner besitzt weder FSR oder DLSS und ja es ist echt peinlich das meine 4070 Ti bei WQHD auf Ulra Details mit MSAA 8X nicht zu vergessen, maximal 90 bis 100 FPS stemmen kann, aber sie bricht sogar auf 52 FPS ein (und das an mehren Szenarien) und des mit so einer teuren Karte, da sieht man das man ohne DLSS 3 aufgeschmissen ist.

    • @Micha_Regelt
      @Micha_Regelt Рік тому +3

      Sry aber da liegt das Problem woanders... Selbst meine alte 3070ti hat Snowrunner in WQHD easy peasy gepackt und sich teilweise sogar gelangweilt. Ich bin niemals unter 60 FPS gefallen. Check mal deine Auslastung, im Leben nicht ist Snowrunner to much für ne 4070ti...
      Snowrunner ist sehr CPU lastig btw und profitiert enorm von Singlecore Leistung. Also ist hier Intel klar der Matchwinner. Eine 3080 z.b. wird niemals zu 100% ausgelastet in WQHD. Und die 4070ti ist dann doch um einiges schneller als ne 3080

    • @dartharagon9129
      @dartharagon9129 Рік тому +1

      CPU?

  • @yoshiiex_x4787
    @yoshiiex_x4787 Рік тому +1

    Da ich tatsächlich noch in FullHD zocke, da es noch keine guten WQHD-24 Zoll Monitore gibt...
    Ist das RT Thema bei AMD garnicht mal so relevant, den RT in Full HD packen auch die stärkeren AMD Karten sehr gut

  • @Holzpfad
    @Holzpfad 10 місяців тому

    Benutzerkonto der Tests: "Deine Mutter" 🤣👍
    Tolle Slides, danke für die Mühe.

  • @Jaffech0203
    @Jaffech0203 Рік тому +1

    Die Tuning Option bei AMD ist falsch erklärt.
    Man kann zwar nur den PL um 10% senken, wenn man den Takt aber senkt, kommt man beim Powerdraw weiter runter.
    Aber alles im allem habe ich mit Ada Lovelace die erste Geforce GPU seit der 560ti verbaut. Zuvor die 6900xt, dort konnte man mit dem MPT noch so schöne sachen anstellen. 500W fürn 3D mark durchjagen bei 1,3v? Kein Problem. VDCCI und MVDD soweit runter ausloten bis sich die VRAM Timings verringert haben und man damit genau an der Grenze der maximalen Effizienz operiert hat? Auch kein Problem. Powerstates manipulieren damit der Powerdraw runtergeht? kein Problem.
    Gerade letzteres wäre für RDNA3 sehr sinnvoll. Wieso auch immer AMD das MPT gesperrt hat - so könnten zumindest die erfahrenen Nutzer den Verbrauch in den Griff bekommen.
    Daher wurde es (leider?) nun eine 4090. Leistung satt, effizient, aber enorm teuer, da hätte ich eine 7900xtx mit MPT bevorzugt. Alleine aufgrund des coolen Bastelfaktors :D

    • @antispackftw2675
      @antispackftw2675 Рік тому

      Unter Volllast hast du halt immer die Obergrenze laufen, also ~275 Watt bei einer Standard-XT. Mit anderen Limits kommt man immer drunter.

  • @son-goku4712
    @son-goku4712 Рік тому +5

    Danke für diesen tollen Beitrag! 💚

    • @schwadrowskiinc.419
      @schwadrowskiinc.419 3 місяці тому

      Was ist daran toll? Weil die konfig unbekannt ist?? Upscaling, ja, Öhm nein, ab und zu !?

  • @mt_sara6691
    @mt_sara6691 Рік тому +1

    Leistungsaufnahme im idle ist AMD für mich der Killer. Bis zu dem Punkt in dem Video hatte mich die Karte eigentlich überzeugt aber da ich sehr viel auf Desktop unterwegs bin wqhd 144hz no go für mich

  • @platty7047
    @platty7047 Рік тому +6

    Hoffe AMD bringt mit der 8900 xt endlich Raytracing Cores auf ihr Karten den der VRAM ist schonmal top👍😉

    • @Artstye4you
      @Artstye4you Рік тому

      Soll keine high end Karten mehr geben von AMD habe ich gehört in Videos. :(

    • @platty7047
      @platty7047 Рік тому +1

      @@Artstye4you Schade die waren so knapp dran an den Nvidia Karten ohne Raytracing der VRAM ist schonmal Super 😉

  • @sneen
    @sneen Рік тому +3

    Na toll. Hat es mir jetzt nicht leichter gemacht 😂 Weiß immer noch net, welche ich mir holen soll 😏🙄

    • @PublicStaticV01D
      @PublicStaticV01D Рік тому +3

      Die 7900 XT. EZ

    • @FINNdeischgut
      @FINNdeischgut Рік тому +2

      Ich würde die 7900 XT nehmen wegen des Speichers und der stärkeren Rohleistung und des geringeren Preises.
      Wenn ich so viel Geld ausgebe, habe ich keine Lust in irgendeinem Spiel bald Speicherprobleme zu bekommen, auch wenn Nvidia insgesamt etwas weniger Speicher benötigt, die 20GB bei der 7900 XT bekommt man niemals voll in den nächsten Jahren.
      Wenn die Entscheidung zwischen der 4080 und RX 7900 XTX wäre, würde ich die 4080 nehmen, aber zwischen 4070 TI und RX 7900 XT auf jeden Fall die AMD.
      Auch wenn ich bei der 4070 TI von weniger Problemen mit Spulenfiepen gehört habe, aber das kann ich nicht verifizieren.

    • @Furzkampfbomber
      @Furzkampfbomber Рік тому

      @@FINNdeischgut Ich bin gerade auf der Suche nach einer passenden neuen Karte, habe massenweise Kundenbewertungen auf Mindfactory gelesen und es scheint nicht eine einzige AMD GPU dieser Reihe zu geben, die nicht mit massivem Spulenfiepen daherkommt, egal von welchem Hersteller. Scheint also ein Problem der GPUs allgemein zu sein und im Verbund mit dem hohen Energieverbrauch einer der Gründe, warum ich mir noch keine AMD GPU geholt habe.

  • @masterluckyluke
    @masterluckyluke Рік тому +1

    Naja, ich werde wohl erstmal die 7700 abwarten, und wenn die auch nur mit 12GB kommt oder nen zu hohen Verbrauch hat, dann hole ich mir ne 3060 mit 12GB, sobald die etwas günstiger ist. Wird bestimmt im Preis nochmal sinken, wenn die 4060ti rauskommt. Und dann warte ich die 50er von NVidia oder die Arc Battlemage von Intel ab, die dann hoffentlich mit 16GB ausgestattet sind.

  • @Zentheas
    @Zentheas 7 місяців тому +1

    Wurde der idle-stromverbrauch der radeon bisher durch triber verbessert oder besteht weiterhin der Stromverbrauch von biszu 80Watt? Lg

    • @TheBuzzlin
      @TheBuzzlin 7 місяців тому +1

      wurd verbessert

  • @schwadrowskiinc.419
    @schwadrowskiinc.419 3 місяці тому

    Upscaling, ja, nein,… „ kommt immer drauf an“… ernsthaft, dieser Test ist völliger blödsinn!!! Ihr wisst es selber nicht und somit kann ja auch der vorige Test ohne Raytracing gar nicht gewertet werden. 👎👎👎👎 Gamer, 44 Jahre alt.

  • @LukiVormann
    @LukiVormann 5 місяців тому

    Radeon 840€, Nvidia 700€ Stand 05.05.2024 wozu die AMD Karten kaufen? Ich meine wenn die Radeon 550€ - 600€ Kosten würde dann würde ich die kaufen aber bei dem Preis keine Chance... Keine Frage, beide Hersteller haben super Karten aber wenn es AMD verpennt die Preise anzugleichen, haben sie offenbar kein Interesse daran Karten zu verkaufen.

  • @Rocky712_
    @Rocky712_ Рік тому +1

    Ich habe mit meiner jetzigen RX580 mir eigentlich geschworen unbedingt zu wechseln, auch weil ich einige Anwendungen habe, die besonders gut unter Nvidia laufen und die AMD-Treiber und Software mich echt die letzten Jahre genervt hat. Die Software ist für mich bei Nvidia auch ehrlich gesagt interessanter und ausgereifter, aber die 12gb VRAM sind natürlich sehr frech von Nvidia. Wenn ich bedenke, dass ich diese Karte schon 5 Jahre lang benutzen will, ist es schwer sich hier zu entscheiden...im Ende hat man die Wahl zwischen Pest und Cholera.

    • @tomekm8549
      @tomekm8549 Рік тому

      Habe genau dasselbe Problem

    • @fabianhwnd6265
      @fabianhwnd6265 Рік тому

      ja wenn man sich jz eine kauft mit 12 vram und die 4 bis 5 jahre nutzen will aber in b.z 2 jahren der vram nicht mehr ausreicht ist halt frech und ärgerlich ich überlege auch schon zu wechseln aktuell habe ich eine 3070

    • @tomekm8549
      @tomekm8549 Рік тому +1

      Ich habe mich in den 4 Wochen seit dem Post für eine merc 310 7900 xtx entschieden und n 7800x3d
      Bin suuuuper zufrieden
      Auch alles wegen „zukunftssicher“

  • @ndero1132
    @ndero1132 9 місяців тому

    Ich hab die 3070RTX und seit kurzem bin ich von FHD auf WQHD, ich kann Warzone in WQHD alle einstellung auf niedrig 100-150Fps aber ich wünsche mir schon das ich immer bei Min. 160Fps bleibe da mein Monitor 180Fps kann ich denke ich soll mir eher die 7900Xt kaufen da sie besser für COD ist.

  • @fuNamenAuswaehlen
    @fuNamenAuswaehlen 8 місяців тому

    Bei den Verbrauchswerten würde ich doch lieber ein externes Messgerät bevorzugen.
    Wtf ... im Desktopbetrieb so viel Leistung? Da muss doch "nichts" berechnet werden.
    Je nach Spiel könnte man auch die FPS auf 60 festlegen? Ist das so störend, wenn man "nur" 60 fps anstatt 100+ hat?

  • @Pentenfi
    @Pentenfi 6 місяців тому

    Die Geforce Karte ist für ordentliches Raytracing m.E. noch zu lahm und daher gewinnt hier für mich klar die AMD Karte.
    Vermutlich wird Raytracing was für die nächsten Grafikkartengenerationen in der Mittelklasse.

  • @db-dw9hw
    @db-dw9hw Рік тому +1

    18:00 meine 4070 brauch mit 2x 27" 1440p 155-165hz, bei idle und youtube im Schnitt knapp 25w ^^

  • @michaelt3439
    @michaelt3439 8 місяців тому

    Mein neuer PC wird eine 7900xt haben
    Die Performance und Verbrauch wurde letztes Jahr schon deutlich verbessert und dießes ja kommt nun ein Update was Raytracing massiv verbessern sollte

  • @Matti728
    @Matti728 Рік тому +2

    sehr schönes Fazit. Da ich in 4K 60fps zock, lächelt mich die 7900XT zur Zeit an. Aber da mein Rechner auch den halben Tag an ist, bin ich wegen der Effizienz zwiegespalten. Hab zwar ne 3080, die mit 60% PT läuft, aber eben mit nur 10Gig VRam.. Da ich zwar die Regler bedienen kann, mag das aktuell noch reichen, aber wie sieht das nächstes Jahr usw. aus?

    • @mikeanderson1660
      @mikeanderson1660 Рік тому +1

      Dann würde ich mir erst nächste Jahr nach einer Neuen umsehen...falls überhaupt nötig.

    • @SM-ny8yr
      @SM-ny8yr Рік тому

      Das siehst du dann nächstes Jahr, keiner hat eine funktionierende Glaskugel...aber wenn man sein Gehirn ein bißchen anstrengt/benutzt und Spiele immer mehr Grafikpower benötigen, kann man seinen Schluss daraus ziehen ;)

  • @Wookii1080p
    @Wookii1080p Рік тому +2

    Hab grade bei alternate für 799€ eine RX7900XT geschossen von Sapphire. In meinen Augen ein guter Preis. Bin nun nach 15 Jahren nvidia zu AMD gewechselt und werde die Graka auf Herz und Nieren testen. Ob ich sie behalte, wird sich in den nächsten 2 Wochen zeigen. Bin gespannt und skeptisch. 😅

    • @FVRtv
      @FVRtv Рік тому +1

      wie findest du sie bisher?

    • @Hurensohnologe0711
      @Hurensohnologe0711 Рік тому

      Und, bist zufrieden? Warte auf ein Angebot unter 700€

    • @Hugo_Prolovski
      @Hugo_Prolovski Рік тому

      bin mit der 6700xt auf amd gewechselt und dann auf 7900xt und bin extrem zufrieden. wie siehts bei dir jetzt zwei Monate später aus ?

  • @ericaschwame4811
    @ericaschwame4811 Рік тому +1

    Wenn man in die P/L tabelle schaut dann könnte die 6950xt noch eine Alternative sein? Aber ich glube die hat auch Stromhunger?

  • @cogitator1213
    @cogitator1213 Рік тому +6

    Mich würden sehr die Produktionskosten und der Gewinn pro Karte interessieren.
    Oder in anderen Worten: Ist dies wirklich das beste, was AMD und Nvidia für diesen Preis produzieren können?

    • @dasmcc8879
      @dasmcc8879 Рік тому +1

      Es gibt aktuelle Zahlen von AMD. Deren Marge liegt bei 22 % auf den Gaming Karten

    • @cogitator1213
      @cogitator1213 Рік тому +1

      @@dasmcc8879 interessant, danke. Das ist ja wirklich nicht besonders viel.

    • @MakeMyDay366
      @MakeMyDay366 Рік тому

      Ne Marge von 22 Prozent im PC-Hardware Bereich ist ne Ansage. Aber, da es nur 2 grosse Anbieter gibt, ja, dafür ist es zu wenig.

    • @dasmcc8879
      @dasmcc8879 Рік тому

      @@MakeMyDay366 ich würde jetzt vermuten das die Marge bei Nvidia höher ist da diese mehr von Skalen Effekten profitieren können als AMD

    • @richard--s
      @richard--s Рік тому +2

      Die Firmen wollen nur unser Bestes: Unser Geld.
      ... Und zwar möglichst viel Geld für möglichst wenig Gegenleistung. Wer den kleinsten Schritt für die nächste Hardware-Generation macht, den Preis anhebt und auch noch genug Käufer dafür findet, der gewinnt.
      Das gilt auch für Autos. Auch da drehen die jeweiligen Hersteller komplett am "Rad"...
      Am besten abwarten bis die sich beruhigt haben und reumütig wieder sinnvolle Preise verlangen, damit überhaupt noch jemand etwas kauft.

  • @MagicMikeiy
    @MagicMikeiy Рік тому +1

    „frame generation ist auch mal ganz nett“ ??? bro das sorgt für so so eine fette fps steigerung, wieso redet man sowas so klein 💀

    • @antispackftw2675
      @antispackftw2675 Рік тому +1

      Weils das nicht in jedem Spiel gibt.

    • @dartharagon9129
      @dartharagon9129 Рік тому

      ​@@antispackftw2675 Ja obviously, das gibt's ja auch erst seit 6 Monaten, z.B. Hogwarts Legacy wird damit aber teils erst überhaupt spielbar weil es so erbärmlich optimiert ist.

  • @Captain_Rudi
    @Captain_Rudi Рік тому +7

    Ich mag den Stil wie ihr das mit dem Entertainment hinbekommt...immer wieder zum Schmunzeln 😅.
    Bin gerade bei dem Chart mit der grauen und orangenen Farbe...😊 Die Begründung ist vollkommen logisch.😂
    Ich bin übrigens einer der verpöhnten FullHD User...😜

  • @RaphaelCP_YT
    @RaphaelCP_YT Рік тому

    Wrm ist bei den spiele kein minecraft dabei? Ich meine es istdas erfolgreichste spiel der welt

  • @ImplantedMemories
    @ImplantedMemories 3 місяці тому

    wie immer: PLV ist bei AMD einfach besser. Treiber führt Nvidia.

  • @PublicStaticV01D
    @PublicStaticV01D Рік тому +3

    Verstehe den use-case der 4070ti nicht. Im Rasterising stinkt sie gegen die günstigere 7900XT ab. Und im Raytracing taugt sie mangels VRAM nix. Dann kannste die Hälfte der Spiele mit 30fps zocken. Na herzlichen Glückwunsch. Oder man stellt die Auflösung/Details runter. Aber dann brauch ich auch kein RT mehr..Was für eine Kackkarte..

  • @jvfx32
    @jvfx32 4 місяці тому

    das problem mit dlss und fsr sollte ich trotzdem eine 7900xt holen?

  • @Serandi1987
    @Serandi1987 Рік тому +1

    RTX 4090 geholt und hab meine Ruhe!

  • @Speedsrun
    @Speedsrun Рік тому +2

    in fünf jahren kommt dann " Duell unter 9000 € "

    • @Furzkampfbomber
      @Furzkampfbomber Рік тому

      Wenn die Inflation so weiter läuft, wird das dann sogar als preiswert gelten.

  • @GamerJuli85
    @GamerJuli85 Рік тому +2

    Wechselt die Folien doch nicht so hektisch schnell hin und her😂 chillt...trotzdem Top Video

    • @mavi4453
      @mavi4453 Рік тому

      Wieso machst du das Video nicht einfach auf Pause ? 😉

    • @GamerJuli85
      @GamerJuli85 Рік тому

      @@mavi4453 naja hast doch selber vlt gesehen dass manche Folien hin und her innerhalb Sekunden übersprungen wurden. Man kann ja die Folien weglassen wenn man die nicht länger als halbe Minute oder so zeigt.

    • @mavi4453
      @mavi4453 Рік тому

      @@GamerJuli85 darum mach ich das Video auf Pause wenn es mich entsprechend interessiert 😉

    • @GamerJuli85
      @GamerJuli85 Рік тому

      @@mavi4453 achso du hast dir das Video nicht angeschaut. Verstehe. Dann kannst nicht darüber schreiben.

  • @alexanderc.7917
    @alexanderc.7917 Рік тому +1

    Eher GeForce. Für mich entscheidet in dem fall wäre die Leistungsaufnahme.

  • @KlausiOnAir
    @KlausiOnAir Рік тому +1

    Nvidia! Ganz klar!

  • @mathiasriethig9523
    @mathiasriethig9523 Рік тому +1

    Toller Test von euch! Bin gerade am Planen des Umstiegs auf PCIe 5 mit einem Ryzen 7 X3D. Wann kommen denn die Grafikkarten? Aktuell habe ich eine Radeon 5700 XT Nitro+ und möchte da auch nachlegen. Danke für eine kurze Antwort und macht weiter so!

  • @Ranock
    @Ranock Рік тому +1

    Einfach die 4070 ohne Ti kaufen.

  • @TheTurboSeba
    @TheTurboSeba 10 місяців тому

    Eine Grafikkarte in diesen Segment sollte bei 350€ bis 550€ liegen das wäre angemessen, diese übertriebenen Preise unterstütze ich einfach nicht egal welche Hersteller. Es müssten mehr Leute geben die es einfach nicht kaufen. Keine Nachfrage keine hohen Preise, nur so wären die Grafikkarten günstiger, ist meine Meinung.

  • @andre.mondri
    @andre.mondri Рік тому +11

    Oder man schnappt sich für 650€ ne 6950XT von XFX im Abverkauf und spart über 200€ für nur 7% weniger Leistung.

    • @sb-lu9dd
      @sb-lu9dd 5 місяців тому

      Oder man wartet noch und kauft eine 7900 xt für 720 Euro 😁 so hab ich es vor 2 Wochen gemacht

    • @Erzaaaaaaaaaaaaaaaa
      @Erzaaaaaaaaaaaaaaaa 3 місяці тому

      Lol 6950 ist leggit müll lol geht mehr um das %

    • @Erzaaaaaaaaaaaaaaaa
      @Erzaaaaaaaaaaaaaaaa 3 місяці тому

      766 kostet die rtx 7900 oc tuf und das ist ein Monster

  • @Raphael-pt7rx
    @Raphael-pt7rx Рік тому

    wieso nur 1 fehler? sind doch dutzede ;)

  • @LunkvanTrunk
    @LunkvanTrunk Рік тому

    Leider ist DLSS auch noch etwas besser als FSR beim hochsamplen, was natürlich subjektiv ist, aber hardware unboxed & Co sind jedenfalls der Meinung.

  • @ZachalZockt
    @ZachalZockt Рік тому

    Also die Mehrleistung der karten mit Minus unten anzugeben, ist übelster Brainfuck. Oder man hat die falschen Basiskarten angegeben.

  • @2704borg
    @2704borg Рік тому +1

    könnt ihr ein video machen wie man es mit der amd software macht untervolting das währe super und wie man in der software es richtig einstellt kenne mich damit nicht so gut aus in der software will da nicht meine karte schrotten ^^ habe lange gespart dafür

    • @SM-ny8yr
      @SM-ny8yr Рік тому

      Besuche doch erstmal den Deutsch Unterricht, um zu lernen, wie man ordentliche Sätze schreibt. Im Internet gibt es genug Anleitungen, wie man mit der AMD Software umgeht.

    • @2704borg
      @2704borg Рік тому +2

      @@SM-ny8yr dann gib dein gehirn hehr ich habe leider ein hirn Infarkt gehabt und das ist beschädigt dadurch erst mal denken warum manche nicht richtig mehr schreiben können als zu beleidigen und zweitens bin ich über 46 können ja tauschen wenn du mal so leiden willst wie ich und von 0 anfangen willst

  • @Fabodroidgaming
    @Fabodroidgaming Рік тому

    Weckt mich wenn die zwischne 400-500€ zu kriegen sind.
    Ja, man kann in Monaco auch nen Cafe für 20€ trinken, ich bin nur nicht dumm genug das zu zahlen.
    Kostet er plötzlich überall 20€ komme ich auch ohne aus.

  • @fabianhwnd6265
    @fabianhwnd6265 Рік тому +1

    für leute wie mich die rt und dlss 3 egal ist dann ist die amd karte besser dran

  • @SChuckLP
    @SChuckLP Рік тому +1

    Wer mit der Grafikkarte arbeitet (Contentcreator, 3D Künstler etc.) greift eh zu einer RTX 4090. In dem Preisbereich der 4070 Ti und der Radeon 7900 XT stellt die Radeon aber klar das deutlich bessere Angebot dar, denn was nützt die etwas bessere Raytracing Leistung der 4070 Ti, wenn ihr in absehbarer Zeit einfach mal die Luft ausgeht, sprich, der Speicher vollläuft? Dann wird die 7900 XT klar dominieren, insbsondere in höheren Auflösungen, geringfügig bessere Raytracingleistung hin oder her. Jedem, der in dem Preisbereich eine Grafikkarte sucht, würde ich aktuell zur Radeon raten, gerade wenn man sich momenten die Trends mit Tendenz zum Garfikspeicherhunger ansieht. Falls es denn unbedingt eine Geforce sein muss, sollte man sich die 4070 einmal näher anschauen (Vorausgesetzt man rüstet von einer RTX 3070 abwärts auf.), die aktuell um die 600,-€ kostet und ebenfalls über 12 GB VRam verfügt. Sie ist aus Preisleistungssicht auf jeden Fall das rundere Angebot.

    • @Furzkampfbomber
      @Furzkampfbomber Рік тому

      Klare Argumente gegen die man nichts sagen kann, allerdings schrecken mich bei den AMD GPUs dann doch einige Dinge wieder richtig heftig ab. Alleine die Leistungsaufnahme ist assig - wenn dein Rechner so wie bei mir ständig läuft, weil er halt nicht nur zum Zocken genutzt wird, sondern auch für andere Hobbies oder als Kommunikationsmedium und TV- und Radioersatz, wird die in meinen Augen zum Problem.
      Hinzu kommen immer noch extrem instabile Treiber, ein anscheinend für AMD zur Designphilosophie gehörendes heftiges Spulenfiepen, oft sehr laute Lüfter und eine Größe die dafür sorgt, dass so manche dieser Monster schlichtweg nicht in mein Be Quiet! Pure Base 500 FX passen würden. All das in Kombination hat mich bislang jedenfalls davon abgehalten, mir eine AMD-Karte zu holen. Zumal mir 1440p völlig ausreichen und ich dafür lieber RT zur Verfügung habe.
      Andererseits sind mir die Preise für die 4070 Ti dann immer noch zu hoch, ich jedenfalls werde wohl noch eine Weile bei meiner 3060 Ti bleiben.

    • @SChuckLP
      @SChuckLP Рік тому +1

      ​@@Furzkampfbomber Gerade die größeren Nvidia (4000er) Karten sind wahre Backsteine, dagegen wirkt jede AMD Karte wie ein Klinker. Die Treiber stellen schon seit längerem bei AMD kein Problem mehr dar und laufen absolut rund. Das war vor langer Zeit mal ein Kritikpunkt und hält sich nur noch als Gerücht recht hartnäckig. Oftmals schafft es AMD noch das eine oder andere Quäntchen Leistung via Treiber aus den Karten zu quetchen, was ich damals mit meiner Radeon HD 5870 massiv gemerkt habe. Die von Dir erwähnte 4070 Ti ist langsamer, teurer und verfügt über satte 8 GB weniger Speicher. Was hier auch rein objektiv die bessere Karte ist, muss man nicht lange überlegen. Mit einer 3060 Ti fällt aber die Wahl momentan wirklich nicht sehr leicht, zumal insbesondere die Mittelklassekarten im Vergleich zur Oberklasse viel zu viel Leistung verlieren. Da nehmen sich leider beide Hersteller nicht viel und Intel Karten sind gerade einmal auf dem Leistungsniveau einer 3060 Ti im besten Fall. Andererseits sind 2 Jahre bis zur nächsten Generation auch ziemlich lang und der 3060 Ti wird einfach auf mittlere Sicht der Speicher ausgehen, obwohl die Karte an sich noch eine gute Leistung mitbringt.

    • @Furzkampfbomber
      @Furzkampfbomber Рік тому

      @@SChuckLP Naja, von den 7900ern gibt es jedenfalls mehr als ein Modell, welches definitiv nicht in mein Pure Base passt, ohne dass ich da einen Frontlüfter ausbauen müsste. Klar, das Gehäuse ist kein Bigtower, aber sooo klein ist es nun auch wieder nicht. Und selbst die 4090 passt da rein, wenn ich mir die Maße ansehe.
      Und was die Treiber angeht, gehen die Berichte schon weit auseinander. Ich habe da bei meiner Suche nach der passenden Karte mehr als einen Bericht gelesen, in dem sich ein Käufer über Abstürze, harte Freezes etc. beschwert. Allerdings macht dann wieder Adrenalin keinen schlechten Eindruck, gerade was das Feintuning betrifft, während nVidias Software immer schlechter wird. Schon, dass die fordern, einen Account anzulegen, nur um dann großzügigerweise die zum verkauften Produkt gehörende Software nutzen zu dürfen, halte ich für eine Frechheit.
      Aber ja, ich gebe dir auf jeden Fall Recht, was die Schwere der Entscheidung angeht. Mir ist nach acht Jahren mein alter Rechner mit dem treuen i6 6700k abgeraucht und da ich ein wenig zukunftssicher sein wollte, hab ich mir dann gleich den R7 7800X3D zugelegt. Fehlt dann halt nur die passende Karte dazu und da komme ich bei den derzeitigen Karten einfach nicht zu einer Entscheidung.
      Ja, ich bin durchaus Fan von Raytracing. Ja, der mehr als deutlich größere Speicher der AMD Karten ist dann auch wieder ein Argument. Aber dann schrecken mich bei AMD eben auch wieder der Energieverbrauch und Dinge wie das Spulenfiepen ab, welches man anscheinend einfach nicht in den Griff bekommt.
      An sich finde ich die 4070 Ti wirklich nicht schlecht, zumal mir 1440p im Moment wirklich ausreichen und ich dann eher Wert auf Framerates und hohe Details oder eben auch auf RT lege. Und wenn schon eine 7900 XT, dann kann es auch gleich eine XTX sein, gerade weil ich die Hardware dann doch gerne länger behalte - aber da schreckt dann auch schon wieder der Preis ab. Ist schon der Hammer, dass man für eine GPU mehr zahlt als für CPU und Bord zusammen und dann von beiden großen Anbietern nur Produkte bekommt, die sich auf die eine oder andere Weise irgendwie... falsch anfühlen.

    • @SChuckLP
      @SChuckLP Рік тому +1

      @@Furzkampfbomber Jepp, das ist momentan ein richtiges Dilemma! Da kann man nur hoffen, dass Intel weiterhin aus dem Knick kommt. Auf jeden Fall bleiben die am Ball und verbessern ihre Treiber stetig. Bin schon mal auf Battlemage gespannt. 3 nennenswerte Hersteller am Markt sind auf jeden Fall besser als 2.

    • @Furzkampfbomber
      @Furzkampfbomber Рік тому

      @@SChuckLP Die Arc Karten scheinen ja gerade beim Raytracing gar nicht mal so schlecht zu sein und anscheinend hat Intel recht intensiv an den Treibern gearbeitet.
      Momentan traue ich mich noch nicht so recht ran, aber ich werde Intel auf jeden Fall im Auge behalten. Konkurrenz belebt ja bekanntlichermaßen das Geschäft und es wäre keine schlechte Sache, wenn Intel den Markt hier ein wenig aufmischen würde, zumal ich den Eindruck habe, dass sich nVidia lieber auf das Geschäft mit der KI konzentrieren würde und gar keinen Bock mehr hat, richtige Gaming-GPUs zu verkaufen.

  • @GOPCH
    @GOPCH 10 місяців тому

    Mmmm ich habe eine rx 6700xt an einem 4k 120hz tv und habe 7-8 watt im Leerlauf
    Warum ist das dann bei großen Karten so viel mehr

  • @megaanton9605
    @megaanton9605 10 місяців тому

    hab zurzeit 9600k und gtx 1070 wäre für mich 7800xt mehr sinn machen als die 7900xt damit cpu nicht zum bootleneck wird? Ahja und ich zocke noch auf 60hz Monitor^^

  • @jackreacher6240
    @jackreacher6240 Рік тому

    0:44 "Wir leben in zeiten wo wir uns über dreistellige grafikkartenpreise fast schon freuen"
    Komische Wortwahl. Als gäbe es nur die oberen 10% auf dem markt
    Es gibt nur zwei karten , die ausschließlich für über 1000€ zu holen sind... Beide von Nvidia .
    Der interresannte Großteil tummelt sich eigentlich bei 400 bis 700 €

  • @JuSTFaM3eS
    @JuSTFaM3eS 10 місяців тому

    heyheyyy.. kurze Frage: wie ist es mit der Haltbarkeit von AMD Karten ? hatte damals schlechte Erfahrung mit meiner alten amd karte ( vor ca 7 Jahren ).
    Liebe Grüße :) @pcgh

  • @Jens-sl5je
    @Jens-sl5je 10 місяців тому

    Hab die 7900XT direkt zum Lauch gekauft damals noch für 1030€ und bis heute zufrieden

  • @claythomas69
    @claythomas69 Рік тому

    Ich schau so...und Raff mit Brille??? Willkommen im Club...habe seit der Grundschule ne Brille, endlich Durchblick! und btw: tolle Video von euch. LG Clay

  • @SilverxXCrown
    @SilverxXCrown 8 місяців тому

    ENDLICH hat auch mal jemand Graphen für UWQHD! Danke Raff, danke PCGH!

  • @tomekm8549
    @tomekm8549 Рік тому

    Mit der neuen AMD Adrenalin Version 23.8.1 wurde das IDle Power Problem wohl gefixxt. Kann das iwer bestätigen???

  • @carsten7836
    @carsten7836 Рік тому

    Ma ne frage, Hab nen Rysen 9 3700X, 32 GB Ram @3200 MHZ, und ne Rtx 3070. Macht es Sinn auf ne RTX 4070 zu upgraden?

    • @matzes2350
      @matzes2350 Рік тому +1

      nein, die ist keine 25% schneller. Hol dir lieber ne TI

  • @Hurricane2k8
    @Hurricane2k8 Рік тому

    >800€ und "halbwegs bezahlbar". Alles klar...

  • @Sigasa1
    @Sigasa1 Рік тому

    wir haben Inflation, dafür sind die Preise relativ angenehm.

  • @atandinator
    @atandinator Рік тому

    ist hier ein Stromberg Genotyp im Video erkennbar? 😜 "gewisse parallelen sind rein zufällig"