Das was ich als Verbraucher den größten Vorteil an der falschen Kommunikation zur Leistungsaufnahme sehe ist der Kühler. Auch wenn die Karten recht große Brummer sind , selbst die schwächeren Custom Modelle werden kühl und leise bleiben.
Es ist zwar schon lange her, aber ich schätze es ist sogar logisch das die Karte so daher kommt wie sie es tut. Igor hat dazu ein Video gemacht. Daher auch der riesige Lüfter. Sie haben halt mit Samsung 650Watt erwartet und konnten das auf 450 Watt drücken. Für Nvidia ist 450 daher schon 1/3 gespart
Die ganzen Faktoren, die mit einer geringeren Leistungsaufnahme mitaufkommen, wie beispielsweise, die geringere Lautstärke durch Lüfter, oder die langlebigkeit der Karte.. Es ist einfach unverständlich, wieso Nvidia die 4090 so rausgebracht hat. Nachtrag : oder die PCIE Stecker.. etc.
Mal schauen ob es Boardpartner Karten gibt die Sinnvolle Power Targets anbieten. Wäre ja cool wenn man mit kaum Leistungsverlust 1/3 an Strom sparen könnte, vielleicht auch das Selbe bei den folgenden 4070 und 4060 Karten.
undervolting funktioniert bei meiner 3080 auch nicht richtig. man kann die spannung zwar nach unten drücken aber der stromverbrauch und auch temperaturen bleiben ähnlich
@•°S:F:D:T°•khorne ws geht hier nicht um mich der weiß wie er das machen kann und auch macht. es geht um die die es nicht wissen. nichtmal mitbekommen oder leute wie dich denen das scheiß egal ist!
@thehateguardian "wi sind nicht mehr zu retten" dabei lebe ich noch und es geht mir gut. und die preise gehen hand in hand. sich über "zu teure" hardware beschweren aber denn strompreise relativieren. Das find ich schon lustig....
Hallo Monty . Danke für das Video. Heut zu Tage werden viele Fernsehern als GamingFernseher verkauft. Ich habe mir einen LG 55 Zoll Oled Fernseher gekauft. Die Games sehen bei der 4K Nativauflösung geil aus! aber sorry Der8uer ich muss sagen: Wenn DLSS aktiv ist, sehen die Spiele nicht aus wie Nativauflösung. Besonders auf Performans modus sieht das Spiel einfach scheise aus! Alle UA-camr lassen die Spiele wie gewohnt auf 27 Zoll oder 30 Zoll TNT Monitor laufen, die für 4K Auflösung zu klein ist und weit entfernt von der Bildqualität ist und sagen "Ich sehe überhaupt kein unterschied". Und seit RTX 4090 Ankündigung redet man nur über DLSS Performans modus! Ich verstehe es nicht.
Wer hätte es gedacht, jetzt können wir aber bald gespannt auf den 3. November blicken wenn AMD seine Boliden gegen die 4000er - Karten ins Rennen schickt. Eine effiziente Karte wie die RX 6800 gibt bei RDNA 3 hinsichtlich Effizienz doch sehr Hoffnung
und thema stromverbrauch: überlegt wo grafikkarten herkommen, überlegt wie es ausserhalb von europa ist. und vorallem ist deutschland eins der teuersten strom länder. in anderen ländern interessiert der stromverbrauch nicht.......
Auch in Deutschland hat es nicht interessiert, solange sich die Strompreise zwischen 20-25 cent die kwh gekostet hat. Aufgrund der "Energiekrise" haben manche Menschen jedoch jetzt Preise von bis zu 1€ pro kwh! DAS ist KRANK.
@•°S:F:D:T°•khorne meine aussage war das es in den meisten ländern egal ist für die konsumenten ob ein Gerät 300 oder 500 watt verbraucht, weil in vielen ländern die grundversorgung einfach spott billig ist. (zumindestens in ländern wo leute es sich leisten könnten sich sowas zu kaufen) in deutschland ist das nunmal anders. da war bevor der strompreis sich ver vierfacht hat schon im vergleich alles ziemlich teuer weshalb man auch vorher schon immer wieder auf den stromverbrauch negativ eingegangen ist. das ist kein trend. das hört man schon seit jahren das gemeckere das mehr leistung offt nur noch mit mehr stromverbrauch erzielt wird und das das immer teurer wird. und alle die sagen hier "die karte verbraucht doch weniger" ja: aber nur wenn man diese beschränkt, wenn man der einfach freilauf lassen würde, denn verbraucht bzw kan ndiem ehr verbrauchen. Redet euch doch nicht immer alles schön! Und ich habe meine PC Komponenten schon immer um 10-15% gedrosselt weil man auch vorher schon mit minimalen Leistungsverlust viel Strom sparen konnte, deutlich wenigre Thermale auswirkung hattte und der Umwelt damit ein klein wenig zugute kommen kann bei diesem maximal schädlichen Hobby! Und wer den Schuß immer noch nicht gehört hat was das Thema Umwelt angeht, der und dessen Kinder tun mir echt leit!
Endlich ein neues Video!
Das was ich als Verbraucher den größten Vorteil an der falschen Kommunikation zur Leistungsaufnahme sehe ist der Kühler.
Auch wenn die Karten recht große Brummer sind , selbst die schwächeren Custom Modelle werden kühl und leise bleiben.
Es ist zwar schon lange her, aber ich schätze es ist sogar logisch das die Karte so daher kommt wie sie es tut. Igor hat dazu ein Video gemacht. Daher auch der riesige Lüfter. Sie haben halt mit Samsung 650Watt erwartet und konnten das auf 450 Watt drücken. Für Nvidia ist 450 daher schon 1/3 gespart
Sehr guter Content!
Hab' dich heute Abonniert!
Die ganzen Faktoren, die mit einer geringeren Leistungsaufnahme mitaufkommen, wie beispielsweise, die geringere Lautstärke durch Lüfter, oder die langlebigkeit der Karte.. Es ist einfach unverständlich, wieso Nvidia die 4090 so rausgebracht hat.
Nachtrag : oder die PCIE Stecker.. etc.
Mal schauen ob es Boardpartner Karten gibt die Sinnvolle Power Targets anbieten. Wäre ja cool wenn man mit kaum Leistungsverlust 1/3 an Strom sparen könnte, vielleicht auch das Selbe bei den folgenden 4070 und 4060 Karten.
undervolting funktioniert bei meiner 3080 auch nicht richtig. man kann die spannung zwar nach unten drücken aber der stromverbrauch und auch temperaturen bleiben ähnlich
@•°S:F:D:T°•khorne ws geht hier nicht um mich der weiß wie er das machen kann und auch macht. es geht um die die es nicht wissen. nichtmal mitbekommen oder leute wie dich denen das scheiß egal ist!
@thehateguardian "wi sind nicht mehr zu retten" dabei lebe ich noch und es geht mir gut. und die preise gehen hand in hand. sich über "zu teure" hardware beschweren aber denn strompreise relativieren. Das find ich schon lustig....
Hallo Monty . Danke für das Video. Heut zu Tage werden viele Fernsehern als GamingFernseher verkauft. Ich habe mir einen LG 55 Zoll Oled Fernseher gekauft. Die Games sehen bei der 4K Nativauflösung geil aus! aber sorry Der8uer ich muss sagen: Wenn DLSS aktiv ist, sehen die Spiele nicht aus wie Nativauflösung. Besonders auf Performans modus sieht das Spiel einfach scheise aus! Alle UA-camr lassen die Spiele wie gewohnt auf 27 Zoll oder 30 Zoll TNT Monitor laufen, die für 4K Auflösung zu klein ist und weit entfernt von der Bildqualität ist und sagen "Ich sehe überhaupt kein unterschied". Und seit RTX 4090 Ankündigung redet man nur über DLSS Performans modus! Ich verstehe es nicht.
@•°S:F:D:T°•khorne ja. LG CX9
Wer hätte es gedacht, jetzt können wir aber bald gespannt auf den 3. November blicken wenn AMD seine Boliden gegen die 4000er - Karten ins Rennen schickt. Eine effiziente Karte wie die RX 6800 gibt bei RDNA 3 hinsichtlich Effizienz doch sehr Hoffnung
und thema stromverbrauch: überlegt wo grafikkarten herkommen, überlegt wie es ausserhalb von europa ist. und vorallem ist deutschland eins der teuersten strom länder. in anderen ländern interessiert der stromverbrauch nicht.......
Auch in Deutschland hat es nicht interessiert, solange sich die Strompreise zwischen 20-25 cent die kwh gekostet hat. Aufgrund der "Energiekrise" haben manche Menschen jedoch jetzt Preise von bis zu 1€ pro kwh! DAS ist KRANK.
In vielen Games verbraucht sie sogar weniger als die 3090.
@@ToMiBriX ja. aber meine aussage verteht man schon oder?
@•°S:F:D:T°•khorne meine aussage war das es in den meisten ländern egal ist für die konsumenten ob ein Gerät 300 oder 500 watt verbraucht, weil in vielen ländern die grundversorgung einfach spott billig ist. (zumindestens in ländern wo leute es sich leisten könnten sich sowas zu kaufen)
in deutschland ist das nunmal anders. da war bevor der strompreis sich ver vierfacht hat schon im vergleich alles ziemlich teuer weshalb man auch vorher schon immer wieder auf den stromverbrauch negativ eingegangen ist. das ist kein trend. das hört man schon seit jahren das gemeckere das mehr leistung offt nur noch mit mehr stromverbrauch erzielt wird und das das immer teurer wird.
und alle die sagen hier "die karte verbraucht doch weniger" ja: aber nur wenn man diese beschränkt, wenn man der einfach freilauf lassen würde, denn verbraucht bzw kan ndiem ehr verbrauchen.
Redet euch doch nicht immer alles schön!
Und ich habe meine PC Komponenten schon immer um 10-15% gedrosselt weil man auch vorher schon mit minimalen Leistungsverlust viel Strom sparen konnte, deutlich wenigre Thermale auswirkung hattte und der Umwelt damit ein klein wenig zugute kommen kann bei diesem maximal schädlichen Hobby!
Und wer den Schuß immer noch nicht gehört hat was das Thema Umwelt angeht, der und dessen Kinder tun mir echt leit!