Direkt nach AI bin ich froh, dass Roman wieder mal die fehlende Deback-LED moniert hat. Wie oft ist es mir schon passiert, dass ich das Mainboard zuweit gebacken habe, und die Deback-LED zeigt dann immer exakt an, wie weit man den Backvorgang wieder rückgängigen machen muss. Mit dieser Methode habe ich schon einige Backfehler rückgängig gemacht, also eben debacked.
Oh, die Nudeln gibts schon: Du kaufst "Shin Ramyun Nudelsuppe" von Nongshim, und nimmst das komplette silberne Tuetchen mit scharf, was dabei ist. Am naechsten Tag beim k*cken macht es "AI AI AI AI AI AI". Hoffe, das hat dir geholfen xD
Die Namensänderung der RX GPUs ist einfach nur frustrierend... Die XX00 Namensgebung war doch super. Hätte man vergleichbar sein wollen macht man es ganz einfach: Eine X700er stehen in Konkurrenz mit der 70er Reihe, die X600er zu den 60er Karten etc. Die XT(X) Versionen stehen zu den TI (Super). Es könnte so einfach sein.... aber nein....
Der größte Blödsinn dabei ist ja, dass sie wahrscheinlich schon bei der nächsten Generation eh wieder die Nomenklatur ändern werden, weil die 10.000er Marke ja meist gemieden wird.
@@Hurricane2k8 Da sehen wir dann die Rx 1060, Rx 1070 und vorallem die Rx 1080 (XT/XTX) Wenn gerade letztere gut bis sehr gut wird, würde man an den guten Ruf der gtx 1080 anknüpfen 😅
Wenn man sich Nvidias Aktienverlauf in den letzten paar Jahren anschaut, ist es kein Wunder das andere Hersteller auch ein Stückchen von dem "AI" Kuchen abbekommen wollen und einfach blind mit dem Begriff um sich werfen.
früher war alles "Extreme" oder "Pro", dann musste alles "Gaming" im Namen haben, jetzt halt "AI". Ich will eine Thermal Grizzly Conductonaut Extreme Gaming Pro AI... (welche nach einem Jahr einen "Super" Refresh bekommt).
Wenn in der Präsentation das Wort noch öfter fällt lohnt sich bald ein Rebranding zu "AIMD" . Aber mir gehts genauso ich kanns langsam nichtmehr hören AI hier KI da.
Roman, ich liebe dich dafür, wie du die Branchenriesen immer so geil zusammenscheißt😂 Wieder mal ein tolles Video, Respekt!!! Und AI/per minute ist jetzt offiziell 😊
Das ist aber alleine leider nicht wirklich aussagekräftig. 20% mehr AIs pro Minute bringt dir halt nix wenn du auch 33% weniger X im Produktnamen hast (RX7900XTX vs RX9070XT zum Beispiel). Man muss da schon alles im Auge behalten um die Leistung objektiv bewerten zu können.
Zum Thema AMD und ich glaube da nicht wirklich dran, ist mehr ein Wunschdenken: die Performance der 9070 XT könnte tatsächlich höher liegen als gezeigt, und es ist einfach nur AMDs 5D-Schach gegen Nvidia. Aber was laber ich. DLSS-4 wird vermutlich in den nächsten Jahren eh ein Muss werden, weil die großen Spieleentwickler noch weniger Zeit auf Optimierung setzen werden und alles über AI AI AI AI AI und noch mehr AI "geregelt" wird. DLSS 4 wird vermutlich für einige Titel eine üble Notwendigkeit werden.
Jap das denk ich auch und mein liebstes Negativ Beispiel ist Forspoken Selbst in 2k ist da eine 7900 XTX überfordert 60fps stabil zu bieten Während es bei anderen Titel Easy 4k@60fps möglich sind
@@shadowwhite9324 Das ist halt auch absolute Fließbandgrütze, die nur auf hübsche Trailer optimiert wurde und im Verhältnis zu den Entwicklungskosten absolut gefloppt ist. Weder verwunderlich, noch haben besonders viele Leute unter schlechter Performance gelitten, weil es sich eh kaum wer angetan hat. :D
Ich hoffe nicht, Ich habe jetzt schon extreme Probleme mit Motion Blur, DLSS machts da wirklich nicht besser. Noch schlimmer ist nur diese gottlose frame generation mit dem Input lag direkt aus der ISDN Hölle. Meine 4070 kommt jetzt schon kaum hinterher 144Fps auf 2k zu liefern, worauf mein Bildschirm nun mal ausgelegt ist. Schätze mal in einem Jahr kann ich froh sein, wenn ich bei FHD auf 60fps komme ohne DLSS oder "AI."
@@KiffgrasConnaisseur auf 1440p sollte deine 4070 in den meisten Titel keine Probleme haben. Ob man nun bei jedem Rollenspiel 144 fps haben muss stell ich auch mal zur Frage. Im Zweifel einige wenige Grafikoptionen nicht ganz nach rechts stellen und du kannst die neue GPU Generation problemlos überspringen.
Für folgende Aussage wird Roman der8auer hiermit offiziell der Orden "Goldenes Bit am Bande mit Eichenlaub" verliehen. Herzlichen Glückwunsch! Zitat bei 8:55 min: "Ich habe echt das Gefühlt, als hätte ich 45 Minuten meines Lebens verschwendet."
Danke für die Zusammenfassung Roman. Ich war bei dem CES Livestream von AMD mindestens genauso entäuscht wie du. Man hätte nach den ersten 10min abschalten können nach dem sie die neuen CPUs vorgestellt haben. Und diese waren nicht mal eine große Überraschung.
Ich warte ja noch auf den AI Gaming Tisch und Stuhl. Der AI Stuhl und Tisch passt sich dann der aktuellen Umgebung des Spiels an und vibriert bis zu einem Wert auf der Richter-Skala von 8.5. Zudem heizt und kühlt sich beides in Echtzeit auf/ab, so dass man mit allen Sinnen das Spiel sehr realistisch erleben kann. Natürlich darf das Featuere nicht fehlen, dass bei sehr blutigen Spielen der Tisch Ketchup auf einen feuert.
Verständlich. Der Hauptumsatz mit GPUs wird inzwischen im Cloud/Workstation Bereich generiert und dort kann AMD trotz erheblicher finanzieller Anstrengungen nicht mithalten.
Ich habe 2006 meine Diplomarbeit geschrieben und dort noch KNN gesagt. Damals war ich uncool, weil es so kompliziertes Zeug war. Heute würde ich einfach 40 Mal AI sagen und wäre der coole Hund. Die Zeit ändert sich.
AMD hat sich mit der RX 6000 und 7000 Reihe eigentlich ein paar Freunde gemacht... Jetzt das wieder weg zu treten wie ein Haustier das man nicht mehr haben möchte ist echt verrückt..
@Great_Orange_Sultan Rechenzentren interessiert prinzipiell nur EPYC. Dann hätten sie sich den ganzen anderen Käse auch sparen können. Spart Mitarbeiterkosten ^^
Ich sollte als Nebenjob noch Marketing Consultant werden und Firmen wie AMD und Intel davon abhalten, so dämliche Namensänderungen durchzuführen, über die sich keiner so richtig Gedanken gemacht hat. Ich nehm auch nur nen niedrigen 4-stelligen Stundensatz plus Reisekosten, Spesen, etc.
Leider ist läuft das dann folgendermaßen ab: Irgendein Entscheider mit Macht in der Firma, an dessen Bein du pisst, kommt dann an und sagt, dass DU keine Ahnung von Marketing hast und nutzt seine Stellung aus, um dich wieder loszuwerden und alle dummen Lemminge um ihn herum stimmen ihm zu.
Ich finde es ziemlich offensichtlich und verständlich das AMD RX 9000 kurzfristig rausgenommen hat. Ich denke AMD hat Wind davon bekommen dass Nvidia Performance mit Fake Frames angibt (5070=5090 Quatsch). Hätte man jetzt die Performance einer 9070XT mit einer 4070ti verglichen, dann würde es so aussehen als wäre man gerade mal halb so stark wie eine 5070 obwohl man realistisch vielleicht nur 5-10% langsamer ist. AMD hat jetzt also 2 Optionen. Entweder sie ballern jetzt kurzerhand auch die Frame Generation von 2X mode auf 4X und gibt diese Werte an um vergleichbar mit Nvidia zu sein oder man wartet auf 5070 Benchmarks und nutzt diese zum vergleich. Witzig wäre aber auch wenn AMD Nvidias Taktik nutzt und einfach ein 8X Framegen Modus aktiviert (obwohl Input Lag dann riesig wird) und behauptet sie sind schneller als eine 5090…
und irgendwann legen Roboterhühner jeden Tag ein AI. Allerdings ist - Spaß beiseite - die Gefahr von AI für die Menschen im Alltage sehr real. Ein einfaches Beispiel gibt es ja im Tierreich. Tiere, die Schwierigkeiten haben mit ihrer Versorgung entwickeln häufig komplexere Strategien und Verhaltensmuster, um ihr Überleben zu sichern. Not macht quasi erfinderisch. Wenn AI wirklich so allesdurchdringend eines Tages sein wird und wir sehen ja bereits die Anfänge - dann wird sich da in der Gesellschaft auch etwas rückabwickeln. Frag die AI, lass die AI mal machen, die AI wird schon recht haben usw.
warum sind und waren Mainboard-Hersteller Website immer so ultra cringe? 1) die wenigsten Normalen werden auf Mainboard Seiten gehen in the first place 2) sehr wahrscheinlich auch nicht 12 Jährige, die auf das Laser-RGB-ULTRA Marketing stehen Das Debug-LEDs trotz des krassen Preiseinstiegs nicht dabei sind, ist einfach utopisch. Kostet Cents und war eigentlich Standard bei Mobo über 100 Euro
Steve von GamersNexus hat dieses Vorgehen “malicious segmentation” getauft, also wörtlich „böswillige Segmentierung“. Die Hersteller wissen genau, dass es ein begehrtes und sinnvolles Feature ist, und deshalb verbauen sie es nur noch auf den hochpreisigen Boards und machen es auch nicht nachrüstbar auf den anderen, damit die Kundschaft gezwungen ist, ihnen mehr Profitmarge in den Rachen zu schaufeln.
Als 7900XTX Besitzer hoffe ich nur das AMD noch backpaddled… Der inflationäre Gebrauch von AI in den keynotes hat mich ebenfalls leicht brechen lassen.
Das mit dem AI-Gequatsche ist der gleiche Unsinn, wie das Gequatsche in den Neunzigern, dass ein PC nur ein richtiger PC ist, wenn er MULTIMEDIA kann 😂😂😂
Ich erinnere mich gern an den Talking Parrot vom Soundblaster... Damals wollte jeder mit dem Computer sprechen können. Heute bist du froh wenn du nicht ständig von irgendeinem Gerät abgehört wirst.
Danke Roman für das tolle Video. Also was die Hersteller momentan abziehen ist ja unverschämt bis zum geht nicht mehr. Vor allem was sich AMD da jetzt gerade erlaubt kein FSR 4 für die top grafikkarte der letzten Generation. Keine neue grafikkarte die mehr Power hat. Und Nvidia ist ja auch nicht besser die machen das ist alles noch über die Software bald müssen wir Abos bezahlen um irgendwelche Features zu bekommen wie bei Tesla und so weiter und so fort Katastrophe wenn das so weitergeht Leute dann ich weiß nicht wir brauchen eigentlich gar keine PCs mehr zu kaufen wir müssen noch Abo bei GeForce now machen und fertig
@@vermilion7777 Budget ist natürlich relativ, aber gerade ne rx 7600 ist aufjedenfall Budget und auch sonst versuchen immer ca die gleiche Leistung wie nvidia für einen günstigeren Preis anzubieten, was auch Budget bedeutet, auch wenn das in letzter zeit nicht so gut funktioniert hat. Budget bedeutet nicht gleich günstig, das ist alles relativ Betrachtet
Ich glaube diese "Namensanpassung" soll eher dafür sorgen das völlig überforderte und/oder verwirrte Käufer im Regal ne 5090 und ne 9090 stehen sehen und sich denken das die 9090 ja wohl besser sein muss und eher dann diese kaufen. Für mich ist es einfach nur noch Ressourcenverschwendung ne komplett neue Grafikkartengeneration aufn Markt zu schmeissen die nur 20% mehr Leistung gegenüber der vorrangegangenen Generation liefert um dann die 4000er Serie aufn Wertstoffhof zu finden. Die sollen Anfangen mit der Zeit zu gehen und erstmal die Grenzen der aktuellen Grafikkarten erreichen bevor wieder völlig sinnfrei die nächste Generation raus gebracht wird.
AMD bringt mit der 9000 Serie nun eine neue Serie auf den Markt, die mindestens 20 % langsamer ist als die Vorgängerserie. Das muss man erst mal schaffen. Nicht mal Intels Ultra CPUs sind langsamer als die Vorgängerversion. Die Namensgebung ist nur reine Augenwischerei. Wer eine schnelle GPU will, wird sich gewiss eher für die 7900XTX oder 5070 Ti entscheiden und nicht für eine 9070 XT, die wohl auf dem Niveau einer 5060 (Ti) sein wird.
Ich sehe darin keine "Ressourcenverschwendung". Bis die "alten" GPU's auf dem Wertstoffhof landen vergehen einige Jahre. Der Markt für gebrauchte Grafikkarten ist groß.
@@tihokhan1937 Doch, da AMD bereits im Vorfeld gesagt hat, dass sie in dieser Generation keine HighEnd-Grafikkarten rausbringen und somit die 9070XT bereits das Flaggschiff der Reihe ist.
@Asuras-Game-SNPX Hä, das gleiche gilt doch auch bei Nvidia. FSR4 ist hardwaregebunden, genau wie DLSS. Bei Nvidia, auch wenn du eine 4090 hast, wirst du kein DLSS4 bekommen, weil es hardwaregebunden ist.
@@CFarReal ist das so? Ich glaube nicht so ganz. Im Gegensatz zu DLSS von NVIDIA, das auf spezielle Hardware (Tensor Cores) der RTX-Grafikkarten angewiesen ist, ist FSR hardwareunabhängig und funktioniert auf einer breiten Palette von GPUs, einschließlich NVIDIA-Grafikkarten. In einem Spiel, das FSR unterstützt, kannst du also problemlos FSR aktivieren, auch wenn du eine NVIDIA-Grafikkarte hast. DLSS hingegen bleibt auf NVIDIA RTX-Grafikkarten beschränkt.
@@CFarReal Natürlich bekommen auch ältere nVidia-Modelle DLSS4. Das einzige was sie nicht kriegen ist das neue Frame Generation mit mehreren interpolierten Frames.
Danke für die interessanten Grafiken immer. Du bringst die relevanten Zahlen, Daten, Fakten (ZDF) auf dem Tisch. Die AIs/Minute sind vermutlich ein Maß, an dem sich die Präsentationen der kommenden Jahre messen lassen.
Also die Firma/Agentur die da mit der Erstellung der Präsentation sowie der technischen beauftragt war hat heftig versagt. Das das bei der Größe eines Kunden passieren kann hat mich ziemlich überrascht. Das kostet so viel Geld...
das B860/B850 thema wird doch noch viel besser, wenn dann irgendwann mal noch die B840 boards raus kommen, die ja von der Spezifikation her eher noch unter den A620 board liegen, AMD sich aber gedacht hat "lass die doch einfach mal umbenennen damit sie sich besser anhören"
Ja.. und genau das ist der Grund, warum Nvidia preise im HIghEnd segment aufrufen kann wie se wollen.... wenn du ne schnelle Karte willst musst halt n Monatsgehalt hinlegen.... gibt ja keinerlei Konkurrenz... ich versteh echt auch nicht, wie mans so hart Verkacken kann... AMD war ja mal auf nem guten weg aber heute kannst die ienach nicht mehr kaufen.. ich mein die Mittelklasse 5070 is jetzt so günstig... wozu noch ne AMD Karte kaufen? Kauf gleich Nivida.. da hast wenigstens was vernünftiges und ne Karte die einfach alles mögliche Unterstützt... lad dir doch mal mit ner AMD Karte KI Tools runter... läuft alles nich gescheit... hast ne NVidia... hast Plug and Play... völlig egal was du machen willst, streamen, KI, Videobearbeitung, sonstige Workloads dank CUDA läuft einfach alles immer butterweich und perfekt... und Ingame das gleiche.. DLSS RT usw da is NVIdia AMD einach Jahre voraus..
Klar, ist nunmal wie bei Apple, die nur ihre eigene Hardware unterstützt. Und mittlerweile auch preislich wie bei Apple... Und dass die Leute Nvidia nachlaufen erinnert irgendwie auch an Apple... FSR und Freesync zB - laufen auch auf Nvidia Karten. Umgekehrt DLSS und GSync.. nicht. openCL ist open source, mit allen entsprechenden Vor- und auch Nachteilen, und der Fokus der Entwickler geht (leider sehr) langsam eher in die Richtung, da man eben sich nicht auf einen Hersteller zu sehr festlegen will. Bisher aber meist im Bereich von kleineren und mobilen Systemen. Nvidia war open source schon immer zweifelhaft entgegengesetzt, und hat sich erst in der jüngsten Vergangenheit ein wenig geöffnet. Sieht man ja auch am immer noch schwierigeren Linux Support von Nvidia. Natürlich läuft CUDA nicht auf einer AMD Karte, aber das sollte jedem klar sein, der sich ein wenig damit beschäftigt. openCL funktioniert jedoch - und das weder "nicht gescheit" oder was auch immer. Video encoding ist in der Tat ein Thema, was unperformanter läuft, aber dennoch fernab von "schlecht" oder "langsam" Es ist wie der Umstieg auf Linux. Es gibt Situationen, da geht es tatsächlich nicht, aber zuallermeist liegt es eher am fehlenden Willen. (bei mir ist der Hinderungsgrund zB AutoCAD) Weiß aber nicht, werlche "sonstige Workloads dank CUDA butterweich und perfekt" laufen sollen? ingame - ist es immer noch eine Glaubensfrage, wie man zu upscaling und framegen steht. Dass sich Nvidia mittlerweile 15 von 16 pixel "ausdenkt", und nicht mehr rendern lässt, artet nun doch ein wenig aus. Wer weiß, was das am Ende für eine Qualität bleibt. Oder wird TAA noch aggressiver, und man sieht am Ende nur noch Matsch? Wenn man sich mal ansieht, wieviele Leute regelrecht TAA verachten... Und für das Plus von 20% an reiner Rasterleistung von der 4090 zur 7900XTX ein Pres-Plus von 100% ? Und jetzt die 5090, die hier in Europa wohl bei 2300€ liegen wird. Das ist alles, aber nicht "vernünftig". Und dass Nvidia sparsam bei VRAM ist, ist kein Geheimnis mehr. Und dass mindestens noch 2 Karten zwischen der 5080 und 5090 passen - preislich als auch vom VRAM her, wird mich nicht überraschen. Evtl sogar drei - 5080 Ti, 5080 Super und 5080 Ti Super PS: Von Raytracing habe ich bisher kein Spiel gesehen, welches das "richtig" und realistisch macht, und meistens sieht es nicht wirklich besser aus, sondern lediglich anders. Daher - Raytracing / Pathtracing irrelevant für mich bis jetzt.
@@bernds6587 Ich hatte Jahrelang AMD weil ich nicht bereit war die NVIdia Aufpeise zu bezahlen... dann hab ich angefangen mit KI rum zu spielen... hatte ne 6800xt kumpel von mir ne puh... 2070 oder sowas 2060? weiß nich genau jedenfalls ne langsamere karte als ich.. haben dann mit Stable diffusion .. ner lokalen Bild KI rumgespielt.. und was soll ich sagen bei ihm lief der ganze Prozess son Bild zu generieren faktor 16 schneller als bei mir... mit ner langsameren karte.. weniger ram usw... insgesamt älterer rechner... Hab mir ne NVidia geholt zack.. rennt butterweich.. vorher hab ich 5 Sekunden für eine iteration gebraucht.. jetzt mach ich 4-5 PRO SEKUNDE... um nur mal ein Beispiel zu nennen.... AMD hängt da einfach hinterher....und wenns nur daran liegt, weil jeder Software für CUDA optimiert aber nicht für openCL.. is mir als enduser am ende des tages scheiß egal.. ich will das zeug einfach verwenden und nicht noch mehr basteln müssen als ohnehin schon... Bezüglich DLSS... ja warum funzt das Bei NVidia deutlich besser als bei AMD? ... und warum setzt AMD jetzt mit der neuesten 9000er Serie auch auf AI Upscaling was dann nicht mehr überall funktionieren wird?.. Warum wohl? weils einfach die bessere Technologie ist... NVidia hat von anfang an aufs richige Pferd gesetzt... FSR läuft überall... kannst aber vergessen.. ja geil da bringt mir ja super viel dass es überall läuft... Was den VRAM betrifft bin cih ganz bei dir, finde das ne Frechheit sondergleichen dass die noch immer so wenig auf die Karten packen... Dafür hab ich kein Verständnis... Sollen halt die Boardpartner entscheiden wie viel ram se auf die Karte packen udn was se dann dafür verlangen... aber nvidia reglementiert hier leider hart.. naja nachvollziehbar so MUSS ich die 5090 kaufen wenn ich mehr VRAM will und der ist für KI nunmal essentiell... die 5090 ist ohnehin nicht direkt an Gamer gerichtet vielmehr an Creator... und die Gamerkarten sind Günstiger geworden, passt doch alles. Ne 5070 für 550 scheine finde ich mehr als in Ordnung. Ich persönlich bleib dabei, kann nicht verstehen warum jemand ne 9070 kaufen sollte wenn er auch ne 5070 für (wissen wir ja noch nicht safe ich spekuliere jetzt mal:) etwas mehr Geld. Bei der 5070 hast garantiert mehr für dein Geld... genauso bei CPUs.. ich hab überhaupt gar kein Verständnis wenn sich einer noch ne Intel CPU in Rechner schmeißt.. warum???... Nimm doch einfach das bessere Produkt und fertig?
@@AHPB_lel generell "besser" gibt es nicht, lediglich für den eigenen Anwendungsfall besser passend. Ich brauche keine lokale KI, Ray/Pathtracing hat bisher keinen Mehrwert für mich, und framegen und upscaling sieht einfach nicht so gut aus wie "echte" frames, egal ob nun DLSS oder FSR oder XeSS. Und solange Nvidia ihre Marktposition behält, werden sie sie auch ausnutzen. Daher bleibt Preis/Leistungstechnisch für mich nur AMD übrig (auch die geringfügig höhere Leistungsaufnahme mit eingerechnet), intel schied ebenfalls aus aufgrund ihrer (damals) nicht-nativen Unterstützung von DirectX 9 und darunter, und dass es im oberen Leistungsbereich nichts gab/gibt. Dass die meiste Software und Technologien bei AMD auch hardwareunabhängig funktionieren, ist für mich auch noch ein Punkt, der am Ende zwar nicht ausschlaggebend war, aber dennoch unterstützenswert ist. Und der Gelegenheitszocker von Welt auf einem einzigen 23 Zoll fullHD 60Hz Monitor: der will, dass sein Fortnite läuft und evtl Minecraft. Und da ist es egal ob Nvidia, AMD oder intel. Preis/Leistungstechnisch liegt da aber AMD und intel vor Nvidia. Wie es mit den 5000er Karten aussieht, müssen erstmal unabhängige Tests zeigen, insbesondere rohe Performance, ohne dem ganzen KI-Kram
@ ja da hast du recht, ein 0815 fhd gamer am 23" monitor hat keine Ansprüche der wills vllt billig. Aber so jemand kauft z.b. Keine 7900xtx als beispiel. Wenn jemand nur 200€ ausgeben will, klar. Aber wenn jemand sowieso schon uber 500 ausgibt, bin ich der Meinung nvidia ist unterm strich die bessere wahl wenn man das gesamtpaket betrachtet.
@@AHPB_lel Bei mir sind es 3x fullHD Monitore, und evtl kommt bald ein größerer 4K dazu. Und plane eher mit mindestens 7 Jahren Laufzeit, daher wird es am Ende Hardware, die am oberen Ende liegt, aber die (für mich) weitaus bessere Preis/Leistung hat. Und die Grafikleistung einer 7900XTX bekommst man bei Nvidia nicht für knapp unter 1000€. Als netten Nebeneffekt würde Linux auch besser funktionieren, falls ich tatsächlich doch mal umstellen würde.
Nicht jede Peripherie benötigt USB 3 oder 4. Es wäre also reine Ressourcenverschwendung eine Maus oder Tastatur an USB 4 oder so anzuschließen. Wenn man aber 10,15 oder noch mehr USB-Anschlüsse hat, ist es im Grunde auch egal, denn wer schließt in der Realität schon mehr als 10 USB-Geräte an seinen PC an? Maus, Tastatur, Audio, KVM, 2 externe NVME Laufwerke, Drucker, USB-Hub... das war's bei mir.
Meine Einschätzung: AMD hat RDNA4 kurzfristig verschoben, nachdem sie die Preise der RTX 5000 mitbekommen hatten. Da muss wohl neu kalkuliert und vielleicht noch ein bisschen übertaktet werden, letzteres könnte dann wieder zu sehr komischen Karten wie den 290X am thermischen und Strom-Limit führen. Und: Noch weiss keiner, was DLSS4 wirklich so macht und wie die rohe Raster-Performance der 5000er ist.
Die Sache mit FSR4 macht vom branding auch irgendwie kein Sinn, da ja FSR und AmD Features für alle verfügbar sein soll und man nicht für alles immer ne neue Gen braucht
Jop, mein Interesse an FSR 4 ist auch gleich Null. Warum soll ich auf ne Mittelklasse GPU der letzten Generation (weil Leistung auf Niveau der 4070) wechseln? Komplett bescheuert deren Strategie. Die hätten lieber FSR für alle weiter entwickeln sollen.
@@ForboJack Dann kann man auch zu Nvidia greifen, ist der selbe Mist. Ich mag aktuell nur die Modell nicht. 5080 super ,oder ti mit mindestens 20gb vram
naja, deswegen ist FSR bisher auch eher überschaubar gut, denn Zitat Igor: "Diese Technologie (FSR4), die stark auf die AI-Beschleunigung der RDNA-4-Architektur angewiesen ist, verspricht eine realistischere Darstellung und flüssigere Bewegungen, selbst in anspruchsvollen Gaming-Szenarien. Damit endet scheinbar auch die hardwareunabhängige Implementierung von FSR" Bin nur gespannt ob sie wieder ein Jahr brauchen bis es läuft. Das alles ist auch der Grund warum ich nicht AMD kaufe...zuviel herumgebastel und dann erst nicht gut. Dafür entschädigt auch nicht der günstigere Preis, denn billig sind sie auch nicht
@@mattplayer3582 32 bit pro Speicherriegel / Speicherbusbandbreite. Da kannst du nicht willkürlich die VRAM Größe variieren ohne ein neues PCB zu bauen ;-) Aktuell gab es maximal 2Gbyte Chips, aber bald kommen 3 Gbyte nach...somit 50% mehr Vram auf dem selben Board möglich.
Einfach nur schlecht, das es keine high end AMD gibt. Damit wird Nvidia ein Monopol in diesem Bereich erhalten und kann dann die Preise diktieren. Mit dem FSR4.0 Thema stimme ich Roman zu. Es wäre ja noch IRGENDWIE verständlich wenn Sie 900XTX karten hätten, aber so, einfach schlecht.
Auch wenn die HW Vorstellungen eher langweillig waren, Romans Videos reissen es immer wieder raus und man hat wenigstens noch etwas zu lachen. Danke dafür ❤
Musste sehr schmunzeln bei der AI-Anzahl / Minute, denn in der Schule, damals, habe ich bei einer Musiklehrerin das Wort "So" gezählt und meinte am Ende der Stunde zum Banknachbarn: "Noch 3 Stunden mit ihr und wir können den Durchschnitt ausrechnen." :D
Die größte AMD Namenspeinlichkeit hast du noch vergessen: Die aktuellen Mobile CPUs. Hier wurde erst 2023 mit Phoenix ein neues Schema eingeführt, dass an erster Stelle die Jahreszahl und erst an dritter die Architektur beschreibt. Ein Ryzen 5 7520U ist z.B. win Vierkerner mit ZEN2, während ja ein 7630U ein 6 Kerne mit ZEN3 war. Und ein 7640U ein 6 Kerner mit ZEN4. Das war ja schon peinlich genug. Aber dann kam Intel mit dem Ultra Branding für die CPUs mit NPU an, also Core Ultra 100. Jetzt musste AMD unbedingt mitziehen und hatte die beste Idee allerzeiten: Die neuen Strix Point APUs sollten Ryzen AI 100 heißen. Das war ganze 15 Monate nach dem letzten neuen Namenschema. Also hat AMD der Presse im Prebriefing der Computex 2024 die CPUs vorgestellt und die Reaktion der Presse war: "Warum Ryzen AI 100, es ist doch nach Phoenix (Ryzen 7000 mobile) und Hawk Point (Ryzen 8000 mobile) eure dritte Gen mit NPU?" AMD war das wohl noch nicht aufgefallen denn bei der offiziellen Computex Keynote wurden sie dann offiziell als Ryzen AI 300 vorgestellt. Die Demo Geräte haben aber weiterhin Ryzen AI 100 angezeigt. Und jetzt der nächste geniale Einfall: Auf der CES wurde verkündet, dass die 8000er Reihe in das neue Namensschema angepasst werden, sie heißen: Ryzen 200. Das AI lässt man weg, weil Baum. Ich meine das waren die CPUs, wegen denen die Nachfolger von AI 100 zu AI 300 umbenannt wurden und jetzt kommen sie ohne AI als 200?!
AI sind neu nur noch Copilot+ d.h. 40+ TOPS NPU. 7000er und 8000er haben nur ne rudimentäre NPU (wie auch Lunar Lake) darum ohne AI. Allerdings Ryzen AI 9 Max ist schon dämlich.
Naja, was soll AMD bei den GPUs diesmal auch groß vorstellen? Die brauchen noch Monate um ne GPU rauszubringen, die langsamer ist, als eine über 2 Jahre alte 7900 XTX. Von dem FSR 4 Problem will ich gar nicht erst anfangen zu reden. Gleichzeitig bringt Nvidia die neue Generation noch im Januar raus und lässt es sich nicht einmal so teuer bezahlen wie erwartet. Ich bin jedenfalls enttäuscht, und befürchte, dass das zu einem ganz schlechten Zeitpunkt passiert. Seit einigen Monaten ist Nvidia mit dem 560er Treiber nämlich sogar auf Linux mit Wayland problemlos nutzbar, was zumindest bei mir der letzte Sargnagel für meine AMD GPU ist.
Hab auf Fedora bisher auch 0 Probleme mit Nvidias Treibern. Aber Nvidia bewegt sich halt dezent aus meiner Preisklasse raus aktuell. Ich werde mich wohl damit abfinden müssen, dass ich demnächst auch zur "potato PC" Fraktion gehöre. Ich werd schon mal ein H Kennzeichen beantragen gehen.
Auch wenn die Präsentation sehr verwirrend war, so wurde doch eindeutig gesagt, dass die 9070 keine high end Grafikkarte sein soll Wie viel die neuste Nvidia Generation kosten wird, kannst du nicht am MSRP ausmachen. Wenn du also nicht eine der handvoll Nvidia Karten bei Release kaufen kannst, wirst du nochmal ordentlich drauf zahlen müssen.
A.I overclocking, A.I herunterfahren, A.I Pc Booten, A.I Wasserkühlen, A.I gesteuertes Bios, A.I Bildschirm übertakten auf 1 Million Herz, A.I Maussteuerung, A.I alles 🤣😂 ich kann es nicht mehr hören.
AI PRO MINUTE 😂😂😂😂😂😂 alter schwede der Bauer weiß wie man stimmung reinbringt in ein video hab mich so be pi sst vor lachen danke roman das du aus dieser AI seuche noch irgendwie was positives gezogen hast ❤❤❤😂
Wenn meine 7900xtx kein fsr4 bekommt war dies vermutlich meine letzte amd gpu für längere Zeit, da ich es immer gut fand das amd last gen Support hatte und nicht den nvidia move gemacht hat wie bei dlss3.0
In einem anderen UA-cam Video wurde gesagt, dass FSR4 zuerst für RDNA4 kommt man aber nicht ausschließt, dass es später auch auf für manche älteren GPUs verfügbar sein wird. Ich denke Besitzer von RDNA3-Karten können durchaus auf FSR4 hoffen, bei RDNA2 und älter sehe ich geringe Chancen, da diese mWn über keine dedizierte AI-Beschleunigung verfügen. Ich denke, die Beschränkgung auf neuere Karten ist hier keine willkürliche Maßnahme um neue Karten zu verkaufen, sondern einfach dem Umstand geschuldet, dass erst RDNA3 überhaupt AI-Beschleunigung in Hardware besitzt.
@@SuppenDfgden selben move haben sie auch bei SRS gebracht und ich warte nach 3 Jahren oder was immernoch auf den SRS Support für die Vorgängergeneration. Bei den Laptops gab es zum Zeitpunkt der Vorstellung noch keine Grafikkarten die SRS unterstützt haben, die kamen erst danach....
Was bei Nvida rauskommt, da würde ich erstmal abwarten. Alle angaben sind mit Frame Generation. Am Ende wird AMD nicht schlecht dar stehen mit Preis Leistung wie angekündigt. ob es eine KI chip benötigt auf der Platine um FSR 4 nutzen zu können wurde noch gar nicht in Erwägung gezogen.
Das ist falsch. In den offiziellen Unterlagen wird damit geworben, dass FSR4 auf den auf RDNA4 exklusiven AI Kernen fußt. Was meist du bitte mit „nicht schlecht da stehen in Punkto Preis/Leistung. Zu beiden Punkten gibt es bislang keine konkreten Daten.
@@Sly_404 Es gab einen benchmark leak einer 9070 für COD im ingame Tool. Sieht nicht schlecht aus. Ob das FSR4 dazu dient mehr neue Grafikkarte zu verkaufen, oder ob es technische Probleme gibt wird sich zeigen.
Es scheint mir, dass Raster die-space für AI die-space abgegeben wird, aber ich frage mich dann, was ist denn schlussendlich tatsächlich effizienter, in Form von die-space und Energieverbrauch: Rasterisation, oder AI framegen?
Ich finde ein wenig komisch, dass das Fehlen von OC auf B und H Boards von intel als so entscheidend dargestellt wird, wie auch bei AMDs Boards. Die Unterschiede sind ja eigentlich eher in I/O zu finden und da deutlich. Auf der einen Seite wird sich ständig über zu hohe Stromverbräuche beschwert und auch OC soll sich laut quasi allen Aussagen kaum bis gar nicht mehr im Alltag lohnen. Warum wird bei Boards und CPUs dann immer so ein großer Fokus auf OC Möglichkeiten gelegt, wenn das ein Feature ist, das die allermeisten aus guten Gründen gar nicht nutzen werden? Trotzdem scheint es, als würde zumindest medial jedes Produkt, das kein CPU OC unterstützt, mehr oder weniger ignoriert werden. Es gibt quasi keine Tests/Reviews zu non k CPUs von intel, warum eigentlich nicht? Sie sind verügbar, oft günstiger aber es ist nahezu unmöglich abzuschätzen, ob sie sich lohnen oder nicht?
7:37 alles Standardwerbung per Grafikdesign in HTML, MSI hat bei meinem B450-A Pro auch den OnBoardsound als Professionell/Studio mässig beworben, dabei kann man das was da bei den Klinkebuchsen rauskommt natürlich komplett in der Pfeiffe rauchen und nichtmal Lichtleiter-Ausgänge hat es die es absolut hätten reissen können, AVR dran und alles is super mit der gescheiten Anlage.
Richtig. Da werden in einem Jahr ein paar MBAs und externe Marketing "Experten" beauftragt und im nächsten Jahr lässt man sich von anderen wieder die nächste Schnapsidee aufquatschen...
Vielleicht möchte AMD nicht an die ATI 9700 erinnern und hat sich deswegen für die neue Namen entschieden. Ohne offizielles Statement ist das aber alles nur Mutmaßungen.
Ein Namensschema, wo man soch mit dem größten Konkurrenten vergleicht. Wenn sie nicht mehr Performance bieten, ist das glaub ich ein ziemliches Eigentor
9:19 was ist denn mit der Hand von dem Typen los, ist er so aufgeregt, wieso zittert er so doll. Hat man ja schon Angst, dass die CPU gleich runterfällt :D
wie wir den KI-Wahn stoppen: "unser neuestes LLM Model ist bis zu 300% effizienter als ein Mensch auf dieser Position. Ich präsentiere die erste CEO KI, Generative Seniority oder kurz GenSen One..."
Cooles und informatives Video, danke dafür Roman 👍🏻 Was ich absolut nicht checke ist, wieso AMD bereits am 4nm über TSMC dran ist und Nvidia immer noch mit ihrer extra Wurst noch beim custom 5nm geblieben ist dafür aber GDDR7 verwendet und AMD immer noch den GDDR6. Also für AMD hätte dann doch eher ein 5nm Chip völlig gereicht und ein 4nm Chip wäre bei Nvidia doch viel sinnvoller, um mehr Leistung und mehr Effizienz zu bekommen!?!? Ich check da nichts aber anscheinend war es Nvidia sowieso egal, da sie eben die Nr 1 sind und es bleiben werden. Wozu dann Kohle raushauen. Und über die Effizienz macht sich wahrscheinlich "nur" Europa und vor allem Deutschland den meisten Kopf als überall woanders auf der Welt...
Direkt nach AI bin ich froh, dass Roman wieder mal die fehlende Deback-LED moniert hat. Wie oft ist es mir schon passiert, dass ich das Mainboard zuweit gebacken habe, und die Deback-LED zeigt dann immer exakt an, wie weit man den Backvorgang wieder rückgängigen machen muss. Mit dieser Methode habe ich schon einige Backfehler rückgängig gemacht, also eben debacked.
Ich verfolge in den letzten 2-3 Jahren die Hardwareszene nicht mehr so aktiv wie früher und kenne daher die ganzen Produktlinien auch nicht mehr so gut. Obwohl du dich ja bemüht hast, das alles möglichst klar zu erklären, hat mir das Video einfach nur Kopfschmerzen bereitet. Ich brauche dringend eine AIbuprofen.
Erinnert mich an das Kartenspiel "Minderheiten Quartett". Dort gibt es eine Kategorie "Argumente pro Minute" 😂 Der Lüfter mit den 5 Kabel Abzweigungen unten Rechts im Bild. Bei mir ganz klar die Kategorie "Visuelles AMSR". Ich musste nur da hinschauen 🤓 Keine Ahnung warum.
Der AI-Zähler, einfach genial xD Vielleicht ist Tante Lisa kurzfristig ausgefallen (Krankheit oder so, wer weiß) und deshalb mussten andere einspringen und ein Teil ist komplett weggefallen, weil es einfach zu kurzfristig war. Also das wäre noch ne Erklärung die ich verstehen würde und vermutlich auch mehr Verständnis bringe würde... Aber ich glaube selbst nicht ganz dran :D
Freue mich ja schon auf die AI 8 Pin Stecker und besonders auf die AI Lüfter. Vielleicht gibt es ja auch bald AI Headsets die für dich sprechen. Jeder weiß doch das AI Sticker auf dem PC mindestens nochmal 5 FPS geben. Nachtrag: Gerade gelesen das es wohl auch AI Wärmeleitpaste gibt, ein must have für den modernen Gamer.
@der8auer: Mycro Pro und Delid Die Mate R7000 weiterhin mit 9950X3D kompatibel? (letzter Stand ist laut Website ja von September, evtl. hast du ja schon einen in den Händen)
AI/ Minute
Wichtigstes Maß für jede Keynote 😂
Ich kann net mehr 😂😂😂
Demnächst bekommen wir Benchmarks zu der Metrik 🤣🤣
Irgendwann sitzt einer drin, der sich bei jedem "AI" einen hinter die Binde kippt.
Das wäre aber nicht lange durchzuhalten. Mal auf den AI/min Wert von NVIDIA warten, da wäre man sicherlich nach wenigen Minuten unterm Tisch
Hat jmd einen Wert für die Always Incredible Präsentation?
Die AIs pro Minute haben mich gekillt 😂
Direkt nach AI bin ich froh, dass Roman wieder mal die fehlende Deback-LED moniert hat. Wie oft ist es mir schon passiert, dass ich das Mainboard zuweit gebacken habe, und die Deback-LED zeigt dann immer exakt an, wie weit man den Backvorgang wieder rückgängigen machen muss. Mit dieser Methode habe ich schon einige Backfehler rückgängig gemacht, also eben debacked.
😂@@RandomUser2401
Ich warte immer noch auf AI optimierten instant Nudeln
Naja 1.5x pro Minute braucht man da nicht von quatschten
dann fehlt aber noch das AI optimierte maggi fix für nudelwasser jetz auch vegan
R AI men
Ich habe nen AI Wasserkocher. Der lernt jeden Tag mehr und mehr, dass er sich immer bei der selben erreichten Temperatur ausschalten muss. 😁
Oh, die Nudeln gibts schon: Du kaufst "Shin Ramyun Nudelsuppe" von Nongshim, und nimmst das komplette silberne Tuetchen mit scharf, was dabei ist. Am naechsten Tag beim k*cken macht es "AI AI AI AI AI AI". Hoffe, das hat dir geholfen xD
Irreführende Werbung scheint derzeit das Hauptthema der Hardware Hersteller zu sein.
Naja, die Hersteller von Softdrink-Pulver sollen darauf ja auch kein Monopol haben 😁
Ich hab dich gemeldet
Ja ist ja leider sehr häufig so. Auch auf Amazon, Drinks, Politik.
@floppy673 Aha
@floppy673 So ich habe dich gemeldet wegen irreführender Meldungen und Missbrauch der Meldefunktion.
Die Namensänderung der RX GPUs ist einfach nur frustrierend... Die XX00 Namensgebung war doch super. Hätte man vergleichbar sein wollen macht man es ganz einfach: Eine X700er stehen in Konkurrenz mit der 70er Reihe, die X600er zu den 60er Karten etc. Die XT(X) Versionen stehen zu den TI (Super). Es könnte so einfach sein.... aber nein....
Ich kann EW verstehen, es sollen die CPUs und GPUs den selben Start Namen haben die CPUs sind dann die 100er die GPUs 10er
Fehlkäufe erhöhen den Umsatz... 🤐
Der größte Blödsinn dabei ist ja, dass sie wahrscheinlich schon bei der nächsten Generation eh wieder die Nomenklatur ändern werden, weil die 10.000er Marke ja meist gemieden wird.
Es wäre gut gewesen, wenn man mit der "gleichen" Generation eingestiegen wäre.
@@Hurricane2k8 Da sehen wir dann die Rx 1060, Rx 1070 und vorallem die Rx 1080 (XT/XTX)
Wenn gerade letztere gut bis sehr gut wird, würde man an den guten Ruf der gtx 1080 anknüpfen 😅
Ich: wird jetzt endlich die rx9000 vorgestellt??
AMD: AI AI AI AI PC with AI and AI
Schlimmer als Nvidia 😂
Wenn man sich Nvidias Aktienverlauf in den letzten paar Jahren anschaut, ist es kein Wunder das andere Hersteller auch ein Stückchen von dem "AI" Kuchen abbekommen wollen und einfach blind mit dem Begriff um sich werfen.
@@Serandi1987ja😂
Gibt es noch keine Gehäuse mit AI?
@@MotokoKaiousei Hab gerade eins auf Amazon entdeckt, heißt "anidees AI Crystal Cube AR V3 EATX" xD
Kostet stolze 150 €
früher war alles "Extreme" oder "Pro", dann musste alles "Gaming" im Namen haben, jetzt halt "AI".
Ich will eine Thermal Grizzly Conductonaut Extreme Gaming Pro AI... (welche nach einem Jahr einen "Super" Refresh bekommt).
Ganz wichtig. Dazwischen kam der Ausdruck smart.
Ti Super fehlt
RGB!!!
In der Industrie läuft das mit Line und Group... :D
Das klingt echt sauteuer!
Ich nehm 2😂
Wenn in der Präsentation das Wort noch öfter fällt lohnt sich bald ein Rebranding zu "AIMD" . Aber mir gehts genauso ich kanns langsam nichtmehr hören AI hier KI da.
omfg gib ihnen nicht auch noch Ideen !!
Die Marketingfuzzis bei AMD sind so blöd und machen den Scheiß auch noch !!
Moment ....
AMD
I
Dankt mir später.
Das einzige KI das ich will ist Killer Instinct 😮💨
@@Hitman006xp ein wahrhafter denker. gelobt seist du.
Roman, ich liebe dich dafür, wie du die Branchenriesen immer so geil zusammenscheißt😂 Wieder mal ein tolles Video, Respekt!!! Und AI/per minute ist jetzt offiziell 😊
Er sollte als Berater für diese Firmen arbeiten, damit sie bessere Produkte herstellen. Z.B. bereits "geköpfte" CPUs verkaufen.
Kannst du bitte in jedem Test den AI Score mit angeben, damit wir wissen wie viel Leistung das Produkt wirklich hat
Das ist aber alleine leider nicht wirklich aussagekräftig. 20% mehr AIs pro Minute bringt dir halt nix wenn du auch 33% weniger X im Produktnamen hast (RX7900XTX vs RX9070XT zum Beispiel). Man muss da schon alles im Auge behalten um die Leistung objektiv bewerten zu können.
Du meinst den Snatch Score? *g*
Zum Thema AMD und ich glaube da nicht wirklich dran, ist mehr ein Wunschdenken: die Performance der 9070 XT könnte tatsächlich höher liegen als gezeigt, und es ist einfach nur AMDs 5D-Schach gegen Nvidia.
Aber was laber ich. DLSS-4 wird vermutlich in den nächsten Jahren eh ein Muss werden, weil die großen Spieleentwickler noch weniger Zeit auf Optimierung setzen werden und alles über AI AI AI AI AI und noch mehr AI "geregelt" wird. DLSS 4 wird vermutlich für einige Titel eine üble Notwendigkeit werden.
DLSS in der QA zu verwenden gehört verboten😅
Jap das denk ich auch und mein liebstes Negativ Beispiel ist Forspoken
Selbst in 2k ist da eine 7900 XTX überfordert 60fps stabil zu bieten
Während es bei anderen Titel Easy 4k@60fps möglich sind
@@shadowwhite9324 Das ist halt auch absolute Fließbandgrütze, die nur auf hübsche Trailer optimiert wurde und im Verhältnis zu den Entwicklungskosten absolut gefloppt ist. Weder verwunderlich, noch haben besonders viele Leute unter schlechter Performance gelitten, weil es sich eh kaum wer angetan hat. :D
Ich hoffe nicht, Ich habe jetzt schon extreme Probleme mit Motion Blur, DLSS machts da wirklich nicht besser. Noch schlimmer ist nur diese gottlose frame generation mit dem Input lag direkt aus der ISDN Hölle. Meine 4070 kommt jetzt schon kaum hinterher 144Fps auf 2k zu liefern, worauf mein Bildschirm nun mal ausgelegt ist.
Schätze mal in einem Jahr kann ich froh sein, wenn ich bei FHD auf 60fps komme ohne DLSS oder "AI."
@@KiffgrasConnaisseur auf 1440p sollte deine 4070 in den meisten Titel keine Probleme haben. Ob man nun bei jedem Rollenspiel 144 fps haben muss stell ich auch mal zur Frage. Im Zweifel einige wenige Grafikoptionen nicht ganz nach rechts stellen und du kannst die neue GPU Generation problemlos überspringen.
Die nächsten Karten von AMD heißen dan Olaf oder Björn, oder so, gibt dann ein IKEA Namensschema... :D
Für folgende Aussage wird Roman der8auer hiermit offiziell der Orden "Goldenes Bit am Bande mit Eichenlaub" verliehen. Herzlichen Glückwunsch!
Zitat bei 8:55 min: "Ich habe echt das Gefühlt, als hätte ich 45 Minuten meines Lebens verschwendet."
Sein Kommentar unter dem Livestream hat ja auch schon Wellen geschlagen 😅
@@ShowXTechWas hat er geschrieben?
@@erazzed Das interessiert mich auch :D
Danke für die Zusammenfassung Roman. Ich war bei dem CES Livestream von AMD mindestens genauso entäuscht wie du. Man hätte nach den ersten 10min abschalten können nach dem sie die neuen CPUs vorgestellt haben. Und diese waren nicht mal eine große Überraschung.
Mein Netzwerkkabel, meine PC-Lautsprecher, mein USB-Stick, meine Tastatur, meine Maus... Alles AI-kompatibel!
Leider raus , kein AI Bildschirm dabei. Shame.
... mein Hirn kann auch AI 😅😅😅
Ich warte ja noch auf den AI Gaming Tisch und Stuhl. Der AI Stuhl und Tisch passt sich dann der aktuellen Umgebung des Spiels an und vibriert bis zu einem Wert auf der Richter-Skala von 8.5. Zudem heizt und kühlt sich beides in Echtzeit auf/ab, so dass man mit allen Sinnen das Spiel sehr realistisch erleben kann. Natürlich darf das Featuere nicht fehlen, dass bei sehr blutigen Spielen der Tisch Ketchup auf einen feuert.
Haha glaube AMD hat kein bock mehr auf gpu's, das hört sich wirklich an als hätt da einer Lack gesoffen beim Marketing😂😂
Verständlich. Der Hauptumsatz mit GPUs wird inzwischen im Cloud/Workstation Bereich generiert und dort kann AMD trotz erheblicher finanzieller Anstrengungen nicht mithalten.
glaube AMD fokussiert sich mehr auf CPU's. Wie warme Semmeln werden die verkauft..... 😂
trotzdem schade 😒
8:57 da biste nicht allein!
Ich habe 2006 meine Diplomarbeit geschrieben und dort noch KNN gesagt. Damals war ich uncool, weil es so kompliziertes Zeug war. Heute würde ich einfach 40 Mal AI sagen und wäre der coole Hund. Die Zeit ändert sich.
AMD hat sich mit der RX 6000 und 7000 Reihe eigentlich ein paar Freunde gemacht... Jetzt das wieder weg zu treten wie ein Haustier das man nicht mehr haben möchte ist echt verrückt..
Die Kohle liegt halt in AI Rechenzentren und co. Sowohl bei AMD als auch Nvidia, die gaming GPUs sind nur noch ein kleiner Nebenerwerb.
@Great_Orange_Sultan Rechenzentren interessiert prinzipiell nur EPYC. Dann hätten sie sich den ganzen anderen Käse auch sparen können. Spart Mitarbeiterkosten ^^
Ich finde ja den Rückgang natürlicher Intelligenz viel besorgniserregender als einen Rückstand bei „künstlicher Intelligenz“.
Das einzige gute aus den Keynotes, da unterhaltsam, sind die AIs / Minute 😂
Danke für Deinen ehrlichen Stil - das macht den Kanal aus.
Ich sollte als Nebenjob noch Marketing Consultant werden und Firmen wie AMD und Intel davon abhalten, so dämliche Namensänderungen durchzuführen, über die sich keiner so richtig Gedanken gemacht hat. Ich nehm auch nur nen niedrigen 4-stelligen Stundensatz plus Reisekosten, Spesen, etc.
Leider ist läuft das dann folgendermaßen ab: Irgendein Entscheider mit Macht in der Firma, an dessen Bein du pisst, kommt dann an und sagt, dass DU keine Ahnung von Marketing hast und nutzt seine Stellung aus, um dich wieder loszuwerden und alle dummen Lemminge um ihn herum stimmen ihm zu.
Wir müssen ja froh sein, dass die sich in den Nummerierungen noch unterscheiden. :)
Ich finde es ziemlich offensichtlich und verständlich das AMD RX 9000 kurzfristig rausgenommen hat. Ich denke AMD hat Wind davon bekommen dass Nvidia Performance mit Fake Frames angibt (5070=5090 Quatsch). Hätte man jetzt die Performance einer 9070XT mit einer 4070ti verglichen, dann würde es so aussehen als wäre man gerade mal halb so stark wie eine 5070 obwohl man realistisch vielleicht nur 5-10% langsamer ist.
AMD hat jetzt also 2 Optionen. Entweder sie ballern jetzt kurzerhand auch die Frame Generation von 2X mode auf 4X und gibt diese Werte an um vergleichbar mit Nvidia zu sein oder man wartet auf 5070 Benchmarks und nutzt diese zum vergleich. Witzig wäre aber auch wenn AMD Nvidias Taktik nutzt und einfach ein 8X Framegen Modus aktiviert (obwohl Input Lag dann riesig wird) und behauptet sie sind schneller als eine 5090…
erinnert mich sehr an die xbox one PK, wo es auch so geile TV TV TV SPORTS SPORTS zusammenschnitte gab
Wie sieht die komunikation 2025 aus? " heute Morgen AI Frühstücken dancha muss ich AI Arbeiten gehen, danach gehe ich AI einkaufen ..... "🤣
und irgendwann legen Roboterhühner jeden Tag ein AI. Allerdings ist - Spaß beiseite - die Gefahr von AI für die Menschen im Alltage sehr real. Ein einfaches Beispiel gibt es ja im Tierreich. Tiere, die Schwierigkeiten haben mit ihrer Versorgung entwickeln häufig komplexere Strategien und Verhaltensmuster, um ihr Überleben zu sichern. Not macht quasi erfinderisch. Wenn AI wirklich so allesdurchdringend eines Tages sein wird und wir sehen ja bereits die Anfänge - dann wird sich da in der Gesellschaft auch etwas rückabwickeln.
Frag die AI, lass die AI mal machen, die AI wird schon recht haben usw.
Hat einer die AI Performance von Roman gemessen ;-)
Ich kann die AI scheiße nicht mehr hören ey.... Gutes Video mit ordentlich Kritik. so lobe ich mir das
warum sind und waren Mainboard-Hersteller Website immer so ultra cringe?
1) die wenigsten Normalen werden auf Mainboard Seiten gehen in the first place
2) sehr wahrscheinlich auch nicht 12 Jährige, die auf das Laser-RGB-ULTRA Marketing stehen
Das Debug-LEDs trotz des krassen Preiseinstiegs nicht dabei sind, ist einfach utopisch. Kostet Cents und war eigentlich Standard bei Mobo über 100 Euro
Steve von GamersNexus hat dieses Vorgehen “malicious segmentation” getauft, also wörtlich „böswillige Segmentierung“. Die Hersteller wissen genau, dass es ein begehrtes und sinnvolles Feature ist, und deshalb verbauen sie es nur noch auf den hochpreisigen Boards und machen es auch nicht nachrüstbar auf den anderen, damit die Kundschaft gezwungen ist, ihnen mehr Profitmarge in den Rachen zu schaufeln.
Zum Glück muss ich mir die nächsten Jahre keinen gaming pc kaufen 😂 r9 7900x3d und rx 7900xt reicht komplett 😅
Warum zum Glück? Gerade in den nächsten Monaten bekommt man doch massiv mehr Performance fürs Geld.
@@wen1co Was bringen mir noch mehr FPS, als ob der Genuss größer wird wenn ich statt 120 fps 250fps habe
5800x3d und RX6900xt. Bin auch erstmal bedient.
@vermilion7777 reicht finde ich auch komplett
@@wen1co ja mag sein, ich halte nichts s von fsr oder so einfach nativ und .
Als 7900XTX Besitzer hoffe ich nur das AMD noch backpaddled…
Der inflationäre Gebrauch von AI in den keynotes hat mich ebenfalls leicht brechen lassen.
Das mit dem AI-Gequatsche ist der gleiche Unsinn, wie das Gequatsche in den Neunzigern, dass ein PC nur ein richtiger PC ist, wenn er MULTIMEDIA kann 😂😂😂
Ich erinnere mich gern an den Talking Parrot vom Soundblaster... Damals wollte jeder mit dem Computer sprechen können. Heute bist du froh wenn du nicht ständig von irgendeinem Gerät abgehört wirst.
Wie immer echt interessante Video danke Roman und ich werde hoffen, dass mehr Videos über 9000 x 3d bald verfügbar sind, im Bereich Anwendung 🤩
Danke Roman für das tolle Video. Also was die Hersteller momentan abziehen ist ja unverschämt bis zum geht nicht mehr. Vor allem was sich AMD da jetzt gerade erlaubt kein FSR 4 für die top grafikkarte der letzten Generation. Keine neue grafikkarte die mehr Power hat. Und Nvidia ist ja auch nicht besser die machen das ist alles noch über die Software bald müssen wir Abos bezahlen um irgendwelche Features zu bekommen wie bei Tesla und so weiter und so fort Katastrophe wenn das so weitergeht Leute dann ich weiß nicht wir brauchen eigentlich gar keine PCs mehr zu kaufen wir müssen noch Abo bei GeForce now machen und fertig
Danke für dein Video 😊 Wie offen und direkt du alles ansprichst, ist dir hoch anzurechnen! Bin schon gespannt auf dein NVIDIA Feedback 🤗
Glaube Intel verdrängt Amd bald aus dem Budget Gpu Bereich
AMD ist Budget? OK, es ist noch nicht Nvidia level, aber Budget sieht anders aus.
@@vermilion7777 wundert mich auch, Karten bei den Premiumpreisen knapp unter der Konkurrenz anzubieten ist keine kostengünstige Alternative.
@@vermilion7777 Budget ist natürlich relativ, aber gerade ne rx 7600 ist aufjedenfall Budget und auch sonst versuchen immer ca die gleiche Leistung wie nvidia für einen günstigeren Preis anzubieten, was auch Budget bedeutet, auch wenn das in letzter zeit nicht so gut funktioniert hat.
Budget bedeutet nicht gleich günstig, das ist alles relativ Betrachtet
ich hab da schon ne idee für nen trinkspiel 🍻😂
Ich glaube diese "Namensanpassung" soll eher dafür sorgen das völlig überforderte und/oder verwirrte Käufer im Regal ne 5090 und ne 9090 stehen sehen und sich denken das die 9090 ja wohl besser sein muss und eher dann diese kaufen. Für mich ist es einfach nur noch Ressourcenverschwendung ne komplett neue Grafikkartengeneration aufn Markt zu schmeissen die nur 20% mehr Leistung gegenüber der vorrangegangenen Generation liefert um dann die 4000er Serie aufn Wertstoffhof zu finden. Die sollen Anfangen mit der Zeit zu gehen und erstmal die Grenzen der aktuellen Grafikkarten erreichen bevor wieder völlig sinnfrei die nächste Generation raus gebracht wird.
Es wird ja keine 9090 geben, von daher ergibt das Argument gar keinen Sinn.
@@ForboJack bei 13:50 sieht man die Neubenennung zu RX 9070 also ist eine RX 9090 nicht so abwägig oder?
AMD bringt mit der 9000 Serie nun eine neue Serie auf den Markt, die mindestens 20 % langsamer ist als die Vorgängerserie. Das muss man erst mal schaffen. Nicht mal Intels Ultra CPUs sind langsamer als die Vorgängerversion. Die Namensgebung ist nur reine Augenwischerei. Wer eine schnelle GPU will, wird sich gewiss eher für die 7900XTX oder 5070 Ti entscheiden und nicht für eine 9070 XT, die wohl auf dem Niveau einer 5060 (Ti) sein wird.
Ich sehe darin keine "Ressourcenverschwendung". Bis die "alten" GPU's auf dem Wertstoffhof landen vergehen einige Jahre. Der Markt für gebrauchte Grafikkarten ist groß.
@@tihokhan1937 Doch, da AMD bereits im Vorfeld gesagt hat, dass sie in dieser Generation keine HighEnd-Grafikkarten rausbringen und somit die 9070XT bereits das Flaggschiff der Reihe ist.
Der AI Aussage Balken als Chart ist Weltklasse! Ich schmeiß mich weg 🤣
FSR3.1 unterstützt alle GPUs selbst von anderen Herstellern…
Jetzt FSR4 nur für RX9000???
Fühle mich mit meiner 7800xt ziemlich ausgeschossen…
So fühle ich mich mit meiner erst gekauften RX 7900xt gerade auch, Hoffe AMD ändert das noch !
@Asuras-Game-SNPX Hä, das gleiche gilt doch auch bei Nvidia. FSR4 ist hardwaregebunden, genau wie DLSS. Bei Nvidia, auch wenn du eine 4090 hast, wirst du kein DLSS4 bekommen, weil es hardwaregebunden ist.
@@CFarReal ist das so? Ich glaube nicht so ganz. Im Gegensatz zu DLSS von NVIDIA, das auf spezielle Hardware (Tensor Cores) der RTX-Grafikkarten angewiesen ist, ist FSR hardwareunabhängig und funktioniert auf einer breiten Palette von GPUs, einschließlich NVIDIA-Grafikkarten. In einem Spiel, das FSR unterstützt, kannst du also problemlos FSR aktivieren, auch wenn du eine NVIDIA-Grafikkarte hast. DLSS hingegen bleibt auf NVIDIA RTX-Grafikkarten beschränkt.
@@CFarReal Natürlich bekommen auch ältere nVidia-Modelle DLSS4. Das einzige was sie nicht kriegen ist das neue Frame Generation mit mehreren interpolierten Frames.
Naja theoretisch sollte meine 7900xtx unter Wasser noch immer schneller sein als die 9070 mir fsr4 ...
Du sprichst mir sowas von aus der Seele, das glaubst Du garnicht!
btw. die Wabikusa`s brauchen Eisen!
Mich würde jetzt interessieren auf wie viel AI pro Minute jetzt der Roman gekommen ist in diesem Video 🤔
Ich finde AMD sollte den Namen "Vega" wieder für die Grafikkarten verwenden, der wurde ja erst einmal verwendet und ich finde ihn doch sehr angenehm.
Roman du verstehst halt "AI, Leader, Partner, Ai, Leader, Competition, Ai Leader, Experience" nicht.
AMD versteht ja selbst nicht mal was "Leader" bedeutet". Vielleicht sollten sie da mal bei Team Grün nachfragen 😂
@DerEwigeWanderer du machst mich fertig
Roman hat nur Angst dass AI OC manuelles OC überflüssig macht 😉
Keine Growth-Erwähnung, das kannst du doch der Führungsriege so nich anbieten.
XD
Danke für die interessanten Grafiken immer. Du bringst die relevanten Zahlen, Daten, Fakten (ZDF) auf dem Tisch.
Die AIs/Minute sind vermutlich ein Maß, an dem sich die Präsentationen der kommenden Jahre messen lassen.
Also die Firma/Agentur die da mit der Erstellung der Präsentation sowie der technischen beauftragt war hat heftig versagt. Das das bei der Größe eines Kunden passieren kann hat mich ziemlich überrascht. Das kostet so viel Geld...
das B860/B850 thema wird doch noch viel besser, wenn dann irgendwann mal noch die B840 boards raus kommen, die ja von der Spezifikation her eher noch unter den A620 board liegen, AMD sich aber gedacht hat "lass die doch einfach mal umbenennen damit sie sich besser anhören"
Gääähn AI. Wann platzt denn die Blase?
Hoffentlich sehr bald, wird echt langweilig
Danke das du dir das für uns antust
Ja.. und genau das ist der Grund, warum Nvidia preise im HIghEnd segment aufrufen kann wie se wollen.... wenn du ne schnelle Karte willst musst halt n Monatsgehalt hinlegen.... gibt ja keinerlei Konkurrenz... ich versteh echt auch nicht, wie mans so hart Verkacken kann... AMD war ja mal auf nem guten weg aber heute kannst die ienach nicht mehr kaufen.. ich mein die Mittelklasse 5070 is jetzt so günstig... wozu noch ne AMD Karte kaufen? Kauf gleich Nivida.. da hast wenigstens was vernünftiges und ne Karte die einfach alles mögliche Unterstützt... lad dir doch mal mit ner AMD Karte KI Tools runter... läuft alles nich gescheit... hast ne NVidia... hast Plug and Play... völlig egal was du machen willst, streamen, KI, Videobearbeitung, sonstige Workloads dank CUDA läuft einfach alles immer butterweich und perfekt... und Ingame das gleiche.. DLSS RT usw da is NVIdia AMD einach Jahre voraus..
Klar, ist nunmal wie bei Apple, die nur ihre eigene Hardware unterstützt. Und mittlerweile auch preislich wie bei Apple...
Und dass die Leute Nvidia nachlaufen erinnert irgendwie auch an Apple...
FSR und Freesync zB - laufen auch auf Nvidia Karten. Umgekehrt DLSS und GSync.. nicht.
openCL ist open source, mit allen entsprechenden Vor- und auch Nachteilen, und der Fokus der Entwickler geht (leider sehr) langsam eher in die Richtung, da man eben sich nicht auf einen Hersteller zu sehr festlegen will. Bisher aber meist im Bereich von kleineren und mobilen Systemen.
Nvidia war open source schon immer zweifelhaft entgegengesetzt, und hat sich erst in der jüngsten Vergangenheit ein wenig geöffnet. Sieht man ja auch am immer noch schwierigeren Linux Support von Nvidia.
Natürlich läuft CUDA nicht auf einer AMD Karte, aber das sollte jedem klar sein, der sich ein wenig damit beschäftigt.
openCL funktioniert jedoch - und das weder "nicht gescheit" oder was auch immer.
Video encoding ist in der Tat ein Thema, was unperformanter läuft, aber dennoch fernab von "schlecht" oder "langsam"
Es ist wie der Umstieg auf Linux. Es gibt Situationen, da geht es tatsächlich nicht, aber zuallermeist liegt es eher am fehlenden Willen. (bei mir ist der Hinderungsgrund zB AutoCAD)
Weiß aber nicht, werlche "sonstige Workloads dank CUDA butterweich und perfekt" laufen sollen?
ingame - ist es immer noch eine Glaubensfrage, wie man zu upscaling und framegen steht. Dass sich Nvidia mittlerweile 15 von 16 pixel "ausdenkt", und nicht mehr rendern lässt, artet nun doch ein wenig aus. Wer weiß, was das am Ende für eine Qualität bleibt. Oder wird TAA noch aggressiver, und man sieht am Ende nur noch Matsch? Wenn man sich mal ansieht, wieviele Leute regelrecht TAA verachten...
Und für das Plus von 20% an reiner Rasterleistung von der 4090 zur 7900XTX ein Pres-Plus von 100% ? Und jetzt die 5090, die hier in Europa wohl bei 2300€ liegen wird.
Das ist alles, aber nicht "vernünftig".
Und dass Nvidia sparsam bei VRAM ist, ist kein Geheimnis mehr. Und dass mindestens noch 2 Karten zwischen der 5080 und 5090 passen - preislich als auch vom VRAM her, wird mich nicht überraschen. Evtl sogar drei - 5080 Ti, 5080 Super und 5080 Ti Super
PS: Von Raytracing habe ich bisher kein Spiel gesehen, welches das "richtig" und realistisch macht, und meistens sieht es nicht wirklich besser aus, sondern lediglich anders. Daher - Raytracing / Pathtracing irrelevant für mich bis jetzt.
@@bernds6587 Ich hatte Jahrelang AMD weil ich nicht bereit war die NVIdia Aufpeise zu bezahlen... dann hab ich angefangen mit KI rum zu spielen... hatte ne 6800xt kumpel von mir ne puh... 2070 oder sowas 2060? weiß nich genau jedenfalls ne langsamere karte als ich.. haben dann mit Stable diffusion .. ner lokalen Bild KI rumgespielt.. und was soll ich sagen bei ihm lief der ganze Prozess son Bild zu generieren faktor 16 schneller als bei mir... mit ner langsameren karte.. weniger ram usw... insgesamt älterer rechner... Hab mir ne NVidia geholt zack.. rennt butterweich.. vorher hab ich 5 Sekunden für eine iteration gebraucht.. jetzt mach ich 4-5 PRO SEKUNDE... um nur mal ein Beispiel zu nennen....
AMD hängt da einfach hinterher....und wenns nur daran liegt, weil jeder Software für CUDA optimiert aber nicht für openCL.. is mir als enduser am ende des tages scheiß egal.. ich will das zeug einfach verwenden und nicht noch mehr basteln müssen als ohnehin schon...
Bezüglich DLSS... ja warum funzt das Bei NVidia deutlich besser als bei AMD? ... und warum setzt AMD jetzt mit der neuesten 9000er Serie auch auf AI Upscaling was dann nicht mehr überall funktionieren wird?.. Warum wohl? weils einfach die bessere Technologie ist... NVidia hat von anfang an aufs richige Pferd gesetzt... FSR läuft überall... kannst aber vergessen.. ja geil da bringt mir ja super viel dass es überall läuft...
Was den VRAM betrifft bin cih ganz bei dir, finde das ne Frechheit sondergleichen dass die noch immer so wenig auf die Karten packen... Dafür hab ich kein Verständnis... Sollen halt die Boardpartner entscheiden wie viel ram se auf die Karte packen udn was se dann dafür verlangen... aber nvidia reglementiert hier leider hart.. naja nachvollziehbar so MUSS ich die 5090 kaufen wenn ich mehr VRAM will und der ist für KI nunmal essentiell... die 5090 ist ohnehin nicht direkt an Gamer gerichtet vielmehr an Creator... und die Gamerkarten sind Günstiger geworden, passt doch alles.
Ne 5070 für 550 scheine finde ich mehr als in Ordnung.
Ich persönlich bleib dabei, kann nicht verstehen warum jemand ne 9070 kaufen sollte wenn er auch ne 5070 für (wissen wir ja noch nicht safe ich spekuliere jetzt mal:) etwas mehr Geld. Bei der 5070 hast garantiert mehr für dein Geld... genauso bei CPUs.. ich hab überhaupt gar kein Verständnis wenn sich einer noch ne Intel CPU in Rechner schmeißt.. warum???... Nimm doch einfach das bessere Produkt und fertig?
@@AHPB_lel generell "besser" gibt es nicht, lediglich für den eigenen Anwendungsfall besser passend.
Ich brauche keine lokale KI, Ray/Pathtracing hat bisher keinen Mehrwert für mich, und framegen und upscaling sieht einfach nicht so gut aus wie "echte" frames, egal ob nun DLSS oder FSR oder XeSS.
Und solange Nvidia ihre Marktposition behält, werden sie sie auch ausnutzen.
Daher bleibt Preis/Leistungstechnisch für mich nur AMD übrig (auch die geringfügig höhere Leistungsaufnahme mit eingerechnet), intel schied ebenfalls aus aufgrund ihrer (damals) nicht-nativen Unterstützung von DirectX 9 und darunter, und dass es im oberen Leistungsbereich nichts gab/gibt.
Dass die meiste Software und Technologien bei AMD auch hardwareunabhängig funktionieren, ist für mich auch noch ein Punkt, der am Ende zwar nicht ausschlaggebend war, aber dennoch unterstützenswert ist.
Und der Gelegenheitszocker von Welt auf einem einzigen 23 Zoll fullHD 60Hz Monitor: der will, dass sein Fortnite läuft und evtl Minecraft. Und da ist es egal ob Nvidia, AMD oder intel.
Preis/Leistungstechnisch liegt da aber AMD und intel vor Nvidia. Wie es mit den 5000er Karten aussieht, müssen erstmal unabhängige Tests zeigen, insbesondere rohe Performance, ohne dem ganzen KI-Kram
@ ja da hast du recht, ein 0815 fhd gamer am 23" monitor hat keine Ansprüche der wills vllt billig. Aber so jemand kauft z.b. Keine 7900xtx als beispiel. Wenn jemand nur 200€ ausgeben will, klar. Aber wenn jemand sowieso schon uber 500 ausgibt, bin ich der Meinung nvidia ist unterm strich die bessere wahl wenn man das gesamtpaket betrachtet.
@@AHPB_lel Bei mir sind es 3x fullHD Monitore, und evtl kommt bald ein größerer 4K dazu. Und plane eher mit mindestens 7 Jahren Laufzeit, daher wird es am Ende Hardware, die am oberen Ende liegt, aber die (für mich) weitaus bessere Preis/Leistung hat.
Und die Grafikleistung einer 7900XTX bekommst man bei Nvidia nicht für knapp unter 1000€.
Als netten Nebeneffekt würde Linux auch besser funktionieren, falls ich tatsächlich doch mal umstellen würde.
Alles drin, alles angesprochen was gut und was schlecht war. Schlicht perfekt auf den Punkt gebracht! Top Video 👍 Danke
Warum gibts eigentlich immer noch USB 2.0 Anschlüsse an Mainboards? Ist das aus Kostengründen?
Das darf bei den Mainboard Preisen bezweifelt werden
@@Einheit101 Naja, hohe Mainboardpreise bedeuten ja nicht zwangsläufig, dass keine Kosten eingespart werden
Indirekt natürlich. Mit "voller Hütte" werben, aber unter den Tisch fallen lassen, dass die Fenster nur einfach verglast sind🤡 @@Einheit101
für Webcam, Headset, Maus und Keyboard reicht 2.0 aus und man nutzt die 3er USBs nur für Devices die es auch brauchen
Nicht jede Peripherie benötigt USB 3 oder 4. Es wäre also reine Ressourcenverschwendung eine Maus oder Tastatur an USB 4 oder so anzuschließen. Wenn man aber 10,15 oder noch mehr USB-Anschlüsse hat, ist es im Grunde auch egal, denn wer schließt in der Realität schon mehr als 10 USB-Geräte an seinen PC an? Maus, Tastatur, Audio, KVM, 2 externe NVME Laufwerke, Drucker, USB-Hub... das war's bei mir.
Meine Einschätzung: AMD hat RDNA4 kurzfristig verschoben, nachdem sie die Preise der RTX 5000 mitbekommen hatten. Da muss wohl neu kalkuliert und vielleicht noch ein bisschen übertaktet werden, letzteres könnte dann wieder zu sehr komischen Karten wie den 290X am thermischen und Strom-Limit führen. Und: Noch weiss keiner, was DLSS4 wirklich so macht und wie die rohe Raster-Performance der 5000er ist.
Danke!
Die Sache mit FSR4 macht vom branding auch irgendwie kein Sinn, da ja FSR und AmD Features für alle verfügbar sein soll und man nicht für alles immer ne neue Gen braucht
Falls das der Fall ist, kaufe ich keine AMD Karte mehr.
Besitze eine 7900xtx
Jop, mein Interesse an FSR 4 ist auch gleich Null. Warum soll ich auf ne Mittelklasse GPU der letzten Generation (weil Leistung auf Niveau der 4070) wechseln? Komplett bescheuert deren Strategie. Die hätten lieber FSR für alle weiter entwickeln sollen.
@@ForboJack Dann kann man auch zu Nvidia greifen, ist der selbe Mist.
Ich mag aktuell nur die Modell nicht.
5080 super ,oder ti mit mindestens 20gb vram
naja, deswegen ist FSR bisher auch eher überschaubar gut, denn Zitat Igor:
"Diese Technologie (FSR4), die stark auf die AI-Beschleunigung der RDNA-4-Architektur angewiesen ist, verspricht eine realistischere Darstellung und flüssigere Bewegungen, selbst in anspruchsvollen Gaming-Szenarien. Damit endet scheinbar auch die hardwareunabhängige Implementierung von FSR"
Bin nur gespannt ob sie wieder ein Jahr brauchen bis es läuft. Das alles ist auch der Grund warum ich nicht AMD kaufe...zuviel herumgebastel und dann erst nicht gut. Dafür entschädigt auch nicht der günstigere Preis, denn billig sind sie auch nicht
@@mattplayer3582 32 bit pro Speicherriegel / Speicherbusbandbreite. Da kannst du nicht willkürlich die VRAM Größe variieren ohne ein neues PCB zu bauen ;-) Aktuell gab es maximal 2Gbyte Chips, aber bald kommen 3 Gbyte nach...somit 50% mehr Vram auf dem selben Board möglich.
Danke für das Video! 😂 Ich will echt mal die Leute kennen lernen die bei denen im Marketing hocken 🤦♂️
Einfach nur schlecht, das es keine high end AMD gibt. Damit wird Nvidia ein Monopol in diesem Bereich erhalten und kann dann die Preise diktieren. Mit dem FSR4.0 Thema stimme ich Roman zu. Es wäre ja noch IRGENDWIE verständlich wenn Sie 900XTX karten hätten, aber so, einfach schlecht.
Auch wenn die HW Vorstellungen eher langweillig waren, Romans Videos reissen es immer wieder raus und man hat wenigstens noch etwas zu lachen. Danke dafür ❤
Musste sehr schmunzeln bei der AI-Anzahl / Minute, denn in der Schule, damals, habe ich bei einer Musiklehrerin das Wort "So" gezählt und meinte am Ende der Stunde zum Banknachbarn: "Noch 3 Stunden mit ihr und wir können den Durchschnitt ausrechnen." :D
Ich liebe neue Hardware,- einfach herrlich die Tüftelei. Danke für deine Arbeit.
Die größte AMD Namenspeinlichkeit hast du noch vergessen: Die aktuellen Mobile CPUs. Hier wurde erst 2023 mit Phoenix ein neues Schema eingeführt, dass an erster Stelle die Jahreszahl und erst an dritter die Architektur beschreibt.
Ein Ryzen 5 7520U ist z.B. win Vierkerner mit ZEN2, während ja ein 7630U ein 6 Kerne mit ZEN3 war. Und ein 7640U ein 6 Kerner mit ZEN4. Das war ja schon peinlich genug.
Aber dann kam Intel mit dem Ultra Branding für die CPUs mit NPU an, also Core Ultra 100. Jetzt musste AMD unbedingt mitziehen und hatte die beste Idee allerzeiten: Die neuen Strix Point APUs sollten Ryzen AI 100 heißen. Das war ganze 15 Monate nach dem letzten neuen Namenschema.
Also hat AMD der Presse im Prebriefing der Computex 2024 die CPUs vorgestellt und die Reaktion der Presse war: "Warum Ryzen AI 100, es ist doch nach Phoenix (Ryzen 7000 mobile) und Hawk Point (Ryzen 8000 mobile) eure dritte Gen mit NPU?"
AMD war das wohl noch nicht aufgefallen denn bei der offiziellen Computex Keynote wurden sie dann offiziell als Ryzen AI 300 vorgestellt. Die Demo Geräte haben aber weiterhin Ryzen AI 100 angezeigt.
Und jetzt der nächste geniale Einfall: Auf der CES wurde verkündet, dass die 8000er Reihe in das neue Namensschema angepasst werden, sie heißen: Ryzen 200. Das AI lässt man weg, weil Baum. Ich meine das waren die CPUs, wegen denen die Nachfolger von AI 100 zu AI 300 umbenannt wurden und jetzt kommen sie ohne AI als 200?!
AI sind neu nur noch Copilot+ d.h. 40+ TOPS NPU. 7000er und 8000er haben nur ne rudimentäre NPU (wie auch Lunar Lake) darum ohne AI.
Allerdings Ryzen AI 9 Max ist schon dämlich.
Biite die AI/minute bei künftigen keynotes beibehalten. Bestes unterhaltungsformat 2025
Naja, was soll AMD bei den GPUs diesmal auch groß vorstellen? Die brauchen noch Monate um ne GPU rauszubringen, die langsamer ist, als eine über 2 Jahre alte 7900 XTX. Von dem FSR 4 Problem will ich gar nicht erst anfangen zu reden. Gleichzeitig bringt Nvidia die neue Generation noch im Januar raus und lässt es sich nicht einmal so teuer bezahlen wie erwartet.
Ich bin jedenfalls enttäuscht, und befürchte, dass das zu einem ganz schlechten Zeitpunkt passiert. Seit einigen Monaten ist Nvidia mit dem 560er Treiber nämlich sogar auf Linux mit Wayland problemlos nutzbar, was zumindest bei mir der letzte Sargnagel für meine AMD GPU ist.
Hab auf Fedora bisher auch 0 Probleme mit Nvidias Treibern. Aber Nvidia bewegt sich halt dezent aus meiner Preisklasse raus aktuell.
Ich werde mich wohl damit abfinden müssen, dass ich demnächst auch zur "potato PC" Fraktion gehöre.
Ich werd schon mal ein H Kennzeichen beantragen gehen.
Auch wenn die Präsentation sehr verwirrend war, so wurde doch eindeutig gesagt, dass die 9070 keine high end Grafikkarte sein soll
Wie viel die neuste Nvidia Generation kosten wird, kannst du nicht am MSRP ausmachen. Wenn du also nicht eine der handvoll Nvidia Karten bei Release kaufen kannst, wirst du nochmal ordentlich drauf zahlen müssen.
A.I overclocking, A.I herunterfahren, A.I Pc Booten, A.I Wasserkühlen, A.I gesteuertes Bios, A.I Bildschirm übertakten auf 1 Million Herz, A.I Maussteuerung, A.I alles 🤣😂 ich kann es nicht mehr hören.
Grüße an die Patreons🫡
Danke für diesen Beitrag und die Informationen.
Darauf wartete ich bereits "Tage" und schaute mir keinen anderen Inhalt zu diesen Neuerungen an.
Wo sind die Katzen? 😭
AI PRO MINUTE 😂😂😂😂😂😂 alter schwede der Bauer weiß wie man stimmung reinbringt in ein video hab mich so be pi sst vor lachen danke roman das du aus dieser AI seuche noch irgendwie was positives gezogen hast ❤❤❤😂
Wenn meine 7900xtx kein fsr4 bekommt war dies vermutlich meine letzte amd gpu für längere Zeit, da ich es immer gut fand das amd last gen Support hatte und nicht den nvidia move gemacht hat wie bei dlss3.0
FSR 3 ist Open Source, ich denke das wird sich mit FSR 4 nicht ändern.
Heißt AMD liefert mehr Support für alte Nvidia Karten als Nvidia selbst.
In einem anderen UA-cam Video wurde gesagt, dass FSR4 zuerst für RDNA4 kommt man aber nicht ausschließt, dass es später auch auf für manche älteren GPUs verfügbar sein wird. Ich denke Besitzer von RDNA3-Karten können durchaus auf FSR4 hoffen, bei RDNA2 und älter sehe ich geringe Chancen, da diese mWn über keine dedizierte AI-Beschleunigung verfügen. Ich denke, die Beschränkgung auf neuere Karten ist hier keine willkürliche Maßnahme um neue Karten zu verkaufen, sondern einfach dem Umstand geschuldet, dass erst RDNA3 überhaupt AI-Beschleunigung in Hardware besitzt.
@@SuppenDfgden selben move haben sie auch bei SRS gebracht und ich warte nach 3 Jahren oder was immernoch auf den SRS Support für die Vorgängergeneration. Bei den Laptops gab es zum Zeitpunkt der Vorstellung noch keine Grafikkarten die SRS unterstützt haben, die kamen erst danach....
Ich komm nicht auf die Idee, was der Chipsatz mit der OC-Möglichkeit überhaupt zu tun hat!
Was bei Nvida rauskommt, da würde ich erstmal abwarten. Alle angaben sind mit Frame Generation. Am Ende wird AMD nicht schlecht dar stehen mit Preis Leistung wie angekündigt. ob es eine KI chip benötigt auf der Platine um FSR 4 nutzen zu können wurde noch gar nicht in Erwägung gezogen.
Wenn dann könnte man es auch auf der 7000 Serie laufen lassen. Wenn sie es ermöglichen.
Das ist falsch. In den offiziellen Unterlagen wird damit geworben, dass FSR4 auf den auf RDNA4 exklusiven AI Kernen fußt. Was meist du bitte mit „nicht schlecht da stehen in Punkto Preis/Leistung. Zu beiden Punkten gibt es bislang keine konkreten Daten.
@@Sly_404 Es gab einen benchmark leak einer 9070 für COD im ingame Tool. Sieht nicht schlecht aus. Ob das FSR4 dazu dient mehr neue Grafikkarte zu verkaufen, oder ob es technische Probleme gibt wird sich zeigen.
Es scheint mir, dass Raster die-space für AI die-space abgegeben wird, aber ich frage mich dann, was ist denn schlussendlich tatsächlich effizienter, in Form von die-space und Energieverbrauch: Rasterisation, oder AI framegen?
AI AI hör ich immer nur, es ist doch wohl wichtiger wer öfter den buchstaben X in seiner produkt bezeichnung hat....
Die 5070 hat 14% weniger Cuda Cores als eine 4070 super
ablesen 1+
Wer braucht denn noch Cuda? Das macht jetzt alles AI🤪
AIAIAIAIAI😊
@@wolfgangkober1291 Danke ☺️
@olliger603 oder doch IAIAIA?
Frühstücks-AI, Spiegel-AI, Rüher-AI ... ist ja wie bei den ganzen Protein + Speisen 😂
Ich finde ein wenig komisch, dass das Fehlen von OC auf B und H Boards von intel als so entscheidend dargestellt wird, wie auch bei AMDs Boards.
Die Unterschiede sind ja eigentlich eher in I/O zu finden und da deutlich.
Auf der einen Seite wird sich ständig über zu hohe Stromverbräuche beschwert und auch OC soll sich laut quasi allen Aussagen kaum bis gar nicht mehr im Alltag lohnen. Warum wird bei Boards und CPUs dann immer so ein großer Fokus auf OC Möglichkeiten gelegt, wenn das ein Feature ist, das die allermeisten aus guten Gründen gar nicht nutzen werden?
Trotzdem scheint es, als würde zumindest medial jedes Produkt, das kein CPU OC unterstützt, mehr oder weniger ignoriert werden.
Es gibt quasi keine Tests/Reviews zu non k CPUs von intel, warum eigentlich nicht? Sie sind verügbar, oft günstiger aber es ist nahezu unmöglich abzuschätzen, ob sie sich lohnen oder nicht?
Vielleicht lohnt sich das bei moderner Hardware nicht mehr.
mein R5 7600 taktet von 3,8 auf ~5 hoch bei Bedarf.
@@KiffgrasConnaisseur Naja, warum wird das dann als so wichtiger Punkt gehandhabt?
Obligatorischer Kommi für den Algorithmus, war aber auf jeden Fall sehr informativ, gerade der Part mit den AMD GPUs, danke dafür :)
Danke fuer das Vorstellungsvideo 😉
Das mit der AI Tabelle, richtig ernst und einfach geil 😂
7:37 alles Standardwerbung per Grafikdesign in HTML, MSI hat bei meinem B450-A Pro auch den OnBoardsound als Professionell/Studio mässig beworben, dabei kann man das was da bei den Klinkebuchsen rauskommt natürlich komplett in der Pfeiffe rauchen und nichtmal Lichtleiter-Ausgänge hat es die es absolut hätten reissen können, AVR dran und alles is super mit der gescheiten Anlage.
18:02 - das ist ganz normal wenn der Laden zu groß wird und keiner mehr den Hut aufhat / haben will / darf / kann
Richtig. Da werden in einem Jahr ein paar MBAs und externe Marketing "Experten" beauftragt und im nächsten Jahr lässt man sich von anderen wieder die nächste Schnapsidee aufquatschen...
Vielleicht möchte AMD nicht an die ATI 9700 erinnern und hat sich deswegen für die neue Namen entschieden. Ohne offizielles Statement ist das aber alles nur Mutmaßungen.
Ein Namensschema, wo man soch mit dem größten Konkurrenten vergleicht. Wenn sie nicht mehr Performance bieten, ist das glaub ich ein ziemliches Eigentor
9:19 was ist denn mit der Hand von dem Typen los, ist er so aufgeregt, wieso zittert er so doll. Hat man ja schon Angst, dass die CPU gleich runterfällt :D
Evtl höhere Abspielgeschwindigkeit.
Die AI Performance Analyse bitte nochmal als Short hochladen.
So lustig. :D
wie wir den KI-Wahn stoppen:
"unser neuestes LLM Model ist bis zu 300% effizienter als ein Mensch auf dieser Position. Ich präsentiere die erste CEO KI, Generative Seniority oder kurz GenSen One..."
Cooles und informatives Video, danke dafür Roman 👍🏻
Was ich absolut nicht checke ist, wieso AMD bereits am 4nm über TSMC dran ist und Nvidia immer noch mit ihrer extra Wurst noch beim custom 5nm geblieben ist dafür aber GDDR7 verwendet und AMD immer noch den GDDR6. Also für AMD hätte dann doch eher ein 5nm Chip völlig gereicht und ein 4nm Chip wäre bei Nvidia doch viel sinnvoller, um mehr Leistung und mehr Effizienz zu bekommen!?!? Ich check da nichts aber anscheinend war es Nvidia sowieso egal, da sie eben die Nr 1 sind und es bleiben werden. Wozu dann Kohle raushauen. Und über die Effizienz macht sich wahrscheinlich "nur" Europa und vor allem Deutschland den meisten Kopf als überall woanders auf der Welt...
Die Namensgebung des AI tools von Gigabyte erinnert mich sehr an den Schachcomputer Deep Thought von IBM aus 1988
Beste is das mit der AI/s du bist und bleibst einfach der beste 🤗
Das AI von heute ist das HD von vor einigen Jahren. Da hatte man auch für jeden erdenklichen Kram immer HD genutzt, ja, auch für Zahnbürsten.
Danke dir Roman für deine Glückwünsche. Hab mich sehr gefreut 🥰
Direkt nach AI bin ich froh, dass Roman wieder mal die fehlende Deback-LED moniert hat. Wie oft ist es mir schon passiert, dass ich das Mainboard zuweit gebacken habe, und die Deback-LED zeigt dann immer exakt an, wie weit man den Backvorgang wieder rückgängigen machen muss. Mit dieser Methode habe ich schon einige Backfehler rückgängig gemacht, also eben debacked.
Man hätte ein Drinkspiel aus der AMD Keynote machen sollen. Mit jedem AI einen Kurzen trinken. Ich glaub die 45 Minuten hätte man nicht überlebt 😂
Ich verfolge in den letzten 2-3 Jahren die Hardwareszene nicht mehr so aktiv wie früher und kenne daher die ganzen Produktlinien auch nicht mehr so gut. Obwohl du dich ja bemüht hast, das alles möglichst klar zu erklären, hat mir das Video einfach nur Kopfschmerzen bereitet. Ich brauche dringend eine AIbuprofen.
Ich dachte mir schon seit Sntch ein technischer Begriff ist, da ich es nur als Schimpfwort kannte😂😂😂
Wer kennst noch: vor 30 Jahren war auf ABSOLUT JEDEM Produkt der Zusatz "Mit Computer entwickelt" oder auch "CAD".
Erinnert mich an das Kartenspiel "Minderheiten Quartett". Dort gibt es eine Kategorie "Argumente pro Minute" 😂
Der Lüfter mit den 5 Kabel Abzweigungen unten Rechts im Bild.
Bei mir ganz klar die Kategorie "Visuelles AMSR". Ich musste nur da hinschauen 🤓 Keine Ahnung warum.
starker Outro Beat
Der AI-Zähler, einfach genial xD
Vielleicht ist Tante Lisa kurzfristig ausgefallen (Krankheit oder so, wer weiß) und deshalb mussten andere einspringen und ein Teil ist komplett weggefallen, weil es einfach zu kurzfristig war. Also das wäre noch ne Erklärung die ich verstehen würde und vermutlich auch mehr Verständnis bringe würde... Aber ich glaube selbst nicht ganz dran :D
Freue mich ja schon auf die AI 8 Pin Stecker und besonders auf die AI Lüfter. Vielleicht gibt es ja auch bald AI Headsets die für dich sprechen. Jeder weiß doch das AI Sticker auf dem PC mindestens nochmal 5 FPS geben. Nachtrag: Gerade gelesen das es wohl auch AI Wärmeleitpaste gibt, ein must have für den modernen Gamer.
@der8auer: Mycro Pro und Delid Die Mate R7000 weiterhin mit 9950X3D kompatibel?
(letzter Stand ist laut Website ja von September, evtl. hast du ja schon einen in den Händen)
jau sind kompatibel. Ich checke ob das auf der Website angepasst wird
@@der8auer super, danke! beides am DI bestellt und schon unterwegs. echt großes lob eure logistik!