Der WAHRE Grund, WARUM wir "KEINE Fortschritte" machen! Moores Law ist tot, oder nicht?

Поділитися
Вставка
  • Опубліковано 21 жов 2024

КОМЕНТАРІ • 584

  • @rj7429
    @rj7429 Рік тому +189

    Wir sind erst am Anfang des Machbaren. Da wird es noch eine unendliche Menge zu tun geben. Natürlich kommen wir an Grenzen, jedoch wird man irgendwann die CPU mit einer ganz anderen Architektur ersetzen.
    Es ist wie mit dem Weltall momentan. Selbst wenn wir zum Mars kommen, wird es gefühlt unmöglich sein, andere Galaxien zu erreichen (auch mit Lichtgeschwindigkeit). Jedoch, wenn Einstein recht hat, dann werden wir irgendwann durch Wurmlöcher reisen können, um andere Galaxien zu erreichen. Wer hätte jemals 2000 oder 2010 geglaubt, dass wir einmal so etwas wie DLSS oder FSR bekommen würden? :) Was die Leistung einfach irgendwann verdoppelt oder noch so viel mehr kann! Und das quasi nur mit Software.
    Man wird eben Grenzen haben, jedoch dann nach neuen Grenzen suchen. CPU geht nicht mehr kleiner, ja dann suchen wir eine andere Möglichkeit, um noch mehr Leistung zu bekommen.

    • @jojonachname2131
      @jojonachname2131 Рік тому +9

      Supraleiter bei Raumtemperatur und quantencomputing könnten uns zum 60.000hz gaming führen 😁

    • @oliverbecker3443
      @oliverbecker3443 Рік тому +7

      Welche neuen Architekturen??? Digitalrechner müssen mit Transistoren arbeiten, daran lässt sich nichts ändern, und die sind etwa seit 2014 bei 14 nm Größe gefangen, darunter kam man bis jetzt nicht, außerdem kosten irgendwann immer kleinere Fortschritte immer mehr Geld.
      2000 oder 2010 waren die Fertigungsverfahren auch noch deutlich größer als jetzt. Welche neuen Architekturen meinst du denn genau?
      Und bedenke folgendes: Wenn das Universum Reisen zwischen verschiedenen Galaxien nicht vorgesehen hat, dann sind sie auch nicht möglich.

    • @Civooo420
      @Civooo420 Рік тому +6

      ​@@oliverbecker3443wie soll er Architekturen nennen die es noch nicht gibt?.. Woher weißt du denn dass das Universum vorgibt es gibt keine Möglichkeit? Das wird alles schon irgendwie so wie sonst auch 😋

    • @jojonachname2131
      @jojonachname2131 Рік тому +2

      @@oliverbecker3443 Architektur betrifft nicht nur die Materialien auch die Anordnung 😁 früher wurden andere Befehlsätze teilweise genutzt oder ein Rechenkwerk zum addieren und Multiplikation wurden mehrmals durchs "addierwerk" gejagt. Da gibt es bestimmt noch Potential neue Rechenwerke die speziell für eine Aufgabe sind CPU's und GPU's als eine große Recheneinheit die ihre Leistung individuell einteilt. Schnellere Speicher. Größerer L1 Cache der außerhalb der CPU angebracht werden kann. Wer weiß. Wer nicht forscht wird auch nichts finden ^^

    • @oliverbecker3443
      @oliverbecker3443 Рік тому +1

      @@Civooo420 Er soll keinen Namen nennen, sondern die veränderte Funktionsweise, und ich sage nicht, das uns das Universum dazu keine Möglichkeit bereit stellt, allerdings sollte man eben nicht jetzt schon, ohne das eine praktischer Beweis erbracht wurde, annehmen, das es so kommt, wie von viele hier erhofft.
      Des Weiteren haben die Ingenieure von Intel, AMD und NVDIA einen guten Grund, anzunehmen, dass es mehr als nur die aktuellen Möglichkeiten gibt; denn wenn keine neue Hardware mehr entwickelt werden muss, dann wäre eben jener Berufsstand fast vollständig überflüssig, und man bräuchte fast keine Hardware- sondern nur noch mehr Softwareentwicklung.
      Und wie gesagt: Ein digitaler Rechenchip muss mit Transistoren rechnen. Ein alternativer Stoff zu Silizium müsste außerdem mindestens genauso Effizient wie dieser sein, auch wenn er kleiner ist. Neue Elemente gibt es inzwischen ohnehin nicht mehr zu entdecken, die Auswahl bei Alternativen beschränkt sich also auf die uns bereits bekannten Elemente.

  • @corbisum7593
    @corbisum7593 Рік тому +55

    So mag ich ein Video! Das beleuchten von allen Seiten, alles neutral darstellen und jeden selbst entscheiden lassen, was diese Infos mit Ihr / Ihm machen und nicht diese Schlagzeilen mit Bild Niveau Videos oder Beiträge. Vielen Dank dafür ♥ :) .

    • @KreativEcke
      @KreativEcke  Рік тому +13

      Ich hab zu danken für die echt super netten Worte. Ich will mich künftig auch verabschieden von „Bild Niveau“. Ich hab lange über den Content hier nachgedacht und für mich entschieden, dass hier auf dem Channel „der nächste Schritt“ ansteht! Danke!

    • @lollul3793
      @lollul3793 Рік тому +1

      ​@@KreativEckewann warst du denn jemals auf Bild Niveau? Ich fand deine Videos eigentlich schon immer überdurchschnittlich differenziert.

    • @corbisum7593
      @corbisum7593 Рік тому

      @@KreativEcke Ich meinte das allgemein und hatte gar nicht deinen Channel im Sinn :) . Aber lieber ein wenig Selbstkritik als alles lieblos dahin laufen lassen :) .

    • @Klausonstream
      @Klausonstream Рік тому

      @@KreativEcke deine Videos sind echt Klasse und sind für mich auch nie Bild Niveau gewesen. Kein Platz für Populismus was gesellschaftliche Themen angeht oder Zusammenarbeit mit Unternehmen die fragwürdig sind. Sehr tolle Entscheidung

    • @Serandi1987
      @Serandi1987 Рік тому

      Doch!!! Polarisieren was das Zeug hält!!! Sonst ist es ja langweilig 🥱

  • @lirror4910
    @lirror4910 Рік тому +87

    Ich finde der Effizienzfaktor sollte nicht unterschätzt werden. Gleiche Leistung bei geringerem Energieverbrauch ist für mich auch ein Fortschritt.

    • @starcrafter_yt2722
      @starcrafter_yt2722 Рік тому +7

      Ein recht großer sogar meiner Meinung nach

    • @walterwhite415
      @walterwhite415 Рік тому +3

      Bei Autos ist das eigentlich seit vielen Jahren schon so. Ein neuer Golf ist nicht schneller als mein fast 20 Jahre alter Golf, aber etwas effizienter und gleichzeitig natürlich deutlich besser ausgestattet!

    • @DJCREEDHDSQ
      @DJCREEDHDSQ Рік тому +2

      Würde ich sehr situativ betrachten. Es bringt mir bei meiner Grafikkarte nicht wirklich viel, wenn ich für die Effizienzsteigerung als Endkunde mehr bezahlen muss. Das Ersparte, habe ich damit sowieso in den Sand gesetzt. Auch bezweifle ich das alle Spieler einen Strommesser eingesetzt haben um sich daran aufzugeilen, dass ihre Grafikkarte nun 30 Watt weniger saugt und damit über das Jahr eine Einsparung von 12 Euro [30 Watt an 4h/d 7 Tage die Woche auf 365 Tage. ] resultiert.

    • @OpenGL4ever
      @OpenGL4ever Рік тому +1

      Ich vergleiche meinen PC und die Spielzeit mit Auto fahren. Mein PC braucht ein paar Wattstunden, mein Auto ein paar Tausend Wattstunden pro Stunde. Solange also mein PC + Klimagerät beim Spielen weniger Energie braucht als mein Auto, mache ich mir um meinen PC keine Sorgen. Gaming ist schließlich Hobby und Hobby darf auch etwas kosten, dafür geht man arbeiten.

    • @De-M-oN
      @De-M-oN Рік тому

      Durch weniger Energieverbrauch kann man mehr Leistung erzielen, da man dann weniger Temperaturentwicklung hat.
      Für die Stromkosten ist mir das komplett egal. Hier kostet Strom zwar 50 cent auf dem Campingplatz hier, und trotzdem hat man vorher in der Mietwohnung fast genauso viel schon bezahlt, trotz weit günstigerem strom. Da sieht man mal was man in einer mietwohnung abgezockt wird.
      Hier auf dem Campingplatz hab ich vllt 130 € Strom nach 3 Monaten verbraucht und das obwohl ich den PC immer an habe und keine fps limiter benutze. Immer schön uncapped und auch schön overclocking rein.
      Also kümmert mich persönlich der Strom kaum.
      Viel nerviger ist die Erdgas Therme. Da zahlste tatsächlich schnell viel Geld wenn man nicht aufpasst.

  • @qoures
    @qoures Рік тому +26

    Super informatives Video mit fantastisch redaktionellen/philosophischem Hintergrund.
    Gerne mehr! :)

    • @KreativEcke
      @KreativEcke  Рік тому +5

      Freut mich total zu lesen! Ich hatte auch mega viel Spaß daran. Gedenke auch mehr von solchen Videos zu bringen! Danke!

  • @yvonnemay1654
    @yvonnemay1654 Рік тому +137

    Das lustige ist ja, dass der Mensch keine Veränderung mag, aber trotzdem immer das neuste will und sich nicht langweilen will.. Aber wäre das nicht paradox? 😮

    • @KreativEcke
      @KreativEcke  Рік тому +18

      Stimmt wenn man drüber nachdenkt 😂

    • @Der-RetroGamer
      @Der-RetroGamer Рік тому +14

      Ich persönlich zumindest will nicht immer das neuste. Ich bin zufrieden, wenn meine Geräte lange halten und ich mich eben nicht ständig an was neues gewöhnen und wieder Geld ausgeben muss. Daher sind viele meiner Geräte auch schon 10, 20, 30, oder zum teil gar über 40 Jahre alt. Warum ersetzen, wenn es doch noch funktioniert?

    • @yvonnemay1654
      @yvonnemay1654 Рік тому +3

      @@Der-RetroGamer Geht mir auch meistens so, ich bin nur vom Durchschnittsmensch ausgegangen, aber am Ende müssen wir alle sparsamer mit dingen umgehen das stimmt..

    • @paulsnow2018
      @paulsnow2018 Рік тому +1

      es kommt eben auch auf die Qualität und Art der Veränderungen an...

    • @fairphoneuser9009
      @fairphoneuser9009 Рік тому +2

      Das Neueste vom Gleichen! 😁

  • @Someone-fu7wz
    @Someone-fu7wz Рік тому +1

    Es gibt immer Leute, die sich nur beschweren. Das sind auch oftmals die Menschen, die sich in dem Thema nicht wirklich auskennen und daher die geleistete Arbeit gar nicht nachvollziehen und somit auch nicht schätzen können.

  • @herrnobody6714
    @herrnobody6714 Рік тому

    danke für den Einblick, war mir so nicht bewusst

  • @dampfwatze
    @dampfwatze Рік тому +1

    Ich finde, wir sollten uns nicht von den Fortschritten von KI blenden lassen und Moores Law im klassischen Sinne nicht aufgeben. Außerdem sollten wir auch andere Möglichkeiten als Silizium basierte Bausteine in Erwägung ziehen, um leistungsfähigere Rechner zu bauen. In diese Richtung gibt es auch viele Forschungsansätze, die aber meist noch sehr frisch und wenig ausgereift sind. Bis diese Technologien für den Markt reif sind, kann es noch lange dauern.

  • @nico3064
    @nico3064 Рік тому +1

    Hardware und Software müssen immer Hand in Hand gehen. KI, upscaling etc. hat Softwareseitig riesen Potential was gerade erst angefangen wird auszuschöpfen. Gleichzeitig muss auch Hardwareseitig weiter entwickelt werden. Ich bin mir sicher das man mit Optimierungen seitens der Software noch sehr viel Leistung aus der Hardware die es schon gibt raußholen kann.
    Wie immer sollte man sich nicht nur auf eine Sache konzentrieren, sondern immer das Gesamtpaket betrachten

  • @dreamercap4006
    @dreamercap4006 Рік тому +5

    Hey ✌🏼
    Ich muss dir jetzt mal ein fettes Lob aussprechen!
    Ich mache mir jeden Tag Gedanken über pc Hardware und jede Frage in meinem Kopf wird anschließend in einem Video von dir beantwortet 😋
    Seit Wochen geht das so und ich enjoy es sehr
    Mach bitte genau so weiter 🙏❤️

  • @kyler5032
    @kyler5032 Рік тому +2

    Tolles Video. Meiner Meinung nach ist Veränderung einer der wichtigsten Aspekte des Lebens.

  • @Cee729
    @Cee729 Рік тому +1

    Einen großen Nachteil bringt der Co-Pilot Ki aber im Gegensatz zu der Rohleistung mit sich.
    Die Rohleistung lässt beliebig in jedem Szenario bedenkenlos einsetzen, während die Ki erst lange auf ein einziges, bestimmtes Szenario angepasst werden muss. So entscheidet letzendes Endes mehr der Hersteller, was mit der Hardware gemacht werden kann.
    Das wird in Zukunft dann kleinere Entwicklerstudios von Anwendungen und Indie-Games treffen, für welche es sich aus Sicht der Hardware Hersteller einfach nicht lohnt, deren Hardware auf "kleine Projekte" zu implementieren.
    Außerdem wird die Entwicklerplattform so erschwert, da Software bereits auf einem Hardware/Software Hybrid aufbaut.

  • @Locutus709
    @Locutus709 Рік тому +6

    Veränderungen sind gut und bedeuten Weiterentwicklung und Fortschritt 😎🖖 bin gespannt wohin die Reise noch geht 🤓

    • @Serandi1987
      @Serandi1987 Рік тому +1

      Es geht immer weiter und weiter!!! Alleine aus finanzieller Sicht!!!

  • @LENIVR
    @LENIVR Рік тому +1

    Ich habe keine Problem mit Veränderungen, ich gehe da schon mit der Zeit, aber es kommt eben auch auf die Veränderungen an wie sehr sich etwas verändert, im Bezug auf Hardware / Software bin ich für alles offen. vor allem wenn es auch mal Günstiger wird.

  • @runfrankfurt
    @runfrankfurt Рік тому +1

    Es gibt eine konkreten Grund, warum das jetzt schon so ist: die Entwicklung von SRAM Zellen, die für den Cache in CPUs benutzt werden, haben jetzt schon eine Grenze erreicht und werden im Verhältnis zu den CPU Halbleitern die aktuell im 4 Nanometer Verfahren hergestellt werden seit längerer Zeit im Verhältnis nicht mehr kleiner. Der SRAM kann also nicht mehr kleiner gebaut werden können.
    Es gibt ein super Video dazu von „High Yield“ mit dem Titel „Next Gen CPUs / GPUs have a huge problem“. Wer Englisch versteht, sollte sich das mal anschauen, dort wird das Problem detailliert beschrieben. Super interessantes Thema.

  • @Nils-1701
    @Nils-1701 Рік тому

    Erst einmal bedanke ich mich für dieses super Video bedanken.
    Ohne Veränderung kann es auch keinen Fortschritt geben.
    Am Ende zählt nur das Ergebnis, der Weg dahin aber ist mir egal, solange er ethisch vertretbar ist.

  • @julianmai3581
    @julianmai3581 Рік тому +4

    Nunja, da muss man deinen werten Kollegen das Monty aber auch in Schutz nehmen… Es ist auch meine ich rausgehört zu haben seine Meinung, dass es egal ist wie die Leistung nachher zustande kommt. Er hat nur, wie du selbst und auch noch andere sehr bekannte YT Kollegen (dich auch mit einbegriffen) einen Hang für reißerische Überschriften. 😂 aber an sich ist das ja absolut kein Problem, wenn danach aufgeklärt wird. Aber wie immer ein Top Video 😌🙌🏻

    • @KreativEcke
      @KreativEcke  Рік тому +1

      Da hast du schon recht! Wir neigen alle zu reißerischen Titeln! Mir hat ein kleinwenig die Einordnung in dem Video gefehlt. Aber es ist in Ordnung! Das war auch kein Angriff, sondern mein Eindruck :) vielen dank dir :)

  • @toxiq5295
    @toxiq5295 Рік тому

    Guter Standpunkt, alles sehr spannend. Ich bin sehr interessiert, wie sich die Hardware sich in den nächsten Jahren entwickelt.
    Danke für das Video :D

    • @KreativEcke
      @KreativEcke  Рік тому +1

      Vielen Dank dir für dein super nettes Feedback! Ich bin auch mega gespannt auf das, was noch auf uns zukommt :)

  • @nikolausschmitt479
    @nikolausschmitt479 Рік тому

    hoffe es bleibt einfach bezahlbar ,auch für denn normal Bürger. Die Welt dreht sich weiter ,ob man es mag oder nicht . Einfach offen für neue Dinge bleiben .

    • @KreativEcke
      @KreativEcke  Рік тому

      Ja das ist auch das, was ich hoffe

  • @Legamerto
    @Legamerto Рік тому

    Finally ist dieses Video hier und es ist GROSSARTIG! RIP Moore.

  • @nedjlaaissat6048
    @nedjlaaissat6048 Рік тому +2

    Salamaleikum, KreativEcke! 🕊

  • @SianaGearz
    @SianaGearz Рік тому +2

    Es wird noch einige wenige Hardwaregenerationen geben in denen sich die Halbleiter werden verdichten lassen, die bereits geplant sind. Allerdings ist das auch mit steigenden Kosten verbunden, was bis vor einer Weile nicht der Fall war, die Kosten pro Halbleiter sind bis 28nm stetig gefallen. Aber das ist ja auch schon 10 Jahre her. Wobei mittlerweile eher 14nm als besonders kostengünstig gelten kann.
    Was danach ist, nun es kann gut sein dass man sich wieder was mit der Halbleitertechnik einfallen lässt, lässt sich nur von jetzt aus noch nicht absehen.
    Aber die meisten Fortschritte bei den GPUs waren von logischer Natur, nicht von fertigungstechnischer. Aber so eine Kristallkugel haben wir auch nicht, die es und sagen würde, was sich da noch machen lässt.

    • @KreativEcke
      @KreativEcke  Рік тому

      Na also es gibt ja ein paar Überlegungen in Richtung Graphen und andere Materialien. Aber genau das ist es: es ist ja auch immer Sinne der Hersteller das Ganze kostengünstiger zu gestalten weil man sich sonst die Kunden vergrault.

  • @oevers
    @oevers Рік тому +2

    Ohne das Video gesehen zu hahen, glaube ich, dass die Zukunft ARM sein wird. Mit dem Game Porting Toolkit von Apple schafft es mein Macbook in Windows Games teilweise bis auf die Geschwindigkeiten meiner RTX 2070. Keine Ahnung, was wir bei nativen ARM Spielen ohne legliche Übersetzung erwarte können, aber ich befürchte eine Menge.
    Für uns sehr schade bezüglich der Aufrüstbarkeit, aber zumindest eine Variante beim Neukauf weiter an wirklich viel Leistung für wenig Geld ranzukommen. Die Performance ist fürs Geld auf ARM Chips deutlich günstiger zu haben.

  • @OnlyHans84
    @OnlyHans84 Рік тому +1

    Das war das beste Video der letzten vier Monate von dir! Ganz stark, danke.
    Ich finde gerade die aktuellen Entwicklungen im GPU Sektor sehr spannend. Ki Cores werden immer mehr Relevanz bekommen. Das Intel bei seiner ersten GPU Generation direkt darauf setzt zeigt wie wichtig das Thema ist. Mehr Rohleistung wird es nur in noch kleineren Fertigungsverfahren geben. Aber genau da stoßen wir so langsam an physikalische Grenzen. Es wird also bei GPUs, ähnlich wie bei CPU's, ganz bald auf die Effizienz der Architekturen ankommen und wie diese mit den ihnen zur Seite gestellten Ki Cores arbeiten. Ich finde das mega spannend!

    • @KreativEcke
      @KreativEcke  Рік тому

      Oha! Vielen Dank dir für die super Rückmeldung. Wie genau kommst du auf 4 Monate? Das würde mich sehr interessieren. Und richtig: Das Intel keine "klassischen" GPUs bringt sondern direkt das KI gestützte Feature XeSS implmentiert, ist da mMn auch ein Punkt, der sehr gut zeigt, wie wichtig das Thema wird. Ich finde es auch enorm spannend.

    • @OnlyHans84
      @OnlyHans84 Рік тому

      @@KreativEcke das kann ich dir gerne "sagen". In den letzten vier Monaten hast du für meinen Geschmack viel Content geladen, der (Gaming) PC's von Influencern oder Hardware-Shops usw. zeigt. Ganz ehrlich, das interessiert mich persönlich eher so semi ;-) . Ich vergleiche mich bzw. meine PCs nicht, da ich darin keinen Sinn sehe. Daher ist es mir auch ziemlich egal wer was für einen PC hat oder verkauft. Dazu kommt, dass ich seit meinem elften Lebensjahr meine PCs (und die meiner Freunde / Family) selber zusammenschraube. Vorkonfigurierte PCs sind somit für mich eher Blasphemie :-D . Mich reizen da eher neue Techniken (XeSS/DLSS/Ki) und Benchmarks. Was mich mal brennend Interessieren würde sind auch Vergleiche von zB. drei Jahre alten High-End Systemen (i9 10900X Serie) gepaart mit alten und aktuellen Grafikkarten gegen komplett moderne Systeme. Ich denke ein großer Teil der Community investiert eher regelmäßig in eine neue GPU als in einen komplett neuen PC, da die meisten Games eher GPU-lastig sind. Zumindest sehe ich das so in meinem Bekanntenkreis. Ist aber auch nur meine Meinung ;-) . Egal welchem Thema du dich gerade verschreibst, deine Videos sind immer High-Class und ich sehe sie immer gerne. Auch dann, wenn das Thema an sich mich vielleicht nicht direkt anspricht. LG, Hans

  • @PhiloxydShorts
    @PhiloxydShorts Рік тому +1

    Ich würde mir mehr Fokus auf einen relativ großen Sprung Technik wünschen, als jedes Jahr einen kleinen Sprung. Quasi alle 3 oder 5 Jahre neue Hardware. Dann aber mit allem was möglich ist. Ich verstehe das ganze System, auch wirtschaftlich gesehen. Finde es nur schade, das der Egoismus, wirtschaftlich stärker zu werden, größer ist, als an das große ganze und die Gesellschaft zu denken....... Egaaaaaal

  • @Captain_Kebap
    @Captain_Kebap Рік тому +1

    Super Interessant! Ich meine Daniel hat frei gesprochen, hat Bilder benutzt und alles verständlich erklärt. Ich finde die Note 1 ist gerechtfertigt.

    • @KreativEcke
      @KreativEcke  Рік тому

      Wow freut mich total zu lesen. Ich selbst würde mir keine 1 sondern ne 2+ geben weil ich an einigen Stellen verbesserungspotential sehe , aber man ist immer sein größter Kritiker

  • @MatthiasLindemann-hp2zr
    @MatthiasLindemann-hp2zr Рік тому +2

    Interessant ist aber auch die Frage, wäre alles so gekommen(Doppelte Leistung "Transistoren" alle 2 Jahre) wenn Gordon Moore es nicht gesagt hätte? Dadurch dachten die Menschen halt auch das uns Transistoren ewig begleiten würden. Mir fällt da ein tolles Filmzitat zu ein.
    Zitat: Arthur: "Ich pflanze Ihnen jetzt einen Gedanken ein: Denken Sie nicht an Elefanten. Woran denken Sie gerade?", Seito:"An Elefanten". Vielleicht wäre ja alles anders gekommen, vielleicht hätten wir sogar ganz andere Technik, so wie wir uns JETZT Gedanken machen müssen über andere Technik. Ich denke Transistoren werden uns auf längere Zeit gesehen nicht weiter bringen, Transistoren CPU´s werden bald an ihre Grenze ankommen. Zum Thema GPU: Früher hat man über die Leute gelacht die dachten das man sich mehr Ram oder eine bessere CPU herunterladen kann. Bald kann man sich mehr GPU Leistung herunterladen anstatt sich eine neue GPU zu kaufen.

    • @oliverbecker3443
      @oliverbecker3443 Рік тому

      Du willst also elektrische Schaltungen ohne elektrische Schaltungen?
      Auf welche Technik hoffst du denn? Und in wie fern kann man sich Speicherchips herunterladen?

  • @xlw12
    @xlw12 Рік тому

    Einen wichtiger Aspekt, der aussen vor gelassen wurde ist die weiterentwicklung der FETs.
    Auch wenn wir das physikalische Limit der Größe erreicht haben, wird die Anzahl der Transistoren weiter steigen.
    Eine Möglichkeit z.b ist die FETs dreidimensional anzuordnen (was teilweise bereits so gemacht wird).
    Leider lässt sich dazu relativ wenig im Netz finden, da diese Technologien noch proprietär sind.

  • @kericsX
    @kericsX 11 місяців тому

    KI wird nicht nur die Optimierung der Abläuft bzw. Softwareseitigen verbesserung voranbringen auch für die Optimierung der Hardware wird schon KI verwendet. Um neue CPU Architekturen zu entwickeln.

  • @corincorvus6679
    @corincorvus6679 Рік тому +1

    Ich denke es wird, wie damals vom Single zum Multicore (und der damit verdoppelten Transistormenge), werden die tragenden Komponenten wie GPU und CPU weiter mehr Kerne in der Gesamtanzahl erhalten, siehe Raytracing mit den neuen Kernen. Die Hauptkerne werden weiter Aufgaben abgeben, die andere Kerne übernehmen, die das besser können und so werden wir viel mehr Arbeitsteilung auf der Platine sehen. So hätten die Hauptkerne auch mehr Kapazitäten und damit hätte die gesamte Komponente mehr Leistung. Da läuft dann eben auf der GPU neben der Grafikleistung noch eine komplette KI Berechnung in vielen Hinsichten und auf der CPU könnte man auch KI Kerne aufbauen, die dann andere Arten von Verhalten von NPCs und Co. möglich machen. Das nur "Optisch" zu betrachten, halte ich für zu kurz gefasst.

  • @myxvcx2988
    @myxvcx2988 Рік тому +4

    95% der Spiele die ich spiele unterstützen aktuell kein Dlss oder so. Und mit meine 4070ti kommt da leider öfters an ihre Grenzen. Ebenso Mangelt es vielen Spielen an der dringend nötigen Optimierung. Das beste Beispiel ist aktuell dafür Starfield.

    • @KreativEcke
      @KreativEcke  Рік тому

      Jap. Das sehe ich auch so: viele Spiele haben nen Optimierungsbedarf

    • @christianmuller3087
      @christianmuller3087 Рік тому

      Ist ja immer eine Frage der Kosten für die Game Entwicklung

  • @cwcoc170
    @cwcoc170 Рік тому +1

    Ich denke, man kann es so sagen: die Zeiten, in denen wir massive Leistungssprünge dadurch bekommen, dass immer mehr Tramsistoren auf wenig Platz geballert werden, neigen sich dem Ende. Ab nun bekommen wir die Leistung halt durch Innovationen, wie X3D, Upscaling, ggf irgendwann sogar analog-digital-hybridsysteme, etc.

    • @MegaUnwetter
      @MegaUnwetter Рік тому +1

      Spannend auch das einige der Technologien wie zum Beispiel DLSS auch auf älterer Hardware läuft und dadurch selbst ältere Computer wieder mehr leistung bekommen.

  • @OMNIDROID2995
    @OMNIDROID2995 Рік тому +2

    Ich finde die neuen Wege ganz interessant. Das kommt bei den Kunden aber nicht gut an wenn jeder sein eigenes Süppchen kocht. Die Unified Shader waren bei Release der Xbox 360, ATI (heute AMD) exklusiv. Aktuell gibt es keine GPU's mehr ohne Unified Shader. Auch asynchron arbeitende Shader sind mittlerweile ein einheitlicher Standard. Von allen bisher veröffentlichten PC Spielen mit beschleunigter 3D Unterstützung, sind allerdings gerade einmal 1% (Wenn überhaupt) in der Laage DLSS, FSR, xlss etc zu nutzen. Ich blick da selbst kaum noch durch. Es ist toll das ein dritter Konkurent auf dem GPU Markt ist. Aber egal von welchem Hersteller ich eine Karte kaufe, ich habe am ende je nach Spiel gegenüber der Konkurenz teilweise starke Nachteile. Das nervt extrem. In zusammenarbeit mit API (Vulkan, DirectX u.s.w.) und Treiberentwicklern müssen KI gestütze Standards her. Wenn das der Fall ist, werde ich mich auch nicht über weniger Mehrleistung bei der Rohleistung beschweren.
    Auch im Videoschnitt bringt Rohleistung oft mehr wie AI oder andere Konzepte.

  • @vovochen
    @vovochen Рік тому

    Krank, dass Du die Kommentare echt liest !!!

    • @KreativEcke
      @KreativEcke  Рік тому

      Wieso ist das krank? Die Kommentar Funktion auf UA-cam ist das wichtigste Feature wie ich finde

  • @HBerg-jy9ls
    @HBerg-jy9ls Рік тому +2

    Also bei dem bisherigen Herstellungsverfahren und dem aktuellen Aufbau der Hardware sind wir langsam am Limit, was die reine Leistung angeht. Der Fertigungsprozess ist bei 3nm angekommen, da ist bald das Ende des Machbaren erreicht. Ich denke man muss was die Zukunft angeht hier CPU und GPU voneinander unterscheiden. Während die CPU immer weniger wichtig wird im Gaming, da ab WQHD sie kaum und bei 4K gar keine Rolle mehr spielt, sind die aktuellen CPUs mehr als ausreichend. Ein aktueller 8-Kerner mit 16 Threads, wird auch die nächsten 5 Jahre noch ausreichen, erst recht ein 16-Kerner mit 32 Threads.
    Bei der GPU jedoch denke ich, dass wir da in den nächsten Jahren einen Wandel erleben werden, von dem bisherigen Konzept zu einem neuen Konzept/neuem Aufbau/neuer Architektur. Denn hier sind sich die Insider einig, das aktuelle Konzept hat bereits ein EOL und muss durch ein neues ersetzt werden. Hier wäre denkbar, dass wir bald GraKa's haben werden, die nicht mehr nur eine GPU haben, sondern mehrere mit unterschiedlichen Aufgaben. Die eine macht das Rasterising, die andere hat die CUDA Cores, die dritte macht dann Frame Generation etc. Auch was die Speicher angeht, wird es Zeit für was neues. Da es bei Karten mit 32 GB schon schwierig wird, diese Chips noch alle auf die Karte zu bekommen, bei dem bisherigen Adressschema der GPU's.
    Man kann gespannt sein, wohin die Reise gehen wird, vor allem im GPU-Bereich. Im CPU-Bereich, denke ich, ist noch kein Anreiz dafür, da, wie gesagt, die aktuellen CPUs im Gaming noch für die nächsten Jahre reichen werden, es sei denn, das neue GPU Konzept benötigt spezielle CPU-Features, die sie aktuell noch nicht haben, danach sieht es aber noch nicht aus.

  • @dWurscht
    @dWurscht Рік тому

    Sehr gut recherchiert! Die klassischen CPUs mit Transistoren sind in der Tat an den Grenzen der Physik. Irgendwann kommt nun einfach der Punkt, an dem ein Transistor nur noch aus einem Atom besteht. Dazu die Anekdote: "Systeme verändern sich oder sterben." Es ist nicht die Frage, ob man die grundlegenden Veränderungen, die jetzt und in naher Zukunft in der Branche stattfinden werden gut oder schlecht findet. Innovation ist nun mal das, was die Gesellschaft langzeitlich betrachtet erhält und weiterbringt. Die Frage sollte eher sein, wie wir die Veränderungen, welche zwangsläufig kommen werden, möglichst effektiv aber auch schonend einbringen, also zwar zügig, aber trotzdem mit Rücksicht auf die etablierten Strukturen. Denn ohne diesen wäre es nur ein kurzes Streben.
    Ich finde das sehr spannend. Man bekommt richtig das Gefühl, an einem Wendepunkt zu stehen. Ab jetzt kann der menschliche Erfindergeist in der Branche wieder richtig ins rollen kommen, mit neuen Fertigungsverfahren, Architekturen, Materialien, aber eben auch KI und .... Ich sehe da für mich meine persönliche Chance mich einzubringen. Schreibe 2025 Abitur und dieses Thema packt mich schon fast seit der Grundschule. Gerade deshalb erfüllt es mich mit Faszination und Neugier, zu sehen wie doch so ein gewaltiger Umbruch vor uns liegt. Hier wird bestimmt, wie unser aller Zukunft aussehen soll. Vielen Dank für das Video

  • @PCCheck
    @PCCheck Рік тому

    6:30 - Bekomm ich dafür jetzt ein ,,Ich war dabei!'' Shirt? ;)

  • @walterwhite415
    @walterwhite415 Рік тому

    Eigentlich finde ich, das ganze klingt positiv! Veränderungen sind auch immer Chancen und wenn wir alle irgendwie mithelfen diese Veränderungen in eine positive Richtung zu lenken, dann kann daraus wirklicher Fortschritt werden! Ich betrachte Veränderungen auch immer kritisch, sehe sie aber auch immer gerne und gestalte sie auch gerne mit! Anders gesagt; Lasst uns neue Dinge ausprobieren! Ohne Veränderungen würden wir nicht da sein wo wir heute sind und außerdem kann man immer wieder zum alt bewährten zurückkehren, wenn das Neue nicht so funktioniert wie erhofft. Aber oft genug haben selbst kritisch betrachtete Veränderungen am Ende eine Bereicherung ergeben!

  • @frozone9361
    @frozone9361 Рік тому +4

    Deine Videos sind einfach klasse. Bitte mache weiter so😊. #kreativefragen mein Rechner nervt mich seit Tagen mit dem Windows 11 Update. Lohnt sich mittlerweile das Update. Ich hatte anfangs von vielen Problemen mit AMD Prozessoren gelesen, ist das immer noch so? Vielen Dank Schöne Grüße 🖖

  • @TheEmmetdocbrown
    @TheEmmetdocbrown Рік тому

    Also in der IT dreht sich alles um Weiterentwicklung und Veränderung. Und ja, aktuell stoßen wir in der klassischen Transistorfertigung an die Grenzen der Physik. Wer möchte kann sich ja mal damit beschäftigen, was es eigentlich heißt im 5nm oder 6nm Verfahren zu fertigen. Was da für Licht überhaupt benötigt wird und wie hoch der Aufwand ist dieses Licht überhaupt zu erzeugen. Alleine schon die Spiegel die benötigt werden um das Licht dann in entsprechende Bahnen zu lenken, müssen super eben sein. Da wird mit Toleranzen von einer Atomhöhe gearbeitet.
    Das Nächste große Ding wird der Quantencomputer werden und genau so wie damals in den 40ern und 50ern wird es eine Weile dauern, bis jeder dann seinen kleinen Quanten-PC zu Hause stehen hat. Das werden spannende Zeiten!

  • @leopard2690
    @leopard2690 9 місяців тому

    Kann mir sogar vorstellen das wir irgendwann ne zeit erreichen wo wir dann für die Software zahlen müssen, sei es für eine neue Erweiterung oder wie in einem abo (wenn es weiter Richtung Software ersetzt oder Komplimentiert hardware geht)

  • @ChiLL4Future
    @ChiLL4Future Рік тому

    Grenzen sind dafür da um sie zu überwinden, neue Ideen & Ansätze schaffen und schauen wie weit man damit kommt.
    Die Mehrzahl mag wohl keine Veränderung, aber durch Routine wird man Betriebsblind 😂 neues entdecken, altes weiterentwickeln und die Leute die keine Veränderung mögen an die Hand nehmen um ihn zu zeigen, dass es nicht immer was schlechtes sein muss 😋 tolles Video, mach weiter so ♥️

  • @iRocks-Mak3rde
    @iRocks-Mak3rde Рік тому +1

    Wenn man moors law nur auf den transistor count anwendet sind wir noch lange nicht am Ende, den er hat damals von monolitischen chips gesprochen was anderes gab es zu der Zeit ja noch nicht, was diese betrifft sind wir mit den aktuellen Herstellenungs Methoden bald an den physikalischen Grenzen weil einfach nicht mehr kleinere strukturen erzeugen können.
    Allerdings sind wir ja schon bei chiplets angekommen, wenn wir also die Chips dünner gestalten sie aber größer machen kann man die Energie dichte und damit Temperatur im Verhältnis zur Fläche wieder senkt. Also einfach gesagt die Größe der Chips wird steigen, die cpu und gpu dies werden größer, dadurch die Produktion anfälliger, der stück preis höher, aber die Leistung und der Transistorcount größer.
    Wir werden neue kühllösungen, mainboard, cpu und Grafikkarten form - faktoren entwickeln müssen, die Designs von gpus und cpus werden sich annähern.
    Und das wird solange weitergehen bis wird eine alternative zum aktuell verwendeten Basis Material aller Chips haben, also Silizium.
    Spätestens wenn wir Material haben mit dem man entweder noch kleinere Strukturen erzeugen können wird, oder die grundlegende Funktionweise sich ändert (Quanten computer, oder Lichtleiter anstelle Transistoren etc) werden wir wieder ähnliche gains erreichen wie wir sie bisher bei Silizium Chips hatten.
    Die Zukunft wird spannend 🔥🚀.

  • @NerdOverTech
    @NerdOverTech Рік тому

    Und da liegt die Exzellenz von Nvidia. Trends erkennen, und sofort umsetzen .. und leider auch dementsprechend Preise nehmen. Und auch zu AMD Athlon Zeiten hat man gesagt: 1Ghz wird nicht möglich sein wegen der fehlenden Kühlung ... joa ... gut ^^

  • @TodeskIinge
    @TodeskIinge 11 місяців тому

    Danke für das Video.
    Ich vermute das die PC Bauteile für die nächsten ca. 50 Jahre, langsam stetig größer werden (um diese auch noch besser kühlen zu können) aufgrund von Multi-Chip Systemen. Anstatt ein GPU Chip, sind dann zwei auf einer Karte (siehe nächste Serie).
    Nach den 50 Jahren (geschätzt) wirs der bisherige PC durch Quantencomputersysteme abgelöst die durch Ki super viel Leistung bieten. Bis dahin wird 8k/16k Auflösung Standard sein und auch sehr lange so bleiben (aufgrund der Datenmengen und Grafik).
    Erst dann wird das ganze stetig mehr auf Effizienz getrimmt anstatt mehr Leistung, um das ganze energiesparender zu betreiben (und auch die Software besser wird).

  • @GripsGamer7755
    @GripsGamer7755 Рік тому

    Ich bin gespannt wann die ersten High-End Gaming-SOCs auf den Markt kommen! Das sollte auch Performance technisch sehr interessant werden.

  • @TigerNationDE
    @TigerNationDE Рік тому

    Finde für uns alte Hasen is das echt schwierig. Bin inzwischen 39 und damals hieß es: "Willst du mehr Rohleistung, musst du mehr bezahlen"
    Jetzt wandeln wir aber auf dem Weg das die Karten sich kaum mehr verbessern, sondern wir einfach die Software dahinter entsprechend schreiben.
    Ich sehs schon kommen, der DLSS Code wird nächstes Jahr an die Serie angepasst, dann wäre das bei der RTX 5000er Serie halt DLSS 5.x und wir bekommen die entsprechende DLSS Version auch nur noch auf der entsprechenden Serie.
    Marketingtechnisch gibt man halt alles um dieses AI Zeug zu verkaufen, aber für die alten Füchse wirkt das ein wenig extrem nach Augenwischerei. Vorallem wenn man dann die einzelnen Vergleiche sieht, die man von offizieller Seite, egal ob nVidia, AMD oder Intel, präsentiert bekommt.
    Prinzipiell hätte ich nichts gegen Upscaling wenn es entsprechende Leistung bringt. Aber die Tatsache wie es uns eben vermittelt wird, und was für Preise man dann dafür aufruft, find ich seit DLSS1 schon mehr als erschreckend.
    Die Moores Law aussage von heutigen Intel MAs, oder dem wo du im Gespräch hattest, is halt interessant. Wenn man bedenkt wie sie ihre Refreshes seit Jahren machen und sich auf ihrer Leistung ausgeruht haben, weil man ja nicht musste.

  • @JaYeti2115
    @JaYeti2115 Рік тому +1

    Super interessantes und vor allem informatives Video. Vielen Dank dafür :) P.S. Ist das Spulenfiepen einer ASUS ROG Strix 4080 sehr krass hörbar im Vergleich anderer Marken ?

    • @KreativEcke
      @KreativEcke  Рік тому +1

      Danke dir sehr für das nette Feedback! :) Also das kann ich pauschal so gar nicht sagen! Hängt auch bisschen vom einzelnen Modell ab!

    • @The_Crazy_Oneee
      @The_Crazy_Oneee Рік тому

      Ich habe genau dieselbe Grafikkarte und keine Probleme. Es kann auch mit dem verbauten Netzteil zusammenhängen, wie ich in diversen Foren gehört habe.

  • @maz1305
    @maz1305 Рік тому

    Wirklich ein geiles Video. Geht einem sogar etwas unter die Haut!
    Danke dafür.

    • @KreativEcke
      @KreativEcke  Рік тому

      Wow! Danke dir! Freut mich wirklich total zu lesen! :)

  • @gogivan88
    @gogivan88 Рік тому

    Tolles Video. Kann ich echt nichts hinzufügen. Es wird sich immer etwas im Wandel befinden. Das Auto bekommt als Vergleich ebenfalls autonomes Fahren. Dies wird immer Wichtiger. Dies ist ebenfalls eine KI Unterstützte Funktion. Ich denke das Wort des Jahres wird KI / AI sein 😁✌

  • @MannidonnaXT
    @MannidonnaXT Рік тому

    Richtig . Alles hat mal ein Ende. Rasterisierung ist noch nicht am Ende. Aber es kommt und wir müssen eben vorher reagieren. Wenn du auf eine Wand zuläufst und dahinter weiter musst, solltest du halt nicht warten bis du vor der Wand stehst, sondern schon vorher schauen wie du da drüber/vorbei/durch kommst, sonst heisst das erstmal Stillstand! Und KI Performance wächst eben deutlich einfacher und schneller weil es neuer und weniger erforscht ist. Wie bei fast allem Neuen so(E-Auto, grüne Stromgewinnung....)

  • @boerbenlp8659
    @boerbenlp8659 Рік тому

    Ich spiele seit Tagen mit dem AMD Preview Treiber und dem treiberseitigen Frame Generation. Macht Spaß alle möglichen Games damit auszuprobieren. Und wenn ich mir vorstelle was heute geht und das innerhalb weniger Jahre mit KI Technologien, dann könnten klassische Benchmarks auch irgendwann aussterben. Man schaut dann nicht mehr auf Frames, sondern darauf wie gut die Technologie in den Spielen und Treibern implementiert ist, also wie gut das Spielerlebnis ist (Bildqualität und Stabile Frameraten). Mit etwas Glück wird man nämlich zukünftig in jedem Game irgendwie auf 100 FPS oder whatever kommen. Dann spielt die Energieeffizienz, Wärme und Lautstärke vielleicht eine größere Rolle.

  • @thegreendonkey7482
    @thegreendonkey7482 Рік тому

    Das mit den Veränderungen sieht man auch ganz stark bei den autoliebhabern, sowas ähnliches wie bei uns rgbisten. So wie wir keine pcs ohne rgb mögen, mögen die Autos mit elektronischen antrieb nicht sondern die Autos mit nem verbrenner

  • @Rakanay_Official
    @Rakanay_Official Рік тому

    Hey Kreativecke,
    ICh bin vor kurzem zu Modularen AIOS gestoßen und bin sehr Interessiert daran, wäre es möglich das du dazu Videos machst? Weil bisher habe ich kaum bis nie wirklich Videos über Modulare AIOs gesehen wenn dann für Geschlossene Systeme.

  • @OfficialZayn.
    @OfficialZayn. Рік тому +1

    Ist das eigentlich nur bei mir so oder hast du in deinen Spiele-Aufnahmen wie bei 5:48 ein tearing Problem? Das ist mir auch in den letzten Videos schon aufgefallen

    • @KreativEcke
      @KreativEcke  Рік тому +1

      Ja hab da ein tearing Problem. Muss rauskriegen woran das liegt

    • @OfficialZayn.
      @OfficialZayn. Рік тому

      @@KreativEcke Bei mir (Gigabyte M28U 4k 144Hz) passiert das immer, wenn ich spiele im Vollbildmodus mit mehr FPS spiele als mein Monitor Hz hat. Wenn ich im ramenlosen Fenstermodus spiele läuft alles super auch mit mehr FPS. Ansonsten, haben sich eventuell diene free/g-sync Einstellungen nach einem Treiberupdate verändert/resettet?

  • @blackeye6810
    @blackeye6810 Рік тому

    Veränderung ist geil und die, die sich nicht anpassen, gehen dabei zur Grunde. Dafür gibt es in der allgemeinen Unternehmensgeschichte genug Beispiele. Ob Schlecker, Nokia oder auch so etwas, wie die N64 „Kassetten“. Nintendo ist dabei nicht zur Grunde gegangen, aber bei der Vorstellung der Konsole gab es nur 2 Spiele und nur weil eins davon Super Mario war, lief das ganze noch gut

  • @xTheJackPotatox
    @xTheJackPotatox Рік тому +1

    #KeativeFrage könntest du mal Gaming Setups für unter 1000 Euro vorstellen wäre mega cool. Feier deine Videos.

  • @rain6548
    @rain6548 11 місяців тому +1

    Ich finde den Preis ziemlich wichtig, auch wenn du das eher verteidigt hast ! Die Grafikkarten sind jetzt schon viel zu teuer und wenn das so weiter geht und ne 6090 plötzlich 2500€-3000€ kostet, wird sich die niemand mehr kaufen. Die 4000er haben ja schon echt schlecht Performed, weil sie einfach nicht mehr bezahlbar sind. und da muss das Verfahren optimiert werden, sonst sehe ich für den PC als gaming Gerät schwarz.

  • @thunder_trms4867
    @thunder_trms4867 Рік тому +2

    Heute wird ja Alles AI genannt. Dahinter steht wie bei H.265 nur ein Algorithmus. Sonst würde die KI ja mit jedem Spielstart lernen und noch mehr Frames generieren können. Die heutige Hardware muss leider nur noch die schlechte Programmierung über Assembler kompensieren. Sauber Programmieren wäre mal ein Fortschritt. Auch wenn die neuen Spiele immer besser aussehen, sind sie vom Gameplay her meist grotte. Was juck mich die Qualität von Spiegelungen? Und das nachplappern von Hochglanzversprechen der Hersteller macht es nicht besser.

    • @sorenh.2216
      @sorenh.2216 Рік тому

      Sobald das Bewusstsein durch Neuralink im Upload kommt, wähle ich nen D-Wave Quantenkomputer von A-Mazon oder Schwarzfels All-Add-Inn und lasse das Neandertalerpack bei ihren Faustkeilen :-D

  • @cptnkewl8569
    @cptnkewl8569 Рік тому

    nicht nur die fläche ist ein problem, sondern auch das ein Signal (elektrisch gesehen, einfach eine bestimmte zeit anliegen muss, damit es als valides signal und nicht als "störfeuer" gesehen wird) diese Zeit kriegst du mit aktueller Architektur nicht weiter runter. Hier kam ja damals der Trend zur Paralellisierung her. Was auch richtig ist

  • @dereine6493
    @dereine6493 Рік тому

    Tolles Video! Danke.

  • @Sevenharg_TV
    @Sevenharg_TV Рік тому

    Also mein Mathematik Leherer hatte immer gesagt, das auch der weg eine wichtige rolle zur Lösung beiträgt. :P Ja, mir ist es egal wenn ich so mehr leistung erhalten um die neusten Games zocken zu dürfen sehr gern.

  • @tobik2627
    @tobik2627 Рік тому

    Die Grenze der taktrate haben wir ja seit einrm Jahrzehnt leider erreicht. Danach ging es nur noch um Miniaturisierung um eine höhere und effizientere transistordichte zu erreichen. Der diesjährige deutsche Nobelpreisträger in Physik meinte aber dass durch seine Forschung taktraten mit 100000 fachen Leistung in Zukunft möglich sein könnten. Dann würde das Rennen wieder starten, was mich sehr freuen würde. Ich mag den Gedanken von ki generierten Bildern leider nicht, da es nur die bestmögliche Annäherung ist, aber es ist eben kein vollkommen echter errechneter Frame. Wird sich aber nicht vermeiden lassen und der Fokus in Zukunft mehr darauf liegen.

  • @aliyalcin19835
    @aliyalcin19835 Рік тому

    Ich sehe dass genauso wie du. Mir ist relativ egal wie nvidia oder AMD die Leistung erbringen ob Hardware basiert ober Software Hauptsache das Endergebnis beeindruckt mich. Ich Vergleich dass ein wenig mit alten Autos. Bin 83 geboren und kann mich noch gut an Papas Ford Granada erinnern 4.2 oder solar 5.5 Liter Hubraum aber keinen 200 PS. Heute ist es möglich aus einem 1.8 l Motor locker 150 180 PS rauszuholen..eine Optimierung der Technik ist doch super. Wenn der Kunde davon profitiert.

  • @zanderalexander5901
    @zanderalexander5901 Рік тому

    Moin! Wenn du sagst, dass wir uns momentan an einem Wendepunkt was zukünftige Leistung angeht befinden, ist es dann sinnvoll jetzt einen High-End Gaming Rechner zu bauen? Mit RX7900XTX und allem was dazu gehört oder sagst du, man solle lieber noch 1-2 Jahre warten (meine aktuelle GPU RX5700 kommt langsam an ihre Grenzen in Starfield, aber es geht noch) und die mögliche neue Generation mitnehmen? Großes Lob übrigens an dieses Video. Fand ich sehr spannend, mach weiter so.

    • @christianmuller3087
      @christianmuller3087 Рік тому

      Es wird vermutlich immer was neues mit mehr Leistung auf den Markt kommen.

    • @zanderalexander5901
      @zanderalexander5901 Рік тому

      @@christianmuller3087 das ist klar, aber es geht um eine mögliche größere Neuerung und nicht einfach "nur" die nächste Generation an Grafikkarten

  • @BIGTamin
    @BIGTamin Рік тому

    Wie im Video gesagt zählt für mich mehr das die Grafik sich entwickelt und nicht Rasterleistung oder Transistordichte...
    Leider gibt's bei den ganzen KI Entwicklungen usw aber vieles was uns als Endkunden gar nicht schmecken könnte...
    Den neben den KI Kernen auf der Karte hat das ganze eben auch ein starke Software Komponente und nicht nur beim gaming,sondern generell gibt es da klare Bestrebungen zu Abo Modellen gehen zu wollen.
    Kann am ende heißen das wir nicht mehr nur von dem Spieleschmieden ausgenommen werden ,sondern möglicherweise abo-gebühren auf die Nutzung von DLSS oder ähnlichem zahlen werden mit der Begründung "kannst deine Karte doch nutzen, aber KI beschleunigung gibt's nur im Abo" ... Tja und weil man schöne aufwendige spiele in vernünftigen Bildraten evtl. Dan nur noch mit KI genießen kann....
    Das zieh ich mir auch nicht aus den Fingern...
    Selbst Hausgeräte Hersteller lieben ja die Zukunftsvorstellung eines Tages keine Geräte mehr zu verkaufen sondern viel mehr abo-modelle zu verkaufen ... Dan kaufst du die Dienstleistung "spülen" statt ne Spülmaschine... Und PC's sind an diesen Entwicklungen um einiges näher dran...
    Ich mag es auch nicht das immer so getan wird ,auch in den Videos hier, als wen der Preis viel mit der Produktion oder den kosten zu tun hätte. Jede Firma die es sich durch einen Wettbewerbsvorteil leisten kann nimmt nicht was sie MUSS als Preis, sondern was sie KANN... In diesen Fällen haben Preis und kosten überhaupt nichts mehr miteinander zu tun.
    Egal ob es der Mercedes für 200tsd ist oder die Rolex oder auch die tolle Nvidia Schieß mich tot mit super KI ... Man bezahlt einen Fantasiepreis von dem der Hersteller glaubt dort ist der sweet Spot zwischen Verkaufs Menge und Preis... In der Herstellung kostet das Produkt nur noch Bruchteile dessen was der Kunde bezahlt...
    Wäre im übrigen sicher auch Mal ein Thema für ein Video ;) ..
    LG

  • @DakrWingDuck
    @DakrWingDuck Рік тому

    Stimmt nur bedingt, denn ohne steigende Rohleistung, sei es durch (mehr) Transistoren, Takt, oder spezielle Kerne gibt, es keine neue, schnellere, oder mehr "Features".
    Die ganzen "Grafikverbesserer" machen eben nur eines: Sie verbessern den "Look" und/oder skalieren die Bilder hoch.
    Wenn man in Zukunft immer mehr realistisch simulierte Welten haben möchte (ala Matrix), dann benötigt man Rohleistung.
    Eine "KI", welche immer besser werden soll, lebt auch nicht nur von Luft und Liebe und DLSS, RT, und Co. nutzen ihr selbst dabei relativ wenig. 😉

  • @henrike9389
    @henrike9389 Рік тому

    das einzige Problem ist, dass Tests dann weniger vergleichbar werden, da es bei verschiedenen Features trotz gleicher Grafikeinstellungen zu unterschiedlicher Optik kommen kann. Also sehr schwer, Grafikarten "fair" zu vergleichen.

  • @milesmatthiessen3900
    @milesmatthiessen3900 Рік тому

    Sehe die Gesellschaft als ein Problem. Ja ich gehe absolut mit dir. Die Lösung sollte eine Rollenspielen nicht der Weg dahin.
    Viele Schulsysteme und Arbeitswege sind aber noch auf dem alten Weg.

  • @Zerofify1
    @Zerofify1 Рік тому

    Veränderungen sind wichtig für mich weil man sich privat und Beruflich weiter entwickeln kann und bei Computern sind sie extrem wichtig. Man muss nur lernen mit Veränderung klar zu kommen. Der Rest kommt von selbst finde ich. 😊

  • @mannduro
    @mannduro Рік тому

    Die Veränderung ist komplexer geworden. Raster lässt sich mit simplen x mal x mal X berechnen und hervorheben. Jetzt Versuch das mal mit den ganzen Zwischenberechnung Dank diverser Zusatzchips auf dem Board ...

  • @Tobsn0312
    @Tobsn0312 Рік тому

    Grundsätzlich interessiert mich natürlich eher die Rasterleistung. Aber am Ende ist es wie in der Schule im Mathe-Unterricht - Das Ergebnis zählt und nicht der Rechenweg! :)

  • @Momogo232
    @Momogo232 Рік тому +1

    Ich mag nicht wenn die PC Technik weiß man nicht was man kaufen soll beim nächsten Tag das geht schon wieder nicht mehr aktuell ist

  • @manfredmathis3667
    @manfredmathis3667 11 місяців тому

    Ok Moore macht uns bei 1nm und kleiner einfach das Leben schwer.
    Aber für die Zwischenzeit werden die Hersteller einfach auf 2 dann 3-4 Karten usw. Setzen bis der Quantencomputer ins Gaming Zimmer einzieht.
    Also Einfach Cool Bleiben Und Abwarten! Was Auch Kommt Es Wird Grandios......

  • @xdark_vesselx5096
    @xdark_vesselx5096 Рік тому

    Hallo Daniel, wie immer ein sehr informatives, interessantes Video. Kurze Frage zu der 4090 FE: Ich überlege, mir eine zu holen. Dabei ist mir jedoch aufgefallen, dass es einmal eine Steckvariante mit Lüfter nach unten und einmal nach oben (wie im Video) gibt. Wie wirkt sich das denn auf die Kühlung aus bzw. agiert der Lüfter dann immer noch für Luftansaugung oder ist er dann quasi für den Abtransport der Luft zuständig? Meines Erachtens nach geht der Chimney-Effekt doch dadurch verloren, oder? Würde mich über eine Antwort freuen :)

    • @Legoloewe
      @Legoloewe Рік тому

      Es gibt nur eine Variante. Nur die Kühler der RTX 3060 (Ti) und 3070 hatten die Lüfter beide unten.

    • @xdark_vesselx5096
      @xdark_vesselx5096 Рік тому

      @@Legoloewe Vielleicht habe ich es etwas missverständlich ausgedrückt. Ich meinte eher die Anschlussposition, also dass dieser einmal weiter oben und weiter unten angebracht ist, sodass der Lüfter je nachdem nach oben oder unten zeigt.

  • @Wai_dev
    @Wai_dev Рік тому

    Ich denke diese Änderung wird viel bringen. Hardware ohne Software wäre unbrauchbar da es nichts gibt was sie anwendet. Vor allem kann durch KI auch ältere Hardware plötzlich deutlich besser funktionieren. Beispiel ist da auch Apple oder Google die ihre Software gut genug anpassen um mit den selben Geräten über Jahre zu arbeiten ohne das Gefühl sie würde langsamer werden. Mit guter Software und KI braucht man nicht immer und mehr Leistung sondern kommt vielleicht mit den selben Komponenten wie vorher über mehrere Jahre zurecht

  • @MTO_3589
    @MTO_3589 Рік тому

    Ich denke, wenn man visuell irgendwann auf das Niveau der Realität rankommt (rein durch Technikhardware, AI oder beides in Kombination) oder sogar diese übertrifft und man gar nicht mehr unterscheiden kann, was Echt ist und was nicht, dann haben wir ein Wendepunkt erreicht oder auch schon überschritten, wenn es dazu kommen sollte. Besonders dann, wenn auch noch die anderen Sinnesorgane (Ohren, Haut, Nase, Geschmacksinn und Gleichgewichtssinn) realitätsnah stimuliert werden, dann ist die Büchse Pandora offen.
    Die Zukunft ist geduldig, denn sie weiß, dass ihre Zeit kommen wird.

  • @arnothomsen620
    @arnothomsen620 Рік тому +1

    In 10 jahren ist mein ryzen 3 1200 gtx 1660super system safe nix mehr wert oder doch?

  • @Link_-xk9ig
    @Link_-xk9ig Рік тому +1

    Ich denke die technik wird irgendwann mueinander verknüpft wie in rechenzentren so kann man die leisung erhöhen

  • @technickUM
    @technickUM Рік тому

    Ach Grenzen. Sowas habe ich schon vor 10 - 15 Jahren gelesen. Damals hieß es immer, ja Physik und die Grenzen liegen bei maximal 7nm. Und nun haben wir schon 3nm. Grenzen waren u.a. immer die Belichtung der Materialien. Weil für die Belichtung des Halbleiters und für den Ätzvorgang sehr kurze Wellenlängen nötig sind. Um das aber zu schaffen wird auch die Parallaxe immer wichtiger. Also das Licht kommt ja nicht nur von oben, sondern auch leicht seitlich. Und je größer der seitliche Einfall umso größer die Ätzfehler, also die Bahnen werden dünner. Für die 3nm Technologie ziehe ich schonmal meinen Hut. Silicium dotiert (1 Atom und seine Wirkweite), scheint um die 500pm also 0,5nm zu sein. Auch ergeben sich langsam Quanteneffekte, die auftreten können, wenn Material, welches die Leiterbahnen trennen soll, dann doch plötzlich Strom leitet (Tunnelstrom). Wirklich merken, tut man die nicht weiter steigende Performance schon seit ca. 10 Jahren. Sie steigt einfach nicht, es werden nur mehr Kerne. Aber was bringen Kerne, wenn sie nicht optimal genutzt werden. Auch haben Bugs wie Spectre und Meltdown die Performance gesenkt. Aber es gibt Hoffnung. SSDs hatten den nächsten Schub geleistet, denn was bringt eine superschneller CPU, wenn diese die meiste Zeit auf die Eingaben und Ausgaben wartet. Auch werden immer mehr Anwendungen, allein wegen des Smartphones, immer performanter. Das liegt daran, dass die Programmierung von Multithread-Anwendungen immer einfacher wird. Spiele sind per se schon Könner in dieser Richtung. Doch auch sie profitieren von dieser Richtung.

  • @pakabe8774
    @pakabe8774 Рік тому

    Man kann die Veränderungen als ein Anzeichen dafür sehen, dass sich das Denken nicht mehr weiterentwickelt. Gerade in der Größenordnung in der heute gearbeitet wird, spielt die Dreidimensionalität zwar eine gewisse Rolle, aber es basiert immer noch auf der Idee von Linearität. Alle Daten basieren dabei auf 1 und 0. Auch wenn wir hier schon erste Phänomene der Gleichzeitigkeit verschiedener Zustände kennen (Mehrkernprozessoren, Multithreading), so reiten wir noch immer dasselbe Pferd und wenn wir an die Grenzen von Moores Law stoßen, wäre das dem Tod des Pferdes abstrakt vergleichbar. Statt also das sprichwörtlich tote Pferd zu reiten, sollten wir absteigen und einen anderen Weg der Fortbewegung finden.
    Die Verwendung von KI-gestützten Prozessen ist m.E. eher ein fauler Kompromiss, als das Neudenken der Datenverarbeitung. Ich verstehe zwar wenig von der neuen Technologie die analoge und digitale Datenverarbeitung in einem vereint, aber dieser Grundgedanke scheint mir in eine Richtung zu gehen, die ich für insofern vielversprechend halte, dass Daten hier nicht mehr linear verarbeitet werden, sondern in gewisser Weise dieselben Eingaben zu unterschiedlichen Ausgaben führen, da analoge Daten eine relative Varianz haben und durch verschiedene Faktoren beeinflusst werden können, die für digitale Daten keine Rolle spielen. Letzteres mag für die Entwicklung von KI von herausragender Bedeutung sein und könnte als solche u.U. sogar zu einer kreativen KI führen (da die gegenwärtige ja nur entsprechend verschiedener Erfahrungswerte Informationen neu kombiniert, aber nicht wirklich neues erschafft - da hierfür mindestens die Eingaben von realen Personen erforderlich sind).
    Ich würde daher sagen, ja Moores Law muss neu interpretiert werden und diese nicht mehr als im engeren Sinne Verdoppelung der Integrationsdichte ausgelegt werden dürfte, sondern im weiteren Sinne als einer Verdopplung der Leistungsfähigkeit von Rechensystemen. Ein Beispiel dafür wäre u.U. ein neues Rechen-/Verarbeitungssystem, das die Bildbearbeitung nicht mehr auf ein zusätzliches System wie eine Grafikkarte auslagert, sondern beispielsweise eine neues Verarbeitungssystem permanent eine virtuelle raumzeitlich konsistente Umgebung erzeugt, in der regelgeleitete/naturgesetzliche virtuellphysikalische Gegenstände/Welten/Realitäten simuliert werden würden und beispielsweise die Ausgabe von Bilddaten dann analog stattfinden würde, ein Bildschirm (oder anderes bildgebendes Gerät) am Ende technisch mehr mit einem Chamäleon gemeinsam hätte als mit einem heutigen Monitor.
    Will meinen: Komplexe Rechenprozesse finden nicht mehr in realphysikalischen Einheiten statt, sondern in der virtuellen Umgebung werden neue Rechensysteme geschaffen, die in dieser Umgebung betrieben werden, d.h. die eigentliche Verarbeitung findet in der virtuellen Umgebung statt. D.h. diese Systeme würden u.U. wieder die Größe eines Zimmers oder gar ganzen Hauses einnehmen, um überhaupt funktionieren zu können, aber Moores Law würde dann hier wiederum greifen und diese Systeme würden mit der Zeit kleiner und leistungsfähiger, würden zu neuen Technologien führen, die wir uns heute nicht einmal vorstellen können.

  • @leeeevin
    @leeeevin Рік тому

    Hallo, ich überlege meinen ersten Gaming-PC zu bauen und wollte dich oder die COmmunity fragen ob die Komponenten Zusammenstellung stimmig ist. Ich dachte an folgendes (ja ist Dead-End, das ist mir egal):
    Sapphire Pulse Radeon RX 6700 XT, 12GB
    GIGABYTE B550 Gaming X V2
    AMD Ryzen 7 5700X
    Western Digital WD_BLACK SN770 NVMe SSD 1TB, M.2
    be quiet! Pure Power 12 M 650W ATX 3.0
    Kingston FURY Beast DIMM Kit 16GB, DDR4-3600, CL17
    be quiet! Pure Rock 2 Black
    be quiet! Pure Base 500 schwarz, schallgedämmt
    Ist das Netzteil übertrieben?
    Vielen Dank :)

  • @DMkiller100
    @DMkiller100 Рік тому

    Veränderungen sind nie einfach

  • @markmeier2609
    @markmeier2609 Рік тому

    Ich würde es feiern wenn amd/Intel/nvidia sagen würden "Die next gen GPU/CPU wird 0% mehr leistung bringen als die jetzige. Sie wird lediglich besser werden, weniger strom verbrauch, weniger hitze, weniger kosten"
    Also kein höher-schnelle- weiter.
    Wird aber wohl ein traum bleiben.

  • @binnor88
    @binnor88 Рік тому

    War wieder ein sehr interessantes Video! Kannst du mir eine gute 75% Tastatur empfehlen, die aber so ungefähr 160€ kostet? Die Asus ROG Azoth ist mir leider zu teuer, allerdings mag die Größe sehr gerne.

    • @KreativEcke
      @KreativEcke  Рік тому +1

      Ich kann sogar eine empfehlen die weniger kostet und verdammt gut ist! Die Endorfy thock. Gibt es auch in 75%

    • @binnor88
      @binnor88 Рік тому

      Ok, vielen Dank!

  • @paddicxhd
    @paddicxhd Рік тому +2

    Ich finde Veränderung gut und wichtig. Nur mit Veränderung können wir uns weiterentwickeln (überall und in jeglicher Hinsicht), wie einmal jemand sagte: Das Gleiche zu machen und ein anderes Ergebnis als sonst zu erwarten, ist verrückt.
    Kommt eig. mal noch was zu deinem NAS? Hast vor n paar Monaten angekündigt und ich hab bislang nix dazu von dir gefunden, oder bin ich blind?

    • @KreativEcke
      @KreativEcke  Рік тому +1

      Kommt noch was zu, brauche aber etwas mehr Zeit! Das ist immer hinten runtergefallen!

    • @paddicxhd
      @paddicxhd Рік тому

      @@KreativEckecool, freu ich mich schon drauf!👍🏼

    • @myxvcx2988
      @myxvcx2988 Рік тому

      Wenn das schon so oft runtergefallen ist ist das Nas nicht bald mal kaputt.

  • @Hexenkind1
    @Hexenkind1 Рік тому

    Mir ist auch nur das Ergebnis wichtig. WENN, ja WENN nicht alles immer teurer würde.

  • @Silece88
    @Silece88 Рік тому

    Ich empfinde es etwas anders als du. Seit dem ich im PC Game bin gabs immer ergänzende Verbesserungen. Damals war es SLI, Physics, Tesselation, Mantle, DirectX, TSAA und so weiter. Heute sind es eben Spielereien wie Raytracing und DLSS. Dass bei der klassischen Rasterisierung nicht mehr viel zu holen ist, sieht man ja seit der PS3 Ära. Das Grundgerüst steht. Jetzt kommen die Details.

  • @marckutz1651
    @marckutz1651 Рік тому

    Ich glaube die Frage die man sich stellen muss, brauchen wir diese Art der Veränderung und Weiterentwicklung eigentlich ? Es wird immer weiter gehen, ob jetzt nach Moores Law oder langsamer, nur wieviel nutzen wir diese Weiterentwicklungen überhaupt. Klar geht es immer höher schneller und weiter, aber braucht der normale Nutzer das überhaupt ?

    • @michelwaringo1843
      @michelwaringo1843 Рік тому

      "640 KB sollten genug für jedermann sein." (Bill Gates, 1981)

  • @WardenOfSouls
    @WardenOfSouls Рік тому

    Ich finde das super interessant. Meine Theorie ist: Es gibt keine finalen Aussagen was möglich ist und was nicht. Man kann immer nur mit dem Zusatz "beim derzeitigen Wissensstand" antworten. Wenn man überlegt was Intel gerade entwickelt mit den "Glas" Chips z.B. oder welche neuen Technologien gerade entwickelt werden für Energieeffizienz. Vielleicht finden wir ja in 2 Jahren irgend ein Material oder eine Energieform die alles umwälzt.
    Die Menschen werden nie aufhören sich in extremen Schritten zu entwickeln. Das ist einfach unsere Natur.

  • @Rappii
    @Rappii Рік тому

    Ich denke es wird darauf hinauslaufen dass wir alle eine prüfend klingende (passt sogar die KI schaut nochmal drüber übers Bild bevors an den Monitor geht xD) neue Hardware Namens NPU haben werden und auch die vielen freien PCIe Slots endlich mal nutzen einen haben.

  • @db-dw9hw
    @db-dw9hw Рік тому

    insofern die neuen Technologien für ältere Hardware zugänglich ist, wäre das doch im ersten Gedankengang erstmal nur gut, wenn aktuelle Hardware kaum einen Mehrwert bietet, hat man keinen Grund viel Geld zu verbrennen - aber irgendwas werden sich die Hersteller schon einfallen lassen, um uns das Geld aus der Tasche zu ziehen.

  • @vellocx
    @vellocx Рік тому

    die Idee, dass Grafikkarten nicht mehr durch Raster-Leistung beworben werden (müssen) finde ich gar nicht so schlecht, solange die Rasterleistung eben stimmt. Also angenommen man kann dann 1080p, 1440p und 4k grafikkarten kaufen und welche man dann nimmt bezieht sich auf andere Sachen wie KI und co, wäre total in Ordnung. Ausser es ist sowas wo dann eine Softwaresperre der einzige Unterschied zwischen Hardwareprodukten darstellt. das wäre mieß..

    • @vellocx
      @vellocx Рік тому

      was sich als problematisch hersausstellen könnte ist natürlich auf der Spieleentwichlungsseite. Spiele verlangen über die Jahre ein höheres Budget (pro level zB) an Zeugs zum Berechnen. Wäre schade wenn der Hardwaremarkt dieses Limit setzt

  • @MrMengAmok
    @MrMengAmok Рік тому

    Ich befasse mich auch sehr viel mit den Themen Sofware, Hardware und AI. Und meine Einschätzung ist, dass die Bezeichnung Wendepunkt nicht ganz richtig ist. Bis all diese tollen neuen Methoden wie AI unterstütztes Paphtraceing und Hochskalierungsmethoden wie DLSS an dem Punkt angekommen sind, sowie die Architekturen was die Hardware angeht und die Software in Sache Engine und alles ineinandergreift, dass diese Features auch mit low end Grafikkarten richtig nutzbar sind (was ich als ein must have ansehe), vergehen sicher noch so ungefähr 8-10 Jahre. Vielleicht mit 2030 sind wir dann an dem Punkt angekommen, an dem man vielleicht von einem Wendepunkt reden kann. Bisher würde ich es eher als experimentelle alternative Entwicklung für den high end Bereich only ansehen.
    Framegeneration ist noch viel zu Latenz killend, als dass man es als brauchbares Feature ansehen kann (Zumindest meiner Meinung nach). Ich denke, solange sich die Latenzauswirkung nicht mindestens halbiert ist es mehr ein Gimmik als ein richtiges Feature. Manch einer würde sagen, dass die Latenzauswirkung sogar deutlich mehr als halbiert werden müsste.
    DLSS hat noch viel zu viele Artefakte und interpretiert das hochskalierte Bild noch in zu vielen Situationen flasch, was vom Developer beabsichtigte Inperfektionen einfach ausbügelt. Also da ist auch noch wirklich viel an Arbeit notwendig.
    Raytraceing bzw nun eher mehr Paphtraceing braucht auch noch einiges an Arbeit. Bisher macht es Games zwar schöner, aber in einigen Situationen ändert es nix und in manchen macht es Sachen sogar schlechter. Ich denke Paphtraceing ist defenitiv der richtige Weg vorran in die Zukunft, aber Grafikkarten und CPUs brauchen deutlich mehr Leistung und die Umsetzung von der Softwareseite braucht auch noch einiges an Entwicklungszeit.
    Nächstes Problem ist, dass all diese Features im Grunde mit den erhöhten Anforderungen auch dafür gesorgt haben, dass Hardwarekomponenten immer mehr und mehr Strom fressen. Hier muss also auch noch was, was Energieeffizienz angeht geschehen. Oder es müssen neue Kühlungsmethoden her, aber Energieeffizienz wäre denke ich die intelligentere Lösung.
    Wir sehen dass an all diesen Schrauben gedreht und weiterentwickelt wird, aber bis alles harmonisch zusammen kommt und der neue Standard wird,... da werden wir denke ich noch ne ganze Weile warten müssen. Und wenn alles mal perfekt zusammenklickt, kann man davon ausgehen, dass die nötige Hardware selbst im low end Bereich ziemlich teuer sein wird und ein paar Generationen brauchen wird, bis es leistbar sein wird. Wenn man also nicht für nen low end Gamingrechner 3500 Euro oder sogar etwas mehr für eine Paphtraceing Erfahung ausgeben will, würde ich sagen wäre eine realistische Einschätzung 2034/35 bis es Mainstream wird. Bis dahin, wirds stätig besser, aber über einen so langen Zeitraum, denke ich kann man nicht wirklich von einem WendePUNKT reden. Zumindest nicht wenn bis dahin, 70% der Spieler weiterhin bei Rastorization bleiben werden und vielleicht die ein oder andere Raytraceing Einstellung eindrehen werden.
    Man sieht ja wie die Preise nach oben gegangen sind und man sieht auch dass die 50er, 60er und man kann denke ich auch durchaus sagen die 70er Karten von Nvidia über die letzten paar Generationen nicht wirklich einen Leistungssprung haben, der auch nur ansatzweise da ist, wo man es brauchen könnte um überhaupt Raytraceing optimal zu nutzten.
    Ich denke für das was Gameengines und Developers bis ca. ende des Jahrzehnts anpeilen (Und Gamer auch erwarten), müsste eine 50er Karte wahrscheinlich etwas stärker sein als ne heutige 4090 (wahrscheinlich durchaus 30-50% stärker), wenn man Games in Paphtraceing mit 60-100 Frames spielen will. Und viel Glück dabei, das mit den standard Materialien die derzeit zum Einsatz kommen umzusetzten. Ich sag nicht, dass das unmöglich ist, aber sicher nicht einfach. Ich glaube die Wahrscheinlichkeit besteht, dass wir zuerst von einem Material-Wendepunkt sprechen werden, was die Hardwareproduktion angeht. Wobei ich mir diesbezüglich nicht 100% sicher bin. Ka ob Graphine das Material der Zukunft sein wird und wie leicht es ist, dies in bestehenden Labs als Material in die Produktion zu integrieren. Kann mir aber durchaus Vorstellen, dass etwas in diese Richtung ein notwendiger Schritt sein wird, wenn man zukünftig die nötige Hardwareperformance in allen Produkten unterschiedlichster Preisklasse an den Kunden bringen will.
    Für mich ist eine Technologie erst dann ein Wendepunkt, wenn es als neuer Standard angesehen werden kann und es in unterschiedlichsten Preisklassen vorhanden ist, funktioniert und auch das nötige Angebot am Markt ist was in diesem Falle Gameingtitel angeht.

  • @daisyduck8593
    @daisyduck8593 Рік тому

    Er hatte damit auch deshalb recht. Weil die Industrie sich an seiner Prognose orientiert hat, u.a. anhand der Investitionen...

  • @lordloffel7301
    @lordloffel7301 11 місяців тому

    Puhh, also ich muss sagen, dass wenn wir irgendwann an dem Punkt sind, wo KI Maßgeblich die Leistung einer Komponente bestimmt, und die Hardware selbst nur noch zweitrangig ist, dann sehe ich irgendwie nicht, warum man sich dann überhaupt noch neue Grafikkarten kaufen sollte, da neue Softwarelösungen ja dann ebenfalls auf älteren Modellen laufen müsste/könnte.
    Ich hätte schon auch gern weiterhin, dass mindestens 75+ % der Leistung einer Graka aus Rohleistung bestehen. DLSS sollte in meinen Augen nur eine Option bleiben, und nicht notwendig werden.

  • @FlatMoki
    @FlatMoki Рік тому

    das einzige Problem was ich habe ist das man "früher" die Option hatte; Grafik schön oder schnell und eventuell Auflösung niedrig oder hoch. Inzwischen muss man ein halbes Studium hinlegen um gute Ergebnisse zu erzielen.

  • @Jan-565
    @Jan-565 Рік тому

    Bis heute kommt das Moorese Gesetzt hin. Alleine schon wenn man überlegt das bald der 7995WX kommt mit seinen 96 Kernen und 192Threads. Irgendwann wird es aber nicht mehr hinkommen, aber eines ist sicher, die Leistung wird weiter steigern und die Prozessoren werden immer Energieeffizienter, was auch wieder mehr Leistung für weniger Energie bedeutet.

  • @birgerkorb9072
    @birgerkorb9072 Рік тому

    Veränderungen sind gut, ansonsten gäbe es stillstand. Und das will ja auch irgendwie keiner? Ich glaube das wichtigste bei Veränderungen ist die Freiheit sich zu entscheiden ob man bei einer Veränderung mit macht oder nicht?

    • @KreativEcke
      @KreativEcke  Рік тому +1

      Genau so sehe ich das eigentlich auch! :)

  • @DerMilko
    @DerMilko Рік тому

    wie wäre es mit einer neuen Architektur? ARM verbraucht auch bei gleicher Leistung weniger Strom